需求人群:
"目标受众包括3D建模师、视觉特效师、游戏开发者和研究人员。LucidFusion因其高度的灵活性和适应性,特别适合需要从多角度图像中快速生成高质量3D模型的专业人士。此外,对于需要进行复杂场景重建和分析的研究人员而言,LucidFusion提供了一个强大的工具。"
使用场景示例:
电影中的钢铁侠角色3D模型重建,通过LucidFusion从多角度图像中生成。
从电影中提取的绿巨人角色,使用LucidFusion进行3D重建,用于电影后期制作。
利用LucidFusion技术,从不同角度的图片中重建出俄罗斯风格套娃的3D模型,用于文化展览。
产品特色:
• 利用相对坐标图(RCM)对不同视图的几何特征进行对齐,提高3D重建的准确性和一致性。
• 端到端前馈框架,简化了从多视图图像到3D模型的转换过程。
• 支持任意数量和任意姿势的多视图图像,增强了模型的适用性和灵活性。
• 与单图像到3D的流程无缝集成,提高了3D建模的效率和细节。
• 生成高分辨率3D高斯,分辨率达到512x512,适用于高质量的3D视觉应用。
• 支持跨数据集的内容创建,展示了模型的强大适应性和应用潜力。
使用教程:
1. 准备一组未摆姿势的多视图图像。
2. 将这些图像输入到LucidFusion框架中。
3. 利用框架中的Stable Diffusion模型对图像进行前馈处理。
4. 模型预测输入图像的RCM表示。
5. 将VAE的最后一层的特征图输入到解码器网络中,预测高斯参数。
6. 将RCM表示和预测的高斯参数融合,传递给高斯渲染器以生成新视图进行监督。
7. 根据需要调整参数,优化3D模型的质量和细节。
8. 输出最终的3D高斯模型,用于进一步的应用或分析。
浏览量:43
基于多视图生成重建先验的拖拽式3D编辑工具
MVDrag3D是一个创新的3D编辑框架,它通过利用多视图生成和重建先验来实现灵活且具有创造性的拖拽式3D编辑。该技术的核心是使用多视图扩散模型作为强大的生成先验,以在多个渲染视图中执行一致的拖拽编辑,随后通过重建模型重建编辑对象的3D高斯。MVDrag3D通过视图特定的变形网络调整高斯的位置以实现良好的视图对齐,并提出多视图评分函数以从多个视图中提取生成先验,进一步增强视图一致性和视觉质量。这项技术对于3D建模和设计领域具有重要意义,因为它支持更多样化的编辑效果,并适用于多种对象类别和3D表示。
3D高斯生成技术,实现任意未摆姿势图像的3D重建
LucidFusion是一个灵活的端到端前馈框架,用于从未摆姿势、稀疏和任意数量的多视图图像中生成高分辨率3D高斯。该技术利用相对坐标图(RCM)来对齐不同视图间的几何特征,使其在3D生成方面具有高度适应性。LucidFusion能够与原始单图像到3D的流程无缝集成,生成512x512分辨率的详细3D高斯,适合广泛的应用场景。
一种通过3D感知递归扩散生成3D模型的框架
Ouroboros3D是一个统一的3D生成框架,它将基于扩散的多视图图像生成和3D重建集成到一个递归扩散过程中。该框架通过自条件机制联合训练这两个模块,使它们能够相互适应,以实现鲁棒的推理。在多视图去噪过程中,多视图扩散模型使用由重建模块在前一时间步渲染的3D感知图作为附加条件。递归扩散框架与3D感知反馈相结合,提高了整个过程的几何一致性。实验表明,Ouroboros3D框架在性能上优于将这两个阶段分开训练的方法,以及在推理阶段将它们结合起来的现有方法。
腾讯推出的3D生成框架,支持文本和图像到3D的生成。
Hunyuan3D-1是腾讯推出的一个统一框架,用于文本到3D和图像到3D的生成。该框架采用两阶段方法,第一阶段使用多视图扩散模型快速生成多视图RGB图像,第二阶段通过前馈重建模型快速重建3D资产。Hunyuan3D-1.0在速度和质量之间取得了令人印象深刻的平衡,显著减少了生成时间,同时保持了生成资产的质量和多样性。
用于高质量高效3D重建和生成的大型高斯重建模型
GRM是一种大规模的重建模型,能够在0.1秒内从稀疏视图图像中恢复3D资产,并且在8秒内实现生成。它是一种前馈的基于Transformer的模型,能够高效地融合多视图信息将输入像素转换为像素对齐的高斯分布,这些高斯分布可以反投影成为表示场景的密集3D高斯分布集合。我们的Transformer架构和使用3D高斯分布的方式解锁了一种可扩展、高效的重建框架。大量实验结果证明了我们的方法在重建质量和效率方面优于其他替代方案。我们还展示了GRM在生成任务(如文本到3D和图像到3D)中的潜力,通过与现有的多视图扩散模型相结合。
DiffSplat 是一个从文本提示和单视图图像生成 3D 高斯点云的生成框架。
DiffSplat 是一种创新的 3D 生成技术,能够从文本提示和单视图图像快速生成 3D 高斯点云。该技术通过利用大规模预训练的文本到图像扩散模型,实现了高效的 3D 内容生成。它解决了传统 3D 生成方法中数据集有限和无法有效利用 2D 预训练模型的问题,同时保持了 3D 一致性。DiffSplat 的主要优点包括高效的生成速度(1~2 秒内完成)、高质量的 3D 输出以及对多种输入条件的支持。该模型在学术研究和工业应用中具有广泛前景,尤其是在需要快速生成高质量 3D 模型的场景中。
高分辨率3D内容生成的多视图高斯模型
LGM是一个用于从文本提示或单视图图像生成高分辨率3D模型的新框架。它的关键见解是:(1) 3D表示:我们提出了多视图高斯特征作为一个高效 yet 强大的表示,然后可以将其融合在一起进行不同iable 渲染。(2) 3D主干:我们呈现了一个不对称U-Net作为一个高通量的主干操作多视图图像,这可以通过利用多视图扩散模型从文本或单视图图像输入中产生。大量的实验表明了我们方法的高保真度和效率。值得注意的是,我们在将训练分辨率提高到512的同时保持生成3D对象的快速速度,从而实现了高分辨率的3D内容生成。
免费创建和查看高斯3D模糊图像的工具
Polycam的高斯模糊创建工具可以让你免费将图像转换为沉浸式的3D模糊图像,你可以预览、分享和导出这些模糊图像。该工具支持20-200张PNG或JPG格式图像输入,输入图像需遵循影像测量最佳实践,保证图像清晰、均匀曝光和无运动模糊效果。生成的3D模糊可在Unity和Unreal等引擎中使用,插件不断更新以支持更多软件。该工具还提供Gallery功能用于浏览和分享社区创作。
高效3D高斯重建模型,实现大场景快速重建
Long-LRM是一个用于3D高斯重建的模型,能够从一系列输入图像中重建出大场景。该模型能在1.3秒内处理32张960x540分辨率的源图像,并且仅在单个A100 80G GPU上运行。它结合了最新的Mamba2模块和传统的transformer模块,通过高效的token合并和高斯修剪步骤,在保证质量的同时提高了效率。与传统的前馈模型相比,Long-LRM能够一次性重建整个场景,而不是仅重建场景的一小部分。在大规模场景数据集上,如DL3DV-140和Tanks and Temples,Long-LRM的性能可与基于优化的方法相媲美,同时效率提高了两个数量级。
AI 生成定制 3D 模型
3D AI Studio 是一款基于人工智能技术的在线工具,可以轻松生成定制的 3D 模型。适用于设计师、开发者和创意人士,提供高质量的数字资产。用户可以通过AI生成器快速创建3D模型,并以FBX、GLB或USDZ格式导出。3D AI Studio具有高性能、用户友好的界面、自动生成真实纹理等特点,可大幅缩短建模时间和降低成本。
快速从单张图片生成3D模型。
Stable Fast 3D (SF3D) 是一个基于TripoSR的大型重建模型,能够从单张物体图片生成带有纹理的UV展开3D网格资产。该模型训练有素,能在不到一秒的时间内创建3D模型,具有较低的多边形计数,并且进行了UV展开和纹理处理,使得模型在下游应用如游戏引擎或渲染工作中更易于使用。此外,模型还能预测每个物体的材料参数(粗糙度、金属感),在渲染过程中增强反射行为。SF3D适用于需要快速3D建模的领域,如游戏开发、电影特效制作等。
3D模型动画生成
Animate3D是一个创新的框架,用于为任何静态3D模型生成动画。它的核心理念包括两个主要部分:1) 提出一种新的多视图视频扩散模型(MV-VDM),该模型基于静态3D对象的多视图渲染,并在我们提供的大规模多视图视频数据集(MV-Video)上进行训练。2) 基于MV-VDM,引入了一个结合重建和4D得分蒸馏采样(4D-SDS)的框架,利用多视图视频扩散先验来为3D对象生成动画。Animate3D通过设计新的时空注意力模块来增强空间和时间一致性,并通过多视图渲染来保持静态3D模型的身份。此外,Animate3D还提出了一个有效的两阶段流程来为3D模型生成动画:首先从生成的多视图视频中直接重建运动,然后通过引入的4D-SDS来细化外观和运动。
快速从单视图训练高保真的人体3D高斯模型
Human101是一个快速从单视图重建人体的框架。它能够在100秒内训练3D高斯模型,并以60FPS以上渲染1024分辨率的图像,而无需预先存储每帧的高斯属性。Human101管道如下:首先,从单视图视频中提取2D人体姿态。然后,利用姿态驱动3D模拟器生成匹配的3D骨架动画。最后,基于动画构建时间相关的3D高斯模型,进行实时渲染。
ComfyUI节点插件,支持3D处理
ComfyUI-3D-Pack是一个强大的3D处理节点插件包,它为ComfyUI提供了处理3D输入(网格、UV纹理等)的能力,使用了最前沿的算法,如3D高斯采样、神经辐射场等。这个项目可以让用户只用单张图片就可以快速生成3D高斯模型,并可以将高斯模型转换成网格,实现3D重建。它还支持多视图图像作为输入,允许在给定的3D网格上映射多视图渲染的纹理贴图。该插件包处于开发中,尚未正式发布到ComfyUI插件库,但已经支持诸如大型多视图高斯模型、三平面高斯变换器、3D高斯采样、深度网格三角剖分、3D文件加载保存等功能。它的目标是成为ComfyUI处理3D内容的强大工具。
首个同时支持文生和图生的3D开源模型
腾讯混元3D是一个开源的3D生成模型,旨在解决现有3D生成模型在生成速度和泛化能力上的不足。该模型采用两阶段生成方法,第一阶段使用多视角扩散模型快速生成多视角图像,第二阶段通过前馈重建模型快速重建3D资产。混元3D-1.0模型能够帮助3D创作者和艺术家自动化生产3D资产,支持快速单图生3D,10秒内完成端到端生成,包括mesh和texture提取。
从单张图片生成高质量3D视图和新颖视角的3D生成技术
Stable Video 3D是Stability AI推出的新模型,它在3D技术领域取得了显著进步,与之前发布的Stable Zero123相比,提供了大幅改进的质量和多视角支持。该模型能够在没有相机条件的情况下,基于单张图片输入生成轨道视频,并且能够沿着指定的相机路径创建3D视频。
从多视角图像创建3D场景
CAT3D是一个利用多视角扩散模型从任意数量的输入图像生成新视角的3D场景的网站。它通过一个强大的3D重建管道,将生成的视图转化为可交互渲染的3D表示。整个处理时间(包括视图生成和3D重建)仅需一分钟。
ComfyUI 3D处理插件包
ComfyUI-3D-Pack是一个强大的3D处理插件集合,它为ComfyUI提供了处理3D模型(网格、纹理等)的能力,集成了各种前沿3D重建和渲染算法,如3D高斯采样、NeRF不同iable渲染等,可以实现单视角图像快速重建3D高斯模型,并可转换为三角网格模型,同时还提供了交互式3D可视化界面。
基于高斯点云的可驱动3D人体模型
D3GA是一个基于高斯点云的可驱动3D人体模型。它可以从多视角的视频中学习生成逼真的3D人体模型。模型使用3D高斯点云技术实时渲染,通过关节角度和关键点来驱动模型形变。与其他方法相比,在相同的训练和测试数据下,D3GA可以生成更高质量的结果。它适用于需要实时渲染和控制3D人体的应用。
将图片轻松转换为3D资产的专业工具
TRELLIS 3D AI是一款利用人工智能技术将图片转换成3D资产的专业工具。它通过结合先进的神经网络和结构化潜在技术(Structured LATents, SLAT),能够保持输入图片的结构完整性和视觉细节,生成高质量的3D资产。产品背景信息显示,TRELLIS 3D AI被全球专业人士信赖,用于可靠的图像到3D资产的转换。与传统的3D建模工具不同,TRELLIS 3D AI提供了一个无需复杂操作的图像到3D资产的转换过程。产品价格为免费,适合需要快速、高效生成3D资产的用户。
轻松创建和利用3D内容
3D Creation是一个提供给用户轻松创建和利用3D内容的网站。它提供了多种功能,包括AI纹理、我的模型、API等。用户可以使用AI纹理功能将图片转换为纹理,也可以使用文本转3D功能将文字描述转换为3D模型。此外,用户还可以使用Sketch to 3D功能将手绘草图转换为3D模型。3D Creation适用于各种场景,如设计、图像处理、视频制作等。该产品定位于提供简单易用的3D内容创作工具,并提供合理的定价策略。
从单张图片或文本提示生成高质量3D资产
Flex3D是一个两阶段流程,能够从单张图片或文本提示生成高质量的3D资产。该技术代表了3D重建领域的最新进展,可以显著提高3D内容的生成效率和质量。Flex3D的开发得到了Meta的支持,并且团队成员在3D重建和计算机视觉领域有着深厚的背景。
文字转3D
Luma AI是一款基于人工智能技术的文字转3D工具,通过使用Luma AI,用户可以将文字快速转换成3D模型,并进行编辑和渲染,实现独特的视觉效果。Luma AI具有高效、易用和灵活的特点,适用于各种创意设计、广告制作和数字媒体项目。定价详细请参考官方网站。
ReconFusion: 3D重建与扩散先验
ReconFusion是一种3D重建方法,利用扩散先验在只有少量照片的情况下重建真实世界场景。它结合Neural Radiance Fields(NeRFs)和扩散先验,能够在新的摄像机位置超出输入图像集合的情况下,合成逼真的几何和纹理。该方法通过在少量视图和多视图数据集上训练扩散先验,能够在不受约束的区域合成逼真的几何和纹理,同时保留观察区域的外观。ReconFusion在各种真实世界数据集上进行了广泛评估,包括前向和360度场景,展示出明显的性能改进。
高质量3D资产生成技术
Edify 3D是NVIDIA推出的一款AI驱动的3D资产生成技术,它能够在两分钟内生成详细的、生产就绪的3D资产,包括组织良好的UV贴图、4K纹理和PBR材料。这项技术使用多视图扩散模型和基于Transformer的重建,能够从文本提示或参考图像合成高质量的3D资产,实现卓越的效率和可扩展性。Edify 3D对于视频游戏设计、扩展现实、电影制作和仿真等需要严格生产标准的行业至关重要。
无需相机校准信息的密集立体3D重建
DUSt3R是一种新颖的密集和无约束立体3D重建方法,适用于任意图像集合。它不需要事先了解相机校准或视点姿态信息,通过将成对重建问题视为点图的回归,放宽了传统投影相机模型的严格约束。DUSt3R提供了一种统一的单目和双目重建方法,并在多图像情况下提出了一种简单有效的全局对齐策略。基于标准的Transformer编码器和解码器构建网络架构,利用强大的预训练模型。DUSt3R直接提供场景的3D模型和深度信息,并且可以从中恢复像素匹配、相对和绝对相机信息。
即时生成3D模型的AI平台
Instant 3D AI是一个利用人工智能技术,能够将2D图像快速转换成3D模型的在线平台。该技术的重要性在于它极大地简化了3D模型的创建过程,使得非专业人士也能轻松创建高质量的3D模型。产品背景信息显示,Instant 3D AI已经获得了1400多位创作者的信任,并获得了4.8/5的优秀评分。产品的主要优点包括快速生成3D模型、用户友好的操作界面以及高用户满意度。价格方面,Instant 3D AI提供免费试用,让用户可以先体验产品再决定是否付费。
© 2025 AIbase 备案号:闽ICP备08105208号-14