需求人群:
["虚拟现实","游戏开发","自动内容创建"]
使用场景示例:
文本提示:“秋日公园”,生成室外自然风光场景
文本提示:“舒适的客厅”,生成室内家居场景
文本提示:“水彩夜晚街道”,生成有风格的城市夜景
产品特色:
从文本提示生成3D场景
支持室内外场景生成
支持风格化场景生成
使用2D扩散和深度估计模型
采用高斯云表示场景
插值和精炼高斯云以增强细节
浏览量:146
文本到3D沉浸场景生成
Text2Immersion是一个优雅的从文本提示生成高质量3D沉浸场景的方法。我们提出的流水线首先使用预训练的2D扩散和深度估计模型逐步生成高斯云。接下来是对高斯云进行精炼,插值和精炼以增强生成场景的细节。与仅关注单个物体或室内场景,或采用缩小轨迹的主流方法不同,我们的方法可以生成包含各种物体的不同场景,甚至扩展到创造想象中的场景。因此,Text2Immersion可以对各种应用产生广泛的影响,如虚拟现实、游戏开发和自动内容创建。大量的评估证明我们的系统在渲染质量和多样性方面优于其他方法,并且继续推进面向文本的3D场景生成。
文本引导的高保真3D场景合成
SceneWiz3D是一种新颖的方法,可以从文本中合成高保真的3D场景。它采用混合的3D表示,对对象采用显式表示,对场景采用隐式表示。用户可以通过传统的文本到3D方法或自行提供对象来生成对象。为了配置场景布局并自动放置对象,我们在优化过程中应用了粒子群优化技术。此外,在文本到场景的情况下,对于场景的某些部分(例如角落、遮挡),很难获得多视角监督,导致几何形状劣质。为了缓解这种监督缺失,我们引入了RGBD全景扩散模型作为额外先验,从而实现了高质量的几何形状。广泛的评估支持我们的方法实现了比以前的方法更高的质量,可以生成详细且视角一致的3D场景。
单文本/图像生成可导航3D场景
LucidDreamer是一种无域3D场景生成技术,通过充分利用现有大规模扩散生成模型的能力,可以从单个文本提示或单个图像生成可导航的3D场景。该方法具有梦境和对齐两个交替步骤,首先根据输入生成多视角一致的图像,然后将新生成的3D场景部分和谐地整合在一起。LucidDreamer生成的高度详细的高斯斑点与以往的3D场景生成方法相比没有目标场景域的限制。
通过文本生成3D场景中的对象插入
InseRF是一种通过文本提示和2D边界框在NeRF重建的3D场景中生成新对象的方法。它能够从用户提供的文本描述和一个参考视点中的2D边界框中生成新的3D对象,并将其插入到场景中。该方法能够在不需要显式3D信息的情况下实现可控的、与3D一致的对象插入。通过在多个3D场景中进行试验,证明了InseRF方法相对于现有方法的有效性。
扩展3D场景生成模型
BlockFusion是一种基于扩散的模型,可以生成3D场景,并无缝地将新的块整合到场景中。它通过对随机裁剪自完整3D场景网格的3D块数据集进行训练。通过逐块拟合,所有训练块都被转换为混合神经场:其中包含几何特征的三面体,然后是用于解码有符号距离值的多层感知器(MLP)。变分自动编码器用于将三面体压缩到潜在的三面体空间,对其进行去噪扩散处理。扩散应用于潜在表示,可以实现高质量和多样化的3D场景生成。在生成过程中扩展场景时,只需附加空块以与当前场景重叠,并外推现有的潜在三面体以填充新块。外推是通过在去噪迭代过程中使用来自重叠三面体的特征样本来调节生成过程完成的。潜在三面体外推产生语义和几何上有意义的过渡,与现有场景和谐地融合。使用2D布局调节机制来控制场景元素的放置和排列。实验结果表明,BlockFusion能够生成多样化、几何一致且质量高的室内外大型3D场景。
基于高斯点云的可驱动3D人体模型
D3GA是一个基于高斯点云的可驱动3D人体模型。它可以从多视角的视频中学习生成逼真的3D人体模型。模型使用3D高斯点云技术实时渲染,通过关节角度和关键点来驱动模型形变。与其他方法相比,在相同的训练和测试数据下,D3GA可以生成更高质量的结果。它适用于需要实时渲染和控制3D人体的应用。
AI 生成定制 3D 模型
3D AI Studio 是一款基于人工智能技术的在线工具,可以轻松生成定制的 3D 模型。适用于设计师、开发者和创意人士,提供高质量的数字资产。用户可以通过AI生成器快速创建3D模型,并以FBX、GLB或USDZ格式导出。3D AI Studio具有高性能、用户友好的界面、自动生成真实纹理等特点,可大幅缩短建模时间和降低成本。
3D场景重建与动态物体追踪技术
EgoGaussian是一项先进的3D场景重建与动态物体追踪技术,它能够仅通过RGB第一人称视角输入,同时重建3D场景并动态追踪物体的运动。这项技术利用高斯散射的独特离散特性,从背景中分割出动态交互,并通过片段级别的在线学习流程,利用人类活动的动态特性,以时间顺序重建场景的演变并追踪刚体物体的运动。EgoGaussian在野外视频的挑战中超越了先前的NeRF和动态高斯方法,并且在重建模型的质量上也表现出色。
免费创建和查看高斯3D模糊图像的工具
Polycam的高斯模糊创建工具可以让你免费将图像转换为沉浸式的3D模糊图像,你可以预览、分享和导出这些模糊图像。该工具支持20-200张PNG或JPG格式图像输入,输入图像需遵循影像测量最佳实践,保证图像清晰、均匀曝光和无运动模糊效果。生成的3D模糊可在Unity和Unreal等引擎中使用,插件不断更新以支持更多软件。该工具还提供Gallery功能用于浏览和分享社区创作。
快速从单张图片生成3D模型。
Stable Fast 3D (SF3D) 是一个基于TripoSR的大型重建模型,能够从单张物体图片生成带有纹理的UV展开3D网格资产。该模型训练有素,能在不到一秒的时间内创建3D模型,具有较低的多边形计数,并且进行了UV展开和纹理处理,使得模型在下游应用如游戏引擎或渲染工作中更易于使用。此外,模型还能预测每个物体的材料参数(粗糙度、金属感),在渲染过程中增强反射行为。SF3D适用于需要快速3D建模的领域,如游戏开发、电影特效制作等。
从多视角图像创建3D场景
CAT3D是一个利用多视角扩散模型从任意数量的输入图像生成新视角的3D场景的网站。它通过一个强大的3D重建管道,将生成的视图转化为可交互渲染的3D表示。整个处理时间(包括视图生成和3D重建)仅需一分钟。
从单张图片创建可控3D和4D场景的视频扩散模型
DimensionX是一个基于视频扩散模型的3D和4D场景生成技术,它能够从单张图片中创建出具有可控视角和动态变化的三维和四维场景。这项技术的主要优点包括高度的灵活性和逼真度,能够根据用户提供的提示词生成各种风格和主题的场景。DimensionX的背景信息显示,它是由一群研究人员共同开发的,旨在推动图像生成技术的发展。目前,该技术是免费提供给研究和开发社区使用的。
从单一图像或文本生成可探索的3D场景
VividDream是一项创新技术,能够从单一输入图像或文本提示生成具有环境动态的可探索4D场景。它首先将输入图像扩展为静态3D点云,然后使用视频扩散模型生成动画视频集合,并通过优化4D场景表示来实现一致性运动和沉浸式场景探索。这项技术为生成基于多样真实图像和文本提示的引人入胜的4D体验提供了可能。
实时编辑和完整对象结构生成的3D模型。
Stable Point Aware 3D (SPAR3D) 是 Stability AI 推出的先进3D生成模型。它能够在不到一秒的时间内,从单张图像中实现3D对象的实时编辑和完整结构生成。SPAR3D采用独特的架构,结合精确的点云采样与先进的网格生成技术,为3D资产创建提供了前所未有的控制力。该模型免费提供给商业和非商业用途,可在Hugging Face下载权重,GitHub获取代码,或通过Stability AI开发者平台API访问。
腾讯推出的3D生成框架,支持文本和图像到3D的生成。
Hunyuan3D-1是腾讯推出的一个统一框架,用于文本到3D和图像到3D的生成。该框架采用两阶段方法,第一阶段使用多视图扩散模型快速生成多视图RGB图像,第二阶段通过前馈重建模型快速重建3D资产。Hunyuan3D-1.0在速度和质量之间取得了令人印象深刻的平衡,显著减少了生成时间,同时保持了生成资产的质量和多样性。
从单张图片生成交互式3D场景
WonderWorld是一个创新的3D场景扩展框架,允许用户基于单张输入图片和用户指定的文本探索和塑造虚拟环境。它通过快速高斯体素和引导扩散的深度估计方法,显著减少了计算时间,生成几何一致的扩展,使3D场景的生成时间少于10秒,支持实时用户交互和探索。这为虚拟现实、游戏和创意设计等领域提供了快速生成和导航沉浸式虚拟世界的可能性。
DiffSplat 是一个从文本提示和单视图图像生成 3D 高斯点云的生成框架。
DiffSplat 是一种创新的 3D 生成技术,能够从文本提示和单视图图像快速生成 3D 高斯点云。该技术通过利用大规模预训练的文本到图像扩散模型,实现了高效的 3D 内容生成。它解决了传统 3D 生成方法中数据集有限和无法有效利用 2D 预训练模型的问题,同时保持了 3D 一致性。DiffSplat 的主要优点包括高效的生成速度(1~2 秒内完成)、高质量的 3D 输出以及对多种输入条件的支持。该模型在学术研究和工业应用中具有广泛前景,尤其是在需要快速生成高质量 3D 模型的场景中。
高效3D高斯重建模型,实现大场景快速重建
Long-LRM是一个用于3D高斯重建的模型,能够从一系列输入图像中重建出大场景。该模型能在1.3秒内处理32张960x540分辨率的源图像,并且仅在单个A100 80G GPU上运行。它结合了最新的Mamba2模块和传统的transformer模块,通过高效的token合并和高斯修剪步骤,在保证质量的同时提高了效率。与传统的前馈模型相比,Long-LRM能够一次性重建整个场景,而不是仅重建场景的一小部分。在大规模场景数据集上,如DL3DV-140和Tanks and Temples,Long-LRM的性能可与基于优化的方法相媲美,同时效率提高了两个数量级。
轻松创建和利用3D内容
3D Creation是一个提供给用户轻松创建和利用3D内容的网站。它提供了多种功能,包括AI纹理、我的模型、API等。用户可以使用AI纹理功能将图片转换为纹理,也可以使用文本转3D功能将文字描述转换为3D模型。此外,用户还可以使用Sketch to 3D功能将手绘草图转换为3D模型。3D Creation适用于各种场景,如设计、图像处理、视频制作等。该产品定位于提供简单易用的3D内容创作工具,并提供合理的定价策略。
SceneScript:通过Reality Labs研究实现3D场景重建
SceneScript是Reality Labs研究团队开发的一种新型3D场景重建技术。该技术利用AI来理解和重建复杂的3D场景,能够从单张图片中创建详细的3D模型。SceneScript通过结合多种先进的深度学习技术,如半监督学习、自监督学习和多模态学习,显著提高了3D重建的准确性和效率。
3D场景创造革命,电影级效果
Lixel CyberColor(LCC),由XGRIDS公司研发的先进技术产品,为3D场景的创建带来革命性变化。LCC能自动生成电影级效果的无限大3D场景,使用Multi-SLAM和高斯溅射技术。其核心优势在于精确捕捉并复现真实细节,为虚拟现实、游戏开发、电影制作等领域带来真实性体验。 XGRIDS作为一套集成软硬件解决方案,展现出在微米到千米级别的高精度3D重建和智能空间计算方面的强大能力。采用Multi-SLAM算法和优化的3DGS技术,自动创建超逼真大型3D模型,沉浸式体验。优化算法实现逼真渲染效果,通过数据压缩技术将模型大小减小90%,LiDAR集成技术实现厘米级模型精度,提供AI驱动的动态物体去除算法。推出LCC插件和SDK,在Unity、UE、Web、移动平台使用,为3D内容提供强大支持。
文字转3D
Luma AI是一款基于人工智能技术的文字转3D工具,通过使用Luma AI,用户可以将文字快速转换成3D模型,并进行编辑和渲染,实现独特的视觉效果。Luma AI具有高效、易用和灵活的特点,适用于各种创意设计、广告制作和数字媒体项目。定价详细请参考官方网站。
用于编辑动态场景的稀疏控制高斯溅射技术
SC-GS是一种新型表示技术,将动态场景的运动和外观分别用稀疏控制点和密集高斯函数表示。它使用少量控制点学习紧凑的6自由度变换基,这些基可通过插值权重在局部插值,得到3D高斯函数的运动场。它采用变形MLP预测每个控制点的时变6自由度变换,降低学习复杂度,增强学习能力,实现时空连贯的运动模式。同时联合学习3D高斯函数、控制点的规范空间位置和变形MLP,重建3D场景的外观、几何和动态。在训练过程中,控制点的位置和数量会自适应调整以适应不同区域的运动复杂度,并采用尽可能刚性的损失函数强制运动的空间连续性和局部刚性。由于运动表示的显式稀疏性和外观分离,该方法实现了用户控制的运动编辑,同时保留高保真度外观。大量实验表明,该方法在新视图合成和高速渲染方面优于现有方法,并支持新的保留外观的运动编辑应用。
一种通过3D感知递归扩散生成3D模型的框架
Ouroboros3D是一个统一的3D生成框架,它将基于扩散的多视图图像生成和3D重建集成到一个递归扩散过程中。该框架通过自条件机制联合训练这两个模块,使它们能够相互适应,以实现鲁棒的推理。在多视图去噪过程中,多视图扩散模型使用由重建模块在前一时间步渲染的3D感知图作为附加条件。递归扩散框架与3D感知反馈相结合,提高了整个过程的几何一致性。实验表明,Ouroboros3D框架在性能上优于将这两个阶段分开训练的方法,以及在推理阶段将它们结合起来的现有方法。
高效构建3D语言场
LangSplat通过将CLIP语言嵌入映射到一组3D高斯分布来构建3D语言场,实现了对3D场景进行开放词汇量查询。它避免了NeRF中的昂贵渲染过程,大大提高了效率。学习到的语言特征精确捕捉对象边界,提供了精确的3D语言场,没有需要后处理。LangSplat相比LERF提高了199倍的速度。
从单张图片生成高质量3D视图和新颖视角的3D生成技术
Stable Video 3D是Stability AI推出的新模型,它在3D技术领域取得了显著进步,与之前发布的Stable Zero123相比,提供了大幅改进的质量和多视角支持。该模型能够在没有相机条件的情况下,基于单张图片输入生成轨道视频,并且能够沿着指定的相机路径创建3D视频。
从文本描述生成全息3D全景世界
HoloDreamer是一个文本驱动的3D场景生成框架,能够生成沉浸式且视角一致的全封闭3D场景。它由两个基本模块组成:风格化等矩形全景生成和增强两阶段全景重建。该框架首先生成高清晰度的全景图作为完整3D场景的整体初始化,然后利用3D高斯散射(3D-GS)技术快速重建3D场景,从而实现视角一致和完全封闭的3D场景生成。HoloDreamer的主要优点包括高视觉一致性、和谐性以及重建质量和渲染的鲁棒性。
将图片轻松转换为3D资产的专业工具
TRELLIS 3D AI是一款利用人工智能技术将图片转换成3D资产的专业工具。它通过结合先进的神经网络和结构化潜在技术(Structured LATents, SLAT),能够保持输入图片的结构完整性和视觉细节,生成高质量的3D资产。产品背景信息显示,TRELLIS 3D AI被全球专业人士信赖,用于可靠的图像到3D资产的转换。与传统的3D建模工具不同,TRELLIS 3D AI提供了一个无需复杂操作的图像到3D资产的转换过程。产品价格为免费,适合需要快速、高效生成3D资产的用户。
ComfyUI节点插件,支持3D处理
ComfyUI-3D-Pack是一个强大的3D处理节点插件包,它为ComfyUI提供了处理3D输入(网格、UV纹理等)的能力,使用了最前沿的算法,如3D高斯采样、神经辐射场等。这个项目可以让用户只用单张图片就可以快速生成3D高斯模型,并可以将高斯模型转换成网格,实现3D重建。它还支持多视图图像作为输入,允许在给定的3D网格上映射多视图渲染的纹理贴图。该插件包处于开发中,尚未正式发布到ComfyUI插件库,但已经支持诸如大型多视图高斯模型、三平面高斯变换器、3D高斯采样、深度网格三角剖分、3D文件加载保存等功能。它的目标是成为ComfyUI处理3D内容的强大工具。
© 2025 AIbase 备案号:闽ICP备08105208号-14