需求人群:
"适用于需要从单张图片生成3D内容的商业和非商业用途,如游戏开发、虚拟现实、3D建模等。"
使用场景示例:
游戏开发者使用Stable Video 3D从概念艺术生成3D游戏角色模型
虚拟现实内容创作者利用该技术为VR环境创建逼真的3D对象
3D建模师通过Stable Video 3D从参考图片生成高质量的3D打印模型
产品特色:
从单张图片生成3D网格
支持商业用途,需要Stability AI会员资格
提供两种变体:SV3D_u和SV3D_p,分别用于生成基于单张图片的轨道视频和沿着指定相机路径的3D视频
浏览量:467
最新流量情况
月访问量
821.88k
平均访问时长
00:01:40
每次访问页数
3.14
跳出率
44.81%
流量来源
直接访问
36.30%
自然搜索
48.74%
邮件
0.07%
外链引荐
12.25%
社交媒体
2.17%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
8.18%
印度
7.50%
日本
6.22%
俄罗斯
7.01%
美国
12.09%
从单张图片生成高质量3D视图和新颖视角的3D生成技术
Stable Video 3D是Stability AI推出的新模型,它在3D技术领域取得了显著进步,与之前发布的Stable Zero123相比,提供了大幅改进的质量和多视角支持。该模型能够在没有相机条件的情况下,基于单张图片输入生成轨道视频,并且能够沿着指定的相机路径创建3D视频。
3D生成模型的创新突破
VFusion3D是一种基于预训练的视频扩散模型构建的可扩展3D生成模型。它解决了3D数据获取困难和数量有限的问题,通过微调视频扩散模型生成大规模合成多视角数据集,训练出能够从单张图像快速生成3D资产的前馈3D生成模型。该模型在用户研究中表现出色,用户超过90%的时间更倾向于选择VFusion3D生成的结果。
提升3D内容创造的合成数据框架
Bootstrap3D是一个用于改善3D内容创造的框架,通过合成数据生成技术,解决了高质量3D资产稀缺的问题。它利用2D和视频扩散模型,基于文本提示生成多视角图像,并使用3D感知的MV-LLaVA模型筛选高质量数据,重写不准确的标题。该框架已生成了100万张高质量合成多视角图像,具有密集的描述性标题,以解决高质量3D数据的短缺问题。此外,它还提出了一种训练时间步重排(TTR)策略,利用去噪过程学习多视角一致性,同时保持原始的2D扩散先验。
一种通过3D感知递归扩散生成3D模型的框架
Ouroboros3D是一个统一的3D生成框架,它将基于扩散的多视图图像生成和3D重建集成到一个递归扩散过程中。该框架通过自条件机制联合训练这两个模块,使它们能够相互适应,以实现鲁棒的推理。在多视图去噪过程中,多视图扩散模型使用由重建模块在前一时间步渲染的3D感知图作为附加条件。递归扩散框架与3D感知反馈相结合,提高了整个过程的几何一致性。实验表明,Ouroboros3D框架在性能上优于将这两个阶段分开训练的方法,以及在推理阶段将它们结合起来的现有方法。
AI 生成定制 3D 模型
3D AI Studio 是一款基于人工智能技术的在线工具,可以轻松生成定制的 3D 模型。适用于设计师、开发者和创意人士,提供高质量的数字资产。用户可以通过AI生成器快速创建3D模型,并以FBX、GLB或USDZ格式导出。3D AI Studio具有高性能、用户友好的界面、自动生成真实纹理等特点,可大幅缩短建模时间和降低成本。
高保真情感3D虚拟人头合成
EmoTalk3D是一个专注于3D虚拟人头合成的研究项目,它通过收集多视角视频、情感注释和每帧3D几何数据来解决传统3D人头合成中存在的视角一致性和情感表达不足的问题。该项目提出了一种新颖的方法,通过训练EmoTalk3D数据集,实现了情感可控的3D人头合成,具有增强的唇部同步和渲染质量。EmoTalk3D模型能够生成具有广泛视角和高渲染质量的3D动画,同时捕捉到动态面部细节,如皱纹和微妙表情。
从多视角图像创建3D场景
CAT3D是一个利用多视角扩散模型从任意数量的输入图像生成新视角的3D场景的网站。它通过一个强大的3D重建管道,将生成的视图转化为可交互渲染的3D表示。整个处理时间(包括视图生成和3D重建)仅需一分钟。
DiffPortrait3D可以从野外单张人像照片中合成逼真的3D一致新视角。
DiffPortrait3D是一个条件化难度模型,即使只有野外单张人像照片,也能合成逼真的3D一致新视角。具体来说,给定单张RGB输入图像,我们目标是合成从新相机视角渲染的似是而非的面部细节,同时保留身份和面部表达。我们的零试验方法可以很好地推广到任意面部人像,具有非姿态相机视角,极端面部表情和多种艺术描绘。在其核心,我们利用在大规模图像数据集上预训练的2D难度模型的生成先验作为我们的呈现主干,同时通过解耦外观和相机姿势的定向注意控制来指导去噪。为此,我们首先从参考图像将外观上下文注入冻结的UNet的自我注意力层。然后通过一种新颖的条件控制模块来操纵呈现视图,该模块通过观看来自同一视图的交叉主体的条件图像来解释相机姿势。 此外,我们插入了一个可训练的跨视图注意力模块来增强视图一致性,后者通过在推理期间采用一种新的3D感知噪声生成过程进一步加强。我们在具有挑战性的野外和多视图基准测试中定性和定量地证明了最先进的结果。
文本引导的高保真3D场景合成
SceneWiz3D是一种新颖的方法,可以从文本中合成高保真的3D场景。它采用混合的3D表示,对对象采用显式表示,对场景采用隐式表示。用户可以通过传统的文本到3D方法或自行提供对象来生成对象。为了配置场景布局并自动放置对象,我们在优化过程中应用了粒子群优化技术。此外,在文本到场景的情况下,对于场景的某些部分(例如角落、遮挡),很难获得多视角监督,导致几何形状劣质。为了缓解这种监督缺失,我们引入了RGBD全景扩散模型作为额外先验,从而实现了高质量的几何形状。广泛的评估支持我们的方法实现了比以前的方法更高的质量,可以生成详细且视角一致的3D场景。
快速从单张图片生成3D模型。
Stable Fast 3D (SF3D) 是一个基于TripoSR的大型重建模型,能够从单张物体图片生成带有纹理的UV展开3D网格资产。该模型训练有素,能在不到一秒的时间内创建3D模型,具有较低的多边形计数,并且进行了UV展开和纹理处理,使得模型在下游应用如游戏引擎或渲染工作中更易于使用。此外,模型还能预测每个物体的材料参数(粗糙度、金属感),在渲染过程中增强反射行为。SF3D适用于需要快速3D建模的领域,如游戏开发、电影特效制作等。
3D模型动画生成
Animate3D是一个创新的框架,用于为任何静态3D模型生成动画。它的核心理念包括两个主要部分:1) 提出一种新的多视图视频扩散模型(MV-VDM),该模型基于静态3D对象的多视图渲染,并在我们提供的大规模多视图视频数据集(MV-Video)上进行训练。2) 基于MV-VDM,引入了一个结合重建和4D得分蒸馏采样(4D-SDS)的框架,利用多视图视频扩散先验来为3D对象生成动画。Animate3D通过设计新的时空注意力模块来增强空间和时间一致性,并通过多视图渲染来保持静态3D模型的身份。此外,Animate3D还提出了一个有效的两阶段流程来为3D模型生成动画:首先从生成的多视图视频中直接重建运动,然后通过引入的4D-SDS来细化外观和运动。
腾讯混元3D驱动的图片转3D与STL转换器,快速生成高精度3D模型
Image3D AI是一款由腾讯混元3D(Hunyuan 3D)强力驱动的图片转3D与STL转换器。其核心技术基于腾讯尖端的混元3D AI大模型,能够理解复杂空间关系、纹理细节和几何结构。该产品的主要优点包括:多模态输入,可处理单张图或多视图;能生成高精细度的PBR材质;保证高精细度的模型输出;生成速度快,平均30 - 60秒完成。价格方面,暂未提及收费信息,推测有免费使用部分。产品定位是为不同行业提供图片转3D模型的解决方案,赋能工作流。
SAM 3D:AI驱动,秒速将2D图像转化为专业级3D模型
SAM 3D是一款由人工智能驱动的3D重建平台,它基于先进的SAM(Segment Anything Model)技术,实现了将单张2D照片转化为精确、全纹理3D模型的突破。该平台打破了传统3D建模的壁垒,无需昂贵设备和专业技术知识,为全球开发者、设计师、研究人员和内容创作者提供了企业级的3D重建能力。其重要性在于降低了3D建模的门槛,使更多人能够轻松获得高质量的3D模型。价格方面,提供免费使用,无需信用卡信息。产品定位是为各行业提供便捷、高效的3D重建解决方案。
基于Meta的SAM 3D模型,可秒将单张图像转换成高质量3D模型。
SAM 3D是一款在线工具,基于Meta的SAM 3D研究模型,可将单张图像快速转换为高质量的3D模型。其重要性在于打破了传统摄影测量和仅使用合成数据训练的限制,为3D重建带来了语义理解。主要优点包括在复杂真实场景下的高鲁棒性、快速推理、支持标准3D格式导出等。产品背景是Meta在计算机视觉领域的研究成果,页面未提及价格信息,定位是为用户提供便捷的3D重建服务。
腾讯推出的3D生成框架,支持文本和图像到3D的生成。
Hunyuan3D-1是腾讯推出的一个统一框架,用于文本到3D和图像到3D的生成。该框架采用两阶段方法,第一阶段使用多视图扩散模型快速生成多视图RGB图像,第二阶段通过前馈重建模型快速重建3D资产。Hunyuan3D-1.0在速度和质量之间取得了令人印象深刻的平衡,显著减少了生成时间,同时保持了生成资产的质量和多样性。
Hunyuan3D 2.0 是腾讯推出的高分辨率 3D 资产生成系统,基于大规模扩散模型。
Hunyuan3D 2.0 是腾讯推出的一种先进大规模 3D 合成系统,专注于生成高分辨率纹理化的 3D 资产。该系统包括两个基础组件:大规模形状生成模型 Hunyuan3D-DiT 和大规模纹理合成模型 Hunyuan3D-Paint。它通过解耦形状和纹理生成的难题,为用户提供了灵活的 3D 资产创作平台。该系统在几何细节、条件对齐、纹理质量等方面超越了现有的开源和闭源模型,具有极高的实用性和创新性。目前,该模型的推理代码和预训练模型已开源,用户可以通过官网或 Hugging Face 空间快速体验。
轻松创建和利用3D内容
3D Creation是一个提供给用户轻松创建和利用3D内容的网站。它提供了多种功能,包括AI纹理、我的模型、API等。用户可以使用AI纹理功能将图片转换为纹理,也可以使用文本转3D功能将文字描述转换为3D模型。此外,用户还可以使用Sketch to 3D功能将手绘草图转换为3D模型。3D Creation适用于各种场景,如设计、图像处理、视频制作等。该产品定位于提供简单易用的3D内容创作工具,并提供合理的定价策略。
高质量3D资产生成技术
Edify 3D是NVIDIA推出的一款AI驱动的3D资产生成技术,它能够在两分钟内生成详细的、生产就绪的3D资产,包括组织良好的UV贴图、4K纹理和PBR材料。这项技术使用多视图扩散模型和基于Transformer的重建,能够从文本提示或参考图像合成高质量的3D资产,实现卓越的效率和可扩展性。Edify 3D对于视频游戏设计、扩展现实、电影制作和仿真等需要严格生产标准的行业至关重要。
打造引人入胜的3D产品视频
Lumiere 3D是一个强大的在线视频编辑工具,提供优化的3D产品视频,适用于reels、shorts和TikTok等平台。通过定制音乐、摄影角度和场景,轻松展现您的产品优势。立即加入,将您的市场营销创意转化为现实。
3D纹理生成技术,根据文本描述合成3D纹理
TexGen是一个创新的多视角采样和重采样框架,用于根据任意文本描述合成3D纹理。它利用预训练的文本到图像的扩散模型,通过一致性视图采样和注意力引导的多视角采样策略,以及噪声重采样技术,显著提高了3D对象的纹理质量,具有高度的视角一致性和丰富的外观细节。
ReconFusion: 3D重建与扩散先验
ReconFusion是一种3D重建方法,利用扩散先验在只有少量照片的情况下重建真实世界场景。它结合Neural Radiance Fields(NeRFs)和扩散先验,能够在新的摄像机位置超出输入图像集合的情况下,合成逼真的几何和纹理。该方法通过在少量视图和多视图数据集上训练扩散先验,能够在不受约束的区域合成逼真的几何和纹理,同时保留观察区域的外观。ReconFusion在各种真实世界数据集上进行了广泛评估,包括前向和360度场景,展示出明显的性能改进。
文字转3D
Luma AI是一款基于人工智能技术的文字转3D工具,通过使用Luma AI,用户可以将文字快速转换成3D模型,并进行编辑和渲染,实现独特的视觉效果。Luma AI具有高效、易用和灵活的特点,适用于各种创意设计、广告制作和数字媒体项目。定价详细请参考官方网站。
快速将 2D 图像转换为专业 3D 模型的 AI 工具。
Modelfy 3D 是一个先进的 AI 图像转 3D 模型生成器,允许用户在几秒钟内将 2D 图像转换为 3D 模型,支持高达 30 万多边形的精度,非常适合 3D 打印、游戏开发和专业项目。该平台采用自研的 AI 算法和企业级基础设施,提供高效、可靠的 3D 模型生成服务,用户可以按需选择不同的质量级别进行下载,满足多种需求。价格体系灵活,支持免费试用和付费订阅,适合从个人创作者到企业用户的广泛使用。
将图片轻松转换为3D资产的专业工具
TRELLIS 3D AI是一款利用人工智能技术将图片转换成3D资产的专业工具。它通过结合先进的神经网络和结构化潜在技术(Structured LATents, SLAT),能够保持输入图片的结构完整性和视觉细节,生成高质量的3D资产。产品背景信息显示,TRELLIS 3D AI被全球专业人士信赖,用于可靠的图像到3D资产的转换。与传统的3D建模工具不同,TRELLIS 3D AI提供了一个无需复杂操作的图像到3D资产的转换过程。产品价格为免费,适合需要快速、高效生成3D资产的用户。
先进AI技术,可将文字和图像瞬间转化为3D模型,无需3D建模经验。
To 3D AI是一款先进的AI 3D模型生成器,利用先进的机器学习算法,可将文字描述和图像转化为详细的3D模型。其重要性在于极大地简化了3D模型的创建过程,无需专业的3D建模经验。主要优点包括生成速度快,相比传统3D建模工作流程快10 - 100倍;支持多种格式导出,与主流3D软件和3D打印工作流程兼容;生成的模型质量高,具有优化的拓扑结构和PBR纹理。产品背景信息暂未提及价格相关内容,其定位是为开发者、设计师、艺术家等专业人士提供高效的3D模型创建解决方案。
首个同时支持文生和图生的3D开源模型
腾讯混元3D是一个开源的3D生成模型,旨在解决现有3D生成模型在生成速度和泛化能力上的不足。该模型采用两阶段生成方法,第一阶段使用多视角扩散模型快速生成多视角图像,第二阶段通过前馈重建模型快速重建3D资产。混元3D-1.0模型能够帮助3D创作者和艺术家自动化生产3D资产,支持快速单图生3D,10秒内完成端到端生成,包括mesh和texture提取。
© 2026 AIbase 备案号:闽ICP备08105208号-14