需求人群:
"3D模型生成、图像合成、虚拟现实等应用场景"
使用场景示例:
生成各种形状和质地的3D物体图像,并将其置于真实世界环境中
根据文本描述生成一个3D物体的多角度图像
给定单个图像,生成该物体在不同视角下的图像
产品特色:
基于预训练的文本到图像模型生成3D一致的图像
在U-Net网络中加入3D体积渲染和跨帧注意力层
单个去噪过程中生成多视角一致的图像
浏览量:188
最新流量情况
月访问量
1108
平均访问时长
00:00:00
每次访问页数
1.03
跳出率
41.41%
流量来源
直接访问
45.86%
自然搜索
31.80%
邮件
0.12%
外链引荐
11.82%
社交媒体
9.20%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
德国
9.52%
美国
63.05%
腾讯推出的3D生成框架,支持文本和图像到3D的生成。
Hunyuan3D-1是腾讯推出的一个统一框架,用于文本到3D和图像到3D的生成。该框架采用两阶段方法,第一阶段使用多视图扩散模型快速生成多视图RGB图像,第二阶段通过前馈重建模型快速重建3D资产。Hunyuan3D-1.0在速度和质量之间取得了令人印象深刻的平衡,显著减少了生成时间,同时保持了生成资产的质量和多样性。
SAM 3D:AI驱动,秒速将2D图像转化为专业级3D模型
SAM 3D是一款由人工智能驱动的3D重建平台,它基于先进的SAM(Segment Anything Model)技术,实现了将单张2D照片转化为精确、全纹理3D模型的突破。该平台打破了传统3D建模的壁垒,无需昂贵设备和专业技术知识,为全球开发者、设计师、研究人员和内容创作者提供了企业级的3D重建能力。其重要性在于降低了3D建模的门槛,使更多人能够轻松获得高质量的3D模型。价格方面,提供免费使用,无需信用卡信息。产品定位是为各行业提供便捷、高效的3D重建解决方案。
快速从单张图片生成3D模型。
Stable Fast 3D (SF3D) 是一个基于TripoSR的大型重建模型,能够从单张物体图片生成带有纹理的UV展开3D网格资产。该模型训练有素,能在不到一秒的时间内创建3D模型,具有较低的多边形计数,并且进行了UV展开和纹理处理,使得模型在下游应用如游戏引擎或渲染工作中更易于使用。此外,模型还能预测每个物体的材料参数(粗糙度、金属感),在渲染过程中增强反射行为。SF3D适用于需要快速3D建模的领域,如游戏开发、电影特效制作等。
一种通过3D感知递归扩散生成3D模型的框架
Ouroboros3D是一个统一的3D生成框架,它将基于扩散的多视图图像生成和3D重建集成到一个递归扩散过程中。该框架通过自条件机制联合训练这两个模块,使它们能够相互适应,以实现鲁棒的推理。在多视图去噪过程中,多视图扩散模型使用由重建模块在前一时间步渲染的3D感知图作为附加条件。递归扩散框架与3D感知反馈相结合,提高了整个过程的几何一致性。实验表明,Ouroboros3D框架在性能上优于将这两个阶段分开训练的方法,以及在推理阶段将它们结合起来的现有方法。
Meta的单图像3D重建模型,融合SAM 3分割与几何纹理布局预测生成3D资产
sam3d是Meta推出的研究级单图像3D重建模型,它将SAM 3的开放词汇分割与几何、纹理和布局预测相融合,能直接从单张RGB图像生成3D资产。该模型具有开源的检查点、推理代码和基准数据集,方便进行可重复的研究和生产试点。其重要性在于降低了3D重建的硬件和设置复杂度,提高了重建效率。主要优点包括单图像输入、开放词汇分割、开放生态系统、适用于XR、高效输入和有明确的评估套件等。产品免费开源,定位于创意工具、电商AR购物、机器人感知和科学可视化等领域。
AI 生成定制 3D 模型
3D AI Studio 是一款基于人工智能技术的在线工具,可以轻松生成定制的 3D 模型。适用于设计师、开发者和创意人士,提供高质量的数字资产。用户可以通过AI生成器快速创建3D模型,并以FBX、GLB或USDZ格式导出。3D AI Studio具有高性能、用户友好的界面、自动生成真实纹理等特点,可大幅缩短建模时间和降低成本。
快速将 2D 图像转换为专业 3D 模型的 AI 工具。
Modelfy 3D 是一个先进的 AI 图像转 3D 模型生成器,允许用户在几秒钟内将 2D 图像转换为 3D 模型,支持高达 30 万多边形的精度,非常适合 3D 打印、游戏开发和专业项目。该平台采用自研的 AI 算法和企业级基础设施,提供高效、可靠的 3D 模型生成服务,用户可以按需选择不同的质量级别进行下载,满足多种需求。价格体系灵活,支持免费试用和付费订阅,适合从个人创作者到企业用户的广泛使用。
基于预训练的文本到图像模型生成高质量、多视角一致的3D物体图像。
ViewDiff 是一种利用预训练的文本到图像模型作为先验知识,从真实世界数据中学习生成多视角一致的图像的方法。它在U-Net网络中加入了3D体积渲染和跨帧注意力层,能够在单个去噪过程中生成3D一致的图像。与现有方法相比,ViewDiff生成的结果具有更好的视觉质量和3D一致性。
先进AI技术,可将文字和图像瞬间转化为3D模型,无需3D建模经验。
To 3D AI是一款先进的AI 3D模型生成器,利用先进的机器学习算法,可将文字描述和图像转化为详细的3D模型。其重要性在于极大地简化了3D模型的创建过程,无需专业的3D建模经验。主要优点包括生成速度快,相比传统3D建模工作流程快10 - 100倍;支持多种格式导出,与主流3D软件和3D打印工作流程兼容;生成的模型质量高,具有优化的拓扑结构和PBR纹理。产品背景信息暂未提及价格相关内容,其定位是为开发者、设计师、艺术家等专业人士提供高效的3D模型创建解决方案。
从单张图片或文本提示生成高质量3D资产
Flex3D是一个两阶段流程,能够从单张图片或文本提示生成高质量的3D资产。该技术代表了3D重建领域的最新进展,可以显著提高3D内容的生成效率和质量。Flex3D的开发得到了Meta的支持,并且团队成员在3D重建和计算机视觉领域有着深厚的背景。
基于Meta的SAM 3D模型,可秒将单张图像转换成高质量3D模型。
SAM 3D是一款在线工具,基于Meta的SAM 3D研究模型,可将单张图像快速转换为高质量的3D模型。其重要性在于打破了传统摄影测量和仅使用合成数据训练的限制,为3D重建带来了语义理解。主要优点包括在复杂真实场景下的高鲁棒性、快速推理、支持标准3D格式导出等。产品背景是Meta在计算机视觉领域的研究成果,页面未提及价格信息,定位是为用户提供便捷的3D重建服务。
基于多视图生成重建先验的拖拽式3D编辑工具
MVDrag3D是一个创新的3D编辑框架,它通过利用多视图生成和重建先验来实现灵活且具有创造性的拖拽式3D编辑。该技术的核心是使用多视图扩散模型作为强大的生成先验,以在多个渲染视图中执行一致的拖拽编辑,随后通过重建模型重建编辑对象的3D高斯。MVDrag3D通过视图特定的变形网络调整高斯的位置以实现良好的视图对齐,并提出多视图评分函数以从多个视图中提取生成先验,进一步增强视图一致性和视觉质量。这项技术对于3D建模和设计领域具有重要意义,因为它支持更多样化的编辑效果,并适用于多种对象类别和3D表示。
3D高斯生成技术,实现任意未摆姿势图像的3D重建
LucidFusion是一个灵活的端到端前馈框架,用于从未摆姿势、稀疏和任意数量的多视图图像中生成高分辨率3D高斯。该技术利用相对坐标图(RCM)来对齐不同视图间的几何特征,使其在3D生成方面具有高度适应性。LucidFusion能够与原始单图像到3D的流程无缝集成,生成512x512分辨率的详细3D高斯,适合广泛的应用场景。
从多视角图像创建3D场景
CAT3D是一个利用多视角扩散模型从任意数量的输入图像生成新视角的3D场景的网站。它通过一个强大的3D重建管道,将生成的视图转化为可交互渲染的3D表示。整个处理时间(包括视图生成和3D重建)仅需一分钟。
快速高质量从单张图像生成3D内容
Repaint123可以在2分钟内从一张图片生成高质量、多视角一致的3D内容。它结合2D散射模型强大的图像生成能力和渐进重绘策略的纹理对齐能力,生成高质量、视角一致的多视角图像,并通过可视性感知的自适应重绘强度提升重绘过程中的图像质量。生成的高质量、多视角一致图像使得简单的均方误差损失函数就能实现快速的3D内容生成。
Hunyuan3D 2.0 是腾讯推出的高分辨率 3D 资产生成系统,基于大规模扩散模型。
Hunyuan3D 2.0 是腾讯推出的一种先进大规模 3D 合成系统,专注于生成高分辨率纹理化的 3D 资产。该系统包括两个基础组件:大规模形状生成模型 Hunyuan3D-DiT 和大规模纹理合成模型 Hunyuan3D-Paint。它通过解耦形状和纹理生成的难题,为用户提供了灵活的 3D 资产创作平台。该系统在几何细节、条件对齐、纹理质量等方面超越了现有的开源和闭源模型,具有极高的实用性和创新性。目前,该模型的推理代码和预训练模型已开源,用户可以通过官网或 Hugging Face 空间快速体验。
首个同时支持文生和图生的3D开源模型
腾讯混元3D是一个开源的3D生成模型,旨在解决现有3D生成模型在生成速度和泛化能力上的不足。该模型采用两阶段生成方法,第一阶段使用多视角扩散模型快速生成多视角图像,第二阶段通过前馈重建模型快速重建3D资产。混元3D-1.0模型能够帮助3D创作者和艺术家自动化生产3D资产,支持快速单图生3D,10秒内完成端到端生成,包括mesh和texture提取。
基于2D扩散的文本到3D生成
DreamFusion是一款基于预训练的2D文本到图像扩散模型,用于生成高保真度的、可调光的3D对象。它通过使用梯度下降优化随机初始化的3D模型(Neural Radiance Field)来生成3D对象,并且可以从任意角度观察、任意照明重新照亮或与任何3D环境合成。DreamFusion不需要3D训练数据,也不需要对图像扩散模型进行修改,展示了预训练图像扩散模型作为先验的有效性。
基于图像学习的高质量3D纹理形状生成模型
GET3D是一种基于图像学习的生成模型,可以直接生成具有复杂拓扑结构、丰富几何细节和高保真纹理的3D模型。通过结合可微分表面建模、可微分渲染和2D生成对抗网络,我们从2D图像集合中训练了该模型。GET3D能够生成高质量的3D纹理模型,涵盖了汽车、椅子、动物、摩托车和人物等各种形态,相比之前的方法有显著改进。
将图片轻松转换为3D资产的专业工具
TRELLIS 3D AI是一款利用人工智能技术将图片转换成3D资产的专业工具。它通过结合先进的神经网络和结构化潜在技术(Structured LATents, SLAT),能够保持输入图片的结构完整性和视觉细节,生成高质量的3D资产。产品背景信息显示,TRELLIS 3D AI被全球专业人士信赖,用于可靠的图像到3D资产的转换。与传统的3D建模工具不同,TRELLIS 3D AI提供了一个无需复杂操作的图像到3D资产的转换过程。产品价格为免费,适合需要快速、高效生成3D资产的用户。
微软Trellis 2 AI,快速将图像转为含PBR纹理的高质量3D模型
Trellis 2 AI是微软研发的先进3D生成模型,拥有40亿参数。其核心是创新的O - Voxel表示,能处理复杂拓扑结构。该模型可在数秒内将2D图像转换为带有PBR纹理的3D资产,无需额外优化和手动操作,实现端到端工作流程。它在速度和质量上达到了前所未有的平衡,能生成高达1536³分辨率的逼真资产。在trellis3d.net平台上可直接使用,暂未提及价格信息。定位为专业的3D生成解决方案,适合有3D模型创建需求的用户。
腾讯混元3D驱动的图片转3D与STL转换器,快速生成高精度3D模型
Image3D AI是一款由腾讯混元3D(Hunyuan 3D)强力驱动的图片转3D与STL转换器。其核心技术基于腾讯尖端的混元3D AI大模型,能够理解复杂空间关系、纹理细节和几何结构。该产品的主要优点包括:多模态输入,可处理单张图或多视图;能生成高精细度的PBR材质;保证高精细度的模型输出;生成速度快,平均30 - 60秒完成。价格方面,暂未提及收费信息,推测有免费使用部分。产品定位是为不同行业提供图片转3D模型的解决方案,赋能工作流。
ReconFusion: 3D重建与扩散先验
ReconFusion是一种3D重建方法,利用扩散先验在只有少量照片的情况下重建真实世界场景。它结合Neural Radiance Fields(NeRFs)和扩散先验,能够在新的摄像机位置超出输入图像集合的情况下,合成逼真的几何和纹理。该方法通过在少量视图和多视图数据集上训练扩散先验,能够在不受约束的区域合成逼真的几何和纹理,同时保留观察区域的外观。ReconFusion在各种真实世界数据集上进行了广泛评估,包括前向和360度场景,展示出明显的性能改进。
生成条件文本或图像的 3D 对象
Shap-E 是一个生成条件 3D 隐函数的官方代码和模型发布库。它可以根据文本或图像生成 3D 对象。该产品采用了最新的生成模型,可以根据给定的提示生成与之相关的三维模型。
无需相机校准信息的密集立体3D重建
DUSt3R是一种新颖的密集和无约束立体3D重建方法,适用于任意图像集合。它不需要事先了解相机校准或视点姿态信息,通过将成对重建问题视为点图的回归,放宽了传统投影相机模型的严格约束。DUSt3R提供了一种统一的单目和双目重建方法,并在多图像情况下提出了一种简单有效的全局对齐策略。基于标准的Transformer编码器和解码器构建网络架构,利用强大的预训练模型。DUSt3R直接提供场景的3D模型和深度信息,并且可以从中恢复像素匹配、相对和绝对相机信息。
© 2026 AIbase 备案号:闽ICP备08105208号-14