需求人群:
"研究目的的3D对象生成"
使用场景示例:
科研机构使用Stable Zero123进行3D物体生成研究
学术界利用Stable Zero123进行图像生成实验
开发者社区中使用Stable Zero123进行视图条件图像生成讨论
产品特色:
生成高质量3D对象
支持视图条件图像生成
浏览量:34
最新流量情况
月访问量
3781.01k
平均访问时长
00:02:18
每次访问页数
2.76
跳出率
53.30%
流量来源
直接访问
28.18%
自然搜索
52.25%
邮件
0.92%
外链引荐
10.45%
社交媒体
8.19%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
美国
17.89%
中国
9.41%
日本
6.81%
英国
4.79%
印度
4.62%
CRM是一个高保真的单图像到3D纹理网格的卷积重建模型
CRM是一个高保真的单图像到3D纹理网格的生成模型,它通过整合几何先验到网络设计中,能够从单个输入图像生成六个正交视图图像,然后利用卷积U-Net创建高分辨率的三平面(triplane)。CRM进一步使用Flexicubes作为几何表示,便于在纹理网格上进行直接的端到端优化。整个模型能够在10秒内从图像生成高保真的纹理网格,无需测试时优化。
高分辨率3D内容生成的多视图高斯模型
LGM是一个用于从文本提示或单视图图像生成高分辨率3D模型的新框架。它的关键见解是:(1) 3D表示:我们提出了多视图高斯特征作为一个高效 yet 强大的表示,然后可以将其融合在一起进行不同iable 渲染。(2) 3D主干:我们呈现了一个不对称U-Net作为一个高通量的主干操作多视图图像,这可以通过利用多视图扩散模型从文本或单视图图像输入中产生。大量的实验表明了我们方法的高保真度和效率。值得注意的是,我们在将训练分辨率提高到512的同时保持生成3D对象的快速速度,从而实现了高分辨率的3D内容生成。
生成条件文本或图像的 3D 对象
Shap-E 是一个生成条件 3D 隐函数的官方代码和模型发布库。它可以根据文本或图像生成 3D 对象。该产品采用了最新的生成模型,可以根据给定的提示生成与之相关的三维模型。
快速高质量从单张图像生成3D内容
Repaint123可以在2分钟内从一张图片生成高质量、多视角一致的3D内容。它结合2D散射模型强大的图像生成能力和渐进重绘策略的纹理对齐能力,生成高质量、视角一致的多视角图像,并通过可视性感知的自适应重绘强度提升重绘过程中的图像质量。生成的高质量、多视角一致图像使得简单的均方误差损失函数就能实现快速的3D内容生成。
高质量文本到3D角色生成
Make-A-Character(Mach)是一个用户友好的框架,旨在从文本描述中创建栩栩如生的3D头像。该框架利用大型语言和视觉模型的力量进行文本意图理解和中间图像生成,然后经过一系列面向人的视觉感知和3D生成模块。我们的系统提供了一种直观的方法,让用户在2分钟内打造可控、逼真、完全实现的3D角色,同时还能轻松与现有的CG流水线进行集成,实现动态表现。
CGDream是一个免费的AI图像生成工具
CGDream是一个免费的AI驱动的图像生成工具,允许用户为各种用例构建内容,如艺术、社交媒体、广告等。它可以通过文字描述生成图像,也可以对现有图像进行编辑。主要功能包括:基于文本的图像生成、图像编辑、3D模型、收藏功能等。其优势在于免费使用、操作简单。它可用于创作、娱乐、商业等多种场景。
单文本/图像生成可导航3D场景
LucidDreamer是一种无域3D场景生成技术,通过充分利用现有大规模扩散生成模型的能力,可以从单个文本提示或单个图像生成可导航的3D场景。该方法具有梦境和对齐两个交替步骤,首先根据输入生成多视角一致的图像,然后将新生成的3D场景部分和谐地整合在一起。LucidDreamer生成的高度详细的高斯斑点与以往的3D场景生成方法相比没有目标场景域的限制。
全模态大模型,拥有更强的认知、理解、创作能力
紫东太初是中科院自动化所和武汉人工智能研究院推出的新一代大模型,支持多轮问答、文本创作、图像生成、3D理解、信号分析等全面问答任务,拥有更强的认知、理解、创作能力。具有广泛的应用场景,包括文本创作、知识问答、图文音理解、音乐生成、3D理解和信号分析等功能。产品定位于提供高质量的人工智能交互体验。
生成准确的AI动漫图像
AI图像生成器是一个AI图像Chrome插件,可以帮助您通过简单的提示快速创建漂亮的AI动漫图像。您甚至可以通过设置3D模型的姿势来创建特定姿势的AI图像。无论您是动漫迷、插画师还是创意作家,我们的工具都为您提供了无限的创作可能性。通过几个简单的步骤,您可以轻松设计各种姿势的角色,并将您的想象角色栩栩如生。
AI生成高质量3D模型
3DFY.ai使用人工智能技术从文本或仅一个图像生成高质量的3D模型。现在任何人都可以快速创建各行业的引人注目的3D资源。我们提供3DFY Prompt、3DFY Megapacks和3DFY Image等服务。我们的技术基于先进的AI基础设施,确保模型质量和独特性。定价请访问官方网站获取详细信息。
一键生成3D模型
Farm3D是一款能够从单张图片生成可控的3D模型的软件。它通过使用图像生成器Stable Diffusion来产生训练数据,从而学习一个单目重建网络。该网络可以从单张输入图片中生成具有细节的3D模型,包括形状、外观、视角和光照方向等。Farm3D适用于设计师、艺术家和模型制作人员,能够快速生成高质量的3D模型。
Autodesk 推出的实验性生成式 AI 模型,用于 3D 形状的创建。
Project Bernini 是 Autodesk 研究项目,旨在开发用于设计和制造行业的生成式人工智能。该模型能够从多种输入(包括 2D 图像、文本、体素和点云)快速生成功能性的 3D 形状。Bernini 模型专为专业几何工作流程设计,可以生成给定输入的多个功能性变体。Autodesk 致力于创建可以用于建筑、产品设计、娱乐等多个用例的生成模型,专注于生成功能性 3D 结构,因为这些模型的输出必须在现实世界中工作,以满足设计师的意图。
通过视频生成实现基于物理的3D对象交互
PhysDreamer是一个基于物理的方法,它通过利用视频生成模型学习到的对象动力学先验,为静态3D对象赋予交互式动力学。这种方法允许在缺乏真实物体物理属性数据的情况下,模拟出对新颖交互(如外力或代理操作)的真实反应。PhysDreamer通过用户研究评估合成交互的真实性,推动了更吸引人和真实的虚拟体验的发展。
通过交互式3D生成技术,实现高质量且可控的3D模型创建。
Interactive3D是一个先进的3D生成模型,它通过交互式设计为用户提供了精确的控制能力。该模型采用两阶段级联结构,利用不同的3D表示方法,允许用户在生成过程的任何中间步骤进行修改和引导。它的重要性在于能够实现用户对3D模型生成过程的精细控制,从而创造出满足特定需求的高质量3D模型。
一种用于逆渲染的先进学习扩散先验方法,能够从任意图像中恢复物体材质并实现单视图图像重照明。
IntrinsicAnything 是一种先进的图像逆渲染技术,它通过学习扩散模型来优化材质恢复过程,解决了在未知静态光照条件下捕获的图像中物体材质恢复的问题。该技术通过生成模型学习材质先验,将渲染方程分解为漫反射和镜面反射项,利用现有丰富的3D物体数据进行训练,有效地解决了逆渲染过程中的歧义问题。此外,该技术还开发了一种从粗到细的训练策略,利用估计的材质引导扩散模型产生多视图一致性约束,从而获得更稳定和准确的结果。
快速生成三维模型的AI工具
AI 3D Generation是Spline推出的一款3D设计工具,它支持文本到3D生成和图像到3D生成,允许用户通过简单的文本提示或2D图像自动创建出详细且精确的3D模型。该工具具有生成变体与混合、直观且适合初学者、创建独特的3D库、平台集成与实时协作、易于集成和发布等功能。
基于预训练的文本到图像模型生成高质量、多视角一致的3D物体图像。
ViewDiff 是一种利用预训练的文本到图像模型作为先验知识,从真实世界数据中学习生成多视角一致的图像的方法。它在U-Net网络中加入了3D体积渲染和跨帧注意力层,能够在单个去噪过程中生成3D一致的图像。与现有方法相比,ViewDiff生成的结果具有更好的视觉质量和3D一致性。
用于评估文本到视觉生成的创新性指标和基准测试
Evaluating Text-to-Visual Generation with Image-to-Text Generation提出了一种新的评估指标VQAScore,能够更好地评估复杂的文本到视觉生成效果,并引入了GenAI-Bench基准测试集。VQAScore基于CLIP-FlanT5模型,能够在文本到图像/视频/3D生成评估中取得最佳性能,是一种强大的替代CLIPScore的方案。GenAI-Bench则提供了包含丰富组合语义的实际场景测试文本,可用于全面评估生成模型的性能。
在线VR看房与虚拟家装的技术提供者
123看房是国内主流看房技术方案的定义者,通过全景照片进行3D建模技术的始创者。提供在线VR看房与虚拟家装的技术,可以通过全景图生成3D模型。其技术创造了低成本、高效率、易操作的全景看房和虚拟家装方案。该产品适用于房地产行业,可以实现远程看房、720全景、商业空间等多种功能。
从单张 RGB 图像生成多个逼真的 3D 人体重建
DiffHuman 是一种概率性的光度逼真的 3D 人体重建方法。它可以从单张 RGB 图像预测一个 3D 人体重建的概率分布,并通过迭代降噪采样多个细节丰富、色彩鲜明的 3D 人体模型。与现有的确定性方法相比,DiffHuman 在未知或不确定区域能生成更加细节丰富的重建结果。同时,我们还引入了一个加速渲染的生成网络,大幅提高了推理速度。
Hillbot是一家专注于机器人基础模型的公司,旨在为工业和家庭任务提供AI驱动的机器人
Hillbot致力于机器人创新的前沿,通过为机器人提供AI大脑和适应性技能,使其能够在复杂环境中执行复杂任务。公司在收集真实世界和模拟数据方面的专业知识,显著扩展了机器人基础模型的训练数据集。通过在3D场景捕捉、模拟和机器人学习算法方面的核心技术,Hillbot不仅在制造机器人,还在定义具身AI(AI与机器人技术的融合)的边界,以增强所有领域的能力。
通过文本指令自动生成和动画化卡通人物的3D纹理
Make-It-Vivid是一种创新的模型,能够根据文本指令自动生成和动画化卡通人物的3D纹理。它解决了传统方式制作3D卡通角色纹理的挑战,提供了高效、灵活的解决方案。该模型通过预训练的文本到图像扩散模型生成高质量的UV纹理图,并引入对抗性训练来增强细节。它可以根据不同的文本prompt生成各种风格的角色纹理,并将其应用到3D模型上进行动画制作,为动画、游戏等领域提供了便利的创作工具。
Garment3DGen是一个在线工具,可以生成3D服装模型
Garment3DGen是一个基于网络的工具,它允许用户通过简单的拖放界面来创建和预览3D服装模型。用户可以选择不同的服装类型,调整尺寸和颜色,然后生成可以用于进一步设计或打印的3D模型。
SceneScript:通过Reality Labs研究实现3D场景重建
SceneScript是Reality Labs研究团队开发的一种新型3D场景重建技术。该技术利用AI来理解和重建复杂的3D场景,能够从单张图片中创建详细的3D模型。SceneScript通过结合多种先进的深度学习技术,如半监督学习、自监督学习和多模态学习,显著提高了3D重建的准确性和效率。
Champ:一种用于生成 3D 物体形状的生成模型
Champ 是一种用于生成 3D 物体形状的生成模型,它结合了隐函数和卷积神经网络,以生成高质量、多样化和逼真的 3D 形状。它可以生成各种类别的形状,包括动物、车辆和家具。
AI社区共建未来,开源开放科学推进AI民主化
Hugging Face是一个AI社区平台,致力于通过开源和开放科学的方式来推进人工智能的发展和民主化。它为机器学习社区提供了协作模型、数据集和应用程序的环境。主要优势包括:1)协作平台,可无限托管和共享模型、数据集和应用程序。2)开源堆栈,加速ML开发流程。3)支持多模态(文本、图像、视频、音频、3D等)。4)建立ML作品集,在全球分享你的作品。5)付费计算和企业解决方案,提供优化的推理端点、GPU支持等。
基于JST-1视频-3D基础模型的可控视频生成
VIGGLE是一款基于JST-1视频-3D基础模型的可控视频生成工具。它可以让任何角色按照您的要求移动。JST-1是第一个具有实际物理理解能力的视频-3D基础模型。VIGGLE的优势在于其强大的视频生成和控制能力,可以根据用户需求生成各种动作和情节的视频。它定位于视频创作者、动画师和内容创作者等专业人群,帮助他们更高效地制作视频内容。目前VIGGLE处于测试阶段,未来可能会推出付费订阅版本。
© 2024 AIbase 备案号:闽ICP备2023012347号-1