需求人群:
"ODIN可用于计算机视觉、智能体架构、实例分割等领域。"
使用场景示例:
使用ODIN模型进行3D实例分割
将ODIN应用于具体化代理架构的3D感知引擎
在计算机视觉研究中使用ODIN进行实验
产品特色:
在2D RGB图像和3D点云上进行分割和标记
区分2D和3D特征操作
在多个3D感知基准上实现最先进的性能
在具体化代理架构中作为3D感知引擎
浏览量:31
最新流量情况
月访问量
25633.38k
平均访问时长
00:04:53
每次访问页数
5.77
跳出率
44.05%
流量来源
直接访问
49.07%
自然搜索
35.64%
邮件
0.03%
外链引荐
12.38%
社交媒体
2.75%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
14.36%
印度
8.76%
韩国
3.61%
俄罗斯
5.25%
美国
16.65%
单一模型实现2D和3D感知
ODIN(Omni-Dimensional INstance segmentation)是一个模型,可以使用转换器架构在2D RGB图像和3D点云上进行分割和标记。它通过在2D视图内和3D视图之间交替融合信息来区分2D和3D特征操作。ODIN在ScanNet200、Matterport3D和AI2THOR 3D实例分割基准上实现了最先进的性能,并在ScanNet、S3DIS和COCO上实现了竞争性能。当使用来自3D网格的采样点云代替感知的3D点云时,它超过了以往所有的作品。作为可指导的具体化代理架构中的3D感知引擎时,它在TEACh对话动作基准上树立了新的最先进水平。我们的代码和检查点可以在项目网站找到。
3D实例分割的创新方法
SAM-guided Graph Cut for 3D Instance Segmentation是一种利用3D几何和多视图图像信息进行3D实例分割的深度学习方法。该方法通过3D到2D查询框架,有效利用2D分割模型进行3D实例分割,通过图割问题构建超点图,并通过图神经网络训练,实现对不同类型场景的鲁棒分割性能。
从单张图片或文本提示生成高质量3D资产
Flex3D是一个两阶段流程,能够从单张图片或文本提示生成高质量的3D资产。该技术代表了3D重建领域的最新进展,可以显著提高3D内容的生成效率和质量。Flex3D的开发得到了Meta的支持,并且团队成员在3D重建和计算机视觉领域有着深厚的背景。
Meta的单图像3D重建模型,融合SAM 3分割与几何纹理布局预测生成3D资产
sam3d是Meta推出的研究级单图像3D重建模型,它将SAM 3的开放词汇分割与几何、纹理和布局预测相融合,能直接从单张RGB图像生成3D资产。该模型具有开源的检查点、推理代码和基准数据集,方便进行可重复的研究和生产试点。其重要性在于降低了3D重建的硬件和设置复杂度,提高了重建效率。主要优点包括单图像输入、开放词汇分割、开放生态系统、适用于XR、高效输入和有明确的评估套件等。产品免费开源,定位于创意工具、电商AR购物、机器人感知和科学可视化等领域。
AI 生成定制 3D 模型
3D AI Studio 是一款基于人工智能技术的在线工具,可以轻松生成定制的 3D 模型。适用于设计师、开发者和创意人士,提供高质量的数字资产。用户可以通过AI生成器快速创建3D模型,并以FBX、GLB或USDZ格式导出。3D AI Studio具有高性能、用户友好的界面、自动生成真实纹理等特点,可大幅缩短建模时间和降低成本。
通过无光照纹理扩散模型任意绘制3D
Paint3D能够为无纹理的3D网格生成高分辨率、无光照效果、多样化的2K UV纹理图,同时基于文本或图像输入进行条件化生成。它通过预训练的考虑深度信息的2D扩散模型首先生成视角条件图像并进行多视角纹理融合来获得初始的粗糙纹理图。然后它使用专门的UV补全和UVHD纹理模型来去除光照效果和填补不完整区域。Paint3D可以生成语义一致、无光照的高质量2K UV纹理,从而显著提升无纹理3D物体的纹理生成水平。
SAM 3D:AI驱动,秒速将2D图像转化为专业级3D模型
SAM 3D是一款由人工智能驱动的3D重建平台,它基于先进的SAM(Segment Anything Model)技术,实现了将单张2D照片转化为精确、全纹理3D模型的突破。该平台打破了传统3D建模的壁垒,无需昂贵设备和专业技术知识,为全球开发者、设计师、研究人员和内容创作者提供了企业级的3D重建能力。其重要性在于降低了3D建模的门槛,使更多人能够轻松获得高质量的3D模型。价格方面,提供免费使用,无需信用卡信息。产品定位是为各行业提供便捷、高效的3D重建解决方案。
3D图像匹配的先进模型
MASt3R是由Naver Corporation开发的一种用于3D图像匹配的先进模型,它专注于提升计算机视觉领域中的几何3D视觉任务。该模型利用了最新的深度学习技术,通过训练能够实现对图像之间精确的3D匹配,对于增强现实、自动驾驶以及机器人导航等领域具有重要意义。
开源计算机视觉库
OpenCV是一个跨平台的开源计算机视觉和机器学习软件库,它提供了一系列编程功能,包括但不限于图像处理、视频分析、特征检测、机器学习等。该库广泛应用于学术研究和商业项目中,因其强大的功能和灵活性而受到开发者的青睐。
一种通过3D感知递归扩散生成3D模型的框架
Ouroboros3D是一个统一的3D生成框架,它将基于扩散的多视图图像生成和3D重建集成到一个递归扩散过程中。该框架通过自条件机制联合训练这两个模块,使它们能够相互适应,以实现鲁棒的推理。在多视图去噪过程中,多视图扩散模型使用由重建模块在前一时间步渲染的3D感知图作为附加条件。递归扩散框架与3D感知反馈相结合,提高了整个过程的几何一致性。实验表明,Ouroboros3D框架在性能上优于将这两个阶段分开训练的方法,以及在推理阶段将它们结合起来的现有方法。
AI与计算机视觉结合的摔跤耐力挑战
Wrestling Endurance Challenge是一个结合了人工智能和计算机视觉的摔跤耐力挑战应用。该应用通过AI分配任务,利用计算机视觉检测用户的持续时间。用户可通过扬声器或耳机接收指令,以参与耐力挑战。应用使用持续的机器学习在云端进行计算,并保证隐私安全,不会发送视频,仅导出关节坐标和轨迹数据。
云端计算机视觉软件平台
LandingLens是一个云端计算机视觉软件平台,通过直观的界面和自然的提示交互,使您能够在几分钟内创建自定义的计算机视觉项目。其数据导向的人工智能技术确保即使在小型数据集的情况下,模型也能正常工作。LandingLens提供灵活的部署选项,包括云端和边缘设备,使其易于集成到现有环境中。无论是单个生产线还是全球运营,LandingLens都能轻松扩展项目。
基于Meta的SAM 3D模型,可秒将单张图像转换成高质量3D模型。
SAM 3D是一款在线工具,基于Meta的SAM 3D研究模型,可将单张图像快速转换为高质量的3D模型。其重要性在于打破了传统摄影测量和仅使用合成数据训练的限制,为3D重建带来了语义理解。主要优点包括在复杂真实场景下的高鲁棒性、快速推理、支持标准3D格式导出等。产品背景是Meta在计算机视觉领域的研究成果,页面未提及价格信息,定位是为用户提供便捷的3D重建服务。
无需相机校准信息的密集立体3D重建
DUSt3R是一种新颖的密集和无约束立体3D重建方法,适用于任意图像集合。它不需要事先了解相机校准或视点姿态信息,通过将成对重建问题视为点图的回归,放宽了传统投影相机模型的严格约束。DUSt3R提供了一种统一的单目和双目重建方法,并在多图像情况下提出了一种简单有效的全局对齐策略。基于标准的Transformer编码器和解码器构建网络架构,利用强大的预训练模型。DUSt3R直接提供场景的3D模型和深度信息,并且可以从中恢复像素匹配、相对和绝对相机信息。
基于视频的3D场景重建
VisFusion是一个利用视频数据进行在线3D场景重建的技术,它能够实时地从视频中提取和重建出三维环境。这项技术结合了计算机视觉和深度学习,为用户提供了一个强大的工具,用于创建精确的三维模型。
腾讯混元3D驱动的图片转3D与STL转换器,快速生成高精度3D模型
Image3D AI是一款由腾讯混元3D(Hunyuan 3D)强力驱动的图片转3D与STL转换器。其核心技术基于腾讯尖端的混元3D AI大模型,能够理解复杂空间关系、纹理细节和几何结构。该产品的主要优点包括:多模态输入,可处理单张图或多视图;能生成高精细度的PBR材质;保证高精细度的模型输出;生成速度快,平均30 - 60秒完成。价格方面,暂未提及收费信息,推测有免费使用部分。产品定位是为不同行业提供图片转3D模型的解决方案,赋能工作流。
快速从单张图片生成3D模型。
Stable Fast 3D (SF3D) 是一个基于TripoSR的大型重建模型,能够从单张物体图片生成带有纹理的UV展开3D网格资产。该模型训练有素,能在不到一秒的时间内创建3D模型,具有较低的多边形计数,并且进行了UV展开和纹理处理,使得模型在下游应用如游戏引擎或渲染工作中更易于使用。此外,模型还能预测每个物体的材料参数(粗糙度、金属感),在渲染过程中增强反射行为。SF3D适用于需要快速3D建模的领域,如游戏开发、电影特效制作等。
轻松创建和利用3D内容
3D Creation是一个提供给用户轻松创建和利用3D内容的网站。它提供了多种功能,包括AI纹理、我的模型、API等。用户可以使用AI纹理功能将图片转换为纹理,也可以使用文本转3D功能将文字描述转换为3D模型。此外,用户还可以使用Sketch to 3D功能将手绘草图转换为3D模型。3D Creation适用于各种场景,如设计、图像处理、视频制作等。该产品定位于提供简单易用的3D内容创作工具,并提供合理的定价策略。
快速高质量从单张图像生成3D内容
Repaint123可以在2分钟内从一张图片生成高质量、多视角一致的3D内容。它结合2D散射模型强大的图像生成能力和渐进重绘策略的纹理对齐能力,生成高质量、视角一致的多视角图像,并通过可视性感知的自适应重绘强度提升重绘过程中的图像质量。生成的高质量、多视角一致图像使得简单的均方误差损失函数就能实现快速的3D内容生成。
计算机视觉自动化和RPA工具
U-xer是一款基于计算机视觉的测试自动化和RPA工具,旨在自动化屏幕上看到的任何内容,包括Web和桌面应用程序。它具有易用和高级两种模式,可以满足非技术用户和高级用户的不同需求。U-xer能够识别屏幕,像人类一样解释屏幕内容,实现更自然、准确的自动化。它适用于各种应用场景,包括Web应用程序、桌面软件、移动设备等,并提供定制化解决方案。U-xer的定价和定位请查看官方网站。
用于体育分析的计算机视觉工具集
roboflow/sports 是一个开源的计算机视觉工具集,专注于体育领域的应用。它利用先进的图像处理技术,如目标检测、图像分割、关键点检测等,来解决体育分析中的挑战。这个工具集由Roboflow开发,旨在推动计算机视觉技术在体育领域的应用,并通过社区贡献不断优化。
文字转3D
Luma AI是一款基于人工智能技术的文字转3D工具,通过使用Luma AI,用户可以将文字快速转换成3D模型,并进行编辑和渲染,实现独特的视觉效果。Luma AI具有高效、易用和灵活的特点,适用于各种创意设计、广告制作和数字媒体项目。定价详细请参考官方网站。
通过多实例扩散模型将单张图像生成高保真度的3D场景。
MIDI是一种创新的图像到3D场景生成技术,它利用多实例扩散模型,能够从单张图像中直接生成具有准确空间关系的多个3D实例。该技术的核心在于其多实例注意力机制,能够有效捕捉物体间的交互和空间一致性,无需复杂的多步骤处理。MIDI在图像到场景生成领域表现出色,适用于合成数据、真实场景数据以及由文本到图像扩散模型生成的风格化场景图像。其主要优点包括高效性、高保真度和强大的泛化能力。
快速将 2D 图像转换为专业 3D 模型的 AI 工具。
Modelfy 3D 是一个先进的 AI 图像转 3D 模型生成器,允许用户在几秒钟内将 2D 图像转换为 3D 模型,支持高达 30 万多边形的精度,非常适合 3D 打印、游戏开发和专业项目。该平台采用自研的 AI 算法和企业级基础设施,提供高效、可靠的 3D 模型生成服务,用户可以按需选择不同的质量级别进行下载,满足多种需求。价格体系灵活,支持免费试用和付费订阅,适合从个人创作者到企业用户的广泛使用。
将图片轻松转换为3D资产的专业工具
TRELLIS 3D AI是一款利用人工智能技术将图片转换成3D资产的专业工具。它通过结合先进的神经网络和结构化潜在技术(Structured LATents, SLAT),能够保持输入图片的结构完整性和视觉细节,生成高质量的3D资产。产品背景信息显示,TRELLIS 3D AI被全球专业人士信赖,用于可靠的图像到3D资产的转换。与传统的3D建模工具不同,TRELLIS 3D AI提供了一个无需复杂操作的图像到3D资产的转换过程。产品价格为免费,适合需要快速、高效生成3D资产的用户。
Jax 库,计算机视觉研究及更多
Scenic 是一个专注于基于注意力模型的计算机视觉研究的代码库,提供优化训练和评估循环、基线模型等功能,适用于图像、视频、音频等多模态数据。提供 SOTA 模型和基线,支持快速原型设计,价格免费。
© 2026 AIbase 备案号:闽ICP备08105208号-14