需求人群:
"OmniRe 适用于城市规划师、交通工程师、自动驾驶技术研究者和虚拟现实内容创作者。它能够提供高保真的城市场景重建,对于进行交通模拟、城市规划和自动驾驶系统的测试至关重要。"
使用场景示例:
用于城市交通流量模拟,优化交通管理策略。
在自动驾驶车辆测试中,模拟复杂城市环境。
为虚拟现实游戏和应用创建逼真的城市背景。
产品特色:
使用神经辐射场或高斯散射重建动态场景
忽略行人和其他非车辆动态行为者
构建动态神经场景图,基于高斯表示
模拟车辆运动的刚体变换
使用基于模板的SMPL模型拟合近距离行走的行人
使用自监督变形场重建远距离和其他无模板动态行为者
支持实时(~60Hz)场景模拟,包括所有参与者
使用教程:
1. 访问 OmniRe 产品页面。
2. 阅读产品介绍和功能概述。
3. 下载并安装必要的软件或库。
4. 准备城市场景的设备日志数据。
5. 使用 OmniRe 工具导入日志数据。
6. 根据需要调整重建参数,如动态行为者的模拟精度。
7. 启动场景重建过程,等待计算完成。
8. 使用重建的场景进行模拟或进一步分析。
浏览量:58
最新流量情况
月访问量
767
平均访问时长
00:00:00
每次访问页数
1.01
跳出率
71.42%
流量来源
直接访问
58.32%
自然搜索
18.42%
邮件
0.04%
外链引荐
6.88%
社交媒体
15.42%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
美国
100.00%
高保真动态城市场景重建技术
OmniRe 是一种用于高效重建高保真动态城市场景的全面方法,它通过设备日志来实现。该技术通过构建基于高斯表示的动态神经场景图,以及构建多个局部规范空间来模拟包括车辆、行人和骑行者在内的各种动态行为者,从而实现了对场景中不同对象的全面重建。OmniRe 允许我们全面重建场景中存在的不同对象,并随后实现所有参与者实时参与的重建场景的模拟。在 Waymo 数据集上的广泛评估表明,OmniRe 在定量和定性方面都大幅超越了先前的最先进方法。
GAIA-2 是一个先进的视频生成模型,用于创建安全的自动驾驶场景。
GAIA-2 是 Wayve 开发的先进视频生成模型,旨在为自动驾驶系统提供多样化和复杂的驾驶场景,以提高安全性和可靠性。该模型通过生成合成数据来解决依赖现实世界数据收集的限制,能够创建各种驾驶情境,包括常规和边缘案例。GAIA-2 支持多种地理和环境条件的模拟,帮助开发者在没有高昂成本的情况下快速测试和验证自动驾驶算法。
NVIDIA Cosmos是用于物理AI开发的世界基础模型平台。
NVIDIA Cosmos是一个先进的世界基础模型平台,旨在加速物理AI系统的开发,如自动驾驶车辆和机器人。它提供了一系列预训练的生成模型、高级分词器和加速数据处理管道,使开发者能够更容易地构建和优化物理AI应用。Cosmos通过其开放的模型许可,降低了开发成本,提高了开发效率,适用于各种规模的企业和研究机构。
开源的端到端自动驾驶多模态模型
OpenEMMA是一个开源项目,复现了Waymo的EMMA模型,提供了一个端到端框架用于自动驾驶车辆的运动规划。该模型利用预训练的视觉语言模型(VLMs)如GPT-4和LLaVA,整合文本和前视摄像头输入,实现对未来自身路径点的精确预测,并提供决策理由。OpenEMMA的目标是为研究人员和开发者提供易于获取的工具,以推进自动驾驶研究和应用。
从日常动态视频中快速、准确地估计相机和密集结构
MegaSaM是一个系统,它允许从动态场景的单目视频中准确、快速、稳健地估计相机参数和深度图。该系统突破了传统结构从运动和单目SLAM技术的局限,这些技术通常假设输入视频主要包含静态场景和大量视差。MegaSaM通过深度视觉SLAM框架的精心修改,能够扩展到真实世界中复杂动态场景的视频,包括具有未知视场和不受限制相机路径的视频。该技术在合成和真实视频上的广泛实验表明,与先前和并行工作相比,MegaSaM在相机姿态和深度估计方面更为准确和稳健,运行时间更快或相当。
高分辨率、高精度的深度估计方法
Prompt Depth Anything是一种用于高分辨率和高精度度量深度估计的方法。该方法通过使用提示(prompting)技术,激发深度基础模型的潜力,利用iPhone LiDAR作为提示,引导模型产生高达4K分辨率的精确度量深度。此外,该方法还引入了可扩展的数据管道进行训练,并发布了更详细的ScanNet++数据集深度注释。该技术的主要优点包括高分辨率、高精度的深度估计,以及对下游应用如3D重建和通用机器人抓取的益处。
探索AI前沿,精选国内外AI产品与应用。
智趣AI甄选是一个专注于人工智能领域的综合性平台,旨在洞察行业发展前景,精选并展示国内外的AI产品与应用。平台提供丰富的学习资源,行业融合案例分析,助力用户洞悉AI发展趋势,与AI技术同行,共创未来。
从单张图片重建逼真的3D人体模型
PSHuman是一个创新的框架,它利用多视图扩散模型和显式重构技术,从单张图片中重建出逼真的3D人体模型。这项技术的重要性在于它能够处理复杂的自遮挡问题,并且在生成的面部细节上避免了几何失真。PSHuman通过跨尺度扩散模型联合建模全局全身形状和局部面部特征,实现了细节丰富且保持身份特征的新视角生成。此外,PSHuman还通过SMPL-X等参数化模型提供的身体先验,增强了不同人体姿态下的跨视图身体形状一致性。PSHuman的主要优点包括几何细节丰富、纹理保真度高以及泛化能力强。
实时端到端自动驾驶的截断扩散模型
DiffusionDrive是一个用于实时端到端自动驾驶的截断扩散模型,它通过减少扩散去噪步骤来加快计算速度,同时保持高准确性和多样性。该模型直接从人类示范中学习,无需复杂的预处理或后处理步骤,即可实现实时的自动驾驶决策。DiffusionDrive在NAVSIM基准测试中取得了88.1 PDMS的突破性成绩,并且能够在45 FPS的速度下运行。
4D场景创建工具,使用多视图视频扩散模型
CAT4D是一个利用多视图视频扩散模型从单目视频中生成4D场景的技术。它能够将输入的单目视频转换成多视角视频,并重建动态的3D场景。这项技术的重要性在于它能够从单一视角的视频资料中提取并重建出三维空间和时间的完整信息,为虚拟现实、增强现实以及三维建模等领域提供了强大的技术支持。产品背景信息显示,CAT4D由Google DeepMind、Columbia University和UC San Diego的研究人员共同开发,是一个前沿的科研成果转化为实际应用的案例。
3D高斯生成技术,实现任意未摆姿势图像的3D重建
LucidFusion是一个灵活的端到端前馈框架,用于从未摆姿势、稀疏和任意数量的多视图图像中生成高分辨率3D高斯。该技术利用相对坐标图(RCM)来对齐不同视图间的几何特征,使其在3D生成方面具有高度适应性。LucidFusion能够与原始单图像到3D的流程无缝集成,生成512x512分辨率的详细3D高斯,适合广泛的应用场景。
高效3D高斯重建模型,实现大场景快速重建
Long-LRM是一个用于3D高斯重建的模型,能够从一系列输入图像中重建出大场景。该模型能在1.3秒内处理32张960x540分辨率的源图像,并且仅在单个A100 80G GPU上运行。它结合了最新的Mamba2模块和传统的transformer模块,通过高效的token合并和高斯修剪步骤,在保证质量的同时提高了效率。与传统的前馈模型相比,Long-LRM能够一次性重建整个场景,而不是仅重建场景的一小部分。在大规模场景数据集上,如DL3DV-140和Tanks and Temples,Long-LRM的性能可与基于优化的方法相媲美,同时效率提高了两个数量级。
特斯拉自动驾驶技术与机器人的未来愿景
We, Robot 是特斯拉公司展示其在自动驾驶技术和机器人技术领域愿景的页面。它强调了特斯拉对于创建可持续未来、提高交通效率、可负担性和安全性的承诺。该页面介绍了特斯拉的全自动驾驶技术(监督)以及未来自动驾驶汽车和机器人的潜在应用,如Robotaxi、Robovan和Tesla Bot。这些技术旨在通过自动化提高日常生活的便利性,同时减少交通事故,降低交通成本。
高精度单目深度估计模型
Depth Pro是一个用于单目深度估计的研究项目,它能够快速生成高精度的深度图。该模型利用多尺度视觉变换器进行密集预测,并结合真实与合成数据集进行训练,以实现高准确度和细节捕捉。它在标准GPU上生成2.25百万像素深度图仅需0.3秒,具有速度快、精度高的特点,对于机器视觉和增强现实等领域具有重要意义。
从单张图片或文本提示生成高质量3D资产
Flex3D是一个两阶段流程,能够从单张图片或文本提示生成高质量的3D资产。该技术代表了3D重建领域的最新进展,可以显著提高3D内容的生成效率和质量。Flex3D的开发得到了Meta的支持,并且团队成员在3D重建和计算机视觉领域有着深厚的背景。
高保真新视角合成的视频扩散模型
ViewCrafter 是一种新颖的方法,它利用视频扩散模型的生成能力以及基于点的表示提供的粗略3D线索,从单个或稀疏图像合成通用场景的高保真新视角。该方法通过迭代视图合成策略和相机轨迹规划算法,逐步扩展3D线索和新视角覆盖的区域,从而扩大新视角的生成范围。ViewCrafter 可以促进各种应用,例如通过优化3D-GS表示实现沉浸式体验和实时渲染,以及通过场景级文本到3D生成实现更富有想象力的内容创作。
生成新视角的图像,保持语义信息。
GenWarp是一个用于从单张图像生成新视角图像的模型,它通过语义保持的生成变形框架,使文本到图像的生成模型能够学习在哪里变形和在哪里生成。该模型通过增强交叉视角注意力与自注意力来解决现有方法的局限性,通过条件化生成模型在源视图图像上,并纳入几何变形信号,提高了在不同领域场景下的性能。
专业的数据解决方案提供商
博登智能自主研发的数据标注处理平台——BASE(Boden Annotation Service Enhancement),具有超强适用性,可完成从数据采集、清洗、标注到验证的全套服务。BASE平台覆盖了包括语音、文本、图像、视频、点云等多种模态类型的数据处理能力,通过AI辅助标注的形式,相较于传统的标注方式,帮助企业节省了高达30%-40%的成本,并提升50%以上的效率,已经获得了市场的广泛认可。 数据处理平台——BASE平台能够支持开展包括通用图像标注,3D/4D点云标注,图片点云融合标注,NLP文本标注,医疗影像标注,视频描述标注,音素标注,音频标注等标注业务。
欧洲最大的私人人工智能实验室
Silo AI 是欧洲最大的私人人工智能实验室,与行业领导者合作开发智能设备、自动驾驶车辆、工业4.0和智能城市。其产品和技术致力于将最先进的人工智能带入生产,为客户带来利益。
自动驾驶与视觉语言模型的融合
DriveVLM是一个自动驾驶系统,它利用视觉语言模型(VLMs)来增强场景理解和规划能力。该系统通过独特的推理模块组合,包括场景描述、场景分析和分层规划,以提高对复杂和长尾场景的理解。此外,为了解决VLMs在空间推理和计算需求上的局限性,提出了DriveVLM-Dual,这是一个混合系统,结合了DriveVLM的优势和传统自动驾驶流程。在nuScenes数据集和SUP-AD数据集上的实验表明,DriveVLM和DriveVLM-Dual在处理复杂和不可预测的驾驶条件方面非常有效。最终,DriveVLM-Dual在生产车辆上进行了部署,验证了其在现实世界自动驾驶环境中的有效性。
一种通过3D感知递归扩散生成3D模型的框架
Ouroboros3D是一个统一的3D生成框架,它将基于扩散的多视图图像生成和3D重建集成到一个递归扩散过程中。该框架通过自条件机制联合训练这两个模块,使它们能够相互适应,以实现鲁棒的推理。在多视图去噪过程中,多视图扩散模型使用由重建模块在前一时间步渲染的3D感知图作为附加条件。递归扩散框架与3D感知反馈相结合,提高了整个过程的几何一致性。实验表明,Ouroboros3D框架在性能上优于将这两个阶段分开训练的方法,以及在推理阶段将它们结合起来的现有方法。
基于预训练的文本到图像模型生成高质量、多视角一致的3D物体图像。
ViewDiff 是一种利用预训练的文本到图像模型作为先验知识,从真实世界数据中学习生成多视角一致的图像的方法。它在U-Net网络中加入了3D体积渲染和跨帧注意力层,能够在单个去噪过程中生成3D一致的图像。与现有方法相比,ViewDiff生成的结果具有更好的视觉质量和3D一致性。
用于高质量高效3D重建和生成的大型高斯重建模型
GRM是一种大规模的重建模型,能够在0.1秒内从稀疏视图图像中恢复3D资产,并且在8秒内实现生成。它是一种前馈的基于Transformer的模型,能够高效地融合多视图信息将输入像素转换为像素对齐的高斯分布,这些高斯分布可以反投影成为表示场景的密集3D高斯分布集合。我们的Transformer架构和使用3D高斯分布的方式解锁了一种可扩展、高效的重建框架。大量实验结果证明了我们的方法在重建质量和效率方面优于其他替代方案。我们还展示了GRM在生成任务(如文本到3D和图像到3D)中的潜力,通过与现有的多视图扩散模型相结合。
用于自动驾驶的大规模视频生成模型
GenAD是由上海人工智能实验室联合香港科技大学、德国图宾根大学和香港大学共同推出的首个大规模自动驾驶视频生成模型。它通过预测和模拟真实世界场景,为自动驾驶技术的研究和应用提供支撑。GenAD在理解复杂动态环境、适应开放世界场景、精准预测等方面具有较强能力,能够通过语言和行车轨迹进行控制,并展现出应用于自动驾驶规划任务的潜力,有助于提高行车安全性和效率。
从单张图片快速生成3D对象
TripoSR是由Stability AI与Tripo AI合作开发的3D对象重建模型,能够从单张图片在不到一秒钟的时间内生成高质量的3D模型。该模型在低推理预算下运行,无需GPU,适用于广泛的用户和应用场景。模型权重和源代码已在MIT许可下发布,允许商业化、个人和研究使用。
无需相机校准信息的密集立体3D重建
DUSt3R是一种新颖的密集和无约束立体3D重建方法,适用于任意图像集合。它不需要事先了解相机校准或视点姿态信息,通过将成对重建问题视为点图的回归,放宽了传统投影相机模型的严格约束。DUSt3R提供了一种统一的单目和双目重建方法,并在多图像情况下提出了一种简单有效的全局对齐策略。基于标准的Transformer编码器和解码器构建网络架构,利用强大的预训练模型。DUSt3R直接提供场景的3D模型和深度信息,并且可以从中恢复像素匹配、相对和绝对相机信息。
基于视频的3D场景重建
VisFusion是一个利用视频数据进行在线3D场景重建的技术,它能够实时地从视频中提取和重建出三维环境。这项技术结合了计算机视觉和深度学习,为用户提供了一个强大的工具,用于创建精确的三维模型。
ComfyUI 3D处理插件包
ComfyUI-3D-Pack是一个强大的3D处理插件集合,它为ComfyUI提供了处理3D模型(网格、纹理等)的能力,集成了各种前沿3D重建和渲染算法,如3D高斯采样、NeRF不同iable渲染等,可以实现单视角图像快速重建3D高斯模型,并可转换为三角网格模型,同时还提供了交互式3D可视化界面。
从图像或视频中执行多种推断
PRISMA是一个计算摄影管道,可以从任何图像或视频中执行多种推断。就像光线通过棱镜折射成不同的波长一样,这个管道将图像扩展成可用于3D重建或实时后期处理操作的数据。它结合了不同的算法和开源的预训练模型,比如单目深度(MiDAS v3.1, ZoeDepth, Marigold, PatchFusion)、光流(RAFT)、分割掩模(mmdet)、相机姿态(colmap)等。结果带存储在与输入文件同名的文件夹中,每个band以.png或.mp4文件的形式单独存储。对于视频,在最后一步,它会尝试执行稀疏重建,可用于NeRF(如NVidia的Instant-ngp)或高斯扩散训练。推断出的深度信息默认导出为可以使用LYGIA的heatmap GLSL/HLSL采样实时解码的热度图,而光流编码为HUE(角度)和饱和度,也可以使用LYGIA的光流GLSL/HLSL采样器实时解码。
© 2025 AIbase 备案号:闽ICP备08105208号-14