需求人群:
"目标受众主要是计算机图形学、机器学习和动画领域的研究者和开发者。他们可以使用ProtoMotions来研究和开发新的动画技术,或者将其应用于自己的项目中,以提高角色动画的真实性和互动性。"
使用场景示例:
研究者使用ProtoMotions来训练一个全身动作跟踪器,以提高动作捕捉的准确性。
游戏开发者利用ProtoMotions中的AMP模型来生成游戏中角色的自然动作。
电影制作人员使用ProtoMotions来创建复杂场景中的流畅角色动画。
产品特色:
支持IsaacGym和IsaacSim,可以灵活选择模拟后端。
基于Hydra和OmegaConfig,方便进行配置管理。
提供多种预训练模型,如AMP、ASE等,用于不同的动画任务。
支持自定义环境和代理,便于用户根据自己的需求进行开发。
提供详细的安装和使用指南,便于用户快速上手。
支持多种机器人模型,如SMPL、SMPL-X和AMP等。
提供地形生成和场景管理功能,增强动画的真实感。
支持使用Tensorboard和Weights & Biases进行实验日志记录。
使用教程:
首先,确保已经安装了Python 3.8和必要的依赖库。
接着,克隆ProtoMotions的GitHub仓库到本地。
安装IsaacGym或IsaacSim,根据需要选择模拟后端。
设置PYTHON_PATH环境变量,指向ProtoMotions的根目录。
根据实验需求,选择合适的配置文件和机器人模型。
运行训练脚本,开始训练代理。
训练完成后,使用评估脚本来测试代理的性能。
根据需要,可以自定义环境和代理,进行更深入的实验。
浏览量:13
最新流量情况
月访问量
5.16m
平均访问时长
00:06:42
每次访问页数
5.81
跳出率
37.20%
流量来源
直接访问
52.27%
自然搜索
32.92%
邮件
0.05%
外链引荐
12.52%
社交媒体
2.15%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
11.99%
德国
3.63%
印度
9.20%
俄罗斯
5.25%
美国
19.02%
基于物理的角色动画研究项目
ProtoMotions是一个致力于创建交互式物理模拟虚拟代理的项目。它支持IsaacGym和IsaacSim,并且基于Hydra和OmegaConfig构建,使得配置组合变得简单。这个项目为研究者和开发者提供了一个平台,用于开发和测试基于物理的角色动画技术。它不仅能够用于学术研究,还能在游戏、电影和虚拟现实等领域中应用。
基于Transformer的实时开放世界AI模型
Oasis是由Decart AI开发的首个可玩、实时、开放世界的AI模型,它是一个互动视频游戏,由Transformer端到端生成,基于逐帧生成。Oasis能够接收用户键盘和鼠标输入,实时生成游戏玩法,内部模拟物理、游戏规则和图形。该模型通过直接观察游戏玩法学习,允许用户移动、跳跃、拾取物品、破坏方块等。Oasis被视为研究更复杂交互世界的基础模型的第一步,未来可能取代传统的游戏引擎。Oasis的实现需要模型架构的改进和模型推理技术的突破,以实现用户与模型的实时交互。Decart AI采用了最新的扩散训练和Transformer模型方法,并结合了大型语言模型(LLMs)来训练一个自回归模型,该模型可以根据用户即时动作生成视频。此外,Decart AI还开发了专有的推理框架,以提供NVIDIA H100 Tensor Core GPU的峰值利用率,并支持Etched即将推出的Sohu芯片。
通用角色图像动画框架,支持多种角色类型动画生成。
Animate-X是一个基于LDM的通用动画框架,用于各种角色类型(统称为X),包括人物拟态角色。该框架通过引入姿势指示器来增强运动表示,可以更全面地从驱动视频中捕获运动模式。Animate-X的主要优点包括对运动的深入建模,能够理解驱动视频的运动模式,并将其灵活地应用到目标角色上。此外,Animate-X还引入了一个新的Animated Anthropomorphic Benchmark (A2Bench) 来评估其在通用和广泛适用的动画图像上的性能。
基于物理的图像到视频生成技术
PhysGen是一个创新的图像到视频生成方法,它能够将单张图片和输入条件(例如,对图片中物体施加的力和扭矩)转换成现实、物理上合理且时间上连贯的视频。该技术通过将基于模型的物理模拟与数据驱动的视频生成过程相结合,实现了在图像空间中的动态模拟。PhysGen的主要优点包括生成的视频在物理和外观上都显得逼真,并且可以精确控制,通过定量比较和全面的用户研究,展示了其在现有数据驱动的图像到视频生成工作中的优越性。
为角色动画提供直观且价格合理的动作捕捉工具。
Rokoko是一款基于传感器的动作捕捉系统,为3D数字创作者提供高质量的身体、手指和面部动画解决方案。它具有直观易用的界面和负担得起的价格,可帮助用户轻松实现逼真的角色动画。
通过视频生成实现基于物理的3D对象交互
PhysDreamer是一个基于物理的方法,它通过利用视频生成模型学习到的对象动力学先验,为静态3D对象赋予交互式动力学。这种方法允许在缺乏真实物体物理属性数据的情况下,模拟出对新颖交互(如外力或代理操作)的真实反应。PhysDreamer通过用户研究评估合成交互的真实性,推动了更吸引人和真实的虚拟体验的发展。
从单一视频创建实时互动游戏环境
Video2Game是一项技术,可以将单一视频转换成具有实时、互动、真实感和浏览器兼容性的高质量虚拟环境。它通过构建大规模的NeRF模型来实现高质量的表面几何形状,然后将该模型转换为带有对应刚体动力学的网格表示,以支持交互。使用UV映射的神经纹理,既能表达丰富,又与游戏引擎兼容。最终得到的是一个虚拟环境,虚拟角色可以与之互动,响应用户控制,并能从新的相机视角实时提供高分辨率渲染。
物理模拟角色的指令驱动控制系统
InsActor是一个基于物理模拟的角色控制系统。它可以通过自然语言指令驱动角色在复杂环境中完成各种交互任务。该系统利用条件与对抗扩散模型进行多级规划,并与低级控制器相结合,实现稳定、鲁棒的控制。具有控制流畅、交互自然的优势,适用于创意内容生成、互动娱乐、人机交互等应用场景。
一致且可控的角色动画图像到视频合成
Animate Anyone旨在通过驱动信号从静态图像生成角色视频。我们利用扩散模型的力量,提出了一个专为角色动画量身定制的新框架。为了保持参考图像中复杂外观特征的一致性,我们设计了ReferenceNet来通过空间注意力合并详细特征。为了确保可控性和连续性,我们引入了一个高效的姿势指导器来指导角色的动作,并采用了一种有效的时间建模方法,以确保视频帧之间的平滑跨帧过渡。通过扩展训练数据,我们的方法可以为任意角色制作动画,与其他图像到视频方法相比,在角色动画方面取得了出色的结果。此外,我们在时尚视频和人类舞蹈合成的基准上评估了我们的方法,取得了最先进的结果。
从长文本中合成无限可控角色动画
Story-to-Motion是一个全新的任务,它接受一个故事(顶部绿色区域)并生成与文本描述相符的动作和轨迹。该系统利用现代大型语言模型作为文本驱动的运动调度器,从长文本中提取一系列(文本、位置)对。它还开发了一个文本驱动的运动检索方案,结合了经典运动匹配和运动语义以及轨迹约束。此外,它设计了一个渐进式掩蔽变换器,以解决过渡动作中常见的问题,如不自然的姿势和滑步。该系统在轨迹跟随、时间动作组合和动作混合等三个不同子任务的评估中表现优异,胜过以往的动作合成方法。
© 2024 AIbase 备案号:闽ICP备08105208号-14