简介:

开源视觉-语言-动作模型,推动机器人操作技术发展。

功能:

支持多种机器人平台的控制,无需额外训练。

通过参数高效的微调快速适应新的机器人设置。

在视觉、运动、物理和语义泛化任务上表现出色。

使用Prismatic-7B VLM进行预训练,包含融合视觉编码器、投影器和Llama 2 7B语言模型。

在多任务、多对象环境中,将语言指令与行为有效结合。

通过LoRA技术实现参数高效的微调,仅微调1.4%的参数。

需求人群:

"OpenVLA模型主要面向机器人研究和开发人员,特别是那些需要快速部署和适应多种机器人操作任务的团队。它的开源特性和高效的微调能力,使得研究人员和工程师能够轻松地将模型应用于不同的机器人平台和操作场景。"

浏览量:48

s1785318098921236

打开站点

构建AI去赚钱
s1785341518918206
类似产品

© 2024     AIbase    备案号:闽ICP备08105208号-14

隐私政策

用户协议

意见反馈 网站地图