需求人群:
"DigiRL的目标受众主要是人工智能和机器学习领域的研究人员与开发者,特别是那些专注于强化学习、自主智能代理以及设备控制自动化的专业人士。他们可以利用DigiRL来开发能够适应不断变化环境的智能系统,提高自动化任务的效率和准确性。"
使用场景示例:
在搜索好的意大利餐厅时,DigiRL能够自动完成搜索任务。
在新蛋网上搜索Alienware Aurora时,DigiRL能够自动导航至产品页面并执行搜索。
在训练过程中,DigiRL能够通过自主数据更新维持稳定的性能,即使在网站变化时也能保持高效。
产品特色:
使用自主VLM评估器解决开放式Android任务
通过离线强化学习最大化现有数据集的利用
采用离线到在线的强化学习鼓励代理自我学习
使用指令级价值函数构建自动课程
利用步进级价值函数挑选有利动作
通过自主收集的rollout训练,减少从错误中恢复的失败
与现有的行为克隆方法相比,具有更低的样本复杂度和更高的学习效率
使用教程:
1. 访问DigiRL的官方网站以获取更多信息。
2. 阅读DigiRL的论文和代码,了解其算法和实现细节。
3. 下载并安装必要的软件环境,以运行DigiRL模型。
4. 根据DigiRL的指导文档设置实验环境,包括数据集和参数配置。
5. 运行DigiRL模型,观察其在不同任务上的表现。
6. 根据实验结果调整模型参数,优化DigiRL的性能。
7. 将DigiRL应用于实际的设备控制任务,实现自动化操作。
浏览量:14
使用自主强化学习训练野外设备控制代理
DigiRL是一个创新的在线强化学习算法,用于训练能够在野外环境中控制设备的智能代理。它通过自主价值评估模型(VLM)来解决开放式的、现实世界中的Android任务。DigiRL的主要优点包括能够利用现有的非最优离线数据集,并通过离线到在线的强化学习来鼓励代理从自身的尝试和错误中学习。该模型使用指令级价值函数来隐式构建自动课程,优先考虑对代理最有价值的任务,并通过步进级价值函数挑选出在轨迹中对目标有贡献的有利动作。
模块化仿人机器人,用于强化学习训练
Agibot X1是由Agibot开发的模块化仿人机器人,具有高自由度,基于Agibot开源框架AimRT作为中间件,并使用强化学习进行运动控制。该项目是Agibot X1使用的强化学习训练代码,可以与Agibot X1提供的推理软件结合用于真实机器人和模拟步行调试,或导入其他机器人模型进行训练。
谷歌旗下领先的人工智能研究公司
Google DeepMind 是谷歌旗下的一家领先的人工智能公司,专注于开发先进的机器学习算法和系统。DeepMind 以其在深度学习和强化学习领域的开创性工作而闻名,其研究涵盖了从游戏到医疗保健等多个领域。DeepMind 的目标是通过构建智能系统来解决复杂的问题,推动科学和医学的进步。
下一代具有规划和自我修复能力的AI代理
Agent Q是MultiOn公司研发的新一代AI代理模型,它通过结合搜索、自我批评和强化学习,创建能够规划和自我修复的先进自主网络代理。它通过引导蒙特卡洛树搜索(MCTS)、AI自我批评和直接偏好优化(DPO)算法,解决了传统大型语言模型(LLMs)在动态环境中多步推理任务的挑战,提高了在复杂环境中的成功率。
多语言对话生成模型
Meta Llama 3.1是一系列预训练和指令调整的多语言大型语言模型(LLMs),支持8种语言,专为对话使用案例优化,并通过监督式微调(SFT)和人类反馈的强化学习(RLHF)来提高安全性和有用性。
多维奖励模型,助力构建自定义大型语言模型。
Nemotron-4-340B-Reward是由NVIDIA开发的多维奖励模型,用于合成数据生成管道,帮助研究人员和开发者构建自己的大型语言模型(LLMs)。该模型由Nemotron-4-340B-Base模型和一个线性层组成,能够将响应末尾的标记转换为五个标量值,对应于HelpSteer2属性。它支持最多4096个标记的上下文长度,并能够对每个助手轮次的五个属性进行评分。
通过强化学习微调大型视觉-语言模型作为决策代理
RL4VLM是一个开源项目,旨在通过强化学习微调大型视觉-语言模型,使其成为能够做出决策的智能代理。该项目由Yuexiang Zhai, Hao Bai, Zipeng Lin, Jiayi Pan, Shengbang Tong, Alane Suhr, Saining Xie, Yann LeCun, Yi Ma, Sergey Levine等研究人员共同开发。它基于LLaVA模型,并采用了PPO算法进行强化学习微调。RL4VLM项目提供了详细的代码库结构、入门指南、许可证信息以及如何引用该研究的说明。
扩散世界模型中训练的强化学习代理
DIAMOND(DIffusion As a Model Of eNvironment Dreams)是一个在扩散世界模型中训练的强化学习代理,用于雅达利游戏中的视觉细节至关重要的世界建模。它通过自回归想象在Atari游戏子集上进行训练,可以快速安装并尝试预先训练的世界模型。
为真实世界机器人提供最先进的机器学习模型、数据集和工具。
LeRobot 是一个旨在降低进入机器人领域的门槛,让每个人都能贡献并从共享数据集和预训练模型中受益的开源项目。它包含了在真实世界中经过验证的最先进的方法,特别关注模仿学习和强化学习。LeRobot 提供了一组预训练模型、带有人类收集演示的数据集和模拟环境,以便用户无需组装机器人即可开始。未来几周内,计划增加对最实惠和最有能力的真实世界机器人的支持。
开源的MuZero实现,分布式AI框架
MuKoe是一个完全开源的MuZero实现,使用Ray作为分布式编排器在GKE上运行。它提供了Atari游戏的示例,并通过Google Next 2024的演讲提供了代码库的概览。MuKoe支持在CPU和TPU上运行,具有特定的硬件要求,适合需要大规模分布式计算资源的AI研究和开发。
用于测量和训练 AI 通用智能的软件平台
Universe 是一个软件平台,能够通过各种游戏、网站和其他应用程序,测量和训练人工智能的通用智能能力。它允许 AI 代理像人类一样使用计算机,通过观察屏幕像素和操作虚拟键盘和鼠标来与系统交互。该平台集成了包括 Flash 游戏、网页任务、视频游戏等上千种环境,旨在通过构建能够灵活应用过往经验快速掌握陌生环境的 AI 代理,从而实现通用人工智能的重大突破。
SERL是一个高效的机器人强化学习软件套件
SERL是一个经过精心实现的代码库,包含了一个高效的离策略深度强化学习方法,以及计算奖励和重置环境的方法,一个高质量的广泛采用的机器人控制器,以及一些具有挑战性的示例任务。它为社区提供了一个资源,描述了它的设计选择,并呈现了实验结果。令人惊讶的是,我们发现我们的实现可以实现非常高效的学习,仅需25到50分钟的训练即可获得PCB装配、电缆布线和物体重定位等策略,改进了文献中报告的类似任务的最新结果。这些策略实现了完美或接近完美的成功率,即使在扰动下也具有极强的鲁棒性,并呈现出新兴的恢复和修正行为。我们希望这些有前途的结果和我们的高质量开源实现能为机器人社区提供一个工具,以促进机器人强化学习的进一步发展。
大规模强化学习用于扩散模型
Text-to-image扩散模型是一类深度生成模型,展现了出色的图像生成能力。然而,这些模型容易受到来自网页规模的文本-图像训练对的隐含偏见的影响,可能无法准确地对我们关心的图像方面进行建模。这可能导致次优样本、模型偏见以及与人类伦理和偏好不符的图像。本文介绍了一种有效可扩展的算法,利用强化学习(RL)改进扩散模型,涵盖了多样的奖励函数,如人类偏好、组成性和公平性,覆盖了数百万张图像。我们阐明了我们的方法如何大幅优于现有方法,使扩散模型与人类偏好保持一致。我们进一步阐明了如何这显著改进了预训练的稳定扩散(SD)模型,生成的样本被人类偏好80.3%,同时改善了生成样本的组成和多样性。
增强LLM推理能力的ReFT
ReFT是一种增强大型语言模型(LLMs)推理能力的简单而有效的方法。它首先通过监督微调(SFT)对模型进行预热,然后使用在线强化学习,具体来说是本文中的PPO算法,进一步微调模型。ReFT通过自动对给定问题进行大量推理路径的采样,并从真实答案中自然地得出奖励,从而显著优于SFT。ReFT的性能可能通过结合推理时策略(如多数投票和重新排名)进一步提升。需要注意的是,ReFT通过学习与SFT相同的训练问题而获得改进,而无需依赖额外或增强的训练问题。这表明ReFT具有更强的泛化能力。
多目标强化学习框架,文本转图像生成
Parrot 是一种多目标强化学习框架,专为文本转图像生成而设计。它通过批量 Pareto 最优选择的方式,自动识别在 T2I 生成的 RL 优化过程中不同奖励之间的最佳权衡。此外,Parrot采用了 T2I 模型和提示扩展网络的联合优化方法,促进了生成质量感知的文本提示,从而进一步提高了最终图像质量。为了抵消由于提示扩展而可能导致的原始用户提示的潜在灾难性遗忘,我们在推理时引入了原始提示中心化指导,确保生成的图像忠实于用户输入。大量实验和用户研究表明,Parrot在各种质量标准,包括美学、人类偏好、图像情感和文本-图像对齐方面,均优于几种基线方法。
增强 LLM 的可用性和安全性
Starling-7B 是一个由强化学习从 AI 反馈(RLAIF)训练的开放大型语言模型(LLM)。它通过我们的新 GPT-4 标记排序数据集 Nectar 和新的奖励训练和策略调优流程充分发挥了作用。Starling-7B 在使用 GPT-4 作为评委的 MT Bench 中得分为 8.09,在 MT-Bench 上超过了目前所有模型,除了 OpenAI 的 GPT-4 和 GPT-4 Turbo。我们在 HuggingFace 上发布了排名数据集 Nectar、奖励模型 Starling-RM-7B-alpha 和语言模型 Starling-LM-7B-alpha,以及 LMSYS Chatbot Arena 中的在线演示。请期待我们即将发布的代码和论文,其中将提供有关整个过程的更多详细信息。
JaxMARL - 多智能体强化学习库
JaxMARL 是一个多智能体强化学习库,结合了易用性和 GPU 加速效能。它支持常用的多智能体强化学习环境以及流行的基准算法。目标是提供一个全面评估多智能体强化学习方法的库,并与相关基准进行比较。同时,它还引入了 SMAX,这是一个简化版的流行的星际争霸多智能体挑战环境,无需运行星际争霸 II 游戏引擎。
从人工智能反馈中获得内在动机
Motif 是一个基于 PyTorch 的项目,通过从 LLM(大型语言模型)的偏好中获取奖励函数,训练 AI 代理在 NetHack 上进行。它可以生成与人类行为直觉一致的行为,并且可以通过提示修改进行引导。
人类级奖励设计算法,通过编码大型语言模型实现
Eureka是一种人类级奖励设计算法,通过编码大型语言模型实现。它利用最先进的语言模型(如GPT-4)的零样本生成、编写代码和上下文改进能力,对奖励代码进行进化优化。生成的奖励可以用于通过强化学习获得复杂的技能。Eureka生成的奖励函数在29个开源强化学习环境中,包括10种不同的机器人形态,优于人类专家设计的奖励函数。Eureka还能够灵活地改进奖励函数,以提高生成奖励的质量和安全性。通过与课程学习相结合,使用Eureka奖励函数,我们首次展示了一个模拟的Shadow Hand能够进行旋转笔的技巧,熟练地以快速的速度在圆圈中操纵笔。
UI个性化,用AI提升产品收入
flowRL是一款利用实时用户体验个性化和强化学习提升产品收入的工具。它通过AI算法为每个用户定制独特的应用体验,根据用户的行为进行实时UI调整,以最大程度地符合其偏好。我们的机器学习模型采用强化学习技术,能够不断学习和优化用户数据,以达到任何目标指标,从用户留存到收入和用户生命周期价值。
基于环境反馈的视觉语言编程工具
Octopus是一款基于环境反馈的视觉语言编程工具,能够高效地解析代理的视觉和文本任务目标,制定复杂的动作序列,并生成可执行代码。Octopus的设计允许代理处理广泛的任务,从模拟器中的日常琐事到复杂视频游戏中的复杂交互。Octopus通过利用GPT-4来控制探索代理生成训练数据,即动作蓝图和相应的可执行代码,在我们的实验环境OctoVerse中进行训练。我们还收集反馈,以允许强化学习与环境反馈(RLEF)的增强训练方案。通过一系列实验,我们阐明了Octopus的功能并呈现了令人信服的结果,提出的RLEF证明了提高代理决策的效果。通过开源我们的模型架构、模拟器和数据集,我们希望激发更多的创新并促进更广泛的体验AI社区中的协作应用。
© 2024 AIbase 备案号:闽ICP备08105208号-14