需求人群:
"目标受众为机器人学、自动化和人工智能领域的研究人员、开发者和学生。该项目适合他们,因为它提供了一个快速实验和验证新想法的平台,尤其是对于强化学习在机器人控制领域的应用。"
使用场景示例:
研究人员使用L2F在模拟环境中快速训练四旋翼飞行器的控制策略。
开发者将训练出的策略部署到真实的Crazyflie四旋翼飞行器上,实现自主飞行。
学生使用L2F项目作为学习深度强化学习和机器人控制的教学工具。
产品特色:
快速训练:能在18秒内在笔记本电脑上完成四旋翼控制策略的训练。
端到端控制:提供了从传感器输入到控制输出的完整策略训练。
泛化能力:训练出的策略可以迁移到真实世界的四旋翼飞行器上。
深度强化学习:依赖于RLtools库,利用深度强化学习技术进行策略训练。
跨平台支持:提供了Docker支持,可以在多种操作系统上运行。
用户界面:提供了基于Web的用户界面,方便监控训练过程。
Tensorboard日志:支持Tensorboard日志记录,方便分析训练结果。
代码开源:所有代码都在GitHub上开源,便于社区贡献和改进。
使用教程:
1. 克隆仓库到本地:使用git clone命令克隆learning-to-fly项目到本地目录。
2. 安装依赖:根据系统环境(Ubuntu或macOS)安装必要的依赖库。
3. 构建项目:在项目根目录下执行cmake命令配置构建,然后使用cmake --build构建项目。
4. 运行训练:使用命令行运行训练程序,例如./build/src/training_headless开始无界面的训练。
5. 使用Tensorboard查看结果:安装Tensorboard后,使用tensorboard --logdir=logs命令查看训练日志。
6. 部署到四旋翼:训练完成后,将策略部署到真实的四旋翼飞行器上进行测试。
7. 使用Docker(可选):也可以通过Docker运行整个项目,使用docker run命令启动Docker容器。
浏览量:26
最新流量情况
月访问量
4.85m
平均访问时长
00:06:25
每次访问页数
6.08
跳出率
35.86%
流量来源
直接访问
52.62%
自然搜索
32.72%
邮件
0.05%
外链引荐
12.34%
社交媒体
2.17%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
12.55%
德国
3.84%
印度
9.38%
俄罗斯
4.61%
美国
18.64%
在18秒内训练可迁移的四旋翼控制策略
Learning to Fly (L2F) 是一个开源项目,旨在通过深度强化学习训练端到端控制策略,并能够在消费级笔记本电脑上快速完成训练。该项目的主要优点是训练速度快,能够在几秒钟内完成,并且训练出的策略具有良好的泛化能力,可以直接部署到真实的四旋翼飞行器上。L2F项目依赖于RLtools深度强化学习库,并且提供了详细的安装和部署指南,使得研究人员和开发者能够快速上手并进行实验。
使用自主强化学习训练野外设备控制代理
DigiRL是一个创新的在线强化学习算法,用于训练能够在野外环境中控制设备的智能代理。它通过自主价值评估模型(VLM)来解决开放式的、现实世界中的Android任务。DigiRL的主要优点包括能够利用现有的非最优离线数据集,并通过离线到在线的强化学习来鼓励代理从自身的尝试和错误中学习。该模型使用指令级价值函数来隐式构建自动课程,优先考虑对代理最有价值的任务,并通过步进级价值函数挑选出在轨迹中对目标有贡献的有利动作。
基于深度强化学习的模型微调框架
ReFT是一个开源的研究项目,旨在通过深度强化学习技术对大型语言模型进行微调,以提高其在特定任务上的表现。该项目提供了详细的代码和数据,以便研究人员和开发者能够复现论文中的结果。ReFT的主要优点包括能够利用强化学习自动调整模型参数,以及通过微调提高模型在特定任务上的性能。产品背景信息显示,ReFT基于Codellama和Galactica模型,遵循Apache2.0许可证。
大规模强化学习用于扩散模型
Text-to-image扩散模型是一类深度生成模型,展现了出色的图像生成能力。然而,这些模型容易受到来自网页规模的文本-图像训练对的隐含偏见的影响,可能无法准确地对我们关心的图像方面进行建模。这可能导致次优样本、模型偏见以及与人类伦理和偏好不符的图像。本文介绍了一种有效可扩展的算法,利用强化学习(RL)改进扩散模型,涵盖了多样的奖励函数,如人类偏好、组成性和公平性,覆盖了数百万张图像。我们阐明了我们的方法如何大幅优于现有方法,使扩散模型与人类偏好保持一致。我们进一步阐明了如何这显著改进了预训练的稳定扩散(SD)模型,生成的样本被人类偏好80.3%,同时改善了生成样本的组成和多样性。
JaxMARL - 多智能体强化学习库
JaxMARL 是一个多智能体强化学习库,结合了易用性和 GPU 加速效能。它支持常用的多智能体强化学习环境以及流行的基准算法。目标是提供一个全面评估多智能体强化学习方法的库,并与相关基准进行比较。同时,它还引入了 SMAX,这是一个简化版的流行的星际争霸多智能体挑战环境,无需运行星际争霸 II 游戏引擎。
利用强化学习提升扩散大语言模型的推理能力。
该模型通过强化学习和高质量推理轨迹的掩蔽自监督微调,实现了对扩散大语言模型的推理能力的提升。此技术的重要性在于它能够优化模型的推理过程,减少计算成本,同时保证学习动态的稳定性。适合希望在写作和推理任务中提升效率的用户。
多目标强化学习框架,文本转图像生成
Parrot 是一种多目标强化学习框架,专为文本转图像生成而设计。它通过批量 Pareto 最优选择的方式,自动识别在 T2I 生成的 RL 优化过程中不同奖励之间的最佳权衡。此外,Parrot采用了 T2I 模型和提示扩展网络的联合优化方法,促进了生成质量感知的文本提示,从而进一步提高了最终图像质量。为了抵消由于提示扩展而可能导致的原始用户提示的潜在灾难性遗忘,我们在推理时引入了原始提示中心化指导,确保生成的图像忠实于用户输入。大量实验和用户研究表明,Parrot在各种质量标准,包括美学、人类偏好、图像情感和文本-图像对齐方面,均优于几种基线方法。
用于强化学习的Unitree机器人平台
Unitree RL GYM是一个基于Unitree机器人的强化学习平台,支持Unitree Go2、H1、H1_2、G1等型号。该平台提供了一个集成环境,允许研究人员和开发者训练和测试强化学习算法在真实或模拟的机器人上的表现。它的重要性在于推动机器人自主性和智能技术的发展,特别是在需要复杂决策和运动控制的应用中。Unitree RL GYM是开源的,可以免费使用,主要面向科研人员和机器人爱好者。
用于强化学习验证的数学问题数据集
RLVR-GSM-MATH-IF-Mixed-Constraints数据集是一个专注于数学问题的数据集,它包含了多种类型的数学问题和相应的解答,用于训练和验证强化学习模型。这个数据集的重要性在于它能够帮助开发更智能的教育辅助工具,提高学生解决数学问题的能力。产品背景信息显示,该数据集由allenai在Hugging Face平台上发布,包含了GSM8k和MATH两个子集,以及带有可验证约束的IF Prompts,适用于MIT License和ODC-BY license。
扩散世界模型中训练的强化学习代理
DIAMOND(DIffusion As a Model Of eNvironment Dreams)是一个在扩散世界模型中训练的强化学习代理,用于雅达利游戏中的视觉细节至关重要的世界建模。它通过自回归想象在Atari游戏子集上进行训练,可以快速安装并尝试预先训练的世界模型。
SERL是一个高效的机器人强化学习软件套件
SERL是一个经过精心实现的代码库,包含了一个高效的离策略深度强化学习方法,以及计算奖励和重置环境的方法,一个高质量的广泛采用的机器人控制器,以及一些具有挑战性的示例任务。它为社区提供了一个资源,描述了它的设计选择,并呈现了实验结果。令人惊讶的是,我们发现我们的实现可以实现非常高效的学习,仅需25到50分钟的训练即可获得PCB装配、电缆布线和物体重定位等策略,改进了文献中报告的类似任务的最新结果。这些策略实现了完美或接近完美的成功率,即使在扰动下也具有极强的鲁棒性,并呈现出新兴的恢复和修正行为。我们希望这些有前途的结果和我们的高质量开源实现能为机器人社区提供一个工具,以促进机器人强化学习的进一步发展。
通过强化学习微调大型视觉-语言模型作为决策代理
RL4VLM是一个开源项目,旨在通过强化学习微调大型视觉-语言模型,使其成为能够做出决策的智能代理。该项目由Yuexiang Zhai, Hao Bai, Zipeng Lin, Jiayi Pan, Shengbang Tong, Alane Suhr, Saining Xie, Yann LeCun, Yi Ma, Sergey Levine等研究人员共同开发。它基于LLaVA模型,并采用了PPO算法进行强化学习微调。RL4VLM项目提供了详细的代码库结构、入门指南、许可证信息以及如何引用该研究的说明。
一个用于强化学习人类反馈训练过程可视化的工具,帮助深度理解与调试。
RLLoggingBoard 是一个专注于强化学习人类反馈(RLHF)训练过程可视化的工具。它通过细粒度的指标监控,帮助研究人员和开发者直观理解训练过程,快速定位问题,并优化训练效果。该工具支持多种可视化模块,包括奖励曲线、响应排序和 token 级别指标等,旨在辅助现有的训练框架,提升训练效率和效果。它适用于任何支持保存所需指标的训练框架,具有高度的灵活性和可扩展性。
模块化仿人机器人,用于强化学习训练
Agibot X1是由Agibot开发的模块化仿人机器人,具有高自由度,基于Agibot开源框架AimRT作为中间件,并使用强化学习进行运动控制。该项目是Agibot X1使用的强化学习训练代码,可以与Agibot X1提供的推理软件结合用于真实机器人和模拟步行调试,或导入其他机器人模型进行训练。
PRIME通过隐式奖励增强在线强化学习,提升语言模型的推理能力。
PRIME是一个开源的在线强化学习解决方案,通过隐式过程奖励来增强语言模型的推理能力。该技术的主要优点在于能够在不依赖显式过程标签的情况下,有效地提供密集的奖励信号,从而加速模型的训练和推理能力的提升。PRIME在数学竞赛基准测试中表现出色,超越了现有的大型语言模型。其背景信息包括由多个研究者共同开发,并在GitHub上发布了相关代码和数据集。PRIME的定位是为需要复杂推理任务的用户提供强大的模型支持。
R1-Omni 是一个结合强化学习的全模态情绪识别模型,专注于提升多模态情绪识别的可解释性。
R1-Omni 是一个创新的多模态情绪识别模型,通过强化学习提升模型的推理能力和泛化能力。该模型基于 HumanOmni-0.5B 开发,专注于情绪识别任务,能够通过视觉和音频模态信息进行情绪分析。其主要优点包括强大的推理能力、显著提升的情绪识别性能以及在分布外数据上的出色表现。该模型适用于需要多模态理解的场景,如情感分析、智能客服等领域,具有重要的研究和应用价值。
通过强化学习提升大型语言模型在开源软件演变中的推理能力
SWE-RL 是由 Facebook Research 提出的一种基于强化学习的大型语言模型推理技术,旨在利用开源软件演变数据提升模型在软件工程任务中的表现。该技术通过规则驱动的奖励机制,优化模型的推理能力,使其能够更好地理解和生成高质量的代码。SWE-RL 的主要优点在于其创新性的强化学习方法和对开源数据的有效利用,为软件工程领域带来了新的可能性。该技术目前处于研究阶段,尚未明确商业化定价,但其在提升开发效率和代码质量方面具有显著潜力。
一个高效的强化学习框架,用于训练推理和搜索引擎调用的语言模型。
Search-R1 是一个强化学习框架,旨在训练能够进行推理和调用搜索引擎的语言模型(LLMs)。它基于 veRL 构建,支持多种强化学习方法和不同的 LLM 架构,使得在工具增强的推理研究和开发中具备高效性和可扩展性。
一款开源的14B参数量的数学模型,通过强化学习训练,性能卓越。
Light-R1-14B-DS 是由北京奇虎科技有限公司开发的开源数学模型。该模型基于 DeepSeek-R1-Distill-Qwen-14B 进行强化学习训练,在 AIME24 和 AIME25 数学竞赛基准测试中分别达到了 74.0 和 60.2 的高分,超越了许多 32B 参数量的模型。它在轻量级预算下成功实现了对已经长链推理微调模型的强化学习尝试,为开源社区提供了一个强大的数学模型工具。该模型的开源有助于推动自然语言处理在教育领域的应用,特别是数学问题解决方面,为研究人员和开发者提供了宝贵的研究基础和实践工具。
Kimi k1.5 是一个通过强化学习扩展的多模态语言模型,专注于提升推理和逻辑能力。
Kimi k1.5 是由 MoonshotAI 开发的多模态语言模型,通过强化学习和长上下文扩展技术,显著提升了模型在复杂推理任务中的表现。该模型在多个基准测试中达到了行业领先水平,例如在 AIME 和 MATH-500 等数学推理任务中超越了 GPT-4o 和 Claude Sonnet 3.5。其主要优点包括高效的训练框架、强大的多模态推理能力以及对长上下文的支持。Kimi k1.5 主要面向需要复杂推理和逻辑分析的应用场景,如编程辅助、数学解题和代码生成等。
一种用于生成图像的深度学习模型。
SD3-Controlnet-Canny 是一种基于深度学习的图像生成模型,它能够根据用户提供的文本提示生成具有特定风格的图像。该模型利用控制网络技术,可以更精确地控制生成图像的细节和风格,从而提高图像生成的质量和多样性。
DeepSeek-R1-Zero 是一款通过大规模强化学习训练的推理模型,无需监督微调即可实现卓越推理能力。
DeepSeek-R1-Zero 是由 DeepSeek 团队开发的推理模型,专注于通过强化学习提升模型的推理能力。该模型在无需监督微调的情况下,展现出强大的推理行为,如自我验证、反思和生成长链推理。其主要优点包括高效推理能力、无需预训练即可使用,以及在数学、代码和推理任务上的卓越表现。该模型基于 DeepSeek-V3 架构开发,支持大规模推理任务,适用于研究和商业应用。
一个基于强化学习优化的大型语言模型,专注于数学问题解决能力的提升。
DeepScaleR-1.5B-Preview 是一个经过强化学习优化的大型语言模型,专注于提升数学问题解决能力。该模型通过分布式强化学习算法,显著提高了在长文本推理场景下的准确率。其主要优点包括高效的训练策略、显著的性能提升以及开源的灵活性。该模型由加州大学伯克利分校的 Sky Computing Lab 和 Berkeley AI Research 团队开发,旨在推动人工智能在教育领域的应用,尤其是在数学教育和竞赛数学领域。模型采用 MIT 开源许可,完全免费供研究人员和开发者使用。
DeepSeek-R1-Distill-Llama-70B 是一款基于强化学习优化的大型语言模型,专注于推理和对话能力。
DeepSeek-R1-Distill-Llama-70B 是由 DeepSeek 团队开发的一款大型语言模型,基于 Llama-70B 架构并通过强化学习进行优化。该模型在推理、对话和多语言任务中表现出色,支持多种应用场景,包括代码生成、数学推理和自然语言处理。其主要优点是高效的推理能力和对复杂问题的解决能力,同时支持开源和商业使用。该模型适用于需要高性能语言生成和推理能力的企业和研究机构。
HOMIE 是一种新型的人形机器人遥操作系统,集成人体运动捕捉与强化学习训练框架,用于实现精准的行走与操作任务。
HOMIE 是一种创新的人形机器人遥操作解决方案,旨在通过强化学习和低成本的外骨骼硬件系统,实现精准的行走与操作任务。该技术的重要性在于它解决了传统遥操作系统的低效性和不稳定性问题,通过人体运动捕捉和强化学习训练框架,使机器人能够更加自然地执行复杂的任务。其主要优点包括高效的任务完成能力、无需复杂的运动捕捉设备以及快速的训练时间。该产品主要面向机器人研究机构、制造业和物流行业,价格未明确公开,但其硬件系统成本较低,具有较高的性价比。
Tülu 3 405B 是一个大规模开源语言模型,通过强化学习提升性能。
Tülu 3 405B 是由 Allen Institute for AI 开发的开源语言模型,具有 4050 亿参数。该模型通过创新的强化学习框架(RLVR)提升性能,尤其在数学和指令跟随任务中表现出色。它基于 Llama-405B 模型进行优化,采用监督微调、偏好优化等技术。Tülu 3 405B 的开源性质使其成为研究和开发领域的强大工具,适用于需要高性能语言模型的各种应用场景。
个性化学习路径的AI助手
EducUp Study是一个致力于使学习变得简单和有趣的教育技术初创公司。它使用人工智能技术将任何想法、视频、网站、PDF或文本转化为定制化的、游戏化的学习课程,以满足用户的个性化学习需求。
首款基于行为基础模型的虚拟物理人形代理控制工具
Meta Motivo是由Meta FAIR发布的首款行为基础模型,通过一种新颖的无监督强化学习算法预训练,用于控制复杂的虚拟人形代理完成全身任务。该模型能够在测试时,通过提示解决未见过的任务,如动作跟踪、姿势达到和奖励优化,无需额外学习或微调。这一技术的重要性在于其零样本学习能力,能够处理多种复杂任务,同时保持行为的鲁棒性。Meta Motivo的开发背景是基于对更复杂任务和不同类型代理的泛化能力的追求,其开源的预训练模型和训练代码鼓励社区进一步发展行为基础模型的研究。
© 2025 AIbase 备案号:闽ICP备08105208号-14