需求人群:
"目标受众包括机器学习研究人员、强化学习爱好者以及对人工智能在游戏领域应用感兴趣的开发者。DIAMOND模型能够帮助他们理解并应用扩散模型在强化学习中的应用,以及如何通过自回归想象来改进游戏策略。"
使用场景示例:
研究人员使用DIAMOND模型在雅达利游戏中进行策略训练和评估。
开发者利用DIAMOND进行游戏环境的自回归想象,以改进游戏AI。
教育工作者将DIAMOND作为教学案例,向学生展示强化学习在实际问题中的应用。
产品特色:
自回归想象用于雅达利游戏子集
快速安装并尝试预先训练的世界模型
使用miniconda或python venv进行环境配置
支持多种控制方式,如按键m获取控制权
可以调整扩散世界模型的采样参数
提供可视化和数据集模式以浏览和重放存储的剧集
使用教程:
克隆或下载DIAMOND的代码库到本地。
根据提供的安装指南,使用miniconda或python venv配置开发环境。
安装所需的依赖项,如Python 3.10和其他库。
运行预训练的世界模型,观察代理的表现。
使用提供的控件,如按键m,来获取控制权并进行交互。
调整扩散世界模型的采样参数,以优化性能。
使用可视化和数据集模式来分析和重放游戏剧集。
浏览量:14
最新流量情况
月访问量
5.03m
平均访问时长
00:06:29
每次访问页数
5.88
跳出率
37.10%
流量来源
直接访问
52.07%
自然搜索
32.84%
邮件
0.04%
外链引荐
12.88%
社交媒体
2.04%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
12.85%
德国
3.90%
印度
9.41%
俄罗斯
4.16%
美国
18.95%
扩散世界模型中训练的强化学习代理
DIAMOND(DIffusion As a Model Of eNvironment Dreams)是一个在扩散世界模型中训练的强化学习代理,用于雅达利游戏中的视觉细节至关重要的世界建模。它通过自回归想象在Atari游戏子集上进行训练,可以快速安装并尝试预先训练的世界模型。
开源视频生成模型
genmoai/models 是一个开源的视频生成模型,代表了视频生成技术的最新进展。该模型名为 Mochi 1,是一个基于 Asymmetric Diffusion Transformer (AsymmDiT) 架构的10亿参数扩散模型,从零开始训练,是迄今为止公开发布的最大的视频生成模型。它具有高保真运动和强提示遵循性,显著缩小了封闭和开放视频生成系统之间的差距。该模型在 Apache 2.0 许可下发布,用户可以在 Genmo 的 playground 上免费试用此模型。
统一的图像生成框架,简化多任务图像生成。
OmniGen是一个创新的扩散框架,它将多种图像生成任务统一到单一模型中,无需特定任务的网络或微调。这一技术简化了图像生成流程,提高了效率,降低了开发和维护成本。
谷歌旗下领先的人工智能研究公司
Google DeepMind 是谷歌旗下的一家领先的人工智能公司,专注于开发先进的机器学习算法和系统。DeepMind 以其在深度学习和强化学习领域的开创性工作而闻名,其研究涵盖了从游戏到医疗保健等多个领域。DeepMind 的目标是通过构建智能系统来解决复杂的问题,推动科学和医学的进步。
一个基于强化学习优化的大型语言模型,专注于数学问题解决能力的提升。
DeepScaleR-1.5B-Preview 是一个经过强化学习优化的大型语言模型,专注于提升数学问题解决能力。该模型通过分布式强化学习算法,显著提高了在长文本推理场景下的准确率。其主要优点包括高效的训练策略、显著的性能提升以及开源的灵活性。该模型由加州大学伯克利分校的 Sky Computing Lab 和 Berkeley AI Research 团队开发,旨在推动人工智能在教育领域的应用,尤其是在数学教育和竞赛数学领域。模型采用 MIT 开源许可,完全免费供研究人员和开发者使用。
Tülu 3 405B 是一个大规模开源语言模型,通过强化学习提升性能。
Tülu 3 405B 是由 Allen Institute for AI 开发的开源语言模型,具有 4050 亿参数。该模型通过创新的强化学习框架(RLVR)提升性能,尤其在数学和指令跟随任务中表现出色。它基于 Llama-405B 模型进行优化,采用监督微调、偏好优化等技术。Tülu 3 405B 的开源性质使其成为研究和开发领域的强大工具,适用于需要高性能语言模型的各种应用场景。
PaSa 是一个由大语言模型驱动的先进学术论文搜索代理,能够自主决策并获取准确结果。
PaSa 是由字节跳动开发的一种先进学术论文搜索代理,基于大语言模型(LLM)技术,能够自主调用搜索工具、阅读论文并筛选相关参考文献,以获取复杂学术查询的全面准确结果。该技术通过强化学习优化,使用合成数据集 AutoScholarQuery 进行训练,并在真实世界查询数据集 RealScholarQuery 上表现出色,显著优于传统搜索引擎和基于 GPT 的方法。PaSa 的主要优势在于其高召回率和精准率,能够为研究人员提供更高效的学术搜索体验。
DeepSeek-R1 是一款高性能推理模型,支持多种语言和任务,适用于研究和商业应用。
DeepSeek-R1 是 DeepSeek 团队推出的第一代推理模型,通过大规模强化学习训练,无需监督微调即可展现出卓越的推理能力。该模型在数学、代码和推理任务上表现优异,与 OpenAI-o1 模型相当。DeepSeek-R1 还提供了多种蒸馏模型,适用于不同规模和性能需求的场景。其开源特性为研究社区提供了强大的工具,支持商业使用和二次开发。
一个用于强化学习人类反馈训练过程可视化的工具,帮助深度理解与调试。
RLLoggingBoard 是一个专注于强化学习人类反馈(RLHF)训练过程可视化的工具。它通过细粒度的指标监控,帮助研究人员和开发者直观理解训练过程,快速定位问题,并优化训练效果。该工具支持多种可视化模块,包括奖励曲线、响应排序和 token 级别指标等,旨在辅助现有的训练框架,提升训练效率和效果。它适用于任何支持保存所需指标的训练框架,具有高度的灵活性和可扩展性。
一个实时适应未见任务的自适应大型语言模型框架。
SakanaAI/self-adaptive-llms是一个名为Transformer²的自适应框架,旨在解决传统微调方法计算密集且处理多样化任务能力静态的挑战。该框架能够在推理过程中通过两步机制实时调整大型语言模型(LLMs)以适应未见任务:首先,调度系统识别任务属性;然后,使用强化学习训练的任务特定'专家'向量被动态混合,以获得针对输入提示的目标行为。主要优点包括实时任务适应性、计算效率和灵活性。该项目由SakanaAI团队开发,目前在GitHub上开源,拥有195颗星和12次分叉。
Sonus-1:开启大型语言模型(LLMs)的新时代
Sonus-1是Sonus AI推出的一系列大型语言模型(LLMs),旨在推动人工智能的边界。这些模型以其高性能和多应用场景的多功能性而设计,包括Sonus-1 Mini、Sonus-1 Air、Sonus-1 Pro和Sonus-1 Pro (w/ Reasoning)等不同版本,以满足不同需求。Sonus-1 Pro (w/ Reasoning)在多个基准测试中表现突出,特别是在推理和数学问题上,展现了其超越其他专有模型的能力。Sonus AI致力于开发高性能、可负担、可靠且注重隐私的大型语言模型。
定制化漫画生成模型,连接多模态LLMs和扩散模型。
DiffSensei是一个结合了多模态大型语言模型(LLMs)和扩散模型的定制化漫画生成模型。它能够根据用户提供的文本提示和角色图像,生成可控制的黑白漫画面板,并具有灵活的角色适应性。这项技术的重要性在于它将自然语言处理与图像生成相结合,为漫画创作和个性化内容生成提供了新的可能性。DiffSensei模型以其高质量的图像生成、多样化的应用场景以及对资源的高效利用而受到关注。目前,该模型在GitHub上公开,可以免费下载使用,但具体的使用可能需要一定的计算资源。
多模态大型语言模型,优化图像与文本交互能力
InternVL2_5-4B-MPO-AWQ是一个多模态大型语言模型(MLLM),专注于提升模型在图像和文本交互任务中的表现。该模型基于InternVL2.5系列,并通过混合偏好优化(MPO)进一步提升性能。它能够处理包括单图像和多图像、视频数据在内的多种输入,适用于需要图像和文本交互理解的复杂任务。InternVL2_5-4B-MPO-AWQ以其卓越的多模态能力,为图像-文本到文本的任务提供了一个强大的解决方案。
自适应条件选择,提升文本到图像生成控制力
DynamicControl是一个用于提升文本到图像扩散模型控制力的框架。它通过动态组合多样的控制信号,支持自适应选择不同数量和类型的条件,以更可靠和详细地合成图像。该框架首先使用双循环控制器,利用预训练的条件生成模型和判别模型,为所有输入条件生成初始真实分数排序。然后,通过多模态大型语言模型(MLLM)构建高效条件评估器,优化条件排序。DynamicControl联合优化MLLM和扩散模型,利用MLLM的推理能力促进多条件文本到图像任务,最终排序的条件输入到并行多控制适配器,学习动态视觉条件的特征图并整合它们以调节ControlNet,增强对生成图像的控制。
多模态大型语言模型,提升文本、图像和视频数据处理能力。
Valley是由字节跳动开发的多模态大型模型(MLLM),旨在处理涉及文本、图像和视频数据的多种任务。该模型在内部电子商务和短视频基准测试中取得了最佳结果,远超过其他开源模型,并在OpenCompass多模态模型评估排行榜上展现了出色的性能,平均得分67.40,位列已知开源MLLMs(<10B)中的前两名。
商业领域基础模型与代理
shoonya是一个专注于现代商业领域的基础模型与代理,提供多语言支持、本地化服务和针对特定商业垂直领域的优化。它通过为电子商务用例特别调整的基础模型,支持多种语言和本地上下文,以推动下一代零售业务的发展。shoonya的技术背景是基于人工智能和机器学习,旨在理解和优化区域商业模式、术语和偏好,为用户提供更加个性化和高效的购物体验。
开源图像到视频生成模型
Ruyi-Mini-7B是由CreateAI团队开发的开源图像到视频生成模型,具有约71亿参数,能够从输入图像生成360p到720p分辨率的视频帧,最长5秒。模型支持不同宽高比,并增强了运动和相机控制功能,提供更大的灵活性和创造力。该模型在Apache 2.0许可下发布,意味着用户可以自由使用和修改。
Astris AI是洛克希德·马丁公司推出的专注于安全的人工智能解决方案。
Astris AI是洛克希德·马丁公司成立的子公司,旨在推动美国国防工业基地和商业行业领域中对高保证要求的人工智能解决方案的采用。Astris AI通过提供洛克希德·马丁公司在人工智能和机器学习领域的领先技术和专业团队,帮助客户开发和部署安全、弹性和可扩展的AI解决方案。Astris AI的成立体现了洛克希德·马丁公司在推进21世纪安全、加强国防工业基础和国家安全方面的承诺,同时也展示了其在整合商业技术以帮助客户应对日益增长的威胁环境方面的领导力。
让人工智能触手可及
Recursal AI致力于使人工智能技术对所有人开放,无论语言或国家。他们的产品包括featherless.ai、RWKV和recursal cloud。featherless.ai提供即时且无需服务器的Hugging Face模型推理服务;RWKV是一个下一代基础模型,支持100多种语言,推理成本降低100倍;recursal cloud则让用户能够轻松地微调和部署RWKV模型。这些产品和技术的主要优点在于它们能够降低AI技术的门槛,提高效率,并支持多语言,这对于全球化背景下的企业和开发者来说至关重要。
大型多模态模型中视频理解的探索
Apollo是一个专注于视频理解的先进大型多模态模型家族。它通过系统性地探索视频-LMMs的设计空间,揭示了驱动性能的关键因素,提供了优化模型性能的实用见解。Apollo通过发现'Scaling Consistency',使得在较小模型和数据集上的设计决策能够可靠地转移到更大的模型上,大幅降低计算成本。Apollo的主要优点包括高效的设计决策、优化的训练计划和数据混合,以及一个新型的基准测试ApolloBench,用于高效评估。
高效、多语种的语音合成模型
CosyVoice语音生成大模型2.0-0.5B是一个高性能的语音合成模型,支持零样本、跨语言的语音合成,能够根据文本内容直接生成相应的语音输出。该模型由通义实验室提供,具有强大的语音合成能力和广泛的应用场景,包括但不限于智能助手、有声读物、虚拟主播等。模型的重要性在于其能够提供自然、流畅的语音输出,极大地丰富了人机交互的体验。
首款基于行为基础模型的虚拟物理人形代理控制工具
Meta Motivo是由Meta FAIR发布的首款行为基础模型,通过一种新颖的无监督强化学习算法预训练,用于控制复杂的虚拟人形代理完成全身任务。该模型能够在测试时,通过提示解决未见过的任务,如动作跟踪、姿势达到和奖励优化,无需额外学习或微调。这一技术的重要性在于其零样本学习能力,能够处理多种复杂任务,同时保持行为的鲁棒性。Meta Motivo的开发背景是基于对更复杂任务和不同类型代理的泛化能力的追求,其开源的预训练模型和训练代码鼓励社区进一步发展行为基础模型的研究。
快速因果视频生成器,实现即时视频生成。
CausVid是一个先进的视频生成模型,它通过将预训练的双向扩散变换器适配为因果变换器,实现了即时视频帧的生成。这一技术的重要性在于它能够显著减少视频生成的延迟,使得视频生成能够以交互式帧率(9.4FPS)在单个GPU上进行流式生成。CausVid模型支持从文本到视频的生成,以及零样本图像到视频的生成,展现了视频生成技术的新高度。
开源多模态大型语言模型系列
InternVL 2.5是基于InternVL 2.0的高级多模态大型语言模型系列,它在保持核心模型架构的同时,在训练和测试策略以及数据质量方面引入了显著的增强。该模型深入探讨了模型扩展与性能之间的关系,系统地探索了视觉编码器、语言模型、数据集大小和测试时配置的性能趋势。通过在包括多学科推理、文档理解、多图像/视频理解、现实世界理解、多模态幻觉检测、视觉定位、多语言能力和纯语言处理在内的广泛基准测试中进行的广泛评估,InternVL 2.5展现出了与GPT-4o和Claude-3.5-Sonnet等领先商业模型相媲美的竞争力。特别是,该模型是第一个在MMMU基准测试中超过70%的开源MLLM,通过链式思考(CoT)推理实现了3.7个百分点的提升,并展示了测试时扩展的强大潜力。
大型语言模型,用于文本生成和分类
OLMo-2-1124-7B-RM是由Hugging Face和Allen AI共同开发的一个大型语言模型,专注于文本生成和分类任务。该模型基于7B参数的规模构建,旨在处理多样化的语言任务,包括聊天、数学问题解答、文本分类等。它是基于Tülu 3数据集和偏好数据集训练的奖励模型,用于初始化RLVR训练中的价值模型。OLMo系列模型的发布,旨在推动语言模型的科学研究,通过开放代码、检查点、日志和相关的训练细节,促进了模型的透明度和可访问性。
Amazon Nova是亚马逊新一代的基础模型,提供前沿智能和行业领先的性价比。
Amazon Nova是亚马逊推出的新一代基础模型,能够处理文本、图像和视频提示,使客户能够使用Amazon Nova驱动的生成性AI应用程序理解视频、图表和文档,或生成视频和其他多媒体内容。Amazon Nova模型在亚马逊内部约有1000个生成性AI应用正在运行,旨在帮助内部和外部构建者应对挑战,并在延迟、成本效益、定制化、信息接地和代理能力方面取得有意义的进展。
腾讯开源的大型视频生成模型训练框架
HunyuanVideo是腾讯开源的一个系统性框架,用于训练大型视频生成模型。该框架通过采用数据策划、图像-视频联合模型训练和高效的基础设施等关键技术,成功训练了一个超过130亿参数的视频生成模型,是所有开源模型中最大的。HunyuanVideo在视觉质量、运动多样性、文本-视频对齐和生成稳定性方面表现出色,超越了包括Runway Gen-3、Luma 1.6在内的多个行业领先模型。通过开源代码和模型权重,HunyuanVideo旨在缩小闭源和开源视频生成模型之间的差距,推动视频生成生态系统的活跃发展。
高性能英文语言模型,适用于多样化任务
OLMo-2-1124-13B-DPO是经过监督微调和DPO训练的13B参数大型语言模型,主要针对英文,旨在提供在聊天、数学、GSM8K和IFEval等多种任务上的卓越性能。该模型是OLMo系列的一部分,旨在推动语言模型的科学研究。模型训练基于Dolma数据集,并公开代码、检查点、日志和训练细节。
© 2025 AIbase 备案号:闽ICP备08105208号-14