需求人群:
"用于增强大型语言模型的推理能力,特别是在数学问题解决等领域"
产品特色:
监督微调(SFT)
在线强化学习
PPO算法
推理路径采样
性能优化策略
浏览量:16
最新流量情况
月访问量
19075.32k
平均访问时长
00:05:32
每次访问页数
5.52
跳出率
45.07%
流量来源
直接访问
48.31%
自然搜索
36.36%
邮件
0.03%
外链引荐
12.17%
社交媒体
3.11%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
13.13%
印度
7.59%
日本
3.67%
俄罗斯
6.13%
美国
18.18%
增强LLM推理能力的ReFT
ReFT是一种增强大型语言模型(LLMs)推理能力的简单而有效的方法。它首先通过监督微调(SFT)对模型进行预热,然后使用在线强化学习,具体来说是本文中的PPO算法,进一步微调模型。ReFT通过自动对给定问题进行大量推理路径的采样,并从真实答案中自然地得出奖励,从而显著优于SFT。ReFT的性能可能通过结合推理时策略(如多数投票和重新排名)进一步提升。需要注意的是,ReFT通过学习与SFT相同的训练问题而获得改进,而无需依赖额外或增强的训练问题。这表明ReFT具有更强的泛化能力。
谷歌旗下领先的人工智能研究公司
Google DeepMind 是谷歌旗下的一家领先的人工智能公司,专注于开发先进的机器学习算法和系统。DeepMind 以其在深度学习和强化学习领域的开创性工作而闻名,其研究涵盖了从游戏到医疗保健等多个领域。DeepMind 的目标是通过构建智能系统来解决复杂的问题,推动科学和医学的进步。
轻量级、多语言的先进文本生成模型
Phi-3.5-mini-instruct 是微软基于高质量数据构建的轻量级、多语言的先进文本生成模型。它专注于提供高质量的推理密集型数据,支持128K的token上下文长度,经过严格的增强过程,包括监督式微调、近端策略优化和直接偏好优化,确保精确的指令遵循和强大的安全措施。
多语言对话生成模型
Meta Llama 3.1是一系列预训练和指令调整的多语言大型语言模型(LLMs),支持8种语言,专为对话使用案例优化,并通过监督式微调(SFT)和人类反馈的强化学习(RLHF)来提高安全性和有用性。
开源视觉-语言-动作模型,推动机器人操作技术发展。
OpenVLA是一个具有7亿参数的开源视觉-语言-动作(VLA)模型,通过在Open X-Embodiment数据集上的970k机器人剧集进行预训练。该模型在通用机器人操作策略上设定了新的行业标准,支持开箱即用控制多个机器人,并且可以通过参数高效的微调快速适应新的机器人设置。OpenVLA的检查点和PyTorch训练流程完全开源,模型可以从HuggingFace下载并进行微调。
专为角色扮演优化的大型语言模型
Higgs-Llama-3-70B是一个基于Meta-Llama-3-70B的后训练模型,特别针对角色扮演进行了优化,同时在通用领域指令执行和推理方面保持竞争力。该模型通过监督式微调,结合人工标注者和私有大型语言模型构建偏好对,进行迭代偏好优化以对齐模型行为,使其更贴近系统消息。与其它指令型模型相比,Higgs模型更紧密地遵循其角色。
扩散世界模型中训练的强化学习代理
DIAMOND(DIffusion As a Model Of eNvironment Dreams)是一个在扩散世界模型中训练的强化学习代理,用于雅达利游戏中的视觉细节至关重要的世界建模。它通过自回归想象在Atari游戏子集上进行训练,可以快速安装并尝试预先训练的世界模型。
用于测量和训练 AI 通用智能的软件平台
Universe 是一个软件平台,能够通过各种游戏、网站和其他应用程序,测量和训练人工智能的通用智能能力。它允许 AI 代理像人类一样使用计算机,通过观察屏幕像素和操作虚拟键盘和鼠标来与系统交互。该平台集成了包括 Flash 游戏、网页任务、视频游戏等上千种环境,旨在通过构建能够灵活应用过往经验快速掌握陌生环境的 AI 代理,从而实现通用人工智能的重大突破。
人类启发式阅读代理,具有非常长上下文的要点记忆
ReadAgent是一个简单的提示系统,它利用大型语言模型(LLM)的先进语言能力来决定将哪些内容存储在记忆集中,将这些记忆集压缩成称为要点记忆的短篇回忆,并在ReadAgent需要提醒自己相关细节以完成任务时,采取行动查阅原始文本。ReadAgent可以通过使用要点记忆来捕获全局上下文,并关注局部细节,从而有效地推理非常长的上下文,在需要一次处理的信息量方面具有高效性,这对理解也很重要。
提高LLM选择性预测能力的框架
ASPIRE是一个设计精良的框架,用于增强大型语言模型的选择性预测能力。它通过参数高效的微调训练LLM进行自我评估,使其能够针对生成的答案输出置信度分数。实验结果表明,ASPIRE在各种问答数据集上明显优于目前的选择性预测方法。
Windows AI Studio 简化生成式 AI 应用程序开发
Windows AI Studio 通过将来自 Azure AI Studio Catalog 和 Hugging Face 等目录的先进 AI 开发工具和模型集合在一起,简化了生成式 AI 应用程序的开发。您可以浏览由 Azure ML 和 Hugging Face 提供支持的 AI 模型目录,将其下载到本地,进行微调、测试并在 Windows 应用程序中使用。所有计算都在本地进行,请确保您的设备能够承受负载。未来,我们计划将 ORT/DML 集成到 Windows AI Studio 工作流中,以便开发人员可以在任何 Windows 硬件上运行 AI 模型。
从人工智能反馈中获得内在动机
Motif 是一个基于 PyTorch 的项目,通过从 LLM(大型语言模型)的偏好中获取奖励函数,训练 AI 代理在 NetHack 上进行。它可以生成与人类行为直觉一致的行为,并且可以通过提示修改进行引导。
AI-based decoder for quantum computing error correction
AlphaQubit是由Google DeepMind和Quantum AI团队共同开发的人工智能系统,它能够以最先进的准确性识别量子计算机中的错误。这项技术结合了机器学习和量子纠错的专业知识,旨在推动可靠量子计算机的构建,这对于解决复杂问题、实现科学突破和探索新领域具有重要意义。AlphaQubit的主要优点包括高准确性和对大规模量子计算的适用性。
视觉语言模型,能够进行逐步推理
LLaVA-o1是北京大学元组团队开发的一个视觉语言模型,它能够进行自发的、系统的推理,类似于GPT-o1。该模型在六个具有挑战性的多模态基准测试中超越了其他模型,包括Gemini-1.5-pro、GPT-4o-mini和Llama-3.2-90B-Vision-Instruct。LLaVA-o1通过逐步推理解决问题,展示了其在视觉语言模型中的独特优势。
释放超级推理能力,提升AIME & MATH基准测试性能。
DeepSeek-R1-Lite-Preview是一款专注于提升推理能力的AI模型,它在AIME和MATH基准测试中展现了出色的性能。该模型具备实时透明的思考过程,并且计划推出开源模型和API。DeepSeek-R1-Lite-Preview的推理能力随着思考长度的增加而稳步提升,显示出更好的性能。产品背景信息显示,DeepSeek-R1-Lite-Preview是DeepSeek公司推出的最新产品,旨在通过人工智能技术提升用户的工作效率和问题解决能力。目前,产品提供免费试用,具体的定价和定位信息尚未公布。
Sandra AI,专为汽车分销设计的智能语音代理。
Sandra AI是一个智能语音代理,专为汽车分销行业设计,提供全天候的电话接听服务,帮助经销商不错过任何来电,提高客户满意度和业务机会。Sandra AI具有深厚的行业知识,能够像真正的专家一样与客户交流,并且能够无缝集成到经销商的软件中,实现快速、平滑的部署。产品背景信息显示,Sandra AI致力于通过人工智能技术优化客户服务,让经销商能够专注于核心业务,同时提升团队的工作效率。
构建最节能的人工智能硬件
Rain AI专注于开发高能效的人工智能硬件。在当前能源消耗日益增长的背景下,Rain AI的产品通过优化硬件设计,减少能源消耗,同时保持高性能,这对于数据中心和需要大量计算资源的企业来说至关重要。产品的主要优点包括高能效、高性能和环保。Rain AI的产品背景信息显示,公司致力于推动人工智能技术的可持续发展,通过技术创新减少对环境的影响。产品的价格和定位尚未明确,但可以推测其目标市场为需要高性能计算且对能源效率有高要求的企业。
123B参数的大型语言模型,具备先进推理和编码能力。
Mistral-Large-Instruct-2411是由Mistral AI提供的一款具有123B参数的大型语言模型,它在推理、知识、编码等方面具有最先进的能力。该模型支持多种语言,并在80多种编程语言上进行了训练,包括但不限于Python、Java、C、C++等。它以代理为中心,具备原生函数调用和JSON输出能力,是进行科研和开发的理想选择。
Qwen Turbo 1M Demo是一个由Qwen提供的Hugging Face空间。
Qwen Turbo 1M Demo是一个基于Hugging Face平台的人工智能模型演示。这个模型代表了自然语言处理技术的最新进展,特别是在中文文本理解和生成方面。它的重要性在于能够提供高效、准确的语言模型,以支持各种语言相关的应用,如机器翻译、文本摘要、问答系统等。Qwen Turbo 1M Demo以其较小的模型尺寸和快速的处理速度而受到青睐,适合需要快速部署和高效运行的场合。目前,该模型是免费试用的,具体价格和定位可能需要进一步的商业洽谈。
快速将设计转换为代码的低代码平台
Locofy.ai是一个利用人工智能技术,将设计文件(如Figma和Adobe XD)快速转换为前端代码的低代码平台。它通过大型设计模型(Large Design Models)技术,训练于数百万的设计和产品,结合多模态和启发式模型,实现设计到代码的高效转换。这一技术的重要性在于它极大地提高了前端开发的效率,减少了重复劳动,让开发者能够专注于更复杂的创造性工作。Locofy.ai支持多种框架和库,如React、React Native、HTML/CSS、Next.js、Angular、Gatsby、Vue等,并且提供了插件直接从设计工具开始工作。它的价格策略包括付费计划,并提供LDM以激励用户。
数据驱动的框架,增强大型语言模型的工作流编排能力
WorkflowLLM是一个以数据为中心的框架,旨在增强大型语言模型(LLMs)在工作流编排方面的能力。核心是WorkflowBench,这是一个大规模的监督式微调数据集,包含来自83个应用、28个类别的1503个API的106763个样本。WorkflowLLM通过微调Llama-3.1-8B模型,创建了专门针对工作流编排任务优化的WorkflowLlama模型。实验结果表明,WorkflowLlama在编排复杂工作流方面表现出色,并且能够很好地泛化到未见过的API。
3D网格生成与语言模型的统一
LLaMA-Mesh是一项将大型语言模型(LLMs)预训练在文本上扩展到生成3D网格的能力的技术。这项技术利用了LLMs中已经嵌入的空间知识,并实现了对话式3D生成和网格理解。LLaMA-Mesh的主要优势在于它能够将3D网格的顶点坐标和面定义表示为纯文本,允许与LLMs直接集成而无需扩展词汇表。该技术的主要优点包括能够从文本提示生成3D网格、按需产生交错的文本和3D网格输出,以及理解和解释3D网格。LLaMA-Mesh在保持强大的文本生成性能的同时,实现了与从头开始训练的模型相当的网格生成质量。
将文章转化为引人入胜的视频
Argil article to video是一个在线平台,利用人工智能技术将文章内容快速转化为视频,以提高搜索引擎排名、增加用户停留时间,并开辟新的获取渠道。该产品通过自动化编辑视频,添加字幕、媒体素材和音乐等,帮助用户以极低的成本或零成本创建视频内容。
用于全球协作的实时语音翻译
DeepL Voice是一款提供即时、安全的语音翻译产品,旨在帮助全球团队打破语言障碍,实现无缝沟通。它利用先进的人工智能技术,提供高质量的语音翻译服务,支持多种语言,并集成到多种平台中,如Microsoft Teams。DeepL Voice的主要优点包括低延迟、高性能的翻译,无与伦比的翻译质量,以及以安全为核心的设计理念。
LLM驱动的多代理角色模拟,增强想象力和商业洞察。
TinyTroupe是一个实验性的Python库,利用大型语言模型(LLMs)如GPT-4来模拟具有特定个性、兴趣和目标的人物。这些人工代理可以在模拟环境中进行交互,帮助我们研究各种令人信服的互动和消费者类型,具有高度可定制的角色。与游戏类LLM基础模拟方法不同,TinyTroupe旨在启发生产力和商业场景,为更成功的项目和产品做出贡献。
新一代可靠且可定制的OCR解决方案
Koncile Extract是一款基于人工智能的光学字符识别(OCR)技术,能够将文档中的文本转换为可编辑和可搜索的数据。它通过使用先进的计算机视觉和自然语言处理技术,提供了高准确率的文本提取服务。Koncile Extract的主要优点包括高准确率、易于定制以及能够处理复杂文档的能力。产品背景信息显示,Koncile旨在通过其OCR技术帮助企业提高数据处理效率,降低人工成本。关于价格和定位,Koncile Extract提供定制化的解决方案,以满足不同企业的需求,具体价格可能需要根据客户需求进行商议。
大型多模态模型,集成表格数据
TableGPT2是一个大型多模态模型,专门针对表格数据进行预训练和微调,以解决实际应用中表格数据整合不足的问题。该模型在超过593.8K的表格和2.36M的高质量查询-表格-输出元组上进行了预训练和微调,规模前所未有。TableGPT2的关键创新之一是其新颖的表格编码器,专门设计用于捕获模式级别和单元格级别的信息,增强了模型处理模糊查询、缺失列名和不规则表格的能力。在23个基准测试指标上,TableGPT2在7B模型上平均性能提升了35.20%,在72B模型上提升了49.32%,同时保持了强大的通用语言和编码能力。
视频扩散模型,用于虚拟试穿。
Fashion-VDM是一个视频扩散模型(VDM),用于生成虚拟试穿视频。该模型接受一件衣物图片和人物视频作为输入,旨在生成人物穿着给定衣物的高质量试穿视频,同时保留人物的身份和动作。与传统的基于图像的虚拟试穿相比,Fashion-VDM在衣物细节和时间一致性方面表现出色。该技术的主要优点包括:扩散式架构、分类器自由引导增强控制、单次64帧512px视频生成的渐进式时间训练策略,以及联合图像-视频训练的有效性。Fashion-VDM在视频虚拟试穿领域树立了新的行业标准。
© 2024 AIbase 备案号:闽ICP备08105208号-14