需求人群:
"目标受众为需要在代理应用中使用大型语言模型的开发者和研究人员,它能够提供高效的函数调用和复杂的逻辑处理能力,适用于需要快速开发和部署智能代理系统的场景。"
使用场景示例:
在智能客服系统中,快速响应用户请求并执行多个操作。
为自动化办公流程生成复杂的Python脚本,提高工作效率。
在教育领域,为学生提供个性化的学习计划和实时反馈。
产品特色:
支持单次并行多函数调用,提高交互效率。
提供自由形式的推理和动作,减少特定格式对输出的限制。
能够即时生成复杂的解决方案,实现条件和同步管道。
在BFCL、MMLU-Pro和DPAB等多个基准测试中取得优异成绩。
采用Pythonic函数调用方式,增强模型的灵活性和可扩展性。
使用教程:
1. 导入所需的库,如transformers。
2. 使用预训练模型和分词器初始化模型。
3. 准备系统提示和用户查询,按照指定格式构建输入。
4. 使用模型生成函数调用代码。
5. 解码生成的代码并执行,获取结果。
浏览量:21
最新流量情况
月访问量
25296.55k
平均访问时长
00:04:45
每次访问页数
5.83
跳出率
43.31%
流量来源
直接访问
48.39%
自然搜索
35.85%
邮件
0.03%
外链引荐
12.76%
社交媒体
2.96%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
13.77%
印度
8.48%
日本
3.85%
俄罗斯
4.86%
美国
17.58%
基于Qwen2.5-Coder系列的大型语言模型,专注于代理应用。
Dria-Agent-a-3B是一个基于Qwen2.5-Coder系列的大型语言模型,专注于代理应用。它采用Pythonic函数调用方式,具有单次并行多函数调用、自由形式推理和动作以及即时复杂解决方案生成等优势。该模型在多个基准测试中表现出色,如Berkeley Function Calling Leaderboard (BFCL)、MMLU-Pro和Dria-Pythonic-Agent-Benchmark (DPAB)。模型大小为3.09B参数,支持BF16张量类型。
大型语言模型,支持指令式对话和功能调用。
Mistral-7B-Instruct-v0.3是由Mistral AI Team开发的大型语言模型,它是Mistral-7B-v0.3的指令式微调版本。该模型具有扩展的词汇量、支持v3 Tokenizer和功能调用。它能够通过指令式对话和功能调用来生成文本,适合于需要交互式对话和自动化任务的场景。
一个基于Qwen2.5-Coder系列训练的大型语言模型,专注于代理应用。
Dria-Agent-a-7B是一个基于Qwen2.5-Coder系列训练的大型语言模型,专注于代理应用。它采用Pythonic函数调用方式,与传统JSON函数调用方法相比,具有单次并行多函数调用、自由形式推理和动作以及即时复杂解决方案生成等优势。该模型在多个基准测试中表现出色,包括Berkeley Function Calling Leaderboard (BFCL)、MMLU-Pro和Dria-Pythonic-Agent-Benchmark (DPAB)。模型大小为76.2亿参数,采用BF16张量类型,支持文本生成任务。其主要优点包括强大的编程辅助能力、高效的函数调用方式以及在特定领域的高准确率。该模型适用于需要复杂逻辑处理和多步骤任务执行的应用场景,如自动化编程、智能代理等。目前,该模型在Hugging Face平台上提供,供用户免费使用。
基于大型语言模型的智能代理研究
xLAM是一个由Salesforce AI Research团队开发的基于大型语言模型(Large Language Models, LLMs)的智能代理研究项目。它通过聚合来自不同环境的智能代理轨迹,标准化并统一这些轨迹到一致的格式,以创建一个优化的通用数据加载器,专门用于智能代理的训练。xLAM-v0.1-r是此模型系列的0.1版本,专为研究目的设计,与VLLM和FastChat平台兼容。
对话式视频代理,结合大型语言模型与视频处理API。
Jockey是一个基于Twelve Labs API和LangGraph构建的对话式视频代理。它将现有的大型语言模型(Large Language Models, LLMs)的能力与Twelve Labs的API结合使用,通过LangGraph进行任务分配,将复杂视频工作流程的负载分配给适当的基础模型。LLMs用于逻辑规划执行步骤并与用户交互,而与视频相关的任务则传递给由视频基础模型(Video Foundation Models, VFMs)支持的Twelve Labs API,以原生方式处理视频,无需像预先生成的字幕这样的中介表示。
基于Qwen>=2.0的Agent框架和应用,支持函数调用、代码解释器、RAG和Chrome扩展。
Qwen-Agent是一个基于Qwen>=2.0构建的Agent框架,它具备指令遵循、工具使用、规划和记忆能力。该框架提供了如浏览器助手、代码解释器和自定义助手等示例应用。Qwen-Agent的主要优点包括其高度的可扩展性和模块化设计,允许开发者根据需要集成不同的工具和功能。产品背景信息显示,Qwen-Agent旨在为开发者提供一个强大的工具集,以构建和部署基于大型语言模型的应用程序。Qwen-Agent在GitHub上开源,允许社区贡献和协作。
统一大型模型 API调用方式
支持将 openai、claude、azure openai, gemini,kimi, 智谱 AI, 通义千问,讯飞星火 API 等模型服务方的调用转为 openai 方式调用。屏蔽不同大模型 API 的差异,统一用 openai api 标准格式使用大模型。提供多种大型模型支持,包括负载均衡、路由、配置管理等功能。
评估大型语言模型调用函数能力的排行榜
Berkeley Function-Calling Leaderboard(伯克利函数调用排行榜)是一个专门用来评估大型语言模型(LLMs)准确调用函数(或工具)能力的在线平台。该排行榜基于真实世界数据,定期更新,提供了一个衡量和比较不同模型在特定编程任务上表现的基准。它对于开发者、研究人员以及对AI编程能力有兴趣的用户来说是一个宝贵的资源。
基于大型多模态模型构建端到端网络代理
WebVoyager是一款创新的大型多模态模型(LMM)驱动的网络代理,能够通过与现实世界的网站交互,端到端完成用户指令。我们提出了一种新的网络代理评估协议,以解决开放式网络代理任务的自动评估挑战,利用GPT-4V的强大多模态理解能力。我们从15个广泛使用的网站收集了真实世界任务,用于评估我们的代理。我们展示了WebVoyager实现了55.7%的任务成功率,明显超过了GPT-4(所有工具)和WebVoyager(仅文本)设置的性能,突显了WebVoyager在实际应用中的卓越能力。我们发现我们提出的自动评估与人类判断达成了85.3%的一致性,为在真实世界环境中进一步发展网络代理铺平了道路。
DeepHermes 3 是一款支持推理和常规响应模式的大型语言模型。
DeepHermes 3 是 NousResearch 开发的先进语言模型,能够通过系统性推理提升回答准确性。它支持推理模式和常规响应模式,用户可以通过系统提示切换。该模型在多轮对话、角色扮演、推理等方面表现出色,旨在为用户提供更强大和灵活的语言生成能力。模型基于 Llama-3.1-8B 微调,参数量达 80.3 亿,支持多种应用场景,如推理、对话、函数调用等。
基于大型语言模型的高性能MacOS聊天应用
ChatMLX是一款现代、开源、高性能的MacOS聊天应用程序,基于大型语言模型构建。它利用MLX的强大性能和苹果硅芯片,支持多种模型,为用户提供丰富的对话选择。ChatMLX在本地运行大型语言模型,以确保用户隐私和安全。
快速构建自然语言处理应用
GradientJ是一个用于测试、部署和管理自然语言处理应用的平台。它基于大型语言模型如GPT-4,提供快速构建NLP应用的能力。用户可以使用GradientJ开发自定义的文本生成、问答系统、聊天机器人等NLP应用。GradientJ提供简单易用的接口和工具,让开发者能够快速上手并实现自己的用例。定价方案灵活,适合个人开发者和企业用户。
高效为大型语言模型提供服务
FP6-LLM是一种用于大型语言模型的全新支持方案,通过六位量化(FP6)有效地减小了模型大小,并在各种应用中始终保持模型质量。我们提出了TC-FPx,这是第一个完整的GPU内核设计方案,统一支持各种量化位宽的浮点权重。我们将TC-FPx内核集成到现有推理系统中,为量化的LLM推理提供了全新的端到端支持(称为FP6-LLM),实现了推理成本和模型质量之间更好的权衡。实验证明,FP6-LLM使得使用单个GPU进行LLaMA-70b推理成为可能,实现的规范化推理吞吐量比FP16基准高1.69倍至2.65倍。
基于大型语言模型的多智能体应用开发框架
agentUniverse 是一个基于大型语言模型的多智能体应用开发框架,提供了构建单一智能体和多智能体协作机制的所有必需组件。通过模式工厂,允许开发者构建和自定义多智能体协作模式,轻松构建多智能体应用,并分享不同技术与业务领域的模式实践。
前沿的多模态大型语言模型
NVLM-D-72B是NVIDIA推出的一款多模态大型语言模型,专注于视觉-语言任务,并且通过多模态训练提升了文本性能。该模型在视觉-语言基准测试中取得了与业界领先模型相媲美的成绩。
双语开源数学推理大型语言模型。
InternLM-Math-Plus 是一个最新的双语(英文和中文)开源大型语言模型(LLM),专注于数学推理,具有解决、证明、验证和增强数学问题的能力。它在非正式数学推理(如思维链和代码解释)和正式数学推理(如LEAN 4翻译和证明)方面都有显著的性能提升。
Dria-Agent-α是基于Python的大型语言模型工具交互框架。
Dria-Agent-α是Hugging Face推出的大型语言模型(LLM)工具交互框架。它通过Python代码来调用工具,与传统的JSON模式相比,能更充分地发挥LLM的推理能力,使模型能够以更接近人类自然语言的方式进行复杂问题的解决。该框架利用Python的流行性和接近伪代码的语法,使LLM在代理场景中表现更佳。Dria-Agent-α的开发使用了合成数据生成工具Dria,通过多阶段管道生成逼真的场景,训练模型进行复杂问题解决。目前已有Dria-Agent-α-3B和Dria-Agent-α-7B两个模型在Hugging Face上发布。
多模态语音大型语言模型
fixie-ai/ultravox-v0_4_1-llama-3_1-8b是一个基于预训练的Llama3.1-8B-Instruct和whisper-large-v3-turbo的大型语言模型,能够处理语音和文本输入,生成文本输出。该模型通过特殊的<|audio|>伪标记将输入音频转换为嵌入,并生成输出文本。未来版本计划扩展标记词汇以支持生成语义和声学音频标记,进而可以用于声码器产生语音输出。该模型在翻译评估中表现出色,且没有偏好调整,适用于语音代理、语音到语音翻译、语音分析等场景。
70B参数量的大型语言模型,专为工具使用优化
Llama-3-70B-Tool-Use是一种70B参数量的大型语言模型,专为高级工具使用和功能调用任务设计。该模型在Berkeley功能调用排行榜(BFCL)上的总体准确率达到90.76%,表现优于所有开源的70B语言模型。该模型优化了变换器架构,并通过完整的微调和直接偏好优化(DPO)在Llama 3 70B基础模型上进行了训练。输入为文本,输出为文本,增强了工具使用和功能调用的能力。尽管其主要用途是工具使用和功能调用,但在一般知识或开放式任务中,可能更适用通用语言模型。该模型可能在某些情况下产生不准确或有偏见的内容,用户应注意实现适合其特定用例的适当安全措施。该模型对温度和top_p采样配置非常敏感。
医疗领域先进的大型语言模型
HuatuoGPT-o1-70B是由FreedomIntelligence开发的医疗领域大型语言模型(LLM),专为复杂的医疗推理设计。该模型在提供最终响应之前,会生成一个复杂的思考过程,反映并完善其推理。HuatuoGPT-o1-70B能够处理复杂的医疗问题,提供深思熟虑的答案,这对于提高医疗决策的质量和效率至关重要。该模型基于LLaMA-3.1-70B架构,支持英文,并且可以部署在多种工具上,如vllm或Sglang,或者直接进行推理。
开放的大型语言模型排行榜
Open LLM Leaderboard是一个由Hugging Face提供的空间,旨在展示和比较各种大型语言模型的性能。它为开发者、研究人员和企业提供了一个平台,可以查看不同模型在特定任务上的表现,从而帮助用户选择最适合自己需求的模型。
多语言大型语言模型
Llama 3.2是由Meta公司推出的多语言大型语言模型(LLMs),包含1B和3B两种规模的预训练和指令调优生成模型。这些模型在多种语言对话用例中进行了优化,包括代理检索和总结任务。Llama 3.2在许多行业基准测试中的表现优于许多现有的开源和封闭聊天模型。
前沿级多模态大型语言模型
NVLM 1.0是NVIDIA ADLR推出的前沿级多模态大型语言模型系列,它在视觉-语言任务上达到了业界领先水平,与顶级专有模型和开放访问模型相媲美。该模型在多模态训练后,甚至在纯文本任务上的准确性上也有所提高。NVLM 1.0的开源模型权重和Megatron-Core训练代码为社区提供了宝贵的资源。
123B参数的大型语言模型,具备先进推理和编码能力。
Mistral-Large-Instruct-2411是由Mistral AI提供的一款具有123B参数的大型语言模型,它在推理、知识、编码等方面具有最先进的能力。该模型支持多种语言,并在80多种编程语言上进行了训练,包括但不限于Python、Java、C、C++等。它以代理为中心,具备原生函数调用和JSON输出能力,是进行科研和开发的理想选择。
百度推出的无代码工具,通过自然语言即可生成应用,让每个人具备程序员能力
秒哒是百度倾力打造的首个无代码工具,旨在让每个人都能通过自然语言实现任意想法,无需编写代码即可构建各种应用。该平台通过对话式开发、多智能体协作和多工具调用等功能,极大地降低了应用开发的门槛,提高了开发效率。秒哒的推出,标志着应用开发进入了一个全新的时代,让创意的实现变得更加简单、快速和高效。秒哒目前处于免费试用阶段,用户可以免费体验其强大的功能,为个人和企业提供高效、低成本的应用开发解决方案。
世界顶尖的开源大型语言模型
Reflection Llama-3.1 70B 是目前世界上顶尖的开源大型语言模型(LLM),采用名为 Reflection-Tuning 的新技术进行训练,使模型能够检测其推理中的错误并进行修正。该模型在合成数据上进行了训练,这些数据由 Glaive 生成。对于正在训练模型的用户来说,Glaive 是一个非常出色的工具。该模型使用标准的 Llama 3.1 聊天格式,通过特殊的标签来区分模型的内部思考和最终答案,从而提升用户体验。
先进的大型语言模型,用于编程
Code Llama 是一款先进的大型语言模型,可以通过文本提示生成代码。它是当前公开可用的语言模型中在编程任务上达到最佳性能的模型之一。Code Llama 可以帮助开发人员提高工作效率,降低编码门槛,并作为一个教育工具帮助编程学习者编写更健壮、更好文档化的软件。Code Llama 提供了多个版本,包括基础版、针对 Python 的专用版和针对自然语言指令的定制版。它支持多种流行的编程语言,如 Python、C++、Java 等。Code Llama 免费供研究和商业使用。
Hermes系列的最新版大型语言模型
Hermes 3是Nous Research公司推出的Hermes系列最新版大型语言模型(LLM),相较于Hermes 2,它在代理能力、角色扮演、推理、多轮对话、长文本连贯性等方面都有显著提升。Hermes系列模型的核心理念是将LLM与用户对齐,赋予终端用户强大的引导能力和控制权。Hermes 3在Hermes 2的基础上,进一步增强了功能调用和结构化输出能力,提升了通用助手能力和代码生成技能。
© 2025 AIbase 备案号:闽ICP备08105208号-14