需求人群:
"目标受众为需要在不同大型语言模型间实现高效通信的开发者和研究人员。Agora通过提供一个标准化的通信协议,降低了不同系统间沟通的复杂性,使得跨平台协作成为可能,特别适合需要构建复杂多代理系统的用户。"
使用场景示例:
在多代理系统中,不同LLMs通过Agora协议完成复杂任务,降低成本。
开发者利用Agora协议实现不同数据库技术之间的数据交换。
研究人员使用Agora协议测试不同LLMs在协商和执行任务时的表现。
产品特色:
使用自然语言进行罕见通信。
通过LLMs协商出用于频繁通信的结构化数据协议。
实现例程,即用于发送或接收数据的简单脚本。
未来通信使用例程处理,提高效率。
支持异构LLMs之间的通信,增强多功能性。
实现跨平台通信,提高可移植性。
使用教程:
1. 将.env.template文件重命名为.env,并填写相应的字段。
2. 使用pip安装requirements.txt中列出的依赖。
3. 运行orchestrator.py脚本,启动多代理网络的交互。
4. 观察并分析不同LLMs如何通过Agora协议完成指定任务。
5. 根据需要调整.env文件中的配置,以适应不同的通信场景。
6. 通过修改orchestrator.py中的代码,定制多代理网络的行为。
浏览量:4
最新流量情况
月访问量
5.16m
平均访问时长
00:06:42
每次访问页数
5.81
跳出率
37.20%
流量来源
直接访问
52.27%
自然搜索
32.92%
邮件
0.05%
外链引荐
12.52%
社交媒体
2.15%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
11.99%
德国
3.63%
印度
9.20%
俄罗斯
5.25%
美国
19.02%
跨平台通信协议,使不同的大型语言模型(LLMs)能够高效沟通。
Agora是一个简单的跨平台协议,允许异构的大型语言模型(LLMs)通过谈判高效地相互通信。该协议通过自然语言进行罕见通信,并为频繁通信协商出一种通信协议,通常涉及结构化数据(例如JSON)。一旦协议确定,它们将使用LLMs实现例程,即简单的脚本(例如Python),用于发送或接收数据。未来通信将使用这些例程处理,这意味着不再需要LLMs,从而实现了效率、多功能性和可移植性。
Qwen2.5-Coder系列的1.5B参数指令调优模型
Qwen2.5-Coder是Qwen大型语言模型的最新系列,专为代码生成、代码推理和代码修复而设计。基于强大的Qwen2.5,通过增加训练令牌至5.5万亿,包括源代码、文本代码基础、合成数据等,Qwen2.5-Coder-32B已成为当前最先进的开源代码大型语言模型,其编码能力与GPT-4o相匹配。此模型是1.5B参数的指令调优版本,采用GGUF格式,具有因果语言模型、预训练和后训练阶段、transformers架构等特点。
数据驱动的框架,增强大型语言模型的工作流编排能力
WorkflowLLM是一个以数据为中心的框架,旨在增强大型语言模型(LLMs)在工作流编排方面的能力。核心是WorkflowBench,这是一个大规模的监督式微调数据集,包含来自83个应用、28个类别的1503个API的106763个样本。WorkflowLLM通过微调Llama-3.1-8B模型,创建了专门针对工作流编排任务优化的WorkflowLlama模型。实验结果表明,WorkflowLlama在编排复杂工作流方面表现出色,并且能够很好地泛化到未见过的API。
124B参数的多模态大型语言模型
Pixtral-Large-Instruct-2411是由Mistral AI研发的124B参数的大型多模态模型,基于Mistral Large 2构建,展现出前沿级别的图像理解能力。该模型不仅能够理解文档、图表和自然图像,同时保持了Mistral Large 2在文本理解方面的领先地位。它在MathVista、DocVQA、VQAv2等数据集上达到了最先进的性能,是科研和商业应用的强大工具。
多模态语音大型语言模型
fixie-ai/ultravox-v0_4_1-llama-3_1-70b是一个基于预训练的Llama3.1-70B-Instruct和whisper-large-v3-turbo的大型语言模型,能够处理语音和文本输入,生成文本输出。该模型通过特殊伪标记<|audio|>将输入音频转换为嵌入,并与文本提示合并后生成输出文本。Ultravox的开发旨在扩展语音识别和文本生成的应用场景,如语音代理、语音到语音翻译和口语音频分析等。该模型遵循MIT许可,由Fixie.ai开发。
多模态语音大型语言模型
fixie-ai/ultravox-v0_4_1-llama-3_1-8b是一个基于预训练的Llama3.1-8B-Instruct和whisper-large-v3-turbo的大型语言模型,能够处理语音和文本输入,生成文本输出。该模型通过特殊的<|audio|>伪标记将输入音频转换为嵌入,并生成输出文本。未来版本计划扩展标记词汇以支持生成语义和声学音频标记,进而可以用于声码器产生语音输出。该模型在翻译评估中表现出色,且没有偏好调整,适用于语音代理、语音到语音翻译、语音分析等场景。
.NET 9,跨平台开发的最新力作。
.NET 9是微软推出的最新跨平台开发框架,它集成了数千项性能、安全性和功能改进,使得开发者能够以统一的平台构建应用程序,并轻松地将AI融入应用。.NET 9不仅提升了运行时性能,还增强了对AI的支持,改进了ASP.NET Core和Blazor框架,以及对.NET MAUI的多平台应用开发进行了增强。
AI一键生成PPT,轻松实现PPT高效排版与制作
笔格AIPPT是一款利用人工智能技术,通过用户输入的主题或导入的文档内容,自动生成PPT内容大纲和设计排版的在线服务。它通过智能化的制作过程,提供内容和主题,仅需10秒即可自动生成PPT,大大提高了PPT制作的效率。产品背景信息显示,它适用于多种使用场景,包括党政机关、人事行政、汇报总结、教学课件制作等,并且提供了海量的优质PPT模板,满足不同用户的需求。价格方面,比格AIPPT提供了个人VIP和企业VIP服务,具体价格未在页面中显示,可能需要用户进一步咨询或注册后了解。
一个提供代码Artifacts的在线平台
通义千问2.5-代码-Artifacts是一个专注于代码Artifacts的平台,旨在为用户提供代码相关的资源和服务。该平台可能包含代码示例、开发工具、代码管理等功能,以提高开发者的工作效率和代码质量。它可能依托于人工智能技术,提供智能代码辅助和自动化测试等功能,具有提高开发效率、降低错误率等优点。
Hermes系列的最新版大型语言模型
Hermes 3是Nous Research公司推出的Hermes系列最新版大型语言模型(LLM),相较于Hermes 2,它在代理能力、角色扮演、推理、多轮对话、长文本连贯性等方面都有显著提升。Hermes系列模型的核心理念是将LLM与用户对齐,赋予终端用户强大的引导能力和控制权。Hermes 3在Hermes 2的基础上,进一步增强了功能调用和结构化输出能力,提升了通用助手能力和代码生成技能。
Nous Research推出的首款无限制AI聊天机器人
Nous Chat是AI研究组织Nous Research推出的首款面向用户的聊天机器人,它提供了对大型语言模型Hermes 3-70B的访问权限。Hermes 3-70B是Meta的Llama 3.1的一个变体,经过微调后,以ChatGPT等流行AI聊天工具的形式提供服务。该聊天机器人以其复古的设计语言和早期PC终端的字体和字符为特色,提供暗色和亮色模式供用户选择。尽管Nous Chat旨在允许用户部署和控制自己的AI模型,但它实际上设置了一些防护措施,包括禁止制造非法药物。此外,该模型的知识截止日期为2023年4月,因此在获取最新事件方面可能不如其他竞争对手有用。尽管如此,Nous Chat是一个有趣的实验,随着新功能的添加,它可能成为企业聊天机器人和AI模型的一个有吸引力的替代品。
视频序列理解的GPU实现模型
PPLLaVA是一个高效的视频大型语言模型,它结合了细粒度视觉提示对齐、用户指令的卷积风格池化的视觉令牌压缩以及CLIP上下文扩展。该模型在VideoMME、MVBench、VideoChatGPT Bench和VideoQA Bench等数据集上建立了新的最先进结果,仅使用1024个视觉令牌,吞吐量提高了8倍。
简单易用,释放AI的强大力量
5ire是一个以简洁和用户友好为核心的AI产品,旨在让即使是初学者也能轻松利用大型语言模型。它支持多种文档格式的解析和向量化,具备本地知识库、使用分析、提示库、书签和快速关键词搜索等功能。作为一个开源项目,5ire提供免费下载,并且提供了按需付费的大型语言模型API服务。
O1复制之旅:战略进展报告第一部分
O1-Journey是由上海交通大学GAIR研究组发起的一个项目,旨在复制和重新想象OpenAI的O1模型的能力。该项目提出了“旅程学习”的新训练范式,并构建了首个成功整合搜索和学习在数学推理中的模型。这个模型通过试错、纠正、回溯和反思等过程,成为处理复杂推理任务的有效方法。
创建互动式动态图形的新方式
Rive是一种新型的图形构建方式,它通过丰富的交互性和状态驱动的动画,消除了硬编码图形的需求,使团队能够更快迭代并构建更好的产品。Rive提供了一个全新的图形格式,适用于互动时代,可以用于游戏、应用、网站等多个领域。
基于Llama-3-8B的多模态大型语言模型,专注于UI任务。
Ferret-UI是首个以用户界面为中心的多模态大型语言模型(MLLM),专为指代表达、定位和推理任务设计。它基于Gemma-2B和Llama-3-8B构建,能够执行复杂的用户界面任务。这个版本遵循了Apple的研究论文,是一个强大的工具,可以用于图像文本到文本的任务,并且在对话和文本生成方面具有优势。
在线URL解析器,将URL转换为适合大型语言模型的输入格式。
URL Parser Online是一个在线工具,它能够将复杂的URL转换为适合大型语言模型(LLMs)使用的输入格式。这项技术的重要性在于它能够帮助开发者和研究人员更有效地处理和解析URL数据,尤其是在进行网页内容分析和数据抽取时。产品背景信息显示,随着互联网数据量的爆炸式增长,对URL的解析和处理需求日益增加。URL Parser Online以其简洁的用户界面和高效的解析能力,为用户提供了一个便捷的解决方案。该产品目前提供免费服务,定位于开发者和数据分析师。
多功能AI助手,提供问答、写作、绘图等智能服务。
三顿智能助手是一个集成了多种AI功能的在线平台,它通过提供问答、写作、绘图等多种服务,帮助用户提高工作效率和创造力。该产品以其强大的AI技术背景和用户友好的界面,为用户提供了一个便捷的智能服务入口。价格方面,三顿智能助手提供免费试用,同时也提供付费服务以解锁更多功能。
SELA通过结合蒙特卡洛树搜索和基于LLM的代理来增强自动化机器学习。
SELA是一个创新系统,它通过将蒙特卡洛树搜索(MCTS)与基于大型语言模型(LLM)的代理结合起来,增强了自动化机器学习(AutoML)。传统的AutoML方法经常产生低多样性和次优的代码,限制了它们在模型选择和集成方面的有效性。SELA通过将管道配置表示为树,使代理能够智能地探索解决方案空间,并根据实验反馈迭代改进其策略。
Gmail用户的友好聊天助手,无需GSuite即可协作。
DailyBot for Gmail是一款集成在Gmail中的聊天助手,它允许用户无需GSuite即可进行团队协作。这款产品通过自动化日常任务和报告,减少了会议数量,提高了工作效率。它支持跨平台协作,包括Google Chat和Slack,并且可以自定义命令,与现有系统集成。DailyBot for Gmail以其易用性、跨平台协作能力和自动化功能,成为现代工作团队提高生产力的重要工具。
桌面端的AI伙伴,快速、专注,为深度工作设计。
Claude是一个桌面端的AI伙伴,旨在为用户提供快速、专注的深度工作体验。它允许用户在桌面上与AI进行交互,进行头脑风暴、获取答案和分析图像。Claude由Anthropic公司开发,该公司专注于人工智能技术的研究与产品开发,致力于通过AI技术提升工作效率和生活质量。产品目前处于Beta测试阶段,提供了macOS和Windows系统的安装包,以及iOS和Android的移动应用,覆盖了用户在不同设备上的需求。
易于使用的Map、规划和协作应用
Pin Drop是一款集Map、规划和协作于一体的应用,它能够帮助用户轻松探索新目的地、规划日常行程,并创建难忘的旅程。这款应用不仅适用于个人冒险,也适合完成工作任务。具有实时协作、人工智能洞察、数据定制等功能——全部集中在一处。Pin Drop以其用户友好的界面和强大的功能,如共享列表、路线优化、实地销售管理等,成为提高效率和团队协作的有力工具。它支持跨平台使用,包括iOS、Android、网页和浏览器插件,为用户提供了随时随地访问和管理地点数据的便利。
无需Docker即可使用的Anthropic Claude计算机使用接口。
Computer Use - OOTB是一个无需Docker即可使用的Anthropic Claude计算机使用接口。它支持任何平台,目前主要在Windows上进行了测试。该项目提供了一个基于Gradio的用户友好界面,允许用户通过互联网从任何设备远程控制计算机,无需在移动设备上安装应用程序。产品的主要优点包括简化的安装过程、跨平台支持以及基于云的API调用,使得用户可以轻松地利用Anthropic Claude的强大功能。
长视频语言理解的时空自适应压缩模型
LongVU是一种创新的长视频语言理解模型,通过时空自适应压缩机制减少视频标记的数量,同时保留长视频中的视觉细节。这一技术的重要性在于它能够处理大量视频帧,且在有限的上下文长度内仅损失少量视觉信息,显著提升了长视频内容理解和分析的能力。LongVU在多种视频理解基准测试中均超越了现有方法,尤其是在理解长达一小时的视频任务上。此外,LongVU还能够有效地扩展到更小的模型尺寸,同时保持最先进的视频理解性能。
1位大型语言模型推理框架
BitNet是由微软开发的官方推理框架,专为1位大型语言模型(LLMs)设计。它提供了一套优化的核心,支持在CPU上进行快速且无损的1.58位模型推理(NPU和GPU支持即将推出)。BitNet在ARM CPU上实现了1.37倍到5.07倍的速度提升,能效比提高了55.4%到70.0%。在x86 CPU上,速度提升范围从2.37倍到6.17倍,能效比提高了71.9%到82.2%。此外,BitNet能够在单个CPU上运行100B参数的BitNet b1.58模型,实现接近人类阅读速度的推理速度,拓宽了在本地设备上运行大型语言模型的可能性。
下一代AI代理框架,全球首个真正的实时多模态AI代理框架。
TEN-framework是一个创新的AI代理框架,旨在提供实时多模态交互的高性能支持。它支持多种语言和平台,实现了边缘-云集成,并能够灵活地超越单一模型的限制。TEN-framework通过实时管理代理状态,使得AI代理能够动态响应并实时调整行为。该框架的背景是满足日益增长的复杂AI应用需求,特别是在音频-视觉场景中。它不仅提供了高效的开发支持,还通过模块化和可重用扩展的方式,促进了AI技术的创新和应用。
由NVIDIA定制的大型语言模型,提升查询回答的帮助性。
Llama-3.1-Nemotron-70B-Instruct是NVIDIA定制的大型语言模型,专注于提升大型语言模型(LLM)生成回答的帮助性。该模型在多个自动对齐基准测试中表现优异,例如Arena Hard、AlpacaEval 2 LC和GPT-4-Turbo MT-Bench。它通过使用RLHF(特别是REINFORCE算法)、Llama-3.1-Nemotron-70B-Reward和HelpSteer2-Preference提示在Llama-3.1-70B-Instruct模型上进行训练。此模型不仅展示了NVIDIA在提升通用领域指令遵循帮助性方面的技术,还提供了与HuggingFace Transformers代码库兼容的模型转换格式,并可通过NVIDIA的build平台进行免费托管推理。
文本到图像生成的自适应工作流
ComfyGen 是一个专注于文本到图像生成的自适应工作流系统,它通过学习用户提示来自动化并定制有效的工作流。这项技术的出现,标志着从使用单一模型到结合多个专业组件的复杂工作流的转变,旨在提高图像生成的质量。ComfyGen 背后的主要优点是能够根据用户的文本提示自动调整工作流,以生成更高质量的图像,这对于需要生成特定风格或主题图像的用户来说非常重要。
© 2024 AIbase 备案号:闽ICP备08105208号-14