为开发者提供快速的AI平台,部署、优化和运行200多个LLM和多模型。
SiliconFlow是一款为开发者提供LLM部署、AI模型托管和推理API的AI基础设施。它通过优化的堆栈为用户提供更低的延迟、更高的吞吐量和可预测的成本。
MemU是一款AI记忆的智能层,为LLM应用设计,提供更高的准确性、更快的检索速度和更低的成本。
MemU是一款为AI伴侣设计的智能记忆层,提供更高的准确性、更快的检索速度和更低的成本。它是一个开源的AI记忆框架,适用于机器学习、神经网络、对话AI、聊天机器人记忆、AI代理和自主记忆。
开源的端到端产品级通用智能体
JoyAgent-JDGenie 是一个通用的多智能体框架,能够快速构建智能体产品,用户只需输入任务或查询,即可获得直接的解决方案。该产品强调高完成度和轻量化设计,具有较强的通用性,并在 GAIA 榜单上表现出色,适合于需要快速响应和高效执行的企业或开发者。该产品免费开源,定位于提供便捷的智能体开发解决方案。
一个简单的代理框架,支持浏览器使用、深度研究等功能。
Minion Agent 是一个简单而强大的代理框架,能够与浏览器交互,支持深度研究、自动规划等功能,适用于需要进行复杂任务和研究的用户。它提供了一种灵活的工具集,使开发者能够轻松集成不同的模型和工具。该框架不仅提高了工作的效率,还为用户提供了便捷的使用体验,适合各类科研和商业应用。该产品是开源的,用户可以自由使用和修改。
智能AI令牌管理和优化
Tokenomy是一款高级AI令牌计算器和成本估算工具,可用于LLMs。通过Tokenomy的高级令牌管理工具,优化您的AI提示,分析令牌使用情况,并节省OpenAI、Anthropic等LLM API的成本。
轻松将现有代理框架中的工具、代理和调度器转换为 MCP 服务器。
automcp 是一个开源工具,旨在简化将各种现有代理框架(如 CrewAI、LangGraph 等)转换为 MCP 服务器的过程。这使得开发者可以通过标准化接口更容易地访问这些服务器。该工具支持多种代理框架的部署,并且通过易于使用的 CLI 界面进行操作。适合需要快速集成和部署 AI 代理的开发者,价格免费,适合个人和团队使用。
mcp-use 是与 MCP 工具交互的最简单方式,支持自定义代理。
mcp-use 是一个开源的 MCP 客户端库,旨在帮助开发者将任何大型语言模型(LLM)连接到 MCP 工具,构建具有工具访问能力的自定义代理,而无需使用闭源或应用程序客户端。该产品提供了简单易用的 API 和强大的功能,可以应用于多个领域。
通过与LLM对话构建持久知识,存于本地Markdown文件
Basic Memory是一款知识管理系统,借助与LLM的自然对话构建持久知识,并保存于本地Markdown文件。它解决了多数LLM互动短暂、知识难留存的问题。其优点包括本地优先、双向读写、结构简单、可形成知识图谱、兼容现有编辑器、基础设施轻量。定位为帮助用户打造个人知识库,采用AGPL - 3.0许可证,无明确价格信息。
基于仓颉编程语言构建的 LLM Agent 开发框架。
CangjieMagic 是一个基于仓颉编程语言构建的 LLM Agent 开发框架,支持多种功能,包括任务智能规划和模块化调用。该框架旨在提升应用程序的智能和创造力,适合开发者使用。
一个轻量级且强大的多智能体工作流框架
OpenAI Agents SDK是一个用于构建多智能体工作流的框架。它允许开发者通过配置指令、工具、安全机制和智能体之间的交接来创建复杂的自动化流程。该框架支持与任何符合OpenAI Chat Completions API格式的模型集成,具有高度的灵活性和可扩展性。它主要用于编程场景中,帮助开发者快速构建和优化智能体驱动的应用程序。
Aider 是一款 AI 辅助编程工具,支持在终端进行 AI 配对编程。
Aider 是一款创新的 AI 辅助编程工具,旨在通过与大型语言模型(LLM)集成,帮助开发者在本地代码库中高效完成编程任务。它支持多种流行编程语言,能够理解复杂需求并直接在代码中实现更改。Aider 的主要优点包括高效性、灵活性和对多种 LLM 的兼容性。它适用于希望提升编程效率的开发者,无论是新手还是经验丰富的程序员。Aider 目前免费开放,旨在推动 AI 编程的普及。
一个关于大型语言模型(LLM)后训练方法的教程、调查和指南资源库。
Awesome-LLM-Post-training 是一个专注于大型语言模型(LLM)后训练方法的资源库。它提供了关于 LLM 后训练的深入研究,包括教程、调查和指南。该资源库基于论文《LLM Post-Training: A Deep Dive into Reasoning Large Language Models》,旨在帮助研究人员和开发者更好地理解和应用 LLM 后训练技术。该资源库免费开放,适合学术研究和工业应用。
一个用于从文本和图像中提取结构化数据的代理API,基于LLMs实现。
l1m是一个强大的工具,它通过代理的方式利用大型语言模型(LLMs)从非结构化的文本或图像中提取结构化的数据。这种技术的重要性在于它能够将复杂的信息转化为易于处理的格式,从而提高数据处理的效率和准确性。l1m的主要优点包括无需复杂的提示工程、支持多种LLM模型以及内置缓存功能等。它由Inferable公司开发,旨在为用户提供一个简单、高效且灵活的数据提取解决方案。l1m提供免费试用,适合需要从大量非结构化数据中提取有价值信息的企业和开发者。
为LLM训练和推理生成网站整合文本文件的工具
LLMs.txt生成器是一个由Firecrawl提供支持的在线工具,旨在帮助用户从网站生成用于LLM训练和推理的整合文本文件。它通过整合网页内容,为训练大型语言模型提供高质量的文本数据,从而提高模型的性能和准确性。该工具的主要优点是操作简单、高效,能够快速生成所需的文本文件。它主要面向需要大量文本数据进行模型训练的开发者和研究人员,为他们提供了一种便捷的解决方案。
Atom of Thoughts (AoT) 是一种用于提升大语言模型推理性能的框架。
Atom of Thoughts (AoT) 是一种新型推理框架,通过将解决方案表示为原子问题的组合,将推理过程转化为马尔可夫过程。该框架通过分解和收缩机制,显著提升了大语言模型在推理任务上的性能,同时减少了计算资源的浪费。AoT 不仅可以作为独立的推理方法,还可以作为现有测试时扩展方法的插件,灵活结合不同方法的优势。该框架开源且基于 Python 实现,适合研究人员和开发者在自然语言处理和大语言模型领域进行实验和应用。
© 2025 AIbase 备案号:闽ICP备08105208号-14