需求人群:
"该产品适合开发者和研究人员,他们希望创建能够与多个在线工具交互的智能代理。mcp-use 简化了与 MCP 工具的集成,使得开发自定义代理变得更加高效,适用于需要处理复杂任务的场景。"
使用场景示例:
使用 Playwright 进行网页浏览,搜索旧金山的最佳餐厅。
通过 Airbnb 查找巴塞罗那的住宿选项。
在 Blender 中创建 3D 模型,生成复杂的图形。
产品特色:
简易使用:仅需 6 行代码即可创建第一个支持 MCP 的代理。
LLM 灵活性:支持任何支持工具调用的 LangChain LLM(如 OpenAI、Anthropic 等)。
HTTP 支持:直接连接到在特定 HTTP 端口上运行的 MCP 服务器。
多服务器支持:在单个代理中同时使用多个 MCP 服务器。
工具限制:可限制潜在危险的工具,如文件系统或网络访问。
使用教程:
安装 mcp-use 库和所需的 LLM 提供程序。
设置环境变量,添加 API 密钥。
创建 MCPClient 配置,定义所需的 MCP 服务器。
实例化 LLM 和 MCPAgent。
调用代理的 run 方法,执行查询并获取结果。
浏览量:235
最新流量情况
月访问量
4.93m
平均访问时长
00:06:29
每次访问页数
6.10
跳出率
36.08%
流量来源
直接访问
54.82%
自然搜索
31.76%
邮件
0.04%
外链引荐
11.31%
社交媒体
1.86%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
12.56%
德国
3.93%
印度
9.82%
俄罗斯
5.43%
美国
18.51%
mcp-use 是与 MCP 工具交互的最简单方式,支持自定义代理。
mcp-use 是一个开源的 MCP 客户端库,旨在帮助开发者将任何大型语言模型(LLM)连接到 MCP 工具,构建具有工具访问能力的自定义代理,而无需使用闭源或应用程序客户端。该产品提供了简单易用的 API 和强大的功能,可以应用于多个领域。
MCP服务器目录,汇集多个MCP服务器资源。
MCP Directory是一个为MCP服务器提供目录服务的网站,它允许用户发现和共享MCP服务器资源。该网站使用TypeScript开发,并且提供了一个友好的用户界面,方便用户快速找到所需的MCP服务器。它的重要性在于为MCP服务器用户提供了一个集中的平台,促进了资源共享和技术交流。
MCP-Scan 是一个针对 MCP 服务器的安全扫描工具。
MCP-Scan 是一款专门为 MCP 服务器设计的安全扫描工具,能够检测常见的安全漏洞,如提示注入和工具中毒。它通过检查配置文件和工具描述,帮助用户确保系统的安全性,适用于各种开发者和系统管理员,是维护系统安全的重要工具。
开源本地RAG,集成ChatGPT和MCP能力
Minima是一个开源的、完全本地化的RAG(Retrieval-Augmented Generation)模型,具备与ChatGPT和MCP(Model Context Protocol)集成的能力。它支持三种模式:完全本地安装、通过ChatGPT查询本地文档以及使用Anthropic Claude查询本地文件。Minima的主要优点包括本地化处理数据,保护隐私,以及能够利用强大的语言模型来增强检索和生成任务。产品背景信息显示,Minima支持多种文件格式,并允许用户自定义配置以适应不同的使用场景。Minima是免费开源的,定位于需要本地化AI解决方案的开发者和企业。
全球MCP服务器集合平台
MCP Servers是一个集合了全球各种MCP服务器的平台,提供了查询和汇总聊天消息、使用Brave搜索API进行网络和本地搜索、操作Git仓库、AI图像生成、从Sentry.io获取和分析问题等多种功能。这些服务器支持开发者和企业在不同领域中实现自动化和智能化,提高效率和创新能力。MCP Servers平台以其丰富的功能和广泛的应用场景,成为编程领域中的重要工具。
将 MCP 集成到 ChatGPT 等 AI 平台的 Chrome 扩展。
MCP SuperAssistant 是一个 Chrome 扩展,集成了模型上下文协议(MCP)工具,使用户能够直接从 AI 平台执行 MCP 工具,并将结果插入对话中。这项技术提高了基于 Web 的 AI 助手的功能,支持多种 AI 平台,为用户提供便捷的数据交互方式。
可测试和探索MCP服务器,提供多平台搜索与调试等功能
MCP Playground是一个用于测试和探索MCP服务器的平台。其重要性在于为开发者提供了便捷的环境来操作MCP服务器。主要优点包括可以搜索数百万GitHub仓库获取代码片段、获取当前库文档和示例、访问Sentry问题错误及进行AI调试等。产品背景信息暂未提及价格,定位为服务于编程开发人员的工具。
一个为LLM生成Git提交信息的插件
llm-commit 是一个为 LLM(Large Language Model)设计的插件,用于生成 Git 提交信息。该插件通过分析 Git 的暂存区差异,利用 LLM 的语言生成能力,自动生成简洁且有意义的提交信息。它不仅提高了开发者的提交效率,还确保了提交信息的质量和一致性。该插件适用于任何使用 Git 和 LLM 的开发环境,免费开源,易于安装和使用。
高效的 Intel GPU 上的 LLM 推理解决方案
这是一种在 Intel GPU 上实现的高效的 LLM 推理解决方案。通过简化 LLM 解码器层、使用分段 KV 缓存策略和自定义的 Scaled-Dot-Product-Attention 内核,该解决方案在 Intel GPU 上相比标准的 HuggingFace 实现可实现高达 7 倍的令牌延迟降低和 27 倍的吞吐量提升。详细功能、优势、定价和定位等信息请参考官方网站。
一个零配置工具,可自动将FastAPI端点暴露为模型上下文协议(MCP)工具
FastAPI-MCP是一个专为FastAPI设计的工具,旨在无缝集成模型上下文协议(MCP)。它允许开发者无需任何配置即可将FastAPI应用程序的API端点自动转换为MCP工具。该工具的主要优点是简化了API与MCP的集成过程,支持自动发现和转换所有FastAPI端点,保留请求和响应模型的模式,并保持与Swagger相同的文档。它还支持灵活的部署方式,可以将MCP服务器直接挂载到FastAPI应用程序中,也可以单独部署。FastAPI-MCP适用于需要快速将API集成到MCP环境中的开发团队,支持Python 3.10及以上版本,推荐使用Python 3.12。
AI聊天客户端,实现模型上下文协议(MCP)
ChatMCP是一个AI聊天客户端,它实现了模型上下文协议(MCP),允许用户使用任何大型语言模型(LLM)与MCP服务器进行交互。这个项目的主要优点在于它的灵活性和开放性,用户可以根据自己的需求选择不同的LLM模型进行聊天,并且可以通过MCP服务器市场安装不同的服务器来与不同的数据进行交互。ChatMCP提供了一个用户友好的界面,支持自动安装MCP服务器、SSE MCP传输支持、自动选择MCP服务器、聊天历史记录等功能。
比较各种大型语言模型(LLM)的定价信息
LLM Pricing是一个聚合并比较各种大型语言模型(LLMs)定价信息的网站,这些模型由官方AI提供商和云服务供应商提供。用户可以在这里找到最适合其项目的语言模型定价。
一份综合性的 MCP 基础 AI 工具安全检查清单。
MCP 安全检查表是由 SlowMist 团队编制和维护的,旨在帮助开发者识别和减轻 MCP 实施过程中的安全风险。随着基于 MCP 标准的 AI 工具迅速发展,安全问题愈发重要。该检查表提供了详尽的安全指导,涵盖 MCP 服务器、客户端及多种场景的安全需求,以保护用户隐私并提升整体系统的稳定性和可控性。
Model Context Protocol的命令行检查工具
mcp-cli是一个命令行界面(CLI)检查器,用于Model Context Protocol(MCP)。它允许用户运行MCP服务器,列出工具、资源、提示,并调用工具、读取资源、读取提示。这个工具对于开发者来说非常重要,因为它简化了MCP服务器的开发和交互过程,使得开发者可以更高效地管理和调试MCP服务器。mcp-cli是用JavaScript编写的,并且完全开源,可以在GitHub上找到其源代码。
开源评估基础设施,为 LLM 提供信心
Confident AI 是一个开源的评估基础设施,为 LLM(Language Model)提供信心。用户可以通过编写和执行测试用例来评估自己的 LLM 应用,并使用丰富的开源指标来衡量其性能。通过定义预期输出并与实际输出进行比较,用户可以确定 LLM 的表现是否符合预期,并找出改进的方向。Confident AI 还提供了高级的差异跟踪功能,帮助用户优化 LLM 配置。此外,用户还可以利用全面的分析功能,识别重点关注的用例,实现 LLM 的有信心地投产。Confident AI 还提供了强大的功能,帮助用户自信地将 LLM 投入生产,包括 A/B 测试、评估、输出分类、报告仪表盘、数据集生成和详细监控。
使用简单、原始的 C/CUDA 进行 LLM 训练
karpathy/llm.c 是一个使用简单的 C/CUDA 实现 LLM 训练的项目。它旨在提供一个干净、简单的参考实现,同时也包含了更优化的版本,可以接近 PyTorch 的性能,但代码和依赖大大减少。目前正在开发直接的 CUDA 实现、使用 SIMD 指令优化 CPU 版本以及支持更多现代架构如 Llama2、Gemma 等。
开源UI可视化工具,轻松构建定制化的LLM流程
Flowise是一个开源的UI可视化工具,使用LangchainJS编写,用于构建定制化的LLM流程。它支持快速构建LLM应用程序,并提供可扩展的组件集成。Flowise可以用于构建LLM链、问答检索链、语言翻译链等多种应用场景。它是一个免费的开源项目,适用于商业和个人使用。
扩展LLM上下文窗口
LLM Context Extender是一款旨在扩展大型语言模型(LLMs)上下文窗口的工具。它通过调整RoPE的基础频率和缩放注意力logits的方式,帮助LLMs有效适应更大的上下文窗口。该工具在精细调整性能和稳健性方面验证了其方法的优越性,并展示了在仅有100个样本和6个训练步骤的情况下,将LLaMA-2-7B-Chat的上下文窗口扩展到16,384的非凡效率。此外,还探讨了数据组成和训练课程如何影响特定下游任务的上下文窗口扩展,建议以长对话进行LLMs的精细调整作为良好的起点。
一个用于LLM预训练的高效网络爬虫工具,专注于高效爬取高质量网页数据。
Crawl4LLM是一个开源的网络爬虫项目,旨在为大型语言模型(LLM)的预训练提供高效的数据爬取解决方案。它通过智能选择和爬取网页数据,帮助研究人员和开发者获取高质量的训练语料。该工具支持多种文档评分方法,能够根据配置灵活调整爬取策略,以满足不同的预训练需求。项目基于Python开发,具有良好的扩展性和易用性,适合在学术研究和工业应用中使用。
基于Linux环境快速部署开源大模型的教程
该项目是一个围绕开源大模型的全流程指导教程,包括环境配置、模型部署、高效微调等,简化开源大模型的使用和应用,让更多普通学习者能够使用开源大模型。项目面向对开源大模型感兴趣且想自主上手的学习者,提供详细的环境配置、模型部署和微调方法。
开源全栈平台,为打造顶级LLM产品提供支持
Laminar是一个开源的全栈平台,专注于从第一性原理出发进行AI工程。它帮助用户收集、理解和使用数据,以提高大型语言模型(LLM)应用的质量。Laminar支持对文本和图像模型的追踪,并且即将支持音频模型。产品的主要优点包括零开销的可观测性、在线评估、数据集构建和LLM链管理。Laminar完全开源,易于自托管,适合需要构建和管理LLM产品的开发者和团队。
构建LLM应用的开发平台
LLM Spark是一个开发平台,可用于构建基于LLM的应用程序。它提供多个LLM的快速测试、版本控制、可观察性、协作、多个LLM支持等功能。LLM Spark可轻松构建AI聊天机器人、虚拟助手等智能应用程序,并通过与提供商密钥集成,实现卓越性能。它还提供了GPT驱动的模板,加速了各种AI应用程序的创建,同时支持从零开始定制项目。LLM Spark还支持无缝上传数据集,以增强AI应用程序的功能。通过LLM Spark的全面日志和分析,可以比较GPT结果、迭代和部署智能AI应用程序。它还支持多个模型同时测试,保存提示版本和历史记录,轻松协作,以及基于意义而不仅仅是关键字的强大搜索功能。此外,LLM Spark还支持将外部数据集集成到LLM中,并符合GDPR合规要求,确保数据安全和隐私保护。
无限令牌,无限制,成本效益高的LLM推理API平台。
Awan LLM是一个提供无限令牌、无限制、成本效益高的LLM(大型语言模型)推理API平台,专为高级用户和开发者设计。它允许用户无限制地发送和接收令牌,直到模型的上下文限制,并且使用LLM模型时没有任何约束或审查。用户只需按月付费,而无需按令牌付费,这大大降低了成本。Awan LLM拥有自己的数据中心和GPU,因此能够提供这种服务。此外,Awan LLM不记录任何提示或生成内容,保护用户隐私。
Basin是一款可靠性的编码工具,旨在防止AI生成的错误和幻觉。
Basin是首款为AI代码编辑器设计的可靠性MCP工具,通过即时识别和标记问题,停止代码生成幻觉,让您轻松高效地进行编码。Basin是平台无关的,适用于支持代理MCP代码生成的任何AI代码编辑器。Basin目前处于邀请制封闭测试阶段。
基于ComfyUI前端开发的LLM工作流节点集合
ComfyUI LLM Party旨在基于ComfyUI前端开发一套完整的LLM工作流节点集合,使用户能够快速便捷地构建自己的LLM工作流,并轻松地将它们集成到现有的图像工作流中。
将GitHub链接转换为适合LLM的格式
GitHub to LLM Converter是一个在线工具,旨在帮助用户将GitHub上的项目、文件或文件夹链接转换成适合大型语言模型(LLM)处理的格式。这一工具对于需要处理大量代码或文档数据的开发者和研究人员来说至关重要,因为它简化了数据准备过程,使得这些数据可以被更高效地用于机器学习或自然语言处理任务。该工具由Skirano开发,提供了一个简洁的用户界面,用户只需输入GitHub链接,即可一键转换,极大地提高了工作效率。
© 2025 AIbase 备案号:闽ICP备08105208号-14