需求人群:
"ChatMCP的目标受众是技术开发者和对AI聊天感兴趣的用户。技术开发者可以通过ChatMCP快速测试和使用不同的LLM模型,而普通用户则可以利用这个客户端与MCP服务器进行互动,享受更加智能和个性化的聊天体验。"
使用场景示例:
开发者使用ChatMCP与OpenAI模型进行聊天,测试对话能力
用户通过ChatMCP与MCP服务器市场提供的服务器进行交互,获取不同领域的数据信息
技术爱好者利用ChatMCP的自动安装功能,快速部署自己的MCP服务器
产品特色:
与MCP服务器进行聊天
MCP服务器市场,提供多种服务器选择
自动安装MCP服务器,简化安装流程
SSE MCP传输支持,提高通信效率
自动选择MCP服务器,优化用户体验
聊天历史记录,方便用户回顾
支持OpenAI、Claude、OLLama等LLM模型
提供更好的UI设计,提升用户交互体验
使用教程:
1. 确保系统中已安装`uvx`或`npx`
2. 在'Setting'页面配置LLM API密钥和端点
3. 从'MCP Server'页面安装MCP服务器
4. 开始与MCP服务器进行聊天
5. 如需调试,查看`~/Library/Application Support/run.daodao.chatmcp/logs`中的日志
6. 查看聊天历史记录,位于`~/Documents/chatmcp.db`
7. 查看MCP服务器配置文件,位于`~/Documents/mcp_server.json`
8. 如需重置应用,执行提供的命令删除相关文件
浏览量:244
最新流量情况
月访问量
4.92m
平均访问时长
00:06:33
每次访问页数
6.11
跳出率
36.20%
流量来源
直接访问
51.61%
自然搜索
33.46%
邮件
0.04%
外链引荐
12.58%
社交媒体
2.19%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
12.55%
德国
3.84%
印度
9.38%
俄罗斯
4.61%
美国
18.64%
AI聊天客户端,实现模型上下文协议(MCP)
ChatMCP是一个AI聊天客户端,它实现了模型上下文协议(MCP),允许用户使用任何大型语言模型(LLM)与MCP服务器进行交互。这个项目的主要优点在于它的灵活性和开放性,用户可以根据自己的需求选择不同的LLM模型进行聊天,并且可以通过MCP服务器市场安装不同的服务器来与不同的数据进行交互。ChatMCP提供了一个用户友好的界面,支持自动安装MCP服务器、SSE MCP传输支持、自动选择MCP服务器、聊天历史记录等功能。
mcp-use 是与 MCP 工具交互的最简单方式,支持自定义代理。
mcp-use 是一个开源的 MCP 客户端库,旨在帮助开发者将任何大型语言模型(LLM)连接到 MCP 工具,构建具有工具访问能力的自定义代理,而无需使用闭源或应用程序客户端。该产品提供了简单易用的 API 和强大的功能,可以应用于多个领域。
MCP服务器目录,汇集多个MCP服务器资源。
MCP Directory是一个为MCP服务器提供目录服务的网站,它允许用户发现和共享MCP服务器资源。该网站使用TypeScript开发,并且提供了一个友好的用户界面,方便用户快速找到所需的MCP服务器。它的重要性在于为MCP服务器用户提供了一个集中的平台,促进了资源共享和技术交流。
比较各种大型语言模型(LLM)的定价信息
LLM Pricing是一个聚合并比较各种大型语言模型(LLMs)定价信息的网站,这些模型由官方AI提供商和云服务供应商提供。用户可以在这里找到最适合其项目的语言模型定价。
MCP-Scan 是一个针对 MCP 服务器的安全扫描工具。
MCP-Scan 是一款专门为 MCP 服务器设计的安全扫描工具,能够检测常见的安全漏洞,如提示注入和工具中毒。它通过检查配置文件和工具描述,帮助用户确保系统的安全性,适用于各种开发者和系统管理员,是维护系统安全的重要工具。
将 MCP 集成到 ChatGPT 等 AI 平台的 Chrome 扩展。
MCP SuperAssistant 是一个 Chrome 扩展,集成了模型上下文协议(MCP)工具,使用户能够直接从 AI 平台执行 MCP 工具,并将结果插入对话中。这项技术提高了基于 Web 的 AI 助手的功能,支持多种 AI 平台,为用户提供便捷的数据交互方式。
全球MCP服务器集合平台
MCP Servers是一个集合了全球各种MCP服务器的平台,提供了查询和汇总聊天消息、使用Brave搜索API进行网络和本地搜索、操作Git仓库、AI图像生成、从Sentry.io获取和分析问题等多种功能。这些服务器支持开发者和企业在不同领域中实现自动化和智能化,提高效率和创新能力。MCP Servers平台以其丰富的功能和广泛的应用场景,成为编程领域中的重要工具。
一个零配置工具,可自动将FastAPI端点暴露为模型上下文协议(MCP)工具
FastAPI-MCP是一个专为FastAPI设计的工具,旨在无缝集成模型上下文协议(MCP)。它允许开发者无需任何配置即可将FastAPI应用程序的API端点自动转换为MCP工具。该工具的主要优点是简化了API与MCP的集成过程,支持自动发现和转换所有FastAPI端点,保留请求和响应模型的模式,并保持与Swagger相同的文档。它还支持灵活的部署方式,可以将MCP服务器直接挂载到FastAPI应用程序中,也可以单独部署。FastAPI-MCP适用于需要快速将API集成到MCP环境中的开发团队,支持Python 3.10及以上版本,推荐使用Python 3.12。
MCP Defender是一款AI防火墙,旨在监控和保护模型上下文协议(MCP)通信。
MCP Defender是一款AI防火墙,用于监控和保护MCP通信。它拦截工具调用和响应,并根据安全签名验证它们。MCP Defender提供高级的LLM驱动的恶意活动检测,并允许用户管理扫描过程中使用的签名。
聊天消息查询和总结工具
mcp-server-chatsum是一个用于查询和总结聊天消息的MCP服务器。它通过提供接口来查询聊天消息,并基于查询提示对聊天消息进行总结。这个工具的重要性在于能够帮助用户更有效地管理和回顾他们的聊天历史,尤其是在信息量大的情况下。产品背景信息显示,它是由开发者idoubi创建,并在GitHub上开源。产品定位为免费工具,主要面向开发者和技术爱好者。
一份综合性的 MCP 基础 AI 工具安全检查清单。
MCP 安全检查表是由 SlowMist 团队编制和维护的,旨在帮助开发者识别和减轻 MCP 实施过程中的安全风险。随着基于 MCP 标准的 AI 工具迅速发展,安全问题愈发重要。该检查表提供了详尽的安全指导,涵盖 MCP 服务器、客户端及多种场景的安全需求,以保护用户隐私并提升整体系统的稳定性和可控性。
扩展LLM上下文窗口
LLM Context Extender是一款旨在扩展大型语言模型(LLMs)上下文窗口的工具。它通过调整RoPE的基础频率和缩放注意力logits的方式,帮助LLMs有效适应更大的上下文窗口。该工具在精细调整性能和稳健性方面验证了其方法的优越性,并展示了在仅有100个样本和6个训练步骤的情况下,将LLaMA-2-7B-Chat的上下文窗口扩展到16,384的非凡效率。此外,还探讨了数据组成和训练课程如何影响特定下游任务的上下文窗口扩展,建议以长对话进行LLMs的精细调整作为良好的起点。
构建LLM应用的开发平台
LLM Spark是一个开发平台,可用于构建基于LLM的应用程序。它提供多个LLM的快速测试、版本控制、可观察性、协作、多个LLM支持等功能。LLM Spark可轻松构建AI聊天机器人、虚拟助手等智能应用程序,并通过与提供商密钥集成,实现卓越性能。它还提供了GPT驱动的模板,加速了各种AI应用程序的创建,同时支持从零开始定制项目。LLM Spark还支持无缝上传数据集,以增强AI应用程序的功能。通过LLM Spark的全面日志和分析,可以比较GPT结果、迭代和部署智能AI应用程序。它还支持多个模型同时测试,保存提示版本和历史记录,轻松协作,以及基于意义而不仅仅是关键字的强大搜索功能。此外,LLM Spark还支持将外部数据集集成到LLM中,并符合GDPR合规要求,确保数据安全和隐私保护。
高效的 Intel GPU 上的 LLM 推理解决方案
这是一种在 Intel GPU 上实现的高效的 LLM 推理解决方案。通过简化 LLM 解码器层、使用分段 KV 缓存策略和自定义的 Scaled-Dot-Product-Attention 内核,该解决方案在 Intel GPU 上相比标准的 HuggingFace 实现可实现高达 7 倍的令牌延迟降低和 27 倍的吞吐量提升。详细功能、优势、定价和定位等信息请参考官方网站。
基于ComfyUI前端开发的LLM工作流节点集合
ComfyUI LLM Party旨在基于ComfyUI前端开发一套完整的LLM工作流节点集合,使用户能够快速便捷地构建自己的LLM工作流,并轻松地将它们集成到现有的图像工作流中。
TypeScript框架,优雅构建MCP服务器
LiteMCP是一个TypeScript框架,用于优雅地构建MCP(Model Context Protocol)服务器。它支持简单的工具、资源、提示定义,提供完整的TypeScript支持,并内置了错误处理和CLI工具,方便测试和调试。LiteMCP的出现为开发者提供了一个高效、易用的平台,用于开发和部署MCP服务器,从而推动了人工智能和机器学习模型的交互和协作。LiteMCP是开源的,遵循MIT许可证,适合希望快速构建和部署MCP服务器的开发者和企业使用。
将大型语言模型和聊天引入到 Web 浏览器中
Web LLM 是一个模块化、可定制的 JavaScript 包,可直接将语言模型聊天引入到 Web 浏览器中。一切都在浏览器内部运行,无需服务器支持,并且通过 WebGPU 进行加速。它可以为大家构建 AI 助手提供很多有趣的机会,并在享受 GPU 加速时保护隐私。此项目是 MLC LLM 的附属项目,MLC LLM 可以在 iPhone 和其他本地环境中本地运行 LLM。
使用简单、原始的 C/CUDA 进行 LLM 训练
karpathy/llm.c 是一个使用简单的 C/CUDA 实现 LLM 训练的项目。它旨在提供一个干净、简单的参考实现,同时也包含了更优化的版本,可以接近 PyTorch 的性能,但代码和依赖大大减少。目前正在开发直接的 CUDA 实现、使用 SIMD 指令优化 CPU 版本以及支持更多现代架构如 Llama2、Gemma 等。
通过 MCP 协议访问 PixVerse 最新的视频生成模型。
PixVerse-MCP 是一个工具,允许用户通过支持模型上下文协议(MCP)的应用程序访问 PixVerse 最新的视频生成模型。该产品提供了文本转视频等功能,适用于创作者和开发者,能够在任何地方生成高质量的视频。PixVerse 平台需要 API 积分,用户需自行购买。
基于用户反馈的 LLM 模型对齐技术
C3PO 是一种基于用户反馈的 LLM 模型对齐技术,可以从单个反馈句子中对 LLM 进行调整,避免过度概括化。该技术提供了参考实现、相关基准线和必要组件,方便研究论文中提出的技术。
Basin是一款可靠性的编码工具,旨在防止AI生成的错误和幻觉。
Basin是首款为AI代码编辑器设计的可靠性MCP工具,通过即时识别和标记问题,停止代码生成幻觉,让您轻松高效地进行编码。Basin是平台无关的,适用于支持代理MCP代码生成的任何AI代码编辑器。Basin目前处于邀请制封闭测试阶段。
与Garry Tan聊天的检索增强型LLM聊天机器人
ArguflowChat是一款检索增强型LLM聊天机器人,可以与Garry Tan进行对话。它具有以下功能和优势:提供定制化解决方案、与Garry Tan进行对话、通过电子邮件联系。
一个为LLM生成Git提交信息的插件
llm-commit 是一个为 LLM(Large Language Model)设计的插件,用于生成 Git 提交信息。该插件通过分析 Git 的暂存区差异,利用 LLM 的语言生成能力,自动生成简洁且有意义的提交信息。它不仅提高了开发者的提交效率,还确保了提交信息的质量和一致性。该插件适用于任何使用 Git 和 LLM 的开发环境,免费开源,易于安装和使用。
隐私保护AI聊天助手
Private LLM是一款隐私保护的AI聊天助手,无需互联网连接即可使用。它提供离线功能、隐私保护和创意激发,是您头脑风暴、学习和提高工作效率的必备工具。一次性购买,无需订阅费用,无需担心隐私问题。
与您最喜爱的LLaMA LLM模型聊天
LlamaChat是一个桌面客户端,可以与LLaMA、Alpaca和GPT4All模型进行聊天。Alpaca是斯坦福大学基于OpenAI的text-davinci-003数据进行Fine-tuning后的7B参数LLaMA模型。您可以使用LlamaChat导入原始的PyTorch模型检查点文件或预转换的.ggml模型文件。LlamaChat是完全开源免费的,并且始终如一地保持开源。您可以在GitHub上找到更多信息。
监控和调试你的LLM模型
Athina AI是一个用于监控和调试LLM(大型语言模型)模型的工具。它可以帮助你发现和修复LLM模型在生产环境中的幻觉和错误,并提供详细的分析和改进建议。Athina AI支持多种LLM模型,可以配置定制化的评估来满足不同的使用场景。你可以通过Athina AI来检测错误的输出、分析成本和准确性、调试模型输出、探索对话内容以及比较不同模型的性能表现等。
© 2025 AIbase 备案号:闽ICP备08105208号-14