浏览量:34
LLM App开发和运营平台
Teammate Lang是一个全能的LLM App开发和运营解决方案。提供无代码编辑器、语义缓存、Prompt版本管理、LLM数据平台、A/B测试、QA、Playground等20多个模型,包括GPT、PaLM、Llama、Cohere等。
设计、部署和优化LLM应用与Klu
Klu是一款全能的LLM应用平台,可以在Klu上快速构建、评估和优化基于LLM技术的应用。它提供了多种最先进的LLM模型选择,让用户可以根据自己的需求进行选择和调整。Klu还支持团队协作、版本管理、数据评估等功能,为AI团队提供了一个全面而便捷的开发平台。
AI驱动的多智能体数据分析系统
AI-Data-Analysis-MultiAgent是一个高级的AI驱动研究助理系统,利用多个专业智能体协助进行数据分析、可视化和报告生成等任务。该系统采用LangChain、OpenAI的GPT模型和LangGraph处理复杂的研究流程,集成多样化的AI架构以实现最佳性能。该系统的独特之处在于集成了一个专门的Note Taker智能体,通过维护项目的简洁而全面的记录,可以降低计算开销,提高不同分析阶段之间的上下文保持能力,并实现更连贯一致的分析结果。
生成llms.txt文件,帮助LLMs在推理时使用您的网站。
SiteSpeakAI - llms.txt Generator是一个在线工具,用于生成llms.txt文件。这个文件为大型语言模型(LLMs)提供了必要的信息,以便它们能够在推理时更有效地使用您的网站。该工具的重要性在于它能够帮助网站管理员和开发者优化他们的网站,使其更适合与人工智能语言模型的交互,提高网站的功能和用户体验。SiteSpeakAI提供了一个免费的在线生成器,用户可以快速生成所需的llms.txt文件,无需复杂的编程知识。
统一接口访问多个生成式AI服务
aisuite是一个提供简单、统一接口以访问多个生成式AI服务的产品。它允许开发者通过标准化的接口使用多个大型语言模型(LLM),并比较结果。作为一个轻量级的Python客户端库包装器,aisuite使得创作者可以在不改变代码的情况下,无缝切换并测试来自不同LLM提供商的响应。目前,该库主要关注聊天完成功能,并计划在未来扩展更多用例。
MCP是一个开放协议,用于无缝集成大型语言模型应用与外部数据源和工具。
Model Context Protocol(MCP)是一个开放协议,它允许大型语言模型(LLM)应用与外部数据源和工具之间实现无缝集成。无论是构建AI驱动的集成开发环境(IDE)、增强聊天界面还是创建自定义AI工作流,MCP都提供了一种标准化的方式,将LLM与它们所需的上下文连接起来。MCP的主要优点包括标准化的连接方式、易于集成和扩展、以及强大的社区支持。产品背景信息显示,MCP旨在促进开发者构建更加智能和高效的应用程序,特别是在AI和机器学习领域。MCP目前是免费提供给开发者使用的。
长文本摘要工具,将书籍和文档自动转换成要点笔记。
ollama-ebook-summary 是一个利用大型语言模型(LLM)为长文本创建要点笔记摘要的项目。该项目特别适用于epub和pdf格式的书籍,能够自动化提取章节并将其分割成约2000个token的小块,以提高响应的粒度。产品背景是创建者希望快速总结一系列书籍,以整合心理学理论和实践,并基于此信息构建连贯的论点。该工具的主要优点包括提高内容梳理效率、支持自定义问题查询、以及生成每个文本部分的详细摘要。
快速高效的非结构化数据提取工具
Extractous是一个用Rust编写的非结构化数据提取工具,提供多语言绑定。它专注于从各种文件类型(如PDF、Word、HTML等)中提取内容和元数据,并且性能优异,内存占用低。Extractous通过原生代码执行实现快速处理速度和低内存使用,支持多种文件格式,并集成了Apache Tika和tesseract-ocr技术,使其能够处理广泛的文件类型并进行OCR识别。该工具的开源性质和Apache 2.0许可使其可以免费用于商业用途,适合需要处理大量文档数据的企业和开发者。
AI代理的人工在环反馈、输入和审批API及SDK
HumanLayer是一个API和SDK,它允许AI代理联系人类以获取反馈、输入和审批。它通过审批工作流程在Slack、电子邮件等渠道上确保对高风险功能调用的人类监督,支持将您选择的LLM和框架与AI代理安全连接到世界。HumanLayer得到了Y Combinator的支持,并且与多种流行的框架和LLM兼容,包括OpenAI、Claude、Llama3.1等。它提供了一个平台,通过人工在环的方式,增强AI代理的能力,提高其可靠性和效率。HumanLayer的价格策略包括免费、付费和定制企业方案,满足不同用户的需求。
百度推出的零代码AI开发平台,一句话生成应用
秒哒是百度推出的零代码AI开发平台,它基于大模型和智能体技术,允许用户无需编写代码即可构建软件的能力。用户可以通过无代码编程、多智能体协作和规模化工具调用,轻松实现各种创意和想法。秒哒的主要优点包括0代码编程、多智能体协作、规模化工具调用、直观操作、创意实现、自动化流程和模块化构建。它适合需要快速开发和部署软件应用的企业、教育机构和个人开发者,无需具备编程知识即可使用。
Sidecar是Aide编辑器的AI大脑,与编辑器协同工作。
Sidecar是为Aide编辑器设计的人工智能插件,它在本地机器上与编辑器一起工作,负责创建提示、与大型语言模型(LLM)通信以及处理它们之间的所有交互。Sidecar的主要优点包括提高编程效率、智能代码补全和集成化的AI辅助开发。它基于Rust语言开发,确保了性能和安全性。Sidecar适用于需要在本地机器上进行高效编程和代码管理的开发者。
AI内容审核服务,保护下游部署安全。
Mistral Moderation API是Mistral AI推出的内容审核服务,旨在帮助用户检测和过滤不受欢迎的文本内容。该API是Le Chat中使用的审核服务的同一技术,现在对外开放,以便用户可以根据特定的应用和安全标准定制和使用这一工具。该模型是一个基于LLM(大型语言模型)的分类器,能够将文本输入分类到9个预定义的类别中。Mistral AI的这一API支持原生多语言,特别针对阿拉伯语、中文、英语、法语、德语、意大利语、日语、韩语、葡萄牙语、俄语和西班牙语进行了训练。该API的主要优点包括提高审核的可扩展性和鲁棒性,以及通过技术文档提供的详细政策定义和启动指南,帮助用户有效实施系统级的安全防护。
利用LLM读取源代码并提供问题解答
askrepo是一个基于LLM(大型语言模型)的源代码阅读工具,它能够读取Git管理的文本文件内容,发送至Google Gemini API,并根据指定的提示提供问题的答案。该产品代表了自然语言处理和机器学习技术在代码分析领域的应用,其主要优点包括能够理解和解释代码的功能,帮助开发者快速理解新项目或复杂代码库。产品背景信息显示,askrepo适用于需要深入理解代码的场景,尤其是在代码审查和维护阶段。该产品是开源的,可以免费使用。
高精度将图片或PDF转换为Markdown文本或JSON结构化文档的API
pdf-extract-api是一个使用现代OCR技术和Ollama支持的模型将任何文档或图片转换为结构化的JSON或Markdown文本的API。它使用FastAPI构建,并使用Celery进行异步任务处理,Redis用于缓存OCR结果。该API无需云或外部依赖,所有处理都在本地开发或服务器环境中完成,确保数据安全。它支持PDF到Markdown的高精度转换,包括表格数据、数字或数学公式,并且可以使用Ollama支持的模型进行PDF到JSON的转换。此外,该API还支持LLM改进OCR结果,去除PDF中的个人身份信息(PII),以及分布式队列处理和缓存。
国内领先的LLM一站式企业解决方案
Chat Nio是一个国内领先的LLM(Large Language Model)一站式企业解决方案,提供强大的AI集成工具,支持35+主流AI模型,涵盖文本生成、图像创作、音频处理和视频编辑等领域,并支持私有化部署和中转服务。它为开发者、个人用户和企业提供定制化的AI解决方案,包括但不限于多租户令牌分发、计费管理系统、深度集成Midjourney Proxy Plus绘画功能、全方位调用日志记录系统等。Chat Nio以其多功能性、灵活性和易用性,满足企业和团队的多样化需求,帮助他们高效开发和部署AI应用。
开源全栈平台,为打造顶级LLM产品提供支持
Laminar是一个开源的全栈平台,专注于从第一性原理出发进行AI工程。它帮助用户收集、理解和使用数据,以提高大型语言模型(LLM)应用的质量。Laminar支持对文本和图像模型的追踪,并且即将支持音频模型。产品的主要优点包括零开销的可观测性、在线评估、数据集构建和LLM链管理。Laminar完全开源,易于自托管,适合需要构建和管理LLM产品的开发者和团队。
A tool for integrating private data with AI large language models.
Dabarqus是一个Retrieval Augmented Generation(RAG)框架,它允许用户将私有数据实时提供给大型语言模型(LLM)。这个工具通过提供REST API、SDKs和CLI工具,使得用户能够轻松地将各种数据源(如PDF、电子邮件和原始数据)存储到语义索引中,称为“记忆库”。Dabarqus支持LLM风格的提示,使用户能够以简单的方式与记忆库进行交互,而无需构建特殊的查询或学习新的查询语言。此外,Dabarqus还支持多语义索引(记忆库)的创建和使用,使得数据可以根据主题、类别或其他分组方式进行组织。Dabarqus的产品背景信息显示,它旨在简化私有数据与AI语言模型的集成过程,提高数据检索的效率和准确性。
将GitHub链接转换为适合LLM的格式
GitHub to LLM Converter是一个在线工具,旨在帮助用户将GitHub上的项目、文件或文件夹链接转换成适合大型语言模型(LLM)处理的格式。这一工具对于需要处理大量代码或文档数据的开发者和研究人员来说至关重要,因为它简化了数据准备过程,使得这些数据可以被更高效地用于机器学习或自然语言处理任务。该工具由Skirano开发,提供了一个简洁的用户界面,用户只需输入GitHub链接,即可一键转换,极大地提高了工作效率。
高效的大型语言模型(LLM)研究代码库
Meta Lingua 是一个轻量级、高效的大型语言模型(LLM)训练和推理库,专为研究而设计。它使用了易于修改的PyTorch组件,使得研究人员可以尝试新的架构、损失函数和数据集。该库旨在实现端到端的训练、推理和评估,并提供工具以更好地理解模型的速度和稳定性。尽管Meta Lingua目前仍在开发中,但已经提供了多个示例应用来展示如何使用这个代码库。
一个全面的Prompt Engineering技术资源库
Prompt Engineering是人工智能领域的前沿技术,它改变了我们与AI技术的交互方式。这个开源项目旨在为初学者和经验丰富的实践者提供一个学习、构建和分享Prompt Engineering技术的平台。该项目包含了从基础到高级的各种示例,旨在促进Prompt Engineering领域的学习、实验和创新。此外,它还鼓励社区成员分享自己的创新技术,共同推动Prompt Engineering技术的发展。
由NVIDIA定制的大型语言模型,提升查询回答的帮助性。
Llama-3.1-Nemotron-70B-Instruct是NVIDIA定制的大型语言模型,专注于提升大型语言模型(LLM)生成回答的帮助性。该模型在多个自动对齐基准测试中表现优异,例如Arena Hard、AlpacaEval 2 LC和GPT-4-Turbo MT-Bench。它通过使用RLHF(特别是REINFORCE算法)、Llama-3.1-Nemotron-70B-Reward和HelpSteer2-Preference提示在Llama-3.1-70B-Instruct模型上进行训练。此模型不仅展示了NVIDIA在提升通用领域指令遵循帮助性方面的技术,还提供了与HuggingFace Transformers代码库兼容的模型转换格式,并可通过NVIDIA的build平台进行免费托管推理。
一个可以本地与多个PDF文件进行对话的聊天机器人。
rag-chatbot是一个基于人工智能技术的聊天机器人模型,它能够让用户通过自然语言与多个PDF文件进行交互。该模型使用了最新的机器学习技术,如Huggingface和Ollama,来实现对PDF内容的理解和回答生成。它的重要性在于能够处理大量文档信息,为用户提供快速、准确的问答服务。产品背景信息表明,这是一个开源项目,旨在通过技术创新提升文档处理的效率。目前该项目是免费的,主要面向开发者和技术爱好者。
构建LLM应用的框架
LlamaIndex.TS是一个为构建基于大型语言模型(LLM)的应用而设计的框架。它专注于帮助用户摄取、结构化和访问私有或特定领域的数据。这个框架提供了一个自然语言界面,用于连接人类和推断出的数据,使得开发者无需成为机器学习或自然语言处理的专家,也能通过LLM增强其软件功能。LlamaIndex.TS支持Node.js、Vercel Edge Functions和Deno等流行运行时环境。
基于ComfyUI前端开发的LLM工作流节点集合
ComfyUI LLM Party旨在基于ComfyUI前端开发一套完整的LLM工作流节点集合,使用户能够快速便捷地构建自己的LLM工作流,并轻松地将它们集成到现有的图像工作流中。
终端中的个人AI助手,具备本地工具。
gptme是一个运行在终端的个人AI助手,它装备了本地工具,可以编写代码、使用终端、浏览网页、视觉识别等。它是一个不受软件、互联网访问、超时或隐私问题限制的ChatGPT“代码解释器”的本地替代方案。
一个简单而强大的Python库,用于使用大型语言模型(LLMs)。
promptic是一个轻量级、基于装饰器的Python库,它通过litellm简化了与大型语言模型(LLMs)交互的过程。使用promptic,你可以轻松创建提示,处理输入参数,并从LLMs接收结构化输出,仅需几行代码。
无需编码即可构建生产就绪的LLM应用程序
Epsilla是一个无需编码的RAG即服务(RAG-as-a-Service)平台,它允许用户基于私有或公共数据构建生产就绪的大型语言模型(Large Language Model, LLM)应用程序。该平台提供了一站式服务,包括数据管理、RAG工具、CI/CD风格的评估以及企业级安全措施,旨在降低总拥有成本(TCO),提高查询速度和吞吐量,同时确保信息的时效性和安全性。
为LLM聊天机器人提供强大灵活的长期记忆系统。
MemoryScope是一个为大型语言模型(LLM)聊天机器人提供长期记忆能力的框架。它通过记忆数据库和工作库,使得聊天机器人能够存储和检索记忆片段,从而实现个性化的用户交互体验。该产品通过记忆检索和记忆整合等操作,使得机器人能够理解并记住用户的习惯和偏好,为用户提供更加个性化和连贯的对话体验。MemoryScope支持多种模型API,包括openai和dashscope,并且可以与现有的代理框架如AutoGen和AgentScope结合使用,提供了丰富的定制化和扩展性。
© 2024 AIbase 备案号:闽ICP备08105208号-14