浏览量:18
最新流量情况
月访问量
30.92k
平均访问时长
00:00:30
每次访问页数
1.33
跳出率
84.03%
流量来源
直接访问
55.92%
自然搜索
7.13%
邮件
0.07%
外链引荐
34.36%
社交媒体
2.52%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
美国
28.90%
土耳其
6.06%
哥伦比亚
5.41%
印度
4.52%
越南
4.09%
LLM应用开发者平台
LangSmith是一个统一的DevOps平台,用于开发、协作、测试、部署和监控LLM应用程序。它支持LLM应用程序开发生命周期的所有阶段,为构建LLM应用提供端到端的解决方案。主要功能包括:链路追踪、提示工具、数据集、自动评估、线上部署等。适用于构建基于LLM的AI助手、 ChatGPT应用的开发者。
出色的数据科学工具
MLJAR提供出色的数据科学工具和学习材料,帮助用户理解和利用他们的数据。产品功能包括自动化机器学习、将笔记本转换为交互式网络应用、使用LLMs生成Python图表、构建自己的SaaS以及服务器和网站监控。MLJAR的优势在于提供XAI能力、公平的机器学习、模型解释、公平度指标、以及快速检测异常并及时通知。定价方面,MLJAR提供了多种产品比较和决策树、随机森林、Xgboost、LightGBM、CatBoost等算法的比较。定位于数据科学工具领域。
协作监控LLM
Llog是一个协作监控LLM应用程序的终端到终端平台,为团队提供洞察力,了解他们的LLM应用程序在生产后的情况。团队成员可以在一个协作空间中审查日志、标记重要事项并分配任务。无论团队规模多大,都可以在任何价格层级下享受无限的席位支持。通过直接观察用户交互,全面了解终端用户的行为,并永远不再担心LLM实际上在说什么。使用我们简单的格式,进行几个API请求,即可立即在我们的平台上查看结果。
开发LLM应用的平台
Vellum是一个用于构建LLM驱动应用的开发平台。它具有提示工程、语义搜索、版本控制、测试和监控等工具,可以帮助开发者将LLM的功能引入生产环境。它与所有主要的LLM提供商兼容,开发者可以选择最适合的模型,也可以随时切换,避免业务过于依赖单一的LLM提供商。
Bind帮助开发者快速构建部署强大的LLM应用
Bind是一个协作式的Generative AI应用开发平台,可帮助开发者快速构建和部署强大的语言模型应用。提供丰富的工具和功能,包括实时测试和调试LLM响应的提示场景,简易的部署LLM助手等应用到生产环境的平台。
开发平台,构建 LLM 应用
Vellum 是一个开发平台,用于构建 LLM 应用。它提供了快速工程、语义搜索、版本控制、测试和监控等工具,兼容所有主要的 LLM 提供商。Vellum 可以帮助您将 LLM 功能带入生产环境,支持迅速开发和部署 LLM 模型,同时提供质量测试和性能监控等功能。定价和定位请参考官方网站。
观测、分析和评估AI代理的可观测性和日志平台
LLMonitor是一个为LLM(语言模型)应用提供观测性、分析和测试的平台。它可以记录LLM的调用日志、指标和追踪,支持对话评估和聊天记录回放,帮助优化AI应用的性能和成本控制。LLMonitor提供了日志监控、性能分析、错误追踪、用户对话记录、用户反馈收集等功能。它适用于各种AI开发场景,包括代理人、聊天机器人等。
ML模型的可观测性平台
Aporia是一款ML模型管理的可观测性平台,通过一个综合性的仪表盘监控您的ML模型,以确保最佳的机器学习模型性能。它提供了可解释性、监控、根本原因分析、LLM可观测性、Gen AI和Guardrails等功能。Aporia的平台功能强大,支持数据集成、定制化、大数据支持和安全与隐私等特点。
用于记录和测试LLM提示的MLops工具
Prompt Joy是一个用于帮助理解和调试LLM(大语言模型)提示的工具。主要功能包括日志记录和分割测试。日志记录可以记录LLM的请求与响应,便于检查输出结果。分割测试可以轻松进行A/B测试,找出效果最佳的提示。它与具体的LLM解耦,可以配合OpenAI、Anthropic等LLM使用。它提供了日志和分割测试的API。采用Node.js+PostgreSQL构建。
AI 质量门卫,你现有发布流程中的 AI 质量把关人
Spellforge是一个 AI 质量门卫工具,可以在你现有的发布流程中对 AI 进行质量把关。它通过模拟和评估使用合成用户角色进行交互,确保你的应用程序在面对真实用户之前得到充分的测试。它还可以自动评估每个 prompt 版本和 LLM 组合的质量,并监控真实用户的交互。通过与现有的工具顺畅集成,Spellforge.ai 可以轻松管理你的发布流程,提供高效的服务。
开源的 LLM 应用程序分析
Langfuse 是一个开源的 LLM(Low-Code Low-Magic)应用程序分析工具,提供详细的生产追踪和对质量、成本和延迟的精细视图。它能帮助团队更好地跟踪和调试复杂的 LLM 应用程序,提供预构建的分析功能,帮助团队关注改进 LLM 应用程序的关键指标。Langfuse 与任何 LLM 应用程序集成,并提供多种 SDK 和 API 供开发者使用。
开发者优先的LLMOps 平台
Pezzo 是一款开发者第一的 LLMOps 平台,可以在几分钟内交付有影响力的基于人工智能的软件,而无需在质量上妥协。无缝交付、监控、测试和迭代,不会分心。Pezzo 拥有强大的功能,可以加速您的 AI 操作,让您专注于重要事项。
LLM提示管理与团队协作
LangTale是一个旨在简化LLM提示管理的平台,提供协作、版本控制、测试和性能监控等功能。LangTale使团队成员能够轻松管理和优化LLM提示,提高工作效率。定价详情请访问官方网站。
监控OpenAI API使用情况的工具
LLM Report是一个可以监控OpenAI API使用情况的工具。用户只需输入OpenAI API密钥,工具会直接从OpenAI API中获取数据并创建仪表板,无需安装任何软件。用户可以清楚地了解每个模型、API密钥和用户的费用情况,避免盲目消耗资源。LLM Report得到了全球2500多个用户和公司的认可。
Meta内部AI调试工具
HawkEye是Meta内部用于监控、可观测性和机器学习工作流调试的强大工具包。它支持为许多Meta产品提供推荐和排名模型。在过去的两年中,它实现了调试生产问题时间量级的改进。HawkEye包括用于持续收集服务和训练模型、数据生成相关数据的基础设施,以及用于挖掘根本原因的数据生成和分析组件。它支持UX工作流进行引导式的探索、调查和启动缓解措施。HawkEye通过提供基于必要组件的引导式探索界面,允许用户有效地调查并解决问题。
完全可见的错误处理插件
Zipy是一款提供完全可见的错误处理插件,帮助开发者在预发布测试期间全面了解所有错误。它提供了错误调试、实时用户监控、用户识别、高级开发工具、堆栈跟踪、控制台日志、网络日志、错误噪声降低、高级筛选和搜索、Slack和电子邮件集成等功能。Zipy适用于多种框架和平台,包括ReactJS、Angular、VueJS、NextJS、jQuery、Javascript等。Zipy可以帮助开发团队提高错误处理的效率,提升应用的质量和用户体验。
为企业提供开源、灵活的AI模型开发、测试和运行平台。
Red Hat Enterprise Linux AI 是一个基于开源的模型平台,旨在无缝地开发、测试和运行企业级应用的大型语言模型(LLMs)。它结合了开源许可的IBM Granite LLMs、InstructLab模型对齐工具、Red Hat Enterprise Linux的可启动镜像以及Red Hat提供的技术支持和模型知识产权保障。该平台支持跨混合云环境的可移植性,并能与Red Hat OpenShift® AI集成,进一步推进企业AI开发、数据管理和模型治理。
提升大型语言模型解决数学问题的能力
ChatGLM-Math 是一个基于自我批评流程定制的数学问题解决模型,旨在提高大型语言模型(LLMs)在数学问题解决方面的能力。该模型通过训练一个通用的Math-Critique模型来提供反馈信号,并采用拒绝采样微调和直接偏好优化来增强LLM的数学问题解决能力。它在学术数据集和新创建的挑战性数据集MathUserEval上进行了实验,显示出在保持语言能力的同时,显著提升了数学问题解决能力。
Prompto是一个开源的网络应用程序,旨在使与LLM的交互简单高效。
Prompto是一个开源的网页应用程序,旨在使与大型语言模型(LLMs)的交互简单高效。它可以轻松切换不同的LLMs,通过调整温度设置来调整LLM的创造力和风险水平,提供聊天机器人界面和笔记本界面,可以创建常用提示的模板,并且在浏览器中运行,确保流畅响应的体验。所有设置和聊天记录仅存储在浏览器的本地存储中,保护用户隐私。
低代码生成AI应用程序的生成性AI RAG工具包。
create-tsi是一个生成性AI RAG(Retrieval-Augmented Generation)工具包,用于低代码生成AI应用程序。它利用LlamaIndex和T-Systems在Open Telekom Cloud上托管的大型语言模型(LLMs),简化了AI应用程序的创建过程,使其变得快捷、灵活。用户可以使用create-tsi生成聊天机器人、编写代理并针对特定用例进行定制。
用于评估其他语言模型的开源工具集
Prometheus-Eval 是一个用于评估大型语言模型(LLM)在生成任务中表现的开源工具集。它提供了一个简单的接口,使用 Prometheus 模型来评估指令和响应对。Prometheus 2 模型支持直接评估(绝对评分)和成对排名(相对评分),能够模拟人类判断和专有的基于语言模型的评估,解决了公平性、可控性和可负担性的问题。
一款私人且离线的AI个人知识管理桌面应用
Reor是一个AI驱动的桌面笔记应用,它通过自动链接相关笔记、回答笔记上的问题、提供语义搜索以及生成AI闪卡来增强个人的知识管理。所有数据本地存储,支持类似Obsidian的Markdown编辑器。Reor项目的核心假设是,思考工具的AI模型应默认在本地运行。它利用了Ollama、Transformers.js和LanceDB等技术,使得大型语言模型(LLM)和嵌入模型能够在本地运行。同时,也支持连接到OpenAI或兼容的API,如Oobabooga。
使用ollama Python客户端与ComfyUI工作流集成的大型语言模型(LLM)
ComfyUI Ollama是为ComfyUI工作流设计的自定义节点,它使用ollama Python客户端,允许用户轻松地将大型语言模型(LLM)集成到他们的工作流程中,或者仅仅是进行GPT实验。这个插件的主要优点在于它提供了与Ollama服务器交互的能力,使得用户可以执行图像查询、通过给定的提示查询LLM,以及使用精细调整参数进行LLM查询,同时保持生成链的上下文。
一种通过大型语言模型引导的模拟到现实世界转移策略,用于获取机器人技能。
DrEureka是一个利用大型语言模型(LLMs)自动化和加速模拟到现实(sim-to-real)设计的方法。它通过物理模拟自动构建合适的奖励函数和领域随机化分布,以支持现实世界中的转移。DrEureka在四足机器人运动和灵巧操作任务上展示了与人工设计相媲美的sim-to-real配置,并能够解决如四足机器人在瑜伽球上平衡和行走等新颖任务,无需人工迭代设计。
构建定制的大型语言模型(LLM)以增强聊天机器人的能力。
ChatRTX 是 NVIDIA 提供的一个用于构建定制大型语言模型(LLM)的平台,旨在提升聊天机器人的智能水平和交互能力。它利用先进的 AI 技术,通过理解自然语言处理(NLP)来提供更加人性化的对话体验。ChatRTX 的主要优点包括高度的可定制性、强大的语言理解能力和高效的交互设计,适合需要高级对话系统的各种商业应用。
基于AI的Python网络爬虫库,自动化提取网页信息。
ScrapeGraphAI是一个使用LLM(大型语言模型)和直接图逻辑来为网站、文档和XML文件创建抓取管道的Python网络爬虫库。用户只需指定想要提取的信息,库就会自动完成这项工作。该库的主要优点在于简化了网络数据抓取的过程,提高了数据提取的效率和准确性。它适用于数据探索和研究目的,但不应被滥用。
使用大型语言模型(LLMs)进行数据清洗和整理的Python库。
databonsai是一个Python库,利用大型语言模型(LLMs)执行数据清洗任务。它提供了一系列工具,包括数据分类、转换和提取,以及对LLM输出的验证,支持批量处理以节省令牌,并且具备重试逻辑以处理速率限制和瞬时错误。
一款基于生物医学数据的8亿参数大型语言模型
Llama-3[8B] Meditron V1.0是一款专为生物医学领域设计的8亿参数的大型语言模型(LLM),在Meta发布Llama-3后24小时内完成微调。该模型在MedQA和MedMCQA等标准基准测试中超越了同参数级别的所有现有开放模型,并且接近70B参数级别医学领域领先的开放模型Llama-2[70B]-Meditron的性能。该工作展示了开放基础模型的创新潜力,是确保资源匮乏地区公平参与访问该技术更大倡议的一部分。
© 2024 AIbase 备案号:闽ICP备2023012347号-1