浏览量:28
最新流量情况
月访问量
155.08k
平均访问时长
00:04:29
每次访问页数
6.04
跳出率
43.03%
流量来源
直接访问
49.72%
自然搜索
35.56%
邮件
0
外链引荐
4.96%
社交媒体
9.75%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
美国
40.72%
加拿大
8.88%
斯里兰卡
6.50%
英国
4.00%
中国
3.96%
零编码GPT开发平台
iGOT.ai是一个零编码GPT开发平台,可帮助用户无需编程就可以构建、定义、探索和执行GPT模型,从而简化AI引擎的创建。它提供了一个直观的界面,用户可以通过自然语言描述问题和解决方案,平台会自动将其转换成GPT可以理解的推理对象,然后执行任务并审核结果,确保得到最优的输出。主要功能包括语句探索、推理对象创建、用户测试、LLM任务执行等。适用于各行各业将专业知识自动化的企业用户。
首个用于快速工程的平台
PromptLayer是一个旨在帮助用户管理提示工程的平台。用户可以视觉化管理提示、评估模型、记录LLM请求以及搜索使用历史。它还支持团队协作。产品定位为提供快速工程解决方案,旨在简化提示工程的创建、部署和管理流程。用户可以免费开始使用,同时也提供高级功能以满足企业需求。
统一的语言模型评估框架
PromptBench是一个基于Pytorch的Python包,用于评估大型语言模型(LLM)。它为研究人员提供了用户友好的API,以便对LLM进行评估。主要功能包括:快速模型性能评估、提示工程、对抗提示评估以及动态评估等。优势是使用简单,可以快速上手评估已有数据集和模型,也可以轻松定制自己的数据集和模型。定位为LLM评估的统一开源库。
Bind帮助开发者快速构建部署强大的LLM应用
Bind是一个协作式的Generative AI应用开发平台,可帮助开发者快速构建和部署强大的语言模型应用。提供丰富的工具和功能,包括实时测试和调试LLM响应的提示场景,简易的部署LLM助手等应用到生产环境的平台。
开发平台,构建 LLM 应用
Vellum 是一个开发平台,用于构建 LLM 应用。它提供了快速工程、语义搜索、版本控制、测试和监控等工具,兼容所有主要的 LLM 提供商。Vellum 可以帮助您将 LLM 功能带入生产环境,支持迅速开发和部署 LLM 模型,同时提供质量测试和性能监控等功能。定价和定位请参考官方网站。
设计、部署和优化LLM应用与Klu
Klu是一款全能的LLM应用平台,可以在Klu上快速构建、评估和优化基于LLM技术的应用。它提供了多种最先进的LLM模型选择,让用户可以根据自己的需求进行选择和调整。Klu还支持团队协作、版本管理、数据评估等功能,为AI团队提供了一个全面而便捷的开发平台。
简化AI生成的提示的创建、测试和分享过程。
GeneratedBy简化了为提示工程师和数字劳动者创建、测试和分享AI生成的提示的过程。通过我们的平台,您可以轻松编写、优化和共享提示,提高工作效率。主要功能包括:提示编辑和优化、多模态内容和LLM支持、启发式提示收藏、表单、聊天泡泡或微型SaaS生成、ChatGPT插件和提示工具、协作API和角色管理等。
W&B Prompts: 高效生产级 LLM 操作
W&B Prompts 是 W&B 的最新产品,专注于 LLM(Language Model)技术。它提供了生产级的 LLM 操作,帮助用户解锁更好的 LLM 性能和提示工程。W&B Prompts 提供强大的功能和优势,定价灵活,适用于各种应用场景。
提升大型语言模型解决数学问题的能力
ChatGLM-Math 是一个基于自我批评流程定制的数学问题解决模型,旨在提高大型语言模型(LLMs)在数学问题解决方面的能力。该模型通过训练一个通用的Math-Critique模型来提供反馈信号,并采用拒绝采样微调和直接偏好优化来增强LLM的数学问题解决能力。它在学术数据集和新创建的挑战性数据集MathUserEval上进行了实验,显示出在保持语言能力的同时,显著提升了数学问题解决能力。
Prompto是一个开源的网络应用程序,旨在使与LLM的交互简单高效。
Prompto是一个开源的网页应用程序,旨在使与大型语言模型(LLMs)的交互简单高效。它可以轻松切换不同的LLMs,通过调整温度设置来调整LLM的创造力和风险水平,提供聊天机器人界面和笔记本界面,可以创建常用提示的模板,并且在浏览器中运行,确保流畅响应的体验。所有设置和聊天记录仅存储在浏览器的本地存储中,保护用户隐私。
低代码生成AI应用程序的生成性AI RAG工具包。
create-tsi是一个生成性AI RAG(Retrieval-Augmented Generation)工具包,用于低代码生成AI应用程序。它利用LlamaIndex和T-Systems在Open Telekom Cloud上托管的大型语言模型(LLMs),简化了AI应用程序的创建过程,使其变得快捷、灵活。用户可以使用create-tsi生成聊天机器人、编写代理并针对特定用例进行定制。
用于评估其他语言模型的开源工具集
Prometheus-Eval 是一个用于评估大型语言模型(LLM)在生成任务中表现的开源工具集。它提供了一个简单的接口,使用 Prometheus 模型来评估指令和响应对。Prometheus 2 模型支持直接评估(绝对评分)和成对排名(相对评分),能够模拟人类判断和专有的基于语言模型的评估,解决了公平性、可控性和可负担性的问题。
一款私人且离线的AI个人知识管理桌面应用
Reor是一个AI驱动的桌面笔记应用,它通过自动链接相关笔记、回答笔记上的问题、提供语义搜索以及生成AI闪卡来增强个人的知识管理。所有数据本地存储,支持类似Obsidian的Markdown编辑器。Reor项目的核心假设是,思考工具的AI模型应默认在本地运行。它利用了Ollama、Transformers.js和LanceDB等技术,使得大型语言模型(LLM)和嵌入模型能够在本地运行。同时,也支持连接到OpenAI或兼容的API,如Oobabooga。
使用ollama Python客户端与ComfyUI工作流集成的大型语言模型(LLM)
ComfyUI Ollama是为ComfyUI工作流设计的自定义节点,它使用ollama Python客户端,允许用户轻松地将大型语言模型(LLM)集成到他们的工作流程中,或者仅仅是进行GPT实验。这个插件的主要优点在于它提供了与Ollama服务器交互的能力,使得用户可以执行图像查询、通过给定的提示查询LLM,以及使用精细调整参数进行LLM查询,同时保持生成链的上下文。
一种通过大型语言模型引导的模拟到现实世界转移策略,用于获取机器人技能。
DrEureka是一个利用大型语言模型(LLMs)自动化和加速模拟到现实(sim-to-real)设计的方法。它通过物理模拟自动构建合适的奖励函数和领域随机化分布,以支持现实世界中的转移。DrEureka在四足机器人运动和灵巧操作任务上展示了与人工设计相媲美的sim-to-real配置,并能够解决如四足机器人在瑜伽球上平衡和行走等新颖任务,无需人工迭代设计。
构建定制的大型语言模型(LLM)以增强聊天机器人的能力。
ChatRTX 是 NVIDIA 提供的一个用于构建定制大型语言模型(LLM)的平台,旨在提升聊天机器人的智能水平和交互能力。它利用先进的 AI 技术,通过理解自然语言处理(NLP)来提供更加人性化的对话体验。ChatRTX 的主要优点包括高度的可定制性、强大的语言理解能力和高效的交互设计,适合需要高级对话系统的各种商业应用。
基于AI的Python网络爬虫库,自动化提取网页信息。
ScrapeGraphAI是一个使用LLM(大型语言模型)和直接图逻辑来为网站、文档和XML文件创建抓取管道的Python网络爬虫库。用户只需指定想要提取的信息,库就会自动完成这项工作。该库的主要优点在于简化了网络数据抓取的过程,提高了数据提取的效率和准确性。它适用于数据探索和研究目的,但不应被滥用。
使用大型语言模型(LLMs)进行数据清洗和整理的Python库。
databonsai是一个Python库,利用大型语言模型(LLMs)执行数据清洗任务。它提供了一系列工具,包括数据分类、转换和提取,以及对LLM输出的验证,支持批量处理以节省令牌,并且具备重试逻辑以处理速率限制和瞬时错误。
一款基于生物医学数据的8亿参数大型语言模型
Llama-3[8B] Meditron V1.0是一款专为生物医学领域设计的8亿参数的大型语言模型(LLM),在Meta发布Llama-3后24小时内完成微调。该模型在MedQA和MedMCQA等标准基准测试中超越了同参数级别的所有现有开放模型,并且接近70B参数级别医学领域领先的开放模型Llama-2[70B]-Meditron的性能。该工作展示了开放基础模型的创新潜力,是确保资源匮乏地区公平参与访问该技术更大倡议的一部分。
对比中国大模型价格和能力,帮助用户选择合适的大模型服务。
LLMPrice 是一个专门收集国内大模型信息的网站,为提供对比不同大模型能力和价格的平台。用户可以轻松查看各大模型的规格、价格厂商信息,帮助他们选择最适合自己需求的大模型。
下一代本地优先的大型语言模型(LLMs)
anime.gf 是由 moecorp 发起的下一代本地优先的大型语言模型(LLMs),目前正处于积极开发阶段。它代表了一种新兴的本地化和开源的人工智能技术,旨在提供更高效、更个性化的用户体验。
在线聊天机器人竞技场,比较不同语言模型的表现。
LMSYS Chatbot Arena 是一个在线平台,旨在通过用户与匿名聊天机器人模型的互动,对大型语言模型(Large Language Models, LLMs)进行基准测试。该平台收集了超过70万次人类投票,计算出LLM的Elo排行榜,以确定谁是聊天机器人领域的冠军。平台提供了一个研究预览,具有有限的安全措施,可能生成不当内容,因此需要用户遵守特定的使用条款。
一款专为生物医学领域设计的开源大型语言模型
OpenBioLLM-8B是由Saama AI Labs开发的先进开源语言模型,专为生物医学领域设计。该模型在大量高质量的生物医学数据上进行了微调,能够理解并生成具有领域特定准确性和流畅性的文字。它在生物医学基准测试中的表现超越了其他类似规模的开源生物医学语言模型,并与更大的专有和开源模型如GPT-3.5和Meditron-70B相比也展现出更好的结果。
先进的开源生物医学大型语言模型,专为医疗领域设计。
OpenBioLLM-70B是由Saama AI Labs开发的先进开源语言模型,专为生物医学领域设计。该模型在大量高质量的生物医学数据上进行了微调,能够理解和生成具有领域特定准确性和流畅性的文字。它在生物医学基准测试中展示了超越其他类似规模开源生物医学语言模型的优越性能,并且在与更大的专有和开源模型如GPT-4、Gemini、Medtron-70B、Med-PaLM-1和Med-PaLM-2的比较中也展现了更好的结果。
与多个AI聊天机器人同时对话,发现最佳答案
ChatALL是一款桌面客户端软件,它允许用户同时与多个大型语言模型(LLMs)基础的AI聊天机器人进行对话,帮助用户发现最佳的对话结果。这款软件的主要优点在于其能够并发发送提示给不同的AI机器人,从而快速比较它们在不同任务上的表现,并找到最适合的机器人。产品背景信息显示,ChatALL适合于希望从LLMs中找到最佳答案或创作的专家、研究人员以及LLM应用的开发者。目前,ChatALL是免费提供给用户的。
AI基础设施,适用于每个人,一键部署团队AI助手。
NextChat是一个多功能的AI聊天服务平台,支持与领先的大型语言模型(LLMs)兼容,允许用户轻松部署团队范围内的AI辅助工具。它提供了一个优雅的用户界面,集中管理所有数据,并提供统计追踪团队AI使用情况的功能。此外,它还包括反馈分析工具,帮助用户聆听并分析其受众。NextChat支持OpenAI和Gemini模型,是一个面向所有人的AI基础设施,旨在提供个性化的AI聊天服务。
开源的基于深度文档理解的RAG(检索增强生成)引擎
RAGFlow是一个开源的RAG(Retrieval-Augmented Generation)引擎,基于深度文档理解,提供流线型的RAG工作流程,适用于各种规模的企业。它结合了大型语言模型(LLM)提供真实的问答能力,支持从各种复杂格式数据中引用确凿的引文。
CoreNet 是一个用于训练深度神经网络的库。
CoreNet 是一个深度神经网络工具包,使研究人员和工程师能够训练标准和新颖的小型和大型规模模型,用于各种任务,包括基础模型(例如 CLIP 和 LLM)、对象分类、对象检测和语义分割。
© 2024 AIbase 备案号:闽ICP备2023012347号-1