浏览量:37
最新流量情况
月访问量
17.72k
平均访问时长
00:01:50
每次访问页数
1.67
跳出率
30.47%
流量来源
直接访问
56.87%
自然搜索
13.44%
邮件
0
外链引荐
22.75%
社交媒体
6.95%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
美国
38.23%
中国
15.59%
土耳其
5.74%
印度尼西亚
3.76%
墨西哥
3.56%
开源框架,用于构建模块化的生产级应用程序。
Cognita 是一个开源框架,用于组织 RAG(Retrieval Augmented Generation)代码库,并提供一个前端界面,以便在不同的 RAG 定制中进行实验。它提供了一种简单的方法来组织代码库,使得在本地测试变得容易,同时也能够部署到生产环境中。Cognita 使用 Langchain/Llamaindex 作为底层技术,并提供了一个组织结构,使得每个 RAG 组件都是模块化的、API 驱动的,并且易于扩展。
通过自然语言生成SQL查询,简化数据库交互。
Vanna是一个使用Retrieval-Augmented Generation (RAG) 技术的开源Python框架,用于SQL生成和相关功能。它通过训练RAG模型,将自然语言问题转换为SQL查询,从而允许用户以提问的形式与数据库进行交互。Vanna的主要优点包括高准确度、安全性、私有性、自学习能力,并且支持任何SQL数据库。
开源的基于深度文档理解的RAG(检索增强生成)引擎
RAGFlow是一个开源的RAG(Retrieval-Augmented Generation)引擎,基于深度文档理解,提供流线型的RAG工作流程,适用于各种规模的企业。它结合了大型语言模型(LLM)提供真实的问答能力,支持从各种复杂格式数据中引用确凿的引文。
结合文本提取、网络分析和大型语言模型提示与总结的端到端系统
GraphRAG (Graphs + Retrieval Augmented Generation) 是一种通过结合文本提取、网络分析以及大型语言模型(LLM)的提示和总结,来丰富理解文本数据集的技术。该技术即将在GitHub上开源,是微软研究项目的一部分,旨在通过先进的算法提升文本数据的处理和分析能力。
开源的先进文本嵌入模型
Snowflake Arctic Embed是一系列基于Apache 2.0许可开源的文本嵌入模型,专为检索用例设计。这些模型在Massive Text Embedding Benchmark (MTEB)检索基准测试中提供了领先的检索性能,为组织在结合专有数据集与大型语言模型(LLMs)进行检索增强生成(RAG)或语义搜索服务时提供了新的优势。这些模型的尺寸从超小型(xs)到大型(l),具有不同的上下文窗口和参数数量,以满足不同企业的延迟、成本和检索性能需求。
高效开发你的AI原生应用
百度智能云千帆AppBuilder是一款专门用于高效开发AI原生应用的平台。它提供了一站式的AI原生应用开发资源和工具,包括开箱即用的应用框架、丰富的AI能力组件以及连接云资源等。主要功能有:1.开源应用框架,如知识增强应用框架(RAG)、Agent框架等。2.丰富AI组件,如语音识别、TTS、文生图、向量引擎等。3.连接云资源,提供CPU/GPU计算、存储等服务。该平台降低了AI应用开发门槛,帮助企业高效开发AI原生应用。
基于GPT的视频检索和传输代理
StreamRAG是一个开源的视频检索和流媒体代理,使用GPT理解用户的查询意图,并从视频数据库中检索相关视频进行回复。它支持上传和管理视频集合,并通过RESTful API将其发布为ChatGPT技能,以提供语音搜索和响应能力。
开源的 RAG 框架
Embedchain 是一个开源的 RAG 框架,旨在简化 AI 应用的创建和部署。它以 “常规但可配置” 为设计原则,既适用于软件工程师,也适用于机器学习工程师。Embedchain 简化了 RAG 应用的创建过程,提供了一个无缝的管理各种非结构化数据的流程。它可以高效地将数据分成可管理的块,生成相关的嵌入,并将它们存储在矢量数据库中以实现优化的检索。借助各种多样的 API,它使用户能够提取上下文信息、找到精确的答案或参与交互式聊天对话,所有这些都根据他们自己的数据进行定制。
统一高效的RAG检索微调和推理框架
RAG-Retrieval是一个全链路的RAG检索微调和推理框架,支持多种RAG Reranker模型的推理,包括向量模型、迟交互式模型和交互式模型。它提供了一个轻量级的Python库,使得用户能够以统一的方式调用不同的RAG排序模型,简化了排序模型的使用和部署。
低代码生成AI应用程序的生成性AI RAG工具包。
create-tsi是一个生成性AI RAG(Retrieval-Augmented Generation)工具包,用于低代码生成AI应用程序。它利用LlamaIndex和T-Systems在Open Telekom Cloud上托管的大型语言模型(LLMs),简化了AI应用程序的创建过程,使其变得快捷、灵活。用户可以使用create-tsi生成聊天机器人、编写代理并针对特定用例进行定制。
为密集非结构化数据提供挑战性查询的RAG框架
spRAG是一个专为非结构化数据设计的RAG(Retrieval-Augmented Generation)框架,特别擅长处理复杂的文本查询,例如金融报告、法律文件和学术论文。它在复杂的开放性问答任务上,如FinanceBench基准测试中,准确率显著高于传统的RAG基线模型。
一款基于NVIDIA的高性能对话式问答和检索增强型生成模型。
Llama3-ChatQA-1.5-70B 是由 NVIDIA 开发的一款先进的对话式问答和检索增强型生成(RAG)模型。该模型基于 Llama-3 基础模型,并使用改进的训练方法,特别增强了表格和算术计算能力。它有两个变体:Llama3-ChatQA-1.5-8B 和 Llama3-ChatQA-1.5-70B。该模型在多个对话式问答基准测试中取得了优异的成绩,显示出其在处理复杂对话和生成相关回答方面的高效能力。
一款基于NVIDIA技术构建的高级对话问答和生成模型
Llama3-ChatQA-1.5-8B是一款由NVIDIA开发的高级对话问答和检索增强生成(RAG)模型。该模型在ChatQA (1.0)的基础上进行了改进,通过增加对话问答数据来增强其表格和算术计算能力。它有两个变体:Llama3-ChatQA-1.5-8B和Llama3-ChatQA-1.5-70B,都是使用Megatron-LM进行训练,然后转换为Hugging Face格式。该模型在ChatRAG Bench的基准测试中表现出色,适用于需要复杂对话理解和生成的场景。
Pongo是一个语义过滤器,使用1行代码可以将RAG工作流中的LLM幻觉减少80%。
Pongo的语义过滤器可以通过一行代码将RAG工作流中的LLM幻觉减少80%。它利用多种先进的语义相似性模型和专有的排名算法,确保您始终获得正确的信息。Pongo可以与现有的流程集成,并提供快速的响应时间和零数据保留。
多方面数据索引与搜索模型
Cohere Compass是一款新型的多方面嵌入模型,专为解决企业数据中的多重概念和关系检索挑战而设计。它能够将数据以JSON格式传递至嵌入模型,转换后存储在向量数据库中,保持元数据和文本的同时,捕捉多方面数据中概念间的关系。与传统的RAG流程相比,Compass通过其SDK将电子邮件及其附件解析为单一JSON,生成包含多方面表示的嵌入输出,从而在搜索时能够准确理解和匹配查询中的不同方面。
企业级搜索与检索增强型基础模型
Rerank 3是一个针对企业搜索和检索辅助生成(RAG)系统优化的新型基础模型。它支持多语种、多结构数据搜索,提供高精度的语义重排,大幅提升响应准确度和延迟,同时大幅降低总体拥有成本。Rerank 3可无缝集成到任何数据库或搜索引擎中,并支持与现有应用程序原生搜索功能无缝对接。
企业级搜索、洞察和自动化的Gen AI
Squirro是一款基于Gen AI的企业级搜索、洞察和自动化工具。它使用Retrieval Augmented Generation (RAG)技术来提高响应生成的准确性。SquirroGPT能够查询知识库和数据源,为用户提供有据可依的答案。通过结合聊天和搜索的方式,用户可以与内部和外部数据源进行对话,生成个性化的洞察并提高工作效率。Squirro还提供了文档摘要、结构化数据分析和可视化等功能。定价请咨询官方网站。
企业级RAG优化模型,支持多语言
Command R+是一款先进的RAG优化模型,专为处理企业级工作负载而设计,首次在Microsoft Azure上推出。该模型具有128k令牌上下文窗口,提供最佳性能的先进检索增强生成(RAG)功能,支持10种关键语言的多语言覆盖,以及工具使用功能以自动化复杂的业务流程。定价为Command R+:$3.00/M输入令牌,$15.00/M输出令牌。该产品适用于各种企业场景,如金融、人力资源、销售、营销和客户支持等。
将音频转换为LLM数据
ragobble是一个利用人工智能将音频文件转换为文档的平台。通过将在线视频和音频信息转换为可向量化的RAG文档,用户可以将生成的文档应用于其LLM实例或服务器,为其模型提供最新的知识。ragobble提供了一种快速简单的方式,将视频音频转换为文档,使用户可以为模型提供最新的信息,从而可以推断出仅在几秒钟前记录的数据。
新时代AI搜索引擎,高效检索,智能问答
ThinkAny是一个新时代的AI搜索引擎,使用RAG技术检索并聚合优质内容,结合AI的智能问答特性,高效回答用户的提问。该产品定位于搜索和问答领域,主要优势是高效检索和智能问答。
Command-R是针对大型生产工作负载的新LLM,专为RAG(检索增强生成)和工具使用优化,以实现企业级的生产规模AI
Command-R是一个可扩展的生成型模型,旨在平衡高效率和强大的准确性,使企业能够超越概念验证阶段,进入生产阶段。它专为长内容任务设计,如使用外部API和工具的检索增强生成。Command-R与Cohere的Embed和Rerank模型协同工作,为RAG应用提供一流的集成,并在企业用例中表现出色。
全新的Mistral Small,针对低延迟工作负载进行优化
Mistral Small 是针对低延迟和成本优化的新型模型,优于 Mixtral 8x7B,具有更低的延迟,是开放权重产品和旗舰模型之间的卓越中间解决方案。Mistral Small 具有与 Mistral Large 相同的创新,包括RAG-enablement和函数调用。我们简化了终端点供应,提供开放权重终端点以具有竞争性的定价,并推出了新的优化模型终端点 mistral-small-2402 和 mistral-large-2402。
医疗领域检索式问答模型
MedRAG是一个针对医疗领域设计的检索式问答(Retrieval-Augmented Generation)模型。它结合了信息检索和文本生成技术,旨在提供准确的医疗信息查询和回答。
医疗领域检索式问答基准测试
Benchmark Medical RAG是一个专注于医疗领域的检索式问答(Retrieval-Augmented Generation)基准测试平台。它提供了一系列的数据集和评估工具,旨在推动医疗信息检索和生成模型的研究。
用户友好的LLMs WebUI
Open WebUI是一个为LLMs(大型语言模型)设计的友好型Web用户界面,支持Ollama和OpenAI兼容的API。它提供了直观的聊天界面、响应式设计、快速响应性能、简易安装、代码语法高亮、Markdown和LaTeX支持、本地RAG集成、Web浏览能力、提示预设支持、RLHF注释、会话标记、模型下载/删除、GGUF文件模型创建、多模型支持、多模态支持、模型文件构建器、协作聊天、OpenAI API集成等功能。
基于知识图谱的检索增强生成框架,赋能大型语言模型处理知识密集型任务
KG-RAG是一个任务无关的框架,它结合知识图谱的显性知识和大型语言模型的隐性知识。这里,我们利用一个巨大的生物医学知识图谱SPOKE作为生物医学上下文的提供者。KG-RAG的主要特征是它从SPOKE知识图谱中提取“与提示相关的上下文”,这被定义为响应用户提示所需的最小上下文。
简化LLM和RAG模型输出评估,提供对定性指标的洞察
Algomax简化LLM和RAG模型的评估,优化提示开发,并通过直观的仪表板提供对定性指标的独特洞察。我们的评估引擎精确评估LLM,并通过广泛测试确保可靠性。平台提供了全面的定性和定量指标,帮助您更好地理解模型的行为,并提供具体的改进建议。Algomax的用途广泛,适用于各个行业和领域。
提供检索增强生成的API,提高检索能力,针对无法回答的用户问题和混乱的用户输入
Superpowered.ai通过自主研发的技术组件SuperStack,解决了标准RAG流水线在实际使用中出现的许多失败情况。SuperStack包含AutoQuery、相关段落提取和自动上下文注入等技术,可以转换易混淆或表述不当的用户输入为良构的搜索查询,动态检索相关信息,确保语言模型充分理解每段文本的含义。通过Chat端点快速部署会话式AI应用;提供UI组件加速应用开发。可广泛应用于客户支持助理、员工生产力工具、教育应用、法律援助工具等场景。
© 2024 AIbase 备案号:闽ICP备2023012347号-1