需求人群:
"本产品适合对人工智能和自然语言处理有兴趣的开发者和研究人员,尤其是那些寻求提高生成模型性能和准确性的专业人士。"
使用场景示例:
使用RAG技术生成新闻摘要。
结合RAG和LangChain开发智能客服系统。
利用RAG技术进行学术文献的自动摘要和检索。
产品特色:
介绍基本RAG流程,理解检索系统和生成模型的结合方式。
查询转换,确保语言模型准确理解并处理用户查询。
Hypothetical Document Embeddings,生成潜在文档的多向量表示,评估其相关性。
智能选择最合适的数据源进行查询回答,确保信息的相关性和来源的优越性。
构建可执行查询,有效索引策略,以及使用不同的检索技术。
语言模型综合检索到的信息,生成连贯准确的响应。
使用教程:
第一步:了解RAG的基本原理和LangChain框架。
第二步:学习如何进行查询转换,以确保语言模型准确理解用户意图。
第三步:掌握Hypothetical Document Embeddings技术,评估文档的相关性。
第四步:熟悉路由机制,选择最合适的数据源。
第五步:学习如何构建可执行查询和有效的索引策略。
第六步:掌握不同的检索技术,如自适应RAG和CRAF。
第七步:学习如何在生成阶段综合检索到的信息,生成准确的响应。
第八步:将所有概念整合到一个实际场景中,展示RAG的实用性。
浏览量:20
最新流量情况
月访问量
0
平均访问时长
00:00:00
每次访问页数
0.00
跳出率
0.00%
流量来源
直接访问
0
自然搜索
0
邮件
0
外链引荐
0
社交媒体
0
展示广告
0
截止目前所有流量趋势图
一键式无服务器RAG平台
SciPhi是一个开源的端到端RAG平台,使构建、部署和优化系统变得简单。它提供直观的框架和抽象,可与LangChain等解决方案相比较。通过SciPhi,您可以轻松启动和扩展最好的RAG系统,并选择各种托管和远程提供商以满足您的需求。无论是自托管还是云部署选项都可用。
利用知识图谱和文档网络增强语言模型性能
Knowledge Graph RAG 是一个开源的Python库,它通过创建知识图谱和文档网络来增强大型语言模型(LLM)的性能。这个库允许用户通过图谱结构来搜索和关联信息,从而为语言模型提供更丰富的上下文。它主要应用于自然语言处理领域,尤其是在文档检索和信息抽取任务中。
基于RAG框架的可靠输入和可信输出系统
GoMate是一个基于Retrieval-Augmented Generation (RAG)框架的模型,专注于提供可靠输入和可信输出。它通过结合检索和生成技术,提高信息检索和文本生成的准确性和可靠性。GoMate适用于需要高效、准确信息处理的领域,如自然语言处理、知识问答等。
Python封装的Doc2X API,增强PDF处理。
pdfdeal是一个Python封装的Doc2X API工具,它提供了本地PDF处理功能,旨在提高PDF在RAG中的召回率。该工具支持多种输出格式,包括文本、Markdown、PDF等,并且可以自定义OCR语言和使用GPU加速。它还支持Doc2X,该服务每日有500页的免费使用额度,特别擅长表格和公式的识别。
AI内容和数据权益的在线市场
Dappier是全球首个AI内容和数据权益的在线市场,它允许用户将自己的内容和专有数据连接到平台,并通过AI技术将其转化为可与AI对话的形式。用户可以发布AI代理,通过许可内容的联合发布以及设置自己的价格来实现内容的货币化。Dappier提供了一个安全、预训练的RAG模型,使其能够轻松集成到全球数百万AI开发者和创作者的应用中。Dappier还提供了一个市场,允许用户通过RAG API许可自己的预训练模型并货币化内容和数据。
智能搜索API,提供高效信息检索。
RAG Search API是一个由thinkany.ai开发的智能搜索API,它利用RAG(Retrieval-Augmented Generation)技术,结合了检索和生成的特点,为用户提供高效、准确的信息检索服务。该API支持自定义配置,包括搜索数量、是否进行重排、过滤等,能够满足不同用户的需求。
LangGraph的高级应用课程
这是一个专注于LangGraph的高级应用课程,提供Reflective RAG, Self-RAG和Adaptive RAG的实现,旨在帮助开发者和生产环境应用LangGraph。
一站式数据解析平台,优化数据与通用人工智能框架的兼容性。
OmniParse是一个数据解析平台,能够将各种非结构化数据转换为结构化、可操作的数据,特别适用于通用人工智能(GenAI)应用。它支持文档、表格、图片、视频、音频文件和网页等数据类型,通过提供清洁、结构化的数据,为人工智能应用如RAG、微调等做好准备。
RAG-based LLM agents的Elo排名工具
RAGElo是一个工具集,使用Elo评分系统帮助选择最佳的基于检索增强生成(RAG)的大型语言模型(LLM)代理。随着生成性LLM在生产中的原型设计和整合变得更加容易,评估仍然是解决方案中最具有挑战性的部分。RAGElo通过比较不同RAG管道和提示对多个问题的答案,计算不同设置的排名,提供了一个良好的概览,了解哪些设置有效,哪些无效。
智能卖货主播大模型,提升销售效率,增强购物体验。
Streamer-Sales 销冠是一个基于大语言模型的智能卖货主播系统,它能够根据商品特点从激发用户购买意愿的角度出发进行商品解说。该模型在 InternLM2 的基础上通过指令微调而来,集成了 LMDeploy 加速推理,支持 ASR 语音生成文字,RAG 检索增强生成,Agent 网络查询等功能,并通过 TTS 技术生成带有感情的语音,最终生成主播数字人视频,为商品解说提供全方位的技术支持。
AI原生数据应用开发框架
DB-GPT是一个开源的AI原生数据应用开发框架,利用AWEL(Agentic Workflow Expression Language)和代理(agent)技术,简化了大型模型应用与数据的结合。它通过多模型管理、Text2SQL效果优化、RAG框架优化、多代理框架协作等技术能力,使企业和开发者能够以更少的代码构建定制化应用。DB-GPT在数据3.0时代,基于模型和数据库,为构建企业级报告分析和业务洞察提供了基础数据智能技术。
基于19亿参数的对话生成模型
Index-1.9B-Chat是一个基于19亿参数的对话生成模型,它通过SFT和DPO对齐技术,结合RAG实现fewshots角色扮演定制,具有较高的对话趣味性和定制性。该模型在2.8T中英文为主的语料上预训练,并且在多个评测基准上表现领先。
哔哩哔哩自主研发的轻量级大语言模型
Index-1.9B系列是哔哩哔哩公司自主研发的轻量级大语言模型,包含多种版本,如base、pure、chat和character等,适用于中英文为主的语料预训练,并在多个评测基准上表现优异。模型支持SFT和DPO对齐,以及RAG技术实现角色扮演定制,适用于对话生成、角色扮演等场景。
Cohere的生成AI平台使用指南
Cookbooks是Cohere提供的一个在线文档平台,旨在帮助开发者和用户了解如何利用Cohere的生成AI平台构建各种应用。它包含了多种使用案例的指南,如构建代理、集成开源软件、语义搜索、云服务、检索增强生成(RAG)、摘要生成等。这些指南提供了最佳实践,帮助用户最大限度地利用Cohere的模型,并且所有内容都已设置好,准备就绪,供用户开始测试。
一个集成了Django、Llamaindex和Google Drive的RAG应用框架。
Omakase RAG Orchestrator是一个旨在解决构建RAG应用时遇到的挑战的项目,它通过提供一个综合的Web应用程序和API来封装大型语言模型(LLMs)及其包装器。该项目整合了Django、Llamaindex和Google Drive,以提高应用的可用性、可扩展性和数据及用户访问管理。
基于人类长期记忆的新型RAG框架
HippoRAG是一个启发自人类长期记忆的新型检索增强生成(RAG)框架,它使得大型语言模型(LLMs)能够持续地整合跨外部文档的知识。该框架通过实验表明,HippoRAG能够以更低的计算成本提供通常需要昂贵且高延迟迭代LLM流水线的RAG系统能力。
基于LLM大模型的开源AI知识库构建平台
FastGPT是一个开源的AI知识库构建平台,提供数据处理、模型调用、RAG检索、可视化AI工作流编排等能力,帮助用户轻松构建复杂的AI应用。它支持特定领域AI客服的构建,自动化数据预处理,工作流编排,以及强大的API集成。FastGPT的优势在于其开源性、独特的QA结构、可视化工作流、无限扩展性、便于调试,并支持多种模型。
先进的AI检索器,用于RAG。
DenserRetriever是一个开源的AI检索模型,专为RAG(Retrieval-Augmented Generation)设计,利用社区协作的力量,采用XGBoost机器学习技术有效结合异构检索器,旨在满足大型企业的需求,并且易于部署,支持docker快速启动。它在MTEB检索基准测试中达到了最先进的准确性,并且Hugging Face排行榜上也有其身影。
高效的检索增强生成研究工具包
FlashRAG是一个Python工具包,用于检索增强生成(RAG)研究的复现和开发。它包括32个预处理的基准RAG数据集和12种最先进的RAG算法。FlashRAG提供了一个广泛且可定制的框架,包括检索器、重排器、生成器和压缩器等RAG场景所需的基本组件,允许灵活组装复杂流程。此外,FlashRAG还提供了高效的预处理阶段和优化的执行,支持vLLM、FastChat等工具加速LLM推理和向量索引管理。
专为LLM和RAG应用设计的高效网络爬虫
HyperCrawl是第一个为LLM(大型语言模型)和RAG(检索增强生成模型)应用设计的网络爬虫,旨在开发强大的检索引擎。它通过引入多种先进方法,显著减少了域名的爬取时间,提高了检索过程的效率。HyperCrawl是HyperLLM的一部分,致力于构建未来LLM的基础设施,这些模型需要更少的计算资源,并且性能超越现有的任何模型。
一个开源的、增强检索的生成式聊天机器人。
Verba 是一个开源应用程序,旨在提供端到端、流畅且用户友好的检索增强生成(RAG)接口。它结合了最先进的RAG技术和Weaviate的上下文感知数据库,支持本地或通过云部署,可以轻松探索数据集并提取洞见。
统一高效的RAG检索微调和推理框架
RAG-Retrieval是一个全链路的RAG检索微调和推理框架,支持多种RAG Reranker模型的推理,包括向量模型、迟交互式模型和交互式模型。它提供了一个轻量级的Python库,使得用户能够以统一的方式调用不同的RAG排序模型,简化了排序模型的使用和部署。
低代码生成AI应用程序的生成性AI RAG工具包。
create-tsi是一个生成性AI RAG(Retrieval-Augmented Generation)工具包,用于低代码生成AI应用程序。它利用LlamaIndex和T-Systems在Open Telekom Cloud上托管的大型语言模型(LLMs),简化了AI应用程序的创建过程,使其变得快捷、灵活。用户可以使用create-tsi生成聊天机器人、编写代理并针对特定用例进行定制。
为密集非结构化数据提供挑战性查询的RAG框架
spRAG是一个专为非结构化数据设计的RAG(Retrieval-Augmented Generation)框架,特别擅长处理复杂的文本查询,例如金融报告、法律文件和学术论文。它在复杂的开放性问答任务上,如FinanceBench基准测试中,准确率显著高于传统的RAG基线模型。
一款基于NVIDIA的高性能对话式问答和检索增强型生成模型。
Llama3-ChatQA-1.5-70B 是由 NVIDIA 开发的一款先进的对话式问答和检索增强型生成(RAG)模型。该模型基于 Llama-3 基础模型,并使用改进的训练方法,特别增强了表格和算术计算能力。它有两个变体:Llama3-ChatQA-1.5-8B 和 Llama3-ChatQA-1.5-70B。该模型在多个对话式问答基准测试中取得了优异的成绩,显示出其在处理复杂对话和生成相关回答方面的高效能力。
一款基于NVIDIA技术构建的高级对话问答和生成模型
Llama3-ChatQA-1.5-8B是一款由NVIDIA开发的高级对话问答和检索增强生成(RAG)模型。该模型在ChatQA (1.0)的基础上进行了改进,通过增加对话问答数据来增强其表格和算术计算能力。它有两个变体:Llama3-ChatQA-1.5-8B和Llama3-ChatQA-1.5-70B,都是使用Megatron-LM进行训练,然后转换为Hugging Face格式。该模型在ChatRAG Bench的基准测试中表现出色,适用于需要复杂对话理解和生成的场景。
开源框架,用于构建模块化的生产级应用程序。
Cognita 是一个开源框架,用于组织 RAG(Retrieval Augmented Generation)代码库,并提供一个前端界面,以便在不同的 RAG 定制中进行实验。它提供了一种简单的方法来组织代码库,使得在本地测试变得容易,同时也能够部署到生产环境中。Cognita 使用 Langchain/Llamaindex 作为底层技术,并提供了一个组织结构,使得每个 RAG 组件都是模块化的、API 驱动的,并且易于扩展。
© 2024 AIbase 备案号:闽ICP备08105208号-14