需求人群:
"RAGFoundry的目标受众是研究人员和开发人员,特别是那些在自然语言处理领域工作,需要利用大型语言模型进行复杂任务处理的专业人士。它适合需要快速原型设计和实验不同RAG设置和配置的研究人员。"
使用场景示例:
研究人员使用RAGFoundry在特定数据集上微调语言模型,以提高问答系统的性能。
开发人员利用RAGFoundry的模块化特性,快速集成到现有的NLP项目中。
教育机构使用RAGFoundry作为教学工具,帮助学生理解如何通过微调提升模型性能。
产品特色:
数据集创建:处理模块创建数据集,保存RAG交互,用于RAG训练和推理。
训练:使用PEFT进行高效训练,用户可以在增强数据集上训练任何模型。
推理:使用训练或未训练的LLMs生成预测。
评估:在推理模块生成的输出上运行评估,支持自定义指标。
模块化设计:工作流程通过配置文件自定义,易于扩展和修改。
支持HF Hub:训练完成的模型可以推送到HF Hub,便于共享和使用。
使用教程:
1. 克隆RAGFoundry库到本地环境。
2. 根据需要修改配置文件,定制数据集创建、训练、推理和评估的流程。
3. 运行数据处理脚本`processing.py`来创建用于训练和推理的数据集。
4. 使用`training.py`脚本进行模型训练。
5. 利用`inference.py`脚本进行模型推理,生成预测。
6. 最后,通过`evaluation.py`脚本对生成的输出进行评估。
浏览量:8
最新流量情况
月访问量
5.00m
平均访问时长
00:06:52
每次访问页数
5.82
跳出率
37.31%
流量来源
直接访问
52.65%
自然搜索
32.08%
邮件
0.05%
外链引荐
12.79%
社交媒体
2.25%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
13.49%
德国
3.62%
印度
9.70%
俄罗斯
3.96%
美国
18.50%
一个用于增强LLMs检索增强生成任务的框架
RAGFoundry是一个库,旨在通过在特别创建的RAG增强数据集上微调模型,提高大型语言模型(LLMs)使用外部信息的能力。该库通过参数高效微调(PEFT)帮助用户轻松训练模型,并使用RAG特定指标衡量性能提升。它具有模块化设计,工作流程可通过配置文件自定义。
革命性的检索增强生成系统技术集合。
RAG_Techniques 是一个专注于检索增强生成(Retrieval-Augmented Generation, RAG)系统的技术集合,旨在提升系统的准确性、效率和上下文丰富性。它提供了一个前沿技术的中心,通过社区贡献和协作环境,推动RAG技术的发展和创新。
一站式RAG搜索SDK
Korvus是一个基于Postgres构建的搜索SDK,它将整个RAG(检索增强生成)流程统一到单一的数据库查询中。它提供了高性能、可定制的搜索能力,同时最小化了基础设施的考虑。Korvus利用PostgresML的pgml扩展和pgvector扩展,将RAG流程压缩在Postgres内部。它支持多语言SDK,包括Python、JavaScript、Rust和C,允许开发者无缝集成到现有的技术栈中。
掌握RAG技术,提升AI生成内容的准确性和相关性。
Retrieval-Augmented Generation (RAG) 是一种前沿技术,通过整合外部知识源来增强生成模型的能力,提高生成内容的质量和可靠性。LangChain是一个强大的框架,专为构建和部署稳健的语言模型应用而设计。本教程系列将提供全面的、分步骤的指南,帮助您使用LangChain实现RAG,从基础RAG流程的介绍开始,逐步深入到查询转换、文档嵌入、路由机制、查询构建、索引策略、检索技术以及生成阶段,最终将所有概念整合到一个实际场景中,展示RAG的强大和灵活性。
基于RAG框架的可靠输入和可信输出系统
GoMate是一个基于Retrieval-Augmented Generation (RAG)框架的模型,专注于提供可靠输入和可信输出。它通过结合检索和生成技术,提高信息检索和文本生成的准确性和可靠性。GoMate适用于需要高效、准确信息处理的领域,如自然语言处理、知识问答等。
一款小型评分器,提升大型多任务语言模型性能
Cappy是一种新型方法,旨在提高大型多任务语言模型的性能和效率。它是一个轻量级的预训练评分器,基于RoBERTa,仅有3.6亿个参数。Cappy可独立解决分类任务,或作为辅助组件提升语言模型性能。在下游任务中微调Cappy,可有效整合监督信息,提高模型表现,且不需要反向传播到语言模型参数,降低了内存需求。Cappy适用于开源和封闭源代码的语言模型,是一种高效的模型微调方法。
提高LLM选择性预测能力的框架
ASPIRE是一个设计精良的框架,用于增强大型语言模型的选择性预测能力。它通过参数高效的微调训练LLM进行自我评估,使其能够针对生成的答案输出置信度分数。实验结果表明,ASPIRE在各种问答数据集上明显优于目前的选择性预测方法。
基于代理的框架,用于在复杂信息环境中进行关系抽取。
AgentRE是一个基于代理的框架,专门设计用于在复杂信息环境中进行关系抽取。它通过模拟智能代理的行为,能够高效地处理和分析大规模数据集,从而识别和提取实体之间的关系。该技术在自然语言处理和信息检索领域具有重要意义,尤其是在需要处理大量非结构化数据的场景中。AgentRE的主要优点包括其高度的可扩展性、灵活性以及对复杂数据结构的处理能力。该框架是开源的,允许研究人员和开发者自由使用和修改,以适应不同的应用需求。
先进的奖励模型,用于文本分类和偏好判断
Skywork-Reward-Llama-3.1-8B是一个基于Meta-Llama-3.1-8B-Instruct架构的先进奖励模型,使用Skywork Reward Data Collection进行训练,该数据集包含80K高质量的偏好对。模型在处理复杂场景中的偏好,包括具有挑战性的偏好对方面表现出色,覆盖数学、编程和安全性等多个领域。截至2024年9月,该模型在RewardBench排行榜上位列第三。
智能问答系统,提供深入见解和答案。
Question.ai是一个智能问答系统,能够理解并回答用户的各种问题。它使用先进的自然语言处理技术,提供准确、及时的信息。该系统的主要优点是能够处理复杂的查询,并以易于理解的方式提供答案。它适合需要快速、准确信息的用户,无论是个人还是企业。目前,该产品提供免费试用,但具体的定价信息尚未提供。
用于检索和生成结合统计数据的文本模型
DataGemma RIG是一系列微调后的Gemma 2模型,旨在帮助大型语言模型(LLMs)访问并整合来自Data Commons的可靠公共统计数据。该模型采用检索式生成方法,通过自然语言查询Data Commons的现有自然语言接口,对响应中的统计数据进行注释。DataGemma RIG在TPUv5e上使用JAX进行训练,目前是早期版本,主要用于学术和研究目的,尚未准备好用于商业或公众使用。
与文档进行自然语言对话的Python应用
Chat With Your Docs 是一个Python应用程序,允许用户与多种文档格式(如PDF、网页和YouTube视频)进行对话。用户可以使用自然语言提问,应用程序将基于文档内容提供相关回答。该应用利用语言模型生成准确答案。请注意,应用仅回应与加载的文档相关的问题。
股票经纪人人工智能助手,提供专业投资建议。
assistant-ui-stockbroker 是一个股票经纪人人工智能助手,旨在通过人机交互界面提供专业的投资建议。该产品利用先进的自然语言处理技术,结合金融数据和算法模型,为用户提供股票市场的深度分析和投资策略。它不仅能够提供实时的市场动态,还能根据用户的需求定制个性化的投资方案。产品背景信息显示,它是一个开源项目,由Yonom公司开发,采用TypeScript、CSS和JavaScript等技术构建。
多模态大型语言模型,支持图像和文本理解。
Pixtral-12b-240910是由Mistral AI团队发布的多模态大型语言模型,它能够处理和理解图像以及文本信息。该模型采用了先进的神经网络架构,能够通过图像和文本的结合输入,提供更加丰富和准确的输出结果。它在图像识别、自然语言处理和多模态交互方面展现出卓越的性能,对于需要图像和文本同时处理的应用场景具有重要意义。
基于记忆的RAG框架,用于全目的应用
MemoRAG是一个基于记忆的RAG框架,它通过高效的超长记忆模型,为各种应用提供支持。与传统的RAG不同,MemoRAG利用其记忆模型实现对整个数据库的全局理解,通过从记忆中回忆查询特定的线索,增强证据检索,从而生成更准确、更丰富的上下文响应。MemoRAG的开发活跃,不断有资源和原型在此仓库发布。
研究创意生成与项目管理的人工智能工具
AI-Researcher 是一个基于斯坦福大学自然语言处理团队的研究项目,旨在通过人工智能技术辅助研究创意的生成和管理。该工具通过自然语言输入研究主题,输出一系列项目提案,并对其进行排名和过滤,以帮助研究人员快速找到创新且可行的研究点子。它包括相关论文搜索、基于检索的想法生成、想法去重、项目提案生成、项目提案排名和过滤等模块。
Qihoo-T2X,一款针对文本到任意任务的高效扩散变换器模型。
Qihoo-T2X是由360CVGroup开发的一个开源项目,它代表了一种创新的文本到任意任务(Text-to-Any)的扩散变换器(DiT)架构范式。该项目旨在通过代理令牌技术,提高文本到任意任务的处理效率。Qihoo-T2X项目是一个正在进行中的项目,其团队承诺将持续优化和增强其功能。
通过自博弈相互推理,提升小型语言模型的解决问题能力。
rStar是一个自我博弈相互推理方法,它通过将推理过程分解为解决方案生成和相互验证,显著提升了小型语言模型(SLMs)的推理能力,无需微调或使用更高级的模型。rStar通过蒙特卡洛树搜索(MCTS)和人类推理动作的结合,构建更高质量的推理轨迹,并通过另一个类似能力的SLM作为鉴别器来验证这些轨迹的正确性。这种方法在多个SLMs上进行了广泛的实验,证明了其在解决多样化推理问题方面的有效性。
AI驱动的对话式业务分析工具
FineChatBI是帆软推出的一款AI驱动的对话式业务分析工具,它利用Text2DSL技术将用户的自然语言问题转化为可理解、可干预的指令,从而提供可控、结果可信、分析闭环、交互友好的业务分析体验。该产品基于企业级BI能力底座,结合AI技术,大幅降低业务分析门槛,提升企业决策效率。
模块化研究导向的检索增强生成统一框架
RAGLAB是一个模块化、研究导向的开源框架,专注于检索增强生成(RAG)算法。它提供了6种现有RAG算法的复现,以及一个包含10个基准数据集的全面评估系统,支持公平比较不同RAG算法,并便于高效开发新算法、数据集和评估指标。
基于多模态大型语言模型的Discord机器人
PigPig是一个基于多模态大型语言模型(LLM)的Discord机器人,旨在通过自然语言与用户互动。它结合了先进的AI能力和实用功能,为Discord社区提供丰富的体验。
使大型语言模型在长文本问答中生成细粒度引用
LongCite是一个开源的模型,它通过训练大型语言模型(LLMs)来实现在长文本问答场景中生成准确的回答和精确的句级引用。该技术的重要性在于它能够提高问答系统的准确性和可信度,使用户能够验证输出信息的来源。LongCite支持高达128K的上下文长度,并且提供了两个模型:LongCite-glm4-9b和LongCite-llama3.1-8b,分别基于GLM-4-9B和Meta-Llama-3.1-8B进行训练。
利用最小熵耦合隐藏加密信息的自然语言隐写工具
Tomato 是一个隐写工具的概念验证,它利用由 ssokota 提供的最小熵耦合码。该工具通过将隐藏信息(密文)的概率分布与由大型语言模型(LLM)生成的封面文本的概率分布合并,实现信息隐藏。这种耦合最小化了联合熵,确保了隐写文本(封面文本与嵌入信息)保留了自然语言的统计特性,使隐藏信息难以被检测。解码过程中,LLM 通过提供上下文感知的解释来辅助,然后使用 MEC 反向解耦封面文本中的隐藏信息。这种方法确保隐藏信息可以无缝集成到文本中,并且可以安全、准确地在以后检索,风险最小。
从文档中提取结构化信息
docai 是一个利用人工智能技术从非结构化文档中提取结构化数据的模型。它集成了Answer.AI的Byaldi、OpenAI的gpt-4o以及Langchain的结构化输出技术,能够显著提高文档处理的效率和准确性。该模型主要面向需要处理大量文档数据并从中提取有用信息的用户,如法律、金融、医疗等行业的专业人士。
利用大型语言模型增量构建知识图谱
iText2KG是一个Python包,旨在利用大型语言模型从文本文档中提取实体和关系,增量构建一致的知识图谱。它具备零样本能力,允许在没有特定训练的情况下跨不同领域进行知识提取。该包包括文档蒸馏、实体提取和关系提取模块,确保实体和关系得到解决和唯一性。它通过Neo4j提供知识图谱的可视化表示,支持交互式探索和分析结构化数据。
集成了通用和编程能力的人工智能模型
DeepSeek-V2.5 是一个升级版本,结合了 DeepSeek-V2-Chat 和 DeepSeek-Coder-V2-Instruct 的功能。这个新模型整合了两个先前版本的通用和编程能力,更好地符合人类的偏好,并在写作和指令遵循等多个方面进行了优化。
情商智商俱佳的多模态大模型
西湖大模型是心辰智能云推出的一款具有高情商和智商的多模态大模型,它能够处理包括文本、图像、声音等多种数据类型,为用户提供智能对话、写作、绘画、语音等AI服务。该模型通过先进的人工智能算法,能够理解和生成自然语言,适用于多种场景,如心理咨询、内容创作、客户服务等,具有高度的定制性和灵活性。西湖大模型的推出,标志着心辰智能云在AI领域的技术实力和创新能力,为用户提供了更加丰富和高效的智能服务体验。
沟通无界,让每次对话都创造价值。
心辰Lingo语音大模型是一款先进的人工智能语音模型,专注于提供高效、准确的语音识别和处理服务。它能够理解并处理自然语言,使得人机交互更加流畅和自然。该模型背后依托西湖心辰强大的AI技术,致力于在各种场景下提供高质量的语音交互体验。
© 2024 AIbase 备案号:闽ICP备08105208号-14