需求人群:
"目标受众为研究人员、开发者和教育工作者,特别是那些在自然语言处理和机器学习领域工作的专业人士。该产品适合他们,因为它提供了一个平台来评估和改进语言模型的性能,特别是在科学文献合成方面。"
使用场景示例:
研究人员使用该工具来评估不同语言模型生成的科学文献的准确性和可靠性。
教育工作者可以利用该工具来教授学生如何评估AI生成的内容。
开发者可以利用该工具来测试和改进他们自己的语言模型。
产品特色:
提供人工评估标注界面:用于专家对模型生成的文本进行评估。
支持RAG评估:能够对检索增强型生成模型进行评估。
细粒度评估:允许专家进行更细致的评估。
数据准备:需要将评估实例放入指定文件夹,支持JSONL格式。
结果数据库存储:评估结果默认存储在本地数据库文件中。
结果导出:支持将评估结果导出为Excel文件。
评估指标计算:提供脚本计算评估指标和一致性。
界面分享:支持在云服务上部署,以便分享评估界面。
使用教程:
1. 安装环境:按照README中的指南创建并激活虚拟环境,并安装依赖。
2. 准备数据:将评估实例放入`data`文件夹中,每个实例应包含提示和两个模型的完成结果。
3. 运行应用:使用`python app.py`命令启动评估界面。
4. 访问界面:在浏览器中打开`http://localhost:5001`来访问评估界面。
5. 评估结果:评估完成后,可以在`http://localhost:5001/summary`查看进度。
6. 结果导出:使用`python export_db.py`命令将评估结果导出为Excel文件。
7. 计算指标:使用`python compute_metrics.py`命令计算评估指标和一致性。
浏览量:18
最新流量情况
月访问量
4.92m
平均访问时长
00:06:33
每次访问页数
6.11
跳出率
36.20%
流量来源
直接访问
51.61%
自然搜索
33.46%
邮件
0.04%
外链引荐
12.58%
社交媒体
2.19%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
12.55%
德国
3.84%
印度
9.38%
俄罗斯
4.61%
美国
18.64%
专家评估界面和数据评估脚本
OpenScholar_ExpertEval是一个用于专家评估和数据评估的界面和脚本集合,旨在支持OpenScholar项目。该项目通过检索增强型语言模型合成科学文献,对模型生成的文本进行细致的人工评估。产品背景基于AllenAI的研究项目,具有重要的学术和技术价值,能够帮助研究人员和开发者更好地理解和改进语言模型。
基于视觉语言模型的检索增强型生成模型
VisRAG是一个创新的视觉语言模型(VLM)基础的RAG(Retrieval-Augmented Generation)流程。与传统的基于文本的RAG不同,VisRAG直接将文档作为图像通过VLM进行嵌入,然后检索以增强VLM的生成能力。这种方法最大限度地保留了原始文档中的数据信息,并消除了解析过程中引入的信息损失。VisRAG模型在多模态文档上的应用,展示了其在信息检索和增强文本生成方面的强大潜力。
简单快速的检索增强型生成模型
LightRAG是一个基于检索增强型生成模型,旨在通过结合检索和生成的优势来提升文本生成任务的性能。该模型在保持生成速度的同时,能够提供更准确和相关的信息,这对于需要快速且准确信息检索的应用场景尤为重要。LightRAG的开发背景是基于对现有文本生成模型的改进需求,特别是在需要处理大量数据和复杂查询时。该模型目前是开源的,可以免费使用,对于研究人员和开发者来说,它提供了一个强大的工具来探索和实现基于检索的文本生成任务。
科学文献合成的检索增强型语言模型
OpenScholar是一个检索增强型语言模型(LM),旨在通过首先搜索文献中的相关论文,然后基于这些来源生成回答,来帮助科学家有效地导航和综合科学文献。该模型对于处理每年发表的数百万篇科学论文,以及帮助科学家找到他们需要的信息或跟上单一子领域最新发现具有重要意义。
长文本问答增强型检索生成模型
LongRAG是一个基于大型语言模型(LLM)的双视角、鲁棒的检索增强型生成系统范式,旨在增强对复杂长文本知识的理解和检索能力。该模型特别适用于长文本问答(LCQA),能够处理全局信息和事实细节。产品背景信息显示,LongRAG通过结合检索和生成技术,提升了对长文本问答任务的性能,特别是在需要多跳推理的场景中。该模型是开源的,可以免费使用,主要面向研究者和开发者。
增强型语言工具包
SaltAI Language Toolkit 是一个集成了检索增强生成(RAG)工具 Llama-Index、微软的 AutoGen 和 LlaVA-Next 的项目,通过 ComfyUI 的可适应节点接口,增强了平台的功能和用户体验。该项目于2024年5月9日增加了代理功能。
科学文献综合检索增强型语言模型
Ai2 OpenScholar是由艾伦人工智能研究所与华盛顿大学合作开发的检索增强型语言模型,旨在帮助科学家通过检索相关文献并基于这些文献生成回答来有效导航和综合科学文献。该模型在多个科学领域中表现出色,特别是在引用准确性和事实性方面。它代表了人工智能在科学研究中应用的重要进步,能够加速科学发现并提高研究效率。
KET-RAG 是一个结合知识图谱的检索增强型生成框架,用于高效文档索引和答案生成。
KET-RAG(Knowledge-Enhanced Text Retrieval Augmented Generation)是一个强大的检索增强型生成框架,结合了知识图谱技术。它通过多粒度索引框架(如知识图谱骨架和文本-关键词二分图)实现高效的知识检索和生成。该框架在降低索引成本的同时,显著提升了检索和生成质量,适用于大规模 RAG 应用场景。KET-RAG 基于 Python 开发,支持灵活的配置和扩展,适用于需要高效知识检索和生成的开发人员和研究人员。
快速生成问答数据,评估语言模型。
FiddleCube是一个专注于数据科学领域的产品,它能够快速地从用户的数据中生成问答对,帮助用户评估大型语言模型(LLMs)。它提供了准确的黄金数据集,支持多种问题类型,并能够通过度量标准来评估数据的准确性。此外,FiddleCube还提供了诊断工具,帮助用户找出并改进性能不佳的查询。
AI模型性能评估平台
Scale Leaderboard是一个专注于AI模型性能评估的平台,提供专家驱动的私有评估数据集,确保评估结果的公正性和无污染。该平台定期更新排行榜,包括新的数据集和模型,营造动态竞争环境。评估由经过严格审查的专家使用特定领域的方法进行,保证评估的高质量和可信度。
企业级搜索与检索增强型基础模型
Rerank 3是一个针对企业搜索和检索辅助生成(RAG)系统优化的新型基础模型。它支持多语种、多结构数据搜索,提供高精度的语义重排,大幅提升响应准确度和延迟,同时大幅降低总体拥有成本。Rerank 3可无缝集成到任何数据库或搜索引擎中,并支持与现有应用程序原生搜索功能无缝对接。
加速模型评估和微调的智能评估工具
SFR-Judge 是 Salesforce AI Research 推出的一系列评估模型,旨在通过人工智能技术加速大型语言模型(LLMs)的评估和微调过程。这些模型能够执行多种评估任务,包括成对比较、单项评分和二元分类,同时提供解释,避免黑箱问题。SFR-Judge 在多个基准测试中表现优异,证明了其在评估模型输出和指导微调方面的有效性。
用于评估其他语言模型的开源工具集
Prometheus-Eval 是一个用于评估大型语言模型(LLM)在生成任务中表现的开源工具集。它提供了一个简单的接口,使用 Prometheus 模型来评估指令和响应对。Prometheus 2 模型支持直接评估(绝对评分)和成对排名(相对评分),能够模拟人类判断和专有的基于语言模型的评估,解决了公平性、可控性和可负担性的问题。
用于评估文本、对话和RAG设置的通用评估模型
Patronus GLIDER是一个经过微调的phi-3.5-mini-instruct模型,可以作为通用评估模型,根据用户定义的标准和评分规则来评判文本、对话和RAG设置。该模型使用合成数据和领域适应数据进行训练,覆盖了183个指标和685个领域,包括金融、医学等。模型支持的最大序列长度为8192个token,但经过测试可以支持更长的文本(高达12000个token)。
与Garry Tan聊天的检索增强型LLM聊天机器人
ArguflowChat是一款检索增强型LLM聊天机器人,可以与Garry Tan进行对话。它具有以下功能和优势:提供定制化解决方案、与Garry Tan进行对话、通过电子邮件联系。
大型语言模型排行榜,实时评估模型性能。
OpenCompass 2.0是一个专注于大型语言模型性能评估的平台。它使用多个闭源数据集进行多维度评估,为模型提供整体平均分和专业技能分数。该平台通过实时更新排行榜,帮助开发者和研究人员了解不同模型在语言、知识、推理、数学和编程等方面的性能表现。
一种用于测试长文本语言模型的合理性的评估基准
RULER 是一种新的合成基准,为长文本语言模型提供了更全面的评估。它扩展了普通检索测试,涵盖了不同类型和数量的信息点。此外,RULER 引入了新的任务类别,如多跳跟踪和聚合,以测试超出检索从上下文中的行为。在 RULER 上评估了 10 个长文本语言模型,并在 13 个代表性任务中获得了表现。尽管这些模型在普通检索测试中取得了几乎完美的准确性,但在上下文长度增加时,它们表现得非常差。只有四个模型(GPT-4、Command-R、Yi-34B 和 Mixtral)在长度为 32K 时表现得相当不错。我们公开源 RULER,以促进对长文本语言模型的全面评估。
统一的语言模型评估框架
PromptBench是一个基于Pytorch的Python包,用于评估大型语言模型(LLM)。它为研究人员提供了用户友好的API,以便对LLM进行评估。主要功能包括:快速模型性能评估、提示工程、对抗提示评估以及动态评估等。优势是使用简单,可以快速上手评估已有数据集和模型,也可以轻松定制自己的数据集和模型。定位为LLM评估的统一开源库。
Generative AI 模型评估工具
Deepmark AI 是一款用于评估大型语言模型(LLM)的基准工具,可在自己的数据上对各种任务特定指标进行评估。它与 GPT-4、Anthropic、GPT-3.5 Turbo、Cohere、AI21 等领先的生成式 AI API 进行预集成。
用于评估大型语言模型事实性的最新基准
FACTS Grounding是Google DeepMind推出的一个全面基准测试,旨在评估大型语言模型(LLMs)生成的回应是否不仅在给定输入方面事实准确,而且足够详细,能够为用户提供满意的答案。这一基准测试对于提高LLMs在现实世界中应用的信任度和准确性至关重要,有助于推动整个行业在事实性和基础性方面的进步。
知识编辑基准测试,用于评估大型语言模型的知识编辑方法。
KnowEdit是一个专注于大型语言模型(LLMs)的知识编辑基准测试。它提供了一个综合的评估框架,用于测试和比较不同的知识编辑方法在修改特定领域内LLMs行为时的有效性,同时保持跨各种输入的整体性能。KnowEdit基准测试包括六个不同的数据集,涵盖了事实操作、情感修改和幻觉生成等多种编辑类型。该基准测试旨在帮助研究者和开发者更好地理解和改进知识编辑技术,推动LLMs的持续发展和应用。
混合专家模型,性能优于单个专家模型
phixtral-2x2_8是第一个由两个microsoft/phi-2模型制作的混合专家模型,受到mistralai/Mixtral-8x7B-v0.1架构的启发。其性能优于每个单独的专家模型。该模型在AGIEval、GPT4All、TruthfulQA、Bigbench等多个评估指标上表现优异。它采用了自定义版本的mergekit库(mixtral分支)和特定配置。用户可以在Colab notebook上以4位精度在免费的T4 GPU上运行Phixtral。模型大小为4.46B参数,张量类型为F16。
多语言多任务基准测试,用于评估大型语言模型(LLMs)
P-MMEval是一个多语言基准测试,覆盖了基础和能力专业化的数据集。它扩展了现有的基准测试,确保所有数据集在语言覆盖上保持一致,并在多种语言之间提供平行样本,支持多达10种语言,涵盖8个语言家族。P-MMEval有助于全面评估多语言能力,并进行跨语言可转移性的比较分析。
评估大型语言模型作为全栈开发者的能力
FullStack Bench是一个多语言的全栈编程基准测试,涵盖了广泛的应用领域和16种编程语言的3K测试样本,显著推动了代码语言模型在现实世界代码开发场景中的相关能力。该产品代表了编程语言模型在全栈开发领域的应用,其重要性在于能够评估和提升模型在实际编程任务中的表现,对于开发者和AI研究者来说都是一个宝贵的资源。
AI模型测试评估工具
Openlayer是一个评估工具,适用于您的开发和生产流程,帮助您自信地发布高质量的模型。它提供强大的测试、评估和可观察性,无需猜测您的提示是否足够好。支持LLMs、文本分类、表格分类、表格回归等功能。通过实时通知让您在AI模型失败时获得通知,让您自信地发布。
评估大型语言模型调用函数能力的排行榜
Berkeley Function-Calling Leaderboard(伯克利函数调用排行榜)是一个专门用来评估大型语言模型(LLMs)准确调用函数(或工具)能力的在线平台。该排行榜基于真实世界数据,定期更新,提供了一个衡量和比较不同模型在特定编程任务上表现的基准。它对于开发者、研究人员以及对AI编程能力有兴趣的用户来说是一个宝贵的资源。
开源幻觉评估模型
Patronus-Lynx-8B-Instruct-v1.1是基于meta-llama/Meta-Llama-3.1-8B-Instruct模型的微调版本,主要用于检测RAG设置中的幻觉。该模型经过CovidQA、PubmedQA、DROP、RAGTruth等多个数据集的训练,包含人工标注和合成数据。它能够评估给定文档、问题和答案是否忠实于文档内容,不提供超出文档范围的新信息,也不与文档信息相矛盾。
© 2025 AIbase 备案号:闽ICP备08105208号-14