Llama-3-Patronus-Lynx-8B-Instruct-v1.1

Llama-3-Patronus-Lynx-8B-Instruct-v1.1

Patronus-Lynx-8B-Instruct-v1.1是基于meta-llama/Meta-Llama-3.1-8B-Instruct模型的微调版本,主要用于检测RAG设置中的幻觉。该模型经过CovidQA、PubmedQA、DROP、RAGTruth等多个数据集的训练,包含人工标注和合成数据。它能够评估给定文档、问题和答案是否忠实于文档内容,不提供超出文档范围的新信息,也不与文档信息相矛盾。

需求人群:

"目标受众为研究人员、开发者和企业,他们需要一个可靠的模型来评估和生成忠实于源文档的文本。该模型适合用于自然语言处理、文本摘要、问答系统和聊天机器人等应用场景。"

使用场景示例:

研究人员使用该模型来评估医学文献中答案的准确性。

开发者将模型集成到问答系统中,提供基于文档的准确回答。

企业使用模型检测金融报告中的信息一致性。

产品特色:

幻觉检测:评估答案是否忠实于给定文档。

文本生成:基于用户输入的问题和文档生成答案。

聊天格式训练:模型以聊天格式进行训练,适合对话式应用。

多数据集训练:包括CovidQA、PubmedQA、DROP、RAGTruth等。

长序列处理:支持最大128000个token的序列长度。

开源许可:遵循cc-by-nc-4.0许可,可自由使用和修改。

高性能:在多个基准测试中表现优异,如HaluEval、RAGTruth等。

使用教程:

1. 准备问题、文档和答案的输入数据。

2. 使用模型推荐的prompt格式组织输入数据。

3. 调用Hugging Face的pipeline接口,传入模型名称和配置参数。

4. 将准备好的数据作为用户消息传递给pipeline。

5. 获取模型输出,包括'PASS'或'FAIL'的评分和推理。

6. 分析模型输出,根据评分和推理判断答案是否忠实于文档。

7. 根据需要调整模型参数,优化性能。

浏览量:6

s1785318098921236

打开站点

构建AI去赚钱
s1785341518918206
网站流量情况

最新流量情况

月访问量

20899.84k

平均访问时长

00:04:57

每次访问页数

5.24

跳出率

46.04%

流量来源

直接访问

48.28%

自然搜索

36.58%

邮件

0.03%

外链引荐

12.01%

社交媒体

3.07%

展示广告

0

截止目前所有流量趋势图

地理流量分布情况

中国

13.07%

印度

7.93%

日本

3.42%

俄罗斯

5.95%

美国

18.10%

类似产品

© 2024     AIbase    备案号:闽ICP备08105208号-14

隐私政策

用户协议

意见反馈 网站地图