IncarnaMind

IncarnaMind

IncarnaMind是一个开源项目,旨在通过大型语言模型(LLMs)如GPT、Claude和本地开源LLMs,实现与个人文档(PDF、TXT)的交互对话。该项目利用滑动窗口分块机制和集成检索器,提高查询效率,增强LLMs的准确性。它支持多文档对话问答,突破了单文档限制,并兼容多种文件格式和LLM模型。

需求人群:

"目标受众包括研究人员、开发者和任何需要与大量文档进行交互的用户。IncarnaMind通过提供高效的文档查询和对话功能,帮助他们更好地理解和利用文档中的数据,提高工作效率。"

使用场景示例:

研究人员可以使用IncarnaMind与他们的研究论文进行对话,快速获取所需信息。

开发者可以通过IncarnaMind与技术文档交互,解决编程中遇到的问题。

企业用户可以利用IncarnaMind进行知识管理,提高团队协作效率。

产品特色:

自适应分块:动态调整窗口大小和位置,平衡细粒度和粗粒度数据访问。

多文档对话问答:支持简单和多跳查询,同时跨多个文档进行查询。

文件兼容性:支持PDF和TXT文件格式。

LLM模型兼容性:支持OpenAI GPT、Anthropic Claude、Llama2和其他开源LLMs。

系统要求:需要超过35GB的GPU RAM来运行GGUF量化版本。

开源和本地LLMs支持:推荐使用llama2-70b-chat模型,支持其他LLMs的实验。

即将发布:计划发布更小、成本效益更高的微调模型。

使用教程:

1. 安装:克隆仓库并设置Python环境。

2. 创建环境:使用Conda创建虚拟环境并激活。

3. 安装依赖:安装所有必需的依赖项。

4. 设置API密钥:在configparser.ini文件中设置API密钥。

5. 上传文件:将文件放入/data目录并运行命令处理文件。

6. 运行:启动对话,等待脚本提示输入。

7. 聊天:与系统进行交互,提出问题并获取答案。

8. 日志管理:系统会自动生成IncarnaMind.log文件,可以根据需要编辑日志设置。

浏览量:19

s1785318098921236

打开站点

构建AI去赚钱
s1785341518918206
网站流量情况

最新流量情况

月访问量

5.00m

平均访问时长

00:06:52

每次访问页数

5.82

跳出率

37.31%

流量来源

直接访问

52.65%

自然搜索

32.08%

邮件

0.05%

外链引荐

12.79%

社交媒体

2.25%

展示广告

0

截止目前所有流量趋势图

地理流量分布情况

中国

13.49%

德国

3.62%

印度

9.70%

俄罗斯

3.96%

美国

18.50%

类似产品

© 2024     AIbase    备案号:闽ICP备08105208号-14

隐私政策

用户协议

意见反馈 网站地图