需求人群:
"目标受众为研究人员、分析师和任何需要深入研究特定主题并总结信息的用户。Research Rabbit适合他们,因为它可以自动化和加速研究过程,提供迭代更新的总结,并包含所有使用的源,使研究更加高效和准确。"
使用场景示例:
研究人员使用Research Rabbit来总结最新的人工智能研究论文。
市场分析师利用该工具来收集和总结行业报告。
学生使用Research Rabbit来撰写关于特定历史事件的报告。
产品特色:
使用本地LLM生成基于用户主题的搜索查询
使用搜索引擎查找相关资源
使用LLM总结与用户研究主题相关的网络搜索结果
使用LLM反思总结,识别知识缺口并生成新的搜索查询
迭代更新总结,包含来自网络搜索的新信息
可配置的研究迭代次数,以深入研究主题
输出包含研究总结和引用源的Markdown文件
使用教程:
1. 从Ollama拉取一个本地LLM。
2. 如有需要,设置Tavily API密钥以使用免费网络搜索。
3. 克隆Research Rabbit的代码库,并启动LangGraph服务器。
4. 打开LangGraph Studio Web UI,并在配置选项中设置本地LLM名称和研究迭代深度。
5. 给助手一个研究主题,开始研究过程。
6. 在LangGraph Studio中可视化研究过程和结果。
7. 查看最终的Markdown总结和引用源。
浏览量:52
最新流量情况
月访问量
4.85m
平均访问时长
00:06:25
每次访问页数
6.08
跳出率
35.86%
流量来源
直接访问
52.62%
自然搜索
32.72%
邮件
0.05%
外链引荐
12.34%
社交媒体
2.17%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
12.55%
德国
3.84%
印度
9.38%
俄罗斯
4.61%
美国
18.64%
本地网络研究和报告编写助手
Research Rabbit是一个基于人工智能的研究助手,能够自动深入用户定义的任何主题。它使用大型语言模型(LLM)根据用户的主题生成搜索查询,获取网络搜索结果,并用LLM总结结果。然后,它使用LLM反思总结,检查知识缺口,并生成新的搜索查询来填补这些缺口。这个过程会重复进行,直到用户定义的周期数,最终提供一个包含所有使用源的最终Markdown总结。该产品完全配置为与本地LLM(通过Ollama)一起运行。
通过与LLM对话构建持久知识,存于本地Markdown文件
Basic Memory是一款知识管理系统,借助与LLM的自然对话构建持久知识,并保存于本地Markdown文件。它解决了多数LLM互动短暂、知识难留存的问题。其优点包括本地优先、双向读写、结构简单、可形成知识图谱、兼容现有编辑器、基础设施轻量。定位为帮助用户打造个人知识库,采用AGPL - 3.0许可证,无明确价格信息。
自动化AI网络研究助手,利用本地大型语言模型进行深入研究。
Automated-AI-Web-Researcher-Ollama是一个创新的研究助理工具,它通过Ollama运行的本地大型语言模型来对任何给定的主题或问题进行深入的自动化在线研究。与传统的大型语言模型互动不同,这个工具通过将查询分解为专注的研究领域,系统地通过网络搜索和相关网站的抓取来调查,并将发现自动保存到一个包含所有内容和每个来源链接的文本文件中。此外,用户可以随时输入命令停止研究,然后大型语言模型会审查所有找到的内容并提供对原始主题或问题的全面总结。用户还可以询问大型语言模型关于其研究发现的问题。这个工具的主要优点是它不仅仅是一个聊天机器人,而是一个自动化的研究助理,系统地调查主题并维护有记录的研究轨迹。
高效的 Intel GPU 上的 LLM 推理解决方案
这是一种在 Intel GPU 上实现的高效的 LLM 推理解决方案。通过简化 LLM 解码器层、使用分段 KV 缓存策略和自定义的 Scaled-Dot-Product-Attention 内核,该解决方案在 Intel GPU 上相比标准的 HuggingFace 实现可实现高达 7 倍的令牌延迟降低和 27 倍的吞吐量提升。详细功能、优势、定价和定位等信息请参考官方网站。
比较各种大型语言模型(LLM)的定价信息
LLM Pricing是一个聚合并比较各种大型语言模型(LLMs)定价信息的网站,这些模型由官方AI提供商和云服务供应商提供。用户可以在这里找到最适合其项目的语言模型定价。
高效的大型语言模型(LLM)研究代码库
Meta Lingua 是一个轻量级、高效的大型语言模型(LLM)训练和推理库,专为研究而设计。它使用了易于修改的PyTorch组件,使得研究人员可以尝试新的架构、损失函数和数据集。该库旨在实现端到端的训练、推理和评估,并提供工具以更好地理解模型的速度和稳定性。尽管Meta Lingua目前仍在开发中,但已经提供了多个示例应用来展示如何使用这个代码库。
发现和运行本地LLM
LM Studio是一个易于使用的桌面应用程序,用于在本地实验和运行本地和开源的Large Language Models (LLMs)。LM Studio跨平台桌面应用程序允许您从Hugging Face下载和运行任何ggml兼容的模型,并提供了一个简单而强大的模型配置和推理界面。该应用程序在有GPU的情况下利用您的GPU。
扩展LLM上下文窗口
LLM Context Extender是一款旨在扩展大型语言模型(LLMs)上下文窗口的工具。它通过调整RoPE的基础频率和缩放注意力logits的方式,帮助LLMs有效适应更大的上下文窗口。该工具在精细调整性能和稳健性方面验证了其方法的优越性,并展示了在仅有100个样本和6个训练步骤的情况下,将LLaMA-2-7B-Chat的上下文窗口扩展到16,384的非凡效率。此外,还探讨了数据组成和训练课程如何影响特定下游任务的上下文窗口扩展,建议以长对话进行LLMs的精细调整作为良好的起点。
Bilibili 视频总结插件~
“AI课代表” 是您在B站最专业的人工智能助手 🤖 基于GPT4的“知识提问+“视频总结”+“字幕搜索” 每日刷新免费额度 解决问题,快速定位关键点,筛选视频,帮你成为人见人爱的“课代表” 无情吸赞,学霸人设,专栏大佬,最重要的是:您的声音至关重要,我们将以“3天1更”的速度持续改进!
使用简单、原始的 C/CUDA 进行 LLM 训练
karpathy/llm.c 是一个使用简单的 C/CUDA 实现 LLM 训练的项目。它旨在提供一个干净、简单的参考实现,同时也包含了更优化的版本,可以接近 PyTorch 的性能,但代码和依赖大大减少。目前正在开发直接的 CUDA 实现、使用 SIMD 指令优化 CPU 版本以及支持更多现代架构如 Llama2、Gemma 等。
一个为LLM生成Git提交信息的插件
llm-commit 是一个为 LLM(Large Language Model)设计的插件,用于生成 Git 提交信息。该插件通过分析 Git 的暂存区差异,利用 LLM 的语言生成能力,自动生成简洁且有意义的提交信息。它不仅提高了开发者的提交效率,还确保了提交信息的质量和一致性。该插件适用于任何使用 Git 和 LLM 的开发环境,免费开源,易于安装和使用。
构建LLM应用的开发平台
LLM Spark是一个开发平台,可用于构建基于LLM的应用程序。它提供多个LLM的快速测试、版本控制、可观察性、协作、多个LLM支持等功能。LLM Spark可轻松构建AI聊天机器人、虚拟助手等智能应用程序,并通过与提供商密钥集成,实现卓越性能。它还提供了GPT驱动的模板,加速了各种AI应用程序的创建,同时支持从零开始定制项目。LLM Spark还支持无缝上传数据集,以增强AI应用程序的功能。通过LLM Spark的全面日志和分析,可以比较GPT结果、迭代和部署智能AI应用程序。它还支持多个模型同时测试,保存提示版本和历史记录,轻松协作,以及基于意义而不仅仅是关键字的强大搜索功能。此外,LLM Spark还支持将外部数据集集成到LLM中,并符合GDPR合规要求,确保数据安全和隐私保护。
无限令牌,无限制,成本效益高的LLM推理API平台。
Awan LLM是一个提供无限令牌、无限制、成本效益高的LLM(大型语言模型)推理API平台,专为高级用户和开发者设计。它允许用户无限制地发送和接收令牌,直到模型的上下文限制,并且使用LLM模型时没有任何约束或审查。用户只需按月付费,而无需按令牌付费,这大大降低了成本。Awan LLM拥有自己的数据中心和GPU,因此能够提供这种服务。此外,Awan LLM不记录任何提示或生成内容,保护用户隐私。
基于ComfyUI前端开发的LLM工作流节点集合
ComfyUI LLM Party旨在基于ComfyUI前端开发一套完整的LLM工作流节点集合,使用户能够快速便捷地构建自己的LLM工作流,并轻松地将它们集成到现有的图像工作流中。
将GitHub链接转换为适合LLM的格式
GitHub to LLM Converter是一个在线工具,旨在帮助用户将GitHub上的项目、文件或文件夹链接转换成适合大型语言模型(LLM)处理的格式。这一工具对于需要处理大量代码或文档数据的开发者和研究人员来说至关重要,因为它简化了数据准备过程,使得这些数据可以被更高效地用于机器学习或自然语言处理任务。该工具由Skirano开发,提供了一个简洁的用户界面,用户只需输入GitHub链接,即可一键转换,极大地提高了工作效率。
通过本地Ollama LLM与你的Obsidian笔记聊天
Obsidian Ollama Chat是一个插件,允许用户通过本地运行的Ollama LLM模型与自己的Obsidian笔记进行交互和查询。它提供了一种新颖的笔记管理和信息检索方式,使得用户可以更加直观和便捷地获取所需信息。该插件的开发背景是索引和查询笔记内容的需要,它通过本地模型运行,保护用户隐私,并且避免了对外部服务的依赖。
一个连接大型语言模型与本地文件系统的插件,可直接从项目文件向LLM提供上下文。
Prompter IDE 是一款专为开发人员设计的工具,旨在提升开发效率。它通过将大型语言模型(LLM)与本地文件系统相结合,使开发者能够直接从项目文件中向 LLM 提供上下文信息,从而获得更精准的代码建议和解决方案。该工具的主要优点包括高效集成、灵活的上下文管理以及对多种编程语言的支持。它主要面向需要借助 AI 力量优化开发流程的专业开发者,目前尚未明确其定价策略,但从其功能来看,可能定位于中高端市场。
AI 文本摘要器 HIX Summarizer 可即时总结文章。
HIX 总结器是一个 AI 文本摘要器,能够将冗长复杂的内容转变为简短摘要,节省时间,提高效率。其主要优点在于快速、精准地总结文章、文档和 YouTube 视频,适用于快速获取信息的生产力工具。
CNKI AI 学术研究助手是基于 AI 技术的智能化学术研究助手,实现问答式增强检索和生成式知识服务。
CNKI AI 学术研究助手是同方知网结合 AI 技术推出的全新智能化服务,能够简化繁复的检索与研究流程,提供快速的问答式检索和智能创作辅助。该产品背景信息丰富,定位于提升学术研究效率。
与PDF文件对话,总结和提问
Bunni.AI是一款AI驱动的工具,可让您与PDF文件进行对话,回答问题,总结和提取关键信息。您可以上传和测试,按需购买信用点,无需定期费用。它支持所有语言,适用于各种类型的文档和任务,包括研究、理解和参考。您可以上传多个PDF文件,并将它们作为一个整体集合进行对话。
AgentSociety是一个基于LLM驱动的智能体社会模拟框架,用于大规模社会行为研究。
AgentSociety是一个由清华大学FIB实验室开发的先进框架,旨在通过LLM驱动的智能体模拟人类行为和社会互动。它利用大型语言模型(LLM)的规划、记忆和推理能力,生成逼真的行为模式,并支持基于数据集、文本和规则的环境设计。该框架在社会科学研究、城市规划和教育领域具有重要意义,能够帮助研究者更好地理解人类行为和社会动态。
一个用于LLM预训练的高效网络爬虫工具,专注于高效爬取高质量网页数据。
Crawl4LLM是一个开源的网络爬虫项目,旨在为大型语言模型(LLM)的预训练提供高效的数据爬取解决方案。它通过智能选择和爬取网页数据,帮助研究人员和开发者获取高质量的训练语料。该工具支持多种文档评分方法,能够根据配置灵活调整爬取策略,以满足不同的预训练需求。项目基于Python开发,具有良好的扩展性和易用性,适合在学术研究和工业应用中使用。
快速总结YouTube视频评论
SummifyYT是一个浏览器插件,用于总结YouTube视频的评论。它帮助用户快速简洁地浏览视频评论,适用于那些不想阅读所有评论而想要快速了解评论概况的用户。试试SummifyYT,感受不同吧!
AI驱动的语音笔记转写和总结工具
SpeakNotes是一款AI驱动的手机应用,可以通过先进的AI技术将您的语音笔记转写和总结。节省时间,保持组织,从此不再错过重要细节。支持多语言,可以创建文件夹来组织笔记,提供准确的语音转文本转写服务,并且可以将总结导出为图片。
© 2025 AIbase 备案号:闽ICP备08105208号-14