需求人群:
"目标受众为数据科学家、开发者和任何需要从大量非结构化数据中提取信息并构建知识图谱的专业人士。该产品适合他们,因为它简化了从复杂数据源中提取有用信息的过程,提高了效率并促进了知识的可视化和分析。"
使用场景示例:
从学术论文中提取关键概念并构建领域知识图谱。
分析社交媒体数据,识别趋势和影响力人物。
整合企业内部文档,构建内部知识管理系统。
产品特色:
知识图谱创建:使用LLMs将非结构化数据转换为结构化知识图谱。
提供模式:自定义模式或使用设置中的现有模式生成图。
查看图谱:在Bloom中查看特定来源或多个来源的图谱。
与数据对话:通过对话式查询与Neo4j数据库中的数据进行交互,也可以检索有关查询响应来源的元数据。
本地部署:通过docker-compose运行,支持OpenAI和Diffbot。
云部署:支持在Google Cloud Platform上部署应用程序和包。
环境配置:根据需要配置环境变量以启用特定功能或集成。
使用教程:
1. 确保拥有Neo4j数据库V5.15或更高版本,并安装APOC。
2. 创建并配置.env文件,输入必要的API密钥。
3. 选择文件来源,例如本地文件、YouTube视频或网页。
4. 上传文件到系统,选择LLM模型进行知识图谱生成。
5. 在Bloom中查看和分析生成的知识图谱。
6. 通过聊天机器人与数据库进行交互,提出问题并获取答案。
7. 根据需要调整环境变量和配置,以适应不同的部署环境。
浏览量:504
最新流量情况
月访问量
4.92m
平均访问时长
00:06:33
每次访问页数
6.11
跳出率
36.20%
流量来源
直接访问
51.61%
自然搜索
33.46%
邮件
0.04%
外链引荐
12.58%
社交媒体
2.19%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
13.25%
德国
3.63%
印度
9.32%
俄罗斯
4.28%
美国
19.34%
利用大型语言模型增量构建知识图谱
iText2KG是一个Python包,旨在利用大型语言模型从文本文档中提取实体和关系,增量构建一致的知识图谱。它具备零样本能力,允许在没有特定训练的情况下跨不同领域进行知识提取。该包包括文档蒸馏、实体提取和关系提取模块,确保实体和关系得到解决和唯一性。它通过Neo4j提供知识图谱的可视化表示,支持交互式探索和分析结构化数据。
构建知识图谱的Neo4j应用
llm-graph-builder是一个利用大型语言模型(如OpenAI、Gemini等)从非结构化数据(PDF、DOCS、TXT、YouTube视频、网页等)中提取节点、关系及其属性,并使用Langchain框架创建结构化知识图谱的应用程序。它支持从本地机器、GCS或S3存储桶或网络资源上传文件,选择LLM模型并生成知识图谱。
Seed-Coder 是一个开源的 8B 代码大型语言模型系列。
Seed-Coder 是字节跳动 Seed 团队推出的开源代码大型语言模型系列,包含基础、指令和推理模型,旨在通过最小的人力投入,自主管理代码训练数据,从而显著提升编程能力。该模型在同类开源模型中表现优越,适合于各种编码任务,定位于推动开源 LLM 生态的发展,适用于研究和工业界。
一种无需搜索即可激励 LLM 搜索能力的框架。
ZeroSearch 是一种新颖的强化学习框架,旨在激励大型语言模型(LLMs)的搜索能力,而无需与实际搜索引擎进行交互。通过监督微调,ZeroSearch 转变 LLM 为能够生成相关和无关文档的检索模块,并引入课程推出机制来逐步激发模型的推理能力。该技术的主要优点在于其性能优于基于真实搜索引擎的模型,同时产生的 API 成本为零。它适用于各种规模的 LLM,并支持不同的强化学习算法,适合需要高效检索能力的研究和开发团队。
用于生成和推荐笔记的可检索大型语言模型。
NoteLLM 是一款专注于用户生成内容的可检索大型语言模型,旨在提升推荐系统的性能。通过将主题生成与嵌入生成相结合,NoteLLM 提高了对笔记内容的理解与处理能力。该模型采用了端到端的微调策略,适用于多模态输入,增强了在多样化内容领域的应用潜力。其重要性在于能够有效提升笔记推荐的准确性和用户体验,特别适用于小红书等 UGC 平台。
将课程大纲转化为交互式知识图谱,提高学习效率,帮助准备考试。
SophistAI是一个AI驱动的学习助手,将混乱的学习材料转化为结构化的交互式知识图谱,帮助用户更高效地学习和备考。它提供了智能进度追踪、深度挖掘子主题、自动完成进度等功能。
基于大模型 RAG 知识库的知识图谱问答系统,支持多种大模型适配和本地部署。
语析Yuxi-Know 是一个基于大模型 RAG 知识库的知识图谱问答系统,采用 Llamaindex + VueJS + Flask + Neo4j 构建。它支持 OpenAI、国内主流大模型平台的模型调用以及本地 vllm 部署,能够实现知识库问答、知识图谱检索和联网检索等功能。该系统的主要优点是灵活适配多种模型、支持多种知识库格式以及强大的知识图谱集成能力。它适用于需要高效知识管理和智能问答的企业和研究机构,具有较高的技术先进性和实用性。
AI Mode 是谷歌搜索中的一项实验性生成式 AI 功能,可帮助用户解决复杂问题。
AI Mode 是谷歌搜索中的一项实验性功能,基于 Gemini 2.0 模型开发。它通过高级推理和多模态能力,为用户提供更深入、更全面的搜索结果。该功能旨在帮助用户更高效地处理复杂的多部分问题,并通过实时数据和知识图谱提供高质量的响应。AI Mode 的推出体现了谷歌在提升搜索体验方面的持续创新,同时也展示了生成式 AI 在信息检索中的应用潜力。
通过强化学习提升大型语言模型在开源软件演变中的推理能力
SWE-RL 是由 Facebook Research 提出的一种基于强化学习的大型语言模型推理技术,旨在利用开源软件演变数据提升模型在软件工程任务中的表现。该技术通过规则驱动的奖励机制,优化模型的推理能力,使其能够更好地理解和生成高质量的代码。SWE-RL 的主要优点在于其创新性的强化学习方法和对开源数据的有效利用,为软件工程领域带来了新的可能性。该技术目前处于研究阶段,尚未明确商业化定价,但其在提升开发效率和代码质量方面具有显著潜力。
Graphiti 是一个用于构建和查询动态时序知识图谱的工具,支持多种数据源和复杂关系的演变。
Graphiti 是一个专注于构建动态时序知识图谱的技术模型,旨在处理不断变化的信息和复杂的关系演变。它通过结合语义搜索和图算法,支持从非结构化文本和结构化 JSON 数据中提取知识,并能够进行时间点查询。Graphiti 是 Zep 内存层的核心技术,支持长期记忆和基于状态的推理,适用于需要动态数据处理和复杂任务自动化的应用场景,如销售、客户服务、健康、金融等领域。
探索大型语言模型作为编程辅导工具的潜力,提出Trace-and-Verify工作流。
Coding-Tutor是一个基于大型语言模型(LLM)的编程辅导工具,旨在通过对话式交互帮助学习者提升编程能力。它通过Trace-and-Verify(Traver)工作流,结合知识追踪和逐轮验证,解决编程辅导中的关键挑战。该工具不仅适用于编程教育,还可扩展到其他任务辅导场景,帮助根据学习者的知识水平调整教学内容。项目开源,支持社区贡献。
从任何文本中提取知识图谱的人工智能工具。
kg-gen 是一个基于人工智能的工具,能够从普通文本中提取知识图谱。它支持处理小到单句话、大到长篇文档的文本输入,并且可以处理对话格式的消息。该工具利用先进的语言模型和结构化输出技术,能够帮助用户快速构建知识图谱,适用于自然语言处理、知识管理以及模型训练等领域。kg-gen 提供了灵活的接口和多种功能,旨在简化知识图谱的生成过程,提高效率。
KET-RAG 是一个结合知识图谱的检索增强型生成框架,用于高效文档索引和答案生成。
KET-RAG(Knowledge-Enhanced Text Retrieval Augmented Generation)是一个强大的检索增强型生成框架,结合了知识图谱技术。它通过多粒度索引框架(如知识图谱骨架和文本-关键词二分图)实现高效的知识检索和生成。该框架在降低索引成本的同时,显著提升了检索和生成质量,适用于大规模 RAG 应用场景。KET-RAG 基于 Python 开发,支持灵活的配置和扩展,适用于需要高效知识检索和生成的开发人员和研究人员。
Goedel-Prover 是一款开源的自动化定理证明模型,专注于数学问题的形式化证明。
Goedel-Prover 是一款专注于自动化定理证明的开源大型语言模型。它通过将自然语言数学问题翻译为形式化语言(如 Lean 4),并生成形式化证明,显著提升了数学问题的自动化证明效率。该模型在 miniF2F 基准测试中达到了 57.6% 的成功率,超越了其他开源模型。其主要优点包括高性能、开源可扩展性以及对数学问题的深度理解能力。Goedel-Prover 旨在推动自动化定理证明技术的发展,并为数学研究和教育提供强大的工具支持。
OmniParser 是一款通用屏幕解析工具,可将 UI 截图转换为结构化格式,提升基于 LLM 的 UI 代理性能。
OmniParser 是微软开发的一种先进的图像解析技术,旨在将不规则的屏幕截图转换为结构化的元素列表,包括可交互区域的位置和图标的功能描述。它通过深度学习模型,如 YOLOv8 和 Florence-2,实现了对 UI 界面的高效解析。该技术的主要优点在于其高效性、准确性和广泛的适用性。OmniParser 可以显著提高基于大型语言模型(LLM)的 UI 代理的性能,使其能够更好地理解和操作各种用户界面。它在多种应用场景中表现出色,如自动化测试、智能助手开发等。OmniParser 的开源特性和灵活的许可证使其成为开发者和研究人员的有力工具。
VideoRAG 是一个用于处理极长上下文视频的检索增强型生成框架。
VideoRAG 是一种创新的检索增强型生成框架,专门用于理解和处理极长上下文视频。它通过结合图驱动的文本知识锚定和层次化多模态上下文编码,实现了对无限制长度视频的理解。该框架能够动态构建知识图谱,保持多视频上下文的语义连贯性,并通过自适应多模态融合机制优化检索效率。VideoRAG 的主要优点包括高效的极长上下文视频处理能力、结构化的视频知识索引以及多模态检索能力,使其能够为复杂查询提供全面的回答。该框架在长视频理解领域具有重要的技术价值和应用前景。
Data Commons 是一个由 Google 发起的公共数据整合与分析平台,致力于简化全球公共数据的探索过程。
Data Commons 是一个强大的公共数据平台,旨在通过整合全球公共数据,提供统一的知识图谱,帮助用户轻松探索和分析数据。它由 Google 发起,支持多种数据源的整合,并提供丰富的可视化工具和 API 接口,方便用户进行数据探索和研究。Data Commons 的主要优点是数据的标准化和统一化,用户可以通过其强大的工具快速获取和分析数据,无需复杂的预处理。此外,它还支持社区贡献,用户可以分享自己的分析和见解,共同推动数据科学的发展。Data Commons 适用于研究人员、数据分析师、政策制定者以及任何需要公共数据支持决策的群体,其免费的访问模式降低了数据使用的门槛,促进了数据的广泛传播和应用。
Mistral Small 24B 是一款多语言、高性能的指令微调型大型语言模型,适用于多种应用场景。
Mistral Small 24B 是一款由 Mistral AI 团队开发的大型语言模型,拥有 240 亿参数,支持多语言对话和指令处理。该模型通过指令微调,能够生成高质量的文本内容,适用于聊天、写作、编程辅助等多种场景。其主要优点包括强大的语言生成能力、多语言支持以及高效推理能力。该模型适合需要高性能语言处理的个人和企业用户,具有开源许可,支持本地部署和量化优化,适合对数据隐私有要求的场景。
DeepSeek-R1-Distill-Llama-70B 是一款基于强化学习优化的大型语言模型,专注于推理和对话能力。
DeepSeek-R1-Distill-Llama-70B 是由 DeepSeek 团队开发的一款大型语言模型,基于 Llama-70B 架构并通过强化学习进行优化。该模型在推理、对话和多语言任务中表现出色,支持多种应用场景,包括代码生成、数学推理和自然语言处理。其主要优点是高效的推理能力和对复杂问题的解决能力,同时支持开源和商业使用。该模型适用于需要高性能语言生成和推理能力的企业和研究机构。
这是一个先进的多模态大型语言模型系列,展示了卓越的整体性能。
InternVL2.5-MPO是一个基于InternVL2.5和混合偏好优化(MPO)的多模态大型语言模型系列。它在多模态任务中表现出色,通过整合新近增量预训练的InternViT与多种预训练的大型语言模型(LLMs),如InternLM 2.5和Qwen 2.5,使用随机初始化的MLP投影器。该模型系列在多模态推理偏好数据集MMPR上进行了训练,包含约300万个样本,通过有效的数据构建流程和混合偏好优化技术,提升了模型的推理能力和回答质量。
一个实时适应未见任务的自适应大型语言模型框架。
SakanaAI/self-adaptive-llms是一个名为Transformer²的自适应框架,旨在解决传统微调方法计算密集且处理多样化任务能力静态的挑战。该框架能够在推理过程中通过两步机制实时调整大型语言模型(LLMs)以适应未见任务:首先,调度系统识别任务属性;然后,使用强化学习训练的任务特定'专家'向量被动态混合,以获得针对输入提示的目标行为。主要优点包括实时任务适应性、计算效率和灵活性。该项目由SakanaAI团队开发,目前在GitHub上开源,拥有195颗星和12次分叉。
InternLM3-8B-Instruct是一个开源的80亿参数指令模型,用于通用用途和高级推理。
InternLM3-8B-Instruct是InternLM团队开发的大型语言模型,具有卓越的推理能力和知识密集型任务处理能力。该模型在仅使用4万亿高质量词元进行训练的情况下,实现了比同级别模型低75%以上的训练成本,同时在多个基准测试中超越了Llama3.1-8B和Qwen2.5-7B等模型。它支持深度思考模式,能够通过长思维链解决复杂的推理任务,同时也具备流畅的用户交互能力。该模型基于Apache-2.0许可证开源,适用于需要高效推理和知识处理的各种应用场景。
MinMo是一款多模态大型语言模型,用于无缝语音交互。
MinMo是阿里巴巴集团通义实验室开发的一款多模态大型语言模型,拥有约80亿参数,专注于实现无缝语音交互。它通过多个阶段的训练,包括语音到文本对齐、文本到语音对齐、语音到语音对齐和全双工交互对齐,在140万小时的多样化语音数据和广泛的语音任务上进行训练。MinMo在语音理解和生成的各种基准测试中达到了最先进的性能,同时保持了文本大型语言模型的能力,并支持全双工对话,即用户和系统之间的同时双向通信。此外,MinMo还提出了一种新颖且简单的语音解码器,在语音生成方面超越了以往的模型。MinMo的指令遵循能力得到了增强,支持根据用户指令控制语音生成,包括情感、方言和语速等细节,并模仿特定的声音。MinMo的语音到文本延迟约为100毫秒,全双工延迟理论上约为600毫秒,实际约为800毫秒。MinMo的开发旨在克服以往对齐多模态模型的主要限制,为用户提供更自然、流畅和人性化的语音交互体验。
基于Qwen2.5-Coder系列的大型语言模型,专注于代理应用。
Dria-Agent-a-3B是一个基于Qwen2.5-Coder系列的大型语言模型,专注于代理应用。它采用Pythonic函数调用方式,具有单次并行多函数调用、自由形式推理和动作以及即时复杂解决方案生成等优势。该模型在多个基准测试中表现出色,如Berkeley Function Calling Leaderboard (BFCL)、MMLU-Pro和Dria-Pythonic-Agent-Benchmark (DPAB)。模型大小为3.09B参数,支持BF16张量类型。
一个基于Qwen2.5-Coder系列训练的大型语言模型,专注于代理应用。
Dria-Agent-a-7B是一个基于Qwen2.5-Coder系列训练的大型语言模型,专注于代理应用。它采用Pythonic函数调用方式,与传统JSON函数调用方法相比,具有单次并行多函数调用、自由形式推理和动作以及即时复杂解决方案生成等优势。该模型在多个基准测试中表现出色,包括Berkeley Function Calling Leaderboard (BFCL)、MMLU-Pro和Dria-Pythonic-Agent-Benchmark (DPAB)。模型大小为76.2亿参数,采用BF16张量类型,支持文本生成任务。其主要优点包括强大的编程辅助能力、高效的函数调用方式以及在特定领域的高准确率。该模型适用于需要复杂逻辑处理和多步骤任务执行的应用场景,如自动化编程、智能代理等。目前,该模型在Hugging Face平台上提供,供用户免费使用。
Dria-Agent-α是基于Python的大型语言模型工具交互框架。
Dria-Agent-α是Hugging Face推出的大型语言模型(LLM)工具交互框架。它通过Python代码来调用工具,与传统的JSON模式相比,能更充分地发挥LLM的推理能力,使模型能够以更接近人类自然语言的方式进行复杂问题的解决。该框架利用Python的流行性和接近伪代码的语法,使LLM在代理场景中表现更佳。Dria-Agent-α的开发使用了合成数据生成工具Dria,通过多阶段管道生成逼真的场景,训练模型进行复杂问题解决。目前已有Dria-Agent-α-3B和Dria-Agent-α-7B两个模型在Hugging Face上发布。
基于特定模型的量化大型语言模型,适用于自然语言处理等任务。
该模型是量化版大型语言模型,采用4位量化技术,降低存储与计算需求,适用于自然语言处理,参数量8.03B,免费且可用于非商业用途,适合资源受限环境下高性能语言应用需求者。
InternVL2.5-MPO系列模型,基于InternVL2.5和混合偏好优化,展现卓越性能。
InternVL2.5-MPO是一个先进的多模态大型语言模型系列,基于InternVL2.5和混合偏好优化(MPO)构建。该系列模型在多模态任务中表现出色,能够处理图像、文本和视频数据,并生成高质量的文本响应。模型采用'ViT-MLP-LLM'范式,通过像素unshuffle操作和动态分辨率策略优化视觉处理能力。此外,模型还引入了多图像和视频数据的支持,进一步扩展了其应用场景。InternVL2.5-MPO在多模态能力评估中超越了多个基准模型,证明了其在多模态领域的领先地位。
© 2025 AIbase 备案号:闽ICP备08105208号-14