需求人群:
"该产品适合研究人员、开发者和企业用户,尤其是在信息检索和内容推荐领域。它的多模态处理能力和高精度性能使得用户能够高效地获取相关信息,提升工作效率。"
使用场景示例:
文本与图像检索:用户可以通过文本查询来检索相关图像。
视频文本匹配:在视频分析中,将文本描述与视频内容进行匹配。
视觉问答:用户可以提问与图像内容相关的问题,模型提供准确答案。
产品特色:
多模态处理:支持文本、图像、视频等多种输入形式,适用于不同任务。
统一表示空间:生成语义丰富的向量,便于不同模态之间的相似性估计和检索。
高精度重排名:对输入对(查询、文档)进行精确评分,提高检索准确性。
强大的多语言支持:支持 30 多种语言,适合国际用户。
灵活的向量维度:可根据需求调整嵌入维度,以满足不同任务需求。
易于集成:可以轻松集成到现有的检索系统中,提升系统性能。
高效的嵌入生成:基于高效的双塔架构,能够快速生成嵌入。
视频处理能力:支持视频输入,进行帧抽样,适用于视频检索任务。
使用教程:
访问产品页面并克隆代码库。
运行环境设置脚本以安装依赖项。
下载所需的模型文件。
使用提供的 API 进行嵌入生成或重排名。
根据具体任务格式化输入数据,并调用模型处理。
浏览量:43
最新流量情况
月访问量
5.04m
平均访问时长
00:06:18
每次访问页数
6.05
跳出率
36.08%
流量来源
直接访问
55.89%
自然搜索
30.76%
邮件
0.05%
外链引荐
11.21%
社交媒体
1.77%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
13.11%
德国
4.05%
印度
9.19%
俄罗斯
5.77%
美国
18.50%
先进的多模态嵌入和重排名模型,支持文本、图像和视频。
Qwen3-VL-Embedding 是一款先进的多模态嵌入模型,基于开源的 Qwen3-VL 基础模型,专为多模态信息检索和跨模态理解而设计。它能够处理多种输入形式,包括文本、图像、截图和视频,为信息检索和理解提供强大的支持。该产品的主要优点在于其高精度的重排名机制和统一的表示空间,使得检索过程更加高效,适合全球应用,支持多种语言。
多模态嵌入模型,实现文本、图像和截图的无缝检索。
Voyage AI推出的voyage-multimodal-3是一款多模态嵌入模型,它能够将文本和图像(包括PDF、幻灯片、表格等的截图)进行向量化处理,并捕捉关键视觉特征,从而提高文档检索的准确性。这一技术的进步,对于知识库中包含视觉和文本的丰富信息的RAG和语义搜索具有重要意义。voyage-multimodal-3在多模态检索任务中平均提高了19.63%的检索准确率,相较于其他模型表现出色。
多语言多模态嵌入模型,用于文本和图像检索。
jina-clip-v2是由Jina AI开发的多语言多模态嵌入模型,支持89种语言的图像检索,能够处理512x512分辨率的图像,提供从64到1024不同维度的输出,以适应不同的存储和处理需求。该模型结合了强大的文本编码器Jina-XLM-RoBERTa和视觉编码器EVA02-L14,通过联合训练创建了对齐的图像和文本表示。jina-clip-v2在多模态搜索和检索方面提供了更准确、更易用的能力,特别是在打破语言障碍、提供跨模态理解和检索方面表现出色。
多模态信息检索与重排序模型,支持文本、图像、视频等输入。
Qwen3-VL-Reranker-8B 是通义千问家族中的最新多模态重排序模型,基于强大的 Qwen3-VL 基础模型,旨在提升多模态信息检索的准确性与效率。该模型能够处理多种输入形式,包括文本、图像、截图和视频,适用于全球化应用场景,支持 30 多种语言,具备高效的初步召回和精细化重排序能力,显著提升了检索效果。
字节跳动自研大模型,提供多模态能力
豆包大模型是字节跳动推出的自研大模型,通过内部50+业务场景实践验证,每日万亿级tokens大使用量持续打磨,提供多模态能力,以优质模型效果为企业打造丰富的业务体验。产品家族包括多种模型,如通用模型、视频生成、文生图、图生图、同声传译等,满足不同业务需求。
多语言嵌入模型,用于视觉文档检索。
vdr-2b-multi-v1 是一款由 Hugging Face 推出的多语言嵌入模型,专为视觉文档检索设计。该模型能够将文档页面截图编码为密集的单向量表示,无需 OCR 或数据提取流程即可搜索和查询多语言视觉丰富的文档。基于 MrLight/dse-qwen2-2b-mrl-v1 开发,使用自建的多语言查询 - 图像对数据集进行训练,是 mcdse-2b-v1 的升级版,性能更强大。模型支持意大利语、西班牙语、英语、法语和德语,拥有 50 万高质量样本的开源多语言合成训练数据集,具有低 VRAM 和快速推理的特点,在跨语言检索方面表现出色。
一个用于信息检索和生成的灵活高性能框架
FlexRAG是一个用于检索增强生成(RAG)任务的灵活且高性能的框架。它支持多模态数据、无缝配置管理和开箱即用的性能,适用于研究和原型开发。该框架使用Python编写,具有轻量级和高性能的特点,能够显著提高RAG工作流的速度和减少延迟。其主要优点包括支持多种数据类型、统一的配置管理以及易于集成和扩展。
多语言晚交互检索模型,支持嵌入和重排
Jina ColBERT v2是一个先进的晚交互检索模型,基于ColBERT架构构建,支持89种语言,并提供优越的检索性能、用户可控的输出维度和长达8192个token的文本处理能力。它在信息检索领域具有革命性的意义,通过晚交互评分近似于交叉编码器中的联合查询-文档注意力,同时保持了接近传统密集检索模型的推理效率。
基于视觉语言模型的检索增强型生成模型
VisRAG是一个创新的视觉语言模型(VLM)基础的RAG(Retrieval-Augmented Generation)流程。与传统的基于文本的RAG不同,VisRAG直接将文档作为图像通过VLM进行嵌入,然后检索以增强VLM的生成能力。这种方法最大限度地保留了原始文档中的数据信息,并消除了解析过程中引入的信息损失。VisRAG模型在多模态文档上的应用,展示了其在信息检索和增强文本生成方面的强大潜力。
多模态语言模型
SpeechGPT是一种多模态语言模型,具有内在的跨模态对话能力。它能够感知并生成多模态内容,遵循多模态人类指令。SpeechGPT-Gen是一种扩展了信息链的语音生成模型。SpeechAgents是一种具有多模态多代理系统的人类沟通模拟。SpeechTokenizer是一种统一的语音标记器,适用于语音语言模型。这些模型和数据集的发布日期和相关信息均可在官方网站上找到。
基于大规模数据的高质量信息抽取模型
雅意信息抽取大模型(YAYI-UIE)由中科闻歌算法团队研发,是一款在百万级人工构造的高质量信息抽取数据上进行指令微调的模型。它能够统一训练信息抽取任务,包括命名实体识别(NER)、关系抽取(RE)和事件抽取(EE),覆盖了通用、安全、金融、生物、医疗、商业等多个场景的结构化抽取。该模型的开源旨在促进中文预训练大模型开源社区的发展,并通过开源共建雅意大模型生态。
多模态语言模型预测网络
Honeybee是一个适用于多模态语言模型的局部性增强预测器。它能够提高多模态语言模型在不同下游任务上的性能,如自然语言推理、视觉问答等。Honeybee的优势在于引入了局部性感知机制,可以更好地建模输入样本之间的依赖关系,从而增强多模态语言模型的推理和问答能力。
Gemini Embedding 是一种先进的文本嵌入模型,通过 Gemini API 提供强大的语言理解能力。
Gemini Embedding 是 Google 推出的一种实验性文本嵌入模型,通过 Gemini API 提供服务。该模型在多语言文本嵌入基准测试(MTEB)中表现卓越,超越了之前的顶尖模型。它能够将文本转换为高维数值向量,捕捉语义和上下文信息,广泛应用于检索、分类、相似性检测等场景。Gemini Embedding 支持超过 100 种语言,具备 8K 输入标记长度和 3K 输出维度,同时引入了嵌套表示学习(MRL)技术,可灵活调整维度以满足存储需求。该模型目前处于实验阶段,未来将推出稳定版本。
情商智商俱佳的多模态大模型
西湖大模型是心辰智能云推出的一款具有高情商和智商的多模态大模型,它能够处理包括文本、图像、声音等多种数据类型,为用户提供智能对话、写作、绘画、语音等AI服务。该模型通过先进的人工智能算法,能够理解和生成自然语言,适用于多种场景,如心理咨询、内容创作、客户服务等,具有高度的定制性和灵活性。西湖大模型的推出,标志着心辰智能云在AI领域的技术实力和创新能力,为用户提供了更加丰富和高效的智能服务体验。
多模态重排序模型,支持文本、图像、视频等输入。
Qwen3-VL-Reranker-2B 是通义千问(Qwen)家族中的最新多模态重排序模型,旨在提升多模态信息检索的准确性与效率。它结合了文本、图像、截图和视频等多种输入形式,在多个检索任务中表现优异,适合全球化应用。
前沿的多模态大型语言模型
NVLM-D-72B是NVIDIA推出的一款多模态大型语言模型,专注于视觉-语言任务,并且通过多模态训练提升了文本性能。该模型在视觉-语言基准测试中取得了与业界领先模型相媲美的成绩。
消除幻觉,多模态RAG不忘信息,智能编排前沿模型,任务表现卓越
Sup AI是一款AI平台,具备实时对数概率置信度评分消除幻觉、多模态检索增强生成(RAG)避免遗忘、智能编排前沿模型等功能。其主要优点在于能在各种任务中展现绝对优势,适用于全球用户。产品于2025年创立,总部位于美国加利福尼亚州山景城。提供多种价格方案,包括免费计划供学生和普通用户使用,Plus计划面向开发者,Pro计划针对高级用户,Super计划适用于研究人员和团队。
多模态语音大型语言模型
fixie-ai/ultravox-v0_4_1-llama-3_1-8b是一个基于预训练的Llama3.1-8B-Instruct和whisper-large-v3-turbo的大型语言模型,能够处理语音和文本输入,生成文本输出。该模型通过特殊的<|audio|>伪标记将输入音频转换为嵌入,并生成输出文本。未来版本计划扩展标记词汇以支持生成语义和声学音频标记,进而可以用于声码器产生语音输出。该模型在翻译评估中表现出色,且没有偏好调整,适用于语音代理、语音到语音翻译、语音分析等场景。
多模态视觉语言模型
MouSi是一种多模态视觉语言模型,旨在解决当前大型视觉语言模型(VLMs)面临的挑战。它采用集成专家技术,将个体视觉编码器的能力进行协同,包括图像文本匹配、OCR、图像分割等。该模型引入融合网络来统一处理来自不同视觉专家的输出,并在图像编码器和预训练LLMs之间弥合差距。此外,MouSi还探索了不同的位置编码方案,以有效解决位置编码浪费和长度限制的问题。实验结果表明,具有多个专家的VLMs表现出比孤立的视觉编码器更出色的性能,并随着整合更多专家而获得显著的性能提升。
多模态原生混合专家模型
Aria是一个多模态原生混合专家模型,具有强大的多模态、语言和编码任务性能。它在视频和文档理解方面表现出色,支持长达64K的多模态输入,能够在10秒内描述一个256帧的视频。Aria模型的参数量为25.3B,能够在单个A100(80GB)GPU上使用bfloat16精度进行加载。Aria的开发背景是满足对多模态数据理解的需求,特别是在视频和文档处理方面。它是一个开源模型,旨在推动多模态人工智能的发展。
CLaMP 3 是一个用于跨模态和跨语言音乐信息检索的统一框架。
CLaMP 3 是一种先进的音乐信息检索模型,通过对比学习对齐乐谱、演奏信号、音频录音与多语言文本的特征,支持跨模态和跨语言的音乐检索。它能够处理未对齐的模态和未见的语言,展现出强大的泛化能力。该模型基于大规模数据集 M4-RAG 训练,涵盖全球多种音乐传统,支持多种音乐检索任务,如文本到音乐、图像到音乐等。
一款支持多模态功能的全功能大语言模型安卓应用。
MNN 大模型 Android App 是阿里巴巴开发的一款基于大语言模型(LLM)的安卓应用。它支持多种模态输入和输出,包括文本生成、图像识别、音频转录等。该应用通过优化推理性能,确保在移动设备上高效运行,同时保护用户数据隐私,所有处理均在本地完成。它支持多种领先的模型提供商,如 Qwen、Gemma、Llama 等,适用于多种场景。
多模态大语言模型,提升多模态推理能力
InternVL2-8B-MPO是一个多模态大语言模型(MLLM),通过引入混合偏好优化(MPO)过程,增强了模型的多模态推理能力。该模型在数据方面设计了自动化的偏好数据构建管线,并构建了MMPR这一大规模多模态推理偏好数据集。在模型方面,InternVL2-8B-MPO基于InternVL2-8B初始化,并使用MMPR数据集进行微调,展现出更强的多模态推理能力,且幻觉现象更少。该模型在MathVista上取得了67.0%的准确率,超越InternVL2-8B 8.7个点,且表现接近于大10倍的InternVL2-76B。
前沿级多模态大型语言模型
NVLM 1.0是NVIDIA ADLR推出的前沿级多模态大型语言模型系列,它在视觉-语言任务上达到了业界领先水平,与顶级专有模型和开放访问模型相媲美。该模型在多模态训练后,甚至在纯文本任务上的准确性上也有所提高。NVLM 1.0的开源模型权重和Megatron-Core训练代码为社区提供了宝贵的资源。
多模态AI模型,图像理解与生成兼备
Mini-Gemini是由香港中文大学终身教授贾佳亚团队开发的多模态模型,具备精准的图像理解能力和高质量的训练数据。该模型结合图像推理和生成,提供不同规模的版本,性能与GPT-4和DALLE3相媲美。Mini-Gemini采用Gemini的视觉双分支信息挖掘方法和SDXL技术,通过卷积网络编码图像并利用Attention机制挖掘信息,同时结合LLM生成文本链接两个模型。
用于多模态上下文中的检索增强生成的基准测试代码库。
M2RAG是一个用于多模态上下文中的检索增强生成的基准测试代码库。它通过多模态检索文档来回答问题,评估多模态大语言模型(MLLMs)在利用多模态上下文知识方面的能力。该模型在图像描述、多模态问答、事实验证和图像重排等任务上进行了评估,旨在提升模型在多模态上下文学习中的有效性。M2RAG为研究人员提供了一个标准化的测试平台,有助于推动多模态语言模型的发展。
开源的先进文本嵌入模型
Snowflake Arctic Embed是一系列基于Apache 2.0许可开源的文本嵌入模型,专为检索用例设计。这些模型在Massive Text Embedding Benchmark (MTEB)检索基准测试中提供了领先的检索性能,为组织在结合专有数据集与大型语言模型(LLMs)进行检索增强生成(RAG)或语义搜索服务时提供了新的优势。这些模型的尺寸从超小型(xs)到大型(l),具有不同的上下文窗口和参数数量,以满足不同企业的延迟、成本和检索性能需求。
© 2026 AIbase 备案号:闽ICP备08105208号-14