需求人群:
"目标受众主要是研究人员和开发者,特别是那些在图像和视频处理、多模态学习、自然语言处理领域寻求创新解决方案的专业人士。LongVA模型适合他们因为它提供了一种强大的工具来探索和实现复杂的视觉和语言任务。"
使用场景示例:
研究人员使用LongVA模型进行视频内容的自动描述生成。
开发者利用LongVA进行图像和视频的多模态聊天应用开发。
教育机构采用LongVA模型进行视觉和语言教学的辅助工具开发。
产品特色:
处理长视频和大量视觉标记,实现语言到视觉的零样本转换。
在视频多模态评估(Video-MME)中取得优异表现。
支持CLI(命令行界面)和基于gradio UI的多模态聊天演示。
提供Hugging Face平台的快速启动代码示例。
支持自定义生成参数,如采样、温度、top_p等。
提供V-NIAH和LMMs-Eval的评估脚本,用于模型性能测试。
支持长文本训练,可在多GPU环境下进行高效训练。
使用教程:
1. 安装必要的依赖项,包括CUDA 11.8和PyTorch 2.1.2。
2. 通过pip安装LongVA模型及其依赖。
3. 下载并加载预训练的LongVA模型。
4. 准备输入数据,可以是图像或视频文件。
5. 使用CLI或gradio UI进行模型的交互和测试。
6. 根据需要调整生成参数,以获得最佳结果。
7. 运行评估脚本,测试模型在不同任务上的性能。
浏览量:45
最新流量情况
月访问量
4.75m
平均访问时长
00:06:34
每次访问页数
6.10
跳出率
36.20%
流量来源
直接访问
52.19%
自然搜索
32.64%
邮件
0.04%
外链引荐
12.93%
社交媒体
2.02%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
14.32%
德国
3.68%
印度
9.04%
俄罗斯
3.92%
美国
19.25%
从语言到视觉的长上下文转换模型
LongVA是一个能够处理超过2000帧或超过200K视觉标记的长上下文转换模型。它在Video-MME中的表现在7B模型中处于领先地位。该模型基于CUDA 11.8和A100-SXM-80G进行了测试,并且可以通过Hugging Face平台进行快速启动和使用。
基于llama3 8B的SOTA视觉模型
llama3v是一个基于Llama3 8B和siglip-so400m的SOTA(State of the Art,即最先进技术)视觉模型。它是一个开源的VLLM(视觉语言多模态学习模型),在Huggingface上提供模型权重,支持快速本地推理,并发布了推理代码。该模型结合了图像识别和文本生成,通过添加投影层将图像特征映射到LLaMA嵌入空间,以提高模型对图像的理解能力。
Aya Vision 是 Cohere 推出的多语言多模态视觉模型,旨在提升多语言场景下的视觉和文本理解能力。
Aya Vision 是 Cohere For AI 团队开发的先进视觉模型,专注于多语言多模态任务,支持 23 种语言。该模型通过创新的算法突破,如合成标注、多语言数据扩展和多模态模型融合,显著提升了视觉和文本任务的性能。其主要优点包括高效性(在计算资源有限的情况下仍能表现出色)和广泛的多语言支持。Aya Vision 的发布旨在推动多语言多模态研究的前沿发展,并为全球研究社区提供技术支持。
高性能的双向编码器Transformer模型
ModernBERT-large是一个现代化的双向编码器Transformer模型(BERT风格),在2万亿个英文和代码数据上预训练,具有长达8192个token的原生上下文长度。该模型采用了最新的架构改进,如旋转位置嵌入(RoPE)以支持长上下文,局部-全局交替注意力以提高长输入的效率,以及无填充和Flash Attention以提高推理效率。ModernBERT-long适合处理需要处理长文档的任务,如检索、分类和大型语料库中的语义搜索。模型训练数据主要是英文和代码,因此可能在其他语言上的表现会较低。
利用复合AI技术,将文档内联处理,跨越模态差距。
Document Inlining是Fireworks AI推出的一款复合AI系统,它能够将任何大型语言模型(LLM)转化为视觉模型,以处理图像或PDF文档。这项技术通过构建自动化流程,将任何数字资产格式转换为LLM兼容的格式,实现逻辑推理。Document Inlining通过解析图像和PDFs,直接将它们输入到用户选择的LLM中,提供更高的质量、输入灵活性和超简单的使用方式。它解决了传统LLM在处理非文本数据时的局限性,通过专业化的组件分解任务,提高了文本模型推理的质量,并且简化了开发者的使用体验。
先进的大型混合专家视觉语言模型
DeepSeek-VL2是一系列先进的大型混合专家(MoE)视觉语言模型,相较于前代DeepSeek-VL有显著提升。该模型系列在视觉问答、光学字符识别、文档/表格/图表理解以及视觉定位等多种任务上展现出卓越的能力。DeepSeek-VL2由三种变体组成:DeepSeek-VL2-Tiny、DeepSeek-VL2-Small和DeepSeek-VL2,分别拥有10亿、28亿和45亿激活参数。DeepSeek-VL2在激活参数相似或更少的情况下,与现有的开源密集型和基于MoE的模型相比,达到了竞争性或最先进的性能。
MMAudio根据视频和/或文本输入生成同步音频。
MMAudio是一种多模态联合训练技术,旨在高质量的视频到音频合成。该技术能够根据视频和文本输入生成同步音频,适用于各种应用场景,如影视制作、游戏开发等。其重要性在于提升了音频生成的效率和质量,适合需要音频合成的创作者和开发者使用。
基于InternViT-300M-448px的增强版本,提升视觉特征提取能力。
InternViT-300M-448px-V2_5是一个基于InternViT-300M-448px的增强版本,通过采用ViT增量学习与NTP损失(Stage 1.5),提升了视觉编码器提取视觉特征的能力,尤其是在大规模网络数据集中代表性不足的领域,如多语言OCR数据和数学图表等。该模型是InternViT 2.5系列的一部分,保留了与前代相同的“ViT-MLP-LLM”模型架构,并集成了新的增量预训练的InternViT与各种预训练的LLMs,如InternLM 2.5和Qwen 2.5,使用随机初始化的MLP投影器。
基于InternViT-6B-448px-V1-5的增强版视觉模型
InternViT-6B-448px-V2_5是一个基于InternViT-6B-448px-V1-5的视觉模型,通过使用ViT增量学习与NTP损失(阶段1.5),提升了视觉编码器提取视觉特征的能力,尤其是在大规模网络数据集中代表性不足的领域,如多语言OCR数据和数学图表等。该模型是InternVL 2.5系列的一部分,保留了与前代相同的“ViT-MLP-LLM”模型架构,并集成了新增量预训练的InternViT与各种预训练的LLMs,包括InternLM 2.5和Qwen 2.5,使用随机初始化的MLP投影器。
视觉语言模型增强工具,结合生成式视觉编码器和深度广度融合技术。
Florence-VL是一个视觉语言模型,通过引入生成式视觉编码器和深度广度融合技术,增强了模型对视觉和语言信息的处理能力。该技术的重要性在于其能够提升机器对图像和文本的理解,进而在多模态任务中取得更好的效果。Florence-VL基于LLaVA项目进行开发,提供了预训练和微调的代码、模型检查点和演示。
视觉语言模型,能够进行逐步推理
LLaVA-o1是北京大学元组团队开发的一个视觉语言模型,它能够进行自发的、系统的推理,类似于GPT-o1。该模型在六个具有挑战性的多模态基准测试中超越了其他模型,包括Gemini-1.5-pro、GPT-4o-mini和Llama-3.2-90B-Vision-Instruct。LLaVA-o1通过逐步推理解决问题,展示了其在视觉语言模型中的独特优势。
Qwen2.5-Coder系列的1.5B参数代码生成模型
Qwen2.5-Coder是Qwen大型语言模型的最新系列,专注于代码生成、代码推理和代码修复。基于强大的Qwen2.5,该模型在训练中使用了5.5万亿的源代码、文本代码关联、合成数据等,使其成为当前开源代码语言模型中的佼佼者。该模型不仅在编程能力上有所增强,还保持了在数学和通用能力方面的优势。
Qwen2.5-Coder系列中的3B参数量指令调优模型
Qwen2.5-Coder-3B-Instruct-GPTQ-Int8是Qwen2.5-Coder系列中的一种大型语言模型,专门针对代码生成、代码推理和代码修复进行了优化。该模型基于Qwen2.5,训练数据包括源代码、文本代码关联、合成数据等,达到5.5万亿个训练令牌。Qwen2.5-Coder-32B已成为当前最先进的开源代码大型语言模型,其编码能力与GPT-4o相匹配。该模型还为现实世界中的应用提供了更全面的基础,如代码代理,不仅增强了编码能力,还保持了在数学和通用能力方面的优势。
视频序列理解的GPU实现模型
PPLLaVA是一个高效的视频大型语言模型,它结合了细粒度视觉提示对齐、用户指令的卷积风格池化的视觉令牌压缩以及CLIP上下文扩展。该模型在VideoMME、MVBench、VideoChatGPT Bench和VideoQA Bench等数据集上建立了新的最先进结果,仅使用1024个视觉令牌,吞吐量提高了8倍。
Agent S:一个开放的代理框架,让计算机像人类一样使用计算机。
Agent S是一个开放的代理框架,旨在通过图形用户界面(GUI)实现与计算机的自主交互,通过自动化复杂多步骤任务来转变人机交互。它引入了经验增强的分层规划方法,利用在线网络知识和叙事记忆,从过去的交互中提取高级经验,将复杂任务分解为可管理的子任务,并使用情景记忆进行逐步指导,Agent S不断优化其行动并从经验中学习,实现适应性强且有效的任务规划。Agent S在OSWorld基准测试中的表现超过了基线9.37%的成功率(相对提高了83.6%),并在WindowsAgentArena基准测试中展示了广泛的通用性。
基于多模态大语言模型的可解释图像检测与定位
FakeShield是一个多模态框架,旨在解决图像检测和定位(IFDL)领域中的两个主要挑战:检测原理的黑箱性和在不同篡改方法间的有限泛化能力。FakeShield通过利用GPT-4o增强现有的IFDL数据集,创建了多模态篡改描述数据集(MMTD-Set),用于训练FakeShield的篡改分析能力。该框架包括领域标签引导的可解释检测模块(DTE-FDM)和定位模块(MFLM),能够处理各种类型的篡改检测解释,并实现由详细文本描述引导的定位。FakeShield在检测准确性和F1分数上优于其他方法,提供了一个可解释且优越的解决方案。
视频指令调优与合成数据研究
LLaVA-Video是一个专注于视频指令调优的大型多模态模型(LMMs),通过创建高质量的合成数据集LLaVA-Video-178K来解决从网络获取大量高质量原始数据的难题。该数据集包括详细的视频描述、开放式问答和多项选择问答等任务,旨在提高视频语言模型的理解和推理能力。LLaVA-Video模型在多个视频基准测试中表现出色,证明了其数据集的有效性。
前沿级多模态大型语言模型,实现视觉-语言任务的先进性能。
NVLM 1.0是一系列前沿级的多模态大型语言模型(LLMs),在视觉-语言任务上取得了与领先专有模型和开放访问模型相媲美的先进成果。值得注意的是,NVLM 1.0在多模态训练后,其文本性能甚至超过了其LLM主干模型。我们为社区开源了模型权重和代码。
高效扩展多模态大型语言模型至1000图像
LongLLaVA是一个多模态大型语言模型,通过混合架构高效扩展至1000图像,旨在提升图像处理和理解能力。该模型通过创新的架构设计,实现了在大规模图像数据上的有效学习和推理,对于图像识别、分类和分析等领域具有重要意义。
机器人操控的时空关系关键点约束推理
ReKep是一个用于机器人操控的时空关系关键点约束推理系统,它通过将机器人操控任务表示为关联机器人和环境的约束来编码期望的机器人行为。ReKep利用大型视觉模型和视觉-语言模型,无需特定任务训练或环境模型,即可生成基于关键点的约束,这些约束可以被优化以实现多阶段、野外、双手和反应性行为。ReKep的主要优点包括其通用性、无需手动标记以及能够被现成求解器实时优化以产生机器人动作。
多模态大型语言模型设计空间探索
EAGLE是一个面向视觉中心的高分辨率多模态大型语言模型(LLM)系列,通过混合视觉编码器和不同输入分辨率来加强多模态LLM的感知能力。该模型包含基于通道连接的'CLIP+X'融合,适用于具有不同架构(ViT/ConvNets)和知识(检测/分割/OCR/SSL)的视觉专家。EAGLE模型家族支持超过1K的输入分辨率,并在多模态LLM基准测试中取得了优异的成绩,特别是在对分辨率敏感的任务上,如光学字符识别和文档理解。
视频理解与推理的免训练大型语言模型。
SlowFast-LLaVA是一个无需训练的多模态大型语言模型,专为视频理解和推理设计。它无需在任何数据上进行微调,就能在多种视频问答任务和基准测试中达到与最先进视频大型语言模型相当甚至更好的性能。
最新多模态检查点,提升语音理解能力。
Llama3-s v0.2 是 Homebrew Computer Company 开发的多模态检查点,专注于提升语音理解能力。该模型通过早期融合语义标记的方式,利用社区反馈进行改进,以简化模型结构,提高压缩效率,并实现一致的语音特征提取。Llama3-s v0.2 在多个语音理解基准测试中表现稳定,并提供了实时演示,允许用户亲自体验其功能。尽管模型仍在早期开发阶段,存在一些限制,如对音频压缩敏感、无法处理超过10秒的音频等,但团队计划在未来更新中解决这些问题。
先进的人工智能视觉模型,专门分析和理解人类动作。
Sapiens视觉模型由Meta Reality Labs开发,专注于处理人类视觉任务,包括2D姿态估计、身体部位分割、深度估计和表面法线预测等。模型在超过3亿张人类图像上训练,具备高分辨率图像处理能力,并能在数据稀缺情况下表现出色。其设计简单、易于扩展,性能在增加参数后显著提升,已在多个测试中超越现有基线模型。
先进的混合SSM-Transformer指令遵循基础模型
AI21 Jamba 1.5系列模型是市场上最强大的长上下文模型之一,提供比同类领先模型快2.5倍的推理速度。这些模型展示了卓越的长上下文处理能力、速度和质量,是首次成功将非Transformer模型扩展到市场领先模型的质量和强度。
一个正在训练中的开源语言模型,具备“听力”能力。
llama3-s是一个开放的、正在进行中的研究实验,旨在将基于文本的大型语言模型(LLM)扩展到具有原生“听力”能力。该项目使用Meta的Chameleon论文启发的技术,专注于令牌传递性,将声音令牌扩展到LLM的词汇表中,未来可能扩展到各种输入类型。作为一个开源科学实验,代码库和数据集都是公开的。
高性能多模态AI模型
Gemini Pro是DeepMind推出的一款高性能多模态AI模型,专为广泛的任务设计,具有高达两百万token的长上下文窗口,能够处理大规模文档、代码、音频和视频等。它在多个基准测试中表现出色,包括代码生成、数学问题解决和多语言翻译等。
自动化解释性代理,提升AI模型透明度
MAIA(Multimodal Automated Interpretability Agent)是由MIT计算机科学与人工智能实验室(CSAIL)开发的一个自动化系统,旨在提高人工智能模型的解释性。它通过视觉-语言模型的支撑,结合一系列实验工具,自动化地执行多种神经网络解释性任务。MAIA能够生成假设、设计实验进行测试,并通过迭代分析来完善其理解,从而提供更深入的AI模型内部运作机制的洞察。
© 2025 AIbase 备案号:闽ICP备08105208号-14