需求人群:
"- 视频分类、定位\n- 视频检索\n- 视频字幕生成\n- 视频问答\n- 科学视频分析"
使用场景示例:
"- 利用VideoPrism进行视频分类,实现动作识别\n- 应用VideoPrism提取视频特征,检索相似视频\n- 基于VideoPrism为视频自动生成描述文字\n- 与语言模型结合,构建视频问答系统"
产品特色:
- 预训练数据包含3600万高质量视频-文本对,5820万带嘈杂文本的视频剪辑,数据规模最大、质量最高 - 采用两阶段预训练策略,对比学习匹配视频和文本,预测遮蔽的视频块 - 一个固定模型直接适配下游任务,无需调参和微调 - 在30个视频理解基准上刷新最优记录
浏览量:199
最新流量情况
月访问量
1017.62k
平均访问时长
00:00:46
每次访问页数
1.93
跳出率
55.58%
流量来源
直接访问
37.68%
自然搜索
50.27%
邮件
0.09%
外链引荐
8.81%
社交媒体
2.77%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
2.71%
德国
3.05%
英国
3.03%
印度
7.24%
美国
27.99%
视频理解基础模型
VideoPrism是一个通用的视频编码模型,能够在各种视频理解任务上取得领先的性能,包括分类、定位、检索、字幕生成和问答等。其创新点在于预训练的数据集非常大且多样,包含3600万高质量的视频-文本对,以及5.82亿带有嘈杂文本的视频剪辑。预训练采用两阶段策略,先利用对比学习匹配视频和文本,然后预测遮蔽的视频块,充分利用不同的监督信号。一个固定的VideoPrism模型可以直接适配到下游任务,并在30个视频理解基准上刷新状态最优成绩。
高性能的双向编码器Transformer模型
ModernBERT-large是一个现代化的双向编码器Transformer模型(BERT风格),在2万亿个英文和代码数据上预训练,具有长达8192个token的原生上下文长度。该模型采用了最新的架构改进,如旋转位置嵌入(RoPE)以支持长上下文,局部-全局交替注意力以提高长输入的效率,以及无填充和Flash Attention以提高推理效率。ModernBERT-long适合处理需要处理长文档的任务,如检索、分类和大型语料库中的语义搜索。模型训练数据主要是英文和代码,因此可能在其他语言上的表现会较低。
高保真视频编码,适用于大运动场景的视频自编码器。
这是一个视频变分自编码器(VAE),旨在减少视频冗余并促进高效视频生成。该模型通过观察发现,将图像VAE直接扩展到3D VAE会引入运动模糊和细节失真,因此提出了时间感知的空间压缩以更好地编码和解码空间信息。此外,该模型还集成了一个轻量级的运动压缩模型以实现进一步的时间压缩。通过利用文本到视频数据集中固有的文本信息,并在模型中加入文本指导,显著提高了重建质量,特别是在细节保留和时间稳定性方面。该模型还通过在图像和视频上进行联合训练来提高其通用性,不仅提高了重建质量,还使模型能够执行图像和视频的自编码。广泛的评估表明,该方法的性能优于最近的强基线。
ModernBERT是新一代的编码器模型,性能卓越。
ModernBERT是由Answer.AI和LightOn共同发布的新一代编码器模型,它是BERT模型的全面升级版,提供了更长的序列长度、更好的下游性能和更快的处理速度。ModernBERT采用了最新的Transformer架构改进,特别关注效率,并使用了现代数据规模和来源进行训练。作为编码器模型,ModernBERT在各种自然语言处理任务中表现出色,尤其是在代码搜索和理解方面。它提供了基础版(139M参数)和大型版(395M参数)两种模型尺寸,适合各种规模的应用需求。
高效处理长文本的双向编码器模型
ModernBERT-base是一个现代化的双向编码器Transformer模型,预训练于2万亿英文和代码数据,原生支持长达8192个token的上下文。该模型采用了Rotary Positional Embeddings (RoPE)、Local-Global Alternating Attention和Unpadding等最新架构改进,使其在长文本处理任务中表现出色。ModernBERT-base适用于需要处理长文档的任务,如检索、分类和大型语料库中的语义搜索。模型训练数据主要为英文和代码,因此可能在其他语言上的表现会有所降低。
文本编码器微调技术,提升文本到图像生成模型性能
TextCraftor是一种创新的文本编码器微调技术,能够显著提升文本到图像生成模型的性能。通过奖励函数优化,它改善了图像质量与文本对齐,无需额外数据集。
编码器自由的视觉-语言模型,高效且数据驱动。
EVE是一个编码器自由的视觉-语言模型,由大连理工大学、北京人工智能研究院和北京大学的研究人员共同开发。它在不同图像宽高比下展现出卓越的能力,性能超越了Fuyu-8B,并且接近模块化编码器基础的LVLMs。EVE在数据效率、训练效率方面表现突出,使用33M公开数据进行预训练,并利用665K LLaVA SFT数据为EVE-7B模型训练,以及额外的1.2M SFT数据为EVE-7B (HD)模型训练。EVE的开发采用了高效、透明、实用的策略,为跨模态的纯解码器架构开辟了新途径。
Gemma 2 9B和2B模型的稀疏自编码器套件
Gemma Scope是一套为Gemma 2的9B和2B模型设计的稀疏自编码器,它像显微镜一样帮助我们分析模型内部的激活,从而理解其背后的概念。这些自编码器可以用于研究模型的内部激活,类似于生物学家用显微镜研究植物和动物的细胞。
用于准确渲染视觉文本的定制文本编码器
Glyph-ByT5是一种定制的文本编码器,旨在提高文本到图像生成模型中的视觉文本渲染准确性。它通过微调字符感知的ByT5编码器并使用精心策划的成对字形文本数据集来实现。将Glyph-ByT5与SDXL集成后,形成了Glyph-SDXL模型,使设计图像生成中的文本渲染准确性从低于20%提高到接近90%。该模型还能够实现段落文本的自动多行布局渲染,字符数量从几十到几百字符都能保持较高的拼写准确性。此外,通过使用少量高质量的包含视觉文本的真实图像进行微调,Glyph-SDXL在开放域真实图像中的场景文本渲染能力也有了大幅提升。这些令人鼓舞的成果旨在鼓励进一步探索为不同具有挑战性的任务设计定制的文本编码器。
深入理解Transformer模型的可视化工具
Transformer Explainer是一个致力于帮助用户深入理解Transformer模型的在线可视化工具。它通过图形化的方式展示了Transformer模型的各个组件,包括自注意力机制、前馈网络等,让用户能够直观地看到数据在模型中的流动和处理过程。该工具对于教育和研究领域具有重要意义,可以帮助学生和研究人员更好地理解自然语言处理领域的先进技术。
基于 Transformer 的图像识别模型
Google Vision Transformer 是一款基于 Transformer 编码器的图像识别模型,使用大规模图像数据进行预训练,可用于图像分类等任务。该模型在 ImageNet-21k 数据集上进行了预训练,并在 ImageNet 数据集上进行了微调,具备良好的图像特征提取能力。该模型通过将图像切分为固定大小的图像块,并线性嵌入这些图像块来处理图像数据。同时,模型在输入序列前添加了位置编码,以便在 Transformer 编码器中处理序列数据。用户可以通过在预训练的编码器之上添加线性层进行图像分类等任务。Google Vision Transformer 的优势在于其强大的图像特征学习能力和广泛的适用性。该模型免费提供使用。
解释视频Transformer决策过程的概念发现
这篇论文研究了视频Transformer表示的概念解释问题。具体而言,我们试图解释基于高级时空概念的视频Transformer的决策过程,这些概念是自动发现的。以往关于基于概念的可解释性的研究仅集中在图像级任务上。相比之下,视频模型处理了额外的时间维度,增加了复杂性,并在识别随时间变化的动态概念方面提出了挑战。在这项工作中,我们通过引入第一个视频Transformer概念发现(VTCD)算法系统地解决了这些挑战。为此,我们提出了一种有效的无监督视频Transformer表示单元(概念)识别方法,并对它们在模型输出中的重要性进行排名。所得的概念具有很高的可解释性,揭示了非结构化视频模型中的时空推理机制和以对象为中心的表示。通过在多样的监督和自监督表示上联合进行这种分析,我们发现其中一些机制在视频Transformer中是普遍的。最后,我们证明VTCD可以用于改善精细任务的模型性能。
LLaVA-3b是一种基于Dolphin 2.6 Phi进行微调的模型,使用SigLIP 400M的视觉塔以LLaVA方式进行微调。模型具有多个图像标记、使用视觉编码器的最新层输出等特点。
LLaVA-3b是一种基于Dolphin 2.6 Phi进行微调的模型,使用SigLIP 400M的视觉塔以LLaVA方式进行微调。模型具有多个图像标记、使用视觉编码器的最新层输出等特点。此模型基于Phi-2,受微软研究许可证约束,禁止商业使用。感谢ML Collective提供的计算资源积分。
大型世界模型,理解视频与语言
Large World Models是一个利用RingAttention技术训练的神经网络,专注于处理长视频和语言序列,以理解人类知识和多模态世界。它通过大规模数据集训练,实现了前所未有的上下文大小,并开源了一系列70亿参数的模型,能够处理超过100万标记的文本和视频。
视频理解的先进模型
Goldfish 是一种为理解任意长度视频而设计的方法论。它通过高效的检索机制,首先收集与指令相关的前k个视频片段,然后提供所需的响应。这种设计使得Goldfish能够有效处理任意长的视频序列,适用于电影或电视剧等场景。为了促进检索过程,开发了MiniGPT4-Video,该模型为视频片段生成详细的描述。Goldfish在长视频基准测试中取得了41.78%的准确率,超过了之前的方法14.94%。此外,MiniGPT4-Video在短视频理解中也表现出色,分别在MSVD、MSRVTT、TGIF和TVQA短视频基准测试中超过了现有最佳方法3.23%、2.03%、16.5%和23.59%。这些结果表明,Goldfish模型在长视频和短视频理解方面都有显著改进。
智能编码助手,提升开发效率
通义灵码是一款专为开发者设计的智能编码助手,支持多种开发环境,包括JetBrains IDEs、Visual Studio Code、Visual Studio等。它通过集成先进的AI技术,帮助开发者快速完成编码任务,提高编码效率和质量,适用于各种编程语言和开发场景。
长视频理解基准测试
LVBench是一个专门设计用于长视频理解的基准测试,旨在推动多模态大型语言模型在理解数小时长视频方面的能力,这对于长期决策制定、深入电影评论和讨论、现场体育解说等实际应用至关重要。
理解复杂视频,作诗配文的AI视频模型
MiniGPT4-Video是为视频理解设计的多模态大模型,能处理时态视觉数据和文本数据,配标题、宣传语,适用于视频问答。基于MiniGPT-v2,结合视觉主干EVA-CLIP,训练多阶段阶段,包括大规模视频-文本预训练和视频问题解答微调。在MSVD、MSRVTT、TGIF和TVQA基准上取得显著提升。定价未知。
视频理解领域的先进空间-时间建模与音频理解模型。
VideoLLaMA 2 是一个针对视频理解任务优化的大规模语言模型,它通过先进的空间-时间建模和音频理解能力,提升了对视频内容的解析和理解。该模型在多选视频问答和视频字幕生成等任务上展现了卓越的性能。
实现增强物体跟踪的Transformer模型
CoTracker是一个基于Transformer的模型,可以在视频序列中联合跟踪稠密点。它与大多数现有的状态最先进的方法不同,后者独立跟踪点,而忽略了它们之间的相关性。我们展示了联合跟踪可以显著提高跟踪精度和鲁棒性。我们还提供了若干技术创新,包括虚拟轨迹的概念,这使CoTracker可以联合跟踪7万个点。此外,CoTracker因果地操作在短时间窗口上(因此适合在线任务),但通过在更长的视频序列上展开窗口进行训练,这使并显著改进了长期跟踪。我们展示了定性印象深刻的跟踪结果,其中点甚至在遮挡或离开视野时也可以跟踪很长时间。从定量上看,CoTracker在标准基准测试上优于所有最近的跟踪器,通常优势显著。
预训练T5模型,采用段落破坏和替换标记检测
SpacTor是一种新的训练程序,包括(1)结合了段落破坏(SC)和标记替换检测(RTD)的混合目标,以及(2)一个两阶段课程,该课程在初始tau次迭代中优化混合目标,然后过渡到标准的SC损失。我们在多种NLP任务上进行了实验,使用编码器-解码器架构(T5),SpacTor-T5在下游性能方面与标准的SC预训练相当,同时减少了50%的预训练迭代次数和40%的总FLOPs。另外,在相同的计算预算下,我们发现SpacTor能够显著提高下游基准性能。
视频处理界面,提供视频编码和解码功能
ComfyUI-HunyuanVideoWrapper 是一个基于 HunyuanVideo 的视频处理界面,主要功能是视频编码和解码。它利用先进的视频处理技术,允许用户在较低的硬件要求下处理视频,即使在内存较小的设备上也能实现视频功能。该产品背景信息显示,它特别适合需要在资源受限环境下处理视频的用户,并且是开源的,可以免费使用。
提升视频理解和生成的AI模型。
ShareGPT4Video系列旨在通过密集且精确的字幕来促进大型视频-语言模型(LVLMs)的视频理解以及文本到视频模型(T2VMs)的视频生成。该系列包括:1) ShareGPT4Video,40K GPT4V注释的密集视频字幕,通过精心设计的数据过滤和注释策略开发而成。2) ShareCaptioner-Video,一个高效且功能强大的任意视频字幕模型,由其注释的4.8M高质量美学视频。3) ShareGPT4Video-8B,一个简单但卓越的LVLM,其在三个先进的视频基准测试中达到了最佳性能。
Masked Diffusion Transformer是图像合成的最新技术,为ICCV 2023的SOTA(State of the Art)
MDT通过引入掩码潜在模型方案来显式增强扩散概率模型(DPMs)在图像中对象部分之间关系学习的能力。MDT在训练期间在潜在空间中操作,掩蔽某些标记,然后设计一个不对称的扩散变换器来从未掩蔽的标记中预测掩蔽的标记,同时保持扩散生成过程。MDTv2进一步通过更有效的宏网络结构和训练策略提高了MDT的性能。
Snap视频:用于文本到视频合成的可扩展空间时间转换器
Snap视频是一个视频优先的模型,通过延伸EDM框架系统地解决视频生成域中的运动保真度、视觉质量和可扩展性等挑战。该模型利用帧间的冗余信息,提出了一个可伸缩的transformer架构,将空间和时间维度作为一个高度压缩的1D潜在向量,从而有效地进行空间时间联合建模,合成时间连贯性强、运动复杂的视频。这种架构使模型可以高效训练,达到数十亿参数规模,在多项基准测试中取得最优效果。
视频序列理解的GPU实现模型
PPLLaVA是一个高效的视频大型语言模型,它结合了细粒度视觉提示对齐、用户指令的卷积风格池化的视觉令牌压缩以及CLIP上下文扩展。该模型在VideoMME、MVBench、VideoChatGPT Bench和VideoQA Bench等数据集上建立了新的最先进结果,仅使用1024个视觉令牌,吞吐量提高了8倍。
AI驱动的可视化内容解释浏览器插件
Pixplain是一个AI驱动的浏览器插件,它可以让用户与图片和视频进行交互,就像实现了你一直以来的愿望。Pixplain使用最新的AI模型比如GPT-4视觉,可以更好地理解图像内容并给出解释。 主要功能: - 一键获取图像和页面内容的解释 - 支持GPT-4等顶级AI模型 轻松复制、更新或修改提示,获得更流畅的创作体验 - 可以移动Pixplain窗口,获得最佳的页面视图
© 2025 AIbase 备案号:闽ICP备08105208号-14