浏览量:2353
最新流量情况
月访问量
29742.94k
平均访问时长
00:04:44
每次访问页数
5.85
跳出率
44.20%
流量来源
直接访问
50.45%
自然搜索
33.93%
邮件
0.03%
外链引荐
12.90%
社交媒体
2.67%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
21.55%
印度
7.98%
日本
2.93%
俄罗斯
5.29%
美国
16.06%
统一多模态视频生成系统
UniVG是一款统一多模态视频生成系统,能够处理多种视频生成任务,包括文本和图像模态。通过引入多条件交叉注意力和偏置高斯噪声,实现了高自由度和低自由度视频生成。在公共学术基准MSR-VTT上实现了最低的Fr'echet视频距离(FVD),超越了当前开源方法在人类评估上的表现,并与当前闭源方法Gen2不相上下。
HunyuanVideo-I2V 是腾讯推出的基于 HunyuanVideo 的图像到视频生成框架。
HunyuanVideo-I2V 是腾讯开源的图像到视频生成模型,基于 HunyuanVideo 架构开发。该模型通过图像潜在拼接技术,将参考图像信息有效整合到视频生成过程中,支持高分辨率视频生成,并提供可定制的 LoRA 效果训练功能。该技术在视频创作领域具有重要意义,能够帮助创作者快速生成高质量的视频内容,提升创作效率。
UniTok是一个用于视觉生成和理解的统一视觉分词器。
UniTok是一种创新的视觉分词技术,旨在弥合视觉生成和理解之间的差距。它通过多码本量化技术,显著提升了离散分词器的表示能力,使其能够捕捉到更丰富的视觉细节和语义信息。这一技术突破了传统分词器在训练过程中的瓶颈,为视觉生成和理解任务提供了一种高效且统一的解决方案。UniTok在图像生成和理解任务中表现出色,例如在ImageNet上实现了显著的零样本准确率提升。该技术的主要优点包括高效性、灵活性以及对多模态任务的强大支持,为视觉生成和理解领域带来了新的可能性。
TheoremExplainAgent 是一个用于生成多模态定理解释视频的智能系统。
TheoremExplainAgent 是一款基于人工智能的模型,专注于为数学和科学定理生成详细的多模态解释视频。它通过结合文本和视觉动画,帮助用户更深入地理解复杂概念。该产品利用 Manim 动画技术生成超过 5 分钟的长视频,填补了传统文本解释的不足,尤其在揭示推理错误方面表现出色。它主要面向教育领域,旨在提升学习者对 STEM 领域定理的理解能力,目前尚未明确其价格和商业化定位。
OmniHuman-1 是一种基于单张人像和运动信号生成人类视频的多模态框架。
OmniHuman-1 是一个端到端的多模态条件人类视频生成框架,能够基于单张人像和运动信号(如音频、视频或其组合)生成人类视频。该技术通过混合训练策略克服了高质量数据稀缺的问题,支持任意宽高比的图像输入,生成逼真的人类视频。它在弱信号输入(尤其是音频)方面表现出色,适用于多种场景,如虚拟主播、视频制作等。
一种新颖的图像到视频采样技术,基于Hunyuan模型实现高质量视频生成。
leapfusion-hunyuan-image2video 是一种基于 Hunyuan 模型的图像到视频生成技术。它通过先进的深度学习算法,将静态图像转换为动态视频,为内容创作者提供了一种全新的创作方式。该技术的主要优点包括高效的内容生成、灵活的定制化能力以及对高质量视频输出的支持。它适用于需要快速生成视频内容的场景,如广告制作、视频特效等领域。该模型目前以开源形式发布,供开发者和研究人员免费使用,未来有望通过社区贡献进一步提升其性能。
SmolVLM-256M 是世界上最小的多模态模型,可高效处理图像和文本输入并生成文本输出。
SmolVLM-256M 是由 Hugging Face 开发的多模态模型,基于 Idefics3 架构,专为高效处理图像和文本输入而设计。它能够回答关于图像的问题、描述视觉内容或转录文本,且仅需不到 1GB 的 GPU 内存即可运行推理。该模型在多模态任务上表现出色,同时保持轻量化架构,适合在设备端应用。其训练数据来自 The Cauldron 和 Docmatix 数据集,涵盖文档理解、图像描述等多领域内容,使其具备广泛的应用潜力。目前该模型在 Hugging Face 平台上免费提供,旨在为开发者和研究人员提供强大的多模态处理能力。
一种基于扩散变换器网络的高动态、逼真肖像图像动画技术。
Hallo3是一种用于肖像图像动画的技术,它利用预训练的基于变换器的视频生成模型,能够生成高度动态和逼真的视频,有效解决了非正面视角、动态对象渲染和沉浸式背景生成等挑战。该技术由复旦大学和百度公司的研究人员共同开发,具有强大的泛化能力,为肖像动画领域带来了新的突破。
InternVL2.5-MPO系列模型,基于InternVL2.5和混合偏好优化,展现卓越性能。
InternVL2.5-MPO是一个先进的多模态大型语言模型系列,基于InternVL2.5和混合偏好优化(MPO)构建。该系列模型在多模态任务中表现出色,能够处理图像、文本和视频数据,并生成高质量的文本响应。模型采用'ViT-MLP-LLM'范式,通过像素unshuffle操作和动态分辨率策略优化视觉处理能力。此外,模型还引入了多图像和视频数据的支持,进一步扩展了其应用场景。InternVL2.5-MPO在多模态能力评估中超越了多个基准模型,证明了其在多模态领域的领先地位。
先进的多模态大型语言模型,具备卓越的多模态推理能力。
InternVL2_5-26B-MPO-AWQ 是由 OpenGVLab 开发的多模态大型语言模型,旨在通过混合偏好优化提升模型的推理能力。该模型在多模态任务中表现出色,能够处理图像和文本之间的复杂关系。它采用了先进的模型架构和优化技术,使其在多模态数据处理方面具有显著优势。该模型适用于需要高效处理和理解多模态数据的场景,如图像描述生成、多模态问答等。其主要优点包括强大的推理能力和高效的模型架构。
多模态大型语言模型,展示卓越的整体性能。
InternVL2.5-MPO是一个先进的多模态大型语言模型系列,它基于InternVL2.5和混合偏好优化构建。该模型整合了新增量预训练的InternViT与各种预训练的大型语言模型,包括InternLM 2.5和Qwen 2.5,使用随机初始化的MLP投影器。InternVL2.5-MPO在新版本中保留了与InternVL 2.5及其前身相同的模型架构,遵循“ViT-MLP-LLM”范式。该模型支持多图像和视频数据,通过混合偏好优化(MPO)进一步提升模型性能,使其在多模态任务中表现更优。
多模态大型语言模型,展示卓越的整体性能
InternVL2.5-MPO是一个先进的多模态大型语言模型系列,基于InternVL2.5和混合偏好优化构建。该模型集成了新增量预训练的InternViT和各种预训练的大型语言模型,如InternLM 2.5和Qwen 2.5,使用随机初始化的MLP投影器。它支持多图像和视频数据,并且在多模态任务中表现出色,能够理解和生成与图像相关的文本内容。
多模态大型模型,处理文本、图像和视频数据
Valley是由字节跳动开发的尖端多模态大型模型,能够处理涉及文本、图像和视频数据的多种任务。该模型在内部电子商务和短视频基准测试中取得了最佳结果,比其他开源模型表现更优。在OpenCompass测试中,与同规模模型相比,平均得分大于等于67.40,在小于10B模型中排名第二。Valley-Eagle版本参考了Eagle,引入了一个可以灵活调整令牌数量并与原始视觉令牌并行的视觉编码器,增强了模型在极端场景下的性能。
探索多模态扩散变换器中的注意力控制,实现无需调优的多提示长视频生成
DiTCtrl是一种基于多模态扩散变换器(MM-DiT)架构的视频生成模型,它专注于无需额外训练即可生成具有多个连续提示的连贯场景视频。该模型通过分析MM-DiT的注意力机制,实现了在不同提示间精确的语义控制和注意力共享,从而生成具有平滑过渡和一致对象运动的视频。DiTCtrl的主要优点包括无需训练、能够处理多提示视频生成任务,并能展示电影风格的过渡效果。此外,DiTCtrl还提供了一个新基准MPVBench,专门用于评估多提示视频生成的性能。
先进的多模态大型语言模型
InternVL2_5-2B-MPO是一个多模态大型语言模型系列,展示了卓越的整体性能。该系列基于InternVL2.5和混合偏好优化构建。它集成了新增量预训练的InternViT与各种预训练的大型语言模型,包括InternLM 2.5和Qwen 2.5,使用随机初始化的MLP投影器。该模型在多模态任务中表现出色,能够处理包括图像和文本在内的多种数据类型,适用于需要理解和生成多模态内容的场景。
视频扩散模型,用于虚拟试穿。
Fashion-VDM是一个视频扩散模型(VDM),用于生成虚拟试穿视频。该模型接受一件衣物图片和人物视频作为输入,旨在生成人物穿着给定衣物的高质量试穿视频,同时保留人物的身份和动作。与传统的基于图像的虚拟试穿相比,Fashion-VDM在衣物细节和时间一致性方面表现出色。该技术的主要优点包括:扩散式架构、分类器自由引导增强控制、单次64帧512px视频生成的渐进式时间训练策略,以及联合图像-视频训练的有效性。Fashion-VDM在视频虚拟试穿领域树立了新的行业标准。
下一代多模态智能模型
Emu3是一套最新的多模态模型,仅通过下一个token预测进行训练,能够处理图像、文本和视频。它在生成和感知任务上超越了多个特定任务的旗舰模型,并且不需要扩散或组合架构。Emu3通过将多模态序列统一到一个单一的transformer模型中,简化了复杂的多模态模型设计,展示了在训练和推理过程中扩展的巨大潜力。
多模态大型语言模型,支持图像和文本处理。
Llama-3.2-11B-Vision 是 Meta 发布的一款多模态大型语言模型(LLMs),它结合了图像和文本处理的能力,旨在提高视觉识别、图像推理、图像描述和回答有关图像的一般问题的性能。该模型在常见的行业基准测试中的表现超过了众多开源和封闭的多模态模型。
为ComfyUI提供Luma AI API的自定义节点。
ComfyUI-LumaAI-API是一个为ComfyUI设计的插件,它允许用户直接在ComfyUI中使用Luma AI API。Luma AI API基于Dream Machine视频生成模型,由Luma开发。该插件通过提供多种节点,如文本到视频、图像到视频、视频预览等,极大地丰富了视频生成的可能性,为视频创作者和开发者提供了便捷的工具。
多模态12B参数模型,结合视觉编码器处理图像和文本。
Pixtral-12B-2409是由Mistral AI团队开发的多模态模型,包含12B参数的多模态解码器和400M参数的视觉编码器。该模型在多模态任务中表现出色,支持不同尺寸的图像,并在文本基准测试中保持最前沿的性能。它适用于需要处理图像和文本数据的高级应用,如图像描述生成、视觉问答等。
首个多模态 Mistral 模型,支持图像和文本的混合任务处理。
Pixtral 12B 是 Mistral AI 团队开发的一款多模态 AI 模型,它能够理解自然图像和文档,具备出色的多模态任务处理能力,同时在文本基准测试中也保持了最先进的性能。该模型支持多种图像尺寸和宽高比,能够在长上下文窗口中处理任意数量的图像,是 Mistral Nemo 12B 的升级版,专为多模态推理而设计,不牺牲关键文本处理能力。
多模态大型语言模型,支持图像和文本理解。
Pixtral-12b-240910是由Mistral AI团队发布的多模态大型语言模型,它能够处理和理解图像以及文本信息。该模型采用了先进的神经网络架构,能够通过图像和文本的结合输入,提供更加丰富和准确的输出结果。它在图像识别、自然语言处理和多模态交互方面展现出卓越的性能,对于需要图像和文本同时处理的应用场景具有重要意义。
统一多模态理解和生成的单一变换器
Show-o是一个用于多模态理解和生成的单一变换器模型,它能够处理图像字幕、视觉问答、文本到图像生成、文本引导的修复和扩展以及混合模态生成。该模型由新加坡国立大学的Show Lab和字节跳动共同开发,采用最新的深度学习技术,能够理解和生成多种模态的数据,是人工智能领域的一大突破。
多模态视觉任务的高效转换模型
LLaVA-OneVision是一款由字节跳动公司与多所大学合作开发的多模态大型模型(LMMs),它在单图像、多图像和视频场景中推动了开放大型多模态模型的性能边界。该模型的设计允许在不同模态/场景之间进行强大的迁移学习,展现出新的综合能力,特别是在视频理解和跨场景能力方面,通过图像到视频的任务转换进行了演示。
视频生成的前沿模型
WorldDreamer是一个创新的视频生成模型,它通过预测遮蔽的视觉令牌来理解并模拟世界动态。它在图像到视频合成、文本到视频生成、视频修复、视频风格化以及动作到视频生成等多个方面表现出色。该模型借鉴了大型语言模型的成功经验,将世界建模视为一个无监督的视觉序列建模挑战,通过将视觉输入映射到离散的令牌并预测被遮蔽的令牌来实现。
多模态AI模型,图像理解与生成兼备
Mini-Gemini是由香港中文大学终身教授贾佳亚团队开发的多模态模型,具备精准的图像理解能力和高质量的训练数据。该模型结合图像推理和生成,提供不同规模的版本,性能与GPT-4和DALLE3相媲美。Mini-Gemini采用Gemini的视觉双分支信息挖掘方法和SDXL技术,通过卷积网络编码图像并利用Attention机制挖掘信息,同时结合LLM生成文本链接两个模型。
多模态视觉语言模型
MouSi是一种多模态视觉语言模型,旨在解决当前大型视觉语言模型(VLMs)面临的挑战。它采用集成专家技术,将个体视觉编码器的能力进行协同,包括图像文本匹配、OCR、图像分割等。该模型引入融合网络来统一处理来自不同视觉专家的输出,并在图像编码器和预训练LLMs之间弥合差距。此外,MouSi还探索了不同的位置编码方案,以有效解决位置编码浪费和长度限制的问题。实验结果表明,具有多个专家的VLMs表现出比孤立的视觉编码器更出色的性能,并随着整合更多专家而获得显著的性能提升。
I2V-Adapter是一种用于视频扩散模型的通用图像到视频适配器。
I2V-Adapter旨在将静态图像转换为动态、逼真的视频序列,同时保持原始图像的保真度。它使用轻量级适配器模块并行处理带噪声的视频帧和输入图像。此模块充当桥梁,有效地将输入连接到模型的自注意力机制,保持空间细节,无需更改T2I模型的结构。I2V-Adapter参数少于传统模型,并确保与现有的T2I模型和控制工具兼容。实验结果表明,I2V-Adapter能够生成高质量的视频输出,这对于AI驱动的视频生成,尤其是创意应用领域,具有重大意义。
© 2025 AIbase 备案号:闽ICP备08105208号-14