需求人群:
"VideoJAM 适用于需要高质量视频生成的场景,尤其是对运动连贯性要求较高的应用,如影视制作、动画设计、虚拟现实和增强现实等领域。它能够帮助创作者生成更逼真的视频内容,同时节省时间和成本。"
使用场景示例:
生成一个滑板运动员在空中翻转的视频。
创建一个芭蕾舞者在湖面上旋转的视频。
生成一个熊猫在霓虹灯巷子里跳街舞的视频。
产品特色:
通过联合外观 - 运动表示提升视频生成的运动连贯性
引入内指导机制,动态引导视频生成
支持复杂运动类型的高质量生成
无需修改训练数据或扩展模型规模即可应用
显著提升视频生成的视觉质量和运动连贯性
使用教程:
1. 准备一个支持 VideoJAM 的视频生成模型。
2. 将 VideoJAM 框架集成到模型中,扩展训练目标以预测外观和运动。
3. 在训练阶段,使用联合表示学习外观和运动。
4. 在推理阶段,启用内指导机制,利用动态运动预测引导视频生成。
5. 根据需要调整参数,优化生成效果。
浏览量:11
最新流量情况
月访问量
972
平均访问时长
00:00:00
每次访问页数
1.02
跳出率
41.78%
流量来源
直接访问
62.61%
自然搜索
25.44%
邮件
0.03%
外链引荐
4.06%
社交媒体
7.35%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
加拿大
32.83%
美国
67.17%
VideoJAM 是一种用于增强视频生成模型运动连贯性的框架。
VideoJAM 是一种创新的视频生成框架,旨在通过联合外观 - 运动表示来提升视频生成模型的运动连贯性和视觉质量。该技术通过引入内指导机制(Inner-Guidance),利用模型自身预测的运动信号动态引导视频生成,从而在生成复杂运动类型时表现出色。VideoJAM 的主要优点是能够显著提高视频生成的连贯性,同时保持高质量的视觉效果,且无需对训练数据或模型架构进行大规模修改,即可应用于任何视频生成模型。该技术在视频生成领域具有重要的应用前景,尤其是在需要高度运动连贯性的场景中。
一种新颖的图像到视频采样技术,基于Hunyuan模型实现高质量视频生成。
leapfusion-hunyuan-image2video 是一种基于 Hunyuan 模型的图像到视频生成技术。它通过先进的深度学习算法,将静态图像转换为动态视频,为内容创作者提供了一种全新的创作方式。该技术的主要优点包括高效的内容生成、灵活的定制化能力以及对高质量视频输出的支持。它适用于需要快速生成视频内容的场景,如广告制作、视频特效等领域。该模型目前以开源形式发布,供开发者和研究人员免费使用,未来有望通过社区贡献进一步提升其性能。
Seaweed-APT是一种支持实时单步生成1280x720 24fps视频的模型。
Seaweed-APT是一种用于视频生成的模型,通过对抗性后训练技术,实现了大规模文本到视频的单步生成。该模型能够在短时间内生成高质量的视频,具有重要的技术意义和应用价值。其主要优点是速度快、生成效果好,适用于需要快速生成视频的场景。目前尚未明确具体的价格和市场定位。
快速因果视频生成器,实现即时视频生成。
CausVid是一个先进的视频生成模型,它通过将预训练的双向扩散变换器适配为因果变换器,实现了即时视频帧的生成。这一技术的重要性在于它能够显著减少视频生成的延迟,使得视频生成能够以交互式帧率(9.4FPS)在单个GPU上进行流式生成。CausVid模型支持从文本到视频的生成,以及零样本图像到视频的生成,展现了视频生成技术的新高度。
谷歌旗下领先的人工智能研究公司
Google DeepMind 是谷歌旗下的一家领先的人工智能公司,专注于开发先进的机器学习算法和系统。DeepMind 以其在深度学习和强化学习领域的开创性工作而闻名,其研究涵盖了从游戏到医疗保健等多个领域。DeepMind 的目标是通过构建智能系统来解决复杂的问题,推动科学和医学的进步。
Etna是七火山科技开发的AIGC模型,专注于根据文本描述生成相应的视频内容
Etna模型采用了Diffusion架构,并结合了时空卷积和注意力层,使其能够处理视频数据并理解时间连续性,从而生成具有时间维度的视频内容。该模型在大型视频数据集上进行训练,使用了深度学习技术策略,包括大规模训练、超参数优化和微调,以确保强大的性能和生成能力。
OmniHuman-1 是一种基于单张人像和运动信号生成人类视频的多模态框架。
OmniHuman-1 是一个端到端的多模态条件人类视频生成框架,能够基于单张人像和运动信号(如音频、视频或其组合)生成人类视频。该技术通过混合训练策略克服了高质量数据稀缺的问题,支持任意宽高比的图像输入,生成逼真的人类视频。它在弱信号输入(尤其是音频)方面表现出色,适用于多种场景,如虚拟主播、视频制作等。
MatAnyone 是一个支持目标指定的稳定视频抠像框架,适用于复杂背景。
MatAnyone 是一种先进的视频抠像技术,专注于通过一致的记忆传播实现稳定的视频抠像。它通过区域自适应记忆融合模块,结合目标指定的分割图,能够在复杂背景中保持语义稳定性和细节完整性。该技术的重要性在于它能够为视频编辑、特效制作和内容创作提供高质量的抠像解决方案,尤其适用于需要精确抠像的场景。MatAnyone 的主要优点是其在核心区域的语义稳定性和边界细节的精细处理能力。它由南洋理工大学和商汤科技的研究团队开发,旨在解决传统抠像方法在复杂背景下的不足。
Janus-Pro-7B 是一个新型的自回归框架,统一多模态理解和生成。
Janus-Pro-7B 是一个强大的多模态模型,能够同时处理文本和图像数据。它通过分离视觉编码路径,解决了传统模型在理解和生成任务中的冲突,提高了模型的灵活性和性能。该模型基于 DeepSeek-LLM 架构,使用 SigLIP-L 作为视觉编码器,支持 384x384 的图像输入,并在多模态任务中表现出色。其主要优点包括高效性、灵活性和强大的多模态处理能力。该模型适用于需要多模态交互的场景,例如图像生成和文本理解。
Tarsier 是由字节跳动推出的用于生成高质量视频描述的大型视频语言模型。
Tarsier 是由字节跳动研究团队开发的一系列大规模视频语言模型,旨在生成高质量的视频描述,并具备强大的视频理解能力。该模型通过两阶段训练策略(多任务预训练和多粒度指令微调)显著提升了视频描述的精度和细节。其主要优点包括高精度的视频描述能力、对复杂视频内容的理解能力以及在多个视频理解基准测试中取得的 SOTA(State-of-the-Art)结果。Tarsier 的背景基于对现有视频语言模型在描述细节和准确性上的不足进行改进,通过大规模高质量数据训练和创新的训练方法,使其在视频描述领域达到了新的高度。该模型目前未明确定价,主要面向学术研究和商业应用,适合需要高质量视频内容理解和生成的场景。
GameFactory 是一个基于预训练视频扩散模型的通用世界模型,可创建开放领域的游戏。
GameFactory 是一个创新的通用世界模型,专注于从少量的《我的世界》游戏视频数据中学习,并利用预训练视频扩散模型的先验知识来生成新的游戏内容。该技术的核心优势在于其开放领域的生成能力,能够根据用户输入的文本提示和操作指令生成多样化的游戏场景和互动体验。它不仅展示了强大的场景生成能力,还通过多阶段训练策略和可插拔的动作控制模块,实现了高质量的交互式视频生成。该技术在游戏开发、虚拟现实和创意内容生成等领域具有广阔的应用前景,目前尚未明确其价格和商业化定位。
利用先进人工智能技术,将静态照片转化为浪漫接吻动画。
AI Kissing Video Generator Free 是一款基于先进人工智能技术的在线平台,能够将普通静态照片转化为自然流畅的浪漫接吻动画。该技术利用深度学习模型,专门针对浪漫互动进行训练,确保生成的动画高度逼真且自然。产品注重用户隐私与数据安全,所有上传内容在处理后自动删除。其主要面向情侣、内容创作者、婚礼策划师等群体,提供高质量的浪漫视频生成服务。产品提供免费试用版本,同时有付费升级选项,满足不同用户的需求。
OmniThink 是一种通过模拟人类思考过程来提升机器写作知识密度的框架。
OmniThink 是一种创新的机器写作框架,旨在通过模拟人类的迭代扩展和反思过程,提升生成文章的知识密度。它通过知识密度指标衡量内容的独特性和深度,并通过信息树和概念池的结构化方式组织知识,从而生成高质量的长文本。该技术的核心优势在于能够有效减少冗余信息,提升内容的深度和新颖性,适用于需要高质量长文本生成的场景。
大规模视频生成模型,可创建逼真视觉效果与自然连贯动作。
Luma Ray2 是一款先进的视频生成模型,基于 Luma 新的多模态架构训练,计算能力是 Ray1 的 10 倍。它能够理解文本指令,并可接受图像和视频输入,生成具有快速连贯动作、超逼真细节和逻辑事件序列的视频,使生成的视频更接近生产就绪状态。目前提供文本到视频的生成功能,图像到视频、视频到视频和编辑功能即将推出。产品主要面向需要高质量视频生成的用户,如视频创作者、广告公司等,目前仅对付费订阅用户开放,可通过官网链接尝试使用。
MangaNinja 是一种基于参考的线稿上色方法,可实现精确匹配和细粒度交互控制。
MangaNinja 是一种参考引导的线稿上色方法,它通过独特的设计确保精确的人物细节转录,包括用于促进参考彩色图像和目标线稿之间对应学习的块洗牌模块,以及用于实现细粒度颜色匹配的点驱动控制方案。该模型在自收集的基准测试中表现出色,超越了当前解决方案的精确上色能力。此外,其交互式点控制在处理复杂情况(如极端姿势和阴影)、跨角色上色、多参考协调等方面展现出巨大潜力,这些是现有算法难以实现的。MangaNinja 由来自香港大学、香港科技大学、通义实验室和蚂蚁集团的研究人员共同开发,相关论文已发表在 arXiv 上,代码也已开源。
强大的语言模型,拥有4560亿总参数,可处理长达400万token的上下文。
MiniMax-01是一个具有4560亿总参数的强大语言模型,其中每个token激活459亿参数。它采用混合架构,结合了闪电注意力、softmax注意力和专家混合(MoE),通过先进的并行策略和创新的计算-通信重叠方法,如线性注意力序列并行主义加(LASP+)、varlen环形注意力、专家张量并行(ETP)等,将训练上下文长度扩展到100万tokens,在推理时可处理长达400万tokens的上下文。在多个学术基准测试中,MiniMax-01展现了顶级模型的性能。
展示小型语言模型通过自我演化深度思考掌握数学推理能力的研究成果。
rStar-Math是一项研究,旨在证明小型语言模型(SLMs)能够在不依赖于更高级模型的情况下,与OpenAI的o1模型相媲美甚至超越其数学推理能力。该研究通过蒙特卡洛树搜索(MCTS)实现“深度思考”,其中数学策略SLM在基于SLM的流程奖励模型的指导下进行测试时搜索。rStar-Math引入了三种创新方法来应对训练两个SLM的挑战,通过4轮自我演化和数百万个合成解决方案,将SLMs的数学推理能力提升到最先进水平。该模型在MATH基准测试中显著提高了性能,并在AIME竞赛中表现优异。
一种基于扩散变换器网络的高动态、逼真肖像图像动画技术。
Hallo3是一种用于肖像图像动画的技术,它利用预训练的基于变换器的视频生成模型,能够生成高度动态和逼真的视频,有效解决了非正面视角、动态对象渲染和沉浸式背景生成等挑战。该技术由复旦大学和百度公司的研究人员共同开发,具有强大的泛化能力,为肖像动画领域带来了新的突破。
SVFR是一个用于视频人脸修复的统一框架。
SVFR(Stable Video Face Restoration)是一个用于广义视频人脸修复的统一框架。它整合了视频人脸修复(BFR)、着色和修复任务,通过利用Stable Video Diffusion(SVD)的生成和运动先验,并结合统一的人脸修复框架中的任务特定信息,有效结合了这些任务的互补优势,增强了时间连贯性并实现了卓越的修复质量。该框架引入了可学习的任务嵌入以增强任务识别,并采用新颖的统一潜在正则化(ULR)来鼓励不同子任务之间的共享特征表示学习。此外,还引入了面部先验学习和自引用细化作为辅助策略,以进一步提高修复质量和时间稳定性。SVFR在视频人脸修复领域取得了最先进的成果,并为广义视频人脸修复建立了新的范式。
开源图像到视频生成模型
Ruyi-Mini-7B是由CreateAI团队开发的开源图像到视频生成模型,具有约71亿参数,能够从输入图像生成360p到720p分辨率的视频帧,最长5秒。模型支持不同宽高比,并增强了运动和相机控制功能,提供更大的灵活性和创造力。该模型在Apache 2.0许可下发布,意味着用户可以自由使用和修改。
图生视频大模型,专为动漫和游戏场景设计
Ruyi是图森未来发布的图生视频大模型,专为在消费级显卡上运行而设计,并提供详尽的部署说明和ComfyUI工作流,以便用户能够快速上手。Ruyi凭借在帧间一致性、动作流畅性方面的卓越表现,以及和谐自然的色彩呈现和构图,将为视觉叙事提供全新的可能性。同时,该模型还针对动漫和游戏场景进行深度学习,将成为ACG爱好者理想的创意伙伴。
端侧全模态理解模型,软硬协同释放无穹端侧智能
Infini-Megrez是一个由无问芯穹研发的端侧全模态理解模型,它基于Megrez-3B-Instruct扩展,具备图片、文本、音频三种模态数据的理解分析能力,并在图像理解、语言理解和语音理解三个方面均取得最优精度。该模型通过软硬协同优化,确保了各结构参数与主流硬件高度适配,推理速度领先同精度模型最大300%。它简单易用,采用最原始的LLaMA结构,开发者无需任何修改便可将模型部署于各种平台,最小化二次开发复杂度。此外,Infini-Megrez还提供了完整的WebSearch方案,使模型可以自动决策搜索调用时机,在搜索和对话中自动切换,并提供更好的总结效果。
大规模基础世界模型,生成多样的3D可操作环境
Genie 2是由Google DeepMind开发的一款大规模基础世界模型,能够基于单一提示图像生成无尽的、可操作的、可玩的3D环境,用于训练和评估具身智能体。Genie 2代表了深度学习和人工智能领域的一大进步,它通过模拟虚拟世界及其行动后果,展示了在大规模生成模型中的多种紧急能力,如物体交互、复杂角色动画、物理模拟等。Genie 2的研究推动了新的创意工作流程,用于原型化交互体验,并为未来更通用的AI系统和智能体的研究提供了新的可能性。
腾讯开源的大型视频生成模型训练框架
HunyuanVideo是腾讯开源的一个系统性框架,用于训练大型视频生成模型。该框架通过采用数据策划、图像-视频联合模型训练和高效的基础设施等关键技术,成功训练了一个超过130亿参数的视频生成模型,是所有开源模型中最大的。HunyuanVideo在视觉质量、运动多样性、文本-视频对齐和生成稳定性方面表现出色,超越了包括Runway Gen-3、Luma 1.6在内的多个行业领先模型。通过开源代码和模型权重,HunyuanVideo旨在缩小闭源和开源视频生成模型之间的差距,推动视频生成生态系统的活跃发展。
文本图像到视频生成模型
Allegro-TI2V是一个文本图像到视频生成模型,它能够根据用户提供的提示和图像生成视频内容。该模型以其开源性、多样化的内容创作能力、高质量的输出、小巧高效的模型参数以及支持多种精度和GPU内存优化而受到关注。它代表了当前人工智能技术在视频生成领域的前沿进展,具有重要的技术价值和商业应用潜力。Allegro-TI2V模型在Hugging Face平台上提供,遵循Apache 2.0开源协议,用户可以免费下载和使用。
视频生成模型Sora的存档库
SoraVids是一个基于Hugging Face平台的视频生成模型Sora的存档库。它包含了87个视频和83个对应的提示,这些视频和提示在OpenAI撤销API密钥前被公开展示。这些视频均为MIME类型video/mp4,帧率为30 FPS。SoraVids的背景是OpenAI的视频生成技术,它允许用户通过文本提示生成视频内容。这个存档库的重要性在于它保存了在API密钥被撤销前生成的视频,为研究和教育提供了宝贵的资源。
基于DiT的视频生成模型,实时生成高质量视频。
LTX-Video是由Lightricks开发的首个基于DiT的视频生成模型,能够实时生成高质量的视频内容。该模型以24 FPS的速度生成768x512分辨率的视频,速度超过观看速度。模型经过大规模多样化视频数据集的训练,能够生成高分辨率且内容真实多样的视频。LTX-Video支持文本到视频(text-to-video)以及图像+文本到视频(image+text-to-video)的应用场景。
3D网格生成与语言模型的统一
LLaMA-Mesh是一项将大型语言模型(LLMs)预训练在文本上扩展到生成3D网格的能力的技术。这项技术利用了LLMs中已经嵌入的空间知识,并实现了对话式3D生成和网格理解。LLaMA-Mesh的主要优势在于它能够将3D网格的顶点坐标和面定义表示为纯文本,允许与LLMs直接集成而无需扩展词汇表。该技术的主要优点包括能够从文本提示生成3D网格、按需产生交错的文本和3D网格输出,以及理解和解释3D网格。LLaMA-Mesh在保持强大的文本生成性能的同时,实现了与从头开始训练的模型相当的网格生成质量。
视频扩散模型,用于虚拟试穿。
Fashion-VDM是一个视频扩散模型(VDM),用于生成虚拟试穿视频。该模型接受一件衣物图片和人物视频作为输入,旨在生成人物穿着给定衣物的高质量试穿视频,同时保留人物的身份和动作。与传统的基于图像的虚拟试穿相比,Fashion-VDM在衣物细节和时间一致性方面表现出色。该技术的主要优点包括:扩散式架构、分类器自由引导增强控制、单次64帧512px视频生成的渐进式时间训练策略,以及联合图像-视频训练的有效性。Fashion-VDM在视频虚拟试穿领域树立了新的行业标准。
高度表现力的肖像动画技术
字节跳动智能创作团队推出最新单图视频驱动技术 X-Portrait 2。X-Portrait 2是一种肖像动画技术,它通过用户提供的静态肖像图像和驱动表演视频,能够生成具有高度表现力和真实感的角色动画和视频片段。这项技术显著降低了现有的动作捕捉、角色动画和内容创作流程的复杂性。X-Portrait 2通过构建一个最先进的表情编码器模型,隐式编码输入中的每一个微小表情,并通过大规模数据集进行训练。然后,该编码器与强大的生成扩散模型结合,生成流畅且富有表现力的视频。X-Portrait 2能够传递微妙和微小的面部表情,包括撅嘴、吐舌、脸颊充气和皱眉等具有挑战性的表情,并在生成的视频中实现高保真的情感传递。
© 2025 AIbase 备案号:闽ICP备08105208号-14