需求人群:
用于将静态图像转化为动画,适用于各种图像动画场景
产品特色:
从单张图像和动态视频生成动画视频
保持时域一致性
提升动画保真度
支持跨身份的动画和未见过的领域
与T2I扩散模型无缝集成
浏览量:966
最新流量情况
月访问量
4217
平均访问时长
00:00:07
每次访问页数
1.75
跳出率
43.65%
流量来源
直接访问
33.92%
自然搜索
50.55%
邮件
0.13%
外链引荐
8.46%
社交媒体
5.84%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
德国
14.45%
法国
13.90%
印度
11.68%
乌克兰
7.24%
美国
33.55%
使用扩散模型实现时域一致的人体图像动画
MagicAnimate是一款基于扩散模型的先进框架,用于人体图像动画。它能够从单张图像和动态视频生成动画视频,具有时域一致性,能够保持参考图像的特征,并显著提升动画的保真度。MagicAnimate支持使用来自各种来源的动作序列进行图像动画,包括跨身份的动画和未见过的领域,如油画和电影角色。它还与DALLE3等T2I扩散模型无缝集成,可以根据文本生成的图像赋予动态动作。MagicAnimate由新加坡国立大学Show Lab和Bytedance字节跳动共同开发。
基于扩散模型的肖像图像动画技术
Hallo是一个由复旦大学开发的肖像图像动画技术,它利用扩散模型生成逼真且动态的肖像动画。与传统依赖参数模型的中间面部表示不同,Hallo采用端到端的扩散范式,并引入了一个分层的音频驱动视觉合成模块,以增强音频输入和视觉输出之间的对齐精度,包括嘴唇、表情和姿态运动。该技术提供了对表情和姿态多样性的自适应控制,能够更有效地实现个性化定制,适用于不同身份的人。
基于视频扩散先验为开放域图像添加动画的工具
DynamiCrafter是一款由Jinbo Xing、Menghan Xia等人开发的图像动画工具。通过利用预训练的视频扩散先验,DynamiCrafter可以基于文本提示为开放域的静止图像添加动画效果。该工具支持高分辨率模型,提供更好的动态效果、更高的分辨率和更强的一致性。DynamiCrafter主要用于故事视频生成、循环视频生成和生成帧插值等场景。
X-Dyna是一种基于扩散模型的零样本人类图像动画生成技术。
X-Dyna是一种创新的零样本人类图像动画生成技术,通过将驱动视频中的面部表情和身体动作迁移到单张人类图像上,生成逼真且富有表现力的动态效果。该技术基于扩散模型,通过Dynamics-Adapter模块,将参考外观上下文有效整合到扩散模型的空间注意力中,同时保留运动模块合成流畅复杂动态细节的能力。它不仅能够实现身体姿态控制,还能通过本地控制模块捕捉与身份无关的面部表情,实现精确的表情传递。X-Dyna在多种人类和场景视频的混合数据上进行训练,能够学习物理人体运动和自然场景动态,生成高度逼真和富有表现力的动画。
使用扩散模型进行图像外延
Diffusers Image Outpaint 是一个基于扩散模型的图像外延技术,它能够根据已有的图像内容,生成图像的额外部分。这项技术在图像编辑、游戏开发、虚拟现实等领域具有广泛的应用前景。它通过先进的机器学习算法,使得图像生成更加自然和逼真,为用户提供了一种创新的图像处理方式。
基于扩散模型的音频驱动人像和动物图像动画技术
JoyVASA是一种基于扩散模型的音频驱动人像动画技术,它通过分离动态面部表情和静态3D面部表示来生成面部动态和头部运动。这项技术不仅能够提高视频质量和唇形同步的准确性,还能扩展到动物面部动画,支持多语言,并在训练和推理效率上有所提升。JoyVASA的主要优点包括更长视频生成能力、独立于角色身份的运动序列生成以及高质量的动画渲染。
基于图像扩散模型的得分蒸馏采样方法
Score Distillation Sampling(SDS)是一种新近但已经广泛流行的方法,依赖于图像扩散模型来控制使用文本提示的优化问题。该论文对SDS损失函数进行了深入分析,确定了其制定中的固有问题,并提出了一个出人意料但有效的修复方法。具体而言,我们将损失分解为不同因素,并分离出产生噪声梯度的组件。在原始制定中,使用高文本指导来账户噪声,导致了不良副作用。相反,我们训练了一个浅层网络,模拟图像扩散模型的时间步相关去噪不足,以有效地将其分解出来。我们通过多个定性和定量实验(包括基于优化的图像合成和编辑、零样本图像转换网络训练、以及文本到3D合成)展示了我们新颖损失制定的多功能性和有效性。
快速生成高质量图像的扩散模型
Flash Diffusion 是一种高效的图像生成模型,通过少步骤生成高质量的图像,适用于多种图像处理任务,如文本到图像、修复、超分辨率等。该模型在 COCO2014 和 COCO2017 数据集上达到了最先进的性能,同时训练时间少,参数数量少。
基于文本提示修订图像的大型扩散模型
SeedEdit是Doubao Team推出的大型扩散模型,用于根据任何文本提示修订图像。它通过逐步将图像生成器与强大的图像编辑器对齐,实现了图像重建和图像再生之间的最佳平衡。SeedEdit能够实现高审美/分辨率图像的零样本稳定编辑,并支持图像的连续修订。该技术的重要性在于其能够解决图像编辑问题中成对图像数据稀缺的核心难题,通过将文本到图像(T2I)生成模型视为弱编辑模型,并通过生成带有新提示的新图像来实现“编辑”,然后将其蒸馏并与之对齐到图像条件编辑模型中。
利用预训练的图像到视频扩散模型生成连贯中间帧
该产品是一个图像到视频的扩散模型,通过轻量级的微调技术,能够从一对关键帧生成具有连贯运动的连续视频序列。这种方法特别适用于需要在两个静态图像之间生成平滑过渡动画的场景,如动画制作、视频编辑等。它利用了大规模图像到视频扩散模型的强大能力,通过微调使其能够预测两个关键帧之间的视频,从而实现前向和后向的一致性。
使用扩散模型实现时间一致性的人像动画
TCAN是一种基于扩散模型的新型人像动画框架,它能够保持时间一致性并很好地泛化到未见过的领域。该框架通过特有的模块,如外观-姿态自适应层(APPA层)、时间控制网络和姿态驱动的温度图,来确保生成的视频既保持源图像的外观,又遵循驱动视频的姿态,同时保持背景的一致性。
多功能大规模扩散模型,支持双向图像合成与理解。
OneDiffusion是一个多功能、大规模的扩散模型,它能够无缝支持双向图像合成和理解,覆盖多种任务。该模型预计将在12月初发布代码和检查点。OneDiffusion的重要性在于其能够处理图像合成和理解任务,这在人工智能领域是一个重要的进步,尤其是在图像生成和识别方面。产品背景信息显示,这是一个由多位研究人员共同开发的项目,其研究成果已在arXiv上发表。
3D模型动画生成
Animate3D是一个创新的框架,用于为任何静态3D模型生成动画。它的核心理念包括两个主要部分:1) 提出一种新的多视图视频扩散模型(MV-VDM),该模型基于静态3D对象的多视图渲染,并在我们提供的大规模多视图视频数据集(MV-Video)上进行训练。2) 基于MV-VDM,引入了一个结合重建和4D得分蒸馏采样(4D-SDS)的框架,利用多视图视频扩散先验来为3D对象生成动画。Animate3D通过设计新的时空注意力模块来增强空间和时间一致性,并通过多视图渲染来保持静态3D模型的身份。此外,Animate3D还提出了一个有效的两阶段流程来为3D模型生成动画:首先从生成的多视图视频中直接重建运动,然后通过引入的4D-SDS来细化外观和运动。
一种基于图像到视频扩散模型的视频编辑技术
I2VEdit是一种创新的视频编辑技术,通过预训练的图像到视频模型,将单一帧的编辑扩展到整个视频。这项技术能够适应性地保持源视频的视觉和运动完整性,并有效处理全局编辑、局部编辑以及适度的形状变化,这是现有方法所不能实现的。I2VEdit的核心包括两个主要过程:粗略运动提取和外观细化,通过粗粒度注意力匹配进行精确调整。此外,还引入了跳过间隔策略,以减轻多个视频片段自动回归生成过程中的质量下降。实验结果表明,I2VEdit在细粒度视频编辑方面的优越性能,证明了其能够产生高质量、时间一致的输出。
RWKV架构的可扩展扩散模型
Diffusion-RWKV是一种基于RWKV架构的扩散模型,旨在提高扩散模型的可扩展性。它针对图像生成任务进行了相应的优化和改进,可以生成高质量的图像。该模型支持无条件和类条件训练,具有较好的性能和可扩展性。
神经网络扩散模型实现
Neural Network Diffusion是由新加坡国立大学高性能计算与人工智能实验室开发的神经网络扩散模型。该模型利用扩散过程生成高质量的图像,适用于图像生成和修复等任务。
改进扩散模型采样质量的免费方法
FreeU是一种方法,可以在不增加成本的情况下显著提高扩散模型的采样质量:无需训练,无需引入额外参数,无需增加内存或采样时间。该方法通过重新加权U-Net的跳跃连接和主干特征图的贡献,结合U-Net架构的两个组成部分的优势,从而提高生成质量。通过在图像和视频生成任务上进行实验,我们证明了FreeU可以轻松集成到现有的扩散模型中,例如Stable Diffusion、DreamBooth、ModelScope、Rerender和ReVersion,只需几行代码即可改善生成质量。
升级扩散模型插件通用兼容性
X-Adapter是一个通用升级工具,可以使预训练的插件模块(例如ControlNet、LoRA)直接与升级的文本到图像扩散模型(例如SD-XL)配合使用,无需进一步重新训练。通过训练额外的网络来控制冻结的升级模型,X-Adapter保留旧模型的连接器,并添加可训练的映射层以连接不同版本模型的解码器进行特征重映射。重映射的特征将作为升级模型的引导。为了增强X-Adapter的引导能力,我们采用空文本训练策略。在训练后,我们还引入了两阶段去噪策略,以调整X-Adapter和升级模型的初始潜变量。X-Adapter展示了与各种插件的通用兼容性,并使不同版本的插件能够共同工作,从而扩展了扩散社区的功能。我们进行了大量实验证明,X-Adapter可能在升级的基础扩散模型中有更广泛的应用。
基于扩散反转的多步图像超分辨率模型
InvSR是一种基于扩散反转的图像超分辨率技术,利用大型预训练扩散模型中丰富的图像先验来提高超分辨率性能。该技术通过部分噪声预测策略构建扩散模型的中间状态,作为起始采样点,并使用深度噪声预测器估计最优噪声图,从而在前向扩散过程中初始化采样,生成高分辨率结果。InvSR支持任意数量的采样步骤,从一到五步不等,即使仅使用单步采样,也展现出优于或媲美现有最先进方法的性能。
一张图生成多视角扩散基础模型
Zero123++是一个单图生成多视角一致性扩散基础模型。它可以从单个输入图像生成多视角图像,具有稳定的扩散VAE。您可以使用它来生成具有灰色背景的不透明图像。您还可以使用它来运行深度ControlNet。模型和源代码均可在官方网站上获得。
AnyDoor AI是一款突破性的图像生成工具,其设计理念基于扩散模型。
AnyDoor AI是一款突破性的图像生成工具,其设计理念基于扩散模型。它可以无缝地将目标物体嵌入到用户指定的新场景位置。AnyDoor先使用分割器去除目标物体的背景,然后使用ID提取器捕捉身份信息(ID令牌)。这些信息以及目标物体的细节被输入到一个预训练的文本到图像扩散模型中。在提取的信息和细节的指导下,该模型生成所需的图像。这个模型的独特之处在于,它不需要为每个物体调整参数。此外,它强大的自定义功能允许用户轻松地在场景图像中定位和调整物体,实现高保真和多样化的零次射物体-场景合成。除了照片编辑之外,该工具在电子商务领域也具有广阔的应用前景。借助AnyDoor,“一键更换服装”等概念得以实现,使用真人模型进行衣着互换,为用户提供更加个性化的购物体验。从更广泛的意义上说,AnyDoor也可以被理解为“一键Photoshop合成”或Photoshop中的“上下文感知移动工具”。它具有无缝图像集成和交换场景物体以及将图像对象放置到目标位置的功能。通过利用先进技术的力量,AnyDoor从本质上重新定义了图像操作,承诺在日常交互中提供多种更人性化的应用。
加速高分辨率扩散模型推理
DistriFusion是一个训练不需要的算法,可以利用多个GPU来加速扩散模型推理,而不会牺牲图像质量。DistriFusion可以根据使用的设备数量减少延迟,同时保持视觉保真度。
文本到图像扩散模型的美学质量提升工具
VMix是一种用于提升文本到图像扩散模型美学质量的技术,通过创新的条件控制方法——价值混合交叉注意力,系统性地增强图像的美学表现。VMix作为一个即插即用的美学适配器,能够在保持视觉概念通用性的同时提升生成图像的质量。VMix的关键洞见是通过设计一种优越的条件控制方法来增强现有扩散模型的美学表现,同时保持图像与文本的对齐。VMix足够灵活,可以应用于社区模型,以实现更好的视觉性能,无需重新训练。
稳定签名:将水印根植于潜在扩散模型中
Stable Signature是一种将水印嵌入图像中的方法,它使用潜在扩散模型(LDM)来提取和嵌入水印。该方法具有高度的稳定性和鲁棒性,可以在多种攻击下保持水印的可读性。Stable Signature提供了预训练模型和代码实现,用户可以使用它来嵌入和提取水印。
通用角色图像动画框架,支持多种角色类型动画生成。
Animate-X是一个基于LDM的通用动画框架,用于各种角色类型(统称为X),包括人物拟态角色。该框架通过引入姿势指示器来增强运动表示,可以更全面地从驱动视频中捕获运动模式。Animate-X的主要优点包括对运动的深入建模,能够理解驱动视频的运动模式,并将其灵活地应用到目标角色上。此外,Animate-X还引入了一个新的Animated Anthropomorphic Benchmark (A2Bench) 来评估其在通用和广泛适用的动画图像上的性能。
基于扩散的混合运动动态角色艺术动画生成工具
MikuDance是一个基于扩散的动画生成管道,它结合了混合运动动态来动画化风格化的角色艺术。该技术通过混合运动建模和混合控制扩散两大关键技术,解决了高动态运动和参考引导错位在角色艺术动画中的挑战。MikuDance通过场景运动跟踪策略显式地在像素级空间中建模动态相机,实现统一的角色场景运动建模。在此基础上,混合控制扩散隐式地对不同角色的尺度和体型进行对齐,允许灵活控制局部角色运动。此外,还加入了运动自适应归一化模块,有效注入全局场景运动,为全面的角色艺术动画铺平了道路。通过广泛的实验,MikuDance在各种角色艺术和运动引导下展示了其有效性和泛化能力,始终如一地产生具有显著运动动态的高质量动画。
© 2025 AIbase 备案号:闽ICP备08105208号-14