高保真头部混合与色键技术
CHANGER是一个创新的工业级头部混合技术,通过色键技术实现高保真度的头部混合效果,特别适用于视觉效果(VFX)、数字人物创建和虚拟头像等领域。该技术通过分离背景集成和前景混合,利用色键生成无瑕疵的背景,并引入头部形状和长发增强(H^2增强)以及前景预测性注意力转换器(FPAT)模块,以提高对各种真实世界情况的泛化能力。CHANGER的主要优点包括高保真度、工业级结果、以及对真实世界案例的广泛适用性。
高保真文本引导的音乐生成与编辑模型
MelodyFlow是一个基于文本控制的高保真音乐生成和编辑模型,它使用连续潜在表示序列,避免了离散表示的信息丢失问题。该模型基于扩散变换器架构,经过流匹配目标训练,能够生成和编辑多样化的高质量立体声样本,且具有文本描述的简单性。MelodyFlow还探索了一种新的正则化潜在反转方法,用于零样本测试时的文本引导编辑,并展示了其在多种音乐编辑提示中的优越性能。该模型在客观和主观指标上进行了评估,证明了其在标准文本到音乐基准测试中的质量与效率上与评估基线相当,并且在音乐编辑方面超越了以往的最先进技术。
Genmo 的视频生成模型,具有高保真运动和强提示遵循性。
这是一个先进的视频生成模型,采用 AsymmDiT 架构,可免费试用。它能生成高保真视频,缩小了开源与闭源视频生成系统的差距。模型需要至少 4 个 H100 GPU 运行。
集成空间编织注意力,提升扩散模型的高保真条件
HelloMeme是一个集成了空间编织注意力的扩散模型,旨在将高保真和丰富的条件嵌入到图像生成过程中。该技术通过提取驱动视频中的每一帧特征,并将其作为输入到HMControlModule,从而生成视频。通过进一步优化Animatediff模块,提高了生成视频的连续性和保真度。此外,HelloMeme还支持通过ARKit面部混合形状控制生成的面部表情,以及基于SD1.5的Lora或Checkpoint,实现了框架的热插拔适配器,不会影响T2I模型的泛化能力。
一种基于扩散模型的逼真发型转移技术。
Stable-Hair 是一种新颖的基于扩散模型的发型转移方法,能够稳健地将真实世界的多样化发型转移到用户提供的面部图像上,用于虚拟试戴。该方法在处理复杂和多样化的发型时表现出色,能够保持原有身份内容和结构,同时实现高度详细和高保真的转移效果。
使用频域分解进行高保真、可迁移的NeRF编辑
Freditor是一种基于频域分解的NeRF编辑方法。它可以实现高保真的NeRF场景编辑,并且可迁移到其他场景。该方法将NeRF场景划分为高频和低频两部分,对低频部分进行风格迁移,并将高频细节重新集成,从而生成高保真的编辑结果。Freditor还支持在推理过程中对编辑强度进行控制。实验表明,该方法在保真度和可迁移性方面都优于现有的NeRF编辑方法。
视频生成模型,支持无限长度高保真虚拟人视频生成
MuseV是一个基于扩散模型的虚拟人视频生成框架,支持无限长度视频生成,采用了新颖的视觉条件并行去噪方案。它提供了预训练的虚拟人视频生成模型,支持Image2Video、Text2Image2Video、Video2Video等功能,兼容Stable Diffusion生态系统,包括基础模型、LoRA、ControlNet等。它支持多参考图像技术,如IPAdapter、ReferenceOnly、ReferenceNet、IPAdapterFaceID等。MuseV的优势在于可生成高保真无限长度视频,定位于视频生成领域。
Stability AI 高保真文本转语音模型
Stability AI 高保真文本转语音模型旨在提供对大规模数据集进行训练的语音合成模型的自然语言引导。它通过标注不同的说话者身份、风格和录音条件来进行自然语言引导。然后将此方法应用于45000小时的数据集,用于训练语音语言模型。此外,该模型提出了提高音频保真度的简单方法,尽管完全依赖于发现的数据,但在很大程度上表现出色。
© 2024 AIbase 备案号:闽ICP备08105208号-14