需求人群:
"目标受众为时尚设计师、服装零售商以及虚拟试穿技术爱好者。Fashion-VDM能够帮助设计师和零售商在不实际生产服装的情况下,为客户提供虚拟试穿体验,减少库存成本,同时为技术爱好者提供前沿的AI试穿技术体验。"
使用场景示例:
时尚设计师使用Fashion-VDM为客户创建个性化的试穿视频。
电商平台利用Fashion-VDM提供在线试衣间服务,提升用户购物体验。
服装品牌通过Fashion-VDM在社交媒体上展示新款服装的试穿效果,吸引潜在顾客。
产品特色:
- 视频扩散模型:生成高质量的虚拟试穿视频。
- 保持人物身份和动作:在试穿过程中保留人物的原始特征。
- 分类器自由引导:增强对条件输入的控制。
- 渐进式时间训练:提高视频生成的时间一致性。
- 联合图像-视频训练:在视频数据有限时提高训练效果。
- 3D-Conv和时间注意力块:维持视频的时间连贯性。
- 多条件信号控制:独立控制多个条件信号。
使用教程:
1. 准备输入衣物图片和人物视频。
2. 将输入数据上传至Fashion-VDM模型。
3. 选择所需的试穿效果和参数设置。
4. 启动模型生成虚拟试穿视频。
5. 观察并评估生成的视频质量,确保衣物细节和时间一致性。
6. 如有需要,调整参数并重新生成视频直至满意。
7. 将生成的虚拟试穿视频用于设计评估、客户展示或其他用途。
浏览量:148
最新流量情况
月访问量
2483
平均访问时长
00:00:47
每次访问页数
1.19
跳出率
47.40%
流量来源
直接访问
55.02%
自然搜索
22.11%
邮件
0.07%
外链引荐
7.67%
社交媒体
14.30%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
巴西
23.11%
加拿大
5.31%
印度
11.14%
美国
52.03%
南非
4.64%
视频扩散模型,用于虚拟试穿。
Fashion-VDM是一个视频扩散模型(VDM),用于生成虚拟试穿视频。该模型接受一件衣物图片和人物视频作为输入,旨在生成人物穿着给定衣物的高质量试穿视频,同时保留人物的身份和动作。与传统的基于图像的虚拟试穿相比,Fashion-VDM在衣物细节和时间一致性方面表现出色。该技术的主要优点包括:扩散式架构、分类器自由引导增强控制、单次64帧512px视频生成的渐进式时间训练策略,以及联合图像-视频训练的有效性。Fashion-VDM在视频虚拟试穿领域树立了新的行业标准。
一种新颖的图像到视频采样技术,基于Hunyuan模型实现高质量视频生成。
leapfusion-hunyuan-image2video 是一种基于 Hunyuan 模型的图像到视频生成技术。它通过先进的深度学习算法,将静态图像转换为动态视频,为内容创作者提供了一种全新的创作方式。该技术的主要优点包括高效的内容生成、灵活的定制化能力以及对高质量视频输出的支持。它适用于需要快速生成视频内容的场景,如广告制作、视频特效等领域。该模型目前以开源形式发布,供开发者和研究人员免费使用,未来有望通过社区贡献进一步提升其性能。
一种基于扩散变换器网络的高动态、逼真肖像图像动画技术。
Hallo3是一种用于肖像图像动画的技术,它利用预训练的基于变换器的视频生成模型,能够生成高度动态和逼真的视频,有效解决了非正面视角、动态对象渲染和沉浸式背景生成等挑战。该技术由复旦大学和百度公司的研究人员共同开发,具有强大的泛化能力,为肖像动画领域带来了新的突破。
基于扩散模型的高保真服装重建虚拟试穿技术
TryOffDiff是一种基于扩散模型的高保真服装重建技术,用于从穿着个体的单张照片中生成标准化的服装图像。这项技术与传统的虚拟试穿不同,它旨在提取规范的服装图像,这在捕捉服装形状、纹理和复杂图案方面提出了独特的挑战。TryOffDiff通过使用Stable Diffusion和基于SigLIP的视觉条件来确保高保真度和细节保留。该技术在VITON-HD数据集上的实验表明,其方法优于基于姿态转移和虚拟试穿的基线方法,并且需要较少的预处理和后处理步骤。TryOffDiff不仅能够提升电子商务产品图像的质量,还能推进生成模型的评估,并激发未来在高保真重建方面的工作。
开源视频生成模型
genmoai/models 是一个开源的视频生成模型,代表了视频生成技术的最新进展。该模型名为 Mochi 1,是一个基于 Asymmetric Diffusion Transformer (AsymmDiT) 架构的10亿参数扩散模型,从零开始训练,是迄今为止公开发布的最大的视频生成模型。它具有高保真运动和强提示遵循性,显著缩小了封闭和开放视频生成系统之间的差距。该模型在 Apache 2.0 许可下发布,用户可以在 Genmo 的 playground 上免费试用此模型。
一种通过计数事实数据集和自举监督实现真实物体删除和插入的方法
ObjectDrop是一种监督方法,旨在实现照片级真实的物体删除和插入。它利用了一个计数事实数据集和自助监督技术。主要功能是可以从图像中移除物体及其对场景产生的影响(如遮挡、阴影和反射),也能够将物体以极其逼真的方式插入图像。它通过在一个小型的专门捕获的数据集上微调扩散模型来实现物体删除,而对于物体插入,它采用自助监督方式利用删除模型合成大规模的计数事实数据集,在此数据集上训练后再微调到真实数据集,从而获得高质量的插入模型。相比之前的方法,ObjectDrop在物体删除和插入的真实性上有了显著提升。
SkyReels-V1 是首个开源的人类中心视频基础模型,专注于高质量视频生成。
SkyReels-V1 是一个开源的人类中心视频基础模型,基于高质量影视片段微调,专注于生成高质量的视频内容。该模型在开源领域达到了顶尖水平,与商业模型相媲美。其主要优势包括:高质量的面部表情捕捉、电影级的光影效果以及高效的推理框架 SkyReelsInfer,支持多 GPU 并行处理。该模型适用于需要高质量视频生成的场景,如影视制作、广告创作等。
VisionAgent是一个用于生成代码以解决视觉任务的库,支持多种LLM提供商。
VisionAgent是一个强大的工具,它利用人工智能和大语言模型(LLM)来生成代码,帮助用户快速解决视觉任务。该工具的主要优点是能够自动将复杂的视觉任务转化为可执行的代码,极大地提高了开发效率。VisionAgent支持多种LLM提供商,用户可以根据自己的需求选择不同的模型。它适用于需要快速开发视觉应用的开发者和企业,能够帮助他们在短时间内实现功能强大的视觉解决方案。VisionAgent目前是免费的,旨在为用户提供高效、便捷的视觉任务处理能力。
使用简单的提示和图像生成视频片段。
Adobe Firefly 是一款基于人工智能技术的视频生成工具。它能够根据用户提供的简单提示或图像快速生成高质量的视频片段。该技术利用先进的 AI 算法,通过对大量视频数据的学习和分析,实现自动化的视频创作。其主要优点包括操作简单、生成速度快、视频质量高。Adobe Firefly 面向创意工作者、视频制作者以及需要快速生成视频内容的用户,提供高效、便捷的视频创作解决方案。目前该产品处于 Beta 测试阶段,用户可以免费使用,未来可能会根据市场需求和产品发展进行定价和定位。
On-device Sora 是一个基于扩散模型的移动设备端文本到视频生成项目。
On-device Sora 是一个开源项目,旨在通过线性比例跳跃(LPL)、时间维度标记合并(TDTM)和动态加载并发推理(CI-DL)等技术,实现在移动设备(如 iPhone 15 Pro)上高效的视频生成。该项目基于 Open-Sora 模型开发,能够根据文本输入生成高质量视频。其主要优点包括高效性、低功耗和对移动设备的优化。该技术适用于需要在移动设备上快速生成视频内容的场景,如短视频创作、广告制作等。项目目前开源,用户可以免费使用。
Lumina-Video 是一个用于视频生成的初步尝试项目,支持文本到视频的生成。
Lumina-Video 是 Alpha-VLLM 团队开发的一个视频生成模型,主要用于从文本生成高质量的视频内容。该模型基于深度学习技术,能够根据用户输入的文本提示生成对应的视频,具有高效性和灵活性。它在视频生成领域具有重要意义,为内容创作者提供了强大的工具,能够快速生成视频素材。目前该项目已开源,支持多种分辨率和帧率的视频生成,并提供了详细的安装和使用指南。
Goku 是一款基于流的视频生成基础模型,专注于高质量视频生成。
Goku 是一个专注于视频生成的人工智能模型,能够根据文本提示生成高质量的视频内容。该模型基于先进的流式生成技术,能够生成流畅且具有吸引力的视频,适用于多种场景,如广告、娱乐和创意内容制作。Goku 的主要优点在于其高效的生成能力和对复杂场景的出色表现能力,能够显著降低视频制作成本,同时提升内容的吸引力。该模型由香港大学和字节跳动的研究团队共同开发,旨在推动视频生成技术的发展。
VideoWorld是一个探索从无标签视频中学习知识的深度生成模型。
VideoWorld是一个专注于从纯视觉输入(无标签视频)中学习复杂知识的深度生成模型。它通过自回归视频生成技术,探索如何仅通过视觉信息学习任务规则、推理和规划能力。该模型的核心优势在于其创新的潜在动态模型(LDM),能够高效地表示多步视觉变化,从而显著提升学习效率和知识获取能力。VideoWorld在视频围棋和机器人控制任务中表现出色,展示了其强大的泛化能力和对复杂任务的学习能力。该模型的研究背景源于对生物体通过视觉而非语言学习知识的模仿,旨在为人工智能的知识获取开辟新的途径。
VideoJAM 是一种用于增强视频生成模型运动连贯性的框架。
VideoJAM 是一种创新的视频生成框架,旨在通过联合外观 - 运动表示来提升视频生成模型的运动连贯性和视觉质量。该技术通过引入内指导机制(Inner-Guidance),利用模型自身预测的运动信号动态引导视频生成,从而在生成复杂运动类型时表现出色。VideoJAM 的主要优点是能够显著提高视频生成的连贯性,同时保持高质量的视觉效果,且无需对训练数据或模型架构进行大规模修改,即可应用于任何视频生成模型。该技术在视频生成领域具有重要的应用前景,尤其是在需要高度运动连贯性的场景中。
一种用于控制视频扩散模型运动模式的高效方法,支持运动模式的自定义和迁移。
Go with the Flow 是一种创新的视频生成技术,通过使用扭曲噪声代替传统的高斯噪声,实现了对视频扩散模型运动模式的高效控制。该技术无需对原始模型架构进行修改,即可在不增加计算成本的情况下,实现对视频中物体和相机运动的精确控制。其主要优点包括高效性、灵活性和可扩展性,能够广泛应用于图像到视频生成、文本到视频生成等多种场景。该技术由 Netflix Eyeline Studios 等机构的研究人员开发,具有较高的学术价值和商业应用潜力,目前开源免费提供给公众使用。
OmniHuman-1 是一种基于单张人像和运动信号生成人类视频的多模态框架。
OmniHuman-1 是一个端到端的多模态条件人类视频生成框架,能够基于单张人像和运动信号(如音频、视频或其组合)生成人类视频。该技术通过混合训练策略克服了高质量数据稀缺的问题,支持任意宽高比的图像输入,生成逼真的人类视频。它在弱信号输入(尤其是音频)方面表现出色,适用于多种场景,如虚拟主播、视频制作等。
MatAnyone 是一个支持目标指定的稳定视频抠像框架,适用于复杂背景。
MatAnyone 是一种先进的视频抠像技术,专注于通过一致的记忆传播实现稳定的视频抠像。它通过区域自适应记忆融合模块,结合目标指定的分割图,能够在复杂背景中保持语义稳定性和细节完整性。该技术的重要性在于它能够为视频编辑、特效制作和内容创作提供高质量的抠像解决方案,尤其适用于需要精确抠像的场景。MatAnyone 的主要优点是其在核心区域的语义稳定性和边界细节的精细处理能力。它由南洋理工大学和商汤科技的研究团队开发,旨在解决传统抠像方法在复杂背景下的不足。
GameFactory 是一个基于预训练视频扩散模型的通用世界模型,可创建开放领域的游戏。
GameFactory 是一个创新的通用世界模型,专注于从少量的《我的世界》游戏视频数据中学习,并利用预训练视频扩散模型的先验知识来生成新的游戏内容。该技术的核心优势在于其开放领域的生成能力,能够根据用户输入的文本提示和操作指令生成多样化的游戏场景和互动体验。它不仅展示了强大的场景生成能力,还通过多阶段训练策略和可插拔的动作控制模块,实现了高质量的交互式视频生成。该技术在游戏开发、虚拟现实和创意内容生成等领域具有广阔的应用前景,目前尚未明确其价格和商业化定位。
利用先进人工智能技术,将静态照片转化为浪漫接吻动画。
AI Kissing Video Generator Free 是一款基于先进人工智能技术的在线平台,能够将普通静态照片转化为自然流畅的浪漫接吻动画。该技术利用深度学习模型,专门针对浪漫互动进行训练,确保生成的动画高度逼真且自然。产品注重用户隐私与数据安全,所有上传内容在处理后自动删除。其主要面向情侣、内容创作者、婚礼策划师等群体,提供高质量的浪漫视频生成服务。产品提供免费试用版本,同时有付费升级选项,满足不同用户的需求。
Seaweed-APT是一种支持实时单步生成1280x720 24fps视频的模型。
Seaweed-APT是一种用于视频生成的模型,通过对抗性后训练技术,实现了大规模文本到视频的单步生成。该模型能够在短时间内生成高质量的视频,具有重要的技术意义和应用价值。其主要优点是速度快、生成效果好,适用于需要快速生成视频的场景。目前尚未明确具体的价格和市场定位。
大规模视频生成模型,可创建逼真视觉效果与自然连贯动作。
Luma Ray2 是一款先进的视频生成模型,基于 Luma 新的多模态架构训练,计算能力是 Ray1 的 10 倍。它能够理解文本指令,并可接受图像和视频输入,生成具有快速连贯动作、超逼真细节和逻辑事件序列的视频,使生成的视频更接近生产就绪状态。目前提供文本到视频的生成功能,图像到视频、视频到视频和编辑功能即将推出。产品主要面向需要高质量视频生成的用户,如视频创作者、广告公司等,目前仅对付费订阅用户开放,可通过官网链接尝试使用。
MangaNinja 是一种基于参考的线稿上色方法,可实现精确匹配和细粒度交互控制。
MangaNinja 是一种参考引导的线稿上色方法,它通过独特的设计确保精确的人物细节转录,包括用于促进参考彩色图像和目标线稿之间对应学习的块洗牌模块,以及用于实现细粒度颜色匹配的点驱动控制方案。该模型在自收集的基准测试中表现出色,超越了当前解决方案的精确上色能力。此外,其交互式点控制在处理复杂情况(如极端姿势和阴影)、跨角色上色、多参考协调等方面展现出巨大潜力,这些是现有算法难以实现的。MangaNinja 由来自香港大学、香港科技大学、通义实验室和蚂蚁集团的研究人员共同开发,相关论文已发表在 arXiv 上,代码也已开源。
一种从2D图像学习3D人体生成的结构化潜在扩散模型。
StructLDM是一个结构化潜在扩散模型,用于从2D图像学习3D人体生成。它能够生成多样化的视角一致的人体,并支持不同级别的可控生成和编辑,如组合生成和局部服装编辑等。该模型在无需服装类型或掩码条件的情况下,实现了服装无关的生成和编辑。项目由南洋理工大学S-Lab的Tao Hu、Fangzhou Hong和Ziwei Liu提出,相关论文发表于ECCV 2024。
FitDiT 是一种用于高保真虚拟试衣的新型服装感知增强技术。
FitDiT 旨在解决图像基础虚拟试衣中高保真度和鲁棒性不足的问题,通过引入服装纹理提取器和频域学习,以及采用扩张松弛掩码策略,显著提升了虚拟试衣的贴合度和细节表现,其主要优点是能够生成逼真且细节丰富的服装图像,适用于多种场景,具有较高的实用价值和竞争力,目前尚未明确具体价格和市场定位。
SVFR是一个用于视频人脸修复的统一框架。
SVFR(Stable Video Face Restoration)是一个用于广义视频人脸修复的统一框架。它整合了视频人脸修复(BFR)、着色和修复任务,通过利用Stable Video Diffusion(SVD)的生成和运动先验,并结合统一的人脸修复框架中的任务特定信息,有效结合了这些任务的互补优势,增强了时间连贯性并实现了卓越的修复质量。该框架引入了可学习的任务嵌入以增强任务识别,并采用新颖的统一潜在正则化(ULR)来鼓励不同子任务之间的共享特征表示学习。此外,还引入了面部先验学习和自引用细化作为辅助策略,以进一步提高修复质量和时间稳定性。SVFR在视频人脸修复领域取得了最先进的成果,并为广义视频人脸修复建立了新的范式。
一种支持多种视频生成控制任务的统一架构模型。
Diffusion as Shader (DaS) 是一种创新的视频生成控制模型,旨在通过3D感知的扩散过程实现对视频生成的多样化控制。该模型利用3D跟踪视频作为控制输入,能够在统一的架构下支持多种视频控制任务,如网格到视频生成、相机控制、运动迁移和对象操作等。DaS的主要优势在于其3D感知能力,能够有效提升生成视频的时间一致性,并在短时间内通过少量数据微调即可展现出强大的控制能力。该模型由香港科技大学等多所高校的研究团队共同开发,旨在推动视频生成技术的发展,为影视制作、虚拟现实等领域提供更为灵活和高效的解决方案。
定制化漫画生成模型,连接多模态LLMs和扩散模型。
DiffSensei是一个结合了多模态大型语言模型(LLMs)和扩散模型的定制化漫画生成模型。它能够根据用户提供的文本提示和角色图像,生成可控制的黑白漫画面板,并具有灵活的角色适应性。这项技术的重要性在于它将自然语言处理与图像生成相结合,为漫画创作和个性化内容生成提供了新的可能性。DiffSensei模型以其高质量的图像生成、多样化的应用场景以及对资源的高效利用而受到关注。目前,该模型在GitHub上公开,可以免费下载使用,但具体的使用可能需要一定的计算资源。
© 2025 AIbase 备案号:闽ICP备08105208号-14