需求人群:
"生成具有全身动作的2D虚拟视频形象,可用于视频直播、虚拟主播、动画角色等场景"
产品特色:
只需1分钟视频素材即可生成主播风格视频
精确重现上身和手部动作
结构引导的扩散模型将3D网格渲染为人物外观
两阶段训练策略将运动与外观绑定
3D U-Net和批重叠时序去噪实现任意长度视频生成
特定身份面部增强模块提升面部区域视觉质量
浏览量:215
大规模视频生成扩散模型
Sora是一个基于大规模训练的文本控制视频生成扩散模型。它能够生成长达1分钟的高清视频,涵盖广泛的视觉数据类型和分辨率。Sora通过在视频和图像的压缩潜在空间中训练,将其分解为时空位置补丁,实现了可扩展的视频生成。Sora还展现出一些模拟物理世界和数字世界的能力,如三维一致性和交互,揭示了继续扩大视频生成模型规模来发展高能力模拟器的前景。
内容一致的多场景视频生成
VideoDrafter 是一个内容一致的多场景视频生成框架。它利用大型语言模型(LLM)将输入提示转换为包含多场景脚本的综合脚本,脚本包括描述事件、前景 / 背景实体以及相机运动的提示。VideoDrafter 识别脚本中的共同实体,并要求 LLM 对每个实体进行详细描述。然后,将每个实体的描述输入到文本到图像模型中,以生成每个实体的参考图像。最后,通过考虑参考图像、事件描述和相机运动,通过扩散过程生成多场景视频,扩散模型将参考图像作为条件和对齐进行处理,以增强多场景视频的内容一致性。
一键生成高质量的跳舞视频
DreaMoving是一个基于扩散模型的可控制视频生成框架,用于生成高质量的定制人类舞蹈视频。通过给定目标身份和姿势序列,DreaMoving可以生成一个目标身份的视频,驱动姿势序列在任何地方跳舞。为此,我们提出了一个视频控制网络来进行运动控制,以及一个内容导引器来保留身份信息。该模型易于使用,并可适应大多数风格化扩散模型以生成多样化的结果。
使用扩散模型实现时域一致的人体图像动画
MagicAnimate是一款基于扩散模型的先进框架,用于人体图像动画。它能够从单张图像和动态视频生成动画视频,具有时域一致性,能够保持参考图像的特征,并显著提升动画的保真度。MagicAnimate支持使用来自各种来源的动作序列进行图像动画,包括跨身份的动画和未见过的领域,如油画和电影角色。它还与DALLE3等T2I扩散模型无缝集成,可以根据文本生成的图像赋予动态动作。MagicAnimate由新加坡国立大学Show Lab和Bytedance字节跳动共同开发。
AI驱动的文本到视频生成
Emu Video是一种基于扩散模型的简单文本到视频生成方法,将生成过程分解为两个步骤:首先根据文本提示生成图像,然后根据提示和生成的图像生成视频。分解生成方式能够高效训练高质量的视频生成模型。与以往的方法相比,我们的方法只需使用两个扩散模型即可生成分辨率为512像素、播放速度为每秒16帧、时长为4秒的视频。
Show-1 将像素和潜在扩散模型结合起来,以实现高效的高质量文本到视频的生成
Show-1是一种高效的文本到视频生成模型,它结合了像素级和潜变量级的扩散模型,既能生成与文本高度相关的视频,也能以较低的计算资源要求生成高质量的视频。它首先用像素级模型生成低分辨率的初步视频,然后使用潜变量模型将其上采样到高分辨率,从而结合两种模型的优势。相比纯潜变量模型,Show-1生成的视频文本关联更准确;相比纯像素模型,它的运算成本也更低。
改进扩散模型采样质量的免费方法
FreeU是一种方法,可以在不增加成本的情况下显著提高扩散模型的采样质量:无需训练,无需引入额外参数,无需增加内存或采样时间。该方法通过重新加权U-Net的跳跃连接和主干特征图的贡献,结合U-Net架构的两个组成部分的优势,从而提高生成质量。通过在图像和视频生成任务上进行实验,我们证明了FreeU可以轻松集成到现有的扩散模型中,例如Stable Diffusion、DreamBooth、ModelScope、Rerender和ReVersion,只需几行代码即可改善生成质量。
AI视频创作助手
InnAIO是一款领先的AI视频生成工具,能够通过文字描述快速生成专业的视频内容。用户可以利用自己的头像打造虚拟形象,自动生成语音内容,大大提升视频的视听效果。该产品拥有图像克隆、语音克隆等核心技术,支持多种语言和口音,可在10秒内完成克隆。强大的视频编辑功能可助力用户快速制作精美视频。同时支持24小时不间断直播,覆盖多平台,可无限创作和接力播放。数百种AI虚拟角色可供选用,具有永久使用权。InnAIO可助您的内容创作更加简单高效。
全球领先的AI时尚模特经纪公司
AI模特经纪公司是全球领先的AI时尚模特经纪公司,致力于将人工智能技术应用于时尚行业。我们的专家团队将帮助您的组织充分发挥AI在时尚、食品摄影、产品摄影和虚拟形象视频生成等多个市场的潜力。
释放每一帧的创造力和创新,免费 AI 视频生成平台。
艺映 AI 是一款专注人工智能视频领域的免费 AI 视频创作工具。它能够将文本、图片或视频转换为高质量 AI 视频,适用于多种场景,如抖音短视频、小说推文、AI 短片、AI 电影等制作。其主要优点在于提供多种视频生成方式,从文本到图片再到视频,满足用户多样化的创作需求。
零样本身份保持人类视频生成技术
ID-Animator是一种零样本人类视频生成方法,能够在不需要进一步训练的情况下,根据单个参考面部图像进行个性化视频生成。该技术继承了现有的基于扩散的视频生成框架,并加入了面部适配器以编码与身份相关的嵌入。通过这种方法,ID-Animator能够在视频生成过程中保持人物身份的细节,同时提高训练效率。
生成你的AI头像视频!
X Me是一个AI头像视频生成工具,通过输入文本即可快速生成个性化的AI头像视频。它使用轻量级的AI模型,无需复杂的训练过程,快速生成逼真的数字人物视频。X Me提供多种AI名人头像供用户选择,并支持将用户自己的面部特征和声音克隆到生成的头像视频中。用户可以根据自己的喜好和需求,自由创造个性化的AI头像视频。
智能工具,激发创意无限
DeepAI是一个提供多种人工智能工具的网站,包括AI视频生成器、AI图像生成器、AI图像编辑器和AI角色聊天等。用户可以利用这些工具将静态图片和文本提示转换成简短的视频动画,或者通过输入提示来生成图像。DeepAI的AI图像编辑器允许用户快速编辑图片,而AI角色聊天则可以与各种角色进行互动。此外,还有去除背景和给黑白照片上色的功能。DeepAI提供PRO会员服务,享受无广告体验、私有图片存储和API访问等特权。
AI学习平台
Generative AI Courses是一家提供AI学习课程的在线平台。通过课程学习,用户可以掌握GenAI、AI、机器学习、深度学习、chatGPT、DALLE、图像生成、视频生成、文本生成等技术,并了解2024年AI领域的最新发展。
Nurmonic: 你的全能 Discord 机器人
Nurmonic 是一款功能全面的 Discord 机器人,提供聊天互动、图片视频生成、支持票务等多项功能。适用于各类 Discord 社群,为用户带来便利和娱乐。价格根据不同版本和功能选项而定。
视频生成的精细控制工具
Ctrl-Adapter是一个专门为视频生成设计的Controlnet,提供图像和视频的精细控制功能,优化视频时间对齐,适配多种基础模型,具备视频编辑能力,显著提升视频生成效率和质量。
生成高质量的短视频
Rhea是一款由人工智能驱动的短视频生成平台。它可以通过文本输入生成高质量、快速、引人入胜的短视频。Rhea还可以为您的视频生成字幕,使其更具可访问性。您还可以自定义字幕的样式,以与您的品牌相匹配。您可以根据需要定制视频的风格,例如使用定制的配色方案和字体。Rhea适用于各种用途的视频生成,从教育内容到营销视频不一而足。
AI制作高转化视频
KapKap是一款基于AI的唇同步视频生成工具,帮助创作者制作高转化的营销视频。您可以使用语音转文字获取文案,使用4K相机拍摄高清产品视频,使用自动提词器让您在摄像机前的表演更加自然。当然,我们也提供强大的编辑功能,可以一键删除尴尬的沉默,添加引人注目的字幕,并支持多种语言。您还可以通过一张照片创建自己的动画视频。欢迎使用KapKap!
精准控制文本生成视频的相机姿态
CameraCtrl 致力于为文本生成视频模型提供精准相机姿态控制,通过训练相机编码器实现参数化相机轨迹,从而实现视频生成过程中的相机控制。产品通过综合研究各种数据集的效果,证明视频具有多样的相机分布和相似外观可以增强可控性和泛化能力。实验证明 CameraCtrl 在实现精确、领域自适应的相机控制方面非常有效,是从文本和相机姿态输入实现动态、定制视频叙事的重要进展。
生成会说话、唱歌的动态视频
AniPortrait是一个根据音频和图像输入生成会说话、唱歌的动态视频的项目。它能够根据音频和静态人脸图片生成逼真的人脸动画,口型保持一致。支持多种语言和面部重绘、头部姿势控制。功能包括音频驱动的动画合成、面部再现、头部姿势控制、支持自驱动和音频驱动的视频生成、高质量动画生成以及灵活的模型和权重配置。
NoLang通过AI实时生成解释视频,让复杂概念变得简单易懂
NoLang是一款基于AI技术的解释视频生成工具。它可以根据用户输入的文本或文档内容,实时生成解释性的视频。主要功能包括:1.文本到视频的实时转换;2.PDF文件等资料的自动视频化汇总;3.可持续对话形式生成视频;4.通过浏览器扩展程序随时调用使用。NoLang的优势是让复杂概念的理解变得更加简单直观,解决信息获取效率低下的问题。主要面向需要获取信息、学习新知识的用户群体,免费使用。
基于JST-1视频-3D基础模型的可控视频生成
VIGGLE是一款基于JST-1视频-3D基础模型的可控视频生成工具。它可以让任何角色按照您的要求移动。JST-1是第一个具有实际物理理解能力的视频-3D基础模型。VIGGLE的优势在于其强大的视频生成和控制能力,可以根据用户需求生成各种动作和情节的视频。它定位于视频创作者、动画师和内容创作者等专业人群,帮助他们更高效地制作视频内容。目前VIGGLE处于测试阶段,未来可能会推出付费订阅版本。
提供一种新颖的视频到视频编辑框架,无需训练即可使用
AnyV2V是一个创新的视频到视频编辑框架,允许用户使用任何现成的图像编辑工具编辑视频的第一帧,然后使用现有的图像到视频生成模型进行图像到视频的重建。这种方法使得各种编辑任务变得简单,包括基于提示的编辑、样式转换、主题驱动的编辑和身份操纵。
用于自动驾驶的大规模视频生成模型
GenAD是由上海人工智能实验室联合香港科技大学、德国图宾根大学和香港大学共同推出的首个大规模自动驾驶视频生成模型。它通过预测和模拟真实世界场景,为自动驾驶技术的研究和应用提供支撑。GenAD在理解复杂动态环境、适应开放世界场景、精准预测等方面具有较强能力,能够通过语言和行车轨迹进行控制,并展现出应用于自动驾驶规划任务的潜力,有助于提高行车安全性和效率。
怪兽智能科技推出的AI数字人产品,提供全息交互数字人、3D超写实交互数字人,AIGC生产、SaaS管理和直播服务平台
怪兽AI数字人是怪兽智能科技推出的产品,旨在通过AI技术提供数字人克隆、短视频生成、直播解决方案等服务。产品包括真人形象克隆、声音克隆、孪生姿态合成等核心技术,支持短视频内容生产创作及直播宣传,适用于品牌商家及本地生活商家。
文本到视频的快速生成模型,性能是原版的十倍以上
ByteDance的AnimateDiff-Lightning项目通过特定的模型和设置,实现了比原始AnimateDiff快速十倍以上的文本到视频生成。
食物热量追踪器
Calorie Tracker是一个食物热量追踪器,使用GPT Vision技术,通过提交食物图片来获取估计的热量。它可以帮助用户了解所摄入食物的热量,并做出更健康的饮食选择。Calorie Tracker还提供定制化的视频生成功能,用户可以使用文本提示生成符合自己需求的短视频。Calorie Tracker分为基础版、标准版和专业版,订阅费用从8.99美元/月开始。
Tavus构建了先进的AI模型,包括数字复制、唇同步、配音、文本转视频,通过API为开发者提供访问
Tavus提供了一系列的AI模型,特别是在生成高度逼真的说话头部视频方面,其Phoenix模型通过神经辐射场(NeRFs)技术,能够产生自然面部动作和表情,并与输入同步。开发者可以通过Tavus的API访问这些具有高度真实感和可定制性的视频生成服务。
© 2024 AIbase 备案号:闽ICP备2023012347号-1