视频内容AI创作助手
MotionAgent是一个基于深度学习的视频内容创作工具,用户可以通过我们提供的工具集创建脚本,生成电影静态画面,生成图片/视频,并编写背景音乐。MotionAgent模型由开源模型社区ModelScope提供支持。MotionAgent的主要功能包括:脚本生成,用户可以通过指定故事主题和背景来生成不同风格的脚本;电影静态画面生成,可以根据脚本生成对应的电影场景图片;视频生成,可以将图片生成高清视频;背景音乐生成,可以自定义风格的背景音乐。MotionAgent适用于视频创作者、影视从业者、视频爱好者等用户,可以辅助他们进行创意脚本创作和视频内容制作。
AI动作捕捉工具
Movmi 是一款 AI 驱动的动作捕捉工具,通过 2D 媒体数据(图像、视频)捕捉人类身体动作,为开发人员提供高质量的人体动作捕捉解决方案。整个捕捉过程在云端完成,用户无需使用高端设备。Movmi 支持从各种摄像设备捕捉镜头,包括智能手机和专业摄像机,适用于各种生活场景,甚至支持多个人物的场景。Movmi 还提供一个全文本贴图角色库,用于各种动画项目。Movmi 的会员计划分为 Bronze、Silver 和 Gold,提供不同级别的功能和体验。用户可以在任何 3D 环境中使用输出的 FBX 文件。
自定义文本到视频扩散模型的动作
MotionDirector是一种能够自定义文本到视频扩散模型以生成具有所需动作的视频的技术。它采用双路径LoRAs架构,以解耦外观和运动的学习,并设计了一种新颖的去偏置时间损失,以减轻外观对时间训练目标的影响。该方法支持各种下游应用,如混合不同视频的外观和运动,以及用定制动作为单个图像添加动画。
自由动态捕捉,释放想象
MOVE Ai是一款能够从任何视频、高清相机或移动设备中提取高保真动作的人工智能软件。它能够帮助创作者将运动带入数字世界,实现无限规模的动作捕捉,为创作者们提供数字内容创作和体验的工具。
AI 角色动画
Motionshop是一个 AI 角色动画的网站,它能够根据上传的视频自动检测视频中的人物,并替换成 3D 卡通角色模型,生成有趣的 AI 视频。该产品提供简单易用的界面和强大的 AI 算法,让用户能够轻松将自己的视频内容转化为生动有趣的动画作品。
灵活的视频生成控制器
MotionCtrl 是一个统一而灵活的视频生成控制器,能够独立有效地管理相机和物体的运动。它可以根据相机姿态序列和物体轨迹指导视频生成模型,生成具有复杂相机运动和特定物体运动的视频。MotionCtrl 还可以与其他视频生成方法集成,如 SVD。它的优势包括能够精细地控制相机运动和物体运动,使用外观无关的相机姿态和轨迹,适应各种相机姿态和轨迹,生成具有自然外观的视频等。
自动生成字幕和转录,提供高准确度的翻译服务
Motionbear是一款提供高准确度字幕、翻译和转录服务的在线工具。它可以自动为您的视频和音频内容生成字幕和关闭式字幕,并支持40多种语言的翻译。您可以根据自己的品牌或风格自定义字幕的字体、颜色和位置。此外,Motionbear还可以处理长时间的录音,并保证您的文件和字幕的安全和隐私。
Monster Mash: 新一代基于草图的建模与动画工具
Monster Mash 是一款新的基于草图的建模与动画工具,允许您快速草绘角色,并将其立体化并快速动画化。您可以在草图平面上进行所有交互,无需进行 3D 操作。Monster Mash 易于使用且功能强大,适用于设计师、动画师等专业人士,定价为 XX 元。定位于为用户提供快速创作 3D 角色与动画的工具。
单摄像头3D动画资产转换
Move API能够将包含人体动作的视频转换为3D动画资产,支持将视频文件转换为usdz、usdc和fbx文件格式,并提供预览视频。适用于集成到生产工作流程软件、增强应用动作捕捉能力或创造全新体验。
SAAS广告服务,创建转化率高的定制视频广告
通过深入研究和分析,我们优化定制视频广告,以有力地针对您的目标受众。 清晰明确的故事板设计 基于研究的广告制作 数据驱动的分析和优化 解锁您的广告努力的全部潜力,实现更高的转化率,我们为您量身定制的视频广告能够针对您的目标受众。 不再依赖自由职业者 自由职业者不可靠且成本高昂,常常导致延迟的时间表和不满意的结果。 不再需要会议 不喜欢开会?我们也是。我们可以通过简单地查看您的品牌来制作您想要的视频。 异步工作 管理您的活动、排队和已完成的任务,并邀请多个团队成员加入您的看板,以便任何人都可以提交请求。
真实人类舞蹈视频生成
MagicDance是一种新颖有效的方法,可以生成逼真的人类视频,实现生动的动作和面部表情转移,以及一致的2D卡通风格动画零调优生成。通过MagicDance,我们可以精确生成外观一致的结果,而原始的T2I模型(如稳定扩散和ControlNet)很难准确地保持主题身份信息。此外,我们提出的模块可以被视为原始T2I模型的扩展/插件,而不需要修改其预训练权重。
从长文本中合成无限可控角色动画
Story-to-Motion是一个全新的任务,它接受一个故事(顶部绿色区域)并生成与文本描述相符的动作和轨迹。该系统利用现代大型语言模型作为文本驱动的运动调度器,从长文本中提取一系列(文本、位置)对。它还开发了一个文本驱动的运动检索方案,结合了经典运动匹配和运动语义以及轨迹约束。此外,它设计了一个渐进式掩蔽变换器,以解决过渡动作中常见的问题,如不自然的姿势和滑步。该系统在轨迹跟随、时间动作组合和动作混合等三个不同子任务的评估中表现优异,胜过以往的动作合成方法。
AI动作捕捉和实时人体追踪
DeepMotion是一款基于人工智能的动作捕捉和人体追踪解决方案。通过任意网络浏览器,在几秒钟内从视频中生成3D动画。无需特殊装备,易于使用。它提供多种功能,包括手部追踪、多人追踪和面部追踪等。DeepMotion适用于各种场景,如游戏开发、动画制作、虚拟现实等。定价方案请访问官方网站了解更多信息。
一种可控的图像到视频生成框架
Motion-I2V是一种全新的框架,用于实现一致且可控的图像到视频生成(I2V)。与以往直接学习复杂图像到视频映射的方法不同,Motion-I2V将I2V分解为两个阶段,并采用显式运动建模。在第一阶段,我们提出了基于扩散的运动场预测器,专注于推断参考图像像素的轨迹。在第二阶段,我们提出了增强的运动增强时间注意力,以增强视频潜在扩散模型中有限的一维时间注意力。该模块可以在第一阶段预测的轨迹的指导下,有效地将参考图像特征传播到合成帧。与现有方法相比,Motion-I2V即使在存在大运动和视角变化的情况下,也能生成更一致的视频。通过为第一阶段训练稀疏轨迹控制网络,Motion-I2V可以支持用户精确控制运动轨迹和运动区域,具有稀疏轨迹和区域注释的控制能力。这比仅依赖文本说明更可控。此外,Motion-I2V的第二阶段自然地支持零样本视频到视频转换。定性和定量比较表明,Motion-I2V在一致且可控的图像到视频生成方面优于先前的方法。
一键生成高质量的跳舞视频
DreaMoving是一个基于扩散模型的可控制视频生成框架,用于生成高质量的定制人类舞蹈视频。通过给定目标身份和姿势序列,DreaMoving可以生成一个目标身份的视频,驱动姿势序列在任何地方跳舞。为此,我们提出了一个视频控制网络来进行运动控制,以及一个内容导引器来保留身份信息。该模型易于使用,并可适应大多数风格化扩散模型以生成多样化的结果。
非刚体3D模型的文本生成和重建框架
AnimatableDreamer是一个从单眼视频中生成和重建可动画非刚体3D模型的框架。它能够生成不同类别的非刚体对象,同时遵循从视频中提取的对象运动。关键技术是提出的典范分数蒸馏方法,将生成维度从4D简化到3D,在视频中的不同帧进行降噪,同时在唯一的典范空间内进行蒸馏过程。这样可以保证时间一致的生成和不同姿态下的形态逼真性。借助可微分变形,AnimatableDreamer将3D生成器提升到4D,为非刚体3D模型的生成和重建提供了新视角。此外,与一致性扩散模型的归纳知识相结合,典范分数蒸馏可以从新视角对重建进行正则化,从而闭环增强生成过程。大量实验表明,该方法能够从单眼视频生成高灵活性的文本指导3D模型,同时重建性能优于典型的非刚体重建方法。
生成丰富可控运动的视频合成工具
Boximator是一款由Jiawei Wang、Yuchen Zhang等人开发的智能视频合成工具。它利用先进的深度学习技术,通过添加文本提示和额外的盒子约束,生成丰富且可控制的视频运动。用户可以通过示例或自定义文本来创造独特的视频场景。Boximator与其他方法相比,使用了来自文本提示的附加盒子约束,提供更灵活的运动控制。
© 2025 AIbase 备案号:闽ICP备08105208号-14