浏览量:366
最新流量情况
月访问量
948
平均访问时长
00:00:00
每次访问页数
1.03
跳出率
41.95%
流量来源
直接访问
60.99%
自然搜索
21.43%
邮件
0.03%
外链引荐
4.69%
社交媒体
12.15%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
美国
100.00%
用于理解任意视频中的相机运动的工具。
CameraBench 是一个用于分析视频中相机运动的模型,旨在通过视频理解相机的运动模式。它的主要优点在于利用生成性视觉语言模型进行相机运动的原理分类和视频文本检索。通过与传统的结构从运动 (SfM) 和实时定位与*构建 (SLAM) 方法进行比较,该模型在捕捉场景语义方面显示出了显著的优势。该模型已开源,适合研究人员和开发者使用,且后续将推出更多改进版本。
灵活的视频生成控制器
MotionCtrl 是一个统一而灵活的视频生成控制器,能够独立有效地管理相机和物体的运动。它可以根据相机姿态序列和物体轨迹指导视频生成模型,生成具有复杂相机运动和特定物体运动的视频。MotionCtrl 还可以与其他视频生成方法集成,如 SVD。它的优势包括能够精细地控制相机运动和物体运动,使用外观无关的相机姿态和轨迹,适应各种相机姿态和轨迹,生成具有自然外观的视频等。
训练无关的运动克隆,实现可控视频生成
MotionClone是一个训练无关的框架,允许从参考视频进行运动克隆,以控制文本到视频的生成。它利用时间注意力机制在视频反转中表示参考视频中的运动,并引入了主时间注意力引导来减轻注意力权重中噪声或非常微妙运动的影响。此外,为了协助生成模型合成合理的空间关系并增强其提示跟随能力,提出了一种利用参考视频中的前景粗略位置和原始分类器自由引导特征的位置感知语义引导机制。
生成丰富可控运动的视频合成工具
Boximator是一款由Jiawei Wang、Yuchen Zhang等人开发的智能视频合成工具。它利用先进的深度学习技术,通过添加文本提示和额外的盒子约束,生成丰富且可控制的视频运动。用户可以通过示例或自定义文本来创造独特的视频场景。Boximator与其他方法相比,使用了来自文本提示的附加盒子约束,提供更灵活的运动控制。
视频分析应用和AI运动筛查
Yogger是一款先进的视频分析应用,可分析运动和步态,跟踪进展,并进行基于AI的运动筛查。它可以帮助提高运动员的潜力,预防受伤,并实现个人最佳表现。该应用提供先进的运动捕捉功能,让您随时随地进行运动分析。
一种用于控制视频扩散模型运动模式的高效方法,支持运动模式的自定义和迁移。
Go with the Flow 是一种创新的视频生成技术,通过使用扭曲噪声代替传统的高斯噪声,实现了对视频扩散模型运动模式的高效控制。该技术无需对原始模型架构进行修改,即可在不增加计算成本的情况下,实现对视频中物体和相机运动的精确控制。其主要优点包括高效性、灵活性和可扩展性,能够广泛应用于图像到视频生成、文本到视频生成等多种场景。该技术由 Netflix Eyeline Studios 等机构的研究人员开发,具有较高的学术价值和商业应用潜力,目前开源免费提供给公众使用。
基于实体表示的任意物体运动控制
DragAnything是一款利用实体表示实现任意物体运动控制的产品。与拖动像素的传统方式不同,DragAnything可以实现真正的实体级运动控制。它可以实现用户轨迹交互,并具有SAM功能。该产品可以精确控制物体的运动,生成高质量视频,用户只需在交互过程中绘制一条轨迹。DragAnything可实现对前景、背景和相机等不同元素的多样化运动控制。定位于设计领域,适用于需要对视频中物体进行精细控制的场景。产品定价未公开。
AI双芯8K运动相机,与徕卡联合研发
影石Insta360 Ace Pro 2是一款旗舰级影像运动相机,与徕卡联合研发,搭载AI双芯,提供8K超高清视频录制和4K60fps的夜景录像能力。产品以其强悍的硬件配置、卓越的画质表现、硬核性能和智能易用性等特点,树立了运动影像新标杆。价格定位于高端市场,适合专业摄影师和高端影像爱好者。
VideoJAM 是一种用于增强视频生成模型运动连贯性的框架。
VideoJAM 是一种创新的视频生成框架,旨在通过联合外观 - 运动表示来提升视频生成模型的运动连贯性和视觉质量。该技术通过引入内指导机制(Inner-Guidance),利用模型自身预测的运动信号动态引导视频生成,从而在生成复杂运动类型时表现出色。VideoJAM 的主要优点是能够显著提高视频生成的连贯性,同时保持高质量的视觉效果,且无需对训练数据或模型架构进行大规模修改,即可应用于任何视频生成模型。该技术在视频生成领域具有重要的应用前景,尤其是在需要高度运动连贯性的场景中。
一种可控的图像到视频生成框架
Motion-I2V是一种全新的框架,用于实现一致且可控的图像到视频生成(I2V)。与以往直接学习复杂图像到视频映射的方法不同,Motion-I2V将I2V分解为两个阶段,并采用显式运动建模。在第一阶段,我们提出了基于扩散的运动场预测器,专注于推断参考图像像素的轨迹。在第二阶段,我们提出了增强的运动增强时间注意力,以增强视频潜在扩散模型中有限的一维时间注意力。该模块可以在第一阶段预测的轨迹的指导下,有效地将参考图像特征传播到合成帧。与现有方法相比,Motion-I2V即使在存在大运动和视角变化的情况下,也能生成更一致的视频。通过为第一阶段训练稀疏轨迹控制网络,Motion-I2V可以支持用户精确控制运动轨迹和运动区域,具有稀疏轨迹和区域注释的控制能力。这比仅依赖文本说明更可控。此外,Motion-I2V的第二阶段自然地支持零样本视频到视频转换。定性和定量比较表明,Motion-I2V在一致且可控的图像到视频生成方面优于先前的方法。
视频重制,精确控制内容与运动
ReVideo是一个创新的视频编辑技术,它允许用户在特定区域进行精确的视频编辑,通过指定内容和运动来实现。这项技术通过修改第一帧来实现内容编辑,而基于轨迹的运动控制提供了直观的用户交互体验。ReVideo解决了内容和运动控制之间耦合和训练不平衡的新任务。通过开发三阶段训练策略,逐步从粗到细解耦这两方面,并提出一种时空自适应融合模块,以在不同的采样步骤和空间位置整合内容和运动控制。
基于 AI 技术生成视频内容的智能服务。
清影 AI 视频生成服务是一个创新的人工智能平台,旨在通过智能算法生成高质量的视频内容。该服务适合各种行业用户,能够快速便捷地生成富有创意的视觉内容。无论是商业广告、教育课程还是娱乐视频,清影 AI 都能提供优质的解决方案。该产品依托于先进的 GLM 大模型,确保生成内容的准确性与丰富性,同时满足用户个性化需求。提供免费试用,鼓励用户探索 AI 视频创作的无限可能。
创新的AI视频生成器,快速实现创意视频。
Luma AI的Dream Machine是一款AI视频生成器,它利用先进的AI技术,将用户的想法转化为高质量、逼真的视频。它支持从文字描述或图片开始生成视频,具有高度的可扩展性、快速生成能力和实时访问功能。产品界面用户友好,适合专业人士和创意爱好者使用。Luma AI的Dream Machine不断更新,以保持技术领先,为用户提供持续改进的视频生成体验。
创新的运动分析平台
Apollo Co-Pilot是一款创新的运动分析平台,为教练和运动员提供智能辅助分析工具。它可以帮助教练和运动员分析训练数据,提供个性化的训练建议和优化方案。同时,它还提供了实时反馈和比赛策略分析等功能,帮助提高运动员的竞技表现。
利用AI技术快速生成视频内容
AI视频生成神器是一款利用人工智能技术,将图片或文字转换成视频内容的在线工具。它通过深度学习算法,能够理解图片和文字的含义,自动生成具有吸引力的视频内容。这种技术的应用,极大地降低了视频制作的成本和门槛,使得普通用户也能轻松制作出专业级别的视频。产品背景信息显示,随着社交媒体和视频平台的兴起,用户对视频内容的需求日益增长,而传统的视频制作方式成本高、耗时长,难以满足快速变化的市场需求。AI视频生成神器的出现,正好填补了这一市场空白,为用户提供了一种快速、低成本的视频制作解决方案。目前,该产品提供免费试用,具体价格需要在网站上查询。
Freepik AI 视频生成器,基于人工智能技术快速生成高质量视频内容。
Freepik AI 视频生成器是一款基于人工智能技术的在线工具,能够根据用户输入的初始图像或描述快速生成视频。该技术利用先进的 AI 算法,实现视频内容的自动化生成,极大地提高了视频创作的效率。产品定位为创意设计人员和视频制作者提供快速、高效的视频生成解决方案,帮助用户节省时间和精力。目前该工具处于 Beta 测试阶段,用户可以免费试用其功能。
统一可控的视频生成方法
AnimateAnything是一个统一的可控视频生成方法,它支持在不同条件下进行精确和一致的视频操作,包括相机轨迹、文本提示和用户动作注释。该技术通过设计多尺度控制特征融合网络来构建不同条件下的通用运动表示,并将所有控制信息转换为逐帧光流,以此作为运动先导来指导视频生成。此外,为了减少大规模运动引起的闪烁问题,提出了基于频率的稳定模块,以确保视频在频域的一致性,增强时间连贯性。实验表明,AnimateAnything的方法优于现有的最先进方法。
灵感激发与视频创作平台
跃问视频是一个集灵感激发与视频创作于一体的平台,它通过提供丰富的视觉和创意内容,帮助用户激发创意并创作出独特的视频。该平台以其独特的美学风格和高效的视频生成技术为主要优点,尤其在中国风题材上表现出色。跃问视频的背景信息显示,它是由阶跃星辰公司推出的,该公司在多模态能力方面遥遥领先,提供了从文本到视频的生成技术。产品定位于中高端市场,以其高质量的视频生成和优化服务吸引用户。
MoMask: 3D 人体运动生成
MoMask 是一个用于基于文本驱动的 3D 人体运动生成的模型。它采用了分层量化方案,以高保真度的细节将人体运动表示为多层离散运动令牌。MoMask 通过两个不同的双向 Transformer 网络进行生成,以从文本输入预测运动令牌。该模型在文本到运动生成任务上优于现有方法,并可以无缝应用于相关任务,如文本引导的时间修复。
通过文本生成高质量AI视频
Sora视频生成器是一个可以通过文本生成高质量AI视频的在线网站。用户只需要输入想要生成视频的文本描述,它就可以使用OpenAI的Sora AI模型,转换成逼真的视频。网站还提供了丰富的视频样例,详细的使用指南和定价方案等。
Genmo 的视频生成模型,具有高保真运动和强提示遵循性。
这是一个先进的视频生成模型,采用 AsymmDiT 架构,可免费试用。它能生成高保真视频,缩小了开源与闭源视频生成系统的差距。模型需要至少 4 个 H100 GPU 运行。
精准控制文本生成视频的相机姿态
CameraCtrl 致力于为文本生成视频模型提供精准相机姿态控制,通过训练相机编码器实现参数化相机轨迹,从而实现视频生成过程中的相机控制。产品通过综合研究各种数据集的效果,证明视频具有多样的相机分布和相似外观可以增强可控性和泛化能力。实验证明 CameraCtrl 在实现精确、领域自适应的相机控制方面非常有效,是从文本和相机姿态输入实现动态、定制视频叙事的重要进展。
GoDiary是一款自动跟踪运动的健身应用
GoDiary是一款能够自动跟踪运动的健身应用。它结合了GPS和专有的机器学习算法,以省电的方式监测用户的健身活动。通过GoDiary,用户可以轻松追踪自己的跑步、步行和骑行等运动,并提供个性化的目标跟踪和历史数据分析。
利用动态NeRF进行大规模运动和视角变化的人体视频编辑
DynVideo-E是一款利用动态NeRF技术进行大规模运动和视角变化的人体视频编辑工具。该工具将视频表示为3D前景规范化的人体空间,结合变形场和3D背景静态空间。通过利用重建损失、2D个性化扩散先验、3D扩散先验和局部部分超分辨率等技术,在多视角多姿势配置下编辑可动的规范化人体空间。同时,通过特征空间的风格转换损失将参考风格转移到3D背景模型中。用户可以在编辑后的视频-NeRF模型中根据源视频相机姿态进行相应的渲染。DynVideo-E不仅能够处理短视频,还能够处理大规模运动和视角变化的人体视频,为用户提供了更多直接可控的编辑方式。该工具在两个具有挑战性的数据集上的实验证明,相比于现有方法,DynVideo-E在人类偏好方面取得了50% ~ 95%的显著优势。DynVideo-E的代码和数据将会向社区发布。
可伸缩便携运动捕捉数据收集系统
DexCap是一种便携手部动作捕捉系统,结合了全息测距和电磁场技术,提供准确、抗遮挡的手腕和手指运动跟踪,并通过对环境的3D观测进行数据采集。DexIL算法利用逆运动学和基于点云的模仿学习,直接从人类手部动作数据中训练灵巧的机器手技能。系统支持选项的人机协同校正机制,利用这一丰富数据集,机器手能够复制人类动作,还能根据人类手动作进一步提高表现。
实现在任意场景视频中插入照片实物的视频生成框架
Anything in Any Scene是一个用于在现有动态视频中无缝插入任何物体的通用框架,强调物理真实性。该框架包含三个关键过程:1) 将真实物体与给定场景视频相结合,确保几何真实性;2) 估计天空和环境光照分布,模拟逼真阴影,增强光照真实性;3) 采用风格迁移网络,提高最终视频输出的逼真度。该框架能生成具有高度几何真实性、光照真实性和逼真度的模拟视频。
使用简单的提示和图像生成视频片段。
Adobe Firefly 是一款基于人工智能技术的视频生成工具。它能够根据用户提供的简单提示或图像快速生成高质量的视频片段。该技术利用先进的 AI 算法,通过对大量视频数据的学习和分析,实现自动化的视频创作。其主要优点包括操作简单、生成速度快、视频质量高。Adobe Firefly 面向创意工作者、视频制作者以及需要快速生成视频内容的用户,提供高效、便捷的视频创作解决方案。目前该产品处于 Beta 测试阶段,用户可以免费使用,未来可能会根据市场需求和产品发展进行定价和定位。
AI辅助的临床运动分析工具
Joint Angels是一款利用人工智能技术帮助临床医生测量运动范围和执行运动分析的工具。它通过简化运动分析和测量过程,旨在提高临床实践的效率和生产力。该工具可以实时记录和分析运动数据,帮助医生更准确地评估患者的运动能力,从而提供更有效的治疗建议。
© 2025 AIbase 备案号:闽ICP备08105208号-14