浏览量:359
通过内在适应掌握视频外延画技术的高质量灵活方法
MOTIA是一个基于测试时适应的扩散方法,利用源视频内的内在内容和运动模式来有效进行视频外延画。该方法包括内在适应和外在渲染两个主要阶段,旨在提升视频外延画的质量和灵活性。
加速视频扩散模型,生成速度提升 8.5 倍。
AccVideo 是一种新颖的高效蒸馏方法,通过合成数据集加速视频扩散模型的推理速度。该模型能够在生成视频时实现 8.5 倍的速度提升,同时保持相似的性能。它使用预训练的视频扩散模型生成多条有效去噪轨迹,从而优化了数据的使用和生成过程。AccVideo 特别适用于需要高效视频生成的场景,如电影制作、游戏开发等,适合研究人员和开发者使用。
实现灵活且高保真度的图像生成,同时保持身份特征。
InfiniteYou(InfU)是一个基于扩散变换器的强大框架,旨在实现灵活的图像重构,并保持用户身份。它通过引入身份特征并采用多阶段训练策略,显著提升了图像生成的质量和美学,同时改善了文本与图像的对齐。该技术对提高图像生成的相似性和美观性具有重要意义,适用于各种图像生成任务。
通过扩散模型实现单目视频的相机轨迹重定向。
TrajectoryCrafter 是一种先进的相机轨迹重定向工具,利用扩散模型技术,将单目视频中的相机运动重新设计,提升视频的表现力和视觉吸引力。该技术可广泛应用于影视制作和虚拟现实等领域,具备高效、便捷和创新的特点,旨在为用户提供更多创意自由和控制能力。
Inception Labs 推出新一代扩散式大语言模型,提供极速、高效和高质量的语言生成能力。
Inception Labs 是一家专注于开发扩散式大语言模型(dLLMs)的公司。其技术灵感来源于先进的图像和视频生成系统,如 Midjourney 和 Sora。通过扩散模型,Inception Labs 提供了比传统自回归模型快 5-10 倍的速度、更高的效率和更强的生成控制能力。其模型支持并行文本生成,能够纠正错误和幻觉,适合多模态任务,并且在推理和结构化数据生成方面表现出色。公司由斯坦福、UCLA 和康奈尔大学的研究人员和工程师组成,是扩散模型领域的先驱。
Project Starlight 是一款基于 AI 的视频增强工具,可将低分辨率和损坏的视频提升为高清质量。
Project Starlight 是 Topaz Labs 推出的一款 AI 视频增强模型,专为提升低分辨率和损坏视频的质量而设计。它采用了扩散模型技术,能够实现视频的超分辨率、降噪、去模糊和锐化等功能,同时保持时间一致性,确保视频帧之间的流畅过渡。该技术是视频增强领域的重大突破,为视频修复和提升带来了前所未有的高质量效果。目前,Project Starlight 提供免费试用,并计划在未来支持 4K 导出,主要面向需要高质量视频修复和增强的用户和企业。
Mercury Coder 是一款基于扩散模型的高性能代码生成语言模型。
Mercury Coder 是 Inception Labs 推出的首款商用级扩散大语言模型(dLLM),专为代码生成优化。该模型采用扩散模型技术,通过‘粗到细’的生成方式,显著提升生成速度和质量。其速度比传统自回归语言模型快 5-10 倍,能够在 NVIDIA H100 硬件上达到每秒 1000 多个 token 的生成速度,同时保持高质量的代码生成能力。该技术的背景是当前自回归语言模型在生成速度和推理成本上的瓶颈,而 Mercury Coder 通过算法优化突破了这一限制,为企业级应用提供了更高效、低成本的解决方案。
VideoGrain 是一种零样本方法,用于实现类别级、实例级和部件级的视频编辑。
VideoGrain 是一种基于扩散模型的视频编辑技术,通过调节时空注意力机制实现多粒度视频编辑。该技术解决了传统方法中语义对齐和特征耦合的问题,能够对视频内容进行精细控制。其主要优点包括零样本编辑能力、高效的文本到区域控制以及特征分离能力。该技术适用于需要对视频进行复杂编辑的场景,如影视后期、广告制作等,能够显著提升编辑效率和质量。
MakeAnything 是一个用于多领域程序化序列生成的扩散变换器模型。
MakeAnything 是一个基于扩散变换器的模型,专注于多领域程序化序列生成。该技术通过结合先进的扩散模型和变换器架构,能够生成高质量的、逐步的创作序列,如绘画、雕塑、图标设计等。其主要优点在于能够处理多种领域的生成任务,并且可以通过少量样本快速适应新领域。该模型由新加坡国立大学 Show Lab 团队开发,目前以开源形式提供,旨在推动多领域生成技术的发展。
VisionAgent是一个用于生成代码以解决视觉任务的库,支持多种LLM提供商。
VisionAgent是一个强大的工具,它利用人工智能和大语言模型(LLM)来生成代码,帮助用户快速解决视觉任务。该工具的主要优点是能够自动将复杂的视觉任务转化为可执行的代码,极大地提高了开发效率。VisionAgent支持多种LLM提供商,用户可以根据自己的需求选择不同的模型。它适用于需要快速开发视觉应用的开发者和企业,能够帮助他们在短时间内实现功能强大的视觉解决方案。VisionAgent目前是免费的,旨在为用户提供高效、便捷的视觉任务处理能力。
Pippo 是一个从单张照片生成高分辨率多人视角视频的生成模型。
Pippo 是由 Meta Reality Labs 和多所高校合作开发的生成模型,能够从单张普通照片生成高分辨率的多人视角视频。该技术的核心优势在于无需额外输入(如参数化模型或相机参数),即可生成高质量的 1K 分辨率视频。它基于多视角扩散变换器架构,具有广泛的应用前景,如虚拟现实、影视制作等。Pippo 的代码已开源,但不包含预训练权重,用户需要自行训练模型。
快速轻松地从视频中训练高质量的LoRA模型
One Shot LoRA 是一个专注于从视频中快速训练 LoRA 模型的在线平台。它利用先进的机器学习技术,能够将视频内容高效转化为 LoRA 模型,为用户提供快速、便捷的模型生成服务。该产品的主要优点是操作简单、无需登录且隐私安全。它无需用户上传私人数据,也不存储或收集任何用户信息,确保用户数据的私密性和安全性。该产品主要面向需要快速生成 LoRA 模型的用户,如设计师、开发者等,帮助他们快速获取所需的模型资源,提升工作效率。
On-device Sora 是一个基于扩散模型的移动设备端文本到视频生成项目。
On-device Sora 是一个开源项目,旨在通过线性比例跳跃(LPL)、时间维度标记合并(TDTM)和动态加载并发推理(CI-DL)等技术,实现在移动设备(如 iPhone 15 Pro)上高效的视频生成。该项目基于 Open-Sora 模型开发,能够根据文本输入生成高质量视频。其主要优点包括高效性、低功耗和对移动设备的优化。该技术适用于需要在移动设备上快速生成视频内容的场景,如短视频创作、广告制作等。项目目前开源,用户可以免费使用。
DiffSplat 是一个从文本提示和单视图图像生成 3D 高斯点云的生成框架。
DiffSplat 是一种创新的 3D 生成技术,能够从文本提示和单视图图像快速生成 3D 高斯点云。该技术通过利用大规模预训练的文本到图像扩散模型,实现了高效的 3D 内容生成。它解决了传统 3D 生成方法中数据集有限和无法有效利用 2D 预训练模型的问题,同时保持了 3D 一致性。DiffSplat 的主要优点包括高效的生成速度(1~2 秒内完成)、高质量的 3D 输出以及对多种输入条件的支持。该模型在学术研究和工业应用中具有广泛前景,尤其是在需要快速生成高质量 3D 模型的场景中。
为语言模型和AI代理提供视频处理服务,支持多种视频来源。
Deeptrain 是一个专注于视频处理的平台,旨在将视频内容无缝集成到语言模型和AI代理中。通过其强大的视频处理技术,用户可以像使用文本和图像一样轻松地利用视频内容。该产品支持超过200种语言模型,包括GPT-4o、Gemini等,并且支持多语言视频处理。Deeptrain 提供免费的开发支持,仅在生产环境中使用时才收费,这使得它成为开发AI应用的理想选择。其主要优点包括强大的视频处理能力、多语言支持以及与主流语言模型的无缝集成。
一种用于控制视频扩散模型运动模式的高效方法,支持运动模式的自定义和迁移。
Go with the Flow 是一种创新的视频生成技术,通过使用扭曲噪声代替传统的高斯噪声,实现了对视频扩散模型运动模式的高效控制。该技术无需对原始模型架构进行修改,即可在不增加计算成本的情况下,实现对视频中物体和相机运动的精确控制。其主要优点包括高效性、灵活性和可扩展性,能够广泛应用于图像到视频生成、文本到视频生成等多种场景。该技术由 Netflix Eyeline Studios 等机构的研究人员开发,具有较高的学术价值和商业应用潜力,目前开源免费提供给公众使用。
Video Depth Anything: Consistent Depth Estimation for Super-Long Videos
Video Depth Anything 是一个基于深度学习的视频深度估计模型,能够为超长视频提供高质量、时间一致的深度估计。该技术基于 Depth Anything V2 开发,具有强大的泛化能力和稳定性。其主要优点包括对任意长度视频的深度估计能力、时间一致性以及对开放世界视频的良好适应性。该模型由字节跳动的研究团队开发,旨在解决长视频深度估计中的挑战,如时间一致性问题和复杂场景的适应性问题。目前,该模型的代码和演示已公开,供研究人员和开发者使用。
TokenVerse 是一种基于预训练文本到图像扩散模型的多概念个性化方法。
TokenVerse 是一种创新的多概念个性化方法,它利用预训练的文本到图像扩散模型,能够从单张图像中解耦复杂的视觉元素和属性,并实现无缝的概念组合生成。这种方法突破了现有技术在概念类型或广度上的限制,支持多种概念,包括物体、配饰、材质、姿势和光照等。TokenVerse 的重要性在于其能够为图像生成领域带来更灵活、更个性化的解决方案,满足用户在不同场景下的多样化需求。目前,TokenVerse 的代码尚未公开,但其在个性化图像生成方面的潜力已经引起了广泛关注。
Zight AI 是一款将视频转化为可操作文档的智能工具,支持自动生成标题、摘要和多语言字幕。
Zight AI 是一款专注于视频内容处理的智能工具,通过先进的自然语言处理技术,能够快速为视频生成标题、摘要、字幕和多语言翻译。其主要优点是自动化程度高,能够显著节省用户的时间和精力,同时提高视频内容的可访问性和易用性。Zight AI 适用于多种场景,包括企业培训、客户服务、教育等领域,旨在通过智能化手段提升视频内容的生产力。其价格为付费使用,起价为每用户每月 4 美元,适合需要高效处理视频内容的个人和团队。
X-Dyna是一种基于扩散模型的零样本人类图像动画生成技术。
X-Dyna是一种创新的零样本人类图像动画生成技术,通过将驱动视频中的面部表情和身体动作迁移到单张人类图像上,生成逼真且富有表现力的动态效果。该技术基于扩散模型,通过Dynamics-Adapter模块,将参考外观上下文有效整合到扩散模型的空间注意力中,同时保留运动模块合成流畅复杂动态细节的能力。它不仅能够实现身体姿态控制,还能通过本地控制模块捕捉与身份无关的面部表情,实现精确的表情传递。X-Dyna在多种人类和场景视频的混合数据上进行训练,能够学习物理人体运动和自然场景动态,生成高度逼真和富有表现力的动画。
Hunyuan3D 2.0 是腾讯推出的高分辨率 3D 资产生成系统,基于大规模扩散模型。
Hunyuan3D 2.0 是腾讯推出的一种先进大规模 3D 合成系统,专注于生成高分辨率纹理化的 3D 资产。该系统包括两个基础组件:大规模形状生成模型 Hunyuan3D-DiT 和大规模纹理合成模型 Hunyuan3D-Paint。它通过解耦形状和纹理生成的难题,为用户提供了灵活的 3D 资产创作平台。该系统在几何细节、条件对齐、纹理质量等方面超越了现有的开源和闭源模型,具有极高的实用性和创新性。目前,该模型的推理代码和预训练模型已开源,用户可以通过官网或 Hugging Face 空间快速体验。
一种支持多种视频生成控制任务的统一架构模型。
Diffusion as Shader (DaS) 是一种创新的视频生成控制模型,旨在通过3D感知的扩散过程实现对视频生成的多样化控制。该模型利用3D跟踪视频作为控制输入,能够在统一的架构下支持多种视频控制任务,如网格到视频生成、相机控制、运动迁移和对象操作等。DaS的主要优势在于其3D感知能力,能够有效提升生成视频的时间一致性,并在短时间内通过少量数据微调即可展现出强大的控制能力。该模型由香港科技大学等多所高校的研究团队共同开发,旨在推动视频生成技术的发展,为影视制作、虚拟现实等领域提供更为灵活和高效的解决方案。
基于孪生多模态扩散变换器的创意布局到图像生成技术
CreatiLayout是一种创新的布局到图像生成技术,利用孪生多模态扩散变换器(Siamese Multimodal Diffusion Transformer)来实现高质量和细粒度可控的图像生成。该技术能够精确渲染复杂的属性,如颜色、纹理、形状、数量和文本,适用于需要精确布局和图像生成的应用场景。其主要优点包括高效的布局引导集成、强大的图像生成能力和大规模数据集的支持。CreatiLayout由复旦大学和字节跳动公司联合开发,旨在推动图像生成技术在创意设计领域的应用。
文本到图像扩散模型的美学质量提升工具
VMix是一种用于提升文本到图像扩散模型美学质量的技术,通过创新的条件控制方法——价值混合交叉注意力,系统性地增强图像的美学表现。VMix作为一个即插即用的美学适配器,能够在保持视觉概念通用性的同时提升生成图像的质量。VMix的关键洞见是通过设计一种优越的条件控制方法来增强现有扩散模型的美学表现,同时保持图像与文本的对齐。VMix足够灵活,可以应用于社区模型,以实现更好的视觉性能,无需重新训练。
定制化漫画生成模型,连接多模态LLMs和扩散模型。
DiffSensei是一个结合了多模态大型语言模型(LLMs)和扩散模型的定制化漫画生成模型。它能够根据用户提供的文本提示和角色图像,生成可控制的黑白漫画面板,并具有灵活的角色适应性。这项技术的重要性在于它将自然语言处理与图像生成相结合,为漫画创作和个性化内容生成提供了新的可能性。DiffSensei模型以其高质量的图像生成、多样化的应用场景以及对资源的高效利用而受到关注。目前,该模型在GitHub上公开,可以免费下载使用,但具体的使用可能需要一定的计算资源。
将单目视频转换为沉浸式立体3D视频的框架
StereoCrafter是一个创新的框架,它利用基础模型作为先验,通过深度估计和立体视频修复技术,将2D视频转换为沉浸式立体3D视频。这项技术突破了传统方法的局限,提高了显示设备所需的高保真度生成性能。StereoCrafter的主要优点包括能够处理不同长度和分辨率的视频输入,以及通过自回归策略和分块处理来优化视频处理。此外,StereoCrafter还开发了复杂的数据处理流程,以重建大规模、高质量的数据集,支持训练过程。这个框架为3D设备(如Apple Vision Pro和3D显示器)创造沉浸式内容提供了实际的解决方案,可能改变我们体验数字媒体的方式。
微软开源的视频分词器家族
VidTok是微软开源的一系列先进的视频分词器,它在连续和离散分词方面表现出色。VidTok在架构效率、量化技术和训练策略上都有显著的创新,提供了高效的视频处理能力,并且在多个视频质量评估指标上超越了以往的模型。VidTok的开发旨在推动视频处理和压缩技术的发展,对于视频内容的高效传输和存储具有重要意义。
自适应条件选择,提升文本到图像生成控制力
DynamicControl是一个用于提升文本到图像扩散模型控制力的框架。它通过动态组合多样的控制信号,支持自适应选择不同数量和类型的条件,以更可靠和详细地合成图像。该框架首先使用双循环控制器,利用预训练的条件生成模型和判别模型,为所有输入条件生成初始真实分数排序。然后,通过多模态大型语言模型(MLLM)构建高效条件评估器,优化条件排序。DynamicControl联合优化MLLM和扩散模型,利用MLLM的推理能力促进多条件文本到图像任务,最终排序的条件输入到并行多控制适配器,学习动态视觉条件的特征图并整合它们以调节ControlNet,增强对生成图像的控制。
© 2025 AIbase 备案号:闽ICP备08105208号-14