结合 100 多个模型的前沿 AI 解决方案。
EmaFusion™是一个创新的 AI 模型,整合了 100 多个基础模型和专用模型,以提供最高的准确性和最低的成本与延迟。该产品为企业量身定制,确保安全、有效和可扩展的 AI 应用,具有内置的容错机制和定制控制。EmaFusion™旨在提升 AI 应用的效率,适合各种业务需求。
Kokoro TTS 是一款支持多语言和语音融合的高性能文本转语音工具,免费用于商业用途。
Kokoro TTS 是一款强大的文本转语音工具,支持多种语言和语音融合功能,能够将 EPUB、PDF 和 TXT 文件转换为高质量的语音输出。该工具为开发者和用户提供了灵活的语音定制选项,能够轻松创建专业级音频。其主要优点包括支持多语言、语音融合、灵活的输入格式以及免费的商业使用许可。该产品定位为创作者、开发者和企业提供了高效、低成本的语音合成解决方案,适用于有声书创作、视频旁白、播客制作、教育内容生成以及客户服务等多个场景。
VideoGrain 是一种零样本方法,用于实现类别级、实例级和部件级的视频编辑。
VideoGrain 是一种基于扩散模型的视频编辑技术,通过调节时空注意力机制实现多粒度视频编辑。该技术解决了传统方法中语义对齐和特征耦合的问题,能够对视频内容进行精细控制。其主要优点包括零样本编辑能力、高效的文本到区域控制以及特征分离能力。该技术适用于需要对视频进行复杂编辑的场景,如影视后期、广告制作等,能够显著提升编辑效率和质量。
一个可以根据英文名和性别生成中文名字的在线工具。
该产品是一个在线中文名字生成器,用户输入英文名和性别后,即可生成对应的中文名字。它利用中文语言学和文化知识,为用户提供个性化的中文名字选择。其主要优点是操作简单、结果准确,适合有需求的用户快速获取中文名字。该产品由越山(Yueshan)开发,目前未明确标出价格,但从页面来看,基础功能可能免费提供。
STAR是一种用于真实世界视频超分辨率的时空增强框架,首次将强大的文本到视频扩散先验集成到真实世界视频超分辨率中。
STAR是一种创新的视频超分辨率技术,通过将文本到视频扩散模型与视频超分辨率相结合,解决了传统GAN方法中存在的过度平滑问题。该技术不仅能够恢复视频的细节,还能保持视频的时空一致性,适用于各种真实世界的视频场景。STAR由南京大学、字节跳动等机构联合开发,具有较高的学术价值和应用前景。
WePOINTS项目,提供多模态模型的统一框架
WePOINTS是由微信AI团队开发的一系列多模态模型,旨在创建一个统一框架,容纳各种模态。这些模型利用最新的多模态模型进展和技术,推动内容理解和生成的无缝统一。WePOINTS项目不仅提供了模型,还包括了预训练数据集、评估工具和使用教程,是多模态人工智能领域的重要贡献。
音乐驱动的心理健康社区
Jammy Chat 是一个以音乐为动力的心理健康社区,它通过社区故事、私密的情感支持和基于情绪的音乐推荐来帮助你改善情绪。这个平台专为技术为中心的生活方式设计,提供真实的支持,无缝融入日常生活。Jammy 的使命是让心理健康问题不再那么糟糕,通过提供社区故事、私密情感支持和基于情绪的音乐推荐,旨在彻底改善我们共同的感受。Jammy 是一个持续与社区对话的平台,根据你的反馈不断进化,确保它真正帮助你感到更连接和支持。
长视频语言理解的时空自适应压缩模型
LongVU是一种创新的长视频语言理解模型,通过时空自适应压缩机制减少视频标记的数量,同时保留长视频中的视觉细节。这一技术的重要性在于它能够处理大量视频帧,且在有限的上下文长度内仅损失少量视觉信息,显著提升了长视频内容理解和分析的能力。LongVU在多种视频理解基准测试中均超越了现有方法,尤其是在理解长达一小时的视频任务上。此外,LongVU还能够有效地扩展到更小的模型尺寸,同时保持最先进的视频理解性能。
机器人操控的时空关系关键点约束推理
ReKep是一个用于机器人操控的时空关系关键点约束推理系统,它通过将机器人操控任务表示为关联机器人和环境的约束来编码期望的机器人行为。ReKep利用大型视觉模型和视觉-语言模型,无需特定任务训练或环境模型,即可生成基于关键点的约束,这些约束可以被优化以实现多阶段、野外、双手和反应性行为。ReKep的主要优点包括其通用性、无需手动标记以及能够被现成求解器实时优化以产生机器人动作。
开源时空基础模型,用于交通预测
OpenCity是一个开源的时空基础模型,专注于交通预测领域。该模型通过整合Transformer架构和图神经网络,有效捕捉和标准化交通数据中的复杂时空依赖关系,实现对不同城市环境的零样本泛化。它在大规模、异构的交通数据集上进行预训练,学习到丰富、可泛化的表示,能够无缝应用于多种交通预测场景。
AI驱动的可视化设计工具
creaition是一个利用先进AI技术,通过全视觉工作流程,让用户轻松创建令人惊叹的设计对象的平台。它提供了基础版Lite的免费试用,让用户体验无缝的设计创造过程。该平台通过训练定制的AI模型,融合品牌精髓,生成与现有产品组合无缝集成的无数新设计。
视频虚拟试穿技术
ViViD是一个利用扩散模型进行视频虚拟试穿的新框架。它通过设计服装编码器提取精细的服装语义特征,并引入轻量级姿态编码器以确保时空一致性,生成逼真的视频试穿效果。ViViD收集了迄今为止规模最大、服装类型最多样化、分辨率最高的视频虚拟试穿数据集。
时空融合,动态模型
MagicTime是将MagicTime时间Lora融合到Animatediff v3动态模型中,以及将其空间Lora转换为.safetensors格式。在ComfyUI和AnimatediffEvolved中一起使用。功能强大,提供高质量的时空融合效果,适用于动态模型应用。定价视具体用途而定,定位于提供先进的时空融合技术。
Etna是七火山科技开发的AIGC模型,专注于根据文本描述生成相应的视频内容
Etna模型采用了Diffusion架构,并结合了时空卷积和注意力层,使其能够处理视频数据并理解时间连续性,从而生成具有时间维度的视频内容。该模型在大型视频数据集上进行训练,使用了深度学习技术策略,包括大规模训练、超参数优化和微调,以确保强大的性能和生成能力。
视频生成的时空扩散模型
Lumiere是一个文本到视频扩散模型,旨在合成展现真实、多样和连贯运动的视频,解决视频合成中的关键挑战。我们引入了一种空时U-Net架构,可以一次性生成整个视频的时间持续,通过模型的单次传递。这与现有的视频模型形成对比,后者合成远距离的关键帧,然后进行时间超分辨率处理,这种方法本质上使得全局时间一致性难以实现。通过部署空间和(重要的是)时间的下采样和上采样,并利用预训练的文本到图像扩散模型,我们的模型学会直接生成多个时空尺度下的全帧率、低分辨率视频。我们展示了最先进的文本到视频生成结果,并展示了我们的设计轻松促进了各种内容创作任务和视频编辑应用,包括图像到视频、视频修补和风格化生成。
解释视频Transformer决策过程的概念发现
这篇论文研究了视频Transformer表示的概念解释问题。具体而言,我们试图解释基于高级时空概念的视频Transformer的决策过程,这些概念是自动发现的。以往关于基于概念的可解释性的研究仅集中在图像级任务上。相比之下,视频模型处理了额外的时间维度,增加了复杂性,并在识别随时间变化的动态概念方面提出了挑战。在这项工作中,我们通过引入第一个视频Transformer概念发现(VTCD)算法系统地解决了这些挑战。为此,我们提出了一种有效的无监督视频Transformer表示单元(概念)识别方法,并对它们在模型输出中的重要性进行排名。所得的概念具有很高的可解释性,揭示了非结构化视频模型中的时空推理机制和以对象为中心的表示。通过在多样的监督和自监督表示上联合进行这种分析,我们发现其中一些机制在视频Transformer中是普遍的。最后,我们证明VTCD可以用于改善精细任务的模型性能。
© 2025 AIbase 备案号:闽ICP备08105208号-14