Orango AI 是一款通过 AI 智能引导用户完成产品操作的工具,提升用户激活率。
Orango AI 是一款专注于提升用户激活率和降低用户流失率的产品。它通过 AI 技术引导用户完成复杂的操作流程,帮助用户快速熟悉产品功能。该产品适用于各种 SaaS 平台,能够显著减少客户支持负担,并通过智能推荐提升用户体验。其主要优势包括高度自动化、易于集成以及强大的用户行为分析能力。Orango AI 提供多种定价方案,满足从初创企业到大型企业的不同需求。
一个开源SDK,用于在应用中添加视频故事和引导页,提升用户参与度。
StorySDK是一个开源SDK,专为网站和移动应用设计,用于嵌入视频故事和引导页。它通过提供简单易用的编辑器和强大的功能,帮助开发者和内容创作者快速创建和分享吸引人的故事内容。其主要优点包括免费试用、无需信用卡、易于集成,以及提供丰富的交互功能和分析工具。该产品旨在通过视频故事的形式提升用户体验和参与度,适用于各种需要用户引导和内容展示的场景。
一种用于控制人类图像动画的方法
DisPose是一种用于控制人类图像动画的方法,它通过运动场引导和关键点对应来提高视频生成的质量。这项技术能够从参考图像和驱动视频中生成视频,同时保持运动对齐和身份信息的一致性。DisPose通过从稀疏的运动场和参考图像生成密集的运动场,提供区域级别的密集引导,同时保持稀疏姿态控制的泛化能力。此外,它还从参考图像中提取与姿态关键点对应的扩散特征,并将这些点特征转移到目标姿态,以提供独特的身份信息。DisPose的主要优点包括无需额外的密集输入即可提取更通用和有效的控制信号,以及通过即插即用的混合ControlNet提高生成视频的质量和一致性,而无需冻结现有模型参数。
先进的文本到图像模型工具套件
FLUX.1 Tools是Black Forest Labs推出的一套模型工具,旨在为基于文本的图像生成模型FLUX.1增加控制和可操作性,使得对真实和生成的图像进行修改和再创造成为可能。该工具套件包含四个不同的特性,以开放访问模型的形式在FLUX.1 [dev]模型系列中提供,并作为BFL API的补充,支持FLUX.1 [pro]。FLUX.1 Tools的主要优点包括先进的图像修复和扩展能力、结构化引导、图像变化和重构等,这些功能对于图像编辑和创作领域具有重要意义。
高保真文本引导的音乐生成与编辑模型
MelodyFlow是一个基于文本控制的高保真音乐生成和编辑模型,它使用连续潜在表示序列,避免了离散表示的信息丢失问题。该模型基于扩散变换器架构,经过流匹配目标训练,能够生成和编辑多样化的高质量立体声样本,且具有文本描述的简单性。MelodyFlow还探索了一种新的正则化潜在反转方法,用于零样本测试时的文本引导编辑,并展示了其在多种音乐编辑提示中的优越性能。该模型在客观和主观指标上进行了评估,证明了其在标准文本到音乐基准测试中的质量与效率上与评估基线相当,并且在音乐编辑方面超越了以往的最先进技术。
文本驱动的3D头像生成与全身动画表达
DreamWaltz-G是一个创新的框架,用于从文本驱动生成3D头像和表达性的全身动画。它的核心是骨架引导的评分蒸馏和混合3D高斯头像表示。该框架通过整合3D人类模板的骨架控制到2D扩散模型中,提高了视角和人体姿势的一致性,从而生成高质量的头像,解决了多重面孔、额外肢体和模糊等问题。此外,混合3D高斯头像表示通过结合神经隐式场和参数化3D网格,实现了实时渲染、稳定的SDS优化和富有表现力的动画。DreamWaltz-G在生成和动画3D头像方面非常有效,无论是视觉质量还是动画表现力都超越了现有方法。此外,该框架还支持多种应用,包括人类视频重演和多主题场景组合。
文本引导的无形状物体修复模型
Diffree是一个基于文本引导的图像修复模型,它能够通过文本描述来添加新对象到图像中,同时保持背景的一致性、空间适宜性和对象的相关性和质量。该模型通过训练在OABench数据集上,使用稳定扩散模型和额外的掩码预测模块,能够独特地预测新对象的位置,实现仅通过文本指导的对象添加。
从文本生成高保真3D服装资产
ClotheDreamer是一个基于3D高斯的文本引导服装生成模型,能够从文本描述生成高保真的、可穿戴的3D服装资产。它采用了一种新颖的表示方法Disentangled Clothe Gaussian Splatting (DCGS),允许服装和人体分别进行优化。该技术通过双向Score Distillation Sampling (SDS)来提高服装和人体渲染的质量,并支持自定义服装模板输入。ClotheDreamer的合成3D服装可以轻松应用于虚拟试穿,并支持物理精确的动画。
文本到视频生成的创新模型,实现姿势引导的动画制作。
Follow-Your-Pose是一个文本到视频生成的模型,它利用姿势信息和文本描述来生成可编辑、可控制姿势的角色视频。这项技术在数字人物创作领域具有重要应用价值,解决了缺乏综合数据集和视频生成先验模型的限制。通过两阶段训练方案,结合预训练的文本到图像模型,实现了姿势可控的视频生成。
视频运动编辑的轻量级得分引导扩散模型
MotionFollower是一个轻量级的得分引导扩散模型,用于视频运动编辑。它通过两个轻量级信号控制器,分别对姿势和外观进行控制,不涉及繁重的注意力计算。该模型设计了基于双分支架构的得分引导原则,包括重建和编辑分支,显著增强了对纹理细节和复杂背景的建模能力。实验表明,MotionFollower在GPU内存使用上比最先进的运动编辑模型MotionEditor减少了约80%,同时提供了更优越的运动编辑性能,并独家支持大范围的摄像机运动和动作。
虚拟人物生成的图像到视频框架
MusePose是由腾讯音乐娱乐的Lyra Lab开发的一款图像到视频的生成框架,旨在通过姿势控制信号生成虚拟人物的视频。它是Muse开源系列的最后一个构建块,与MuseV和MuseTalk一起,旨在推动社区向生成具有全身运动和交互能力的虚拟人物的愿景迈进。MusePose基于扩散模型和姿势引导,能够生成参考图像中人物的舞蹈视频,并且结果质量超越了当前几乎所有同一主题的开源模型。
使用扩散指引对文本感知图像进行细粒度风格控制
DreamWalk是一种基于扩散指引的文本感知图像生成方法,可对图像的风格和内容进行细粒度控制,无需对扩散模型进行微调或修改内部层。支持多种风格插值和空间变化的引导函数,可广泛应用于各种扩散模型。
Muse Pro是一款由AI引导的实时绘画工具,旨在增强艺术家的绘画体验
Muse Pro通过GPT-4 Vision技术提供无与伦比的速度和质量,支持实时AI引导,让艺术家可以使用熟悉的工具和创新的AI释放创造力。它具备文本到图像的功能、随机化创作、细节增强、视觉描述、直观的AI控制滑块、暂停功能以及图层和画笔库等多样化工具。
Stability AI 高保真文本转语音模型
Stability AI 高保真文本转语音模型旨在提供对大规模数据集进行训练的语音合成模型的自然语言引导。它通过标注不同的说话者身份、风格和录音条件来进行自然语言引导。然后将此方法应用于45000小时的数据集,用于训练语音语言模型。此外,该模型提出了提高音频保真度的简单方法,尽管完全依赖于发现的数据,但在很大程度上表现出色。
多模态引导的共语言面部动画生成
Media2Face是一款通过音频、文本和图像多模态引导的共语言面部动画生成工具。它首先利用通用神经参数化面部资产(GNPFA)将面部几何和图像映射到高度通用的表情潜在空间,然后从大量视频中提取高质量的表情和准确的头部姿态,构建了M2F-D数据集。最后,采用GNPFA潜在空间中的扩散模型进行共语言面部动画生成。该工具不仅在面部动画合成方面具有高保真度,还拓展了表现力和样式适应性。
生成全身照片级人形化身的框架
Audio to Photoreal Embodiment是一个生成全身照片级人形化身的框架。它根据对话动态生成面部、身体和手部的多种姿势动作。其方法的关键在于通过将向量量化的样本多样性与扩散所获得的高频细节相结合,生成更具动态和表现力的动作。通过高度逼真的人形化身可视化生成的动作,能够表达出姿势中的重要细微差别(例如嘲笑和傲慢)。为了促进这一研究方向,我们引入了一种首次亮相的多视图对话数据集,可以进行照片级重建。实验证明,我们的模型生成了合适且多样化的动作,表现优于扩散和仅向量量化的方法。此外,我们的感知评估突出了在准确评估对话姿势中的微妙动作细节方面,照片级真实感(与网格)的重要性。代码和数据集可在线获取。
基于图形的通用姿势估计方法
Pose Anything是一种基于图形的通用姿势估计方法,旨在使关键点定位适用于任意物体类别,使用单个模型,需要最少带有注释关键点的支持图像。该方法通过全新设计的图形转换解码器利用关键点之间的几何关系,提高了关键点定位的准确性。Pose Anything在MP-100基准测试中表现优异,超过了先前的最先进技术,并在1-shot和5-shot设置下取得显著改进。与以往的CAPE方法相比,该方法的端到端训练显示出可扩展性和效率。
文本引导的高保真3D场景合成
SceneWiz3D是一种新颖的方法,可以从文本中合成高保真的3D场景。它采用混合的3D表示,对对象采用显式表示,对场景采用隐式表示。用户可以通过传统的文本到3D方法或自行提供对象来生成对象。为了配置场景布局并自动放置对象,我们在优化过程中应用了粒子群优化技术。此外,在文本到场景的情况下,对于场景的某些部分(例如角落、遮挡),很难获得多视角监督,导致几何形状劣质。为了缓解这种监督缺失,我们引入了RGBD全景扩散模型作为额外先验,从而实现了高质量的几何形状。广泛的评估支持我们的方法实现了比以前的方法更高的质量,可以生成详细且视角一致的3D场景。
© 2025 AIbase 备案号:闽ICP备08105208号-14