AI技术实时检测面部形状,适用于美容、风格和个性化面部分析。
AI面部形状检测器是一个利用人工智能技术快速准确检测面部形状的工具,帮助用户选择适合自己的美容和风格决策。该产品背景信息详细,功能强大,定位于提供个性化的面部分析服务。
Hunyuan3D 2.0 是腾讯推出的高分辨率 3D 资产生成系统,基于大规模扩散模型。
Hunyuan3D 2.0 是腾讯推出的一种先进大规模 3D 合成系统,专注于生成高分辨率纹理化的 3D 资产。该系统包括两个基础组件:大规模形状生成模型 Hunyuan3D-DiT 和大规模纹理合成模型 Hunyuan3D-Paint。它通过解耦形状和纹理生成的难题,为用户提供了灵活的 3D 资产创作平台。该系统在几何细节、条件对齐、纹理质量等方面超越了现有的开源和闭源模型,具有极高的实用性和创新性。目前,该模型的推理代码和预训练模型已开源,用户可以通过官网或 Hugging Face 空间快速体验。
多视图一致性图像生成的便捷解决方案
MV-Adapter是一种基于适配器的多视图图像生成解决方案,它能够在不改变原有网络结构或特征空间的前提下,增强预训练的文本到图像(T2I)模型及其衍生模型。通过更新更少的参数,MV-Adapter实现了高效的训练并保留了预训练模型中嵌入的先验知识,降低了过拟合风险。该技术通过创新的设计,如复制的自注意力层和并行注意力架构,使得适配器能够继承预训练模型的强大先验,以建模新的3D知识。此外,MV-Adapter还提供了统一的条件编码器,无缝整合相机参数和几何信息,支持基于文本和图像的3D生成以及纹理映射等应用。MV-Adapter在Stable Diffusion XL(SDXL)上实现了768分辨率的多视图生成,并展示了其适应性和多功能性,能够扩展到任意视图生成,开启更广泛的应用可能性。
Champ:一种用于生成 3D 物体形状的生成模型
Champ 是一种用于生成 3D 物体形状的生成模型,它结合了隐函数和卷积神经网络,以生成高质量、多样化和逼真的 3D 形状。它可以生成各种类别的形状,包括动物、车辆和家具。
一个千万级3D形状模型
Make-A-Shape是一个新的3D生成模型,旨在以高效的方式训练大规模数据,能够利用1000万个公开可用的形状。我们创新性地引入了小波树表示法,通过制定子带系数滤波方案来紧凑地编码形状,然后通过设计子带系数打包方案将表示布置在低分辨率网格中,使其可生成扩散模型。此外,我们还提出了子带自适应训练策略,使我们的模型能够有效地学习生成粗细小波系数。最后,我们将我们的框架扩展为受额外输入条件控制,以使其能够从各种模态生成形状,例如单/多视图图像、点云和低分辨率体素。在大量实验中,我们展示了无条件生成、形状完成和条件生成等各种应用。我们的方法不仅在提供高质量结果方面超越了现有技术水平,而且在几秒内高效生成形状,通常在大多数条件下仅需2秒钟。
AlphaGeometry: AI解决几何问题的突破
AlphaGeometry是一个超越了现有技术水平的几何问题AI系统,它通过结合神经语言模型的预测能力和规则驱动的推理引擎,能够解决复杂的几何问题。该系统采用神经符号学方法,由神经语言模型和符号推理引擎组成,共同寻找复杂几何定理的证明。通过生成10亿个随机几何对象图形,并从中推导出所有的关系,最终得到了1亿个独特的训练样本,其中900万个包含了额外的构造。AlphaGeometry的语言模型能够在面对国际数学奥林匹克竞赛的几何问题时做出良好的建议。该系统已经成为世界上第一个能够达到国际数学奥林匹克竞赛铜牌水平的AI模型。
高保真几何渲染
这款产品是一种3D GAN技术,通过学习基于神经体积渲染的方法,能够以前所未有的细节解析细粒度的3D几何。产品采用学习型采样器,加速3D GAN训练,使用更少的深度采样,实现在训练和推断过程中直接渲染完整分辨率图像的每个像素,同时学习高质量的表面几何,合成高分辨率3D几何和严格视角一致的图像。产品在FFHQ和AFHQ上展示了最先进的3D几何质量,为3D GAN中的无监督学习建立了新的标准。
生成高质量的3D纹理形状
GET3D是一个生成高质量的3D纹理形状的生成模型。它能够生成具有复杂拓扑结构、丰富几何细节和高保真度纹理的3D网格。GET3D通过可微分的表面建模、可微分的渲染以及2D生成对抗网络的方法进行训练。它能够生成各种高质量的3D纹理形状,包括汽车、椅子、动物、摩托车、人物和建筑等。
ReconFusion: 3D重建与扩散先验
ReconFusion是一种3D重建方法,利用扩散先验在只有少量照片的情况下重建真实世界场景。它结合Neural Radiance Fields(NeRFs)和扩散先验,能够在新的摄像机位置超出输入图像集合的情况下,合成逼真的几何和纹理。该方法通过在少量视图和多视图数据集上训练扩散先验,能够在不受约束的区域合成逼真的几何和纹理,同时保留观察区域的外观。ReconFusion在各种真实世界数据集上进行了广泛评估,包括前向和360度场景,展示出明显的性能改进。
定制化视频主体交换
VideoSwap是一款视频编辑工具,可以将用户定制的概念交换到视频中,同时保留背景。通过语义点轨迹对齐和形状修改,实现视频主体的定制化交换。相较于传统方法,VideoSwap利用语义点对齐,可以在不同形状的交换中取得更好的效果。用户可以通过设置语义点和交互式拖拽等方式,实现更精细的视频交换效果。VideoSwap适用于多种场景,包括但不限于影视制作、广告制作、个人视频创作等。定价方面,VideoSwap提供免费试用和付费套餐,用户可以根据需求选择不同的套餐。
使用解码器-仅变压器生成三角网格
MeshGPT通过自回归地从经过训练以生成来自学习几何词汇的标记的变压器模型中采样来创建三角网格。这些标记然后可以被解码成三角网格的面。我们的方法生成干净、连贯和紧凑的网格,具有清晰的边缘和高保真度。MeshGPT在形状覆盖率上表现比现有的网格生成方法有显著改进,各种类别的FID得分提高了30个点。
基于大数据和大模型的人体姿态和形状估计模型
SMPLer-X是一种基于大数据和大模型的人体姿态和形状估计模型,能够统一捕捉身体、手和面部的运动,并具有广泛的应用。该模型通过对32个不同场景的数据集进行系统研究,优化训练方案并选择数据集,从而实现了对EHPS能力的显著提升。SMPLer-X采用Vision Transformer进行模型扩展,并通过微调策略将其转化为专家模型,从而进一步提高性能。该模型在多个基准测试中均表现出色,如AGORA(107.2 mm NMVE)、UBody(57.4 mm PVE)、EgoBody(63.6 mm PVE)和EHF(62.3 mm PVE without finetuning)。SMPLer-X的优势在于能够处理多样化的数据源,具有出色的泛化能力和可迁移性。
在线图像集合的神经渲染
NeROIC是一种从在线图像集合中获取物体表示的新方法,可以捕捉具有不同相机、光照和背景的照片中任意物体的高质量几何和材质属性。它可以用于新视角合成、重新照明和和谐背景合成等物体中心渲染应用。通过扩展神经辐射场的多阶段方法,我们首先推断表面几何并改进粗略估计的初始相机参数,同时利用粗略的前景物体掩码来提高训练效率和几何质量。我们还引入了一种稳健的法线估计技术,可以消除几何噪声的影响,同时保留关键细节。最后,我们提取表面材质属性和环境光照,用球谐函数表示,并处理瞬态元素,如锐利阴影。这些组件的结合形成了一个高度模块化和高效的物体获取框架。广泛的评估和比较证明了我们的方法在捕捉用于渲染应用的高质量几何和外观属性方面的优势。
© 2025 AIbase 备案号:闽ICP备08105208号-14