一个高效的无边界3D城市生成框架,使用3D高斯绘制技术实现快速生成。
GaussianCity是一个专注于高效生成无边界3D城市的框架,基于3D高斯绘制技术。该技术通过紧凑的3D场景表示和空间感知的高斯属性解码器,解决了传统方法在生成大规模城市场景时面临的内存和计算瓶颈。其主要优点是能够在单次前向传递中快速生成大规模3D城市,显著优于现有技术。该产品由南洋理工大学S-Lab团队开发,相关论文发表于CVPR 2025,代码和模型已开源,适用于需要高效生成3D城市环境的研究人员和开发者。
DiffSplat 是一个从文本提示和单视图图像生成 3D 高斯点云的生成框架。
DiffSplat 是一种创新的 3D 生成技术,能够从文本提示和单视图图像快速生成 3D 高斯点云。该技术通过利用大规模预训练的文本到图像扩散模型,实现了高效的 3D 内容生成。它解决了传统 3D 生成方法中数据集有限和无法有效利用 2D 预训练模型的问题,同时保持了 3D 一致性。DiffSplat 的主要优点包括高效的生成速度(1~2 秒内完成)、高质量的 3D 输出以及对多种输入条件的支持。该模型在学术研究和工业应用中具有广泛前景,尤其是在需要快速生成高质量 3D 模型的场景中。
Spell 是一个 AI 模型,可从图像生成 3D 世界,支持多种渲染技术。
Spell 是 Spline 推出的 AI 模型,能够从单张图像生成完整的 3D 场景。它基于扩散模型技术,通过结合真实数据和合成数据进行训练,能够在几分钟内生成具有多视图一致性的 3D 世界。该技术的主要优点是能够快速生成高质量的 3D 场景,并支持多种渲染技术如高斯绘制和神经辐射场等。Spell 的出现为 3D 设计领域带来了革命性的变化,使创作者能够更高效地生成和探索 3D 场景。目前,Spell 仍处于开发阶段,团队计划频繁更新模型以提升质量和一致性。
SeedVR: 一种用于通用视频修复的扩散变换器模型
SeedVR 是一种创新的扩散变换器模型,专门用于处理真实世界中的视频修复任务。该模型通过其独特的移位窗口注意力机制,能够高效地处理任意长度和分辨率的视频序列。SeedVR 的设计使其在生成能力和采样效率方面都取得了显著的提升,相较于传统的扩散模型,它在合成和真实世界的基准测试中均表现出色。此外,SeedVR 还结合了因果视频自编码器、混合图像和视频训练以及渐进式训练等现代实践,进一步提高了其在视频修复领域的竞争力。作为一种前沿的视频修复技术,SeedVR 为视频内容创作者和后期制作人员提供了一种强大的工具,能够显著提升视频质量,尤其是在处理低质量或损坏的视频素材时。
谷歌最新的高性能量子芯片
Willow量子芯片是谷歌量子人工智能团队研发的最新一代量子芯片,它在量子错误校正和性能上取得了重大突破。这款芯片能够显著降低随着量子比特数增加而产生的错误,实现了量子计算领域近30年来追求的关键挑战。此外,Willow在不到五分钟的时间内完成了一项标准基准计算,而这项计算对于当今最快的超级计算机来说需要10^25年,即远远超过宇宙的年龄。这一成就标志着我们向构建具有商业意义的大型量子计算机迈出了重要一步,量子计算机有潜力彻底改变医药、能源和人工智能等领域。
用于生成图像的AI模型,支持多种控制网络
Stable Diffusion 3.5 ControlNets是由Stability AI提供的文本到图像的AI模型,支持多种控制网络(ControlNets),如Canny边缘检测、深度图和高保真上采样等。该模型能够根据文本提示生成高质量的图像,特别适用于插画、建筑渲染和3D资产纹理等场景。它的重要性在于能够提供更精细的图像控制能力,提升生成图像的质量和细节。产品背景信息包括其在学术界的引用(arxiv:2302.05543),以及遵循的Stability Community License。价格方面,对于非商业用途、年收入不超过100万美元的商业用途免费,超过则需联系企业许可。
利用像素空间拉普拉斯扩散模型生成高质量图像
Edify Image是NVIDIA推出的一款图像生成模型,它能够生成具有像素级精确度的逼真图像内容。该模型采用级联像素空间扩散模型,并通过新颖的拉普拉斯扩散过程进行训练,该过程能够在不同频率带以不同的速率衰减图像信号。Edify Image支持多种应用,包括文本到图像合成、4K上采样、ControlNets、360° HDR全景图生成和图像定制微调。它代表了图像生成技术的最新进展,具有广泛的应用前景和重要的商业价值。
3D高斯生成技术,实现任意未摆姿势图像的3D重建
LucidFusion是一个灵活的端到端前馈框架,用于从未摆姿势、稀疏和任意数量的多视图图像中生成高分辨率3D高斯。该技术利用相对坐标图(RCM)来对齐不同视图间的几何特征,使其在3D生成方面具有高度适应性。LucidFusion能够与原始单图像到3D的流程无缝集成,生成512x512分辨率的详细3D高斯,适合广泛的应用场景。
3D头像重建与实时动画生成技术
GAGAvatar是一种基于高斯模型的3D头像重建与动画生成技术,它能够在单张图片的基础上快速生成3D头像,并实现实时的面部表情动画。这项技术的主要优点包括高保真度的3D模型生成、快速的渲染速度以及对未见身份的泛化能力。GAGAvatar通过创新的双提升方法捕捉身份和面部细节,利用全局图像特征和3D可变形模型来控制表情,为数字头像的研究和应用提供了新的基准。
高效3D高斯重建模型,实现大场景快速重建
Long-LRM是一个用于3D高斯重建的模型,能够从一系列输入图像中重建出大场景。该模型能在1.3秒内处理32张960x540分辨率的源图像,并且仅在单个A100 80G GPU上运行。它结合了最新的Mamba2模块和传统的transformer模块,通过高效的token合并和高斯修剪步骤,在保证质量的同时提高了效率。与传统的前馈模型相比,Long-LRM能够一次性重建整个场景,而不是仅重建场景的一小部分。在大规模场景数据集上,如DL3DV-140和Tanks and Temples,Long-LRM的性能可与基于优化的方法相媲美,同时效率提高了两个数量级。
从单目视频生成高质量4D对象的新型框架
DreamMesh4D是一个结合了网格表示与稀疏控制变形技术的新型框架,能够从单目视频中生成高质量的4D对象。该技术通过结合隐式神经辐射场(NeRF)或显式的高斯绘制作为底层表示,解决了传统方法在空间-时间一致性和表面纹理质量方面的挑战。DreamMesh4D利用现代3D动画流程的灵感,将高斯绘制绑定到三角网格表面,实现了纹理和网格顶点的可微优化。该框架开始于由单图像3D生成方法提供的粗糙网格,通过均匀采样稀疏点来构建变形图,以提高计算效率并提供额外的约束。通过两阶段学习,结合参考视图光度损失、得分蒸馏损失以及其他正则化损失,实现了静态表面高斯和网格顶点以及动态变形网络的学习。DreamMesh4D在渲染质量和空间-时间一致性方面优于以往的视频到4D生成方法,并且其基于网格的表示与现代几何流程兼容,展示了其在3D游戏和电影行业的潜力。
3D纹理生成技术,根据文本描述合成3D纹理
TexGen是一个创新的多视角采样和重采样框架,用于根据任意文本描述合成3D纹理。它利用预训练的文本到图像的扩散模型,通过一致性视图采样和注意力引导的多视角采样策略,以及噪声重采样技术,显著提高了3D对象的纹理质量,具有高度的视角一致性和丰富的外观细节。
3D场景重建与动态物体追踪技术
EgoGaussian是一项先进的3D场景重建与动态物体追踪技术,它能够仅通过RGB第一人称视角输入,同时重建3D场景并动态追踪物体的运动。这项技术利用高斯散射的独特离散特性,从背景中分割出动态交互,并通过片段级别的在线学习流程,利用人类活动的动态特性,以时间顺序重建场景的演变并追踪刚体物体的运动。EgoGaussian在野外视频的挑战中超越了先前的NeRF和动态高斯方法,并且在重建模型的质量上也表现出色。
使用人工智能创作和混音音乐,200,000+样本或自创样本。
TwoShot是一个在线音乐采样平台,提供超过200,000个音乐样本,用户可以重新想象这些样本或生成自己的音乐样本。它允许音乐制作人和爱好者探索和下载各种风格的音乐样本包,从而丰富他们的音乐创作。TwoShot的背景信息包括其创新的音乐采样技术,以及如何帮助用户在音乐制作中获得灵感和便利。
高效渲染大规模场景的实时视图合成技术
Level of Gaussians (LoG) 是一种用于高效渲染三维场景的新技术,它通过树状结构存储高斯基元,并通过渐进式训练策略从图像中端到端重建,有效克服局部最小值,实现实时渲染数百万平方千米的区域,是渲染大规模场景的重要进步。
用于编辑动态场景的稀疏控制高斯溅射技术
SC-GS是一种新型表示技术,将动态场景的运动和外观分别用稀疏控制点和密集高斯函数表示。它使用少量控制点学习紧凑的6自由度变换基,这些基可通过插值权重在局部插值,得到3D高斯函数的运动场。它采用变形MLP预测每个控制点的时变6自由度变换,降低学习复杂度,增强学习能力,实现时空连贯的运动模式。同时联合学习3D高斯函数、控制点的规范空间位置和变形MLP,重建3D场景的外观、几何和动态。在训练过程中,控制点的位置和数量会自适应调整以适应不同区域的运动复杂度,并采用尽可能刚性的损失函数强制运动的空间连续性和局部刚性。由于运动表示的显式稀疏性和外观分离,该方法实现了用户控制的运动编辑,同时保留高保真度外观。大量实验表明,该方法在新视图合成和高速渲染方面优于现有方法,并支持新的保留外观的运动编辑应用。
用于高质量高效3D重建和生成的大型高斯重建模型
GRM是一种大规模的重建模型,能够在0.1秒内从稀疏视图图像中恢复3D资产,并且在8秒内实现生成。它是一种前馈的基于Transformer的模型,能够高效地融合多视图信息将输入像素转换为像素对齐的高斯分布,这些高斯分布可以反投影成为表示场景的密集3D高斯分布集合。我们的Transformer架构和使用3D高斯分布的方式解锁了一种可扩展、高效的重建框架。大量实验结果证明了我们的方法在重建质量和效率方面优于其他替代方案。我们还展示了GRM在生成任务(如文本到3D和图像到3D)中的潜力,通过与现有的多视图扩散模型相结合。
ComfyUI的轨迹一致性蒸馏(TCD)采样插件
这是一款ComfyUI的自定义采样器插件节点,实现了Zheng等人提出的基于轨迹一致性蒸馏(TCD)的采样方法。插件为ComfyUI的Custom Sampler类别增加了TCDScheduler和SamplerTCD节点。只需将其克隆到custom_nodes文件夹中,重启ComfyUI即可使用。TCDScheduler有一个特殊参数eta,用于控制每一步的随机性。当eta=0时表示确定性采样,eta=1时表示完全随机采样。默认值为0.3,但在增加推理步数时建议使用更高的eta值。该插件基于轨迹一致性蒸馏采样方法,可为AI模型提供更加平滑和一致的输出结果。
© 2025 AIbase 备案号:闽ICP备08105208号-14