需求人群:
"新视图合成、高保真动画生成、特效制作、运动补全、虚拟现实等"
使用场景示例:
影视特效制作中的动态场景渲染
虚拟现实/增强现实应用中的真实场景建模和交互
通过编辑控制网格来修改3D动画运动序列
产品特色:
将动态场景分解为稀疏控制点(运动表示)和密集高斯函数(外观表示)
使用变形MLP预测每个控制点的时变6自由度变换
根据控制点插值得到3D高斯函数的运动场
联合学习高斯函数、控制点位置和变形MLP
自适应调整控制点位置和数量
使用尽可能刚性损失函数约束运动连续性和局部刚性
支持用户交互式编辑控制点对应的运动
浏览量:63
最新流量情况
月访问量
948
平均访问时长
00:00:04
每次访问页数
1.18
跳出率
39.93%
流量来源
直接访问
9.35%
自然搜索
9.35%
邮件
0.04%
外链引荐
73.67%
社交媒体
7.01%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
美国
100.00%
用于编辑动态场景的稀疏控制高斯溅射技术
SC-GS是一种新型表示技术,将动态场景的运动和外观分别用稀疏控制点和密集高斯函数表示。它使用少量控制点学习紧凑的6自由度变换基,这些基可通过插值权重在局部插值,得到3D高斯函数的运动场。它采用变形MLP预测每个控制点的时变6自由度变换,降低学习复杂度,增强学习能力,实现时空连贯的运动模式。同时联合学习3D高斯函数、控制点的规范空间位置和变形MLP,重建3D场景的外观、几何和动态。在训练过程中,控制点的位置和数量会自适应调整以适应不同区域的运动复杂度,并采用尽可能刚性的损失函数强制运动的空间连续性和局部刚性。由于运动表示的显式稀疏性和外观分离,该方法实现了用户控制的运动编辑,同时保留高保真度外观。大量实验表明,该方法在新视图合成和高速渲染方面优于现有方法,并支持新的保留外观的运动编辑应用。
动态视角合成的扩散先验模型
本论文提出了一种基于扩散先验的动态视角合成方法,用于从单目视频中生成动态场景的新视角。该方法通过对视频帧进行微调和知识蒸馏,实现了几何一致性和场景一致性。论文通过定性和定量实验评估了方法的有效性和鲁棒性,证明了该方法在复杂场景下的优势。
高效渲染大规模场景的实时视图合成技术
Level of Gaussians (LoG) 是一种用于高效渲染三维场景的新技术,它通过树状结构存储高斯基元,并通过渐进式训练策略从图像中端到端重建,有效克服局部最小值,实现实时渲染数百万平方千米的区域,是渲染大规模场景的重要进步。
快速从单视图训练高保真的人体3D高斯模型
Human101是一个快速从单视图重建人体的框架。它能够在100秒内训练3D高斯模型,并以60FPS以上渲染1024分辨率的图像,而无需预先存储每帧的高斯属性。Human101管道如下:首先,从单视图视频中提取2D人体姿态。然后,利用姿态驱动3D模拟器生成匹配的3D骨架动画。最后,基于动画构建时间相关的3D高斯模型,进行实时渲染。
3D场景重建与动态物体追踪技术
EgoGaussian是一项先进的3D场景重建与动态物体追踪技术,它能够仅通过RGB第一人称视角输入,同时重建3D场景并动态追踪物体的运动。这项技术利用高斯散射的独特离散特性,从背景中分割出动态交互,并通过片段级别的在线学习流程,利用人类活动的动态特性,以时间顺序重建场景的演变并追踪刚体物体的运动。EgoGaussian在野外视频的挑战中超越了先前的NeRF和动态高斯方法,并且在重建模型的质量上也表现出色。
3D高斯全身动态表情模型
ExAvatar是一种新型的3D全身动态表情模型,它结合了SMPL-X的全身驱动能力和3DGS的强外观建模能力。通过简单的手机扫描即可创建,支持各种姿势和表情的动画渲染。ExAvatar的混合表示方法提高了面部表情的自然度,减少了新表情和姿势的伪影,并且使模型与SMPL-X的面部表情空间完全兼容。
1.3B参数的图像转视频模型,用于生成3D一致的新场景视图
Stable Virtual Camera是Stability AI开发的一个1.3B参数的通用扩散模型,属于Transformer图像转视频模型。其重要性在于为新型视图合成(NVS)提供了技术支持,能够根据输入视图和目标相机生成3D一致的新场景视图。主要优点是可自由指定目标相机轨迹,能生成大视角变化且时间上平滑的样本,无需额外神经辐射场(NeRF)蒸馏即可保持高一致性,还能生成长达半分钟的高质量无缝循环视频。该模型仅可免费用于研究和非商业用途,定位是为研究人员和非商业创作者提供创新的图像转视频解决方案。
从合成数据中学习视觉表示模型
该代码仓库包含从合成图像数据(主要是图片)进行学习的研究,包括StableRep、Scaling和SynCLR三个项目。这些项目研究了如何利用文本到图像模型生成的合成图像数据进行视觉表示模型的训练,并取得了非常好的效果。
文本引导的高保真3D场景合成
SceneWiz3D是一种新颖的方法,可以从文本中合成高保真的3D场景。它采用混合的3D表示,对对象采用显式表示,对场景采用隐式表示。用户可以通过传统的文本到3D方法或自行提供对象来生成对象。为了配置场景布局并自动放置对象,我们在优化过程中应用了粒子群优化技术。此外,在文本到场景的情况下,对于场景的某些部分(例如角落、遮挡),很难获得多视角监督,导致几何形状劣质。为了缓解这种监督缺失,我们引入了RGBD全景扩散模型作为额外先验,从而实现了高质量的几何形状。广泛的评估支持我们的方法实现了比以前的方法更高的质量,可以生成详细且视角一致的3D场景。
DiffSplat 是一个从文本提示和单视图图像生成 3D 高斯点云的生成框架。
DiffSplat 是一种创新的 3D 生成技术,能够从文本提示和单视图图像快速生成 3D 高斯点云。该技术通过利用大规模预训练的文本到图像扩散模型,实现了高效的 3D 内容生成。它解决了传统 3D 生成方法中数据集有限和无法有效利用 2D 预训练模型的问题,同时保持了 3D 一致性。DiffSplat 的主要优点包括高效的生成速度(1~2 秒内完成)、高质量的 3D 输出以及对多种输入条件的支持。该模型在学术研究和工业应用中具有广泛前景,尤其是在需要快速生成高质量 3D 模型的场景中。
高保真动态城市场景重建技术
OmniRe 是一种用于高效重建高保真动态城市场景的全面方法,它通过设备日志来实现。该技术通过构建基于高斯表示的动态神经场景图,以及构建多个局部规范空间来模拟包括车辆、行人和骑行者在内的各种动态行为者,从而实现了对场景中不同对象的全面重建。OmniRe 允许我们全面重建场景中存在的不同对象,并随后实现所有参与者实时参与的重建场景的模拟。在 Waymo 数据集上的广泛评估表明,OmniRe 在定量和定性方面都大幅超越了先前的最先进方法。
文本到3D沉浸场景生成
Text2Immersion是一个优雅的从文本提示生成高质量3D沉浸场景的方法。我们提出的流水线首先使用预训练的2D扩散和深度估计模型逐步生成高斯云。接下来是对高斯云进行精炼,插值和精炼以增强生成场景的细节。与仅关注单个物体或室内场景,或采用缩小轨迹的主流方法不同,我们的方法可以生成包含各种物体的不同场景,甚至扩展到创造想象中的场景。因此,Text2Immersion可以对各种应用产生广泛的影响,如虚拟现实、游戏开发和自动内容创建。大量的评估证明我们的系统在渲染质量和多样性方面优于其他方法,并且继续推进面向文本的3D场景生成。
高分辨率3D内容生成的多视图高斯模型
LGM是一个用于从文本提示或单视图图像生成高分辨率3D模型的新框架。它的关键见解是:(1) 3D表示:我们提出了多视图高斯特征作为一个高效 yet 强大的表示,然后可以将其融合在一起进行不同iable 渲染。(2) 3D主干:我们呈现了一个不对称U-Net作为一个高通量的主干操作多视图图像,这可以通过利用多视图扩散模型从文本或单视图图像输入中产生。大量的实验表明了我们方法的高保真度和效率。值得注意的是,我们在将训练分辨率提高到512的同时保持生成3D对象的快速速度,从而实现了高分辨率的3D内容生成。
4D场景创建工具,使用多视图视频扩散模型
CAT4D是一个利用多视图视频扩散模型从单目视频中生成4D场景的技术。它能够将输入的单目视频转换成多视角视频,并重建动态的3D场景。这项技术的重要性在于它能够从单一视角的视频资料中提取并重建出三维空间和时间的完整信息,为虚拟现实、增强现实以及三维建模等领域提供了强大的技术支持。产品背景信息显示,CAT4D由Google DeepMind、Columbia University和UC San Diego的研究人员共同开发,是一个前沿的科研成果转化为实际应用的案例。
高效处理分钟级体素视频数据的新技术
Long Volumetric Video是一种用于重建多视角RGB视频中的长体素视频的新技术。该技术通过Temporal Gaussian Hierarchy这种新颖的4D表示方法,紧凑地模拟长体素视频,解决了传统动态视图合成方法在处理长视频时内存占用大、渲染速度慢的问题。这项技术的主要优点包括训练成本低、渲染速度快和存储使用少,是首个能够高效处理分钟级体素视频数据同时保持高质量渲染的技术。
高效3D高斯重建模型,实现大场景快速重建
Long-LRM是一个用于3D高斯重建的模型,能够从一系列输入图像中重建出大场景。该模型能在1.3秒内处理32张960x540分辨率的源图像,并且仅在单个A100 80G GPU上运行。它结合了最新的Mamba2模块和传统的transformer模块,通过高效的token合并和高斯修剪步骤,在保证质量的同时提高了效率。与传统的前馈模型相比,Long-LRM能够一次性重建整个场景,而不是仅重建场景的一小部分。在大规模场景数据集上,如DL3DV-140和Tanks and Temples,Long-LRM的性能可与基于优化的方法相媲美,同时效率提高了两个数量级。
高效图像合成的新框架
Hyper-SD是一个创新的图像合成框架,它通过轨迹分割一致性模型和低步数推理的优势,实现了高效的图像合成。该框架结合了ODE轨迹保留和重构的优势,同时通过人类反馈学习进一步提升了性能,并通过分数蒸馏技术增强了低步数生成能力。Hyper-SD在1到8步推理步骤中实现了SOTA性能,特别适合需要快速且高质量图像生成的应用场景。
可控角色视频合成技术
MIMO是一个通用的视频合成模型,能够模仿任何人在复杂动作中与物体互动。它能够根据用户提供的简单输入(如参考图像、姿势序列、场景视频或图像)合成具有可控属性(如角色、动作和场景)的角色视频。MIMO通过将2D视频编码为紧凑的空间代码,并将其分解为三个空间组成部分(主要人物、底层场景和浮动遮挡)来实现这一点。这种方法允许用户灵活控制,空间运动表达以及3D感知合成,适用于交互式真实世界场景。
基于实体表示的任意物体运动控制
DragAnything是一款利用实体表示实现任意物体运动控制的产品。与拖动像素的传统方式不同,DragAnything可以实现真正的实体级运动控制。它可以实现用户轨迹交互,并具有SAM功能。该产品可以精确控制物体的运动,生成高质量视频,用户只需在交互过程中绘制一条轨迹。DragAnything可实现对前景、背景和相机等不同元素的多样化运动控制。定位于设计领域,适用于需要对视频中物体进行精细控制的场景。产品定价未公开。
3D高斯生成技术,实现任意未摆姿势图像的3D重建
LucidFusion是一个灵活的端到端前馈框架,用于从未摆姿势、稀疏和任意数量的多视图图像中生成高分辨率3D高斯。该技术利用相对坐标图(RCM)来对齐不同视图间的几何特征,使其在3D生成方面具有高度适应性。LucidFusion能够与原始单图像到3D的流程无缝集成,生成512x512分辨率的详细3D高斯,适合广泛的应用场景。
单文本/图像生成可导航3D场景
LucidDreamer是一种无域3D场景生成技术,通过充分利用现有大规模扩散生成模型的能力,可以从单个文本提示或单个图像生成可导航的3D场景。该方法具有梦境和对齐两个交替步骤,首先根据输入生成多视角一致的图像,然后将新生成的3D场景部分和谐地整合在一起。LucidDreamer生成的高度详细的高斯斑点与以往的3D场景生成方法相比没有目标场景域的限制。
3D高斯泼溅技术资源集合
3D高斯泼溅技术资源集合,涵盖生态系统与工具、研究论文、Unity高斯散射项目等内容。该技术在3D编辑、实时点云重照明、逆渲染、数据压缩、防锯齿等领域有广泛应用,对于对3D高斯泼溅技术感兴趣的人群具有很高的参考价值。
探索不同AI系统学习到的表示是否趋于一致。
Platonic Representation Hypothesis(柏拉图表示假设)是一个关于不同AI系统如何学习和表示现实世界的理论。该理论认为,尽管不同AI系统可能以不同的方式学习(例如图像、文本等),但它们的内部表示最终会趋于一致。这种观点基于所有数据(图像、文本、声音等)都是某种底层现实的投影这一直觉。该理论还探讨了如何衡量表示的一致性,以及导致一致性的因素,如任务和数据压力,以及模型容量的增加。此外,还讨论了这种一致性可能带来的意义和限制。
从单一图像或文本生成可探索的3D场景
VividDream是一项创新技术,能够从单一输入图像或文本提示生成具有环境动态的可探索4D场景。它首先将输入图像扩展为静态3D点云,然后使用视频扩散模型生成动画视频集合,并通过优化4D场景表示来实现一致性运动和沉浸式场景探索。这项技术为生成基于多样真实图像和文本提示的引人入胜的4D体验提供了可能。
替换你的新标签页,快速访问ChatGPT
AI Genie是一个个人AI助手,通过ChatGPT提供支持。使用AI Genie,你可以在Chrome的新标签页上与一个由OpenAI训练的大型语言模型进行交流。只需向AI Genie提问,即可获得知识渊博、有帮助的回答。通过AI助手提高你的工作效率、扩展你的知识面、快速获取问题答案。
从单目视频生成高质量4D对象的新型框架
DreamMesh4D是一个结合了网格表示与稀疏控制变形技术的新型框架,能够从单目视频中生成高质量的4D对象。该技术通过结合隐式神经辐射场(NeRF)或显式的高斯绘制作为底层表示,解决了传统方法在空间-时间一致性和表面纹理质量方面的挑战。DreamMesh4D利用现代3D动画流程的灵感,将高斯绘制绑定到三角网格表面,实现了纹理和网格顶点的可微优化。该框架开始于由单图像3D生成方法提供的粗糙网格,通过均匀采样稀疏点来构建变形图,以提高计算效率并提供额外的约束。通过两阶段学习,结合参考视图光度损失、得分蒸馏损失以及其他正则化损失,实现了静态表面高斯和网格顶点以及动态变形网络的学习。DreamMesh4D在渲染质量和空间-时间一致性方面优于以往的视频到4D生成方法,并且其基于网格的表示与现代几何流程兼容,展示了其在3D游戏和电影行业的潜力。
© 2025 AIbase 备案号:闽ICP备08105208号-14