需求人群:
"GaussianCube适用于3D建模、计算机图形学、虚拟现实和增强现实领域的研究人员和开发者,尤其是那些寻求在3D生成建模中实现更高精度和更少参数的专业人士。"
使用场景示例:
在ShapeNet数据集上实现汽车和椅子的无条件生成
使用OmniObject3D进行类条件生成实验
从单幅肖像图像创建3D数字头像
产品特色:
使用多视图渲染进行3D资产的高斯拟合
通过最优传输将高斯函数体素化到预定义网格
使用标准3D U-Net作为扩散模型的骨干网络
实现无条件和类条件的对象生成
支持数字头像创建和文本到3D合成
具有高参数效率,减少模型复杂性
使用教程:
1. 访问GaussianCube的官方网站
2. 阅读产品介绍和研究论文摘要
3. 查看无条件和类条件生成的结果示例
4. 了解技术实现的详细步骤,包括高斯拟合和体素化过程
5. 探索源代码和演示视频,以更深入地理解技术细节
6. 根据个人研究或项目需求,下载和使用GaussianCube模型
浏览量:71
通过多实例扩散模型将单张图像生成高保真度的3D场景。
MIDI是一种创新的图像到3D场景生成技术,它利用多实例扩散模型,能够从单张图像中直接生成具有准确空间关系的多个3D实例。该技术的核心在于其多实例注意力机制,能够有效捕捉物体间的交互和空间一致性,无需复杂的多步骤处理。MIDI在图像到场景生成领域表现出色,适用于合成数据、真实场景数据以及由文本到图像扩散模型生成的风格化场景图像。其主要优点包括高效性、高保真度和强大的泛化能力。
3D生成建模的高精度和结构化辐射表示
GaussianCube是一种创新的3D辐射表示方法,它通过结构化和显式的表示方式,极大地促进了三维生成建模的发展。该技术通过使用一种新颖的密度约束高斯拟合算法和最优传输方法,将高斯函数重新排列到预定义的体素网格中,从而实现了高精度的拟合。与传统的隐式特征解码器或空间无结构的辐射表示相比,GaussianCube具有更少的参数和更高的质量,使得3D生成建模变得更加容易。
3D网格生成与语言模型的统一
LLaMA-Mesh是一项将大型语言模型(LLMs)预训练在文本上扩展到生成3D网格的能力的技术。这项技术利用了LLMs中已经嵌入的空间知识,并实现了对话式3D生成和网格理解。LLaMA-Mesh的主要优势在于它能够将3D网格的顶点坐标和面定义表示为纯文本,允许与LLMs直接集成而无需扩展词汇表。该技术的主要优点包括能够从文本提示生成3D网格、按需产生交错的文本和3D网格输出,以及理解和解释3D网格。LLaMA-Mesh在保持强大的文本生成性能的同时,实现了与从头开始训练的模型相当的网格生成质量。
基于视觉观察自动估计人体及服装的物理参数的框架
PhysAvatar是一个结合逆向渲染和逆向物理的创新框架,可以从多视角视频数据中自动估计人体形状、外表以及服装的物理参数。它采用网格对齐的4D高斯时空网格跟踪技术和基于物理的逆向渲染器来估计内在的材料属性。PhysAvatar集成了物理模拟器,使用基于梯度的优化方法以原理性的方式估计服装的物理参数。这些创新能力使PhysAvatar能够在训练数据之外的运动和照明条件下,渲染出高质量的穿着宽松衣服的新视角头像。
开放式基于提示的图像生成
GLIGEN是一个开放式的基于文本提示的图像生成模型,它可以基于文本描述和边界框等限定条件生成图像。该模型通过冻结预训练好的文本到图像Diffusion模型的参数,并在其中插入新的数据来实现。这种模块化设计可以高效地进行训练,并具有很强的推理灵活性。GLIGEN可以支持开放世界的有条件图像生成,对新出现的概念和布局也具有很强的泛化能力。
非刚体3D模型的文本生成和重建框架
AnimatableDreamer是一个从单眼视频中生成和重建可动画非刚体3D模型的框架。它能够生成不同类别的非刚体对象,同时遵循从视频中提取的对象运动。关键技术是提出的典范分数蒸馏方法,将生成维度从4D简化到3D,在视频中的不同帧进行降噪,同时在唯一的典范空间内进行蒸馏过程。这样可以保证时间一致的生成和不同姿态下的形态逼真性。借助可微分变形,AnimatableDreamer将3D生成器提升到4D,为非刚体3D模型的生成和重建提供了新视角。此外,与一致性扩散模型的归纳知识相结合,典范分数蒸馏可以从新视角对重建进行正则化,从而闭环增强生成过程。大量实验表明,该方法能够从单眼视频生成高灵活性的文本指导3D模型,同时重建性能优于典型的非刚体重建方法。
高保真可动画 3D 人类重建模型,快速生成动画角色。
LHM(大规模可动画人类重建模型)利用多模态变压器架构进行高保真 3D 头像重建,支持从单张图像生成可动画的 3D 人类形象。该模型能够详细保留服装几何和纹理,尤其是在面部身份和细节恢复方面表现优异,适合对 3D 重建精度有较高要求的应用场景。
一种无混叠的任意尺度超分辨率方法。
Thera 是一种先进的超分辨率技术,能够在不同尺度下生成高质量图像。其主要优点在于内置物理观察模型,有效避免了混叠现象。该技术由 ETH Zurich 的研究团队开发,适用于图像增强和计算机视觉领域,尤其在遥感和摄影测量中具有广泛应用。
Inductive Moment Matching 是一种新型的生成模型,用于高质量图像生成。
Inductive Moment Matching (IMM) 是一种先进的生成模型技术,主要用于高质量图像生成。该技术通过创新的归纳矩匹配方法,显著提高了生成图像的质量和多样性。其主要优点包括高效性、灵活性以及对复杂数据分布的强大建模能力。IMM 由 Luma AI 和斯坦福大学的研究团队开发,旨在推动生成模型领域的发展,为图像生成、数据增强和创意设计等应用提供强大的技术支持。该项目开源了代码和预训练模型,方便研究人员和开发者快速上手和应用。
通过去噪生成模型进行空间推理,解决复杂分布下的视觉任务。
SRM是一种基于去噪生成模型的空间推理框架,用于处理连续变量集合的推理任务。它通过为每个未观测变量分配独立的噪声水平,逐步推断出这些变量的连续表示。该技术在处理复杂分布时表现出色,能够有效减少生成过程中的幻觉现象。SRM首次证明了去噪网络可以预测生成顺序,从而显著提高了特定推理任务的准确性。该模型由德国马普信息研究所开发,旨在推动空间推理和生成模型的研究。
一个高效的无边界3D城市生成框架,使用3D高斯绘制技术实现快速生成。
GaussianCity是一个专注于高效生成无边界3D城市的框架,基于3D高斯绘制技术。该技术通过紧凑的3D场景表示和空间感知的高斯属性解码器,解决了传统方法在生成大规模城市场景时面临的内存和计算瓶颈。其主要优点是能够在单次前向传递中快速生成大规模3D城市,显著优于现有技术。该产品由南洋理工大学S-Lab团队开发,相关论文发表于CVPR 2025,代码和模型已开源,适用于需要高效生成3D城市环境的研究人员和开发者。
Funes是一个在线博物馆,致力于收集、保存和展示人类建筑的3D模型。
Funes是一个创新的在线博物馆项目,通过众包摄影测量技术将全球人类建筑转化为3D模型,旨在创建一个免费、可访问的庞大3D数据库。该项目以阿根廷作家博尔赫斯笔下的'博闻强记的福内斯'命名,象征着对人类物质记忆的永恒保存。Funes不仅是一个技术展示平台,更是一个文化传承项目,通过数字化手段保护人类文明的建筑遗产。
MLGym是一个用于推进AI研究代理的新框架和基准。
MLGym是由Meta的GenAI团队和UCSB NLP团队开发的一个开源框架和基准,用于训练和评估AI研究代理。它通过提供多样化的AI研究任务,推动强化学习算法的发展,帮助研究人员在真实世界的研究场景中训练和评估模型。该框架支持多种任务,包括计算机视觉、自然语言处理和强化学习等领域,旨在为AI研究提供一个标准化的测试平台。
BioEmu 是一个用于可扩展模拟蛋白质平衡系综的生成式深度学习模型。
BioEmu 是微软开发的一种深度学习模型,用于模拟蛋白质的平衡系综。该技术通过生成式深度学习方法,能够高效地生成蛋白质的结构样本,帮助研究人员更好地理解蛋白质的动态行为和结构多样性。该模型的主要优点在于其可扩展性和高效性,能够处理复杂的生物分子系统。它适用于生物化学、结构生物学和药物设计等领域的研究,为科学家提供了一种强大的工具来探索蛋白质的动态特性。
Pippo 是一个从单张照片生成高分辨率多人视角视频的生成模型。
Pippo 是由 Meta Reality Labs 和多所高校合作开发的生成模型,能够从单张普通照片生成高分辨率的多人视角视频。该技术的核心优势在于无需额外输入(如参数化模型或相机参数),即可生成高质量的 1K 分辨率视频。它基于多视角扩散变换器架构,具有广泛的应用前景,如虚拟现实、影视制作等。Pippo 的代码已开源,但不包含预训练权重,用户需要自行训练模型。
VideoWorld是一个探索从无标签视频中学习知识的深度生成模型。
VideoWorld是一个专注于从纯视觉输入(无标签视频)中学习复杂知识的深度生成模型。它通过自回归视频生成技术,探索如何仅通过视觉信息学习任务规则、推理和规划能力。该模型的核心优势在于其创新的潜在动态模型(LDM),能够高效地表示多步视觉变化,从而显著提升学习效率和知识获取能力。VideoWorld在视频围棋和机器人控制任务中表现出色,展示了其强大的泛化能力和对复杂任务的学习能力。该模型的研究背景源于对生物体通过视觉而非语言学习知识的模仿,旨在为人工智能的知识获取开辟新的途径。
Video Depth Anything: Consistent Depth Estimation for Super-Long Videos
Video Depth Anything 是一个基于深度学习的视频深度估计模型,能够为超长视频提供高质量、时间一致的深度估计。该技术基于 Depth Anything V2 开发,具有强大的泛化能力和稳定性。其主要优点包括对任意长度视频的深度估计能力、时间一致性以及对开放世界视频的良好适应性。该模型由字节跳动的研究团队开发,旨在解决长视频深度估计中的挑战,如时间一致性问题和复杂场景的适应性问题。目前,该模型的代码和演示已公开,供研究人员和开发者使用。
将图像转换为3D模型,可用于渲染、动画或3D打印。
Shapen是一款创新的在线工具,它利用先进的图像处理和3D建模技术,将2D图像转化为详细的3D模型。这一技术对于设计师、艺术家和创意工作者来说是一个巨大的突破,因为它极大地简化了3D模型的创建过程,降低了3D建模的门槛。用户无需深厚的3D建模知识,只需上传图片,即可快速生成可用于渲染、动画制作或3D打印的模型。Shapen的出现,为创意表达和产品设计带来了全新的可能性,其定价策略和市场定位也使其成为个人创作者和小型工作室的理想选择。
基于Transformer实现的ViTPose模型集合
ViTPose是一系列基于Transformer架构的人体姿态估计模型。它利用Transformer的强大特征提取能力,为人体姿态估计任务提供了简单而有效的基线。ViTPose模型在多个数据集上表现出色,具有较高的准确性和效率。该模型由悉尼大学社区维护和更新,提供了多种不同规模的版本,以满足不同应用场景的需求。在Hugging Face平台上,ViTPose模型以开源的形式供用户使用,用户可以方便地下载和部署这些模型,进行人体姿态估计相关的研究和应用开发。
实时编辑和完整对象结构生成的3D模型。
Stable Point Aware 3D (SPAR3D) 是 Stability AI 推出的先进3D生成模型。它能够在不到一秒的时间内,从单张图像中实现3D对象的实时编辑和完整结构生成。SPAR3D采用独特的架构,结合精确的点云采样与先进的网格生成技术,为3D资产创建提供了前所未有的控制力。该模型免费提供给商业和非商业用途,可在Hugging Face下载权重,GitHub获取代码,或通过Stability AI开发者平台API访问。
EurusPRM-Stage2是一个基于隐式过程奖励的强化学习模型,用于提升生成模型的推理能力。
EurusPRM-Stage2是一个先进的强化学习模型,通过隐式过程奖励来优化生成模型的推理过程。该模型利用因果语言模型的对数似然比来计算过程奖励,从而在不增加额外标注成本的情况下提升模型的推理能力。其主要优点在于能够在仅使用响应级标签的情况下,隐式地学习到过程奖励,从而提高生成模型的准确性和可靠性。该模型在数学问题解答等任务中表现出色,适用于需要复杂推理和决策的场景。
EurusPRM-Stage1是一个基于隐式过程奖励的强化学习模型,用于提升生成模型的推理能力。
EurusPRM-Stage1是PRIME-RL项目的一部分,旨在通过隐式过程奖励来增强生成模型的推理能力。该模型利用隐式过程奖励机制,无需额外标注过程标签,即可在推理过程中获得过程奖励。其主要优点是能够有效地提升生成模型在复杂任务中的表现,同时降低了标注成本。该模型适用于需要复杂推理和生成能力的场景,如数学问题解答、自然语言生成等。
一个用于信息检索和生成的灵活高性能框架
FlexRAG是一个用于检索增强生成(RAG)任务的灵活且高性能的框架。它支持多模态数据、无缝配置管理和开箱即用的性能,适用于研究和原型开发。该框架使用Python编写,具有轻量级和高性能的特点,能够显著提高RAG工作流的速度和减少延迟。其主要优点包括支持多种数据类型、统一的配置管理以及易于集成和扩展。
从自然语言提示创建B-Rep CAD文件和网格
Text-to-CAD UI是一个利用自然语言提示生成B-Rep CAD文件和网格的平台。它通过ML-ephant API,由Zoo提供支持,能够将用户的自然语言描述直接转化为精确的CAD模型。这项技术的重要性在于它极大地简化了设计过程,使得非专业人士也能轻松创建复杂的CAD模型,从而推动了设计的民主化和创新。产品背景信息显示,它是由Zoo开发的,旨在通过机器学习技术提升设计效率。关于价格和定位,用户需要登录后才能获取更多信息。
从穿着人身上生成平铺布料的模型
TryOffAnyone是一个用于从穿着人身上生成平铺布料的深度学习模型。该模型能够将穿着衣物的人的图片转换成布料平铺图,这对于服装设计、虚拟试衣等领域具有重要意义。它通过深度学习技术,实现了高度逼真的布料模拟,使得用户可以更直观地预览衣物的穿着效果。该模型的主要优点包括逼真的布料模拟效果和较高的自动化程度,可以减少实际试衣过程中的时间和成本。
一站式大模型算法、模型及优化工具开源项目
FlagAI是由北京智源人工智能研究院推出的一站式、高质量开源项目,集成了全球各种主流大模型算法技术以及多种大模型并行处理和训练加速技术。它支持高效训练和微调,旨在降低大模型开发和应用的门槛,提高开发效率。FlagAI涵盖了多个领域明星模型,如语言大模型OPT、T5,视觉大模型ViT、Swin Transformer,多模态大模型CLIP等。智源研究院也持续将“悟道2.0”“悟道3.0”大模型项目成果开源至FlagAI,目前该项目已经加入Linux基金会,吸引全球科研力量共同创新、共同贡献。
视频分析工具,结合Llama视觉模型和OpenAI Whisper进行本地视频描述生成。
video-analyzer是一个视频分析工具,它结合了Llama的11B视觉模型和OpenAI的Whisper模型,通过提取关键帧、将它们输入视觉模型以获取细节,并结合每个帧的细节和可用的转录内容来描述视频中发生的事情。这个工具代表了计算机视觉、音频转录和自然语言处理的结合,能够生成视频内容的详细描述。它的主要优点包括完全本地运行无需云服务或API密钥、智能提取视频关键帧、使用OpenAI的Whisper进行高质量音频转录、使用Ollama和Llama3.2 11B视觉模型进行帧分析,以及生成自然语言描述的视频内容。
从日常动态视频中快速、准确地估计相机和密集结构
MegaSaM是一个系统,它允许从动态场景的单目视频中准确、快速、稳健地估计相机参数和深度图。该系统突破了传统结构从运动和单目SLAM技术的局限,这些技术通常假设输入视频主要包含静态场景和大量视差。MegaSaM通过深度视觉SLAM框架的精心修改,能够扩展到真实世界中复杂动态场景的视频,包括具有未知视场和不受限制相机路径的视频。该技术在合成和真实视频上的广泛实验表明,与先前和并行工作相比,MegaSaM在相机姿态和深度估计方面更为准确和稳健,运行时间更快或相当。
© 2025 AIbase 备案号:闽ICP备08105208号-14