实时生成逼真的全身虚拟人头像。
TaoAvatar 是一种高保真、轻量级的 3D 高斯喷溅技术(3DGS)全身虚拟人头像,能够生成个性化的全身动态头像,广泛应用于增强现实等场景。它的主要优点是能够在各种移动设备上以 90 FPS 的高帧率实时渲染,适配 Apple Vision Pro 等高分辨率设备,为用户提供沉浸式体验。
为Firefox浏览器翻译功能优化的CPU加速神经机器翻译模型。
Firefox Translations Models 是由Mozilla开发的一组CPU优化的神经机器翻译模型,专为Firefox浏览器的翻译功能设计。该模型通过高效的CPU加速技术,提供快速且准确的翻译服务,支持多种语言对。其主要优点包括高性能、低延迟和对多种语言的支持。该模型是Firefox浏览器翻译功能的核心技术,为用户提供无缝的网页翻译体验。
一个高效的无边界3D城市生成框架,使用3D高斯绘制技术实现快速生成。
GaussianCity是一个专注于高效生成无边界3D城市的框架,基于3D高斯绘制技术。该技术通过紧凑的3D场景表示和空间感知的高斯属性解码器,解决了传统方法在生成大规模城市场景时面临的内存和计算瓶颈。其主要优点是能够在单次前向传递中快速生成大规模3D城市,显著优于现有技术。该产品由南洋理工大学S-Lab团队开发,相关论文发表于CVPR 2025,代码和模型已开源,适用于需要高效生成3D城市环境的研究人员和开发者。
专为中小团队设计的AI聊天应用,支持多种AI模型,如Deepseek、Open AI、Claude和Gemini。
HiveChat是一款面向中小团队的AI聊天应用,支持多种主流AI模型,如Deepseek、Open AI、Claude和Gemini等。其核心功能是为团队提供高效、灵活的AI交互体验,支持LaTeX和Markdown渲染、图像理解、AI智能体等功能。该产品通过管理员配置,可实现全团队轻松使用,适用于公司、学校、组织等小型团队。其技术栈包括Next.js、Tailwindcss、Auth.js、PostgreSQL等,支持本地部署、Docker部署和Vercel部署,具有较高的灵活性和可扩展性。
大规模深度循环语言模型的预训练代码,支持在4096个AMD GPU上运行。
该产品是一个用于大规模深度循环语言模型的预训练代码库,基于Python开发。它在AMD GPU架构上进行了优化,能够在4096个AMD GPU上高效运行。该技术的核心优势在于其深度循环架构,能够有效提升模型的推理能力和效率。它主要用于研究和开发高性能的自然语言处理模型,特别是在需要大规模计算资源的场景中。该代码库开源且基于Apache-2.0许可证,适合学术研究和工业应用。
Spell 是一个 AI 模型,可从图像生成 3D 世界,支持多种渲染技术。
Spell 是 Spline 推出的 AI 模型,能够从单张图像生成完整的 3D 场景。它基于扩散模型技术,通过结合真实数据和合成数据进行训练,能够在几分钟内生成具有多视图一致性的 3D 世界。该技术的主要优点是能够快速生成高质量的 3D 场景,并支持多种渲染技术如高斯绘制和神经辐射场等。Spell 的出现为 3D 设计领域带来了革命性的变化,使创作者能够更高效地生成和探索 3D 场景。目前,Spell 仍处于开发阶段,团队计划频繁更新模型以提升质量和一致性。
用于评估Windows PC或Apple Mac上AI推理引擎性能的基准测试工具。
Procyon AI Computer Vision Benchmark是由UL Solutions开发的一款专业基准测试工具,旨在帮助用户评估不同AI推理引擎在Windows PC或Apple Mac上的性能表现。该工具通过执行一系列基于常见机器视觉任务的测试,利用多种先进的神经网络模型,为工程团队提供独立、标准化的评估手段,以便他们了解AI推理引擎的实施质量和专用硬件的性能。产品支持多种主流的AI推理引擎,如NVIDIA® TensorRT™、Intel® OpenVINO™等,并可比较浮点和整数优化模型的性能。其主要优点包括易于安装和运行、无需复杂配置、可导出详细结果文件等。产品定位为专业用户,如硬件制造商、软件开发者和科研人员,以助力他们在AI领域的研发和优化工作。
将图像转换为3D模型,可用于渲染、动画或3D打印。
Shapen是一款创新的在线工具,它利用先进的图像处理和3D建模技术,将2D图像转化为详细的3D模型。这一技术对于设计师、艺术家和创意工作者来说是一个巨大的突破,因为它极大地简化了3D模型的创建过程,降低了3D建模的门槛。用户无需深厚的3D建模知识,只需上传图片,即可快速生成可用于渲染、动画制作或3D打印的模型。Shapen的出现,为创意表达和产品设计带来了全新的可能性,其定价策略和市场定位也使其成为个人创作者和小型工作室的理想选择。
NeuralSVG:从文本提示生成矢量图形的隐式表示方法。
NeuralSVG是一种用于从文本提示生成矢量图形的隐式神经表示方法。它受到神经辐射场(NeRFs)的启发,将整个场景编码到一个小的多层感知器(MLP)网络的权重中,并使用分数蒸馏采样(SDS)进行优化。该方法通过引入基于dropout的正则化技术,鼓励生成的SVG具有分层结构,使每个形状在整体场景中具有独立的意义。此外,其神经表示还提供了推理时控制的优势,允许用户根据提供的输入动态调整生成的SVG,如颜色、宽高比等,且只需一个学习到的表示。通过广泛的定性和定量评估,NeuralSVG在生成结构化和灵活的SVG方面优于现有方法。该模型由特拉维夫大学和MIT CSAIL的研究人员共同开发,目前代码尚未公开。
基于深度推理的神经机器翻译模型
DRT-o1-14B是一个神经机器翻译模型,旨在通过长链推理来提升翻译的深度和准确性。该模型通过挖掘含有比喻或隐喻的英文句子,并采用多代理框架(包括翻译者、顾问和评估者)来合成长思考的机器翻译样本。DRT-o1-14B基于Qwen2.5-14B-Instruct作为主干进行训练,具有14.8B的参数量,支持BF16张量类型。该模型的重要性在于其能够处理复杂的翻译任务,尤其是在需要深入理解和推理的情况下,提供了一种新的解决方案。
基于深度推理的神经机器翻译模型
DRT-o1-7B是一个致力于将长思考推理成功应用于神经机器翻译(MT)的模型。该模型通过挖掘适合长思考翻译的英文句子,并提出了一个包含翻译者、顾问和评估者三个角色的多代理框架来合成MT样本。DRT-o1-7B和DRT-o1-14B使用Qwen2.5-7B-Instruct和Qwen2.5-14B-Instruct作为骨干网络进行训练。该模型的主要优点在于其能够处理复杂的语言结构和深层次的语义理解,这对于提高机器翻译的准确性和自然性至关重要。
深度推理翻译模型,通过长思考链优化神经机器翻译。
DRT-o1是一个神经机器翻译模型,它通过长思考链的方式优化翻译过程。该模型通过挖掘含有比喻或隐喻的英文句子,并采用多代理框架(包括翻译者、顾问和评估者)来合成长思考的机器翻译样本。DRT-o1-7B和DRT-o1-14B是基于Qwen2.5-7B-Instruct和Qwen2.5-14B-Instruct训练的大型语言模型。DRT-o1的主要优点在于其能够处理复杂的语言结构和深层次的语义理解,这对于提高机器翻译的准确性和自然性至关重要。
创建可动的4D人像化身模型
CAP4D是一种利用可变形多视图扩散模型(Morphable Multi-View Diffusion Models)来创建4D人像化身的技术。它能够从任意数量的参考图像生成不同视角和表情的图像,并将其适配到一个4D化身上,该化身可以通过3DMM控制并实时渲染。这项技术的主要优点包括高度逼真的图像生成、多视角的适应性以及实时渲染的能力。CAP4D的技术背景是基于深度学习和图像生成领域的最新进展,尤其是在扩散模型和3D面部建模方面。由于其高质量的图像生成和实时渲染能力,CAP4D在娱乐、游戏开发、虚拟现实等领域具有广泛的应用前景。目前,该技术是免费提供代码的,但具体的商业化应用可能需要进一步的授权和定价。
高效处理分钟级体素视频数据的新技术
Long Volumetric Video是一种用于重建多视角RGB视频中的长体素视频的新技术。该技术通过Temporal Gaussian Hierarchy这种新颖的4D表示方法,紧凑地模拟长体素视频,解决了传统动态视图合成方法在处理长视频时内存占用大、渲染速度慢的问题。这项技术的主要优点包括训练成本低、渲染速度快和存储使用少,是首个能够高效处理分钟级体素视频数据同时保持高质量渲染的技术。
AI系统从单张图片生成3D世界
这是一个能够从单张图片生成3D世界的AI系统,它允许用户进入任何图片并进行3D探索。这项技术改善了控制和一致性,将改变我们制作电影、游戏、模拟器以及其他数字表现形式的方式。它代表了空间智能的第一步,通过在浏览器中实时渲染生成的世界,用户可以体验不同的相机效果、3D效果,并深入探索经典画作。
实时AI视频生成开源模型
LTXV是Lightricks推出的一个实时AI视频生成开源模型,它代表了视频生成技术的最新发展。LTXV能够提供可扩展的长视频制作能力,优化了GPU和TPU系统,大幅减少了视频生成时间,同时保持了高视觉质量。LTXV的独特之处在于其帧到帧学习技术,确保了帧之间的连贯性,消除了闪烁和场景内的不一致问题。这一技术对于视频制作行业来说是一个巨大的进步,因为它不仅提高了效率,还提升了视频内容的质量。
利用大规模机器学习理解场景并连接全球数百万场景的地理空间模型
Niantic的Large Geospatial Model (LGM) 是一个先锋概念,旨在通过大规模机器学习理解场景并将其与全球数百万其他场景连接起来。LGM不仅使计算机能够感知和理解物理空间,还能以新的方式与它们互动,成为AR眼镜及更广泛领域(包括机器人技术、内容创作和自主系统)的关键组成部分。随着我们从手机转向与现实世界相连的可穿戴技术,空间智能将成为世界未来的操作系统。
使用手机扫描创建逼真可重新照明的头像模型
URAvatar是一种新型的头像生成技术,它能够通过手机扫描在未知光照条件下创建出逼真的、可重新照明的头部头像。与传统的通过逆向渲染估计参数反射率参数的方法不同,URAvatar直接模拟学习辐射传递,将全局光照传输有效地整合到实时渲染中。这项技术的重要性在于它能够从单一环境的手机扫描中重建出在多种环境中看起来都逼真的头部模型,并且能够实时驱动和重新照明。
© 2025 AIbase 备案号:闽ICP备08105208号-14