浏览量:14
高保真动态城市场景重建技术
OmniRe 是一种用于高效重建高保真动态城市场景的全面方法,它通过设备日志来实现。该技术通过构建基于高斯表示的动态神经场景图,以及构建多个局部规范空间来模拟包括车辆、行人和骑行者在内的各种动态行为者,从而实现了对场景中不同对象的全面重建。OmniRe 允许我们全面重建场景中存在的不同对象,并随后实现所有参与者实时参与的重建场景的模拟。在 Waymo 数据集上的广泛评估表明,OmniRe 在定量和定性方面都大幅超越了先前的最先进方法。
生成新视角的图像,保持语义信息。
GenWarp是一个用于从单张图像生成新视角图像的模型,它通过语义保持的生成变形框架,使文本到图像的生成模型能够学习在哪里变形和在哪里生成。该模型通过增强交叉视角注意力与自注意力来解决现有方法的局限性,通过条件化生成模型在源视图图像上,并纳入几何变形信号,提高了在不同领域场景下的性能。
一种通过3D感知递归扩散生成3D模型的框架
Ouroboros3D是一个统一的3D生成框架,它将基于扩散的多视图图像生成和3D重建集成到一个递归扩散过程中。该框架通过自条件机制联合训练这两个模块,使它们能够相互适应,以实现鲁棒的推理。在多视图去噪过程中,多视图扩散模型使用由重建模块在前一时间步渲染的3D感知图作为附加条件。递归扩散框架与3D感知反馈相结合,提高了整个过程的几何一致性。实验表明,Ouroboros3D框架在性能上优于将这两个阶段分开训练的方法,以及在推理阶段将它们结合起来的现有方法。
基于预训练的文本到图像模型生成高质量、多视角一致的3D物体图像。
ViewDiff 是一种利用预训练的文本到图像模型作为先验知识,从真实世界数据中学习生成多视角一致的图像的方法。它在U-Net网络中加入了3D体积渲染和跨帧注意力层,能够在单个去噪过程中生成3D一致的图像。与现有方法相比,ViewDiff生成的结果具有更好的视觉质量和3D一致性。
Easy With AI是一个集成了50多个不同类别AI工具和资源的平台。
Easy With AI是一个拥有互联网上最大的AI工具和资源收藏的平台。您可以在50多个不同的类别中查找和搜索AI工具。Easy With AI为各种用户提供了便利和丰富的AI工具资源,包括AI写作助手、社交媒体工具、电子邮件工具、AI内容检测工具、客户服务工具、网站建设工具、电子商务工具、图像工具、音频工具、视频工具、音乐生成器、视频生成器、播客工具、演示制作工具、设计工具、直播工具、聊天机器人、语音工具、移动应用、转录工具、会议助手、建筑工具、生产力工具、教育工具、AI Chrome扩展和更多。您可以根据您的需求和兴趣,在Easy With AI上找到适合您的AI工具。
用于高质量高效3D重建和生成的大型高斯重建模型
GRM是一种大规模的重建模型,能够在0.1秒内从稀疏视图图像中恢复3D资产,并且在8秒内实现生成。它是一种前馈的基于Transformer的模型,能够高效地融合多视图信息将输入像素转换为像素对齐的高斯分布,这些高斯分布可以反投影成为表示场景的密集3D高斯分布集合。我们的Transformer架构和使用3D高斯分布的方式解锁了一种可扩展、高效的重建框架。大量实验结果证明了我们的方法在重建质量和效率方面优于其他替代方案。我们还展示了GRM在生成任务(如文本到3D和图像到3D)中的潜力,通过与现有的多视图扩散模型相结合。
从单张图片快速生成3D对象
TripoSR是由Stability AI与Tripo AI合作开发的3D对象重建模型,能够从单张图片在不到一秒钟的时间内生成高质量的3D模型。该模型在低推理预算下运行,无需GPU,适用于广泛的用户和应用场景。模型权重和源代码已在MIT许可下发布,允许商业化、个人和研究使用。
无需相机校准信息的密集立体3D重建
DUSt3R是一种新颖的密集和无约束立体3D重建方法,适用于任意图像集合。它不需要事先了解相机校准或视点姿态信息,通过将成对重建问题视为点图的回归,放宽了传统投影相机模型的严格约束。DUSt3R提供了一种统一的单目和双目重建方法,并在多图像情况下提出了一种简单有效的全局对齐策略。基于标准的Transformer编码器和解码器构建网络架构,利用强大的预训练模型。DUSt3R直接提供场景的3D模型和深度信息,并且可以从中恢复像素匹配、相对和绝对相机信息。
将博客文本转化为引人入胜的音频
ButterReader是一款创新的音频插件,将博客文本转化为引人入胜的音频内容,使学习和信息消费更加顺畅。通过定制播放器,您可以轻松地将文字内容转化为精彩的音频体验。产品具有设计灵活性、声音选择、控制设置等功能,适用于各种使用场景。ButterReader可以让用户在移动设备上无缝播放音频内容,让用户在多任务处理中也能欣赏内容。
基于视频的3D场景重建
VisFusion是一个利用视频数据进行在线3D场景重建的技术,它能够实时地从视频中提取和重建出三维环境。这项技术结合了计算机视觉和深度学习,为用户提供了一个强大的工具,用于创建精确的三维模型。
ComfyUI 3D处理插件包
ComfyUI-3D-Pack是一个强大的3D处理插件集合,它为ComfyUI提供了处理3D模型(网格、纹理等)的能力,集成了各种前沿3D重建和渲染算法,如3D高斯采样、NeRF不同iable渲染等,可以实现单视角图像快速重建3D高斯模型,并可转换为三角网格模型,同时还提供了交互式3D可视化界面。
快速准确的自动转录服务
Konch是一款出色的自动转录平台,支持30多种语言。它使用先进的AI技术,快速准确地将音频或视频文件转录成文本。用户可以选择完全由AI生成的转录结果,或选择人工审核和修正。Konch还支持将YouTube视频转换为文本,并提供高级编辑功能、多语言翻译、灵活的文本格式导出等特点。用户可以在不同场景下使用Konch,如转录音频或视频、研究转录、数字档案、播客转录等。
从图像或视频中执行多种推断
PRISMA是一个计算摄影管道,可以从任何图像或视频中执行多种推断。就像光线通过棱镜折射成不同的波长一样,这个管道将图像扩展成可用于3D重建或实时后期处理操作的数据。它结合了不同的算法和开源的预训练模型,比如单目深度(MiDAS v3.1, ZoeDepth, Marigold, PatchFusion)、光流(RAFT)、分割掩模(mmdet)、相机姿态(colmap)等。结果带存储在与输入文件同名的文件夹中,每个band以.png或.mp4文件的形式单独存储。对于视频,在最后一步,它会尝试执行稀疏重建,可用于NeRF(如NVidia的Instant-ngp)或高斯扩散训练。推断出的深度信息默认导出为可以使用LYGIA的heatmap GLSL/HLSL采样实时解码的热度图,而光流编码为HUE(角度)和饱和度,也可以使用LYGIA的光流GLSL/HLSL采样器实时解码。
轻量快速频率感知扩散声码器
FreGrad是一款轻量快速的频率感知扩散声码器,旨在生成逼真的音频。其框架包括离散小波变换、频率感知扩张卷积和一系列增强模型生成质量的技巧。在实验中,FreGrad相比基准模型,训练速度提升3.7倍,推理速度提升2.2倍,同时模型大小减少0.6倍(仅178万参数),而不牺牲输出质量。
一种利用侧视图像重建3D服装虚拟人物的方法
SIFU是一个利用侧视图像重建高质量3D服装虚拟人物模型的方法。它的核心创新点是提出了一种新的基于侧视图像的隐式函数,可以增强特征提取和提高几何精度。此外,SIFU还引入了一种3D一致的纹理优化过程,可大大提升纹理质量,借助文本到图像的diffusion模型实现纹理编辑。SIFU擅长处理复杂姿势和宽松衣物,是实际应用中理想的解决方案。
快速高质量从单张图像生成3D内容
Repaint123可以在2分钟内从一张图片生成高质量、多视角一致的3D内容。它结合2D散射模型强大的图像生成能力和渐进重绘策略的纹理对齐能力,生成高质量、视角一致的多视角图像,并通过可视性感知的自适应重绘强度提升重绘过程中的图像质量。生成的高质量、多视角一致图像使得简单的均方误差损失函数就能实现快速的3D内容生成。
统一的多模态生成模型
Unified-IO 2是一个统一的多模态生成模型,能够理解和生成图像、文本、音频和动作。它使用单个编码器-解码器Transformer模型,将不同模式(图像、文本、音频、动作等)的输入和输出都表示为一个共享的语义空间进行处理。该模型从头开始在大规模的多模态预训练语料上进行训练,使用了多模态的去噪目标进行优化。为了学会广泛的技能,该模型还在120个现有数据集上进行微调,这些数据集包含提示和数据增强。Unified-IO 2在GRIT基准测试中达到了最先进的性能,在30多个基准测试中都取得了强劲的结果,包括图像生成和理解、文本理解、视频和音频理解以及机器人操作。
快速从单视图训练高保真的人体3D高斯模型
Human101是一个快速从单视图重建人体的框架。它能够在100秒内训练3D高斯模型,并以60FPS以上渲染1024分辨率的图像,而无需预先存储每帧的高斯属性。Human101管道如下:首先,从单视图视频中提取2D人体姿态。然后,利用姿态驱动3D模拟器生成匹配的3D骨架动画。最后,基于动画构建时间相关的3D高斯模型,进行实时渲染。
将您的收件箱转变成个性化的每日播客。
Jellypod+是一款将您的电子邮件订阅转化为个人播客的应用程序。它以音频为主要形式,为您忙碌的生活方式生成您每日新闻的简明摘要。Jellypod+的目标是打破传统媒体的“一刀切”模式,为您量身定制新闻,符合您独特的兴趣爱好。该应用程序还包括内置的电子邮件阅读器和简报转发功能,让您可以在不离开应用的情况下查看简报的详情,并自动将入站简报转发到您的个人收件箱。此外,Jellypod+还提供可调节的播放速度、多种不同的播音员选择、离线模式、定制播客生成计划、多个每日播客主题组织、无广告体验以及注重隐私的邮箱地址保护等功能。
高保真稠密SLAM
Gaussian SLAM能够从RGBD数据流重建可渲染的3D场景。它是第一个能够以照片级真实感重建现实世界场景的神经RGBD SLAM方法。通过利用3D高斯作为场景表示的主要单元,我们克服了以往方法的局限性。我们观察到传统的3D高斯在单目设置下很难使用:它们无法编码准确的几何信息,并且很难通过单视图顺序监督进行优化。通过扩展传统的3D高斯来编码几何信息,并设计一种新颖的场景表示以及增长和优化它的方法,我们提出了一种能够重建和渲染现实世界数据集的SLAM系统,而且不会牺牲速度和效率。高斯SLAM能够重建和以照片级真实感渲染现实世界场景。我们在常见的合成和真实世界数据集上对我们的方法进行了评估,并将其与其他最先进的SLAM方法进行了比较。最后,我们证明了我们得到的最终3D场景表示可以通过高效的高斯飞溅渲染实时渲染。
AI TTS, 声音表情包,支持多平台
Blerp是一款支持AI文本转语音、声音表情包、GIF、声音面板和频道积分等功能的插件。用户可以在Twitch、YouTube、Kick等平台上使用Blerp插件,在直播聊天室中发送各种声音和文本转语音,并可以附带表情和GIF。作为观众,您还可以通过该插件收集频道积分和使用WalkOn声音。作为流媒体主播,您可以在Blerp平台上添加和设置您的声音。
ReconFusion: 3D重建与扩散先验
ReconFusion是一种3D重建方法,利用扩散先验在只有少量照片的情况下重建真实世界场景。它结合Neural Radiance Fields(NeRFs)和扩散先验,能够在新的摄像机位置超出输入图像集合的情况下,合成逼真的几何和纹理。该方法通过在少量视图和多视图数据集上训练扩散先验,能够在不受约束的区域合成逼真的几何和纹理,同时保留观察区域的外观。ReconFusion在各种真实世界数据集上进行了广泛评估,包括前向和360度场景,展示出明显的性能改进。
Read为用户生成个性化的每日新闻音频简报
Read是一个新闻音频生成平台。它可以自动搜集用户感兴趣的内容,生成个性化的每日音频新闻简报,帮助用户高效获取所需信息。该产品拥有人工智能生成的自然语音功能,支持邮件订阅,提供个性化推荐,功能强大。适合需要每日了解所关心事件和新闻的用户。
视频音频全流程再利用
GlossAi是一款全流程视频和音频内容再利用工具,可将长篇内容转化为适用于各种社交媒体平台的短视频片段,提高用户参与度,降低成本,节省时间。同时,它还能生成多渠道的数字和有机营销活动。
Blerp是一个AI TTS声音模因、表情GIF和声音提示的产品。
Blerp是一个AI TTS声音模因、表情GIF和声音提示的产品。它提供了最有趣的AI TTS警报、表情和声音包,适用于聊天和直播社区。观众可以在任何流媒体平台上播放最好的声音和AI TTS语音,并可以将表情和GIF附加到它们上。作为观众,您还可以在您最喜欢的主播流媒体上收集频道积分,以及播放属于您自己的WalkOn Sounds。主播可以设置自己的声音,并在任何支持的扩展平台上使用WalkOn Subscriber声音。
© 2024 AIbase 备案号:闽ICP备08105208号-14