需求人群:
["数字人体生成","虚拟试衣","游戏和电影制作"]
使用场景示例:
利用Chupa从简单SMPL-X网格生成细节丰富的3D人体
Chupa可用于生成游戏和电影中的虚拟角色
结合文本提示,Chupa可以生成特定身份的3D虚拟人体
产品特色:
从SMPL-X网格生成细节丰富的3D服装人体网格
基于2D法线图进行3D重建
支持基于文本的人体身份控制
浏览量:28
最新流量情况
月访问量
556
平均访问时长
00:00:00
每次访问页数
1.01
跳出率
63.82%
流量来源
直接访问
100.00%
自然搜索
0
邮件
0
外链引荐
0
社交媒体
0
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
美国
100.00%
用扩散模型生成细节丰富的3D人类网格
Chupa是一个3D人体生成流水线,它结合了扩散模型的生成能力和神经渲染技术,可创建多样化、逼真的3D人体。该流水线可以轻松地泛化到未见过的人体姿态,并呈现逼真的效果。Chupa从SMPL-X网格生成潜在空间中的多样化高质量人体网格。
从单张图片重建逼真的3D人体模型
PSHuman是一个创新的框架,它利用多视图扩散模型和显式重构技术,从单张图片中重建出逼真的3D人体模型。这项技术的重要性在于它能够处理复杂的自遮挡问题,并且在生成的面部细节上避免了几何失真。PSHuman通过跨尺度扩散模型联合建模全局全身形状和局部面部特征,实现了细节丰富且保持身份特征的新视角生成。此外,PSHuman还通过SMPL-X等参数化模型提供的身体先验,增强了不同人体姿态下的跨视图身体形状一致性。PSHuman的主要优点包括几何细节丰富、纹理保真度高以及泛化能力强。
利用AI提升媒体处理和数字资产管理效率
ImageKit AI是一个结合了人工智能和生成式AI的媒体处理和数字资产管理平台。它通过AI技术,如图像扩展、智能裁剪、背景移除、添加阴影、通过文本提示生成图像等,帮助用户提升媒体内容的质量和处理效率。ImageKit AI的背景是满足现代数字媒体管理的需求,它通过AI技术简化了图像处理流程,降低了成本,并提高了内容的个性化和质量。产品定位于为企业提供高效、智能的媒体内容管理解决方案。
高效3D高斯重建模型,实现大场景快速重建
Long-LRM是一个用于3D高斯重建的模型,能够从一系列输入图像中重建出大场景。该模型能在1.3秒内处理32张960x540分辨率的源图像,并且仅在单个A100 80G GPU上运行。它结合了最新的Mamba2模块和传统的transformer模块,通过高效的token合并和高斯修剪步骤,在保证质量的同时提高了效率。与传统的前馈模型相比,Long-LRM能够一次性重建整个场景,而不是仅重建场景的一小部分。在大规模场景数据集上,如DL3DV-140和Tanks and Temples,Long-LRM的性能可与基于优化的方法相媲美,同时效率提高了两个数量级。
从单张图片或文本提示生成高质量3D资产
Flex3D是一个两阶段流程,能够从单张图片或文本提示生成高质量的3D资产。该技术代表了3D重建领域的最新进展,可以显著提高3D内容的生成效率和质量。Flex3D的开发得到了Meta的支持,并且团队成员在3D重建和计算机视觉领域有着深厚的背景。
开源自回归视觉生成模型项目
Open-MAGVIT2是由腾讯ARC实验室开源的一个自回归图像生成模型系列,包含从300M到1.5B不同规模的模型。该项目复现了Google的MAGVIT-v2分词器,实现了在ImageNet 256×256数据集上达到1.17 rFID的先进重建性能。通过引入不对称分词技术,将大词汇表分解为不同大小的子词汇表,并引入'下一个子标记预测'来增强子标记间的交互,以提高生成质量。所有模型和代码均已开源,旨在推动自回归视觉生成领域的创新和创造力。
高保真新视角合成的视频扩散模型
ViewCrafter 是一种新颖的方法,它利用视频扩散模型的生成能力以及基于点的表示提供的粗略3D线索,从单个或稀疏图像合成通用场景的高保真新视角。该方法通过迭代视图合成策略和相机轨迹规划算法,逐步扩展3D线索和新视角覆盖的区域,从而扩大新视角的生成范围。ViewCrafter 可以促进各种应用,例如通过优化3D-GS表示实现沉浸式体验和实时渲染,以及通过场景级文本到3D生成实现更富有想象力的内容创作。
生成新视角的图像,保持语义信息。
GenWarp是一个用于从单张图像生成新视角图像的模型,它通过语义保持的生成变形框架,使文本到图像的生成模型能够学习在哪里变形和在哪里生成。该模型通过增强交叉视角注意力与自注意力来解决现有方法的局限性,通过条件化生成模型在源视图图像上,并纳入几何变形信号,提高了在不同领域场景下的性能。
基于先进 AI 模型的图像修复工具。
IOPaint 是一个免费、开源且完全可自托管的修复 / 填充工具,使用最先进的 AI 模型。它可以帮助用户删除图像中的不需要的对象、修复瑕疵、添加新对象、扩大图像等。
基于预训练的文本到图像模型生成高质量、多视角一致的3D物体图像。
ViewDiff 是一种利用预训练的文本到图像模型作为先验知识,从真实世界数据中学习生成多视角一致的图像的方法。它在U-Net网络中加入了3D体积渲染和跨帧注意力层,能够在单个去噪过程中生成3D一致的图像。与现有方法相比,ViewDiff生成的结果具有更好的视觉质量和3D一致性。
实时一步潜在扩散模型,可用图像条件控制生成
SDXS是一种新的扩散模型,通过模型微型化和减少采样步骤,大幅降低了模型延迟。它利用知识蒸馏来简化U-Net和图像解码器架构,并引入了一种创新的单步DM训练技术,使用特征匹配和分数蒸馆。SDXS-512和SDXS-1024模型可在单个GPU上分别实现约100 FPS和30 FPS的推理速度,比之前模型快30至60倍。此外,该训练方法在图像条件控制方面也有潜在应用,可实现高效的图像到图像翻译。
免费AI生成的库存照片和免版税图像
Lummi提供由AI生成的高质量库存照片和免版税图像,旨在为用户提供独特且多样化的图片资源。这些图片覆盖了多种类别,如动物、艺术、残疾、花卉、风景、街头摄影、旅行和健康等。
NUWA-Infinity是一个艺术作品生成平台
NUWA-Infinity是微软推出的一个艺术作品生成平台,它能够创作西方油画、自然风景、抽象艺术等多种风格的艺术作品。该平台支持文本到图像、图像到视频、图像外扩等多种创作方法。
用于视觉合成的统一3D Transformer流水线
NUWA是由微软开发的一系列研究项目,包括NUWA、NUWA-Infinity、NUWA-LIP、Learning 3D Photography Videos和NUWA-XL。这些项目涉及视觉合成的预训练模型,能够生成或操纵视觉数据,如图像和视频,以执行多种视觉合成任务。
Flowty的TripoSR用户界面改进项目
ComfyUI-Flowty-TripoSR 是一个旨在改进Flowty的TripoSR用户界面的项目,使其更加舒适和直观。该项目可能包含对现有功能的增强以及新功能的添加,以提高用户体验。
使用Latent Transparency的透明图像层扩散工具
sd-forge-layerdiffuse是一个用于生成透明图像和图层的工作在进行中的扩展,它利用了潜在透明度技术。该工具目前支持图像生成和基本图层功能,但透明图像到图像的转换尚未完成。代码库高度动态,未来一个月可能会有大量变化。
开源跨平台的 AI 图像与视频生成工具
ComflowySpace 致力于打造精致的 AI-Gen 工具,提供 ComfyUI 和 Stable Diffusion,为开发者和用户打造一个充满活力的社区。ComflowySpace的目标是做出人人都可以使用的ComfyUI & Stable Diffusion产品,从下载安装到插件管理、工作流程模板、流程编辑,每一步都有良好的设计。ComflowySpace 提供工作流程管理功能,您可以在其中查看所有历史工作流程。有了它,您不再需要手动导出和保存工作流程。此外,我们还提供多选项卡功能,允许您同时打开和运行多个工作流程,提高多任务处理效率。在ComflowySpace中,您可以使用各种模板来构建工作流程,让工作流程构建更加简单便捷。
从单张图片快速生成3D对象
TripoSR是由Stability AI与Tripo AI合作开发的3D对象重建模型,能够从单张图片在不到一秒钟的时间内生成高质量的3D模型。该模型在低推理预算下运行,无需GPU,适用于广泛的用户和应用场景。模型权重和源代码已在MIT许可下发布,允许商业化、个人和研究使用。
无需相机校准信息的密集立体3D重建
DUSt3R是一种新颖的密集和无约束立体3D重建方法,适用于任意图像集合。它不需要事先了解相机校准或视点姿态信息,通过将成对重建问题视为点图的回归,放宽了传统投影相机模型的严格约束。DUSt3R提供了一种统一的单目和双目重建方法,并在多图像情况下提出了一种简单有效的全局对齐策略。基于标准的Transformer编码器和解码器构建网络架构,利用强大的预训练模型。DUSt3R直接提供场景的3D模型和深度信息,并且可以从中恢复像素匹配、相对和绝对相机信息。
保留图中任意一个或多个物体,对其他区域进行生成。
千变万换是一款图像处理工具,可以保留图中任意一个或多个物体(包括人,衣服,商品,背景等),对其他区域进行生成。用户可以通过上传图片并指定要保留的物体,然后选择生成的方式,可以是随机生成的背景,也可以是用户自定义的背景。该工具可以帮助用户快速生成各种创意图像,适用于广告设计、艺术创作等领域。千变万换采用先进的图像处理技术,生成的效果真实自然。该工具为在线使用,无需下载安装,操作简便,适用于不同的用户群体。
一种用于迷彩目标分割的通用文本提示方法。
GenSAM是一种针对迷彩对象检测(COD)的方法,它使用Cross-modal Chains of Thought Prompting (CCTP)技术来理解视觉提示,并利用通用文本提示来获取可靠的视觉提示。该方法通过渐进式掩膜生成(PMG)在测试时自动生成并优化视觉提示,无需额外训练,实现高效准确的迷彩目标分割。
机器人图像渲染的新发展
Wild2Avatar是一个用于渲染被遮挡的野外单目视频中的人类外观的神经渲染方法。它可以在真实场景下渲染人类,即使障碍物可能会阻挡相机视野并导致部分遮挡。该方法通过将场景分解为三部分(遮挡物、人类和背景)来实现,并使用特定的目标函数强制分离人类与遮挡物和背景,以确保人类模型的完整性。
基于人工智能的在线服务
Problembo是一个基于高级技术的在线服务平台,提供各种实用的服务。我们利用人工智能、数据分析和光学识别等领域的先进技术,将复杂的解决方案转化为简单易用的工具。我们的服务包括使用神经网络进行文字绘制、基于人工智能的室内设计、在线去除图片背景、与人工智能聊天、AI图像编辑器等。我们每天为每个用户提供0.6的免费服务体验金。只需支付实际使用的服务,没有订阅费用或隐藏费用。Problembo致力于通过简单的几个点击解决您的问题。
高保真稠密SLAM
Gaussian SLAM能够从RGBD数据流重建可渲染的3D场景。它是第一个能够以照片级真实感重建现实世界场景的神经RGBD SLAM方法。通过利用3D高斯作为场景表示的主要单元,我们克服了以往方法的局限性。我们观察到传统的3D高斯在单目设置下很难使用:它们无法编码准确的几何信息,并且很难通过单视图顺序监督进行优化。通过扩展传统的3D高斯来编码几何信息,并设计一种新颖的场景表示以及增长和优化它的方法,我们提出了一种能够重建和渲染现实世界数据集的SLAM系统,而且不会牺牲速度和效率。高斯SLAM能够重建和以照片级真实感渲染现实世界场景。我们在常见的合成和真实世界数据集上对我们的方法进行了评估,并将其与其他最先进的SLAM方法进行了比较。最后,我们证明了我们得到的最终3D场景表示可以通过高效的高斯飞溅渲染实时渲染。
AI 人脸识别融合先进图像算法,10 分钟修完人工 2 小时的片
AI 人脸识别融合先进图像算法,10 分钟修完人工 2 小时的片。 产品优势: 1. 批量作图:日均修图 15000 张,24 小时不间断工作,极大提升修图效率。 2. 简洁操作:只需一键导入,小白用户也能快速上手的修图利器。 3. 当天选片:修图过程自动化,有效提升作图效率,缩短选片周期。 4. 提升二销:通过智能技术优化出片品质,提升顾客二销加选率。 5. 降本增效:降低生产成本,提高后期效率,赋能影楼业绩增长。 核心功能: - 拖拽 - 全身美型 - 像素级图像分割,定位人体关键骨骼点,实现全身一键修瘦。 使用场景:连锁影楼、TOP 品牌、小众工作室的共同选择。 标签:人脸识别、修图、影楼、图像处理、人工智能
先进的AI图片上标器和增强器
Magnific AI是一个使用生成式AI技术实现极高分辨率图像上标的工具。它不仅可以实现极高分辨率,还可以根据用户的提示和参数添加更多细节。该工具可用于提高肖像、插图、视频游戏资产、风景照片等的分辨率和细节。
基于AI的图像生成工具
Pocket Paint是一个基于DALL•E 3的图像生成应用程序。它使没有AI经验的用户也可以轻松地开始使用生成式AI进行创作。用户只需输入几个关键词,Pocket Paint就可以为您生成高质量的图片。与其他类似工具不同,Pocket Paint非常注重用户体验,确保普通用户也能快速上手。
© 2024 AIbase 备案号:闽ICP备08105208号-14