需求人群:
["快速对单张图像进行3D重建","将重建的3D高斯模型转换为可打印的网格模型","交互式检查3D重建和渲染结果","为下游任务生成Orbit相机轨迹","多视角纹理贴图到3D模型"]
使用场景示例:
输入一张面部图像,快速重建出3D高斯面部模型
输入一系列产品图像,重建3D高斯模型并导出网格模型打印
导入3D模型,设置Orbit相机路径,生成渲染图像序列
产品特色:
单视图重建3D高斯模型
3D高斯模型转换为三角网格
交互式3D可视化
Orbit相机轨迹生成
多视角影像投影贴图到模型
浏览量:1739
最新流量情况
月访问量
5.16m
平均访问时长
00:06:42
每次访问页数
5.81
跳出率
37.20%
流量来源
直接访问
52.27%
自然搜索
32.92%
邮件
0.05%
外链引荐
12.52%
社交媒体
2.15%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
11.99%
德国
3.63%
印度
9.20%
俄罗斯
5.25%
美国
19.02%
ComfyUI 3D处理插件包
ComfyUI-3D-Pack是一个强大的3D处理插件集合,它为ComfyUI提供了处理3D模型(网格、纹理等)的能力,集成了各种前沿3D重建和渲染算法,如3D高斯采样、NeRF不同iable渲染等,可以实现单视角图像快速重建3D高斯模型,并可转换为三角网格模型,同时还提供了交互式3D可视化界面。
高效3D高斯重建模型,实现大场景快速重建
Long-LRM是一个用于3D高斯重建的模型,能够从一系列输入图像中重建出大场景。该模型能在1.3秒内处理32张960x540分辨率的源图像,并且仅在单个A100 80G GPU上运行。它结合了最新的Mamba2模块和传统的transformer模块,通过高效的token合并和高斯修剪步骤,在保证质量的同时提高了效率。与传统的前馈模型相比,Long-LRM能够一次性重建整个场景,而不是仅重建场景的一小部分。在大规模场景数据集上,如DL3DV-140和Tanks and Temples,Long-LRM的性能可与基于优化的方法相媲美,同时效率提高了两个数量级。
快速从单视图训练高保真的人体3D高斯模型
Human101是一个快速从单视图重建人体的框架。它能够在100秒内训练3D高斯模型,并以60FPS以上渲染1024分辨率的图像,而无需预先存储每帧的高斯属性。Human101管道如下:首先,从单视图视频中提取2D人体姿态。然后,利用姿态驱动3D模拟器生成匹配的3D骨架动画。最后,基于动画构建时间相关的3D高斯模型,进行实时渲染。
3D高斯生成技术,实现任意未摆姿势图像的3D重建
LucidFusion是一个灵活的端到端前馈框架,用于从未摆姿势、稀疏和任意数量的多视图图像中生成高分辨率3D高斯。该技术利用相对坐标图(RCM)来对齐不同视图间的几何特征,使其在3D生成方面具有高度适应性。LucidFusion能够与原始单图像到3D的流程无缝集成,生成512x512分辨率的详细3D高斯,适合广泛的应用场景。
视频编辑工具,使用Genmo Mochi技术
ComfyUI-MochiEdit是一个基于Genmo Mochi技术的视频编辑插件,允许用户通过ComfyUI界面对视频进行编辑。该插件的主要优点在于其能够利用先进的视频处理技术,提供给用户一个直观、易用的编辑环境。产品背景信息显示,它是由logtd和kijai共同开发,并且遵循GPL-3.0开源许可证。由于其开源特性,该插件可以免费使用,定位于需要视频编辑功能的专业用户或爱好者。
ComfyUI的EcomID原生支持插件
SDXL_EcomID_ComfyUI是一个为ComfyUI提供原生SDXL-EcomID支持的插件。它通过增强肖像表示,提供更真实、审美上更令人愉悦的外观,同时确保语义一致性和更大的内部ID相似性。这个插件完全集成于ComfyUI,并且不使用diffusers,而是本地实现EcomID。它的重要性在于能够提升图像生成的质量和一致性,特别是在处理人物肖像时,能够保持不同年龄、发型、眼镜等物理变化下的内部特征一致性。
ComfyUI的详细控制节点,优化图像细节。
ComfyUI-Detail-Daemon是一个基于muerrilla的sd-webui-Detail-Daemon移植的节点,用于ComfyUI,可以调整控制细节的sigmas值。这个工具特别适用于增强Flux模型的细节,同时可能去除不需要的背景模糊。它包括四个节点:Detail Daemon Sampler、Detail Daemon Graph Sigmas、Multiply Sigmas和Lying Sigma Sampler,提供了多种方法来增强图像细节。
一个灵活的框架,使用ComfyUI生成个性化诺贝尔奖图片
EveryoneNobel是一个利用ComfyUI生成个性化诺贝尔奖图片的框架。它不仅可以用来生成诺贝尔奖图片,还可以作为一个通用框架,将ComfyUI生成的视觉效果转化为最终产品,为进一步的应用和定制提供结构化的方法。该项目展示了如何在30小时内构建整个应用并销售产品,提供了详细的安装和使用指南,适合希望快速生成个性化图片的用户。
3D头像重建与实时动画生成技术
GAGAvatar是一种基于高斯模型的3D头像重建与动画生成技术,它能够在单张图片的基础上快速生成3D头像,并实现实时的面部表情动画。这项技术的主要优点包括高保真度的3D模型生成、快速的渲染速度以及对未见身份的泛化能力。GAGAvatar通过创新的双提升方法捕捉身份和面部细节,利用全局图像特征和3D可变形模型来控制表情,为数字头像的研究和应用提供了新的基准。
Flux图像编辑节点集合于ComfyUI
ComfyUI-Fluxtapoz是一个为Flux在ComfyUI中编辑图像而设计的节点集合。它允许用户通过一系列节点操作来对图像进行编辑和风格转换,特别适用于需要进行图像处理和创意工作的专业人士。这个项目目前是开源的,遵循GPL-3.0许可协议,意味着用户可以自由地使用、修改和分发该软件,但需要遵守开源许可的相关规定。
基于ComfyUI前端开发的LLM工作流节点集合
ComfyUI LLM Party旨在基于ComfyUI前端开发一套完整的LLM工作流节点集合,使用户能够快速便捷地构建自己的LLM工作流,并轻松地将它们集成到现有的图像工作流中。
从单张图片或文本提示生成高质量3D资产
Flex3D是一个两阶段流程,能够从单张图片或文本提示生成高质量的3D资产。该技术代表了3D重建领域的最新进展,可以显著提高3D内容的生成效率和质量。Flex3D的开发得到了Meta的支持,并且团队成员在3D重建和计算机视觉领域有着深厚的背景。
高保真新视角合成的视频扩散模型
ViewCrafter 是一种新颖的方法,它利用视频扩散模型的生成能力以及基于点的表示提供的粗略3D线索,从单个或稀疏图像合成通用场景的高保真新视角。该方法通过迭代视图合成策略和相机轨迹规划算法,逐步扩展3D线索和新视角覆盖的区域,从而扩大新视角的生成范围。ViewCrafter 可以促进各种应用,例如通过优化3D-GS表示实现沉浸式体验和实时渲染,以及通过场景级文本到3D生成实现更富有想象力的内容创作。
高保真动态城市场景重建技术
OmniRe 是一种用于高效重建高保真动态城市场景的全面方法,它通过设备日志来实现。该技术通过构建基于高斯表示的动态神经场景图,以及构建多个局部规范空间来模拟包括车辆、行人和骑行者在内的各种动态行为者,从而实现了对场景中不同对象的全面重建。OmniRe 允许我们全面重建场景中存在的不同对象,并随后实现所有参与者实时参与的重建场景的模拟。在 Waymo 数据集上的广泛评估表明,OmniRe 在定量和定性方面都大幅超越了先前的最先进方法。
生成新视角的图像,保持语义信息。
GenWarp是一个用于从单张图像生成新视角图像的模型,它通过语义保持的生成变形框架,使文本到图像的生成模型能够学习在哪里变形和在哪里生成。该模型通过增强交叉视角注意力与自注意力来解决现有方法的局限性,通过条件化生成模型在源视图图像上,并纳入几何变形信号,提高了在不同领域场景下的性能。
GGUF量化支持,优化ComfyUI原生模型性能
ComfyUI-GGUF是一个为ComfyUI原生模型提供GGUF量化支持的项目。它允许模型文件以GGUF格式存储,这种格式由llama.cpp推广。尽管常规的UNET模型(conv2d)不适用于量化,但像flux这样的transformer/DiT模型似乎受量化影响较小。这使得它们可以在低端GPU上以更低的每权重变量比特率进行运行。
一键转换comfyui工作流为小程序等多种形式
ComfyUI_Bxb插件能够将现有的comfyui工作流一键转换为微信小程序、抖音小程序、微信内H5和微信外H5等多种形式,支持支付变现,极大地提高了工作效率和灵活性。该插件在2024年7月27日进行了重要更新,包括改进通信逻辑、增强安全性、支持多平台、解决兼容性问题等。
增强型语言工具包
SaltAI Language Toolkit 是一个集成了检索增强生成(RAG)工具 Llama-Index、微软的 AutoGen 和 LlaVA-Next 的项目,通过 ComfyUI 的可适应节点接口,增强了平台的功能和用户体验。该项目于2024年5月9日增加了代理功能。
可在任何环境中运行的ComfyUI节点
BizyAir 是一个由siliconflow开发的插件,旨在帮助用户克服环境和硬件限制,更轻松地使用ComfyUI生成高质量内容。它支持在任何环境下运行,无需担心环境或硬件要求。
ComfyUI实现的Omost模型
ComfyUI_omost是一个基于ComfyUI框架实现的Omost模型,它允许用户与大型语言模型(LLM)进行交互,以获取类似JSON的结构化布局提示。该模型目前处于开发阶段,其节点结构可能会有变化。它通过LLM Chat和Region Condition两个部分,将JSON条件转换为ComfyUI的区域格式,用于图像生成和编辑。
一种通过3D感知递归扩散生成3D模型的框架
Ouroboros3D是一个统一的3D生成框架,它将基于扩散的多视图图像生成和3D重建集成到一个递归扩散过程中。该框架通过自条件机制联合训练这两个模块,使它们能够相互适应,以实现鲁棒的推理。在多视图去噪过程中,多视图扩散模型使用由重建模块在前一时间步渲染的3D感知图作为附加条件。递归扩散框架与3D感知反馈相结合,提高了整个过程的几何一致性。实验表明,Ouroboros3D框架在性能上优于将这两个阶段分开训练的方法,以及在推理阶段将它们结合起来的现有方法。
创建不同姿势的给定角色图像
cog-consistent-character 是一个基于 AI 的图像生成模型,允许用户创建给定角色在不同姿势下的图像。它利用了 Stable Diffusion 技术,通过 ComfyUI 提供了一个用户友好的界面,使得即使是没有编程背景的用户也能轻松生成高质量的图像。
ComfyUI的节点,能够根据用户指令生成任何类型的输出。
AnyNode是一个为ComfyUI设计的插件,它利用LLMs(大型语言模型)的能力,根据用户的输入生成所需的输出。它支持使用OpenAI API或本地LLMs API,允许用户通过简单的配置和指令,实现复杂的编程任务,无需编写代码。该插件的主要优点包括易用性、灵活性和强大的功能,能够显著提高开发效率,尤其适合需要快速原型开发和自动化任务的开发者。
ComfyUI 实现的 ProPainter 框架用于视频修补。
ComfyUI ProPainter Nodes 是基于 ProPainter 框架的视频修补插件,利用流传播和时空转换器实现高级视频帧编辑,适用于无缝修补任务。该插件具有用户友好的界面和强大的功能,旨在简化视频修补过程。
创建你的 ComfyUI 工作流程应用,并与他人分享
ComfyFlow 是一个基于 ComfyUI 的工作流程应用创建平台,能够快速创建工作流程应用并与他人分享。它使用稳定扩散(Stable Diffusion)和 ComfyUI 技术构建,具有简单易用、完全托管、免费使用等优点。
时空融合,动态模型
MagicTime是将MagicTime时间Lora融合到Animatediff v3动态模型中,以及将其空间Lora转换为.safetensors格式。在ComfyUI和AnimatediffEvolved中一起使用。功能强大,提供高质量的时空融合效果,适用于动态模型应用。定价视具体用途而定,定位于提供先进的时空融合技术。
基于预训练的文本到图像模型生成高质量、多视角一致的3D物体图像。
ViewDiff 是一种利用预训练的文本到图像模型作为先验知识,从真实世界数据中学习生成多视角一致的图像的方法。它在U-Net网络中加入了3D体积渲染和跨帧注意力层,能够在单个去噪过程中生成3D一致的图像。与现有方法相比,ViewDiff生成的结果具有更好的视觉质量和3D一致性。
将 Google Gemini 引入到 ComfyUI 中,用于生成提示词和对话
ComfyUI-Gemini 是一款将 Google Gemini 模型集成到 ComfyUI 中的插件。用户可以利用 Gemini 模型生成提示词、与之对话聊天,并且支持多模态输入如图像。该插件免费使用,提供隐式和显式两种 API Key 使用方式,适合个人和团队使用。
© 2024 AIbase 备案号:闽ICP备08105208号-14