需求人群:
"适用于动态模型应用"
使用场景示例:
动态模型应用中的时空融合效果优化
ComfyUI中的MagicTime应用
AnimatediffEvolved的MagicTime融合
产品特色:
时空融合
动态模型支持
高质量效果
浏览量:46
最新流量情况
月访问量
25296.55k
平均访问时长
00:04:45
每次访问页数
5.83
跳出率
43.31%
流量来源
直接访问
48.39%
自然搜索
35.85%
邮件
0.03%
外链引荐
12.76%
社交媒体
2.96%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
13.77%
印度
8.48%
日本
3.85%
俄罗斯
4.86%
美国
17.58%
时空融合,动态模型
MagicTime是将MagicTime时间Lora融合到Animatediff v3动态模型中,以及将其空间Lora转换为.safetensors格式。在ComfyUI和AnimatediffEvolved中一起使用。功能强大,提供高质量的时空融合效果,适用于动态模型应用。定价视具体用途而定,定位于提供先进的时空融合技术。
GGUF量化支持,优化ComfyUI原生模型性能
ComfyUI-GGUF是一个为ComfyUI原生模型提供GGUF量化支持的项目。它允许模型文件以GGUF格式存储,这种格式由llama.cpp推广。尽管常规的UNET模型(conv2d)不适用于量化,但像flux这样的transformer/DiT模型似乎受量化影响较小。这使得它们可以在低端GPU上以更低的每权重变量比特率进行运行。
ComfyUI实现的Omost模型
ComfyUI_omost是一个基于ComfyUI框架实现的Omost模型,它允许用户与大型语言模型(LLM)进行交互,以获取类似JSON的结构化布局提示。该模型目前处于开发阶段,其节点结构可能会有变化。它通过LLM Chat和Region Condition两个部分,将JSON条件转换为ComfyUI的区域格式,用于图像生成和编辑。
一个定制的ComfyUI节点,用于Hallo模型。
ComfyUI-Hallo是一个为Hallo模型定制的ComfyUI插件,它允许用户在命令行中使用ffmpeg,并从Hugging Face下载模型权重,或者手动下载并放置在指定目录。它为开发者提供了一个易于使用的界面来集成Hallo模型,从而增强了开发效率和用户体验。
ComfyUI节点,用于MMAudio模型的音频处理
ComfyUI-MMAudio是一个基于ComfyUI的插件,它允许用户利用MMAudio模型进行音频处理。该插件的主要优点在于能够提供高质量的音频生成和处理能力,支持多种音频模型,并且易于集成到现有的音频处理流程中。产品背景信息显示,它是由kijai开发的,并且是开源的,可以在GitHub上找到。目前,该插件主要面向技术爱好者和音频处理专业人士,可以免费使用。
ComfyUI 的 IPAdapter 模型参考实现
这是一个 ComfyUI 的 IPAdapter 模型参考实现。IPAdapter 是一种非常强大的模型,用于基于一个或多个参考图像进行图像到图像的条件生成。通过文本提示、控制网络和掩码,您可以生成增强图像的变体。可以将其视为单张图像的 Lora。该实现代码内存高效、运行快速,并且不会因 Comfy 更新而中断。作为开源项目,开发者欢迎捐赠以支持项目维护和新功能开发。
ComfyUI的详细控制节点,优化图像细节。
ComfyUI-Detail-Daemon是一个基于muerrilla的sd-webui-Detail-Daemon移植的节点,用于ComfyUI,可以调整控制细节的sigmas值。这个工具特别适用于增强Flux模型的细节,同时可能去除不需要的背景模糊。它包括四个节点:Detail Daemon Sampler、Detail Daemon Graph Sigmas、Multiply Sigmas和Lying Sigma Sampler,提供了多种方法来增强图像细节。
视频生成的时空扩散模型
Lumiere是一个文本到视频扩散模型,旨在合成展现真实、多样和连贯运动的视频,解决视频合成中的关键挑战。我们引入了一种空时U-Net架构,可以一次性生成整个视频的时间持续,通过模型的单次传递。这与现有的视频模型形成对比,后者合成远距离的关键帧,然后进行时间超分辨率处理,这种方法本质上使得全局时间一致性难以实现。通过部署空间和(重要的是)时间的下采样和上采样,并利用预训练的文本到图像扩散模型,我们的模型学会直接生成多个时空尺度下的全帧率、低分辨率视频。我们展示了最先进的文本到视频生成结果,并展示了我们的设计轻松促进了各种内容创作任务和视频编辑应用,包括图像到视频、视频修补和风格化生成。
基于ComfyUI前端开发的LLM工作流节点集合
ComfyUI LLM Party旨在基于ComfyUI前端开发一套完整的LLM工作流节点集合,使用户能够快速便捷地构建自己的LLM工作流,并轻松地将它们集成到现有的图像工作流中。
开源时空基础模型,用于交通预测
OpenCity是一个开源的时空基础模型,专注于交通预测领域。该模型通过整合Transformer架构和图神经网络,有效捕捉和标准化交通数据中的复杂时空依赖关系,实现对不同城市环境的零样本泛化。它在大规模、异构的交通数据集上进行预训练,学习到丰富、可泛化的表示,能够无缝应用于多种交通预测场景。
ComfyUI下的非官方InstantID实现
这是一个在 ComfyUI 环境下对 InstantID 的非官方实现,可以让用户无需部署服务端就可以体验 InstantID 带来的人物图像生成效果。它支持从 huggingface hub 自动下载模型,也可以加载本地模型。兼容各种文本提示词输入和 styler,可以轻松实现不同风格的人物图像生成。
Flux图像编辑节点集合于ComfyUI
ComfyUI-Fluxtapoz是一个为Flux在ComfyUI中编辑图像而设计的节点集合。它允许用户通过一系列节点操作来对图像进行编辑和风格转换,特别适用于需要进行图像处理和创意工作的专业人士。这个项目目前是开源的,遵循GPL-3.0许可协议,意味着用户可以自由地使用、修改和分发该软件,但需要遵守开源许可的相关规定。
ComfyUI 实现的 ProPainter 框架用于视频修补。
ComfyUI ProPainter Nodes 是基于 ProPainter 框架的视频修补插件,利用流传播和时空转换器实现高级视频帧编辑,适用于无缝修补任务。该插件具有用户友好的界面和强大的功能,旨在简化视频修补过程。
ComfyUI的API服务端,用于为ComfyUI客户端提供后端支持
ComfyUI-APISR是ComfyUI项目的API服务端部分,它为ComfyUI客户端应用提供必要的后端支持。ComfyUI是一个旨在提供舒适用户体验的用户界面框架。
为ComfyUI定制的字体到图像动画节点
ComfyUI-Mana-Nodes是一套为ComfyUI设计的自定义节点,包括将字体转换为图像动画的功能。用户可以通过这些节点创建动态图像和视频效果。项目遵循MIT许可证,鼓励社区贡献和个性化定制。
ComfyUI-WanVideoWrapper 是一个为 WanVideo 提供 ComfyUI 节点的工具。
ComfyUI-WanVideoWrapper 是一个为 WanVideo 提供 ComfyUI 节点的工具。它允许用户在 ComfyUI 环境中使用 WanVideo 的功能,实现视频生成和处理。该工具基于 Python 开发,支持高效的内容创作和视频生成,适合需要快速生成视频内容的用户。
ComfyUI 的 Hunyuan3D-2 模型封装工具,用于 3D 生成与纹理处理。
ComfyUI-Hunyuan3DWrapper 是一个基于 ComfyUI 的插件,封装了 Hunyuan3D-2 模型,用于高效的 3D 图像生成和纹理处理。该工具通过简化 Hunyuan3D-2 模型的使用流程,使得用户能够在 ComfyUI 环境下快速实现高质量的 3D 模型生成和纹理渲染。它支持自定义配置和扩展,适用于需要高效 3D 内容创作的用户。
ComfyUI 3D处理插件包
ComfyUI-3D-Pack是一个强大的3D处理插件集合,它为ComfyUI提供了处理3D模型(网格、纹理等)的能力,集成了各种前沿3D重建和渲染算法,如3D高斯采样、NeRF不同iable渲染等,可以实现单视角图像快速重建3D高斯模型,并可转换为三角网格模型,同时还提供了交互式3D可视化界面。
一个用于人体动画生成的ComfyUI节点实现
ComfyUI-Moore-AnimateAnyone是一个基于Moore-AnimateAnyone模型实现的ComfyUI自定义节点,可以通过简单的文本描述生成相应的人体动画。该节点易于安装和使用,支持多种人体姿态和动作的生成,可用于提升设计作品的质量。其输出动画细腻自然,为创作者提供了强大的工具。
长视频语言理解的时空自适应压缩模型
LongVU是一种创新的长视频语言理解模型,通过时空自适应压缩机制减少视频标记的数量,同时保留长视频中的视觉细节。这一技术的重要性在于它能够处理大量视频帧,且在有限的上下文长度内仅损失少量视觉信息,显著提升了长视频内容理解和分析的能力。LongVU在多种视频理解基准测试中均超越了现有方法,尤其是在理解长达一小时的视频任务上。此外,LongVU还能够有效地扩展到更小的模型尺寸,同时保持最先进的视频理解性能。
ComfyUI节点插件,支持3D处理
ComfyUI-3D-Pack是一个强大的3D处理节点插件包,它为ComfyUI提供了处理3D输入(网格、UV纹理等)的能力,使用了最前沿的算法,如3D高斯采样、神经辐射场等。这个项目可以让用户只用单张图片就可以快速生成3D高斯模型,并可以将高斯模型转换成网格,实现3D重建。它还支持多视图图像作为输入,允许在给定的3D网格上映射多视图渲染的纹理贴图。该插件包处于开发中,尚未正式发布到ComfyUI插件库,但已经支持诸如大型多视图高斯模型、三平面高斯变换器、3D高斯采样、深度网格三角剖分、3D文件加载保存等功能。它的目标是成为ComfyUI处理3D内容的强大工具。
ComfyUI中集成的最新视频生成模型
Mochi是Genmo最新推出的开源视频生成模型,它在ComfyUI中经过优化,即使使用消费级GPU也能实现。Mochi以其高保真度动作和卓越的提示遵循性而著称,为ComfyUI社区带来了最先进的视频生成能力。Mochi模型在Apache 2.0许可下发布,这意味着开发者和创作者可以自由使用、修改和集成Mochi,而不受限制性许可的阻碍。Mochi能够在消费级GPU上运行,如4090,且在ComfyUI中支持多种注意力后端,使其能够适应小于24GB的VRAM。
为ComfyUI提供自定义节点,支持文字提示和图片提示生成
Plush-for-ComfyUI是一个为ComfyUI提供自定义节点的插件,可以通过文字或图片生成TextNode的提示文本,从而使ComfyUI支持更多样化的提示输入方式。该插件具有交互式的节点连接界面,支持gpT-3和gpT-4模型,可以自定义提示生成的创造性程度,支持多种艺术风格,并可以输出风格提示信息等。
ComfyUI的EcomID原生支持插件
SDXL_EcomID_ComfyUI是一个为ComfyUI提供原生SDXL-EcomID支持的插件。它通过增强肖像表示,提供更真实、审美上更令人愉悦的外观,同时确保语义一致性和更大的内部ID相似性。这个插件完全集成于ComfyUI,并且不使用diffusers,而是本地实现EcomID。它的重要性在于能够提升图像生成的质量和一致性,特别是在处理人物肖像时,能够保持不同年龄、发型、眼镜等物理变化下的内部特征一致性。
使用云 GPU 资源在本地 ComfyUI 上运行您的工作流程
ComfyUI-Cloud 是一个自定义节点,它使用户可以在本地完全控制 ComfyUI 的同时,利用云 GPU 资源来运行他们的工作流程。它允许用户运行需要高 VRAM 的工作流程,而不需要将自定义节点/模型导入云提供商或花费金钱购买新的 GPU。
一个可以解释和生成梦境场景的ComfyUI插件
ComfyUI-Dream-Interpreter是一个ComfyUI插件,可以让用户输入自己的梦境描述,插件会解释这个梦境的潜在含义,并生成一个全景梦境场景图像。生成的不仅是静态图像,还是一个支持三维交互的Canvas,用户可以仿佛身临其境般探索自己的梦境世界。这个插件将梦境描述、解释和生成相结合,为用户提供一种独特的梦境体验。
一键转换comfyui工作流为小程序等多种形式
ComfyUI_Bxb插件能够将现有的comfyui工作流一键转换为微信小程序、抖音小程序、微信内H5和微信外H5等多种形式,支持支付变现,极大地提高了工作效率和灵活性。该插件在2024年7月27日进行了重要更新,包括改进通信逻辑、增强安全性、支持多平台、解决兼容性问题等。
ComfyUI的轨迹一致性蒸馏(TCD)采样插件
这是一款ComfyUI的自定义采样器插件节点,实现了Zheng等人提出的基于轨迹一致性蒸馏(TCD)的采样方法。插件为ComfyUI的Custom Sampler类别增加了TCDScheduler和SamplerTCD节点。只需将其克隆到custom_nodes文件夹中,重启ComfyUI即可使用。TCDScheduler有一个特殊参数eta,用于控制每一步的随机性。当eta=0时表示确定性采样,eta=1时表示完全随机采样。默认值为0.3,但在增加推理步数时建议使用更高的eta值。该插件基于轨迹一致性蒸馏采样方法,可为AI模型提供更加平滑和一致的输出结果。
© 2025 AIbase 备案号:闽ICP备08105208号-14