需求人群:
["快速为Unreal Engine场景生成纹理","细化和修复自动生成的纹理","通过图像到图像工作流进行纹理设计"]
使用场景示例:
使用Comfy Textures插件快速为场景模型自动生成纹理
通过多视点纹理投影为复杂场景生成逼真纹理
使用纹理编辑模式修复自动生成纹理中的缺陷
产品特色:
单视点纹理投影
多视点纹理投影
透视摄像机支持
正交摄像机支持
纹理编辑和修复
图像到图像工作流
远程ComfyUI实例支持
浏览量:207
最新流量情况
月访问量
4.92m
平均访问时长
00:06:33
每次访问页数
6.11
跳出率
36.20%
流量来源
直接访问
51.61%
自然搜索
33.46%
邮件
0.04%
外链引荐
12.58%
社交媒体
2.19%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
12.55%
德国
3.84%
印度
9.38%
俄罗斯
4.61%
美国
18.64%
快速自动为Unreal场景生成纹理
Comfy Textures是一个Unreal Engine插件,它将编辑器与ComfyUI集成,允许您使用生成式扩散模型快速创建和调整场景的纹理。支持单视点和多视点纹理投影,可以用于透视和正交摄像机。还支持纹理编辑和图像到图像工作流。可以无缝工作于Unreal Engine 5.x和4.x。
Stable Diffusion WebUI Forge是基于Stable Diffusion WebUI的图像生成平台
Stable Diffusion WebUI Forge基于Stable Diffusion WebUI和Gradio开发,旨在优化资源管理、加速推理。相比原版WebUI在1024px分辨率下的SDXL推理,Forge可提升30-75%的速度,最大分辨率提升2-3倍,最大batch size提升4-6倍。Forge保持了原版WebUI的所有功能,同时新增了DDPM、DPM++、LCM等采样器,实现了Free U、SVD、Zero123等算法。使用Forge的UNet Patcher,开发者可以用极少的代码实现算法。Forge还优化了控制网络的使用,实现真正的零内存占用调用。
TensorRT加速的Stable Diffusion扩展
Stable-Diffusion-WebUI-TensorRT是一个用于Stable Diffusion的TensorRT加速扩展,可在NVIDIA RTX GPU上实现最佳性能。该扩展需要安装并生成优化的引擎才能使用。支持Stable Diffusion 1.5和2.1版本。安装步骤请参考官方网址。使用时,可以生成默认引擎,选择TRT模型,加速生成图像。可以根据需要生成多个优化引擎。详细的使用说明和常见问题请参考官方文档。
一个强大的安卓Stable Diffusion客户端
diffusion-client是一个用于安卓的Stable Diffusion客户端。它提供了强大的图像生成能力,包括文本到图像、图像到图像、图像修复等功能。该APP支持多种模型,内置控制网调节生成效果。另外,该APP具有历史记录管理、标签提取等高级功能,同时支持扩展插件,可链接到Civitai等模型。
Stable Diffusion推理优化java实现
sd4j是一个使用ONNX Runtime的Stable Diffusion推理Java实现,以C#实现进行了优化移植,带有重复生成图像的图形界面,并支持负面文本输入。 旨在演示如何在Java中使用ONNX Runtime,以及获得良好性能的ONNX Runtime的最佳实践。 我们将使其与ONNX Runtime的最新版本保持同步,并随着通过ONNX Runtime Java API提供的性能相关ONNX Runtime功能的出现进行适当更新。 所有代码都可能会发生变化,因为这是一个代码示例,任何API都不应该被视为稳定的。
免费Stable Diffusion AI图像生成器
Stable Diffusion 是一个深度学习模型,可从文本描述生成图像。通过输入描述性文本,可以生成高质量的逼真图像。用户可以免费在线使用 Stable Diffusion,生成各种类型的艺术图像。
基于Stable Diffusion XL的图像生成模型
Mann-E Art是由Mann-E公司开发的一款基于Stable Diffusion XL的图像生成模型,专注于生成接近midjourney艺术风格的图像。该模型在训练过程中使用了约1000个midjourney输出以及团队收集的照片,擅长生成照片、艺术作品和数字绘画,但在像素艺术或矢量插画方面可能表现一般。
基于Stable Diffusion的图像生成Web界面
Stable Diffusion web UI是一个基于Stable Diffusion模型的Web界面,使用Gradio库实现,提供了多种图像生成功能,包括txt2img和img2img模式,一键安装和运行脚本,以及高级的图像处理选项,如Outpainting、Inpainting、Color Sketch等。它支持多种硬件平台,包括NVidia、AMD、Intel和Ascend NPUs,并提供了详细的安装和运行指南。
基于Stable Diffusion的LoRA模型,生成逼真动漫风格图像
RealAnime - Detailed V1 是一个基于Stable Diffusion的LoRA模型,专门用于生成逼真的动漫风格图像。该模型通过深度学习技术,能够理解并生成高质量的动漫人物图像,满足动漫爱好者和专业插画师的需求。它的重要性在于能够大幅度提高动漫风格图像的生成效率和质量,为动漫产业提供强大的技术支持。目前,该模型在Tensor.Art平台上提供,用户可以通过在线方式使用,无需下载安装,方便快捷。价格方面,用户可以通过购买Buffet计划来解锁下载权益,享受更灵活的使用方式。
用于Stable Diffusion 1.5的图像组合适配器
该适配器为Stable Diffusion 1.5设计,用于将一般图像组合注入到模型中,同时大部分忽略风格和内容。例如一个人摆手的肖像会生成一个完全不同的人在摆手的图像。该适配器的优势是允许控制更加灵活,不像Control Nets那样会严格匹配控制图像。产品由POM with BANODOCO构思,ostris训练并发布。
基于Stable Diffusion 3.5 Large模型的IP适配器
SD3.5-Large-IP-Adapter是一个基于Stable Diffusion 3.5 Large模型的IP适配器,由InstantX Team研发。该模型能够将图像处理工作类比于文本处理,具有强大的图像生成能力,并且可以通过适配器技术进一步提升图像生成的质量和效果。该技术的重要性在于其能够推动图像生成技术的发展,特别是在创意工作和艺术创作领域。产品背景信息显示,该模型是由Hugging Face和fal.ai赞助的项目,并且遵循stabilityai-ai-community的许可协议。
Stable Diffusion 3.5 Large的三款ControlNets模型
ControlNets for Stable Diffusion 3.5 Large是Stability AI推出的三款图像控制模型,包括Blur、Canny和Depth。这些模型能够提供精确和便捷的图像生成控制,适用于从室内设计到角色创建等多种应用场景。它们在用户偏好的ELO比较研究中排名第一,显示出其在同类模型中的优越性。这些模型在Stability AI社区许可下免费提供给商业和非商业用途,对于年收入不超过100万美元的组织和个人,使用完全免费,并且产出的媒体所有权归用户所有。
AI文本转GIF模型,与Stable Diffusion XL配套使用
Hotshot-XL是一个AI文本转GIF模型,训练用于与Stable Diffusion XL配套使用。Hotshot-XL可以使用任何经过微调的SDXL模型生成GIF。这意味着您可以使用任何现有或新经过微调的SDXL模型制作GIF。如果您想制作个性化主题的GIF,您可以加载自己的基于SDXL的LORAs,而无需担心对Hotshot-XL进行微调。这非常棒,因为通常很容易找到适合训练数据的图像,而找到视频则更困难。它还希望适用于每个人现有的LORA使用/工作流程。Hotshot-XL与SDXL ControlNet兼容,可以按照您想要的组合/布局制作GIF。Hotshot-XL经过训练,可以以8FPS生成1秒的GIF。Hotshot-XL经过训练,适用于各种宽高比。对于基本的Hotshot-XL模型,我们建议您使用与512x512图像进行微调的SDXL模型以获得最佳效果。您可以在此处找到我们为512x512分辨率进行微调的SDXL模型。
Civitai是一个AI艺术搜索引擎, 帮助你发现最佳的Stable Diffusion模型和图像
Civitai是一个专门为Stable Diffusion用户打造的AI艺术搜索引擎。它拥有海量标签化的模型和图像,支持按模型、艺术家、类别等进行搜索和浏览。Civitai会根据流行度和相关度对结果进行智能排序,帮你快速找到所需的模型和图片资源。它是使用Stable Diffusion的最佳搜索工具。
多平台Stable Diffusion的一键安装包 支持Mac
Stability Matrix 是一个用户友好的桌面客户端,旨在简化 Stable Diffusion 的图像生成过程。它通过一键安装和无缝的模型集成,帮助用户轻松管理和生成图像,无需深入的技术知识。该工具支持多种操作系统,并能有效管理模型资源,降低用户的学习曲线。Stability Matrix 提供稳定性和灵活性,特别适合图像创作者、设计师及数字艺术家使用。
ComfyUI实现的Omost模型
ComfyUI_omost是一个基于ComfyUI框架实现的Omost模型,它允许用户与大型语言模型(LLM)进行交互,以获取类似JSON的结构化布局提示。该模型目前处于开发阶段,其节点结构可能会有变化。它通过LLM Chat和Region Condition两个部分,将JSON条件转换为ComfyUI的区域格式,用于图像生成和编辑。
托管在 NVIDIA NGC(NVIDIA GPU Cloud 针对深度学习和科学计算优化的基于GPU加速的云平台)上的一个免费实例
Stable Diffusion XL(SDXL)是一个生成对抗网络模型,能够用更短的提示生成富有表现力的图像,并在图像中插入文字。它基于 Stability AI 开发的 Stable Diffusion 模型进行了改进,使图像生成更加高质量和可控,支持用自然语言进行本地化图像编辑。该模型可用于各种创意设计工作,如概念艺术、平面设计、视频特效等领域。
基于SDXL的ControlNet Tile模型,适用于Stable Diffusion SDXL ControlNet的高分辨率图像修复。
这是一个基于SDXL的ControlNet Tile模型,使用Hugging Face Diffusers训练集,适用于Stable Diffusion SDXL ControlNet。它最初是为我自己的逼真模型训练,用于终极放大过程以提高图像细节。使用合适的工作流程,它可以为高细节、高分辨率的图像修复提供良好的结果。由于大多数开源没有SDXL Tile模型,我决定分享这个模型。该模型支持高分辨率修复、风格迁移和图像修复等功能,可以为你提供高质量的图像处理体验。
ComfyUI节点,用于MMAudio模型的音频处理
ComfyUI-MMAudio是一个基于ComfyUI的插件,它允许用户利用MMAudio模型进行音频处理。该插件的主要优点在于能够提供高质量的音频生成和处理能力,支持多种音频模型,并且易于集成到现有的音频处理流程中。产品背景信息显示,它是由kijai开发的,并且是开源的,可以在GitHub上找到。目前,该插件主要面向技术爱好者和音频处理专业人士,可以免费使用。
Flux图像编辑节点集合于ComfyUI
ComfyUI-Fluxtapoz是一个为Flux在ComfyUI中编辑图像而设计的节点集合。它允许用户通过一系列节点操作来对图像进行编辑和风格转换,特别适用于需要进行图像处理和创意工作的专业人士。这个项目目前是开源的,遵循GPL-3.0许可协议,意味着用户可以自由地使用、修改和分发该软件,但需要遵守开源许可的相关规定。
GGUF量化支持,优化ComfyUI原生模型性能
ComfyUI-GGUF是一个为ComfyUI原生模型提供GGUF量化支持的项目。它允许模型文件以GGUF格式存储,这种格式由llama.cpp推广。尽管常规的UNET模型(conv2d)不适用于量化,但像flux这样的transformer/DiT模型似乎受量化影响较小。这使得它们可以在低端GPU上以更低的每权重变量比特率进行运行。
Stability AI推出高效低阈值文生图AI模型
Stable Cascade是一个基于Würstchen架构的文本到图像生成模型,相比其他模型使用更小的潜在空间进行训练和推理,因此在训练和推理速度上都有显著提升。该模型可以在消费级硬件上运行,降低了使用门槛。Stable Cascade在人类评估中表现突出,无论是在提示对齐还是图像质量上都超过了其他模型。总体而言,这是一个高效、易用、性能强劲的文生图AI模型。
Animagine XL 4.0 是一款专注于动漫风格的Stable Diffusion XL模型,专为生成高质量动漫图像而设计。
Animagine XL 4.0 是一款基于Stable Diffusion XL 1.0微调的动漫主题生成模型。它使用了840万张多样化的动漫风格图像进行训练,训练时长达到2650小时。该模型专注于通过文本提示生成和修改动漫主题图像,支持多种特殊标签,可控制图像生成的不同方面。其主要优点包括高质量的图像生成、丰富的动漫风格细节以及对特定角色和风格的精准还原。该模型由Cagliostro Research Lab开发,采用CreativeML Open RAIL++-M许可证,允许商业使用和修改。
ComfyUI下的非官方InstantID实现
这是一个在 ComfyUI 环境下对 InstantID 的非官方实现,可以让用户无需部署服务端就可以体验 InstantID 带来的人物图像生成效果。它支持从 huggingface hub 自动下载模型,也可以加载本地模型。兼容各种文本提示词输入和 styler,可以轻松实现不同风格的人物图像生成。
ComfyUI 实现的 ProPainter 框架用于视频修补。
ComfyUI ProPainter Nodes 是基于 ProPainter 框架的视频修补插件,利用流传播和时空转换器实现高级视频帧编辑,适用于无缝修补任务。该插件具有用户友好的界面和强大的功能,旨在简化视频修补过程。
为ComfyUI定制的字体到图像动画节点
ComfyUI-Mana-Nodes是一套为ComfyUI设计的自定义节点,包括将字体转换为图像动画的功能。用户可以通过这些节点创建动态图像和视频效果。项目遵循MIT许可证,鼓励社区贡献和个性化定制。
Krita中的AI图像生成插件,无需调整即可修复和扩展画布。
krita-ai-diffusion是一个开源的Krita插件,旨在简化AI图像生成过程。它允许用户在Krita中通过AI技术修复图像中的选定区域、扩展画布以及从头开始创建新图像。插件支持文本提示,并提供强大的自定义选项,适合高级用户。它利用了Stable Diffusion技术,并与ComfyUI后端结合,提供了本地化、无需调整的图像生成体验。
ComfyUI的API服务端,用于为ComfyUI客户端提供后端支持
ComfyUI-APISR是ComfyUI项目的API服务端部分,它为ComfyUI客户端应用提供必要的后端支持。ComfyUI是一个旨在提供舒适用户体验的用户界面框架。
© 2025 AIbase 备案号:闽ICP备08105208号-14