需求人群:
["快速为Unreal Engine场景生成纹理","细化和修复自动生成的纹理","通过图像到图像工作流进行纹理设计"]
使用场景示例:
使用Comfy Textures插件快速为场景模型自动生成纹理
通过多视点纹理投影为复杂场景生成逼真纹理
使用纹理编辑模式修复自动生成纹理中的缺陷
产品特色:
单视点纹理投影
多视点纹理投影
透视摄像机支持
正交摄像机支持
纹理编辑和修复
图像到图像工作流
远程ComfyUI实例支持
浏览量:106
创建你的 ComfyUI 工作流程应用,并与他人分享
ComfyFlow 是一个基于 ComfyUI 的工作流程应用创建平台,能够快速创建工作流程应用并与他人分享。它使用稳定扩散(Stable Diffusion)和 ComfyUI 技术构建,具有简单易用、完全托管、免费使用等优点。
用AI打造逼真的虚拟角色,为游戏、VR、教育等领域提供交互式体验
Charisma是一个易于使用的平台,可创建逼真和生动的虚拟角色。Charisma的对话引擎由先进的机器学习技术驱动,可用于游戏、VR、教育等领域,为用户提供交互式体验。Charisma支持多种语言,可轻松连接到Unreal Engine、Unity、移动设备和元宇宙。Charisma的实时分析功能可提供即时反馈和动态叙事。Charisma的使用场景包括娱乐、教育、培训等领域,可用于创造历史或虚构人物的对话,使复杂的故事或课程更具吸引力和记忆性。Charisma是一个免费的平台,可用于创建和发布交互式故事。
创建逼真的3D头像
Avaturn是一个可以使用自拍照片创建逼真且可定制的3D头像的平台。它提供了丰富的头像定制选项,包括身体类型、发型、服装和配饰等,可以创建超过10,000种独特的造型。用户可以将头像导出为3D模型,加载到Blender、Unity、Unreal Engine、Maya、Cinema4D或其他3D环境中使用。头像带有标准的人形骨骼系统,与Mixamo动画和VTubing软件兼容。
使用ollama Python客户端与ComfyUI工作流集成的大型语言模型(LLM)
ComfyUI Ollama是为ComfyUI工作流设计的自定义节点,它使用ollama Python客户端,允许用户轻松地将大型语言模型(LLM)集成到他们的工作流程中,或者仅仅是进行GPT实验。这个插件的主要优点在于它提供了与Ollama服务器交互的能力,使得用户可以执行图像查询、通过给定的提示查询LLM,以及使用精细调整参数进行LLM查询,同时保持生成链的上下文。
最可靠的AI检测器,识别AI生成的内容和图像
Winston AI是最可靠的AI检测器,可以准确识别使用AI工具生成的文本和图像。它被数十万用户使用,并得到世界上最大的出版商和机构的信任。它能够以非凡的准确性识别由Midjourney DALL E Stable Diffusion等生成的图像。使用我们的Chrome插件,您可以在网页上直接扫描任何内容或图像,以检测其中是否使用了AI。为了保护隐私,使用Chrome插件进行的扫描不会被保存在任何地方。
Illusion Diffusion是一款免费创新的AI工具,通过文本提示将普通照片转化为迷人的图像,将艺术之美与AI技术相结合。
Illusion Diffusion是一款免费创新的AI工具,通过Stable Diffusion和Controlnet AI模型,将普通照片转化为艺术品,提供文本提示来生成视觉错觉和超现实图像。
优化 Prompt 设计,多种 AI 应用支持
ClickPrompt 是一款专为 Prompt 编写者设计的工具,支持 Stable Diffusion、ChatGPT 和 GitHub Copilot 等多种 AI 应用。用户可轻松查看、分享、一键运行模型,并使用在线 Prompt 生成器创建符合需求的 Prompt。
先进的文本到图像生成系统
Stable Diffusion 3是一款先进的文本到图像生成系统,它在排版和提示遵循方面与DALL-E 3和Midjourney v6等顶尖系统相匹敌或更优。该系统采用新的多模态扩散变换器(MMDiT)架构,使用不同的权重集来改善图像和语言的表示,从而提高文本理解和拼写能力。Stable Diffusion 3 API现已在Stability AI开发者平台上线,与Fireworks AI合作提供快速可靠的API服务,并承诺在不久的将来通过Stability AI会员资格开放模型权重以供自托管。
AI创造性视觉的突破性AI
Stable Diffusion 3是Stability AI推出的最新创新,为创造性图像生成带来突破性的AI。它提供了改进的文本到图像生成算法、多模态能力和用户友好的许可证,免费使用SDXLTurbo.ai。革新设计、动画、游戏等领域,提升文本到图像生成、多模态能力和用户友好的许可证。探索、创造、转化。
基于SDXL的ControlNet Tile模型,适用于Stable Diffusion SDXL ControlNet的高分辨率图像修复。
这是一个基于SDXL的ControlNet Tile模型,使用Hugging Face Diffusers训练集,适用于Stable Diffusion SDXL ControlNet。它最初是为我自己的逼真模型训练,用于终极放大过程以提高图像细节。使用合适的工作流程,它可以为高细节、高分辨率的图像修复提供良好的结果。由于大多数开源没有SDXL Tile模型,我决定分享这个模型。该模型支持高分辨率修复、风格迁移和图像修复等功能,可以为你提供高质量的图像处理体验。
时空融合,动态模型
MagicTime是将MagicTime时间Lora融合到Animatediff v3动态模型中,以及将其空间Lora转换为.safetensors格式。在ComfyUI和AnimatediffEvolved中一起使用。功能强大,提供高质量的时空融合效果,适用于动态模型应用。定价视具体用途而定,定位于提供先进的时空融合技术。
将 Google Gemini 引入到 ComfyUI 中,用于生成提示词和对话
ComfyUI-Gemini 是一款将 Google Gemini 模型集成到 ComfyUI 中的插件。用户可以利用 Gemini 模型生成提示词、与之对话聊天,并且支持多模态输入如图像。该插件免费使用,提供隐式和显式两种 API Key 使用方式,适合个人和团队使用。
用于增强图像动态范围和视觉吸引力的图像处理应用程序
ComfyUI-SuperBeasts是一款用于增强图像动态范围和视觉吸引力的图像处理应用程序。它提供了一组可调整的参数,用于根据用户偏好微调HDR效果。该应用程序具有以下特点:调整阴影、高光和整体HDR效果的强度;应用伽马校正以控制整体亮度和对比度;增强对比度和色彩饱和度,使结果更加生动;通过在LAB颜色空间处理图像来保留颜色准确性;利用基于亮度的掩码进行针对性调整;将调整后的亮度与原始亮度进行混合,以实现平衡效果。
ComfyUI 的 IPAdapter 模型参考实现
这是一个 ComfyUI 的 IPAdapter 模型参考实现。IPAdapter 是一种非常强大的模型,用于基于一个或多个参考图像进行图像到图像的条件生成。通过文本提示、控制网络和掩码,您可以生成增强图像的变体。可以将其视为单张图像的 Lora。该实现代码内存高效、运行快速,并且不会因 Comfy 更新而中断。作为开源项目,开发者欢迎捐赠以支持项目维护和新功能开发。
使用云 GPU 资源在本地 ComfyUI 上运行您的工作流程
ComfyUI-Cloud 是一个自定义节点,它使用户可以在本地完全控制 ComfyUI 的同时,利用云 GPU 资源来运行他们的工作流程。它允许用户运行需要高 VRAM 的工作流程,而不需要将自定义节点/模型导入云提供商或花费金钱购买新的 GPU。
ComfyUI和N-Sidebar的组合,用于创建舒适的用户界面和导航栏
ComfyUI-N-Sidebar是一个开源项目,它结合了ComfyUI和N-Sidebar两个库,旨在为用户提供一个舒适且易于使用的用户界面和导航栏。该项目通过简化界面元素和优化交互设计,提高了用户体验。
专注于动漫风格的生成模型,呈现细腻的画面效果
AWPainting是一款基于Stable Diffusion的图像生成模型,专注于动漫风格的图像生成。相比于标准模型,AWPainting在光照和细节表现方面有着更出色的效果,画面更加细腻、有呼吸感,人物面部光照更加柔和自然。同时AWPainting也对Prompt指令的响应更加良好。无论是单纯的动漫风格图像生成,还是动画化真人照片等场景,AWPainting都能提供满意的输出效果。
ComfyUI的API服务端,用于为ComfyUI客户端提供后端支持
ComfyUI-APISR是ComfyUI项目的API服务端部分,它为ComfyUI客户端应用提供必要的后端支持。ComfyUI是一个旨在提供舒适用户体验的用户界面框架。
用于Stable Diffusion 1.5的图像组合适配器
该适配器为Stable Diffusion 1.5设计,用于将一般图像组合注入到模型中,同时大部分忽略风格和内容。例如一个人摆手的肖像会生成一个完全不同的人在摆手的图像。该适配器的优势是允许控制更加灵活,不像Control Nets那样会严格匹配控制图像。产品由POM with BANODOCO构思,ostris训练并发布。
用于精细文本控制图像生成的空间对齐文本注入
FineControlNet是一个基于Pytorch的官方实现,用于生成可通过空间对齐的文本控制输入(如2D人体姿势)和实例特定的文本描述来控制图像实例的形状和纹理的图像。它可以使用从简单的线条画作为空间输入,到复杂的人体姿势。FineControlNet确保了实例和环境之间自然的交互和视觉协调,同时获得了Stable Diffusion的质量和泛化能力,但具有更多的控制能力。
cog-become-image是一个可以将任何人的面部图片转换成另一张图片的工具
cog-become-image是一个AI模型,能够将任何面部图片适配到另一张图片上。该项目提供了在Replicate上运行此模型的链接,以及在ComfyUI中运行的指南。此外,还提供了在本地开发和运行Web UI的详细步骤。
一个可以解释和生成梦境场景的ComfyUI插件
ComfyUI-Dream-Interpreter是一个ComfyUI插件,可以让用户输入自己的梦境描述,插件会解释这个梦境的潜在含义,并生成一个全景梦境场景图像。生成的不仅是静态图像,还是一个支持三维交互的Canvas,用户可以仿佛身临其境般探索自己的梦境世界。这个插件将梦境描述、解释和生成相结合,为用户提供一种独特的梦境体验。
Flowty的TripoSR用户界面改进项目
ComfyUI-Flowty-TripoSR 是一个旨在改进Flowty的TripoSR用户界面的项目,使其更加舒适和直观。该项目可能包含对现有功能的增强以及新功能的添加,以提高用户体验。
为扩散模型提供一致性分辨率适配
ResAdapter是一个为扩散模型(如Stable Diffusion)设计的分辨率适配器,它能够在保持风格域一致性的同时,生成任意分辨率和宽高比的图像。与处理静态分辨率图像的多分辨率生成方法不同,ResAdapter直接生成动态分辨率的图像,提高了推理效率并减少了额外的推理时间。
为ComfyUI定制的字体到图像动画节点
ComfyUI-Mana-Nodes是一套为ComfyUI设计的自定义节点,包括将字体转换为图像动画的功能。用户可以通过这些节点创建动态图像和视频效果。项目遵循MIT许可证,鼓励社区贡献和个性化定制。
Layer Diffusion自定义节点实现
ComfyUI-layerdiffusion是一个GitHub项目,提供了Layer Diffusion模型的自定义节点实现。该项目允许用户通过Python依赖安装,并且目前仅支持SDXL模型。项目的目标是为ComfyUI用户提供Layer Diffusion模型的便捷集成。
ComfyUI的SUPIR图像放大封装器
ComfyUI-SUPIR是一个为ComfyUI设计的SUPIR图像放大封装器,它使用先进的AI技术来提升图像质量。该工具目前还在开发中,支持从原始链接下载SUPIR模型,并需要SDXL模型。它适用于非商业用途,并且对系统内存有较高要求。
© 2024 AIbase 备案号:闽ICP备2023012347号-1