需求人群:
适用于需要在 Mac 上本地运行稳定 Diffusion 模型的用户。
产品特色:
图像转换
图像修复
图像生成历史记录
图像放大
多种图像尺寸
针对 M1/M2 芯片进行优化
支持负向提示和高级提示选项
控制网络
浏览量:110
最新流量情况
月访问量
4.58m
平均访问时长
00:07:29
每次访问页数
6.65
跳出率
37.90%
流量来源
直接访问
51.57%
自然搜索
29.65%
邮件
0.89%
外链引荐
11.44%
社交媒体
6.43%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
美国
16.83%
中国
14.47%
印度
9.23%
日本
3.69%
德国
3.38%
StoryDiffusion 能够通过生成一致的图像和视频来创造魔法故事。
StoryDiffusion 是一个开源的图像和视频生成模型,它通过一致自注意力机制和运动预测器,能够生成连贯的长序列图像和视频。这个模型的主要优点在于它能够生成具有角色一致性的图像,并且可以扩展到视频生成,为用户提供了一个创造长视频的新方法。该模型对AI驱动的图像和视频生成领域有积极的影响,并且鼓励用户负责任地使用该工具。
最可靠的AI检测器,识别AI生成的内容和图像
Winston AI是最可靠的AI检测器,可以准确识别使用AI工具生成的文本和图像。它被数十万用户使用,并得到世界上最大的出版商和机构的信任。它能够以非凡的准确性识别由Midjourney DALL E Stable Diffusion等生成的图像。使用我们的Chrome插件,您可以在网页上直接扫描任何内容或图像,以检测其中是否使用了AI。为了保护隐私,使用Chrome插件进行的扫描不会被保存在任何地方。
Illusion Diffusion是一款免费创新的AI工具,通过文本提示将普通照片转化为迷人的图像,将艺术之美与AI技术相结合。
Illusion Diffusion是一款免费创新的AI工具,通过Stable Diffusion和Controlnet AI模型,将普通照片转化为艺术品,提供文本提示来生成视觉错觉和超现实图像。
创建你的 ComfyUI 工作流程应用,并与他人分享
ComfyFlow 是一个基于 ComfyUI 的工作流程应用创建平台,能够快速创建工作流程应用并与他人分享。它使用稳定扩散(Stable Diffusion)和 ComfyUI 技术构建,具有简单易用、完全托管、免费使用等优点。
一种优化扩散模型采样时间表的方法,以提高生成模型的输出质量。
Align Your Steps 是一种用于优化扩散模型(Diffusion Models, DMs)采样时间表的方法。这种方法利用随机微积分的方法,为不同的求解器、训练有素的DMs和数据集找到特定的最优采样时间表。它通过最小化KLUB项来优化时间离散化,即采样调度,从而在相同的计算预算下提高输出质量。该方法在图像、视频以及2D玩具数据合成基准测试中表现出色,优化的采样时间表在几乎所有实验中都优于之前手工制定的时间表。
HiDiffusion,解锁预训练扩散模型中的高分辨率创作与效率。
HiDiffusion是一个预训练扩散模型,通过仅添加一行代码即可提高扩散模型的分辨率和速度。该模型通过Resolution-Aware U-Net (RAU-Net)和Modified Shifted Window Multi-head Self-Attention (MSW-MSA)技术,动态调整特征图大小以解决对象复制问题,并优化窗口注意力以减少计算量。HiDiffusion能够将图像生成分辨率扩展到4096×4096,同时保持1.5-6倍于以往方法的推理速度。
优化 Prompt 设计,多种 AI 应用支持
ClickPrompt 是一款专为 Prompt 编写者设计的工具,支持 Stable Diffusion、ChatGPT 和 GitHub Copilot 等多种 AI 应用。用户可轻松查看、分享、一键运行模型,并使用在线 Prompt 生成器创建符合需求的 Prompt。
先进的文本到图像生成系统
Stable Diffusion 3是一款先进的文本到图像生成系统,它在排版和提示遵循方面与DALL-E 3和Midjourney v6等顶尖系统相匹敌或更优。该系统采用新的多模态扩散变换器(MMDiT)架构,使用不同的权重集来改善图像和语言的表示,从而提高文本理解和拼写能力。Stable Diffusion 3 API现已在Stability AI开发者平台上线,与Fireworks AI合作提供快速可靠的API服务,并承诺在不久的将来通过Stability AI会员资格开放模型权重以供自托管。
AI创造性视觉的突破性AI
Stable Diffusion 3是Stability AI推出的最新创新,为创造性图像生成带来突破性的AI。它提供了改进的文本到图像生成算法、多模态能力和用户友好的许可证,免费使用SDXLTurbo.ai。革新设计、动画、游戏等领域,提升文本到图像生成、多模态能力和用户友好的许可证。探索、创造、转化。
基于SDXL的ControlNet Tile模型,适用于Stable Diffusion SDXL ControlNet的高分辨率图像修复。
这是一个基于SDXL的ControlNet Tile模型,使用Hugging Face Diffusers训练集,适用于Stable Diffusion SDXL ControlNet。它最初是为我自己的逼真模型训练,用于终极放大过程以提高图像细节。使用合适的工作流程,它可以为高细节、高分辨率的图像修复提供良好的结果。由于大多数开源没有SDXL Tile模型,我决定分享这个模型。该模型支持高分辨率修复、风格迁移和图像修复等功能,可以为你提供高质量的图像处理体验。
RWKV架构的可扩展扩散模型
Diffusion-RWKV是一种基于RWKV架构的扩散模型,旨在提高扩散模型的可扩展性。它针对图像生成任务进行了相应的优化和改进,可以生成高质量的图像。该模型支持无条件和类条件训练,具有较好的性能和可扩展性。
专注于动漫风格的生成模型,呈现细腻的画面效果
AWPainting是一款基于Stable Diffusion的图像生成模型,专注于动漫风格的图像生成。相比于标准模型,AWPainting在光照和细节表现方面有着更出色的效果,画面更加细腻、有呼吸感,人物面部光照更加柔和自然。同时AWPainting也对Prompt指令的响应更加良好。无论是单纯的动漫风格图像生成,还是动画化真人照片等场景,AWPainting都能提供满意的输出效果。
用于Stable Diffusion 1.5的图像组合适配器
该适配器为Stable Diffusion 1.5设计,用于将一般图像组合注入到模型中,同时大部分忽略风格和内容。例如一个人摆手的肖像会生成一个完全不同的人在摆手的图像。该适配器的优势是允许控制更加灵活,不像Control Nets那样会严格匹配控制图像。产品由POM with BANODOCO构思,ostris训练并发布。
用于精细文本控制图像生成的空间对齐文本注入
FineControlNet是一个基于Pytorch的官方实现,用于生成可通过空间对齐的文本控制输入(如2D人体姿势)和实例特定的文本描述来控制图像实例的形状和纹理的图像。它可以使用从简单的线条画作为空间输入,到复杂的人体姿势。FineControlNet确保了实例和环境之间自然的交互和视觉协调,同时获得了Stable Diffusion的质量和泛化能力,但具有更多的控制能力。
为扩散模型提供一致性分辨率适配
ResAdapter是一个为扩散模型(如Stable Diffusion)设计的分辨率适配器,它能够在保持风格域一致性的同时,生成任意分辨率和宽高比的图像。与处理静态分辨率图像的多分辨率生成方法不同,ResAdapter直接生成动态分辨率的图像,提高了推理效率并减少了额外的推理时间。
Layer Diffusion自定义节点实现
ComfyUI-layerdiffusion是一个GitHub项目,提供了Layer Diffusion模型的自定义节点实现。该项目允许用户通过Python依赖安装,并且目前仅支持SDXL模型。项目的目标是为ComfyUI用户提供Layer Diffusion模型的便捷集成。
免费Stable Diffusion AI图像生成器
Stable Diffusion 是一个深度学习模型,可从文本描述生成图像。通过输入描述性文本,可以生成高质量的逼真图像。用户可以免费在线使用 Stable Diffusion,生成各种类型的艺术图像。
AI图像生成器
Stable Diffusion 是一个深度学习模型,可以从文本描述生成图像。它提供高质量的图像生成,可以根据简单的文本输入创建逼真的图像。它具有快速生成的优势,可以通过修复和扩展图像的大小来添加或替换图像的部分。Stable Diffusion XL是该模型的最新版本,使用更大的UNet骨干网络生成更高质量的图像。您可以免费在Stable Diffusion在线使用这个AI图像生成器。
神经网络扩散模型实现
Neural Network Diffusion是由新加坡国立大学高性能计算与人工智能实验室开发的神经网络扩散模型。该模型利用扩散过程生成高质量的图像,适用于图像生成和修复等任务。
一个强大的安卓Stable Diffusion客户端
diffusion-client是一个用于安卓的Stable Diffusion客户端。它提供了强大的图像生成能力,包括文本到图像、图像到图像、图像修复等功能。该APP支持多种模型,内置控制网调节生成效果。另外,该APP具有历史记录管理、标签提取等高级功能,同时支持扩展插件,可链接到Civitai等模型。
Stability AI 推出图像提升增强工具:Creative Upscaler 可以将图像升级到 4k 分辨率,并创造以前没有的新细节和赋予图像新生命。
Creative Upscaler是一个基于AI的图片生成器,可以让任何人快速轻松地创建高质量的艺术作品。它整合了多种前沿的机器学习算法,如Stable Diffusion、DALL-E 2、VQGAN+CLIP等,支持生成各种风格的图像。用户只需要提供文字描述,Creative Upscaler就可以自动生成图片。同时,它还有创造性的图像上样器功能,可以把低分辨率图片转换成高清大图。Creative Upscaler完全免费使用,拥有庞大活跃的社区,是探索AI艺术的最佳选择。
OOTDiffusion是一个高度可控的虚拟服装试穿开源工具
OOTDiffusion是一个基于潜在扩散模型的虚拟服装试穿开源工具。它支持半身和全身两种模型,可以实现服装的自然融合。用户可以通过调节各种参数实现对试穿效果的精确控制,满足不同的需求。该工具开源在GitHub上,已获得超过300星的关注。
无需GPU,轻松创作稳定的Diffusion
DiffusionHub是一个稳定的Diffusion云平台,让用户轻松启动实例、存储生成结果,无需GPU即可进行创作。探索Automatic1111、Comfy和Kohya,享受无缝的创作体验。
开放式基于提示的图像生成
GLIGEN是一个开放式的基于文本提示的图像生成模型,它可以基于文本描述和边界框等限定条件生成图像。该模型通过冻结预训练好的文本到图像Diffusion模型的参数,并在其中插入新的数据来实现。这种模块化设计可以高效地进行训练,并具有很强的推理灵活性。GLIGEN可以支持开放世界的有条件图像生成,对新出现的概念和布局也具有很强的泛化能力。
SegMoE 是一个强大的框架,能够在几分钟内将稳定扩散模型动态组合成专家混合体,无需训练。
SegMoE 是一个强大的框架,能够在几分钟内将稳定扩散模型动态组合成专家混合体,无需训练。该框架支持即时创建更大的模型,提供更多知识、更好的粘附性和更好的图像质量。它受到 mergekit 的 mixtral 分支的启发,但专为 Stable Diffusion 模型设计。安装简单,使用方便,适用于图像生成和合成任务。
© 2024 AIbase 备案号:闽ICP备2023012347号-1