需求人群:
["内容创作","艺术创作","游戏和App"]
使用场景示例:
输入'盛开的玫瑰花'生成玫瑰花图片
输入'金色 retrievier 撒欢跑'生成小狗图片
输入'火星风景,外太空'生成火星图
产品特色:
基于文本生成图像
快速生成(0.5秒内)
小巧的参数量(520M)
高质量的生成效果
浏览量:462
最新流量情况
月访问量
22216.76k
平均访问时长
00:04:50
每次访问页数
5.52
跳出率
47.80%
流量来源
直接访问
46.24%
自然搜索
30.97%
邮件
0.78%
外链引荐
13.53%
社交媒体
8.45%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
15.26%
美国
13.36%
印度
6.45%
俄罗斯
3.91%
法国
3.77%
一种用于增强身份保留文本到图像生成的反馈学习框架
ID-Aligner 是一种用于增强身份保留文本到图像生成的反馈学习框架,它通过奖励反馈学习来解决身份特征保持、生成图像的审美吸引力以及与LoRA和Adapter方法的兼容性问题。该方法利用面部检测和识别模型的反馈来提高生成的身份保留,并通过人类标注偏好数据和自动构建的反馈来提供审美调整信号。ID-Aligner 适用于LoRA和Adapter模型,通过广泛的实验验证了其有效性。
4K文本到图像生成的扩散变换器
PixArt-Sigma是一个基于PyTorch的模型定义、预训练权重和推理/采样代码的集合,用于探索4K文本到图像生成的弱到强训练扩散变换器。它支持从低分辨率到高分辨率的图像生成,提供了多种功能和优势,如快速体验、用户友好的代码库和多种模型选择。
先进的文本到图像生成系统
Stable Diffusion 3是一款先进的文本到图像生成系统,它在排版和提示遵循方面与DALL-E 3和Midjourney v6等顶尖系统相匹敌或更优。该系统采用新的多模态扩散变换器(MMDiT)架构,使用不同的权重集来改善图像和语言的表示,从而提高文本理解和拼写能力。Stable Diffusion 3 API现已在Stability AI开发者平台上线,与Fireworks AI合作提供快速可靠的API服务,并承诺在不久的将来通过Stability AI会员资格开放模型权重以供自托管。
AI创造性视觉的突破性AI
Stable Diffusion 3是Stability AI推出的最新创新,为创造性图像生成带来突破性的AI。它提供了改进的文本到图像生成算法、多模态能力和用户友好的许可证,免费使用SDXLTurbo.ai。革新设计、动画、游戏等领域,提升文本到图像生成、多模态能力和用户友好的许可证。探索、创造、转化。
训练免费高分辨率图像合成的频率视角
FouriScale从频域分析的角度探讨从预先训练的扩散模型生成高分辨率图像,通过创新的、无需训练的方法,通过将预先训练的扩散模型中的原始卷积层替换为结合膨胀技术和低通操作的方法,通过填充然后裁剪策略进一步增强,实现了灵活处理各种宽高比文本到图像生成。使用FouriScale作为指导,该方法成功平衡了生成图像的结构完整性和保真度,实现了任意尺寸、高分辨率和高质量生成的惊人能力。通过其简单性和兼容性,该方法可以为未来对超高分辨率图像合成的探索提供有价值的见解。
文本到图像生成中风格保留的 InstantStyle。
InstantStyle 是一个通用框架,利用两种简单但强大的技术,实现对参考图像中风格和内容的有效分离。其原则包括将内容从图像中分离出来、仅注入到风格块中,并提供样式风格的合成和图像生成等功能。InstantStyle 可以帮助用户在文本到图像生成过程中保持风格,为用户提供更好的生成体验。
文本编码器微调技术,提升文本到图像生成模型性能
TextCraftor是一种创新的文本编码器微调技术,能够显著提升文本到图像生成模型的性能。通过奖励函数优化,它改善了图像质量与文本对齐,无需额外数据集。
通过 AI 文本生成图像,给你完美适合的创作灵感。
Canva 的 AI 图像生成器应用程序让你随时拥有完美的图像——即使它还不存在。使用"文本到图像"功能,您只需输入文字,就能生成用于创意项目(如演示文稿或社交媒体帖子)的图像。选择不同的图像风格,如水彩、电影、霓虹灯等。您还可以使用 Canva 的其他 AI 生成器应用程序,如 DALL·E 和 Imagen。无论您是内容创作者、企业家还是艺术家,都可以使用这些工具高效创建独特的图像和品牌素材。Canva 提供免费和付费订阅,付费版可以每月生成更多图像。
基于稳定扩散生成高质量动漫风格图像的文本到图像模型
Animagine XL 3.1 是一款能够基于文本提示生成高质量动漫风格图像的文本到图像生成模型。它建立在稳定扩散 XL 的基础之上,专门针对动漫风格进行了优化。该模型具有更广泛的动漫角色知识、优化过的数据集和新的美学标签,从而提高了生成图像的质量和准确性。它旨在为动漫爱好者、艺术家和内容创作者提供有价值的资源。
官方实现的自纠正LLM控制的扩散模型
SLD是一个自纠正的LLM控制的扩散模型框架,它通过集成检测器增强生成模型,以实现精确的文本到图像对齐。SLD框架支持图像生成和精细编辑,并且与任何图像生成器兼容,如DALL-E 3,无需额外训练或数据。
参数高效微调个性化扩散模型
DiffuseKronA 是一种参数高效的微调方法,用于个性化扩散模型。它通过引入基于 Kronecker 乘积的适配模块,显著降低参数数量,提升图像合成质量。该方法减少了对超参数的敏感性,在不同超参数下生成高质量图像,为文本到图像生成模型领域带来重大进展。
一个强大的安卓Stable Diffusion客户端
diffusion-client是一个用于安卓的Stable Diffusion客户端。它提供了强大的图像生成能力,包括文本到图像、图像到图像、图像修复等功能。该APP支持多种模型,内置控制网调节生成效果。另外,该APP具有历史记录管理、标签提取等高级功能,同时支持扩展插件,可链接到Civitai等模型。
一步生成高分辨率图像
SDXL-Lightning是字节跳动开发的图像生成模型,能够在一步或少步骤内生成高达1024像素分辨率的高质量图像。该模型通过渐进式对抗式蒸馏,显著提升了图像生成速度,使其可应用于需要快速响应的场景。模型已开源,支持兼容LoRA模块和其他控制插件,可广泛用于文本到图像生成任务。
开放式基于提示的图像生成
GLIGEN是一个开放式的基于文本提示的图像生成模型,它可以基于文本描述和边界框等限定条件生成图像。该模型通过冻结预训练好的文本到图像Diffusion模型的参数,并在其中插入新的数据来实现。这种模块化设计可以高效地进行训练,并具有很强的推理灵活性。GLIGEN可以支持开放世界的有条件图像生成,对新出现的概念和布局也具有很强的泛化能力。
Stability AI推出高效低阈值文生图AI模型
Stable Cascade是一个基于Würstchen架构的文本到图像生成模型,相比其他模型使用更小的潜在空间进行训练和推理,因此在训练和推理速度上都有显著提升。该模型可以在消费级硬件上运行,降低了使用门槛。Stable Cascade在人类评估中表现突出,无论是在提示对齐还是图像质量上都超过了其他模型。总体而言,这是一个高效、易用、性能强劲的文生图AI模型。
开源双语文生图生成模型
Taiyi-Diffusion-XL是一个开源的基于Stable Diffusion训练的双语文生图生成模型,支持英文和中文的文本到图像生成,相比之前的中文文生图模型有了显著提升。它可以根据文本描述生成照片般逼真的图像,支持多种图像风格,具有较高的生成质量和多样性。该模型采用创新的训练方式,扩展了词表、位置编码以支持长文本和中文,并在大规模双语数据集上进行训练,确保了其强大的中英文生成能力。
OFT可有效稳定微调文本到图像扩散模型
Controlling Text-to-Image Diffusion研究了如何有效引导或控制强大的文本到图像生成模型进行各种下游任务。提出了正交微调(OFT)方法,可以保持模型的生成能力。OFT可以保持神经元之间的超球面能量不变,防止模型坍塌。作者考虑了两种重要的微调任务:主体驱动生成和可控生成。结果表明,OFT方法在生成质量和收敛速度上优于现有方法。
基于LLM的文本到图像生成系统
DiffusionGPT是一种基于大型语言模型(LLM)的文本到图像生成系统。它利用扩散模型构建了针对各种生成模型的领域特定树,从而能够无缝地适应各种类型的提示并集成领域专家模型。此外,DiffusionGPT引入了优势数据库,其中的思维树得到了人类反馈的丰富,使模型选择过程与人类偏好保持一致。通过广泛的实验和比较,我们展示了DiffusionGPT的有效性,展示了它在不同领域推动图像合成边界的潜力。
重新思考 FID:为图像生成提供更好的评估指标
该论文提出了对图像生成模型进行评估的新指,提出了 Frechet Inception Distance (FID) 指标存在的问题,并提出了一种新的评估指标 CMMD。通过大量实验证明,FID 指标对文本到图像模型的评估可能不可靠,而 CMMD 指标可以更可靠地评估图像质量。
基于Transformer的通用领域文本到图像生成
CogView是一个用于通用领域文本到图像生成的预训练Transformer模型。该模型包含410亿参数,能够生成高质量、多样化的图像。模型的训练思路采用抽象到具体的方式,先 pretrain 获得通用知识,然后 finetune 在特定域生成图像,能显著提升生成质量。值得一提的是,论文还提出了两种帮助大模型稳定训练的技巧:PB-relax 和 Sandwich-LN。
秒速零拍照生成身份保留
InstantID是一种基于强大扩散模型的解决方案,能够在各种风格下使用单张面部图像进行图像个性化处理,同时确保高保真度。我们设计了一个新颖的IdentityNet,通过施加强大的语义和弱空间条件,将面部和地标图像与文本提示集成,引导图像生成。InstantID在实际应用中表现出色,并且能够与流行的预训练文本到图像扩散模型(如SD1.5和SDXL)无缝集成,作为一个可适配的插件。我们的代码和预训练检查点将在此URL上提供。
多模态图像生成模型
Instruct-Imagen是一个多模态图像生成模型,通过引入多模态指令,实现对异构图像生成任务的处理,并在未知任务中实现泛化。该模型利用自然语言整合不同的模态(如文本、边缘、风格、主题等),标准化丰富的生成意图。通过在预训练文本到图像扩散模型上进行两阶段框架的微调,采用检索增强训练和多样的图像生成任务微调,使得该模型在各种图像生成数据集上的人工评估结果表明,其在领域内与先前的任务特定模型相匹配或超越,并展现出对未知和更复杂任务的有希望的泛化能力。
SCEdit是一个高效和可控制的图像扩散生成框架
SCEdit是一个由阿里巴巴提出的高效的生成模型精调框架。该框架增强了下游文本到图像生成任务的精调能力,并实现了对特定生成场景的快速适配,相比LoRA可以节省30%-50%的训练内存成本。此外,它可以直接扩展到可控图像生成任务,只需要ControlNet条件生成所需参数量的7.9%,并可以节省30%的内存使用。它支持各种条件生成任务,包括边缘图、深度图、分割图、姿态、色彩图以及图像补全等。
AI文本到图像生成工具
NeutronField是一款AI文本到图像生成工具,通过输入文字描述,即可生成对应的图像。它具有稳定的扩散算法,能够生成高质量的图像作品。NeutronField的主要功能包括根据文本生成图像、展示AI文本到图像的作品、购买和出售AI文本到图像的作品等。它的优势在于能够快速生成多样化的图像作品,满足用户的个性化需求。NeutronField的定价根据作品的复杂程度和独特性而定,用户可以根据自己的需求选择合适的作品进行购买。NeutronField定位于为用户提供便捷、高效的AI文本到图像生成服务。
基于LLMs和生成式AI模型的AI产品的基础研究和技术
LMOps是一个基于LLMs和生成式AI模型的AI产品的基础研究和技术。它提供了自动提示优化、Promptist、可扩展的提示、通用提示检索、LLM检索等功能。此外,还包括结构化提示、可扩展的提示、LLM加速器、LLM定制化和理解上下文学习等基本功能。LMOps的链接包括microsoft/unilm和microsoft/torchscale等。它适用于各种场景,如文本到图像生成、长序列提示消耗和扩展提示等。LMOps是一个开源项目,遵循MIT许可证。
基于Kandinsky扩展和Deforum特性的文本到图像生成模型
Kandinsky Deforum是一种基于Kandinsky扩展和Deforum特性的文本到图像生成模型。该模型可以将文本转换为视频,具有高效、快速、准确的特点。其核心方法包括生成参考帧、对前一帧进行小变换、通过图像到图像方法对结果图像进行扩散处理。Kandinsky Deforum的优势在于可以生成高质量的视频,同时具有良好的可扩展性和灵活性。该产品的定位是为用户提供一种高效、快速、准确的文本到图像生成模型。
低成本高质量文本到图像生成模型
PIXART-α是一种基于Transformer的文本到图像生成模型,其图像生成质量与最先进的图像生成器相当,支持高分辨率图像合成,训练速度明显优于现有的大规模T2I模型,训练成本低,可节省近30万美元,并减少90%的CO2排放。PIXART-α在图像质量、艺术性和语义控制方面表现出色,可为AIGC社区和初创企业提供新的见解,加速从头开始构建高质量、低成本的生成模型。
© 2024 AIbase 备案号:闽ICP备2023012347号-1