需求人群:
"适合研究人员、开发者等,可用于游戏设计等创意产业,因其能生成高质量图像。"
使用场景示例:
设计师生成游戏角色概念图
广告公司生成广告海报草图
研究人员生成虚拟现实环境背景
产品特色:
支持 512px 到 2048px 图像生成且分辨率需被 32 整除
推理速度每秒 1 步(A100 设备测试)
支持 BF16/FP32 精度
开启模型 CPU 卸载可降内存消耗
提供快速开始指南
开源遵循 Apache 2.0 许可协议
提供详细模型卡和文件
使用教程:
1. 安装 diffusers 库。
2. 初始化 CogView3PlusPipeline。
3. 运行代码生成图像。
4. 启用模型 CPU 卸载。
5. 设置文本提示生成图像。
6. 保存生成的图像。
浏览量:55
最新流量情况
月访问量
19075.32k
平均访问时长
00:05:32
每次访问页数
5.52
跳出率
45.07%
流量来源
直接访问
48.31%
自然搜索
36.36%
邮件
0.03%
外链引荐
12.17%
社交媒体
3.11%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
13.13%
印度
7.59%
日本
3.67%
俄罗斯
6.13%
美国
18.18%
开源文本到图像生成模型
AuraFlow v0.3是一个完全开源的基于流的文本到图像生成模型。与之前的版本AuraFlow-v0.2相比,该模型经过了更多的计算训练,并在美学数据集上进行了微调,支持各种宽高比,宽度和高度可达1536像素。该模型在GenEval上取得了最先进的结果,目前处于beta测试阶段,正在不断改进中,社区反馈非常重要。
基于文本生成服装图像的AI模型
FLUX.1-dev LoRA Outfit Generator是一个文本到图像的AI模型,能够根据用户详细描述的颜色、图案、合身度、风格、材质和类型来生成服装。该模型使用了H&M Fashion Captions Dataset数据集进行训练,并基于Ostris的AI Toolkit进行开发。它的重要性在于能够辅助设计师快速实现设计想法,加速服装行业的创新和生产流程。
轻量级推理模型,用于生成高质量图像
Stable Diffusion 3.5是一个用于简单推理的轻量级模型,它包含了文本编码器、VAE解码器和核心MM-DiT技术。该模型旨在帮助合作伙伴组织实现SD3.5,并且可以用于生成高质量的图像。它的重要性在于其高效的推理能力和对资源的低要求,使得广泛的用户群体能够使用和享受生成图像的乐趣。该模型遵循Stability AI Community License Agreement,并且可以免费使用。
最先进的图像生成模型
FLUX1.1 [pro] 是 Black Forest Labs 发布的最新图像生成模型,它在速度和图像质量上都有显著提升。该模型提供六倍于前代的速度,同时改善了图像质量、提示遵循度和多样性。FLUX1.1 [pro] 还提供了更高级的定制化选项,以及更优的性价比,适合需要高效、高质量图像生成的开发者和企业。
谷歌旗下领先的人工智能研究公司
Google DeepMind 是谷歌旗下的一家领先的人工智能公司,专注于开发先进的机器学习算法和系统。DeepMind 以其在深度学习和强化学习领域的开创性工作而闻名,其研究涵盖了从游戏到医疗保健等多个领域。DeepMind 的目标是通过构建智能系统来解决复杂的问题,推动科学和医学的进步。
生成新视角的图像,保持语义信息。
GenWarp是一个用于从单张图像生成新视角图像的模型,它通过语义保持的生成变形框架,使文本到图像的生成模型能够学习在哪里变形和在哪里生成。该模型通过增强交叉视角注意力与自注意力来解决现有方法的局限性,通过条件化生成模型在源视图图像上,并纳入几何变形信号,提高了在不同领域场景下的性能。
高效能的文本到图像生成模型
SDXL Flash是由SD社区与Project Fluently合作推出的文本到图像生成模型。它在保持生成图像质量的同时,提供了比LCM、Turbo、Lightning和Hyper更快的处理速度。该模型基于Stable Diffusion XL技术,通过优化步骤和CFG(Guidance)参数,实现了图像生成的高效率和高质量。
实时一步潜在扩散模型,可用图像条件控制生成
SDXS是一种新的扩散模型,通过模型微型化和减少采样步骤,大幅降低了模型延迟。它利用知识蒸馏来简化U-Net和图像解码器架构,并引入了一种创新的单步DM训练技术,使用特征匹配和分数蒸馆。SDXS-512和SDXS-1024模型可在单个GPU上分别实现约100 FPS和30 FPS的推理速度,比之前模型快30至60倍。此外,该训练方法在图像条件控制方面也有潜在应用,可实现高效的图像到图像翻译。
用于精细文本控制图像生成的空间对齐文本注入
FineControlNet是一个基于Pytorch的官方实现,用于生成可通过空间对齐的文本控制输入(如2D人体姿势)和实例特定的文本描述来控制图像实例的形状和纹理的图像。它可以使用从简单的线条画作为空间输入,到复杂的人体姿势。FineControlNet确保了实例和环境之间自然的交互和视觉协调,同时获得了Stable Diffusion的质量和泛化能力,但具有更多的控制能力。
AI图像生成器
Stable Diffusion 是一个深度学习模型,可以从文本描述生成图像。它提供高质量的图像生成,可以根据简单的文本输入创建逼真的图像。它具有快速生成的优势,可以通过修复和扩展图像的大小来添加或替换图像的部分。Stable Diffusion XL是该模型的最新版本,使用更大的UNet骨干网络生成更高质量的图像。您可以免费在Stable Diffusion在线使用这个AI图像生成器。
实时文本转图像生成模型
SDXL Turbo是一种实时文本到图像模型,基于一种名为对抗扩散蒸馏(ADD)的新蒸馏技术。该模型能够在单步内合成图像输出,并在维持高采样保真度的同时实现实时文本到图像输出。SDXL Turbo还提供了主要改进,包括推理速度的显著提高。
3D网格生成与语言模型的统一
LLaMA-Mesh是一项将大型语言模型(LLMs)预训练在文本上扩展到生成3D网格的能力的技术。这项技术利用了LLMs中已经嵌入的空间知识,并实现了对话式3D生成和网格理解。LLaMA-Mesh的主要优势在于它能够将3D网格的顶点坐标和面定义表示为纯文本,允许与LLMs直接集成而无需扩展词汇表。该技术的主要优点包括能够从文本提示生成3D网格、按需产生交错的文本和3D网格输出,以及理解和解释3D网格。LLaMA-Mesh在保持强大的文本生成性能的同时,实现了与从头开始训练的模型相当的网格生成质量。
基于文本提示修订图像的大型扩散模型
SeedEdit是Doubao Team推出的大型扩散模型,用于根据任何文本提示修订图像。它通过逐步将图像生成器与强大的图像编辑器对齐,实现了图像重建和图像再生之间的最佳平衡。SeedEdit能够实现高审美/分辨率图像的零样本稳定编辑,并支持图像的连续修订。该技术的重要性在于其能够解决图像编辑问题中成对图像数据稀缺的核心难题,通过将文本到图像(T2I)生成模型视为弱编辑模型,并通过生成带有新提示的新图像来实现“编辑”,然后将其蒸馏并与之对齐到图像条件编辑模型中。
从单张图片创建可控3D和4D场景的视频扩散模型
DimensionX是一个基于视频扩散模型的3D和4D场景生成技术,它能够从单张图片中创建出具有可控视角和动态变化的三维和四维场景。这项技术的主要优点包括高度的灵活性和逼真度,能够根据用户提供的提示词生成各种风格和主题的场景。DimensionX的背景信息显示,它是由一群研究人员共同开发的,旨在推动图像生成技术的发展。目前,该技术是免费提供给研究和开发社区使用的。
构建视频搜索和摘要代理,提取视频洞察
NVIDIA Video Search and Summarization 是一个利用深度学习和人工智能技术,能够处理大量实时或存档视频,并从中提取信息以进行摘要和交互式问答的模型。该产品代表了视频内容分析和处理技术的最新进展,它通过生成式AI和视频到文本的技术,为用户提供了一种全新的视频内容管理和检索方式。NVIDIA Video Search and Summarization 的主要优点包括高效的视频内容分析、准确的摘要生成和交互式问答能力,这些功能对于需要处理大量视频数据的企业来说至关重要。产品背景信息显示,NVIDIA 致力于通过其先进的AI模型,推动视频内容的智能化处理和分析。
训练无关的区域提示扩散变换器模型
Regional-Prompting-FLUX是一种训练无关的区域提示扩散变换器模型,它能够在无需训练的情况下,为扩散变换器(如FLUX)提供细粒度的组合文本到图像生成能力。该模型不仅效果显著,而且与LoRA和ControlNet高度兼容,能够在保持高速度的同时减少GPU内存的使用。
首个同时支持文生和图生的3D开源模型
腾讯混元3D是一个开源的3D生成模型,旨在解决现有3D生成模型在生成速度和泛化能力上的不足。该模型采用两阶段生成方法,第一阶段使用多视角扩散模型快速生成多视角图像,第二阶段通过前馈重建模型快速重建3D资产。混元3D-1.0模型能够帮助3D创作者和艺术家自动化生产3D资产,支持快速单图生3D,10秒内完成端到端生成,包括mesh和texture提取。
开源的全双工音频生成基础模型
hertz-dev是Standard Intelligence开源的全双工、仅音频的变换器基础模型,拥有85亿参数。该模型代表了可扩展的跨模态学习技术,能够将单声道16kHz语音转换为8Hz潜在表示,具有1kbps的比特率,性能优于其他音频编码器。hertz-dev的主要优点包括低延迟、高效率和易于研究人员进行微调和构建。产品背景信息显示,Standard Intelligence致力于构建对全人类有益的通用智能,而hertz-dev是这一旅程的第一步。
基于人工智能的图像生成模型
Stable Diffusion 3.5 Medium 是由 Stability AI 提供的一款基于人工智能的图像生成模型,它能够根据文本描述生成高质量的图像。这项技术的重要性在于它能够极大地推动创意产业的发展,如游戏设计、广告、艺术创作等领域。Stable Diffusion 3.5 Medium 以其高效的图像生成能力、易用性和较低的资源消耗而受到用户的青睐。目前,该模型在 Hugging Face 平台上以免费试用的形式提供给用户。
基于文本生成图像的多模态扩散变换器模型
Stable Diffusion 3.5 Medium是一个基于文本到图像的生成模型,由Stability AI开发,具有改进的图像质量、排版、复杂提示理解和资源效率。该模型使用了三个固定的预训练文本编码器,通过QK-规范化提高训练稳定性,并在前12个变换层中引入双注意力块。它在多分辨率图像生成、一致性和各种文本到图像任务的适应性方面表现出色。
8B参数变分自编码器模型,用于高效的文本到图像生成。
Flux.1 Lite是一个由Freepik发布的8B参数的文本到图像生成模型,它是从FLUX.1-dev模型中提取出来的。这个版本相较于原始模型减少了7GB的RAM使用,并提高了23%的运行速度,同时保持了与原始模型相同的精度(bfloat16)。该模型的发布旨在使高质量的AI模型更加易于获取,特别是对于消费级GPU用户。
超轻量级数字人模型,移动端实时运行
Ultralight-Digital-Human是一个超轻量级的数字人模型,可以在移动端实时运行。这个模型是开源的,据开发者所知,它是第一个如此轻量级的开源数字人模型。该模型的主要优点包括轻量级设计,适合移动端部署,以及实时运行的能力。它的背后是深度学习技术,特别是在人脸合成和声音模拟方面的应用,这使得数字人模型能够以较低的资源消耗实现高质量的表现。产品目前是免费的,主要面向技术爱好者和开发者。
基于Flux的IC-Light模型,专注于图像细节保留和风格化处理
IC-Light V2是一系列基于Flux的IC-Light模型,采用16ch VAE和原生高分辨率技术。该模型在细节保留、风格化图像处理等方面相较于前代有显著提升。它特别适合需要在保持图像细节的同时进行风格化处理的应用场景。目前,该模型以非商业性质发布,主要面向个人用户和研究者。
高效能的文本到图像生成模型
Stable Diffusion 3.5 Large Turbo 是一个基于文本生成图像的多模态扩散变换器(MMDiT)模型,采用了对抗性扩散蒸馏(ADD)技术,提高了图像质量、排版、复杂提示理解和资源效率,特别注重减少推理步骤。该模型在生成图像方面表现出色,能够理解和生成复杂的文本提示,适用于多种图像生成场景。它在Hugging Face平台上发布,遵循Stability Community License,适合研究、非商业用途以及年收入少于100万美元的组织或个人免费使用。
高性能的文本到图像生成模型
Stable Diffusion 3.5 Large 是一个基于文本生成图像的多模态扩散变换器(MMDiT)模型,由 Stability AI 开发。该模型在图像质量、排版、复杂提示理解和资源效率方面都有显著提升。它使用三个固定的预训练文本编码器,并通过 QK 归一化技术提高训练稳定性。此外,该模型在训练数据和策略上使用了包括合成数据和过滤后的公开可用数据。Stable Diffusion 3.5 Large 模型在遵守社区许可协议的前提下,可以免费用于研究、非商业用途,以及年收入少于100万美元的组织或个人的商业用途。
基于文本生成高质量图像的AI模型
SD3.5-LoRA-Linear-Red-Light是一个基于文本到图像生成的AI模型,通过使用LoRA(Low-Rank Adaptation)技术,该模型能够根据用户提供的文本提示生成高质量的图像。这种技术的重要性在于它能够以较低的计算成本实现模型的微调,同时保持生成图像的多样性和质量。该模型基于Stable Diffusion 3.5 Large模型,并在此基础上进行了优化和调整,以适应特定的图像生成需求。
强大的图像生成模型
Stable Diffusion 3.5是Stability AI推出的一款图像生成模型,具有多种变体,包括Stable Diffusion 3.5 Large和Stable Diffusion 3.5 Large Turbo。这些模型可高度定制,能在消费级硬件上运行,并且根据Stability AI社区许可协议,可以免费用于商业和非商业用途。该模型的发布体现了Stability AI致力于让视觉媒体变革的工具更易于获取、更前沿、更自由的使命。
文本到图像生成的自适应工作流
ComfyGen 是一个专注于文本到图像生成的自适应工作流系统,它通过学习用户提示来自动化并定制有效的工作流。这项技术的出现,标志着从使用单一模型到结合多个专业组件的复杂工作流的转变,旨在提高图像生成的质量。ComfyGen 背后的主要优点是能够根据用户的文本提示自动调整工作流,以生成更高质量的图像,这对于需要生成特定风格或主题图像的用户来说非常重要。
© 2024 AIbase 备案号:闽ICP备08105208号-14