需求人群:
"文本到图像生成、可控图像生成、图像编辑"
使用场景示例:
使用SCEdit进行高质量文本到图像生成
基于SCEdit实现图像分割图条件下的人像生成
采用SCEdit框架进行图像颜色图条件的风景画生成
产品特色:
高效的文本到图像生成
支持各类条件图像生成任务
相比LoRA节省大量内存
支持快速适配特定生成场景
代码开源,易于使用
浏览量:38
最新流量情况
月访问量
4.58m
平均访问时长
00:07:29
每次访问页数
6.65
跳出率
37.90%
流量来源
直接访问
51.57%
自然搜索
29.65%
邮件
0.89%
外链引荐
11.44%
社交媒体
6.43%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
美国
16.83%
中国
14.47%
印度
9.23%
日本
3.69%
德国
3.38%
对视觉生成模型进行基准测试
GenAI-Arena是一个用于在野外对视觉生成模型进行基准测试的平台。用户可以匿名参与竞技,对比目标模型的表现,并投票选出更优秀的模型。平台支持不同领域的匿名模型对决,帮助用户找到最佳的条件图像生成模型。用户可以点击“New Round”开始新的对决,并通过点击按钮投票选择更优秀的模型。
文本编码器微调技术,提升文本到图像生成模型性能
TextCraftor是一种创新的文本编码器微调技术,能够显著提升文本到图像生成模型的性能。通过奖励函数优化,它改善了图像质量与文本对齐,无需额外数据集。
专注于动漫风格的生成模型,呈现细腻的画面效果
AWPainting是一款基于Stable Diffusion的图像生成模型,专注于动漫风格的图像生成。相比于标准模型,AWPainting在光照和细节表现方面有着更出色的效果,画面更加细腻、有呼吸感,人物面部光照更加柔和自然。同时AWPainting也对Prompt指令的响应更加良好。无论是单纯的动漫风格图像生成,还是动画化真人照片等场景,AWPainting都能提供满意的输出效果。
基于稳定扩散生成高质量动漫风格图像的文本到图像模型
Animagine XL 3.1 是一款能够基于文本提示生成高质量动漫风格图像的文本到图像生成模型。它建立在稳定扩散 XL 的基础之上,专门针对动漫风格进行了优化。该模型具有更广泛的动漫角色知识、优化过的数据集和新的美学标签,从而提高了生成图像的质量和准确性。它旨在为动漫爱好者、艺术家和内容创作者提供有价值的资源。
CRM是一个高保真的单图像到3D纹理网格的卷积重建模型
CRM是一个高保真的单图像到3D纹理网格的生成模型,它通过整合几何先验到网络设计中,能够从单个输入图像生成六个正交视图图像,然后利用卷积U-Net创建高分辨率的三平面(triplane)。CRM进一步使用Flexicubes作为几何表示,便于在纹理网格上进行直接的端到端优化。整个模型能够在10秒内从图像生成高保真的纹理网格,无需测试时优化。
官方实现的自纠正LLM控制的扩散模型
SLD是一个自纠正的LLM控制的扩散模型框架,它通过集成检测器增强生成模型,以实现精确的文本到图像对齐。SLD框架支持图像生成和精细编辑,并且与任何图像生成器兼容,如DALL-E 3,无需额外训练或数据。
参数高效微调个性化扩散模型
DiffuseKronA 是一种参数高效的微调方法,用于个性化扩散模型。它通过引入基于 Kronecker 乘积的适配模块,显著降低参数数量,提升图像合成质量。该方法减少了对超参数的敏感性,在不同超参数下生成高质量图像,为文本到图像生成模型领域带来重大进展。
一步生成高分辨率图像
SDXL-Lightning是字节跳动开发的图像生成模型,能够在一步或少步骤内生成高达1024像素分辨率的高质量图像。该模型通过渐进式对抗式蒸馏,显著提升了图像生成速度,使其可应用于需要快速响应的场景。模型已开源,支持兼容LoRA模块和其他控制插件,可广泛用于文本到图像生成任务。
开放式基于提示的图像生成
GLIGEN是一个开放式的基于文本提示的图像生成模型,它可以基于文本描述和边界框等限定条件生成图像。该模型通过冻结预训练好的文本到图像Diffusion模型的参数,并在其中插入新的数据来实现。这种模块化设计可以高效地进行训练,并具有很强的推理灵活性。GLIGEN可以支持开放世界的有条件图像生成,对新出现的概念和布局也具有很强的泛化能力。
Stability AI推出高效低阈值文生图AI模型
Stable Cascade是一个基于Würstchen架构的文本到图像生成模型,相比其他模型使用更小的潜在空间进行训练和推理,因此在训练和推理速度上都有显著提升。该模型可以在消费级硬件上运行,降低了使用门槛。Stable Cascade在人类评估中表现突出,无论是在提示对齐还是图像质量上都超过了其他模型。总体而言,这是一个高效、易用、性能强劲的文生图AI模型。
开源双语文生图生成模型
Taiyi-Diffusion-XL是一个开源的基于Stable Diffusion训练的双语文生图生成模型,支持英文和中文的文本到图像生成,相比之前的中文文生图模型有了显著提升。它可以根据文本描述生成照片般逼真的图像,支持多种图像风格,具有较高的生成质量和多样性。该模型采用创新的训练方式,扩展了词表、位置编码以支持长文本和中文,并在大规模双语数据集上进行训练,确保了其强大的中英文生成能力。
OFT可有效稳定微调文本到图像扩散模型
Controlling Text-to-Image Diffusion研究了如何有效引导或控制强大的文本到图像生成模型进行各种下游任务。提出了正交微调(OFT)方法,可以保持模型的生成能力。OFT可以保持神经元之间的超球面能量不变,防止模型坍塌。作者考虑了两种重要的微调任务:主体驱动生成和可控生成。结果表明,OFT方法在生成质量和收敛速度上优于现有方法。
生成条件文本或图像的 3D 对象
Shap-E 是一个生成条件 3D 隐函数的官方代码和模型发布库。它可以根据文本或图像生成 3D 对象。该产品采用了最新的生成模型,可以根据给定的提示生成与之相关的三维模型。
基于LLM的文本到图像生成系统
DiffusionGPT是一种基于大型语言模型(LLM)的文本到图像生成系统。它利用扩散模型构建了针对各种生成模型的领域特定树,从而能够无缝地适应各种类型的提示并集成领域专家模型。此外,DiffusionGPT引入了优势数据库,其中的思维树得到了人类反馈的丰富,使模型选择过程与人类偏好保持一致。通过广泛的实验和比较,我们展示了DiffusionGPT的有效性,展示了它在不同领域推动图像合成边界的潜力。
重新思考 FID:为图像生成提供更好的评估指标
该论文提出了对图像生成模型进行评估的新指,提出了 Frechet Inception Distance (FID) 指标存在的问题,并提出了一种新的评估指标 CMMD。通过大量实验证明,FID 指标对文本到图像模型的评估可能不可靠,而 CMMD 指标可以更可靠地评估图像质量。
多模态图像生成模型
Instruct-Imagen是一个多模态图像生成模型,通过引入多模态指令,实现对异构图像生成任务的处理,并在未知任务中实现泛化。该模型利用自然语言整合不同的模态(如文本、边缘、风格、主题等),标准化丰富的生成意图。通过在预训练文本到图像扩散模型上进行两阶段框架的微调,采用检索增强训练和多样的图像生成任务微调,使得该模型在各种图像生成数据集上的人工评估结果表明,其在领域内与先前的任务特定模型相匹配或超越,并展现出对未知和更复杂任务的有希望的泛化能力。
Midjourney v6让社区用户在冬季休假期间测试alpha版模型
Midjourney v6是一个图像生成模型,具有更准确的提示追随、更长的提示、提高的一致性和模型知识、改进的图像提示和混音模式等功能。该模型适用于生产力、设计、写作等场景。Midjourney v6在冬季休假期间开放给社区进行测试,目前是alpha版本,功能和定价可能会有所变化。
平滑管理多种语言模型,提速响应,确保零宕机
GPTRouter可以平滑管理多种语言模型如OpenAI、Anthropic、Azure,同时支持图像生成模型如Stable Diffusion、DALL-E,实现语言模型和图像模型之间的无缝切换,确保在主模型不可用时快速失败切换,大幅减少响应延迟,提高系统鲁棒性。
单文本/图像生成可导航3D场景
LucidDreamer是一种无域3D场景生成技术,通过充分利用现有大规模扩散生成模型的能力,可以从单个文本提示或单个图像生成可导航的3D场景。该方法具有梦境和对齐两个交替步骤,首先根据输入生成多视角一致的图像,然后将新生成的3D场景部分和谐地整合在一起。LucidDreamer生成的高度详细的高斯斑点与以往的3D场景生成方法相比没有目标场景域的限制。
AI驱动的文本到视频生成
Emu Video是一种基于扩散模型的简单文本到视频生成方法,将生成过程分解为两个步骤:首先根据文本提示生成图像,然后根据提示和生成的图像生成视频。分解生成方式能够高效训练高质量的视频生成模型。与以往的方法相比,我们的方法只需使用两个扩散模型即可生成分辨率为512像素、播放速度为每秒16帧、时长为4秒的视频。
AI开发者平台
GraphQL AI是为开发者提供的一站式AI平台。通过我们的AI开发者平台,轻松启动您的工具、机器人和聊天助手!您可以创建独立的上下文,使用各种图像生成模型创建出色的内容,还可以使用最新的AI算法训练聊天机器人。
基于轨迹草图的机器人任务泛化
RT-Trajectory 是一种基于粗糙轨迹草图的机器人控制策略,通过轨迹草图实现对新任务的有效泛化能力。它既可以通过人工绘制、视频演示等方式生成轨迹草图,也可以通过图像生成模型等方式生成轨迹草图。RT-Trajectory 在各种真实世界机器人任务中得到了广泛评估,相比于基于语言和目标的策略,具有更广泛的任务执行能力。
阿里国际AI团队打造 电商做图神器
Pic Copilot是一个利用图像生成模型为电商提供的AI驱动图片优化工具。它能够通过对大量图片点击量数据的训练,有效提高图片的点击转化率,从而优化电商的营销效果。其关键优势是提高图片的点击转化率,从而提升电商营销效果。它是阿里巴巴团队训练的数据结果,能够显著优化图片的点击转化表现。
提高图像生成模型的美感
Emu是一个用于提高图像生成模型美感的质量调整工具。它可以通过有限的高质量图像进行微调,从而显著提高生成质量。Emu在1.1亿个图像-文本对上进行了预训练,并使用了几千个精心挑选的高质量图像进行了微调。与仅进行预训练的模型相比,Emu的胜率达到了82.9%。与最先进的SDXLv1.0相比,Emu在视觉吸引力方面的偏好率分别为68.4%和71.3%。Emu还可以用于其他架构,包括像素扩散和掩蔽生成变压器模型。
基于Kandinsky扩展和Deforum特性的文本到图像生成模型
Kandinsky Deforum是一种基于Kandinsky扩展和Deforum特性的文本到图像生成模型。该模型可以将文本转换为视频,具有高效、快速、准确的特点。其核心方法包括生成参考帧、对前一帧进行小变换、通过图像到图像方法对结果图像进行扩散处理。Kandinsky Deforum的优势在于可以生成高质量的视频,同时具有良好的可扩展性和灵活性。该产品的定位是为用户提供一种高效、快速、准确的文本到图像生成模型。
低成本高质量文本到图像生成模型
PIXART-α是一种基于Transformer的文本到图像生成模型,其图像生成质量与最先进的图像生成器相当,支持高分辨率图像合成,训练速度明显优于现有的大规模T2I模型,训练成本低,可节省近30万美元,并减少90%的CO2排放。PIXART-α在图像质量、艺术性和语义控制方面表现出色,可为AIGC社区和初创企业提供新的见解,加速从头开始构建高质量、低成本的生成模型。
高分辨率图像生成模型,快速生成,少步推理
Latent Consistency Models是一种高分辨率图像生成模型,通过少步推理快速生成高保真度图像。LCMs可以从任何预训练的稳定扩散模型中提取,只需要32个A100 GPU小时的训练即可生成高质量的768×768分辨率图像。此外,LCMs还引入了一种名为Latent Consistency Fine-tuning(LCF)的新方法,可以在自定义图像数据集上进行微调,实现定制化图像生成。
控制型文本转图像生成和编辑模型
BLIP-Diffusion 是一个支持多模态控制的主题驱动图像生成模型。它通过接受主题图像和文本提示作为输入,生成基于文本提示的主题图像。与现有模型相比,BLIP-Diffusion 提供了零 - shot 主题驱动生成和高效的定制主题微调。它还可以与其他技术(如 ControlNet 和 prompt-to-prompt)灵活结合,实现新颖的主题驱动生成和编辑应用。
© 2024 AIbase 备案号:闽ICP备2023012347号-1