需求人群:
"文本到图像生成、可控图像生成、图像编辑"
使用场景示例:
使用SCEdit进行高质量文本到图像生成
基于SCEdit实现图像分割图条件下的人像生成
采用SCEdit框架进行图像颜色图条件的风景画生成
产品特色:
高效的文本到图像生成
支持各类条件图像生成任务
相比LoRA节省大量内存
支持快速适配特定生成场景
代码开源,易于使用
浏览量:60
最新流量情况
月访问量
5.13m
平均访问时长
00:06:32
每次访问页数
6.11
跳出率
36.07%
流量来源
直接访问
54.23%
自然搜索
31.90%
邮件
0.04%
外链引荐
11.74%
社交媒体
1.91%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
12.57%
德国
3.83%
印度
10.07%
俄罗斯
4.92%
美国
18.64%
Stability AI 生成模型是一个开源的生成模型库。
Stability AI 生成模型是一个开源的生成模型库,提供了各种生成模型的训练、推理和应用功能。该库支持各种生成模型的训练,包括基于 PyTorch Lightning 的训练,提供了丰富的配置选项和模块化的设计。用户可以使用该库进行生成模型的训练,并通过提供的模型进行推理和应用。该库还提供了示例训练配置和数据处理的功能,方便用户进行快速上手和定制。
SCEdit是一个高效和可控制的图像扩散生成框架
SCEdit是一个由阿里巴巴提出的高效的生成模型精调框架。该框架增强了下游文本到图像生成任务的精调能力,并实现了对特定生成场景的快速适配,相比LoRA可以节省30%-50%的训练内存成本。此外,它可以直接扩展到可控图像生成任务,只需要ControlNet条件生成所需参数量的7.9%,并可以节省30%的内存使用。它支持各种条件生成任务,包括边缘图、深度图、分割图、姿态、色彩图以及图像补全等。
朱雀大模型检测,精准识别AI生成图像,助力内容真实性鉴别。
朱雀大模型检测是腾讯推出的一款AI检测工具,主要功能是检测图片是否由AI模型生成。它经过大量自然图片和生成图片的训练,涵盖摄影、艺术、绘画等内容,可检测多类主流文生图模型生成图片。该产品具有高精度检测、快速响应等优点,对于维护内容真实性、打击虚假信息传播具有重要意义。目前暂未明确其具体价格,但从功能来看,主要面向需要进行内容审核、鉴别真伪的机构和个人,如媒体、艺术机构等。
面向生成场景的可控大语言模型
孟子生成式大模型(孟子 GPT)是一个面向生成场景的可控大语言模型,能够通过多轮的方式帮助用户完成特定场景中的多种工作任务。它支持知识问答、多语言翻译、通用写作和金融场景任务等功能,具有更可控、更灵活、更个性、更专业的优势。具体定价和使用方式请咨询官方网站。
开源生成模型训练、调优与推理框架
SCEPTER是一个开源代码库,致力于生成式模型的训练、调优和推理,涵盖图像生成、迁移、编辑等一系列下游任务。它整合了社区主流实现以及阿里巴巴通逸实验室自研方法,为生成式领域的研究人员和从业者提供全面、通用的工具集。这个多功能库旨在促进创新,加速这个快速发展的领域的进步。
可控人物图像生成模型
Leffa是一个用于可控人物图像生成的统一框架,它能够精确控制人物的外观(例如虚拟试穿)和姿态(例如姿态转移)。该模型通过在训练期间引导目标查询关注参考图像中的相应区域,减少细节扭曲,同时保持高图像质量。Leffa的主要优点包括模型无关性,可以用于提升其他扩散模型的性能。
高效能的文本到图像生成模型
Stable Diffusion 3.5 Large Turbo 是一个基于文本生成图像的多模态扩散变换器(MMDiT)模型,采用了对抗性扩散蒸馏(ADD)技术,提高了图像质量、排版、复杂提示理解和资源效率,特别注重减少推理步骤。该模型在生成图像方面表现出色,能够理解和生成复杂的文本提示,适用于多种图像生成场景。它在Hugging Face平台上发布,遵循Stability Community License,适合研究、非商业用途以及年收入少于100万美元的组织或个人免费使用。
连接不同语言模型和生成视觉模型进行文本到图像生成
LaVi-Bridge是一种针对文本到图像扩散模型设计的桥接模型,能够连接各种预训练的语言模型和生成视觉模型。它通过利用LoRA和适配器,提供了一种灵活的插拔式方法,无需修改原始语言和视觉模型的权重。该模型与各种语言模型和生成视觉模型兼容,可容纳不同的结构。在这一框架内,我们证明了通过整合更高级的模块(如更先进的语言模型或生成视觉模型)可以明显提高文本对齐或图像质量等能力。该模型经过大量评估,证实了其有效性。
一种用于图像生成的模型。
IPAdapter-Instruct是Unity Technologies开发的一种图像生成模型,它通过在transformer模型上增加额外的文本嵌入条件,使得单一模型能够高效地执行多种图像生成任务。该模型主要优点在于能够通过'Instruct'提示,在同一工作流中灵活地切换不同的条件解释,例如风格转换、对象提取等,同时保持与特定任务模型相比的最小质量损失。
开源文本到图像生成模型
AuraFlow v0.3是一个完全开源的基于流的文本到图像生成模型。与之前的版本AuraFlow-v0.2相比,该模型经过了更多的计算训练,并在美学数据集上进行了微调,支持各种宽高比,宽度和高度可达1536像素。该模型在GenEval上取得了最先进的结果,目前处于beta测试阶段,正在不断改进中,社区反馈非常重要。
更高效、先进的文本和图像生成模型
CM3leon是一款集文本到图像和图像到文本生成于一身的先进模型。它采用了适应自文本模型的训练配方,包括大规模检索增强预训练阶段和多任务监督微调阶段。CM3leon具有与自回归模型相似的多样性和有效性,同时训练成本低、推理效率高。它是一种因果屏蔽的混合模态(CM3)模型,可以根据任意图像和文本内容生成文本和图像序列。相比以往只能进行文本到图像或图像到文本生成的模型,CM3leon在多模态生成方面具有更高的功能拓展。
快速生成高质量图像的扩散模型
Flash Diffusion 是一种高效的图像生成模型,通过少步骤生成高质量的图像,适用于多种图像处理任务,如文本到图像、修复、超分辨率等。该模型在 COCO2014 和 COCO2017 数据集上达到了最先进的性能,同时训练时间少,参数数量少。
开源的基于流的文本到图像生成模型
AuraFlow v0.1是一个完全开源的、基于流的文本到图像生成模型,它在GenEval上达到了最先进的结果。目前模型处于beta阶段,正在不断改进中,社区反馈至关重要。感谢两位工程师@cloneofsimo和@isidentical将此项目变为现实,以及为该项目奠定基础的研究人员。
无需调优的全景多视图图像生成
PanoFree是一种创新的全景多视图图像生成技术,它通过迭代变形和上色解决了一致性和累积误差问题,无需额外的调优。该技术在实验中显示出显著的误差减少,提高了全局一致性,并在不增加额外调优的情况下提升了图像质量。与现有方法相比,PanoFree在时间和GPU内存使用上效率更高,同时保持了结果的多样性。
强大的图像生成模型
Stable Diffusion 3.5是Stability AI推出的一款图像生成模型,具有多种变体,包括Stable Diffusion 3.5 Large和Stable Diffusion 3.5 Large Turbo。这些模型可高度定制,能在消费级硬件上运行,并且根据Stability AI社区许可协议,可以免费用于商业和非商业用途。该模型的发布体现了Stability AI致力于让视觉媒体变革的工具更易于获取、更前沿、更自由的使命。
让您的模型定制更加个性化
FABRIC 是一个通过迭代反馈来个性化定制扩散模型的工具。它提供了一种简单的方法来根据用户的反馈来改进模型的性能。用户可以通过迭代的方式与模型进行交互,并通过反馈来调整模型的预测结果。FABRIC 还提供了丰富的功能,包括模型训练、参数调整和性能评估。它的定价根据用户的使用情况而定,可满足不同用户的需求。
高性能的文本到图像生成模型
Stable Diffusion 3.5 Large 是一个基于文本生成图像的多模态扩散变换器(MMDiT)模型,由 Stability AI 开发。该模型在图像质量、排版、复杂提示理解和资源效率方面都有显著提升。它使用三个固定的预训练文本编码器,并通过 QK 归一化技术提高训练稳定性。此外,该模型在训练数据和策略上使用了包括合成数据和过滤后的公开可用数据。Stable Diffusion 3.5 Large 模型在遵守社区许可协议的前提下,可以免费用于研究、非商业用途,以及年收入少于100万美元的组织或个人的商业用途。
提供多种预训练模型,支持多维度筛选,助力AI模型应用与开发。
该平台是一个专注于AI预训练模型的资源平台,整合了大量不同类型、规模和应用场景的预训练模型。其重要性在于为AI开发者和研究人员提供了便捷的模型获取渠道,降低了模型开发的门槛。主要优点包括模型分类细致、多维度筛选功能强大、信息展示详细且提供智能推荐。产品背景是随着AI技术的发展,对预训练模型的需求日益增长,平台应运而生。平台主要定位为AI模型资源平台,部分模型免费商用,部分可能需要付费,具体价格因模型而异。
智能角色模型,构建最优秀的大模型底座
百川角色大模型是百川智能提供的一款智能角色模型,融合了意图理解、信息检索以及强化学习技术,结合有监督微调与人类意图对齐,在知识问答、文本创作领域表现突出。该模型可实现角色扮演对话,提供高度开放的个性化角色定制能力,具备高度准确性和口语化的回答能力。
Google推出的一系列轻量级、先进的开放式模型
Gemma是Google推出的一系列开源的轻量级语言模型系列。它结合了全面的安全措施,在尺寸上实现了优异的性能,甚至超过了一些较大的开放模型。可以无缝兼容各种框架。提供快速入门指南、基准测试、模型获取等,帮助开发者负责任地开发AI应用。
一款通过生成模型提升图像生成一致性的工具。
UNO 是一个基于扩散变换器的多图像条件生成模型,通过引入渐进式跨模态对齐和通用旋转位置嵌入,实现高一致性的图像生成。其主要优点在于增强了对单一或多个主题生成的可控性,适用于各种创意图像生成任务。
利用尖端AI技术,将创意转化为高质量图像。
Flux AI 图像生成器是由Black Forest Labs开发的,基于革命性的Flux系列模型,提供尖端的文本到图像技术。该产品通过其120亿参数的模型,能够精确解读复杂的文本提示,创造出多样化、高保真的图像。Flux AI 图像生成器不仅适用于个人艺术创作,也可用于商业应用,如品牌视觉、社交媒体内容等。它提供三种不同的版本以满足不同用户的需求:Flux Pro、Flux Dev和Flux Schnell。
支持同时理解和生成图像的多模态大型语言模型
Mini-Gemini是一个多模态视觉语言模型,支持从2B到34B的系列密集和MoE大型语言模型,同时具备图像理解、推理和生成能力。它基于LLaVA构建,利用双视觉编码器提供低分辨率视觉嵌入和高分辨率候选区域,采用补丁信息挖掘在高分辨率区域和低分辨率视觉查询之间进行补丁级挖掘,将文本与图像融合用于理解和生成任务。支持包括COCO、GQA、OCR-VQA、VisualGenome等多个视觉理解基准测试。
多模态自回归模型,擅长文本生成图像
Lumina-mGPT是一个多模态自回归模型家族,能够执行各种视觉和语言任务,特别是在从文本描述生成灵活的逼真图像方面表现突出。该模型基于xllmx模块实现,支持以LLM为中心的多模态任务,适用于深度探索和快速熟悉模型能力。
字节跳动自研大模型,提供多模态能力
豆包大模型是字节跳动推出的自研大模型,通过内部50+业务场景实践验证,每日万亿级tokens大使用量持续打磨,提供多模态能力,以优质模型效果为企业打造丰富的业务体验。产品家族包括多种模型,如通用模型、视频生成、文生图、图生图、同声传译等,满足不同业务需求。
新一代文本到图像生成AI模型
Stable Diffusion 3是stability公司推出的新一代文本到图像生成AI模型,相比早期版本在多主体提示、图像质量和拼写能力等方面都有了极大提升。该模型采用了diffusion transformer架构和flow matching技术,参数量范围从800M到8B不等,提供了从个人用户到企业客户多种部署方案。主要功能包括:高质量图片生成、支持多主体、拼写错误纠正等。典型应用场景有:数字艺术创作、图片编辑、游戏和电影制作等。相比早期版本,该AI助手具有更强大的理解和创作能力,是新一代安全、开放、普惠的生成式AI典范。
基于AI生成图像的3D渲染模型
Toy Box Flux是一个基于AI生成图像训练的3D渲染模型,它结合了现有的3D LoRA模型和Coloring Book Flux LoRA的权重,形成了独特的风格。该模型特别适合生成具有特定风格的玩具设计图像。它在物体和人物主体上表现最佳,动物的表现则因训练图像中的数据不足而不稳定。此外,该模型还能提高室内3D渲染的真实感。计划在v2版本中通过混合更多生成的输出和预先存在的输出来加强这种风格的一致性。
通过API获取高品质Yi系列大模型的开放平台
零一万物大模型开放平台是一个通过API调用获取高品质Yi系列大模型的平台。Yi系列模型基于零一万物的前沿科研成果和高品质数据训练而成,曾在多个权威榜单中获得SOTA表现。主要产品包括yi-34b-chat-0205、yi-34b-chat-200k和yi-vl-plus三种模型。yi-34b-chat-0205是一款优化版聊天模型,指令遵循能力提升近30%,回复延迟大幅降低,适用于聊天、问答、对话等场景。yi-34b-chat-200k支持200K超长上下文,可处理约20万到30万汉字内容,适用于文档理解、数据分析和跨领域知识应用。yi-vl-plus支持高分辨率图片输入,具备图像问答、图表理解、OCR等能力,适用于对复杂图像内容进行分析、识别和理解。该平台的API优势包括推理速度快、与OpenAI API完全兼容。定价方面,新注册用户可获赠60元试用额度,yi-34b-chat-0205单价为2.5元/百万token,yi-34b-chat-200k单价为12元/次,yi-vl-plus单价为6元/百万token。
© 2025 AIbase 备案号:闽ICP备08105208号-14