需求人群:
["文本描述到图像生成","图像超分辨率","语义理解"]
使用场景示例:
一个胖乎乎的猫坐在桌子上
一朵粉色的玫瑰花在阳光下盛开
蓝色的天空中有一群白云飘过
产品特色:
输入普通语言描述,生成匹配的图像
支持中英文输入
支持超分辨率提升生成图像质量
支持后期筛选生成样本
浏览量:68
最新流量情况
月访问量
5.16m
平均访问时长
00:06:42
每次访问页数
5.81
跳出率
37.20%
流量来源
直接访问
52.27%
自然搜索
32.92%
邮件
0.05%
外链引荐
12.52%
社交媒体
2.15%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
11.99%
德国
3.63%
印度
9.20%
俄罗斯
5.25%
美国
19.02%
基于Transformer的通用领域文本到图像生成
CogView是一个用于通用领域文本到图像生成的预训练Transformer模型。该模型包含410亿参数,能够生成高质量、多样化的图像。模型的训练思路采用抽象到具体的方式,先 pretrain 获得通用知识,然后 finetune 在特定域生成图像,能显著提升生成质量。值得一提的是,论文还提出了两种帮助大模型稳定训练的技巧:PB-relax 和 Sandwich-LN。
基于文本生成图像的多模态扩散变换器模型
Stable Diffusion 3.5 Medium是一个基于文本到图像的生成模型,由Stability AI开发,具有改进的图像质量、排版、复杂提示理解和资源效率。该模型使用了三个固定的预训练文本编码器,通过QK-规范化提高训练稳定性,并在前12个变换层中引入双注意力块。它在多分辨率图像生成、一致性和各种文本到图像任务的适应性方面表现出色。
高效能的文本到图像生成模型
Stable Diffusion 3.5 Large Turbo 是一个基于文本生成图像的多模态扩散变换器(MMDiT)模型,采用了对抗性扩散蒸馏(ADD)技术,提高了图像质量、排版、复杂提示理解和资源效率,特别注重减少推理步骤。该模型在生成图像方面表现出色,能够理解和生成复杂的文本提示,适用于多种图像生成场景。它在Hugging Face平台上发布,遵循Stability Community License,适合研究、非商业用途以及年收入少于100万美元的组织或个人免费使用。
开源的基于流的文本到图像生成模型
AuraFlow v0.1是一个完全开源的、基于流的文本到图像生成模型,它在GenEval上达到了最先进的结果。目前模型处于beta阶段,正在不断改进中,社区反馈至关重要。感谢两位工程师@cloneofsimo和@isidentical将此项目变为现实,以及为该项目奠定基础的研究人员。
一个统一的文本到任意模态生成框架
Lumina-T2X是一个先进的文本到任意模态生成框架,它能够将文本描述转换为生动的图像、动态视频、详细的多视图3D图像和合成语音。该框架采用基于流的大型扩散变换器(Flag-DiT),支持高达7亿参数,并能扩展序列长度至128,000个标记。Lumina-T2X集成了图像、视频、3D对象的多视图和语音频谱图到一个时空潜在标记空间中,可以生成任何分辨率、宽高比和时长的输出。
提高文本到图像合成质量的一致性蒸馏技术
TCD是一种用于文本到图像合成的一致性蒸馏技术,它通过轨迹一致性函数(TCF)和策略性随机采样(SSS)来减少合成过程中的错误。TCD在低NFE(噪声自由能量)时显著提高图像质量,并在高NFE时保持比教师模型更详细的结果。TCD不需要额外的判别器或LPIPS监督,即可在低NFE和高NFE时均保持优越的生成质量。
Snap视频:用于文本到视频合成的可扩展空间时间转换器
Snap视频是一个视频优先的模型,通过延伸EDM框架系统地解决视频生成域中的运动保真度、视觉质量和可扩展性等挑战。该模型利用帧间的冗余信息,提出了一个可伸缩的transformer架构,将空间和时间维度作为一个高度压缩的1D潜在向量,从而有效地进行空间时间联合建模,合成时间连贯性强、运动复杂的视频。这种架构使模型可以高效训练,达到数十亿参数规模,在多项基准测试中取得最优效果。
OFT可有效稳定微调文本到图像扩散模型
Controlling Text-to-Image Diffusion研究了如何有效引导或控制强大的文本到图像生成模型进行各种下游任务。提出了正交微调(OFT)方法,可以保持模型的生成能力。OFT可以保持神经元之间的超球面能量不变,防止模型坍塌。作者考虑了两种重要的微调任务:主体驱动生成和可控生成。结果表明,OFT方法在生成质量和收敛速度上优于现有方法。
多视图一致性图像生成的便捷解决方案
MV-Adapter是一种基于适配器的多视图图像生成解决方案,它能够在不改变原有网络结构或特征空间的前提下,增强预训练的文本到图像(T2I)模型及其衍生模型。通过更新更少的参数,MV-Adapter实现了高效的训练并保留了预训练模型中嵌入的先验知识,降低了过拟合风险。该技术通过创新的设计,如复制的自注意力层和并行注意力架构,使得适配器能够继承预训练模型的强大先验,以建模新的3D知识。此外,MV-Adapter还提供了统一的条件编码器,无缝整合相机参数和几何信息,支持基于文本和图像的3D生成以及纹理映射等应用。MV-Adapter在Stable Diffusion XL(SDXL)上实现了768分辨率的多视图生成,并展示了其适应性和多功能性,能够扩展到任意视图生成,开启更广泛的应用可能性。
基于文本生成姿态并进一步生成图像的模型
text-to-pose是一个研究项目,旨在通过文本描述生成人物姿态,并利用这些姿态生成图像。该技术结合了自然语言处理和计算机视觉,通过改进扩散模型的控制和质量,实现了从文本到图像的生成。项目背景基于NeurIPS 2024 Workshop上发表的论文,具有创新性和前沿性。该技术的主要优点包括提高图像生成的准确性和可控性,以及在艺术创作和虚拟现实等领域的应用潜力。
高效率的高分辨率图像合成框架
Sana是一个文本到图像的框架,能够高效生成高达4096×4096分辨率的图像。它以极快的速度合成高分辨率、高质量的图像,并保持强大的文本-图像对齐,可以部署在笔记本电脑GPU上。Sana的核心设计包括深度压缩自编码器、线性扩散变换器(DiT)、仅解码器的小型语言模型作为文本编码器,以及高效的训练和采样策略。Sana-0.6B与现代大型扩散模型相比,体积小20倍,测量吞吐量快100倍以上。此外,Sana-0.6B可以部署在16GB笔记本电脑GPU上,生成1024×1024分辨率图像的时间少于1秒。Sana使得低成本的内容创作成为可能。
高性能的英文学术基准语言模型
OLMo 2 13B是由Allen Institute for AI (Ai2)开发的一款基于Transformer的自回归语言模型,专注于英文学术基准测试。该模型在训练过程中使用了高达5万亿个token,展现出与同等规模的全开放模型相媲美或更优的性能,并在英语学术基准上与Meta和Mistral的开放权重模型竞争。OLMo 2 13B的发布包括所有代码、检查点、日志和相关的训练细节,旨在推动语言模型的科学研究。
高效长序列大型语言模型推理技术
Star-Attention是NVIDIA提出的一种新型块稀疏注意力机制,旨在提高基于Transformer的大型语言模型(LLM)在长序列上的推理效率。该技术通过两个阶段的操作显著提高了推理速度,同时保持了95-100%的准确率。它与大多数基于Transformer的LLM兼容,无需额外训练或微调即可直接使用,并且可以与其他优化方法如Flash Attention和KV缓存压缩技术结合使用,进一步提升性能。
用于生成图像的AI模型,支持多种控制网络
Stable Diffusion 3.5 ControlNets是由Stability AI提供的文本到图像的AI模型,支持多种控制网络(ControlNets),如Canny边缘检测、深度图和高保真上采样等。该模型能够根据文本提示生成高质量的图像,特别适用于插画、建筑渲染和3D资产纹理等场景。它的重要性在于能够提供更精细的图像控制能力,提升生成图像的质量和细节。产品背景信息包括其在学术界的引用(arxiv:2302.05543),以及遵循的Stability Community License。价格方面,对于非商业用途、年收入不超过100万美元的商业用途免费,超过则需联系企业许可。
基于FLUX.1-dev模型的IP-Adapter,实现图像工作如文本般灵活。
FLUX.1-dev-IP-Adapter是一个基于FLUX.1-dev模型的IP-Adapter,由InstantX Team研发。该模型能够将图像工作处理得像文本一样灵活,使得图像生成和编辑更加高效和直观。它支持图像参考,但不适用于细粒度的风格转换或角色一致性。模型在10M开源数据集上训练,使用128的批量大小和80K的训练步骤。该模型在图像生成领域具有创新性,能够提供多样化的图像生成解决方案,但可能存在风格或概念覆盖不足的问题。
先进的文本到图像模型工具套件
FLUX.1 Tools是Black Forest Labs推出的一套模型工具,旨在为基于文本的图像生成模型FLUX.1增加控制和可操作性,使得对真实和生成的图像进行修改和再创造成为可能。该工具套件包含四个不同的特性,以开放访问模型的形式在FLUX.1 [dev]模型系列中提供,并作为BFL API的补充,支持FLUX.1 [pro]。FLUX.1 Tools的主要优点包括先进的图像修复和扩展能力、结构化引导、图像变化和重构等,这些功能对于图像编辑和创作领域具有重要意义。
利用像素空间拉普拉斯扩散模型生成高质量图像
Edify Image是NVIDIA推出的一款图像生成模型,它能够生成具有像素级精确度的逼真图像内容。该模型采用级联像素空间扩散模型,并通过新颖的拉普拉斯扩散过程进行训练,该过程能够在不同频率带以不同的速率衰减图像信号。Edify Image支持多种应用,包括文本到图像合成、4K上采样、ControlNets、360° HDR全景图生成和图像定制微调。它代表了图像生成技术的最新进展,具有广泛的应用前景和重要的商业价值。
基于文本提示修订图像的大型扩散模型
SeedEdit是Doubao Team推出的大型扩散模型,用于根据任何文本提示修订图像。它通过逐步将图像生成器与强大的图像编辑器对齐,实现了图像重建和图像再生之间的最佳平衡。SeedEdit能够实现高审美/分辨率图像的零样本稳定编辑,并支持图像的连续修订。该技术的重要性在于其能够解决图像编辑问题中成对图像数据稀缺的核心难题,通过将文本到图像(T2I)生成模型视为弱编辑模型,并通过生成带有新提示的新图像来实现“编辑”,然后将其蒸馏并与之对齐到图像条件编辑模型中。
基于文本生成服装图像的AI模型
FLUX.1-dev LoRA Outfit Generator是一个文本到图像的AI模型,能够根据用户详细描述的颜色、图案、合身度、风格、材质和类型来生成服装。该模型使用了H&M Fashion Captions Dataset数据集进行训练,并基于Ostris的AI Toolkit进行开发。它的重要性在于能够辅助设计师快速实现设计想法,加速服装行业的创新和生产流程。
Meta 开发的子十亿参数语言模型,适用于设备端应用。
Meta 开发的自回归语言模型,采用优化架构,适合资源受限设备。优点多,如集成多种技术,支持零样本推理等,价格免费,面向自然语言处理研究人员和开发者。
高效优化的600M参数语言模型,专为设备端应用设计。
MobileLLM-600M是由Meta开发的自回归语言模型,采用了优化的Transformer架构,专为资源受限的设备端应用而设计。该模型集成了SwiGLU激活函数、深度薄架构、嵌入共享和分组查询注意力等关键技术。MobileLLM-600M在零样本常识推理任务上取得了显著的性能提升,与之前的125M/350M SoTA模型相比,分别提高了2.7%/4.3%的准确率。该模型的设计理念可扩展至更大模型,如MobileLLM-1B/1.5B,均取得了SoTA结果。
训练无关的区域提示扩散变换器模型
Regional-Prompting-FLUX是一种训练无关的区域提示扩散变换器模型,它能够在无需训练的情况下,为扩散变换器(如FLUX)提供细粒度的组合文本到图像生成能力。该模型不仅效果显著,而且与LoRA和ControlNet高度兼容,能够在保持高速度的同时减少GPU内存的使用。
高效优化的子十亿参数语言模型,专为设备端应用设计
MobileLLM-350M是由Meta开发的自回归语言模型,采用优化的Transformer架构,专为设备端应用设计,以满足资源受限的环境。该模型整合了SwiGLU激活函数、深层薄架构、嵌入共享和分组查询注意力等关键技术,实现了在零样本常识推理任务上的显著准确率提升。MobileLLM-350M在保持较小模型尺寸的同时,提供了与更大模型相媲美的性能,是设备端自然语言处理应用的理想选择。
盲图像恢复技术,利用即时生成参考图像恢复破损图像
InstantIR是一种基于扩散模型的盲图像恢复方法,能够在测试时处理未知退化问题,提高模型的泛化能力。该技术通过动态调整生成条件,在推理过程中生成参考图像,从而提供稳健的生成条件。InstantIR的主要优点包括:能够恢复极端退化的图像细节,提供逼真的纹理,并且通过文本描述调节生成参考,实现创造性的图像恢复。该技术由北京大学、InstantX团队和香港中文大学的研究人员共同开发,得到了HuggingFace和fal.ai的赞助支持。
基于Transformer的实时开放世界AI模型
Oasis是由Decart AI开发的首个可玩、实时、开放世界的AI模型,它是一个互动视频游戏,由Transformer端到端生成,基于逐帧生成。Oasis能够接收用户键盘和鼠标输入,实时生成游戏玩法,内部模拟物理、游戏规则和图形。该模型通过直接观察游戏玩法学习,允许用户移动、跳跃、拾取物品、破坏方块等。Oasis被视为研究更复杂交互世界的基础模型的第一步,未来可能取代传统的游戏引擎。Oasis的实现需要模型架构的改进和模型推理技术的突破,以实现用户与模型的实时交互。Decart AI采用了最新的扩散训练和Transformer模型方法,并结合了大型语言模型(LLMs)来训练一个自回归模型,该模型可以根据用户即时动作生成视频。此外,Decart AI还开发了专有的推理框架,以提供NVIDIA H100 Tensor Core GPU的峰值利用率,并支持Etched即将推出的Sohu芯片。
长文本问答增强型检索生成模型
LongRAG是一个基于大型语言模型(LLM)的双视角、鲁棒的检索增强型生成系统范式,旨在增强对复杂长文本知识的理解和检索能力。该模型特别适用于长文本问答(LCQA),能够处理全局信息和事实细节。产品背景信息显示,LongRAG通过结合检索和生成技术,提升了对长文本问答任务的性能,特别是在需要多跳推理的场景中。该模型是开源的,可以免费使用,主要面向研究者和开发者。
基于人工智能的图像生成模型
Stable Diffusion 3.5 Medium 是由 Stability AI 提供的一款基于人工智能的图像生成模型,它能够根据文本描述生成高质量的图像。这项技术的重要性在于它能够极大地推动创意产业的发展,如游戏设计、广告、艺术创作等领域。Stable Diffusion 3.5 Medium 以其高效的图像生成能力、易用性和较低的资源消耗而受到用户的青睐。目前,该模型在 Hugging Face 平台上以免费试用的形式提供给用户。
© 2024 AIbase 备案号:闽ICP备08105208号-14