将您的想象力变为现实,快速制作艺术图像、横幅图像和动漫图像。
Image Maker Ai 是一个基于人工智能的图像生成平台,利用先进的变换器模型和BlackForestLabs的最新AI研究,提供从高端专业项目到快速个人使用的多种需求。该技术拥有12亿参数和多个模型变体,包括FLUX.1 [Pro]、[Dev]和[Schnell],优化了提示遵循、细节和输出多样性。Image Maker Ai 允许用户输入文本提示,选择风格,并由AI生成高分辨率、细节丰富、逼真的图像,适合各种应用,从个人项目到专业用途。所有由Flux生成的图像都是免版税的,可以用于个人或商业目的,无需担心版权问题。
开源视频生成模型,支持10秒视频和更高分辨率。
CogVideoX1.5-5B-SAT是由清华大学知识工程与数据挖掘团队开发的开源视频生成模型,是CogVideoX模型的升级版。该模型支持生成10秒视频,并支持更高分辨率的视频生成。模型包含Transformer、VAE和Text Encoder等模块,能够根据文本描述生成视频内容。CogVideoX1.5-5B-SAT模型以其强大的视频生成能力和高分辨率支持,为视频内容创作者提供了一个强大的工具,尤其在教育、娱乐和商业领域有着广泛的应用前景。
高分辨率图像生成模型
FLUX1.1 [pro] 是一款高分辨率图像生成模型,支持高达4MP的图像分辨率,同时保持每样本仅10秒的生成时间。FLUX1.1 [pro] – ultra模式能够在不牺牲速度的情况下,生成四倍于标准分辨率的图像,性能基准测试显示其生成速度超过同类高分辨率模型2.5倍以上。此外,FLUX1.1 [pro] – raw模式为追求真实感的创作者提供了更自然、更少合成感的图像生成效果,显著提高了人物多样性和自然摄影的真实性。该模型以每张图片0.06美元的竞争力价格提供。
AI视频生成器,从文本提示生成高质量视频
Mochi 1是一个由Genmo开发的前沿开源AI视频生成器,它允许创作者使用文本和图像提示生成高质量、逼真的视频。Mochi 1以其卓越的提示遵循能力和流畅的运动效果,使AI视频生成对每个人都变得容易。它旨在与行业其他模型竞争,为创作者提供更多的控制和更好的视觉成果。
基于Flux的IC-Light模型,专注于图像细节保留和风格化处理
IC-Light V2是一系列基于Flux的IC-Light模型,采用16ch VAE和原生高分辨率技术。该模型在细节保留、风格化图像处理等方面相较于前代有显著提升。它特别适合需要在保持图像细节的同时进行风格化处理的应用场景。目前,该模型以非商业性质发布,主要面向个人用户和研究者。
高分辨率、长时音频驱动的人像图像动画技术
Hallo2是一种基于潜在扩散生成模型的人像图像动画技术,通过音频驱动生成高分辨率、长时的视频。它通过引入多项设计改进,扩展了Hallo的功能,包括生成长时视频、4K分辨率视频,并增加了通过文本提示增强表情控制的能力。Hallo2的主要优点包括高分辨率输出、长时间的稳定性以及通过文本提示增强的控制性,这使得它在生成丰富多样的肖像动画内容方面具有显著优势。
高分辨率文本到图像合成模型
Meissonic是一个非自回归的掩码图像建模文本到图像合成模型,能够生成高分辨率的图像。它被设计为可以在消费级显卡上运行。这项技术的重要性在于其能够利用现有的硬件资源,为用户带来高质量的图像生成体验,同时保持了较高的运行效率。Meissonic的背景信息包括其在arXiv上发表的论文,以及在Hugging Face上的模型和代码。
基于AI的快速在线制作证件照工具
photo4you是一个基于人工智能技术的在线证件照制作网站,用户无需下载或安装任何软件即可轻松创建证件照片。该网站支持多种标准尺寸,适用于护照、签证、驾照等官方文件。它通过智能背景移除功能,自动去除照片背景,确保证件照具有清晰、专业的外观。用户可以立即下载制作好的证件照,节省了时间和麻烦。photo4you提供高分辨率的输出,适合打印或数字提交。
基于级联扩散的文本到图像生成系统
CogView3是一个基于级联扩散的文本到图像生成系统,使用中继扩散框架。该系统通过将高分辨率图像生成过程分解为多个阶段,并通过中继超分辨率过程,在低分辨率生成结果上添加高斯噪声,从而开始从这些带噪声的图像进行扩散过程。CogView3在生成图像方面超越了SDXL,具有更快的生成速度和更高的图像质量。
高分辨率视频外延与内容生成技术
Follow-Your-Canvas 是一种基于扩散模型的视频外延技术,它能够生成高分辨率的视频内容。该技术通过分布式处理和空间窗口合并,解决了GPU内存限制问题,同时保持了视频的空间和时间一致性。它在大规模视频外延方面表现出色,能够将视频分辨率显著提升,如从512 X 512扩展到1152 X 2048,同时生成高质量和视觉上令人愉悦的结果。
生成无限长度视频的文本条件视频生成技术
FIFO-Diffusion是一种基于预训练扩散模型的新颖推理技术,用于文本条件视频生成。它能够无需训练生成无限长的视频,通过迭代执行对角去噪,同时处理队列中一系列连续帧的逐渐增加的噪声水平;该方法在头部出队一个完全去噪的帧,同时在尾部入队一个新的随机噪声帧。此外,引入了潜在分割来减少训练推理差距,并通过前瞻去噪来利用前向引用的好处。
基于SDXL的ControlNet Tile模型,适用于Stable Diffusion SDXL ControlNet的高分辨率图像修复。
这是一个基于SDXL的ControlNet Tile模型,使用Hugging Face Diffusers训练集,适用于Stable Diffusion SDXL ControlNet。它最初是为我自己的逼真模型训练,用于终极放大过程以提高图像细节。使用合适的工作流程,它可以为高细节、高分辨率的图像修复提供良好的结果。由于大多数开源没有SDXL Tile模型,我决定分享这个模型。该模型支持高分辨率修复、风格迁移和图像修复等功能,可以为你提供高质量的图像处理体验。
高分辨率多模态感知 LVLM
Griffon 是第一个具有本地化能力的高分辨率(超过1K)LVLM,可以描述您感兴趣的区域中的所有内容。在最新版本中,Griffon 支持视觉语言共指。您可以输入图像或一些描述。Griffon 在 REC、目标检测、目标计数、视觉/短语定位和 REG 方面表现出色。定价:免费试用。
PIXART-Σ是一个用于4K文本到图像生成的扩散变换器模型(Diffusion Transformer)
PIXART-Σ是一个直接生成4K分辨率图像的扩散变换器模型,相较于前身PixArt-α,它提供了更高的图像保真度和与文本提示更好的对齐。PIXART-Σ的关键特性包括高效的训练过程,它通过结合更高质量的数据,从“较弱”的基线模型进化到“更强”的模型,这一过程被称为“弱到强训练”。PIXART-Σ的改进包括使用更高质量的训练数据和高效的标记压缩。
一步生成高分辨率图像
SDXL-Lightning是字节跳动开发的图像生成模型,能够在一步或少步骤内生成高达1024像素分辨率的高质量图像。该模型通过渐进式对抗式蒸馏,显著提升了图像生成速度,使其可应用于需要快速响应的场景。模型已开源,支持兼容LoRA模块和其他控制插件,可广泛用于文本到图像生成任务。
高分辨率3D内容生成的多视图高斯模型
LGM是一个用于从文本提示或单视图图像生成高分辨率3D模型的新框架。它的关键见解是:(1) 3D表示:我们提出了多视图高斯特征作为一个高效 yet 强大的表示,然后可以将其融合在一起进行不同iable 渲染。(2) 3D主干:我们呈现了一个不对称U-Net作为一个高通量的主干操作多视图图像,这可以通过利用多视图扩散模型从文本或单视图图像输入中产生。大量的实验表明了我们方法的高保真度和效率。值得注意的是,我们在将训练分辨率提高到512的同时保持生成3D对象的快速速度,从而实现了高分辨率的3D内容生成。
高分辨率图像生成的无门槛解决方案
DemoFusion 是一款无需高额费用的高分辨率图像生成解决方案。通过使用渐进式升采样、跳跃残差和扩张采样等机制,DemoFusion 扩展了开源生成人工智能模型,实现了更高分辨率的图像生成。它具有简单易用的特点,无需调整参数和大量内存,适用于广泛的用户群体。DemoFusion 可以与其他基于潜在扩散模型的应用程序无缝集成,实现可控的高分辨率图像生成。
高分辨率图像合成
luosiallen/latent-consistency-model 是一个用于合成高分辨率图像的模型。它使用少量的推理步骤来生成具有良好一致性的图像。该模型支持自定义的输入提示和参数调整,可生成逼真的艺术品、人像等图像。
生成逼真的人类图像
HyperHuman是一个生成逼真的人类图像的模型。该模型通过捕捉人类图像的结构性特征,从粗略的身体骨架到细粒度的空间几何形状,生成具有连贯性和自然性的人类图像。HyperHuman包括三个部分:1)构建一个大规模的人类数据集HumanVerse,其中包含340M张图像和全面的注释,如人体姿势、深度和表面法线;2)提出一个潜在结构扩散模型,该模型同时去噪深度、表面法线和合成的RGB图像。我们的模型在一个统一的网络中强制学习图像外观、空间关系和几何形状,模型中的每个分支都具有结构感知性和纹理丰富性;3)最后,为了进一步提高视觉质量,我们提出了一个结构引导的细化器,用于更详细的高分辨率生成。大量实验证明,我们的模型在各种场景下生成了具有高真实感和多样性的人类图像,达到了最先进的性能。
© 2024 AIbase 备案号:闽ICP备08105208号-14