浏览量:506
最新流量情况
月访问量
15.46k
平均访问时长
00:03:05
每次访问页数
1.28
跳出率
83.89%
流量来源
直接访问
34.28%
自然搜索
53.39%
邮件
0.09%
外链引荐
9.26%
社交媒体
2.07%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
日本
100.00%
动漫风格图像超分辨率增强
waifu2x是一个使用深度卷积神经网络进行动漫风格艺术作品的单图像超分辨率增强的工具。它支持照片和艺术作品,并具有降噪和放大功能。您可以选择不同的降噪和放大程度。waifu2x使用简单,适用于各种图像增强需求。您可以通过网站使用waifu2x。
基于GAN的图像超分辨率模型
AuraSR-v2是一个基于生成对抗网络(GAN)的图像超分辨率模型,专为放大生成的图像而设计,是GigaGAN论文的一个变体。该模型的PyTorch实现基于非官方的lucidrains/gigagan-pytorch仓库。它能够显著提高图像的分辨率,同时保持图像质量,对于需要高清图像输出的应用场景尤为重要。
视频超分辨率扩展模型
Upscale-A-Video是一个基于扩散的模型,通过将低分辨率视频和文本提示作为输入来提高视频的分辨率。该模型通过两个关键机制确保时间上的一致性:在局部,它将时间层集成到U-Net和VAE-Decoder中,保持短序列的一致性;在全局,引入了一个流引导的循环潜在传播模块,通过在整个序列中传播和融合潜在信息来增强整体视频的稳定性。由于扩散范式,我们的模型还通过允许文本提示指导纹理创建和可调噪声水平来平衡恢复和生成,实现了保真度和质量之间的权衡。大量实验证明,Upscale-A-Video在合成和真实世界基准以及AI生成的视频中均超越了现有方法,展现出令人印象深刻的视觉逼真和时间一致性。
基于扩散反转的多步图像超分辨率模型
InvSR是一种基于扩散反转的图像超分辨率技术,利用大型预训练扩散模型中丰富的图像先验来提高超分辨率性能。该技术通过部分噪声预测策略构建扩散模型的中间状态,作为起始采样点,并使用深度噪声预测器估计最优噪声图,从而在前向扩散过程中初始化采样,生成高分辨率结果。InvSR支持任意数量的采样步骤,从一到五步不等,即使仅使用单步采样,也展现出优于或媲美现有最先进方法的性能。
OMG是一个基于深度学习的图像超分辨率工具
OMG(Once More Generalization)是一个开源的图像超分辨率工具,它利用深度学习技术来提高图像的分辨率。该项目旨在通过AI模型增强图像质量,使其在放大后仍然保持清晰和细腻。
基于真实世界动漫图像和视频源的超分辨率恢复和增强
APISR旨在恢复和增强来自现实世界场景的低质量、低分辨率动漫图像和视频源,使用不同的退化处理。项目支持多种上采样因子权重,如2x、4x等,并提供Gradio演示。
像素感知稳定扩散:真实图像超分辨率和个性化风格化
Pixel-Aware Stable Diffusion(PASD)旨在实现真实图像超分辨率和个性化风格化。通过引入像素感知交叉注意力模块,PASD使得扩散模型能够以像素级别感知图像局部结构,同时利用降级去除模块提取降级不敏感特征,与图像高层信息一起引导扩散过程。PASD可轻松集成到现有的扩散模型中,如稳定扩散。在真实图像超分辨率和个性化风格化方面的实验验证了我们提出的方法的有效性。
AuraSR 是基于 GAN 的超分辨率图像处理模型,可用于提升生成图像的质量。
AuraSR 是基于 GAN 的 Super-Resolution 模型,通过图像条件化增强技术,提升生成图像的质量。该模型采用 GigaGAN 论文的变体实现,并使用 Torch 框架。AuraSR 的优势在于能够有效提高图像的分辨率和质量,适用于图像处理领域。
视频超分辨率纹理增强技术
EvTexture是一种基于事件的视觉驱动的视频超分辨率(VSR)技术,它利用事件信号中的高频细节来更好地恢复VSR中的纹理区域。该技术首次提出使用事件信号进行纹理增强,通过迭代纹理增强模块逐步探索高时间分辨率的事件信息,实现纹理区域的逐步细化,从而获得更准确、丰富的高分辨率细节。在四个数据集上,EvTexture达到了最先进的性能,特别是在Vid4数据集上,与最近的基于事件的方法相比,可以获得高达4.67dB的增益。
视频人脸超分辨率的创新框架
KEEP是一个基于Kalman滤波原理的视频人脸超分辨率框架,旨在通过特征传播来保持时间上的稳定人脸先验。它通过融合先前恢复帧的信息来指导和调节当前帧的恢复过程,有效捕捉视频帧中一致的人脸细节。
一种无混叠的任意尺度超分辨率方法。
Thera 是一种先进的超分辨率技术,能够在不同尺度下生成高质量图像。其主要优点在于内置物理观察模型,有效避免了混叠现象。该技术由 ETH Zurich 的研究团队开发,适用于图像增强和计算机视觉领域,尤其在遥感和摄影测量中具有广泛应用。
高分辨率图像合成
luosiallen/latent-consistency-model 是一个用于合成高分辨率图像的模型。它使用少量的推理步骤来生成具有良好一致性的图像。该模型支持自定义的输入提示和参数调整,可生成逼真的艺术品、人像等图像。
AI图像增强软件,提升图片品质、细节和分辨率。
Aiarty Image Enhancer是一款利用生成式AI技术提升图片质量的软件,它通过去模糊、去噪点、锐化以及超分辨率处理等技术,增强图像并生成真实细节。该产品支持多种图片类型,包括艺术图片、植物、动物和风景摄影照片,可放大至10K、16K或32K分辨率,适用于高品质打印、壁纸、海报、简报等。Aiarty Image Enhancer以其自动化处理、出色的效果和低AI处理要求而受到用户青睐。
AI驱动的视频音频增强解决方案,提供视频超分辨率、降噪、音频上混等功能。
UniFab 是一款强大的 AI 助力的视频音频增强工具。它利用先进的超分辨率技术,能够将视频分辨率提升至 8K/16K,同时将 SDR 转换为 HDR,为用户提供影院级的视觉体验。其 AI 驱动的深度学习能够智能分析并优化每一帧画面,呈现出鲜艳的色彩、逼真的细节和清晰的视觉效果。此外,UniFab 还支持音频上混功能,可将音频轨道升级为 EAC3 5.1/DTS 7.1 环绕声,让用户沉浸在电影般的听觉享受中。该产品主要面向摄影师、影视爱好者、视频创作者等群体,帮助他们优化视频内容,提升创作质量。
用于视频超分辨率和去模糊的深度学习模型
FMA-Net是一个用于视频超分辨率和去模糊的深度学习模型。它可以将低分辨率和模糊的视频恢复成高分辨率和清晰的视频。该模型通过流引导的动态过滤和多注意力的迭代特征精炼技术,可以有效处理视频中的大动作,实现视频的联合超分辨率和去模糊。该模型结构简单、效果显著,可以广泛应用于视频增强、编辑等领域。
STAR是一种用于真实世界视频超分辨率的时空增强框架,首次将强大的文本到视频扩散先验集成到真实世界视频超分辨率中。
STAR是一种创新的视频超分辨率技术,通过将文本到视频扩散模型与视频超分辨率相结合,解决了传统GAN方法中存在的过度平滑问题。该技术不仅能够恢复视频的细节,还能保持视频的时空一致性,适用于各种真实世界的视频场景。STAR由南京大学、字节跳动等机构联合开发,具有较高的学术价值和应用前景。
高分辨率图像生成模型
FLUX1.1 [pro] 是一款高分辨率图像生成模型,支持高达4MP的图像分辨率,同时保持每样本仅10秒的生成时间。FLUX1.1 [pro] – ultra模式能够在不牺牲速度的情况下,生成四倍于标准分辨率的图像,性能基准测试显示其生成速度超过同类高分辨率模型2.5倍以上。此外,FLUX1.1 [pro] – raw模式为追求真实感的创作者提供了更自然、更少合成感的图像生成效果,显著提高了人物多样性和自然摄影的真实性。该模型以每张图片0.06美元的竞争力价格提供。
训练免费高分辨率图像合成的频率视角
FouriScale从频域分析的角度探讨从预先训练的扩散模型生成高分辨率图像,通过创新的、无需训练的方法,通过将预先训练的扩散模型中的原始卷积层替换为结合膨胀技术和低通操作的方法,通过填充然后裁剪策略进一步增强,实现了灵活处理各种宽高比文本到图像生成。使用FouriScale作为指导,该方法成功平衡了生成图像的结构完整性和保真度,实现了任意尺寸、高分辨率和高质量生成的惊人能力。通过其简单性和兼容性,该方法可以为未来对超高分辨率图像合成的探索提供有价值的见解。
一步生成高分辨率图像
SDXL-Lightning是字节跳动开发的图像生成模型,能够在一步或少步骤内生成高达1024像素分辨率的高质量图像。该模型通过渐进式对抗式蒸馏,显著提升了图像生成速度,使其可应用于需要快速响应的场景。模型已开源,支持兼容LoRA模块和其他控制插件,可广泛用于文本到图像生成任务。
高分辨率图像合成的线性扩散变换器
Sana-1.6B是一个高效的高分辨率图像合成模型,它基于线性扩散变换器技术,能够生成高质量的图像。该模型由NVIDIA实验室开发,使用DC-AE技术,具有32倍的潜在空间,能够在多个GPU上运行,提供强大的图像生成能力。Sana-1.6B以其高效的图像合成能力和高质量的输出结果而闻名,是图像合成领域的重要技术。
HiPixel 是一款用于 AI 驱动的图像超分辨处理的 macOS 桌面客户端应用。
HiPixel 是一款原生 macOS 应用程序,专为图像超分辨率处理而设计。它利用 Upscayl 的 AI 模型,提供高质量图像放大功能,且通过 GPU 加速实现快速处理,适合需要图像处理的设计师和摄影师。该产品在 macOS 平台上运行流畅,支持多种图像格式,并提供便捷的文件夹监控功能。HiPixel 的定位为高效的图像处理工具,旨在提高用户的工作效率。
提升图像质量,一键实现高分辨率
AI图像增强器与放大器是一款利用先进的AI技术,将您的图像转变为令人惊叹的杰作的工具。它能够增强图像质量、放大图像分辨率,实现清晰、精细、无暇的效果。不仅可以用于个人照片的增强,也适用于专业摄影师、卡通/动漫创作者、电子商务店铺、房地产业等不同领域的图像处理需求。产品定价灵活,适用于不同用户群体。
高分辨率文本到图像合成模型
Meissonic是一个非自回归的掩码图像建模文本到图像合成模型,能够生成高分辨率的图像。它被设计为可以在消费级显卡上运行。这项技术的重要性在于其能够利用现有的硬件资源,为用户带来高质量的图像生成体验,同时保持了较高的运行效率。Meissonic的背景信息包括其在arXiv上发表的论文,以及在Hugging Face上的模型和代码。
高分辨率、高效率的文本到图像生成框架
Sana是一个由NVIDIA开发的文本到图像生成框架,能够高效生成高达4096×4096分辨率的图像。Sana以其快速的速度和强大的文本图像对齐能力,使得在笔记本电脑GPU上也能部署。它是一个基于线性扩散变换器(text-to-image generative model)的模型,拥有1648M参数,专门用于生成1024px基础的多尺度高宽图像。Sana模型的主要优点包括高分辨率图像生成、快速的合成速度以及强大的文本图像对齐能力。Sana模型的背景信息显示,它是基于开源代码开发的,可以在GitHub上找到源代码,同时它也遵循特定的许可证(CC BY-NC-SA 4.0 License)。
升级和恢复旧照片,生成高分辨率图形
Mimiko是一款应用,可以升级和恢复旧照片,根据您的输入操作图像,生成高分辨率图形。它还可以删除图片背景,从详细描述中生成图形,并从图像的特定方面获得答案。Mimiko提供了未来会有更多功能的承诺。
高效率的高分辨率图像合成框架
Sana是一个文本到图像的框架,能够高效生成高达4096×4096分辨率的图像。它以极快的速度合成高分辨率、高质量的图像,并保持强大的文本-图像对齐,可以部署在笔记本电脑GPU上。Sana的核心设计包括深度压缩自编码器、线性扩散变换器(DiT)、仅解码器的小型语言模型作为文本编码器,以及高效的训练和采样策略。Sana-0.6B与现代大型扩散模型相比,体积小20倍,测量吞吐量快100倍以上。此外,Sana-0.6B可以部署在16GB笔记本电脑GPU上,生成1024×1024分辨率图像的时间少于1秒。Sana使得低成本的内容创作成为可能。
高分辨率、高效率的文本到图像生成框架
Sana是一个由NVIDIA开发的文本到图像的生成框架,能够高效生成高达4096×4096分辨率的图像。Sana以其快速的速度、强大的文本图像对齐能力以及可在笔记本电脑GPU上部署的特性而著称。该模型基于线性扩散变换器,使用预训练的文本编码器和空间压缩的潜在特征编码器,代表了文本到图像生成技术的最新进展。Sana的主要优点包括高分辨率图像生成、快速合成、笔记本电脑GPU上的可部署性,以及开源的代码,使其在研究和实际应用中具有重要价值。
高分辨率、多语言支持的文本到图像生成模型
Sana是一个由NVIDIA开发的文本到图像的框架,能够高效生成高达4096×4096分辨率的图像。该模型以惊人的速度合成高分辨率、高质量的图像,并保持强大的文本-图像对齐能力,可部署在笔记本电脑GPU上。Sana模型基于线性扩散变换器,使用预训练的文本编码器和空间压缩的潜在特征编码器,支持Emoji、中文和英文以及混合提示。
© 2025 AIbase 备案号:闽ICP备08105208号-14