需求人群:
"目标受众为图像处理领域的研究人员和开发者,特别是那些需要处理图像退化问题的专业人士。InstantIR的技术可以应用于图像增强、修复和创意编辑等多个领域,帮助他们提高图像质量,恢复图像细节,以及实现基于文本的图像编辑。"
使用场景示例:
案例1:使用InstantIR恢复老照片的清晰度和色彩。
案例2:通过InstantIR技术修复因压缩而质量下降的图像。
案例3:利用InstantIR根据文本描述创造新的图像风格和纹理。
产品特色:
- 动态调整生成条件:在推理过程中根据输入动态生成参考图像。
- 紧凑表示提取:使用预训练的视觉编码器提取输入图像的紧凑表示。
- 生成先验:利用提取的表示解码当前扩散潜在空间并实例化生成先验。
- 采样算法适应性:根据退化强度变化的生成参考的方差,开发适应输入质量的采样算法。
- 真实纹理恢复:能够恢复真实世界退化图像中的丰富和逼真的纹理细节。
- 文本引导的创造性恢复:即使没有在文本-图像配对数据上显式训练,也能通过文本描述操纵生成参考,实现创造性的图像恢复。
- 与SOTA模型比较:在低质量输入图像的恢复上,InstantIR提供了与现有最先进技术模型的比较。
使用教程:
1. 访问InstantIR的官方网站。
2. 阅读首页上的产品介绍和功能说明。
3. 点击'Code'链接,访问GitHub页面,获取项目代码。
4. 点击'Model'链接,访问HuggingFace页面,下载预训练模型。
5. 根据项目代码中的说明文档,设置并运行InstantIR。
6. 将需要恢复的图像作为输入,InstantIR将自动处理并输出恢复后的图像。
7. 如果需要进行文本引导的创造性恢复,输入相应的文本描述,并观察InstantIR生成的结果。
8. 评估恢复后的图像质量,并根据需要调整参数以获得更好的效果。
浏览量:16
盲图像恢复技术,利用即时生成参考图像恢复破损图像
InstantIR是一种基于扩散模型的盲图像恢复方法,能够在测试时处理未知退化问题,提高模型的泛化能力。该技术通过动态调整生成条件,在推理过程中生成参考图像,从而提供稳健的生成条件。InstantIR的主要优点包括:能够恢复极端退化的图像细节,提供逼真的纹理,并且通过文本描述调节生成参考,实现创造性的图像恢复。该技术由北京大学、InstantX团队和香港中文大学的研究人员共同开发,得到了HuggingFace和fal.ai的赞助支持。
高效能的文本到图像生成模型
Stable Diffusion 3.5 Large Turbo 是一个基于文本生成图像的多模态扩散变换器(MMDiT)模型,采用了对抗性扩散蒸馏(ADD)技术,提高了图像质量、排版、复杂提示理解和资源效率,特别注重减少推理步骤。该模型在生成图像方面表现出色,能够理解和生成复杂的文本提示,适用于多种图像生成场景。它在Hugging Face平台上发布,遵循Stability Community License,适合研究、非商业用途以及年收入少于100万美元的组织或个人免费使用。
一个统一的文本到任意模态生成框架
Lumina-T2X是一个先进的文本到任意模态生成框架,它能够将文本描述转换为生动的图像、动态视频、详细的多视图3D图像和合成语音。该框架采用基于流的大型扩散变换器(Flag-DiT),支持高达7亿参数,并能扩展序列长度至128,000个标记。Lumina-T2X集成了图像、视频、3D对象的多视图和语音频谱图到一个时空潜在标记空间中,可以生成任何分辨率、宽高比和时长的输出。
一个千万级3D形状模型
Make-A-Shape是一个新的3D生成模型,旨在以高效的方式训练大规模数据,能够利用1000万个公开可用的形状。我们创新性地引入了小波树表示法,通过制定子带系数滤波方案来紧凑地编码形状,然后通过设计子带系数打包方案将表示布置在低分辨率网格中,使其可生成扩散模型。此外,我们还提出了子带自适应训练策略,使我们的模型能够有效地学习生成粗细小波系数。最后,我们将我们的框架扩展为受额外输入条件控制,以使其能够从各种模态生成形状,例如单/多视图图像、点云和低分辨率体素。在大量实验中,我们展示了无条件生成、形状完成和条件生成等各种应用。我们的方法不仅在提供高质量结果方面超越了现有技术水平,而且在几秒内高效生成形状,通常在大多数条件下仅需2秒钟。
使用生成扩散先验进行盲图像恢复
DiffBIR 是一种基于生成扩散先验的盲图像恢复模型。它通过两个阶段的处理来去除图像的退化,并细化图像的细节。DiffBIR 的优势在于提供高质量的图像恢复结果,并且具有灵活的参数设置,可以在保真度和质量之间进行权衡。该模型的使用是免费的。
根据人类指令修复和编辑照片的框架
PromptFix是一个综合框架,能够使扩散模型遵循人类指令执行各种图像处理任务。该框架通过构建大规模的指令遵循数据集,提出了高频引导采样方法来控制去噪过程,并设计了辅助提示适配器,利用视觉语言模型增强文本提示,提高模型的任务泛化能力。PromptFix在多种图像处理任务中表现优于先前的方法,并在盲恢复和组合任务中展现出优越的零样本能力。
长文本问答增强型检索生成模型
LongRAG是一个基于大型语言模型(LLM)的双视角、鲁棒的检索增强型生成系统范式,旨在增强对复杂长文本知识的理解和检索能力。该模型特别适用于长文本问答(LCQA),能够处理全局信息和事实细节。产品背景信息显示,LongRAG通过结合检索和生成技术,提升了对长文本问答任务的性能,特别是在需要多跳推理的场景中。该模型是开源的,可以免费使用,主要面向研究者和开发者。
ComfyUI的详细控制节点,优化图像细节。
ComfyUI-Detail-Daemon是一个基于muerrilla的sd-webui-Detail-Daemon移植的节点,用于ComfyUI,可以调整控制细节的sigmas值。这个工具特别适用于增强Flux模型的细节,同时可能去除不需要的背景模糊。它包括四个节点:Detail Daemon Sampler、Detail Daemon Graph Sigmas、Multiply Sigmas和Lying Sigma Sampler,提供了多种方法来增强图像细节。
大规模视频生成的自回归扩散模型
MarDini是Meta AI Research推出的一款视频扩散模型,它将掩码自回归(MAR)的优势整合到统一的扩散模型(DM)框架中。该模型能够根据任意数量的掩码帧在任意帧位置进行视频生成,支持视频插值、图像到视频生成以及视频扩展等多种视频生成任务。MarDini的设计高效,将大部分计算资源分配给低分辨率规划模型,使得在大规模上进行空间-时间注意力成为可能。MarDini在视频插值方面树立了新的标杆,并且在几次推理步骤内,就能高效生成与更昂贵的高级图像到视频模型相媲美的视频。
基于文本生成图像的多模态扩散变换器模型
Stable Diffusion 3.5 Medium是一个基于文本到图像的生成模型,由Stability AI开发,具有改进的图像质量、排版、复杂提示理解和资源效率。该模型使用了三个固定的预训练文本编码器,通过QK-规范化提高训练稳定性,并在前12个变换层中引入双注意力块。它在多分辨率图像生成、一致性和各种文本到图像任务的适应性方面表现出色。
视频扩散模型加速工具,无需训练即可生成高质量视频内容。
FasterCache是一种创新的无需训练的策略,旨在加速视频扩散模型的推理过程,并生成高质量的视频内容。这一技术的重要性在于它能够显著提高视频生成的效率,同时保持或提升内容的质量,这对于需要快速生成视频内容的行业来说是非常有价值的。FasterCache由来自香港大学、南洋理工大学和上海人工智能实验室的研究人员共同开发,项目页面提供了更多的视觉结果和详细信息。产品目前免费提供,主要面向视频内容生成、AI研究和开发等领域。
连续时间一致性模型的简化、稳定与扩展
OpenAI 提出的连续时间一致性模型(sCM)是一种生成模型,它在生成高质量样本时,只需要两个采样步骤,与领先的扩散模型相比,具有显著的速度优势。sCM 通过简化理论公式,稳定并扩展了大规模数据集的训练,使得在保持样本质量的同时,大幅减少了采样时间,为实时应用提供了可能性。
开源视频生成模型
genmoai/models 是一个开源的视频生成模型,代表了视频生成技术的最新进展。该模型名为 Mochi 1,是一个基于 Asymmetric Diffusion Transformer (AsymmDiT) 架构的10亿参数扩散模型,从零开始训练,是迄今为止公开发布的最大的视频生成模型。它具有高保真运动和强提示遵循性,显著缩小了封闭和开放视频生成系统之间的差距。该模型在 Apache 2.0 许可下发布,用户可以在 Genmo 的 playground 上免费试用此模型。
高性能的文本到图像生成模型
Stable Diffusion 3.5 Large 是一个基于文本生成图像的多模态扩散变换器(MMDiT)模型,由 Stability AI 开发。该模型在图像质量、排版、复杂提示理解和资源效率方面都有显著提升。它使用三个固定的预训练文本编码器,并通过 QK 归一化技术提高训练稳定性。此外,该模型在训练数据和策略上使用了包括合成数据和过滤后的公开可用数据。Stable Diffusion 3.5 Large 模型在遵守社区许可协议的前提下,可以免费用于研究、非商业用途,以及年收入少于100万美元的组织或个人的商业用途。
一体化AI照片编辑器,创造惊艳照片。
Pic Pic AI编辑器是一个强大的AI图片编辑工具,它提供了多种功能,如照片增强、背景去除、物体移除等,使用户能够轻松地对照片进行专业级别的编辑。该产品以用户友好的界面和高效的AI技术为依托,旨在简化图片编辑流程,提高编辑效率,同时保证输出的图像质量。Pic Pic AI编辑器适合各种水平的用户,无论是社交媒体用户、电商卖家还是专业摄影师,都能通过这个平台提升他们的图像处理能力。
提高图片自然度和真实感的AI模型
iPhone Photo [FLUX] 是一个基于LoRA技术的AI模型,旨在增强图像的真实感,特别是在模仿iPhone照片效果方面表现出色。它不仅能够提升iPhone拍摄的照片质量,也能为非iPhone照片增添自然和真实的视觉效果。该模型由Anibaaal开发,并于2024年10月2日发表,属于Civitai平台。模型的使用技巧提示为强度设置为1,并且有超过1000个赞和375个评论,显示出其受欢迎程度。
全能的创造者和编辑器,通过扩散变换遵循指令
ACE是一个基于扩散变换的全能创造者和编辑器,它能够通过统一的条件格式Long-context Condition Unit (LCU)输入,实现多种视觉生成任务的联合训练。ACE通过高效的数据收集方法解决了训练数据缺乏的问题,并通过多模态大型语言模型生成准确的文本指令。ACE在视觉生成领域具有显著的性能优势,可以轻松构建响应任何图像创建请求的聊天系统,避免了视觉代理通常采用的繁琐流程。
一种新的图像恢复算法
PMRF(Posterior-Mean Rectified Flow,后验均值修正流)是一种新提出的图像恢复算法,旨在解决图像恢复任务中的失真-感知质量权衡问题。它通过结合后验均值和修正流的方式,提出了一种新颖的图像恢复框架,能够在降低图像失真同时保证图像的感知质量。
逆向绘画技术,重现绘画过程
Inverse Painting 是一种基于扩散模型的方法,能够从一幅目标画作生成绘画过程的时间流逝视频。该技术通过训练学习真实艺术家的绘画过程,能够处理多种艺术风格,并生成类似人类艺术家的绘画过程视频。它结合了文本和区域理解,定义了一组绘画指令,并使用新颖的扩散基础渲染器更新画布。该技术不仅能够处理训练中有限的丙烯画风格,还能为广泛的艺术风格和流派提供合理的结果。
一种最小化均方误差的图像恢复算法
Posterior-Mean Rectified Flow(PMRF)是一种新颖的图像恢复算法,它通过优化后验均值和矫正流模型来最小化均方误差(MSE),同时保证图像的逼真度。PMRF算法简单而高效,其理论基础是将后验均值预测(最小均方误差估计)优化到与真实图像分布相匹配。该算法在图像恢复任务中表现出色,能够处理噪声、模糊等多种退化问题,并且具有较好的感知质量。
集成空间编织注意力,提升扩散模型的高保真条件
HelloMeme是一个集成了空间编织注意力的扩散模型,旨在将高保真和丰富的条件嵌入到图像生成过程中。该技术通过提取驱动视频中的每一帧特征,并将其作为输入到HMControlModule,从而生成视频。通过进一步优化Animatediff模块,提高了生成视频的连续性和保真度。此外,HelloMeme还支持通过ARKit面部混合形状控制生成的面部表情,以及基于SD1.5的Lora或Checkpoint,实现了框架的热插拔适配器,不会影响T2I模型的泛化能力。
使用扩散模型进行图像外延
Diffusers Image Outpaint 是一个基于扩散模型的图像外延技术,它能够根据已有的图像内容,生成图像的额外部分。这项技术在图像编辑、游戏开发、虚拟现实等领域具有广泛的应用前景。它通过先进的机器学习算法,使得图像生成更加自然和逼真,为用户提供了一种创新的图像处理方式。
提升基于拖拽的图像编辑的交互性和速度
InstantDrag是一个优化自由的流程,它通过仅使用图像和拖拽指令作为输入,增强了交互性和速度。该技术由两个精心设计的网络组成:拖拽条件的光流生成器(FlowGen)和光流条件的扩散模型(FlowDiffusion)。InstantDrag通过将任务分解为运动生成和运动条件图像生成,学习了基于真实世界视频数据集的拖拽图像编辑的运动动态。它能够在不需要掩码或文本提示的情况下,快速执行逼真的编辑,这使得它成为交互式、实时应用的有前景的解决方案。
AI照片增强器,一键提升照片质量。
PhotoApp是一款利用尖端AI技术的照片编辑应用,能够对模糊、老旧或低质量的照片进行修复和增强,使其达到高清质量。它提供了一键式的解决方案,使用户能够轻松地改善照片细节、颜色和清晰度,同时支持放大图片而不损失质量。PhotoApp适用于社交媒体发布、社区内容分享、打印图像、电子商务产品展示、教育材料制作和杂志图片编辑等多种场景。该应用以其快速、简单和一致的卓越成果赢得了全球数百万用户的喜爱。
统一的图像生成框架,简化多任务图像生成。
OmniGen是一个创新的扩散框架,它将多种图像生成任务统一到单一模型中,无需特定任务的网络或微调。这一技术简化了图像生成流程,提高了效率,降低了开发和维护成本。
基于FLUX.1-dev模型的图像修复工具
FLUX-Controlnet-Inpainting 是由阿里妈妈创意团队发布的基于FLUX.1-dev模型的图像修复工具。该工具利用深度学习技术对图像进行修复,填补缺失部分,适用于图像编辑和增强。它在768x768分辨率下表现最佳,能够提供高质量的图像修复效果。目前该工具处于alpha测试阶段,未来将推出更新版本。
用于精确控制扩散模型中概念的低秩适配器
Concept Sliders 是一种用于精确控制扩散模型中概念的技术,它通过低秩适配器(LoRA)在预训练模型之上进行应用,允许艺术家和用户通过简单的文本描述或图像对来训练控制特定属性的方向。这种技术的主要优点是能够在不改变图像整体结构的情况下,对生成的图像进行细微调整,如眼睛大小、光线等,从而实现更精细的控制。它为艺术家提供了一种新的创作表达方式,同时解决了生成模糊或扭曲图像的问题。
利用预训练的图像到视频扩散模型生成连贯中间帧
该产品是一个图像到视频的扩散模型,通过轻量级的微调技术,能够从一对关键帧生成具有连贯运动的连续视频序列。这种方法特别适用于需要在两个静态图像之间生成平滑过渡动画的场景,如动画制作、视频编辑等。它利用了大规模图像到视频扩散模型的强大能力,通过微调使其能够预测两个关键帧之间的视频,从而实现前向和后向的一致性。
© 2024 AIbase 备案号:闽ICP备08105208号-14