需求人群:
"目标受众包括图像编辑者、设计师、研究人员和任何需要在图像中添加新对象的用户。Diffree适合他们,因为它提供了一种无需手动干预即可快速且自然地添加对象到图像中的方法。"
使用场景示例:
使用Diffree为风景照片添加飞鸟,增强画面生动性。
在产品宣传图中添加虚拟产品,进行市场测试。
在历史场景重建中,根据描述添加缺失的元素。
产品特色:
文本到图像的模型,实现文本引导的对象添加
使用先进的图像修复技术生成的OABench数据集进行训练
具有独特的掩码预测模块,预测新对象的位置
能够保持添加对象时的背景一致性
支持迭代地在同一图像中添加多个对象
适用于多种自然场景中的对象添加
高成功率,保证添加对象的质量和相关性
使用教程:
1. 访问Diffree的在线演示页面。
2. 阅读并理解Diffree的使用说明和要求。
3. 提供或输入希望添加到图像中的对象的文本描述。
4. 上传原始图像或选择已有的图像样本。
5. Diffree将根据文本描述和原始图像生成掩码和新对象的图像。
6. 检查生成的结果,确保新添加的对象符合预期。
7. 如有需要,进行迭代调整,直到满意为止。
8. 下载或直接使用生成的图像。
浏览量:193
文本引导的无形状物体修复模型
Diffree是一个基于文本引导的图像修复模型,它能够通过文本描述来添加新对象到图像中,同时保持背景的一致性、空间适宜性和对象的相关性和质量。该模型通过训练在OABench数据集上,使用稳定扩散模型和额外的掩码预测模块,能够独特地预测新对象的位置,实现仅通过文本指导的对象添加。
VideoPainter 是一款支持任意长度视频修复和编辑的工具,采用文本引导的插件式框架。
VideoPainter 是一款基于深度学习的视频修复和编辑工具,采用预训练的扩散变换器模型,结合轻量级背景上下文编码器和 ID 重采样技术,能够实现高质量的视频修复和编辑。该技术的重要性在于它突破了传统视频修复方法在长度和复杂度上的限制,为视频创作者提供了一种高效、灵活的工具。产品目前处于研究阶段,暂未明确价格,主要面向视频编辑领域的专业用户和研究人员。
无需额外训练的高质量图像修复插件,适用于所有稳定扩散模型。
LanPaint 是一款针对稳定扩散模型的图像修复插件,通过多轮迭代推理,无需额外训练即可实现高质量的图像修复。该技术的重要性在于它为用户提供了一种无需复杂训练即可获得精准修复结果的解决方案,大大降低了使用门槛。LanPaint 适用于任何稳定扩散模型,包括用户自定义的模型,具有广泛的适用性和灵活性。它主要面向需要高质量图像修复的创作者和开发者,尤其是那些希望在不进行额外训练的情况下快速获得修复结果的用户。
预测受损历史文档原始外观的技术
HDR是一个专注于修复受损历史文档的新技术,旨在预测受损历史文档的原始外观。这项技术通过创建大规模数据集HDR28K和基于扩散的网络DiffHDR,能够处理包括字符缺失、纸张损坏和墨水侵蚀等多种损害。HDR的主要优点在于其能够精确捕捉字符内容和风格,并与修复区域内的背景协调一致。该技术不仅能够修复受损文档,还能扩展到文档编辑和文本块生成,展现出高灵活性和泛化能力。HDR对于传承无价文化和文明具有重要意义。
一体化AI图像修复与编辑工具
BrushEdit是一个先进的、统一的AI代理,用于图像修复和编辑。它结合了多模态大型语言模型(MLLMs)和图像修复模型,实现了自动化、用户友好和交互式的自由形式指令编辑。该系统通过集成MLLMs和双分支图像修复模型,在代理合作框架中执行编辑类别分类、主要对象识别、掩码获取和编辑区域修复。广泛的实验表明,该框架有效地结合了MLLMs和修复模型,在包括掩码区域保留和编辑效果一致性在内的七个关键指标上取得了优越的性能。
高保真文本引导的音乐生成与编辑模型
MelodyFlow是一个基于文本控制的高保真音乐生成和编辑模型,它使用连续潜在表示序列,避免了离散表示的信息丢失问题。该模型基于扩散变换器架构,经过流匹配目标训练,能够生成和编辑多样化的高质量立体声样本,且具有文本描述的简单性。MelodyFlow还探索了一种新的正则化潜在反转方法,用于零样本测试时的文本引导编辑,并展示了其在多种音乐编辑提示中的优越性能。该模型在客观和主观指标上进行了评估,证明了其在标准文本到音乐基准测试中的质量与效率上与评估基线相当,并且在音乐编辑方面超越了以往的最先进技术。
高容量真实世界图像修复与隐私安全数据管理
DreamClear是一个专注于高容量真实世界图像修复的深度学习模型,它通过隐私安全的数据管理技术,提供了一种高效的图像超分辨率和修复解决方案。该模型在NeurIPS 2024上被提出,主要优点包括高容量处理能力、隐私保护以及实际应用中的高效性。DreamClear的背景信息显示,它是基于先前工作的改进,并且提供了多种预训练模型和代码,以便于研究者和开发者使用。产品是免费的,定位于科研和工业界的图像处理需求。
无限创意画板,集成领先AI图像编辑技术
Ideogram Canvas是一个为组织、生成、编辑和组合图像而设计的无限创意画板。它支持上传自有图像或在画板内生成新图像,并使用行业领先的Magic Fill(图像修复)和Extend(图像扩展)工具进行无缝编辑、扩展或组合。该产品特别适合图形设计,提供高级文本渲染和精确的提示遵循,通过灵活、迭代的过程将您的创意变为现实。Ideogram Canvas的背景信息显示,它是基于AI的创新界面,旨在通过AI的魔力增强您的迭代创意过程。无论您是经验丰富的设计师还是刚开始设计之旅,我们的灵活平台都能让您以惊人的速度和精度将愿景变为现实,扩展创意自由的边界。
阿里妈妈创意团队开发的图像修复模型
FLUX.1-dev-Controlnet-Inpainting-Beta是由阿里妈妈创意团队开发的一个图像修复模型,该模型在图像修复领域具有显著的改进,支持1024x1024分辨率的直接处理和生成,无需额外的放大步骤,提供更高质量和更详细的输出结果。模型经过微调,能够捕捉和再现修复区域的更多细节,并通过增强的提示解释提供对生成内容的更精确控制。
AI图像修复模型,用于填补图像中的缺失部分。
FLUX.1-dev-Controlnet-Inpainting-Alpha是由AlimamaCreative Team发布的AI图像修复模型,专门用于修复和填补图像中的缺失或损坏部分。该模型在768x768分辨率下表现最佳,能够实现高质量的图像修复。作为alpha版本,它展示了在图像修复领域的先进技术,并且随着进一步的训练和优化,预计将提供更加卓越的性能。
基于FLUX.1-dev模型的图像修复工具
FLUX-Controlnet-Inpainting 是由阿里妈妈创意团队发布的基于FLUX.1-dev模型的图像修复工具。该工具利用深度学习技术对图像进行修复,填补缺失部分,适用于图像编辑和增强。它在768x768分辨率下表现最佳,能够提供高质量的图像修复效果。目前该工具处于alpha测试阶段,未来将推出更新版本。
从文本生成高保真3D服装资产
ClotheDreamer是一个基于3D高斯的文本引导服装生成模型,能够从文本描述生成高保真的、可穿戴的3D服装资产。它采用了一种新颖的表示方法Disentangled Clothe Gaussian Splatting (DCGS),允许服装和人体分别进行优化。该技术通过双向Score Distillation Sampling (SDS)来提高服装和人体渲染的质量,并支持自定义服装模板输入。ClotheDreamer的合成3D服装可以轻松应用于虚拟试穿,并支持物理精确的动画。
基于先进 AI 模型的图像修复工具。
IOPaint 是一个免费、开源且完全可自托管的修复 / 填充工具,使用最先进的 AI 模型。它可以帮助用户删除图像中的不需要的对象、修复瑕疵、添加新对象、扩大图像等。
基于SDXL的ControlNet Tile模型,适用于Stable Diffusion SDXL ControlNet的高分辨率图像修复。
这是一个基于SDXL的ControlNet Tile模型,使用Hugging Face Diffusers训练集,适用于Stable Diffusion SDXL ControlNet。它最初是为我自己的逼真模型训练,用于终极放大过程以提高图像细节。使用合适的工作流程,它可以为高细节、高分辨率的图像修复提供良好的结果。由于大多数开源没有SDXL Tile模型,我决定分享这个模型。该模型支持高分辨率修复、风格迁移和图像修复等功能,可以为你提供高质量的图像处理体验。
使用扩散指引对文本感知图像进行细粒度风格控制
DreamWalk是一种基于扩散指引的文本感知图像生成方法,可对图像的风格和内容进行细粒度控制,无需对扩散模型进行微调或修改内部层。支持多种风格插值和空间变化的引导函数,可广泛应用于各种扩散模型。
高质量图像修复,根据人类指示进行优化
InstructIR 接受图像和人类书写的指令作为输入,通过单一神经模型执行一体化图像修复。在多个修复任务中取得了最先进的结果,包括图像去噪、去雨、去模糊、去雾以及低光图像增强等。🚀 您可以从演示教程开始。查看我们的 GitHub 获取更多信息。 免责声明:请注意,这不是一个产品,因此您会注意到一些限制。此演示需要输入具有某些降级的图像(模糊、噪音、雨、低光、雾)和一个提示,请求应该执行什么操作。由于 GPU 内存限制,如果输入高分辨率图像(2K、4K),应用可能会崩溃。 该模型主要使用合成数据进行训练,因此在真实世界复杂图像上可能效果不佳。然而,在真实世界的雾天和低光图像上效果出奇地好。您还可以尝试一般的图像增强提示(例如,“润色此图像”,“增强颜色”)并查看它如何改善颜色。
AI在线图像增强工具,提升照片质量
HitPaw在线AI图片增强工具采用先进的AI技术去除噪点、锐化细节和提高照片质量。它快速高效易于使用 - 无需下载任何软件!今天就来试试,看它能为你的照片带来什么不同。
虚拟试穿产品图像修复模型
Diffuse to Choose 是一种基于扩散的图像修复模型,主要用于虚拟试穿场景。它能够在修复图像时保留参考物品的细节,并且能够进行准确的语义操作。通过将参考图像的细节特征直接融入主要扩散模型的潜在特征图中,并结合感知损失来进一步保留参考物品的细节,该模型在快速推理和高保真细节方面取得了良好的平衡。
图像修复的新突破
SUPIR是一种开创性的图像修复方法,利用生成先验和模型扩展的力量。利用多模态技术和先进的生成先验,SUPIR在智能和逼真的图像修复方面取得了重大进展。作为SUPIR内的关键催化剂,模型扩展显著增强了其能力,并展示了图像修复的新潜力。我们收集了一个包含2000万高分辨率、高质量图像的数据集进行模型训练,每个图像都附有描述性文本注释。SUPIR能够根据文本提示修复图像,拓宽了其应用范围和潜力。此外,我们引入了负质量提示以进一步提高感知质量。我们还开发了一种修复引导采样方法,以抑制生成式修复中遇到的保真度问题。实验证明了SUPIR出色的修复效果及其通过文本提示操控修复的新能力。
文本引导的高保真3D场景合成
SceneWiz3D是一种新颖的方法,可以从文本中合成高保真的3D场景。它采用混合的3D表示,对对象采用显式表示,对场景采用隐式表示。用户可以通过传统的文本到3D方法或自行提供对象来生成对象。为了配置场景布局并自动放置对象,我们在优化过程中应用了粒子群优化技术。此外,在文本到场景的情况下,对于场景的某些部分(例如角落、遮挡),很难获得多视角监督,导致几何形状劣质。为了缓解这种监督缺失,我们引入了RGBD全景扩散模型作为额外先验,从而实现了高质量的几何形状。广泛的评估支持我们的方法实现了比以前的方法更高的质量,可以生成详细且视角一致的3D场景。
AI 图像修复工具
Lama Cleaner 是一个免费、开源的 AI 图像修复工具,基于最先进的 AI 模型。它可以删除图片中的任何不需要的物体、瑕疵或人物,也可以擦除和替换图片中的任何物体。该工具支持 CPU、GPU 和 M1/2,并提供多种 SOTA AI 模型可供选择。
视频重渲染:零样本文本引导的视频到视频翻译
RERENDER A VIDEO是一种新颖的零样本文本引导的视频到视频翻译框架,用于将图像模型应用于视频领域。该框架包括两个部分:关键帧翻译和完整视频翻译。第一部分使用适应性扩散模型生成关键帧,并应用分层跨帧约束来确保形状、纹理和颜色的一致性。第二部分通过时间感知的补丁匹配和帧混合将关键帧传播到其他帧。我们的框架以低成本实现了全局风格和局部纹理的时间一致性(无需重新训练或优化)。该适应性与现有的图像扩散技术兼容,使我们的框架能够利用它们,例如使用LoRA自定义特定主题,并使用ControlNet引入额外的空间引导。大量实验证明了我们提出的框架在呈现高质量和时间一致性视频方面的有效性。
多模态头像生成和动画
MagicAvatar是一个多模态框架,能够将各种输入模式(文本、视频和音频)转换为运动信号,从而生成/动画化头像。它可以通过简单的文本提示创建头像,也可以根据给定的源视频创建遵循给定运动的头像。此外,它还可以动画化特定主题的头像。MagicAvatar的优势在于它能够将多种输入模式结合起来,生成高质量的头像和动画。
基于自然语言输入的图像修复算法
Inst-Inpaint是一种图像修复算法,可以根据自然语言输入估计要删除的对象并同时删除它。该产品提供了一个名为GQA-Inpaint的数据集,以及一种名为Inst-Inpaint的新型修复框架,可以根据文本提示从图像中删除对象。该产品提供了各种GAN和扩散基线,并在合成和真实图像数据集上运行实验。该产品提供了不同的评估指标,以衡量模型的质量和准确性,并显示出显著的定量和定性改进。
一键AI工具,提供图像修复、背景移除等功能
Phosus AI图像增强工具是一款提供图像修复、背景移除、图像样式转换、低光照增强、自动修复、超分辨率等功能的AI工具。用户可以通过简单的操作实现对图像的修复、处理和增强,提高图像质量和视觉效果。产品定价灵活合理,适用于个人和商业使用。
免费AI修复模糊老照片
照片修复是一个免费的AI修复服务,可以修复老照片中的模糊和损坏问题。通过几个简单的步骤,我们先进的算法可以修复最模糊和褪色的照片,让您拥有清晰高质量的图像,让您引以为豪。我们理解保护珍贵回忆的重要性,因此我们使用最先进的技术来修复您的老照片,确保它们经得起时间的考验。此外,我们注重您的隐私和个人信息的安全,您可以放心地相信我们保护您的图像数据。不要让珍贵的回忆逐渐消逝-立即尝试照片修复,恢复让您一生珍藏的照片。
本地运行稳定的 Diffusion 模型的最简单方式
Diffusion Bee 是在 Intel/M1 Mac 上本地运行稳定的 Diffusion 模型的最简单方式,提供一键安装程序,无需依赖或技术知识。 Diffusion Bee 在您的计算机上本地运行,不会将任何数据发送到云端(除非您选择上传图像)。 主要功能: - 图像转换 - 图像修复 - 图像生成历史记录 - 图像放大 - 多种图像尺寸 - 针对 M1/M2 芯片进行优化 - 支持负向提示和高级提示选项 - 控制网络 Diffusion Bee 是基于 Stable Diffusion 的 GUI 封装,所以所有 Stable Diffusion 的条款适用于输出结果。 欲了解更多信息,请访问文档。 系统要求: - 配有 Intel 或 M1/M2 芯片的 Mac - 对于 Intel 芯片:MacOS 12.3.1 或更高版本 - 对于 M1/M2 芯片:MacOS 11.0.0 或更高版本 许可证:Stable Diffusion 发布在 CreativeML OpenRAIL M 许可下。
© 2025 AIbase 备案号:闽ICP备08105208号-14