需求人群:
"适用于需要处理部分遮挡对象的图像处理任务,可用于改善对象识别和三维重建方法的性能。"
使用场景示例:
用于艺术品图像的零镜像分割
改善医学图像中遮挡对象的识别
应用于无人驾驶汽车中的环境感知
产品特色:
零镜像分割
形状和外观估计
条件扩散模型
浏览量:24
最新流量情况
月访问量
23904.81k
平均访问时长
00:04:51
每次访问页数
5.82
跳出率
43.33%
流量来源
直接访问
48.28%
自然搜索
35.88%
邮件
0.03%
外链引荐
12.71%
社交媒体
3.06%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
13.77%
印度
8.48%
日本
3.85%
俄罗斯
4.86%
美国
17.58%
零镜像分割框架
pix2gestalt是一个用于零镜像分割的框架,通过学习估计部分可见对象的整体形状和外观。利用大规模扩散模型,并将它们的表示转移到这一任务,学习用于在具有挑战性的零镜像情况下重建整个对象的条件扩散模型,包括打破自然和物理先验的艺术等例子。我们使用合成策划的数据集作为训练数据,其中包含遮挡对象及其完整对应物。实验证明,我们的方法在已建立的基准测试上优于监督基线。此外,我们的模型还可用于显著改善现有对象识别和三维重建方法在存在遮挡的情况下的性能。
图像条件扩散模型的微调工具
diffusion-e2e-ft是一个开源的图像条件扩散模型微调工具,它通过微调预训练的扩散模型来提高特定任务的性能。该工具支持多种模型和任务,如深度估计和法线估计,并提供了详细的使用说明和模型检查点。它在图像处理和计算机视觉领域具有重要应用,能够显著提升模型在特定任务上的准确性和效率。
C++实现的零代码分割分割器
Sam是一个使用C++从头实现的图像分割模型。它能够对图像进行像素级分割,定位对象边界,无需任何额外代码和注释。Sam基于Meta的Segment Anything Model,利用Transformer架构进行端到端的图像分割预测。它提供了简单易用的C++接口,支持命令行和图形界面两种使用方式。Sam可以高效运行在CPU上,模型小巧,同时保证了良好的分割精度。它非常适合在需要高性能但无法使用GPU的嵌入式环境中部署和使用图像分割模型。
自适应条件选择,提升文本到图像生成控制力
DynamicControl是一个用于提升文本到图像扩散模型控制力的框架。它通过动态组合多样的控制信号,支持自适应选择不同数量和类型的条件,以更可靠和详细地合成图像。该框架首先使用双循环控制器,利用预训练的条件生成模型和判别模型,为所有输入条件生成初始真实分数排序。然后,通过多模态大型语言模型(MLLM)构建高效条件评估器,优化条件排序。DynamicControl联合优化MLLM和扩散模型,利用MLLM的推理能力促进多条件文本到图像任务,最终排序的条件输入到并行多控制适配器,学习动态视觉条件的特征图并整合它们以调节ControlNet,增强对生成图像的控制。
基于条件扩散模型的人类-物体交互合成技术
Controllable Human-Object Interaction Synthesis (CHOIS) 是一种先进的技术,它能够根据语言描述、初始物体和人类状态以及稀疏物体路径点来同时生成物体运动和人类运动。这项技术对于模拟真实的人类行为至关重要,尤其在需要精确手-物体接触和由地面支撑的适当接触的场景中。CHOIS通过引入物体几何损失作为额外的监督信息,以及在训练扩散模型的采样过程中设计指导项来强制执行接触约束,从而提高了生成物体运动与输入物体路径点之间的匹配度,并确保了交互的真实性。
利用 AI 技术,一键从图片中提取设计元素。
AI 智能图像分割是一款基于 Figma 的插件,利用先进的 Segment Anything 模型 (SAM) 和 🤗 Transformers.js 技术,为设计师和艺术家提供了一个交互式和精确的图像分割工具。它通过点击交互的方式,简化了从图像中提取对象或区域的过程,极大提升了设计效率,释放了创造力。该插件免费使用且开源,允许用户自定义并为其开发做出贡献。
交互式分割和识别模型
Open-Vocabulary SAM是一个基于SAM和CLIP的视觉基础模型,专注于交互式分割和识别任务。它通过SAM2CLIP和CLIP2SAM两个独特的知识传输模块,实现了SAM和CLIP的统一框架。在各种数据集和检测器上的广泛实验表明,Open-Vocabulary SAM在分割和识别任务中的有效性,明显优于简单组合SAM和CLIP的朴素基准。此外,结合图像分类数据训练,该方法可以分割和识别大约22,000个类别。
一种用于零样本定制图像生成的扩散自蒸馏技术
Diffusion Self-Distillation是一种基于扩散模型的自蒸馏技术,用于零样本定制图像生成。该技术允许艺术家和用户在没有大量配对数据的情况下,通过预训练的文本到图像的模型生成自己的数据集,进而微调模型以实现文本和图像条件的图像到图像任务。这种方法在保持身份生成任务的性能上超越了现有的零样本方法,并能与每个实例的调优技术相媲美,无需测试时优化。
X-Dyna是一种基于扩散模型的零样本人类图像动画生成技术。
X-Dyna是一种创新的零样本人类图像动画生成技术,通过将驱动视频中的面部表情和身体动作迁移到单张人类图像上,生成逼真且富有表现力的动态效果。该技术基于扩散模型,通过Dynamics-Adapter模块,将参考外观上下文有效整合到扩散模型的空间注意力中,同时保留运动模块合成流畅复杂动态细节的能力。它不仅能够实现身体姿态控制,还能通过本地控制模块捕捉与身份无关的面部表情,实现精确的表情传递。X-Dyna在多种人类和场景视频的混合数据上进行训练,能够学习物理人体运动和自然场景动态,生成高度逼真和富有表现力的动画。
基于音频条件的潜在扩散模型的唇部同步框架
LatentSync 是由字节跳动开发的一款基于音频条件的潜在扩散模型的唇部同步框架。它能够直接利用 Stable Diffusion 的强大能力,无需任何中间运动表示,即可建模复杂的音视频关联。该框架通过提出的时间表示对齐(TREPA)技术,有效提升了生成视频帧的时间一致性,同时保持了唇部同步的准确性。该技术在视频制作、虚拟主播、动画制作等领域具有重要应用价值,能够显著提高制作效率,降低人工成本,为用户带来更加逼真、自然的视听体验。LatentSync 的开源特性也使其能够被广泛应用于学术研究和工业实践,推动相关技术的发展和创新。
实时一步潜在扩散模型,可用图像条件控制生成
SDXS是一种新的扩散模型,通过模型微型化和减少采样步骤,大幅降低了模型延迟。它利用知识蒸馏来简化U-Net和图像解码器架构,并引入了一种创新的单步DM训练技术,使用特征匹配和分数蒸馆。SDXS-512和SDXS-1024模型可在单个GPU上分别实现约100 FPS和30 FPS的推理速度,比之前模型快30至60倍。此外,该训练方法在图像条件控制方面也有潜在应用,可实现高效的图像到图像翻译。
使用扩散模型进行图像外延
Diffusers Image Outpaint 是一个基于扩散模型的图像外延技术,它能够根据已有的图像内容,生成图像的额外部分。这项技术在图像编辑、游戏开发、虚拟现实等领域具有广泛的应用前景。它通过先进的机器学习算法,使得图像生成更加自然和逼真,为用户提供了一种创新的图像处理方式。
ImagenHub:标准化条件图像生成模型的推理和评估
ImagenHub是一个一站式库,用于标准化所有条件图像生成模型的推理和评估。该项目首先定义了七个突出的任务并创建了高质量的评估数据集。其次,我们构建了一个统一的推理管道来确保公平比较。第三,我们设计了两个人工评估指标,即语义一致性和感知质量,并制定了全面的指南来评估生成的图像。我们训练专家评审员根据提出的指标来评估模型输出。该人工评估在76%的模型上实现了高的评估者间一致性。我们全面地评估了约30个模型,并观察到三个关键发现:(1)现有模型的性能普遍不令人满意,除了文本引导的图像生成和主题驱动的图像生成外,74%的模型整体得分低于0.5。(2)我们检查了已发表论文中的声明,发现83%的声明是正确的。(3)除了主题驱动的图像生成外,现有的自动评估指标都没有高于0.2的斯皮尔曼相关系数。未来,我们将继续努力评估新发布的模型,并更新排行榜以跟踪条件图像生成领域的进展。
快速生成高质量图像的扩散模型
Flash Diffusion 是一种高效的图像生成模型,通过少步骤生成高质量的图像,适用于多种图像处理任务,如文本到图像、修复、超分辨率等。该模型在 COCO2014 和 COCO2017 数据集上达到了最先进的性能,同时训练时间少,参数数量少。
使用扩散模型实现时域一致的人体图像动画
MagicAnimate是一款基于扩散模型的先进框架,用于人体图像动画。它能够从单张图像和动态视频生成动画视频,具有时域一致性,能够保持参考图像的特征,并显著提升动画的保真度。MagicAnimate支持使用来自各种来源的动作序列进行图像动画,包括跨身份的动画和未见过的领域,如油画和电影角色。它还与DALLE3等T2I扩散模型无缝集成,可以根据文本生成的图像赋予动态动作。MagicAnimate由新加坡国立大学Show Lab和Bytedance字节跳动共同开发。
集成空间编织注意力,提升扩散模型的高保真条件
HelloMeme是一个集成了空间编织注意力的扩散模型,旨在将高保真和丰富的条件嵌入到图像生成过程中。该技术通过提取驱动视频中的每一帧特征,并将其作为输入到HMControlModule,从而生成视频。通过进一步优化Animatediff模块,提高了生成视频的连续性和保真度。此外,HelloMeme还支持通过ARKit面部混合形状控制生成的面部表情,以及基于SD1.5的Lora或Checkpoint,实现了框架的热插拔适配器,不会影响T2I模型的泛化能力。
AI智能图像处理工具
Skyglass是一款AI智能图像处理工具,提供图像识别、图像增强、图像分割等功能,帮助用户快速优化和处理图像,提高工作效率。定价灵活,适用于个人用户和企业用户,定位于提供高效、简单易用的图像处理解决方案。
稳定签名:将水印根植于潜在扩散模型中
Stable Signature是一种将水印嵌入图像中的方法,它使用潜在扩散模型(LDM)来提取和嵌入水印。该方法具有高度的稳定性和鲁棒性,可以在多种攻击下保持水印的可读性。Stable Signature提供了预训练模型和代码实现,用户可以使用它来嵌入和提取水印。
基于图像扩散模型的得分蒸馏采样方法
Score Distillation Sampling(SDS)是一种新近但已经广泛流行的方法,依赖于图像扩散模型来控制使用文本提示的优化问题。该论文对SDS损失函数进行了深入分析,确定了其制定中的固有问题,并提出了一个出人意料但有效的修复方法。具体而言,我们将损失分解为不同因素,并分离出产生噪声梯度的组件。在原始制定中,使用高文本指导来账户噪声,导致了不良副作用。相反,我们训练了一个浅层网络,模拟图像扩散模型的时间步相关去噪不足,以有效地将其分解出来。我们通过多个定性和定量实验(包括基于优化的图像合成和编辑、零样本图像转换网络训练、以及文本到3D合成)展示了我们新颖损失制定的多功能性和有效性。
基于文本提示修订图像的大型扩散模型
SeedEdit是Doubao Team推出的大型扩散模型,用于根据任何文本提示修订图像。它通过逐步将图像生成器与强大的图像编辑器对齐,实现了图像重建和图像再生之间的最佳平衡。SeedEdit能够实现高审美/分辨率图像的零样本稳定编辑,并支持图像的连续修订。该技术的重要性在于其能够解决图像编辑问题中成对图像数据稀缺的核心难题,通过将文本到图像(T2I)生成模型视为弱编辑模型,并通过生成带有新提示的新图像来实现“编辑”,然后将其蒸馏并与之对齐到图像条件编辑模型中。
下一代视频和图像实时对象分割模型。
Meta Segment Anything Model 2 (SAM 2)是Meta公司开发的下一代模型,用于视频和图像中的实时、可提示的对象分割。它实现了最先进的性能,并且支持零样本泛化,即无需定制适配即可应用于之前未见过的视觉内容。SAM 2的发布遵循开放科学的方法,代码和模型权重在Apache 2.0许可下共享,SA-V数据集也在CC BY 4.0许可下共享。
统一图像生成
UNIMO-G是一个简单的多模态条件扩散框架,用于处理交错的文本和视觉输入。它包括两个核心组件:用于编码多模态提示的多模态大语言模型(MLLM)和用于基于编码的多模态输入生成图像的条件去噪扩散网络。我们利用两阶段训练策略来有效地训练该框架:首先在大规模文本-图像对上进行预训练,以开发条件图像生成能力,然后使用多模态提示进行指导调整,以实现统一图像生成能力。我们采用了精心设计的数据处理流程,包括语言接地和图像分割,用于构建多模态提示。UNIMO-G在文本到图像生成和零样本主题驱动合成方面表现出色,并且在生成涉及多个图像实体的复杂多模态提示的高保真图像方面非常有效。
多功能大规模扩散模型,支持双向图像合成与理解。
OneDiffusion是一个多功能、大规模的扩散模型,它能够无缝支持双向图像合成和理解,覆盖多种任务。该模型预计将在12月初发布代码和检查点。OneDiffusion的重要性在于其能够处理图像合成和理解任务,这在人工智能领域是一个重要的进步,尤其是在图像生成和识别方面。产品背景信息显示,这是一个由多位研究人员共同开发的项目,其研究成果已在arXiv上发表。
使用ComfyUI节点实现图像分割的库
ComfyUI-segment-anything-2是一个基于segment-anything-2模型的图像分割库,它允许用户通过ComfyUI节点轻松实现图像分割功能。该库目前处于开发阶段,但功能已经基本可用。它通过自动下载模型并集成到ComfyUI中,为用户提供了一个简单易用的图像分割解决方案。
一种基于图像到视频扩散模型的视频编辑技术
I2VEdit是一种创新的视频编辑技术,通过预训练的图像到视频模型,将单一帧的编辑扩展到整个视频。这项技术能够适应性地保持源视频的视觉和运动完整性,并有效处理全局编辑、局部编辑以及适度的形状变化,这是现有方法所不能实现的。I2VEdit的核心包括两个主要过程:粗略运动提取和外观细化,通过粗粒度注意力匹配进行精确调整。此外,还引入了跳过间隔策略,以减轻多个视频片段自动回归生成过程中的质量下降。实验结果表明,I2VEdit在细粒度视频编辑方面的优越性能,证明了其能够产生高质量、时间一致的输出。
无需额外训练的高质量图像修复插件,适用于所有稳定扩散模型。
LanPaint 是一款针对稳定扩散模型的图像修复插件,通过多轮迭代推理,无需额外训练即可实现高质量的图像修复。该技术的重要性在于它为用户提供了一种无需复杂训练即可获得精准修复结果的解决方案,大大降低了使用门槛。LanPaint 适用于任何稳定扩散模型,包括用户自定义的模型,具有广泛的适用性和灵活性。它主要面向需要高质量图像修复的创作者和开发者,尤其是那些希望在不进行额外训练的情况下快速获得修复结果的用户。
© 2025 AIbase 备案号:闽ICP备08105208号-14