浏览量:118
最新流量情况
月访问量
767
平均访问时长
00:00:00
每次访问页数
1.02
跳出率
38.10%
流量来源
直接访问
36.99%
自然搜索
41.16%
邮件
0.22%
外链引荐
13.67%
社交媒体
4.98%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
巴西
54.15%
印度
45.85%
使用扩散指引对文本感知图像进行细粒度风格控制
DreamWalk是一种基于扩散指引的文本感知图像生成方法,可对图像的风格和内容进行细粒度控制,无需对扩散模型进行微调或修改内部层。支持多种风格插值和空间变化的引导函数,可广泛应用于各种扩散模型。
控制文本到图像生成过程
FreeControl是一个无需训练就可以实现对文本到图像生成过程的可控制的方法。它支持对多种条件、架构和检查点的同时控制。FreeControl通过结构指导实现与指导图像的结构对齐,通过外观指导实现使用相同种子的生成图像之间的外观共享。FreeControl包含分析阶段和合成阶段。在分析阶段,FreeControl查询文本到图像模型生成少量种子图像,然后从生成的图像构建线性特征子空间。在合成阶段,FreeControl在子空间中运用指导实现与指导图像的结构对齐,以及使用与不使用控制的生成图像之间的外观对齐。
图像生成模型,提供前所未有的风格控制。
Frames是Runway Research推出的最新图像生成基础模型,它在风格控制和视觉保真度方面迈出了一大步。该模型擅长保持风格一致性,同时允许广泛的创意探索,能够为项目建立特定的外观,并可靠地生成忠实于您美学的变化。Frames的推出标志着在创意工作流程中,用户可以构建更多属于自己的世界,实现更大、更无缝的创意流程。
文本到图像生成中风格保留的 InstantStyle。
InstantStyle 是一个通用框架,利用两种简单但强大的技术,实现对参考图像中风格和内容的有效分离。其原则包括将内容从图像中分离出来、仅注入到风格块中,并提供样式风格的合成和图像生成等功能。InstantStyle 可以帮助用户在文本到图像生成过程中保持风格,为用户提供更好的生成体验。
控制型文本转图像生成和编辑模型
BLIP-Diffusion 是一个支持多模态控制的主题驱动图像生成模型。它通过接受主题图像和文本提示作为输入,生成基于文本提示的主题图像。与现有模型相比,BLIP-Diffusion 提供了零 - shot 主题驱动生成和高效的定制主题微调。它还可以与其他技术(如 ControlNet 和 prompt-to-prompt)灵活结合,实现新颖的主题驱动生成和编辑应用。
用于精细文本控制图像生成的空间对齐文本注入
FineControlNet是一个基于Pytorch的官方实现,用于生成可通过空间对齐的文本控制输入(如2D人体姿势)和实例特定的文本描述来控制图像实例的形状和纹理的图像。它可以使用从简单的线条画作为空间输入,到复杂的人体姿势。FineControlNet确保了实例和环境之间自然的交互和视觉协调,同时获得了Stable Diffusion的质量和泛化能力,但具有更多的控制能力。
自适应条件选择,提升文本到图像生成控制力
DynamicControl是一个用于提升文本到图像扩散模型控制力的框架。它通过动态组合多样的控制信号,支持自适应选择不同数量和类型的条件,以更可靠和详细地合成图像。该框架首先使用双循环控制器,利用预训练的条件生成模型和判别模型,为所有输入条件生成初始真实分数排序。然后,通过多模态大型语言模型(MLLM)构建高效条件评估器,优化条件排序。DynamicControl联合优化MLLM和扩散模型,利用MLLM的推理能力促进多条件文本到图像任务,最终排序的条件输入到并行多控制适配器,学习动态视觉条件的特征图并整合它们以调节ControlNet,增强对生成图像的控制。
内容风格合成在文本到图像生成中的应用
CSGO是一个基于内容风格合成的文本到图像生成模型,它通过一个数据构建管道生成并自动清洗风格化数据三元组,构建了首个大规模的风格迁移数据集IMAGStyle,包含210k图像三元组。CSGO模型采用端到端训练,明确解耦内容和风格特征,通过独立特征注入实现。它实现了图像驱动的风格迁移、文本驱动的风格合成以及文本编辑驱动的风格合成,具有无需微调即可推理、保持原始文本到图像模型的生成能力、统一风格迁移和风格合成等优点。
文本引导的无形状物体修复模型
Diffree是一个基于文本引导的图像修复模型,它能够通过文本描述来添加新对象到图像中,同时保持背景的一致性、空间适宜性和对象的相关性和质量。该模型通过训练在OABench数据集上,使用稳定扩散模型和额外的掩码预测模块,能够独特地预测新对象的位置,实现仅通过文本指导的对象添加。
文本引导的情感和动作控制,生成生动的2D头像
InstructAvatar是一个创新的文本引导方法,用于生成具有丰富情感表达的2D头像。该模型通过自然语言接口控制头像的情感和面部动作,提供了细粒度控制、改进的交互性和对生成视频的泛化能力。它设计了一个自动化注释流程来构建指令-视频配对的训练数据集,并配备了一个新颖的双分支扩散基础生成器,可以同时根据音频和文本指令预测头像。实验结果表明,InstructAvatar在细粒度情感控制、唇同步质量和自然度方面均优于现有方法。
基于控制网络的图像生成模型
FLUX.1-dev-Controlnet-Canny-alpha是一个基于控制网络的图像生成模型,属于Stable Diffusion系列。它使用先进的Diffusers技术,通过文本到图像的转换为用户提供高质量的图像生成服务。此模型特别适用于需要精确控制图像细节和风格的场景。
一种用于控制人类图像动画的方法
DisPose是一种用于控制人类图像动画的方法,它通过运动场引导和关键点对应来提高视频生成的质量。这项技术能够从参考图像和驱动视频中生成视频,同时保持运动对齐和身份信息的一致性。DisPose通过从稀疏的运动场和参考图像生成密集的运动场,提供区域级别的密集引导,同时保持稀疏姿态控制的泛化能力。此外,它还从参考图像中提取与姿态关键点对应的扩散特征,并将这些点特征转移到目标姿态,以提供独特的身份信息。DisPose的主要优点包括无需额外的密集输入即可提取更通用和有效的控制信号,以及通过即插即用的混合ControlNet提高生成视频的质量和一致性,而无需冻结现有模型参数。
Kling 3.0免费AI视频生成器,支持文本、图像转视频,有先进运动控制。
Kling 3.0是快手推出的免费AI视频生成平台。它具备先进的运动控制、文本转视频和图像转视频能力,相比之前版本,输出更逼真、连贯性更好、时长更长。平台定位为满足内容创作者和营销人员的视频制作需求,无需信用卡或订阅即可免费使用,为用户提供了便捷、高效且优质的视频制作解决方案。
高保真文本引导的音乐生成与编辑模型
MelodyFlow是一个基于文本控制的高保真音乐生成和编辑模型,它使用连续潜在表示序列,避免了离散表示的信息丢失问题。该模型基于扩散变换器架构,经过流匹配目标训练,能够生成和编辑多样化的高质量立体声样本,且具有文本描述的简单性。MelodyFlow还探索了一种新的正则化潜在反转方法,用于零样本测试时的文本引导编辑,并展示了其在多种音乐编辑提示中的优越性能。该模型在客观和主观指标上进行了评估,证明了其在标准文本到音乐基准测试中的质量与效率上与评估基线相当,并且在音乐编辑方面超越了以往的最先进技术。
在线文本转视频、图像转视频,支持运动控制,生成带原生音频的电影剪辑。
Kling AI Video Generator是一款在线视频生成工具,基于Kling的扩散变压器与3D VAE空间建模及原生音频协同生成技术。其主要优点在于能够在浏览器中直接使用,支持文本转视频、图像转视频和运动控制,生成具有原生音频和空间一致性的电影剪辑。该产品可满足创作者快速生成视频的需求,定位为面向视频创作者、内容生产者的专业工具。价格方面,年度计划有30%的优惠。
AIGAZOU免费AI图像生成器,可根据文本或上传图片生成独特图像。
AIGAZOU是一款基于最新AI技术的图像生成服务。它允许用户通过文本描述或上传照片轻松生成高质量原创图像。该平台操作简单,无需专业知识,即使是新手也能快速上手。产品提供免费版本,同时也有多种付费计划,以满足不同用户对更多样式和高级功能的需求。价格从免费到418.8美元不等,定位为面向广大用户,帮助他们解决图像创作难题,提升创作效率。
小红书真实感风格模型,生成极度真实自然的日常照片
Flux_小红书真实风格模型是一款专注于生成极度真实自然日常照片的AI模型。它利用最新的人工智能技术,通过深度学习算法,能够生成具有小红书真实感风格的照片。该模型特别适合需要在社交媒体上发布高质量、真实感照片的用户,以及进行艺术创作和设计工作的专业人士。模型提供了多种参数设置,以适应不同的使用场景和需求。
精准控制文本生成视频的相机姿态
CameraCtrl 致力于为文本生成视频模型提供精准相机姿态控制,通过训练相机编码器实现参数化相机轨迹,从而实现视频生成过程中的相机控制。产品通过综合研究各种数据集的效果,证明视频具有多样的相机分布和相似外观可以增强可控性和泛化能力。实验证明 CameraCtrl 在实现精确、领域自适应的相机控制方面非常有效,是从文本和相机姿态输入实现动态、定制视频叙事的重要进展。
基于Diffusion的文本到图像生成模型,专注于时尚模特摄影风格图像生成
Fashion-Hut-Modeling-LoRA是一个基于Diffusion技术的文本到图像生成模型,主要用于生成时尚模特的高质量图像。该模型通过特定的训练参数和数据集,能够根据文本提示生成具有特定风格和细节的时尚摄影图像。它在时尚设计、广告制作等领域具有重要应用价值,能够帮助设计师和广告商快速生成创意概念图。模型目前仍在训练阶段,可能存在一些生成效果不佳的情况,但已经展示了强大的潜力。该模型的训练数据集包含14张高分辨率图像,使用了AdamW优化器和constant学习率调度器等参数,训练过程注重图像的细节和质量。
文本到视频生成的创新模型,实现姿势引导的动画制作。
Follow-Your-Pose是一个文本到视频生成的模型,它利用姿势信息和文本描述来生成可编辑、可控制姿势的角色视频。这项技术在数字人物创作领域具有重要应用价值,解决了缺乏综合数据集和视频生成先验模型的限制。通过两阶段训练方案,结合预训练的文本到图像模型,实现了姿势可控的视频生成。
用于生成图像的AI模型,支持多种控制网络
Stable Diffusion 3.5 ControlNets是由Stability AI提供的文本到图像的AI模型,支持多种控制网络(ControlNets),如Canny边缘检测、深度图和高保真上采样等。该模型能够根据文本提示生成高质量的图像,特别适用于插画、建筑渲染和3D资产纹理等场景。它的重要性在于能够提供更精细的图像控制能力,提升生成图像的质量和细节。产品背景信息包括其在学术界的引用(arxiv:2302.05543),以及遵循的Stability Community License。价格方面,对于非商业用途、年收入不超过100万美元的商业用途免费,超过则需联系企业许可。
首款文本引导视频编辑基础模型,用文本指令轻松变换视频内容。
Lucy Edit AI是首款用于文本引导视频编辑的基础模型,由DecartAI推出并开源。其重要性在于革新了视频创作模式,让创作者无需复杂操作,仅通过文本指令就能实现视频编辑。主要优点包括闪电般的处理速度、行业领先的精度、无限的视频创作潜力、简单直观的操作界面,且受到全球内容创作者的信赖。该产品免费使用,定位是帮助用户高效、便捷地完成专业视频编辑。
免费AI动漫角色生成器,支持多风格文本转图像,输出专业品质
OC Maker AI是一款基于人工智能技术的动漫角色生成工具,隶属于OC Maker公司。该公司提供人工智能驱动的视频和图像生成工具,利用先进的AI技术创建令人惊叹的视觉效果。此产品定位为为艺术家和创作者服务,帮助他们将想法快速转化为独特的动漫角色。其优点在于操作简单,能在数秒内完成角色生成,还提供从角色设计到场景创建、从静态图像到动态视频的一站式AI创作解决方案。价格方面,可免费使用。
Nano Banana可实现文本到图像生成与AI图像编辑,功能强大且操作便捷。
Nano Banana是一个全面的AI驱动创意套件,利用先进机器学习算法,将文字提示转化为精美视觉现实。其核心优势在于闪电般的生成速度、高保真细节以及用户友好界面。平台定位为赋能各类创作者,无论是专业设计师还是业余爱好者,都能借助其轻松创作出高质量图像。价格方面,有圣诞特惠使用优惠码CHRISTMAS可享20%折扣,专属福利使用优惠码可享50%折扣,支持微信支付(仅支持一次性付款购买积分包),支付宝支付正在申请中。
在线图像生成与编辑器,支持人脸控制、调色板提取等功能。
Wan 2.7 Image 是 Wan 生态系统推出的新图像生成与编辑模型,于2026年3月底公开亮相,4月持续进行早期测试。该产品定位为帮助创作者在线进行图像创作,提供了人脸控制、调色板匹配、长文本渲染、批量一致性处理和交互式编辑等功能。其主要优点在于能够在一个工作流程中实现多种图像编辑操作,具备较强的实用性和高效性。产品目前免费使用。
基于稳定扩散生成高质量动漫风格图像的文本到图像模型
Animagine XL 3.1 是一款能够基于文本提示生成高质量动漫风格图像的文本到图像生成模型。它建立在稳定扩散 XL 的基础之上,专门针对动漫风格进行了优化。该模型具有更广泛的动漫角色知识、优化过的数据集和新的美学标签,从而提高了生成图像的质量和准确性。它旨在为动漫爱好者、艺术家和内容创作者提供有价值的资源。
先进的文本到图像模型工具套件
FLUX.1 Tools是Black Forest Labs推出的一套模型工具,旨在为基于文本的图像生成模型FLUX.1增加控制和可操作性,使得对真实和生成的图像进行修改和再创造成为可能。该工具套件包含四个不同的特性,以开放访问模型的形式在FLUX.1 [dev]模型系列中提供,并作为BFL API的补充,支持FLUX.1 [pro]。FLUX.1 Tools的主要优点包括先进的图像修复和扩展能力、结构化引导、图像变化和重构等,这些功能对于图像编辑和创作领域具有重要意义。
© 2026 AIbase 备案号:闽ICP备08105208号-14