需求人群:
"TexGen适用于3D建模、游戏开发、电影制作等领域的专业人士和团队,他们需要根据文本描述快速生成高质量的3D纹理。"
使用场景示例:
生成具有中世纪风格的时钟纹理
为铁人风格的背包设计纹理
创建下一代红色纳斯卡赛车的纹理
为银色的曼达洛头盔设计纹理
产品特色:
多视角采样,减少纹理拼接中的接缝问题
注意力引导的视图采样,跨视图传递外观信息
噪声重采样技术,提高纹理细节的保留
预训练的文本到图像扩散模型,提高生成效率
适用于3D对象的纹理编辑,保持原始特征
广泛的定性和定量评估,证明其优越性能
使用教程:
步骤1: 访问TexGen网页链接
步骤2: 阅读产品介绍和方法概述
步骤3: 查看与现有技术的比较结果
步骤4: 浏览视频画廊,了解生成的纹理效果
步骤5: 根据需要,下载相关代码或数据集进行本地使用
浏览量:38
3D纹理生成技术,根据文本描述合成3D纹理
TexGen是一个创新的多视角采样和重采样框架,用于根据任意文本描述合成3D纹理。它利用预训练的文本到图像的扩散模型,通过一致性视图采样和注意力引导的多视角采样策略,以及噪声重采样技术,显著提高了3D对象的纹理质量,具有高度的视角一致性和丰富的外观细节。
用于精确控制扩散模型中概念的低秩适配器
Concept Sliders 是一种用于精确控制扩散模型中概念的技术,它通过低秩适配器(LoRA)在预训练模型之上进行应用,允许艺术家和用户通过简单的文本描述或图像对来训练控制特定属性的方向。这种技术的主要优点是能够在不改变图像整体结构的情况下,对生成的图像进行细微调整,如眼睛大小、光线等,从而实现更精细的控制。它为艺术家提供了一种新的创作表达方式,同时解决了生成模糊或扭曲图像的问题。
异步去噪并行化扩散模型
AsyncDiff 是一种用于并行化扩散模型的异步去噪加速方案,它通过将噪声预测模型分割成多个组件并分配到不同的设备上,实现了模型的并行处理。这种方法显著减少了推理延迟,同时对生成质量的影响很小。AsyncDiff 支持多种扩散模型,包括 Stable Diffusion 2.1、Stable Diffusion 1.5、Stable Diffusion x4 Upscaler、Stable Diffusion XL 1.0、ControlNet、Stable Video Diffusion 和 AnimateDiff。
基于文本的视频编辑技术,使用时空切片。
Slicedit是一种零样本视频编辑技术,它利用文本到图像的扩散模型,并结合时空切片来增强视频编辑中的时序一致性。该技术能够保留原始视频的结构和运动,同时符合目标文本描述。通过广泛的实验,证明了Slicedit在编辑真实世界视频方面具有明显优势。
一个统一的文本到任意模态生成框架
Lumina-T2X是一个先进的文本到任意模态生成框架,它能够将文本描述转换为生动的图像、动态视频、详细的多视图3D图像和合成语音。该框架采用基于流的大型扩散变换器(Flag-DiT),支持高达7亿参数,并能扩展序列长度至128,000个标记。Lumina-T2X集成了图像、视频、3D对象的多视图和语音频谱图到一个时空潜在标记空间中,可以生成任何分辨率、宽高比和时长的输出。
通过LLM增强语义对齐的扩散模型适配器
ELLA(Efficient Large Language Model Adapter)是一种轻量级方法,可将现有的基于CLIP的扩散模型配备强大的LLM。ELLA提高了模型的提示跟随能力,使文本到图像模型能够理解长文本。我们设计了一个时间感知语义连接器,从预训练的LLM中提取各种去噪阶段的时间步骤相关条件。我们的TSC动态地适应了不同采样时间步的语义特征,有助于在不同的语义层次上对U-Net进行冻结。ELLA在DPG-Bench等基准测试中表现优越,尤其在涉及多个对象组合、不同属性和关系的密集提示方面表现出色。
官方实现的自纠正LLM控制的扩散模型
SLD是一个自纠正的LLM控制的扩散模型框架,它通过集成检测器增强生成模型,以实现精确的文本到图像对齐。SLD框架支持图像生成和精细编辑,并且与任何图像生成器兼容,如DALL-E 3,无需额外训练或数据。
升级扩散模型插件通用兼容性
X-Adapter是一个通用升级工具,可以使预训练的插件模块(例如ControlNet、LoRA)直接与升级的文本到图像扩散模型(例如SD-XL)配合使用,无需进一步重新训练。通过训练额外的网络来控制冻结的升级模型,X-Adapter保留旧模型的连接器,并添加可训练的映射层以连接不同版本模型的解码器进行特征重映射。重映射的特征将作为升级模型的引导。为了增强X-Adapter的引导能力,我们采用空文本训练策略。在训练后,我们还引入了两阶段去噪策略,以调整X-Adapter和升级模型的初始潜变量。X-Adapter展示了与各种插件的通用兼容性,并使不同版本的插件能够共同工作,从而扩展了扩散社区的功能。我们进行了大量实验证明,X-Adapter可能在升级的基础扩散模型中有更广泛的应用。
多功能文本到图像扩散模型,生成高质量非真实感图像。
Pony Diffusion V6 XL是一个文本到图像的扩散模型,专门设计用于生成以小马为主题的高质量艺术作品。它在大约80,000张小马图像的数据集上进行了微调,确保生成的图像既相关又美观。该模型采用用户友好的界面,易于使用,并通过CLIP进行美学排名,以提升图像质量。Pony Diffusion在CreativeML OpenRAIL许可证下提供,允许用户自由使用、再分发和修改模型。
使用AI技术将文本描述转换为高质量图像。
Flux Image Generator是一个利用先进AI模型技术,将用户的想法迅速转化为高质量图像的工具。它提供三种不同的模型变体,包括快速的本地开发和个人使用模型FLUX.1 [schnell],非商业应用的指导蒸馏模型FLUX.1 [dev],以及提供最先进性能图像生成的FLUX.1 [pro]。该工具不仅适用于个人项目,也适用于商业用途,能够满足不同用户的需求。
利用预训练的图像到视频扩散模型生成连贯中间帧
该产品是一个图像到视频的扩散模型,通过轻量级的微调技术,能够从一对关键帧生成具有连贯运动的连续视频序列。这种方法特别适用于需要在两个静态图像之间生成平滑过渡动画的场景,如动画制作、视频编辑等。它利用了大规模图像到视频扩散模型的强大能力,通过微调使其能够预测两个关键帧之间的视频,从而实现前向和后向的一致性。
一种用于文本到图像扩散模型的概念擦除技术
RECE是一种文本到图像扩散模型的概念擦除技术,它通过在模型训练过程中引入正则化项来实现对特定概念的可靠和高效擦除。这项技术对于提高图像生成模型的安全性和控制性具有重要意义,特别是在需要避免生成不适当内容的场景中。RECE技术的主要优点包括高效率、高可靠性和易于集成到现有模型中。
高分辨率视频外延与内容生成技术
Follow-Your-Canvas 是一种基于扩散模型的视频外延技术,它能够生成高分辨率的视频内容。该技术通过分布式处理和空间窗口合并,解决了GPU内存限制问题,同时保持了视频的空间和时间一致性。它在大规模视频外延方面表现出色,能够将视频分辨率显著提升,如从512 X 512扩展到1152 X 2048,同时生成高质量和视觉上令人愉悦的结果。
内容风格合成在文本到图像生成中的应用
CSGO是一个基于内容风格合成的文本到图像生成模型,它通过一个数据构建管道生成并自动清洗风格化数据三元组,构建了首个大规模的风格迁移数据集IMAGStyle,包含210k图像三元组。CSGO模型采用端到端训练,明确解耦内容和风格特征,通过独立特征注入实现。它实现了图像驱动的风格迁移、文本驱动的风格合成以及文本编辑驱动的风格合成,具有无需微调即可推理、保持原始文本到图像模型的生成能力、统一风格迁移和风格合成等优点。
利用扩散引导逆渲染技术实现逼真物体插入
DiPIR是多伦多AI实验室与NVIDIA Research共同研发的一种基于物理的方法,它通过从单张图片中恢复场景照明,使得虚拟物体能够逼真地插入到室内外场景中。该技术不仅能够优化材质和色调映射,还能自动调整以适应不同的环境,提高图像的真实感。
神经模型驱动的实时游戏引擎
GameNGen是一个完全由神经模型驱动的游戏引擎,能够实现与复杂环境的实时互动,并在长时间轨迹上保持高质量。它能够以每秒超过20帧的速度交互式模拟经典游戏《DOOM》,并且其下一帧预测的PSNR达到29.4,与有损JPEG压缩相当。人类评估者在区分游戏片段和模拟片段方面仅略优于随机机会。GameNGen通过两个阶段的训练:(1)一个RL-agent学习玩游戏并记录训练会话的动作和观察结果,成为生成模型的训练数据;(2)一个扩散模型被训练来预测下一帧,条件是过去的动作和观察序列。条件增强允许在长时间轨迹上稳定自回归生成。
先进的文本到图像生成模型
Flux Image Generator是由Black Forest Labs开发的文本到图像生成模型,使用先进的AI技术根据文本提示创建高质量图像。它在图像质量和细节上优于其他模型,特别适合数字艺术家和内容创作者使用。
开源文本到图像生成模型
AuraFlow v0.3是一个完全开源的基于流的文本到图像生成模型。与之前的版本AuraFlow-v0.2相比,该模型经过了更多的计算训练,并在美学数据集上进行了微调,支持各种宽高比,宽度和高度可达1536像素。该模型在GenEval上取得了最先进的结果,目前处于beta测试阶段,正在不断改进中,社区反馈非常重要。
创造独特的半插图半照片图像。
half_illustration是一个基于Flux Dev 1模型的文本到图像生成模型,能够结合摄影和插图元素,创造出具有艺术感的图像。该模型使用了LoRA技术,可以通过特定的触发词来保持风格一致性,适合用于艺术创作和设计领域。
一种先进的文本到图像的生成模型。
FLUX.1-dev-Controlnet-Union-alpha是一个文本到图像的生成模型,属于Diffusers系列,使用ControlNet技术进行控制。目前发布的是alpha版本,尚未完全训练完成,但已经展示了其代码的有效性。该模型旨在通过开源社区的快速成长,推动Flux生态系统的发展。尽管完全训练的Union模型可能在特定领域如姿势控制上不如专业模型,但随着训练的进展,其性能将不断提升。
高效训练高质量文本到图像扩散模型
ml-mdm是一个Python包,用于高效训练高质量的文本到图像扩散模型。该模型利用Matryoshka扩散模型技术,能够在1024x1024像素的分辨率上训练单一像素空间模型,展现出强大的零样本泛化能力。
基于FLUX.1-dev模型的LoRA文本到图像生成技术。
flux-RealismLora是由XLabs AI团队发布的基于FLUX.1-dev模型的LoRA技术,用于生成逼真的图像。该技术通过文本提示生成图像,支持多种风格,如动画风格、幻想风格和自然电影风格。XLabs AI提供了训练脚本和配置文件,以方便用户进行模型训练和使用。
基于ControlNet的文本到图像生成模型
flux-controlnet-canny是由XLabs AI团队开发的基于FLUX.1-dev模型的ControlNet Canny模型,用于文本到图像的生成。该模型通过训练,能够根据文本提示生成高质量的图像,广泛应用于创意设计和视觉艺术领域。
AI图像生成,一键创造艺术。
Flux AI是由Black Forest Labs开发的一款先进的文本到图像的AI模型,它利用基于变换器的流模型生成高质量的图像。该技术的主要优点包括卓越的视觉质量、对提示的严格遵循、尺寸/比例的多样性、排版和输出多样性。Flux AI提供三种变体:FLUX.1 [pro]、FLUX.1 [dev]和FLUX.1 [schnell],分别针对不同的使用场景和性能水平。Flux AI致力于让尖端AI技术对每个人都可及,通过提供FLUX.1 [schnell]作为免费开源模型,确保个人、研究人员和小开发者能够无财务障碍地受益于先进的AI技术。
创建活泼的动漫风格插画
Phantasma Anime模型是一个专注于幻想主题的动漫风格插画生成工具,它通过文本到图像的转换技术,为用户提供具有特定效果细节的动漫插画。该模型在灵活性和幻想元素的表现上具有优势,适合需要快速生成动漫风格图像的用户。
12亿参数的图像生成模型
FLUX.1 [schnell] 是一个具有12亿参数的修正流变换器,能够从文本描述生成图像。它以其尖端的输出质量和竞争性的提示跟随能力而著称,与闭源替代品的性能相匹配。该模型使用潜在对抗性扩散蒸馏进行训练,能够在1到4步内生成高质量的图像。FLUX.1 [schnell] 在apache-2.0许可证下发布,可以用于个人、科学和商业目的。
12亿参数的文本到图像生成模型
FLUX.1-dev是一个拥有12亿参数的修正流变换器,能够根据文本描述生成图像。它代表了文本到图像生成技术的最新发展,具有先进的输出质量,仅次于其专业版模型FLUX.1 [pro]。该模型通过指导蒸馏训练,提高了效率,并且开放权重以推动新的科学研究,并赋予艺术家开发创新工作流程的能力。生成的输出可以用于个人、科学和商业目的,具体如flux-1-dev-non-commercial-license所述。
一款简单高效的虚拟试穿扩散模型。
CatVTON是一款基于扩散模型的虚拟试穿技术,具有轻量级网络(总共899.06M参数)、参数高效训练(49.57M可训练参数)和简化推理(1024X768分辨率下<8G VRAM)。它通过简化的网络结构和推理过程,实现了快速且高效的虚拟试穿效果,特别适合时尚行业和个性化推荐场景。
© 2024 AIbase 备案号:闽ICP备08105208号-14