需求人群:
"目标受众主要是深度学习开发者、图像处理研究人员和相关领域的专业人士。他们需要在实时环境中对肖像进行动画化处理,或者在跨平台部署中使用深度学习模型。FasterLivePortrait提供了高效的推理速度和灵活的部署方式,适合需要高性能和高兼容性的开发者。"
使用场景示例:
使用FasterLivePortrait在视频会议中实时展示动态肖像
将静态肖像照片转换为动态视频,用于社交媒体分享
在游戏或虚拟现实应用中实时生成动态角色肖像
产品特色:
使用TensorRT在RTX 3090 GPU上实现30+ FPS的实时运行速度
将LivePortrait模型转换为Onnx模型,支持跨平台部署
支持原生gradio app,提升推理速度并支持多张人脸同时推理
代码结构重构,不再依赖PyTorch,使用onnx或tensorrt进行推理
支持Docker环境,提供可运行的镜像
支持Windows和MacOS集成包,支持一键运行
支持onnxruntime和TensorRT推理,提供详细的安装和使用指南
使用教程:
1. 安装Docker并下载FasterLivePortrait的Docker镜像
2. 使用Docker命令运行FasterLivePortrait容器
3. 下载并转换Onnx模型文件,放置在检查点文件夹中
4. 安装并配置onnxruntime-gpu或TensorRT
5. 使用提供的脚本将Onnx模型转换为TensorRT模型
6. 运行app.py启动gradio app,选择onnx或tensorrt模式
7. 访问本地服务器(默认端口9870)并使用app进行实时肖像动画化
浏览量:31
最新流量情况
月访问量
5.16m
平均访问时长
00:06:42
每次访问页数
5.81
跳出率
37.20%
流量来源
直接访问
52.27%
自然搜索
32.92%
邮件
0.05%
外链引荐
12.52%
社交媒体
2.15%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
11.99%
德国
3.63%
印度
9.20%
俄罗斯
5.25%
美国
19.02%
实时让肖像动起来!支持onnx/tensorrt
FasterLivePortrait是一个基于深度学习的实时肖像动画化项目。它通过使用TensorRT在RTX 3090 GPU上实现30+ FPS的实时运行速度,包括预处理和后处理,而不仅仅是模型推理速度。该项目还实现了将LivePortrait模型转换为Onnx模型,并在RTX 3090上使用onnxruntime-gpu实现约70ms/帧的推理速度,支持跨平台部署。此外,该项目还支持原生gradio app,速度提升数倍,并支持多张人脸的同时推理。代码结构经过重构,不再依赖PyTorch,所有模型使用onnx或tensorrt进行推理。
提升户外虚拟试穿效果的模型训练代码库
BooW-VTON是一个专注于提升户外虚拟试穿效果的研究项目,通过无需掩码的伪数据训练来增强虚拟试穿技术。该技术的重要性在于它能够改善在自然环境下服装试穿的真实感和准确性,对于时尚电商和虚拟现实领域具有重要意义。产品背景信息显示,该项目是基于深度学习技术的图像生成模型,旨在解决传统虚拟试穿中服装与人体融合不自然的问题。目前该项目是免费开源的,定位于研究和开发阶段。
高分辨率图像合成的线性扩散变换器
Sana-1.6B是一个高效的高分辨率图像合成模型,它基于线性扩散变换器技术,能够生成高质量的图像。该模型由NVIDIA实验室开发,使用DC-AE技术,具有32倍的潜在空间,能够在多个GPU上运行,提供强大的图像生成能力。Sana-1.6B以其高效的图像合成能力和高质量的输出结果而闻名,是图像合成领域的重要技术。
高效率的高分辨率图像合成框架
Sana是一个文本到图像的框架,能够高效生成高达4096×4096分辨率的图像。它以极快的速度合成高分辨率、高质量的图像,并保持强大的文本-图像对齐,可以部署在笔记本电脑GPU上。Sana的核心设计包括深度压缩自编码器、线性扩散变换器(DiT)、仅解码器的小型语言模型作为文本编码器,以及高效的训练和采样策略。Sana-0.6B与现代大型扩散模型相比,体积小20倍,测量吞吐量快100倍以上。此外,Sana-0.6B可以部署在16GB笔记本电脑GPU上,生成1024×1024分辨率图像的时间少于1秒。Sana使得低成本的内容创作成为可能。
临床组织病理学成像评估基础模型
CHIEF(Clinical Histopathology Imaging Evaluation Foundation)模型是一个用于癌症诊断和预后预测的病理学基础模型。它通过两种互补的预训练方法提取病理学成像特征,包括无监督预训练用于识别瓦片级别特征和弱监督预训练用于识别整个幻灯片的模式。CHIEF模型使用60,530个全幻灯片图像(WSIs)开发,覆盖19个不同的解剖部位,通过预训练在44TB的高分辨率病理学成像数据集上,提取对癌症细胞检测、肿瘤起源识别、分子档案表征和预后预测有用的微观表示。CHIEF模型在来自24个国际医院和队列的32个独立幻灯片集上的19,491个全幻灯片图像上进行了验证,整体性能超过最先进的深度学习方法高达36.1%,显示出其能够解决不同人群样本和不同幻灯片制备方法中观察到的领域偏移问题。CHIEF为癌症患者的高效数字病理学评估提供了一个可泛化的基础。
Stable Diffusion 3.5 Large的三款ControlNets模型
ControlNets for Stable Diffusion 3.5 Large是Stability AI推出的三款图像控制模型,包括Blur、Canny和Depth。这些模型能够提供精确和便捷的图像生成控制,适用于从室内设计到角色创建等多种应用场景。它们在用户偏好的ELO比较研究中排名第一,显示出其在同类模型中的优越性。这些模型在Stability AI社区许可下免费提供给商业和非商业用途,对于年收入不超过100万美元的组织和个人,使用完全免费,并且产出的媒体所有权归用户所有。
FLUX.1的最小且通用的控制器
OminiControl是一个为Diffusion Transformer模型如FLUX设计的最小但功能强大的通用控制框架。它支持主题驱动控制和空间控制(如边缘引导和图像修复生成)。OminiControl的设计非常精简,仅引入了基础模型0.1%的额外参数,同时保持了原始模型结构。这个项目由新加坡国立大学的学习与视觉实验室开发,代表了人工智能领域中图像生成和控制技术的最新进展。
先进的多模态图像生成模型,结合文本提示和视觉参考生成高质量图像。
Qwen2vl-Flux是一个结合了Qwen2VL视觉语言理解能力的FLUX框架的先进多模态图像生成模型。该模型擅长基于文本提示和视觉参考生成高质量图像,提供卓越的多模态理解和控制。产品背景信息显示,Qwen2vl-Flux集成了Qwen2VL的视觉语言能力,增强了FLUX的图像生成精度和上下文感知能力。其主要优点包括增强的视觉语言理解、多种生成模式、结构控制、灵活的注意力机制和高分辨率输出。
一个专门用于解决数独谜题的RWKV模型。
Sudoku-RWKV是一个基于RWKV模型的数独解题工具,它利用深度学习技术来解决数独问题。这个模型经过专门训练,能够处理大量的数独样本,具有较高的解题准确率。产品背景信息显示,该模型在训练时使用了约2M的数独样本,覆盖了约39.2B的token,参数量大约为12.7M,词汇量为133,架构为8层,每层320维度。该模型的主要优点是高效率和高准确率,能够解决任何可解的数独谜题。
统一的开放命名实体和语音识别模型
WhisperNER是一个结合了自动语音识别(ASR)和命名实体识别(NER)的统一模型,具备零样本能力。该模型旨在作为ASR带NER的下游任务的强大基础模型,并可以在特定数据集上进行微调以提高性能。WhisperNER的重要性在于其能够同时处理语音识别和实体识别任务,提高了处理效率和准确性,尤其在多语言和跨领域的场景中具有显著优势。
3D网格生成与语言模型的统一
LLaMA-Mesh是一项将大型语言模型(LLMs)预训练在文本上扩展到生成3D网格的能力的技术。这项技术利用了LLMs中已经嵌入的空间知识,并实现了对话式3D生成和网格理解。LLaMA-Mesh的主要优势在于它能够将3D网格的顶点坐标和面定义表示为纯文本,允许与LLMs直接集成而无需扩展词汇表。该技术的主要优点包括能够从文本提示生成3D网格、按需产生交错的文本和3D网格输出,以及理解和解释3D网格。LLaMA-Mesh在保持强大的文本生成性能的同时,实现了与从头开始训练的模型相当的网格生成质量。
AI云平台,为所有人服务
Kalavai是一个AI云平台,旨在为所有人提供服务。它通过集成各种AI技术,使得用户能够构建、部署和运行AI应用。Kalavai平台的主要优点是其易用性和灵活性,用户无需深入了解复杂的AI技术,即可快速构建自己的AI应用。平台背景信息显示,它支持多种语言和框架,适合不同层次的开发者使用。目前,Kalavai提供免费试用,具体价格和定位需要进一步了解。
人脸匿名化技术,保留关键细节同时有效保护隐私。
face_anon_simple是一个人脸匿名化技术,旨在通过先进的算法在保护个人隐私的同时保留原始照片中的面部表情、头部姿势、眼神方向和背景元素。这项技术对于需要发布包含人脸的图片但又希望保护个人隐私的场合非常有用,比如在新闻报道、社交媒体和安全监控等领域。产品基于开源代码,允许用户自行部署和使用,具有很高的灵活性和应用价值。
图像水印技术,可在图片中嵌入局部化水印信息
Watermark Anything是一个由Facebook Research开发的图像水印技术,它允许在图片中嵌入一个或多个局部化水印信息。这项技术的重要性在于它能够在保证图像质量的同时,实现对图像内容的版权保护和追踪。该技术背景是基于深度学习和图像处理的研究,主要优点包括高鲁棒性、隐蔽性和灵活性。产品定位为研究和开发用途,目前是免费提供给学术界和开发者使用。
基于Gradio的实时人像动画Web界面
AdvancedLivePortrait-WebUI是一个基于Gradio框架开发的Web界面,用于实时人像动画编辑。该技术允许用户通过上传图片来编辑人物的面部表情,实现了高效的肖像动画制作。它基于LivePortrait算法,利用深度学习技术进行面部特征的捕捉和动画制作,具有操作简便、效果逼真的优点。产品背景信息显示,它是由jhj0517开发的开源项目,适用于需要进行人像动画制作的专业人士和爱好者。目前该项目是免费的,并且开源,用户可以自由使用和修改。
基于文本生成服装图像的AI模型
FLUX.1-dev LoRA Outfit Generator是一个文本到图像的AI模型,能够根据用户详细描述的颜色、图案、合身度、风格、材质和类型来生成服装。该模型使用了H&M Fashion Captions Dataset数据集进行训练,并基于Ostris的AI Toolkit进行开发。它的重要性在于能够辅助设计师快速实现设计想法,加速服装行业的创新和生产流程。
构建视频搜索和摘要代理,提取视频洞察
NVIDIA Video Search and Summarization 是一个利用深度学习和人工智能技术,能够处理大量实时或存档视频,并从中提取信息以进行摘要和交互式问答的模型。该产品代表了视频内容分析和处理技术的最新进展,它通过生成式AI和视频到文本的技术,为用户提供了一种全新的视频内容管理和检索方式。NVIDIA Video Search and Summarization 的主要优点包括高效的视频内容分析、准确的摘要生成和交互式问答能力,这些功能对于需要处理大量视频数据的企业来说至关重要。产品背景信息显示,NVIDIA 致力于通过其先进的AI模型,推动视频内容的智能化处理和分析。
语音合成工具,提供高质量的语音生成服务
Fish Speech是一款专注于语音合成的产品,它通过使用先进的深度学习技术,能够将文本转换为自然流畅的语音。该产品支持多种语言,包括中文、英文等,适用于需要文本到语音转换的场景,如语音助手、有声读物制作等。Fish Speech以其高质量的语音输出、易用性和灵活性为主要优点,背景信息显示,该产品不断更新,增加了数据集大小,并改进了量化器的参数,以提供更好的服务。
高容量真实世界图像修复与隐私安全数据管理
DreamClear是一个专注于高容量真实世界图像修复的深度学习模型,它通过隐私安全的数据管理技术,提供了一种高效的图像超分辨率和修复解决方案。该模型在NeurIPS 2024上被提出,主要优点包括高容量处理能力、隐私保护以及实际应用中的高效性。DreamClear的背景信息显示,它是基于先前工作的改进,并且提供了多种预训练模型和代码,以便于研究者和开发者使用。产品是免费的,定位于科研和工业界的图像处理需求。
8B参数变分自编码器模型,用于高效的文本到图像生成。
Flux.1 Lite是一个由Freepik发布的8B参数的文本到图像生成模型,它是从FLUX.1-dev模型中提取出来的。这个版本相较于原始模型减少了7GB的RAM使用,并提高了23%的运行速度,同时保持了与原始模型相同的精度(bfloat16)。该模型的发布旨在使高质量的AI模型更加易于获取,特别是对于消费级GPU用户。
超轻量级数字人模型,移动端实时运行
Ultralight-Digital-Human是一个超轻量级的数字人模型,可以在移动端实时运行。这个模型是开源的,据开发者所知,它是第一个如此轻量级的开源数字人模型。该模型的主要优点包括轻量级设计,适合移动端部署,以及实时运行的能力。它的背后是深度学习技术,特别是在人脸合成和声音模拟方面的应用,这使得数字人模型能够以较低的资源消耗实现高质量的表现。产品目前是免费的,主要面向技术爱好者和开发者。
基于Flux的IC-Light模型,专注于图像细节保留和风格化处理
IC-Light V2是一系列基于Flux的IC-Light模型,采用16ch VAE和原生高分辨率技术。该模型在细节保留、风格化图像处理等方面相较于前代有显著提升。它特别适合需要在保持图像细节的同时进行风格化处理的应用场景。目前,该模型以非商业性质发布,主要面向个人用户和研究者。
基于MaskGCT模型的文本到语音演示
MaskGCT TTS Demo 是一个基于MaskGCT模型的文本到语音(TTS)演示,由Hugging Face平台上的amphion提供。该模型利用深度学习技术,将文本转换为自然流畅的语音,适用于多种语言和场景。MaskGCT模型因其高效的语音合成能力和对多种语言的支持而受到关注。它不仅可以提高语音识别和合成的准确性,还能在不同的应用场景中提供个性化的语音服务。目前,该产品在Hugging Face平台上提供免费试用,具体价格和定位信息需进一步了解。
轻量级推理模型,用于生成高质量图像
Stable Diffusion 3.5是一个用于简单推理的轻量级模型,它包含了文本编码器、VAE解码器和核心MM-DiT技术。该模型旨在帮助合作伙伴组织实现SD3.5,并且可以用于生成高质量的图像。它的重要性在于其高效的推理能力和对资源的低要求,使得广泛的用户群体能够使用和享受生成图像的乐趣。该模型遵循Stability AI Community License Agreement,并且可以免费使用。
强大的图像生成模型
Stable Diffusion 3.5是Stability AI推出的一款图像生成模型,具有多种变体,包括Stable Diffusion 3.5 Large和Stable Diffusion 3.5 Large Turbo。这些模型可高度定制,能在消费级硬件上运行,并且根据Stability AI社区许可协议,可以免费用于商业和非商业用途。该模型的发布体现了Stability AI致力于让视觉媒体变革的工具更易于获取、更前沿、更自由的使命。
通过多样化合成数据和全局到局部自适应感知增强文档布局分析
DocLayout-YOLO是一个用于文档布局分析的深度学习模型,它通过多样化的合成数据和全局到局部自适应感知来增强文档布局分析的准确性和处理速度。该模型通过Mesh-candidate BestFit算法生成大规模多样化的DocSynth-300K数据集,显著提升了不同文档类型在微调性能上的表现。此外,它还提出了一个全局到局部可控的感受野模块,更好地处理文档元素的多尺度变化。DocLayout-YOLO在各种文档类型上的下游数据集上表现出色,无论是在速度还是准确性上都有显著优势。
OCR-free 文档理解的统一结构学习模型
mPLUG-DocOwl 1.5 是一个致力于OCR-free文档理解的统一结构学习模型,它通过深度学习技术实现了对文档的直接理解,无需传统的光学字符识别(OCR)过程。该模型能够处理包括文档、网页、表格和图表在内的多种类型的图像,支持结构感知的文档解析、多粒度的文本识别和定位,以及问答等功能。mPLUG-DocOwl 1.5 的研发背景是基于对文档理解自动化和智能化的需求,旨在提高文档处理的效率和准确性。该模型的开源特性也促进了学术界和工业界的进一步研究和应用。
高效3D高斯重建模型,实现大场景快速重建
Long-LRM是一个用于3D高斯重建的模型,能够从一系列输入图像中重建出大场景。该模型能在1.3秒内处理32张960x540分辨率的源图像,并且仅在单个A100 80G GPU上运行。它结合了最新的Mamba2模块和传统的transformer模块,通过高效的token合并和高斯修剪步骤,在保证质量的同时提高了效率。与传统的前馈模型相比,Long-LRM能够一次性重建整个场景,而不是仅重建场景的一小部分。在大规模场景数据集上,如DL3DV-140和Tanks and Temples,Long-LRM的性能可与基于优化的方法相媲美,同时效率提高了两个数量级。
高精度视频唇形同步技术
Wav2Lip 是一个开源项目,旨在通过深度学习技术实现视频中人物的唇形与任意目标语音高度同步。该项目提供了完整的训练代码、推理代码和预训练模型,支持任何身份、声音和语言,包括CGI面孔和合成声音。Wav2Lip 背后的技术基于论文 'A Lip Sync Expert Is All You Need for Speech to Lip Generation In the Wild',该论文在ACM Multimedia 2020上发表。项目还提供了一个交互式演示和Google Colab笔记本,方便用户快速开始使用。此外,项目还提供了一些新的、可靠的评估基准和指标,以及如何在论文中计算这些指标的说明。
© 2024 AIbase 备案号:闽ICP备08105208号-14