需求人群:
"用于训练和微调计算机视觉模型,可以用于各种计算机视觉任务。"
使用场景示例:
用YOLO-NAS Pose训练一个图像分类模型
使用YOLO-NAS Pose微调一个目标检测模型
利用YOLO-NAS Pose训练一个图像分割模型
产品特色:
提供训练脚本和模型结果的快速简单复制示例
内置SOTA模型,可以轻松加载和微调生产就绪的预训练模型
提供分类、检测、分割等不同任务的模型
浏览量:196
一款用于训练PyTorch计算机视觉模型的开源库。
YOLO-NAS Pose是一款免费的、开源的库,用于训练基于PyTorch的计算机视觉模型。它提供了训练脚本和快速简单复制模型结果的示例。内置SOTA模型,可以轻松加载和微调生产就绪的预训练模型,包括最佳实践和验证的超参数,以实现最佳的准确性。可以缩短训练生命周期,消除不确定性。提供分类、检测、分割等不同任务的模型,可以轻松集成到代码库中。
一种无混叠的任意尺度超分辨率方法。
Thera 是一种先进的超分辨率技术,能够在不同尺度下生成高质量图像。其主要优点在于内置物理观察模型,有效避免了混叠现象。该技术由 ETH Zurich 的研究团队开发,适用于图像增强和计算机视觉领域,尤其在遥感和摄影测量中具有广泛应用。
通过多实例扩散模型将单张图像生成高保真度的3D场景。
MIDI是一种创新的图像到3D场景生成技术,它利用多实例扩散模型,能够从单张图像中直接生成具有准确空间关系的多个3D实例。该技术的核心在于其多实例注意力机制,能够有效捕捉物体间的交互和空间一致性,无需复杂的多步骤处理。MIDI在图像到场景生成领域表现出色,适用于合成数据、真实场景数据以及由文本到图像扩散模型生成的风格化场景图像。其主要优点包括高效性、高保真度和强大的泛化能力。
Flux 是一个用于 GPU 上张量/专家并行的快速通信重叠库。
Flux 是由字节跳动开发的一个高性能通信重叠库,专为 GPU 上的张量和专家并行设计。它通过高效的内核和对 PyTorch 的兼容性,支持多种并行化策略,适用于大规模模型训练和推理。Flux 的主要优点包括高性能、易于集成和对多种 NVIDIA GPU 架构的支持。它在大规模分布式训练中表现出色,尤其是在 Mixture-of-Experts (MoE) 模型中,能够显著提高计算效率。
分析 V3/R1 中的计算与通信重叠策略,提供深度学习框架的性能分析数据。
DeepSeek Profile Data 是一个专注于深度学习框架性能分析的项目。它通过 PyTorch Profiler 捕获训练和推理框架的性能数据,帮助研究人员和开发者更好地理解计算与通信重叠策略以及底层实现细节。这些数据对于优化大规模分布式训练和推理任务至关重要,能够显著提升系统的效率和性能。该项目是 DeepSeek 团队在深度学习基础设施领域的重要贡献,旨在推动社区对高效计算策略的探索。
基于 PyTorch 的音乐、歌曲和音频生成工具包,支持高质量音频生成
InspireMusic 是一个专注于音乐、歌曲和音频生成的 AIGC 工具包和模型框架,采用 PyTorch 开发。它通过音频标记化和解码过程,结合自回归 Transformer 和条件流匹配模型,实现高质量音乐生成。该工具包支持文本提示、音乐风格、结构等多种条件控制,能够生成 24kHz 和 48kHz 的高质量音频,并支持长音频生成。此外,它还提供了方便的微调和推理脚本,方便用户根据需求调整模型。InspireMusic 的开源旨在赋能普通用户通过音乐创作提升研究中的音效表现。
Video Depth Anything: Consistent Depth Estimation for Super-Long Videos
Video Depth Anything 是一个基于深度学习的视频深度估计模型,能够为超长视频提供高质量、时间一致的深度估计。该技术基于 Depth Anything V2 开发,具有强大的泛化能力和稳定性。其主要优点包括对任意长度视频的深度估计能力、时间一致性以及对开放世界视频的良好适应性。该模型由字节跳动的研究团队开发,旨在解决长视频深度估计中的挑战,如时间一致性问题和复杂场景的适应性问题。目前,该模型的代码和演示已公开,供研究人员和开发者使用。
从穿着人身上生成平铺布料的模型
TryOffAnyone是一个用于从穿着人身上生成平铺布料的深度学习模型。该模型能够将穿着衣物的人的图片转换成布料平铺图,这对于服装设计、虚拟试衣等领域具有重要意义。它通过深度学习技术,实现了高度逼真的布料模拟,使得用户可以更直观地预览衣物的穿着效果。该模型的主要优点包括逼真的布料模拟效果和较高的自动化程度,可以减少实际试衣过程中的时间和成本。
高质量身份保留的人像动画合成工具。
StableAnimator是首个端到端身份保留的视频扩散框架,能够在不进行后处理的情况下合成高质量视频。该技术通过参考图像和一系列姿势进行条件合成,确保了身份一致性。其主要优点在于无需依赖第三方工具,适合需要高质量人像动画的用户。
3D网格生成与语言模型的统一
LLaMA-Mesh是一项将大型语言模型(LLMs)预训练在文本上扩展到生成3D网格的能力的技术。这项技术利用了LLMs中已经嵌入的空间知识,并实现了对话式3D生成和网格理解。LLaMA-Mesh的主要优势在于它能够将3D网格的顶点坐标和面定义表示为纯文本,允许与LLMs直接集成而无需扩展词汇表。该技术的主要优点包括能够从文本提示生成3D网格、按需产生交错的文本和3D网格输出,以及理解和解释3D网格。LLaMA-Mesh在保持强大的文本生成性能的同时,实现了与从头开始训练的模型相当的网格生成质量。
PyTorch原生量化和稀疏性训练与推理库
torchao是PyTorch的一个库,专注于自定义数据类型和优化,支持量化和稀疏化权重、梯度、优化器和激活函数,用于推理和训练。它与torch.compile()和FSDP2兼容,能够为大多数PyTorch模型提供加速。torchao旨在通过量化感知训练(QAT)和后训练量化(PTQ)等技术,提高模型的推理速度和内存效率,同时尽量减小精度损失。
图像条件扩散模型的微调工具
diffusion-e2e-ft是一个开源的图像条件扩散模型微调工具,它通过微调预训练的扩散模型来提高特定任务的性能。该工具支持多种模型和任务,如深度估计和法线估计,并提供了详细的使用说明和模型检查点。它在图像处理和计算机视觉领域具有重要应用,能够显著提升模型在特定任务上的准确性和效率。
使用文本生成音乐的模型
FluxMusic是一个基于PyTorch实现的文本到音乐生成模型,它通过扩散式修正流变换器探索了一种简单的文本到音乐生成方法。这个模型可以生成根据文本提示的音乐片段,具有创新性和高度的技术复杂性。它代表了音乐生成领域的前沿技术,为音乐创作提供了新的可能。
从零开始学习深度学习,实现GPT模型
zero_to_gpt是一个旨在帮助用户从零基础学习深度学习,并最终实现训练自己的GPT模型的教程。随着人工智能技术走出实验室并广泛应用于各行各业,社会对于能够理解并应用AI技术的人才需求日益增长。本教程结合理论与实践,通过解决实际问题(如天气预测、语言翻译等)来深入讲解深度学习的理论基础,如梯度下降和反向传播。课程内容从基础的神经网络架构和训练方法开始,逐步深入到复杂主题,如变换器、GPU编程和分布式训练。
高效训练高质量文本到图像扩散模型
ml-mdm是一个Python包,用于高效训练高质量的文本到图像扩散模型。该模型利用Matryoshka扩散模型技术,能够在1024x1024像素的分辨率上训练单一像素空间模型,展现出强大的零样本泛化能力。
大规模参数扩散变换器模型
DiT-MoE是一个使用PyTorch实现的扩散变换器模型,能够扩展到160亿参数,与密集网络竞争的同时展现出高度优化的推理能力。它代表了深度学习领域在处理大规模数据集时的前沿技术,具有重要的研究和应用价值。
深度学习驱动的三维重建技术
VGGSfM是一种基于深度学习的三维重建技术,旨在从一组不受限制的2D图像中重建场景的相机姿态和3D结构。该技术通过完全可微分的深度学习框架,实现端到端的训练。它利用深度2D点跟踪技术提取可靠的像素级轨迹,同时基于图像和轨迹特征恢复所有相机,并通过可微分的捆绑调整层优化相机和三角化3D点。VGGSfM在CO3D、IMC Phototourism和ETH3D三个流行数据集上取得了最先进的性能。
3D图像匹配的先进模型
MASt3R是由Naver Corporation开发的一种用于3D图像匹配的先进模型,它专注于提升计算机视觉领域中的几何3D视觉任务。该模型利用了最新的深度学习技术,通过训练能够实现对图像之间精确的3D匹配,对于增强现实、自动驾驶以及机器人导航等领域具有重要意义。
提供关于人工智能的最佳资源,学习机器学习、数据科学、自然语言处理等。
AI Online Course是一个互动学习平台,提供清晰简明的人工智能介绍,使复杂的概念易于理解。它涵盖机器学习、深度学习、计算机视觉、自动驾驶、聊天机器人等方面的知识,并强调实际应用和技术优势。
CoreNet 是一个用于训练深度神经网络的库。
CoreNet 是一个深度神经网络工具包,使研究人员和工程师能够训练标准和新颖的小型和大型规模模型,用于各种任务,包括基础模型(例如 CLIP 和 LLM)、对象分类、对象检测和语义分割。
无需相机校准信息的密集立体3D重建
DUSt3R是一种新颖的密集和无约束立体3D重建方法,适用于任意图像集合。它不需要事先了解相机校准或视点姿态信息,通过将成对重建问题视为点图的回归,放宽了传统投影相机模型的严格约束。DUSt3R提供了一种统一的单目和双目重建方法,并在多图像情况下提出了一种简单有效的全局对齐策略。基于标准的Transformer编码器和解码器构建网络架构,利用强大的预训练模型。DUSt3R直接提供场景的3D模型和深度信息,并且可以从中恢复像素匹配、相对和绝对相机信息。
YOLOv8目标检测跟踪模型
YOLOv8是YOLO系列目标检测模型的最新版本,能够在图像或视频中准确快速地识别和定位多个对象,并实时跟踪它们的移动。相比之前版本,YOLOv8在检测速度和精确度上都有很大提升,同时支持多种额外的计算机视觉任务,如实例分割、姿态估计等。YOLOv8可通过多种格式部署在不同硬件平台上,提供一站式的端到端目标检测解决方案。
基于视频的3D场景重建
VisFusion是一个利用视频数据进行在线3D场景重建的技术,它能够实时地从视频中提取和重建出三维环境。这项技术结合了计算机视觉和深度学习,为用户提供了一个强大的工具,用于创建精确的三维模型。
开放式基于提示的图像生成
GLIGEN是一个开放式的基于文本提示的图像生成模型,它可以基于文本描述和边界框等限定条件生成图像。该模型通过冻结预训练好的文本到图像Diffusion模型的参数,并在其中插入新的数据来实现。这种模块化设计可以高效地进行训练,并具有很强的推理灵活性。GLIGEN可以支持开放世界的有条件图像生成,对新出现的概念和布局也具有很强的泛化能力。
基于双向状态空间模型的高效视觉表示学习框架
Vision Mamba是一个高效的视觉表示学习框架,使用双向Mamba模块构建,可以克服计算和内存限制,进行高分辨率图像的Transformer风格理解。它不依赖自注意力机制,通过位置嵌入和双向状态空间模型压缩视觉表示,实现更高性能,计算和内存效率也更好。该框架在 ImageNet分类、COCO目标检测和ADE20k语义分割任务上,性能优于经典的视觉Transformers,如DeiT,但计算和内存效率提高2.8倍和86.8%。
一种利用侧视图像重建3D服装虚拟人物的方法
SIFU是一个利用侧视图像重建高质量3D服装虚拟人物模型的方法。它的核心创新点是提出了一种新的基于侧视图像的隐式函数,可以增强特征提取和提高几何精度。此外,SIFU还引入了一种3D一致的纹理优化过程,可大大提升纹理质量,借助文本到图像的diffusion模型实现纹理编辑。SIFU擅长处理复杂姿势和宽松衣物,是实际应用中理想的解决方案。
用于视频超分辨率和去模糊的深度学习模型
FMA-Net是一个用于视频超分辨率和去模糊的深度学习模型。它可以将低分辨率和模糊的视频恢复成高分辨率和清晰的视频。该模型通过流引导的动态过滤和多注意力的迭代特征精炼技术,可以有效处理视频中的大动作,实现视频的联合超分辨率和去模糊。该模型结构简单、效果显著,可以广泛应用于视频增强、编辑等领域。
© 2025 AIbase 备案号:闽ICP备08105208号-14