需求人群:
["研究人员和工程师可以利用 CoreNet 进行深度学习模型的研究和开发","适用于需要进行图像和文本数据训练的计算机视觉任务","适合对深度学习有基础了解并希望扩展到更广泛应用领域的开发者"]
使用场景示例:
使用 CoreNet 训练一个用于图像识别的 CLIP 模型
利用 CoreNet 进行语义分割任务,以提高自动驾驶系统的准确性
在移动设备上部署一个轻量级的 MobileViT 模型,用于实时对象检测
产品特色:
支持训练多种规模的深度神经网络模型
适用于多种任务,如基础模型、对象分类、对象检测和语义分割
提供了可复现的训练配方和预训练模型权重
包含研究论文的链接和预训练模型
支持在 Apple Silicon 上高效运行 CoreNet 模型的 MLX 示例
模型实现按任务组织,易于在 YAML 配置中使用
使用教程:
首先,确保安装了 Git LFS 并激活
使用 Python 3.10+ 和 PyTorch (版本 >= v2.1.0) 设置开发环境
克隆 CoreNet 仓库到本地
根据需要安装可选依赖,如音频和视频处理库
参考 tutorials 目录中的 Jupyter 笔记本和指南开始学习和使用 CoreNet
通过修改 YAML 配置文件来定制训练和评估过程
利用提供的 MLX 示例在 Apple Silicon 上运行 CoreNet 模型
浏览量:15
最新流量情况
月访问量
5.16m
平均访问时长
00:06:42
每次访问页数
5.81
跳出率
37.20%
流量来源
直接访问
52.27%
自然搜索
32.92%
邮件
0.05%
外链引荐
12.52%
社交媒体
2.15%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
11.99%
德国
3.63%
印度
9.20%
俄罗斯
5.25%
美国
19.02%
CoreNet 是一个用于训练深度神经网络的库。
CoreNet 是一个深度神经网络工具包,使研究人员和工程师能够训练标准和新颖的小型和大型规模模型,用于各种任务,包括基础模型(例如 CLIP 和 LLM)、对象分类、对象检测和语义分割。
3D网格生成与语言模型的统一
LLaMA-Mesh是一项将大型语言模型(LLMs)预训练在文本上扩展到生成3D网格的能力的技术。这项技术利用了LLMs中已经嵌入的空间知识,并实现了对话式3D生成和网格理解。LLaMA-Mesh的主要优势在于它能够将3D网格的顶点坐标和面定义表示为纯文本,允许与LLMs直接集成而无需扩展词汇表。该技术的主要优点包括能够从文本提示生成3D网格、按需产生交错的文本和3D网格输出,以及理解和解释3D网格。LLaMA-Mesh在保持强大的文本生成性能的同时,实现了与从头开始训练的模型相当的网格生成质量。
图像条件扩散模型的微调工具
diffusion-e2e-ft是一个开源的图像条件扩散模型微调工具,它通过微调预训练的扩散模型来提高特定任务的性能。该工具支持多种模型和任务,如深度估计和法线估计,并提供了详细的使用说明和模型检查点。它在图像处理和计算机视觉领域具有重要应用,能够显著提升模型在特定任务上的准确性和效率。
从零开始学习深度学习,实现GPT模型
zero_to_gpt是一个旨在帮助用户从零基础学习深度学习,并最终实现训练自己的GPT模型的教程。随着人工智能技术走出实验室并广泛应用于各行各业,社会对于能够理解并应用AI技术的人才需求日益增长。本教程结合理论与实践,通过解决实际问题(如天气预测、语言翻译等)来深入讲解深度学习的理论基础,如梯度下降和反向传播。课程内容从基础的神经网络架构和训练方法开始,逐步深入到复杂主题,如变换器、GPU编程和分布式训练。
深度学习模型训练脚本集
x-flux是由XLabs AI团队发布的深度学习模型训练脚本集,包括LoRA和ControlNet模型。这些模型使用DeepSpeed进行训练,支持512x512和1024x1024图片尺寸,并且提供了相应的训练配置文件和示例。x-flux模型训练旨在提高图像生成的质量和效率,对于AI图像生成领域具有重要意义。
深度学习驱动的三维重建技术
VGGSfM是一种基于深度学习的三维重建技术,旨在从一组不受限制的2D图像中重建场景的相机姿态和3D结构。该技术通过完全可微分的深度学习框架,实现端到端的训练。它利用深度2D点跟踪技术提取可靠的像素级轨迹,同时基于图像和轨迹特征恢复所有相机,并通过可微分的捆绑调整层优化相机和三角化3D点。VGGSfM在CO3D、IMC Phototourism和ETH3D三个流行数据集上取得了最先进的性能。
3D图像匹配的先进模型
MASt3R是由Naver Corporation开发的一种用于3D图像匹配的先进模型,它专注于提升计算机视觉领域中的几何3D视觉任务。该模型利用了最新的深度学习技术,通过训练能够实现对图像之间精确的3D匹配,对于增强现实、自动驾驶以及机器人导航等领域具有重要意义。
提供关于人工智能的最佳资源,学习机器学习、数据科学、自然语言处理等。
AI Online Course是一个互动学习平台,提供清晰简明的人工智能介绍,使复杂的概念易于理解。它涵盖机器学习、深度学习、计算机视觉、自动驾驶、聊天机器人等方面的知识,并强调实际应用和技术优势。
无需相机校准信息的密集立体3D重建
DUSt3R是一种新颖的密集和无约束立体3D重建方法,适用于任意图像集合。它不需要事先了解相机校准或视点姿态信息,通过将成对重建问题视为点图的回归,放宽了传统投影相机模型的严格约束。DUSt3R提供了一种统一的单目和双目重建方法,并在多图像情况下提出了一种简单有效的全局对齐策略。基于标准的Transformer编码器和解码器构建网络架构,利用强大的预训练模型。DUSt3R直接提供场景的3D模型和深度信息,并且可以从中恢复像素匹配、相对和绝对相机信息。
先进机器智能的下一步
Meta 发布了 Video Joint Embedding Predictive Architecture (V-JEPA) 模型,这是推进机器智能的关键一步,带来对世界更具实地认识。
YOLOv8目标检测跟踪模型
YOLOv8是YOLO系列目标检测模型的最新版本,能够在图像或视频中准确快速地识别和定位多个对象,并实时跟踪它们的移动。相比之前版本,YOLOv8在检测速度和精确度上都有很大提升,同时支持多种额外的计算机视觉任务,如实例分割、姿态估计等。YOLOv8可通过多种格式部署在不同硬件平台上,提供一站式的端到端目标检测解决方案。
基于视频的3D场景重建
VisFusion是一个利用视频数据进行在线3D场景重建的技术,它能够实时地从视频中提取和重建出三维环境。这项技术结合了计算机视觉和深度学习,为用户提供了一个强大的工具,用于创建精确的三维模型。
AI模型开发与部署
Visnet是一个全面的、无头的、多兼容的神经网络接口框架,主要用于自然语言处理和深度视觉系统。它具有模块化的前端、无服务器架构和多兼容性,并提供了REST API和Websocket接口。它包含了多个核心AI模型,如翻译、车牌识别和人脸特征匹配等。Visnet可广泛应用于监控、无人机检测、图像和视频分析等领域。
开放式基于提示的图像生成
GLIGEN是一个开放式的基于文本提示的图像生成模型,它可以基于文本描述和边界框等限定条件生成图像。该模型通过冻结预训练好的文本到图像Diffusion模型的参数,并在其中插入新的数据来实现。这种模块化设计可以高效地进行训练,并具有很强的推理灵活性。GLIGEN可以支持开放世界的有条件图像生成,对新出现的概念和布局也具有很强的泛化能力。
基于双向状态空间模型的高效视觉表示学习框架
Vision Mamba是一个高效的视觉表示学习框架,使用双向Mamba模块构建,可以克服计算和内存限制,进行高分辨率图像的Transformer风格理解。它不依赖自注意力机制,通过位置嵌入和双向状态空间模型压缩视觉表示,实现更高性能,计算和内存效率也更好。该框架在 ImageNet分类、COCO目标检测和ADE20k语义分割任务上,性能优于经典的视觉Transformers,如DeiT,但计算和内存效率提高2.8倍和86.8%。
用于视频超分辨率和去模糊的深度学习模型
FMA-Net是一个用于视频超分辨率和去模糊的深度学习模型。它可以将低分辨率和模糊的视频恢复成高分辨率和清晰的视频。该模型通过流引导的动态过滤和多注意力的迭代特征精炼技术,可以有效处理视频中的大动作,实现视频的联合超分辨率和去模糊。该模型结构简单、效果显著,可以广泛应用于视频增强、编辑等领域。
一个AI深度学习平台,提供丰富的模型和工具,打造AI创新社区
Neuralhub是一个让深度学习更简单的平台,它为AI爱好者、研究人员和工程师提供实验和创新的环境。我们的目标不仅仅是提供工具,我们还在建立一个社区,一个可以分享和协作的地方。我们致力于通过汇集所有工具、研究和模型到一个协作空间,简化当今的深度学习,使AI研究、学习和开发更容易获取。
从合成数据中学习视觉表示模型
该代码仓库包含从合成图像数据(主要是图片)进行学习的研究,包括StableRep、Scaling和SynCLR三个项目。这些项目研究了如何利用文本到图像模型生成的合成图像数据进行视觉表示模型的训练,并取得了非常好的效果。
机器人图像渲染的新发展
Wild2Avatar是一个用于渲染被遮挡的野外单目视频中的人类外观的神经渲染方法。它可以在真实场景下渲染人类,即使障碍物可能会阻挡相机视野并导致部分遮挡。该方法通过将场景分解为三部分(遮挡物、人类和背景)来实现,并使用特定的目标函数强制分离人类与遮挡物和背景,以确保人类模型的完整性。
一个统一的用于图像和视频对象分割的模型
UniRef是一个统一的用于图像和视频参考对象分割的模型。它支持语义参考图像分割(RIS)、少样本分割(FSS)、语义参考视频对象分割(RVOS)和视频对象分割(VOS)等多种任务。UniRef的核心是UniFusion模块,它可以高效地将各种参考信息注入到基础网络中。 UniRef可以作为SAM等基础模型的插件组件使用。UniRef提供了在多个基准数据集上训练好的模型,同时也开源了代码以供研究使用。
MindOne,一站式AI生成工具
MindOne是一个一站式的AI生成工具App。它整合了多种前沿的AI模型,包括文字生成、图像生成、聊天机器人等功能。用户可以通过MindOne快速生成各种效果的图像,并可以自定义不同的风格和场景。此外,它还内置多种先进的NLP模型,支持智能问答、文本摘要、语音识别等功能。MindOne简单易用的界面设计和合理的价格策略,让普通用户也能无障碍地使用顶级AI技术,开启属于自己的AI之旅。
统一的深度学习训练框架
AXLearn是Apple基于JAX和XLA构建的深度学习库,采用面向对象的方式解决软件工程在大规模深度学习模型开发中的挑战。它的配置系统允许用户从可重用的构建块中组合模型,并与其他库(如Flax和Hugging Face transformers)集成。AXLearn旨在扩展训练规模,支持数百亿参数的模型在数千个加速器上高效训练,适合在公有云上部署。它还采用全局计算范式,允许用户描述全局虚拟计算机上的计算,而不是单个加速器。AXLearn支持广泛的应用,包括自然语言处理、计算机视觉和语音识别,并包含用于训练最先进模型的基线配置。
一款用于训练PyTorch计算机视觉模型的开源库。
YOLO-NAS Pose是一款免费的、开源的库,用于训练基于PyTorch的计算机视觉模型。它提供了训练脚本和快速简单复制模型结果的示例。内置SOTA模型,可以轻松加载和微调生产就绪的预训练模型,包括最佳实践和验证的超参数,以实现最佳的准确性。可以缩短训练生命周期,消除不确定性。提供分类、检测、分割等不同任务的模型,可以轻松集成到代码库中。
开源分布式深度学习工具
The Microsoft Cognitive Toolkit(CNTK)是一个开源的商业级分布式深度学习工具。它通过有向图描述神经网络的计算步骤,支持常见的模型类型,并实现了自动微分和并行计算。CNTK支持64位Linux和Windows操作系统,可以作为Python、C或C++程序的库使用,也可以通过其自身的模型描述语言BrainScript作为独立的机器学习工具使用。
用于高效表示复杂时空信号的残差神经场
ResFields是一类专门设计用于有效表示复杂时空信号的网络。它将时变权重引入多层感知机中,利用可训练的残差参数增强了模型的表达能力。该方法可以无缝集成到现有技术中,并可显著提高各种具有挑战性的任务的结果,如2D视频逼近、动态形状建模和动态NeRF重建等。
无代码搭建目标检测神经网络
MakeML是一个无需编写任何代码就可以搭建图像目标检测神经网络的开发工具。它提供了一个简单易用的图形界面,用户只需上传训练集图片,绘制bounding box,设置参数,就可以训练出一个高效的目标检测模型,并导出成CoreML格式在iOS App中使用。MakeML解决了神经网络开发门槛高的痛点,不需要任何机器学习或编程知识,就可以获得强大的深度学习能力。
在线AI抠图工具 能抠任何图像中的任何对象
SAM是一个可提示的分割系统,能够对不熟悉的对象和图像进行零样本泛化,无需额外训练。它使用各种输入提示,可以进行广泛的分割任务,无需额外训练。它的可提示设计可以与其他系统灵活集成。它在1100万张图像上训练,拥有10亿个分割掩模。它的高效模块化设计使其可以在几毫秒内进行推理。Segment Anything Model (SAM),该模型能够根据文本指令等方式实现图像分割,而且万物皆可识别和一键抠图,上传图片点击物体即可识别。
© 2024 AIbase 备案号:闽ICP备08105208号-14