Pruna 是一个模型优化框架,帮助开发者快速高效交付模型。
Pruna 是一个为开发者设计的模型优化框架,通过一系列压缩算法,如量化、修剪和编译等技术,使得机器学习模型在推理时更快、体积更小且计算成本更低。产品适用于多种模型类型,包括 LLMs、视觉转换器等,且支持 Linux、MacOS 和 Windows 等多个平台。Pruna 还提供了企业版 Pruna Pro,解锁更多高级优化功能和优先支持,助力用户在实际应用中提高效率。
通过一行代码部署AI模型,提供快速、稳定且成本效益高的AI服务。
Synexa AI 是一个专注于简化AI模型部署的平台,通过一行代码即可实现模型的快速上线。其主要优点包括极简的部署流程、强大的自动扩展能力、高性价比的GPU资源以及优化的推理引擎,能够显著提升开发效率并降低运行成本。该平台适用于需要快速部署和高效运行AI模型的企业和开发者,提供了一个稳定、高效且经济的解决方案,帮助用户在AI领域快速实现价值。
Moonlight是一个16B参数的混合专家模型,使用Muon优化器训练,性能优异。
Moonlight是基于Muon优化器训练的16B参数混合专家模型(MoE),在大规模训练中表现出色。它通过添加权重衰减和调整参数更新比例,显著提高了训练效率和稳定性。该模型在多项基准测试中超越了现有模型,同时大幅减少了训练所需的计算量。Moonlight的开源实现和预训练模型为研究人员和开发者提供了强大的工具,支持多种自然语言处理任务,如文本生成、代码生成等。
1.58-bit量化的先进文本到图像生成模型
1.58-bit FLUX是一种先进的文本到图像生成模型,通过使用1.58位权重(即{-1, 0, +1}中的值)来量化FLUX.1-dev模型,同时保持生成1024x1024图像的可比性能。该方法无需访问图像数据,完全依赖于FLUX.1-dev模型的自监督。此外,开发了一种定制的内核,优化了1.58位操作,实现了模型存储减少7.7倍,推理内存减少5.1倍,并改善了推理延迟。在GenEval和T2I Compbench基准测试中的广泛评估表明,1.58-bit FLUX在保持生成质量的同时显著提高了计算效率。
AI模型部署和推理优化的专家
Neural Magic是一家专注于AI模型优化和部署的公司,提供领先的企业级推理解决方案,以最大化性能和提高硬件效率。公司的产品支持在GPU和CPU基础设施上运行领先的开源大型语言模型(LLMs),帮助企业在云、私有数据中心或边缘环境中安全、高效地部署AI模型。Neural Magic的产品背景信息强调了其在机器学习模型优化方面的专业知识,以及与科研机构合作开发的创新LLM压缩技术,如GPTQ和SparseGPT。产品价格和定位方面,Neural Magic提供了免费试用和付费服务,旨在帮助企业降低成本、提高效率,并保持数据隐私和安全。
PyTorch原生量化和稀疏性训练与推理库
torchao是PyTorch的一个库,专注于自定义数据类型和优化,支持量化和稀疏化权重、梯度、优化器和激活函数,用于推理和训练。它与torch.compile()和FSDP2兼容,能够为大多数PyTorch模型提供加速。torchao旨在通过量化感知训练(QAT)和后训练量化(PTQ)等技术,提高模型的推理速度和内存效率,同时尽量减小精度损失。
革命性AI数据管理,提升99%准确率
Future AGI是一个自动化AI模型评估平台,通过自动评分AI模型输出,消除了手动QA评估的需求,使QA团队能够专注于更战略性的任务,提高效率和带宽高达10倍。该平台使用自然语言定义对业务最重要的指标,提供增强的灵活性和控制力,以评估模型性能,确保与业务目标的一致性。它还通过整合性能数据和用户反馈到开发过程中,创建了一个持续改进的循环,使AI在每次互动中变得更智能。
GGUF量化支持,优化ComfyUI原生模型性能
ComfyUI-GGUF是一个为ComfyUI原生模型提供GGUF量化支持的项目。它允许模型文件以GGUF格式存储,这种格式由llama.cpp推广。尽管常规的UNET模型(conv2d)不适用于量化,但像flux这样的transformer/DiT模型似乎受量化影响较小。这使得它们可以在低端GPU上以更低的每权重变量比特率进行运行。
最先进的12B模型,支持多语言应用
Mistral NeMo 是由 Mistral AI 与 NVIDIA 合作构建的 12B 模型,具有 128k 个令牌的大型上下文窗口。它在推理、世界知识和编码准确性方面处于领先地位。该模型专为全球多语言应用程序设计,支持英语、法语、德语、西班牙语、意大利语、葡萄牙语、中文、日语、韩语、阿拉伯语和印地语等多种语言。Mistral NeMo 还使用了新的分词器 Tekken,提高了文本和源代码的压缩效率。此外,该模型经过指令微调,提升了遵循精确指令、推理、处理多轮对话和生成代码的能力。
轻量级代码库,用于高效微调Mistral模型。
mistral-finetune是一个轻量级的代码库,它基于LoRA训练范式,允许在冻结大部分权重的情况下,只训练1-2%的额外权重,以低秩矩阵微扰的形式进行微调。它被优化用于多GPU单节点训练设置,对于较小模型,例如7B模型,单个GPU就足够了。该代码库旨在提供简单、有指导意义的微调入口,特别是在数据格式化方面,并不旨在涵盖多种模型架构或硬件类型。
释放大规模未标记数据的力量
Depth Anything是一个高度实用的解决方案,用于稳健的单目深度估计。我们旨在构建一个简单而强大的基础模型,处理任何情况下的任何图像,而不追求新颖的技术模块。为此,我们通过设计数据引擎来扩大数据集,收集并自动注释大规模未标记数据(约62M),从而显着扩大数据覆盖范围,从而能够减少泛化误差。我们研究了两种简单而有效的策略,使数据扩展变得有前途。首先,通过利用数据增强工具创建更具挑战性的优化目标。它迫使模型积极寻求额外的视觉知识并获得强大的表示。其次,开发了辅助监督,以强制模型从预训练编码器中继承丰富的语义先验。我们对其零-shot能力进行了广泛评估,包括六个公共数据集和随机拍摄的照片。它展现出令人印象深刻的泛化能力。此外,通过使用来自NYUv2和KITTI的度量深度信息对其进行微调,我们建立了新的SOTAs。我们更好的深度模型也导致更好的深度条件ControlNet。我们的模型发布在https://github.com/LiheYoung/Depth-Anything。
提供干净的视觉特征
去噪视觉变换器(Denoising Vision Transformers,DVT)是一种针对视觉变换器(ViTs)的新型噪声模型。通过解剖ViT输出并引入可学习的去噪器,DVT能够提取无噪声的特征,从而在离线应用和在线功能中显著改善基于Transformer的模型的性能。DVT不需要重新训练现有的预训练ViTs,可立即应用于任何基于Transformer的架构。通过在多个数据集上进行广泛评估,我们发现DVT在语义和几何任务中持续显著改善现有的最先进通用模型(例如,+3.84 mIoU)。我们希望我们的研究能够鼓励重新评估ViT设计,特别是关于位置嵌入的天真使用。
强悍的实时图像生成
StreamDiffusion 是一种用于实时交互式生成的创新扩散管道。它为当前基于扩散的图像生成技术引入了显著的性能增强。StreamDiffusion 通过高效的批处理操作简化数据处理流程。它提供了改进的引导机制,最小化计算冗余。通过先进的过滤技术提高 GPU 利用率。它还有效地管理输入和输出操作,以实现更顺畅的执行。StreamDiffusion 优化了缓存策略,提供了多种模型优化和性能增强工具。
© 2025 AIbase 备案号:闽ICP备08105208号-14