简介:

1460亿参数的高性能混合专家模型

功能:

具有1460亿参数的大规模混合专家模型

16个专家和220亿激活参数

引入门控逻辑归一化和自适应辅助损失系数两种创新技术

在多个基准测试中表现优越

支持Hugging Face模型推理

提供基于vLLM的快速部署方法

支持本地环境和Docker部署

需求人群:

"Skywork-MoE-Base模型适用于需要处理大规模语言模型推理的开发者和研究人员。其高性能和创新技术使其成为进行复杂文本生成和分析任务的理想选择。"

浏览量:12

s1785318098921236

打开站点

构建AI去赚钱
s1785341518918206
类似产品

© 2024     AIbase    备案号:闽ICP备08105208号-14

隐私政策

用户协议

意见反馈 网站地图