Yuan2.0-M32

Yuan2.0-M32是一个具有32个专家的混合专家(MoE)语言模型,其中2个是活跃的。提出了一种新的路由网络——注意力路由,用于更高效的专家选择,提高了3.8%的准确性。该模型从零开始训练,使用了2000B个token,其训练计算量仅为同等参数规模的密集模型所需计算量的9.25%。在编码、数学和各种专业领域表现出竞争力,仅使用3.7B个活跃参数,每个token的前向计算量仅为7.4 GFLOPS,仅为Llama3-70B需求的1/19。在MATH和ARC-Challenge基准测试中超越了Llama3-70B,准确率分别达到了55.9%和95.8%。

需求人群:

"Yuan2.0-M32适合需要在编码、数学和专业领域进行高效计算和推理的开发者和研究人员。其低计算量和高准确性使其成为大规模语言模型应用的理想选择。"

使用场景示例:

用于开发自然语言理解的应用程序

在数学问题解决中提供精确的计算支持

作为专业领域知识获取和推理的辅助工具

产品特色:

混合专家(MoE)模型,拥有32个专家,其中2个活跃

采用新的注意力路由网络,提高模型选择专家的效率

从零开始训练,使用了2000B个token,训练计算量低

在编码、数学和专业领域表现出色,具有竞争力

在MATH和ARC-Challenge基准测试中超越其他模型

模型操作仅使用3.7B个活跃参数,计算效率高

使用教程:

1. 配置环境,推荐使用Yuan2.0-M32的最新docker镜像

2. 根据提供的脚本进行数据预处理

3. 使用示例脚本进行模型预训练

4. 参考vllm的详细部署计划进行推理服务部署

5. 查看GitHub仓库以获取更多信息和文档

浏览量:13

s1785318098921236

打开站点

构建AI去赚钱
s1785341518918206
网站流量情况

最新流量情况

月访问量

17104.19k

平均访问时长

00:05:49

每次访问页数

5.52

跳出率

44.67%

流量来源

直接访问

48.37%

自然搜索

36.16%

邮件

0.03%

外链引荐

12.40%

社交媒体

3.02%

展示广告

0

截止目前所有流量趋势图

地理流量分布情况

中国

18.70%

印度

6.62%

日本

3.75%

韩国

3.77%

俄罗斯

5.33%

美国

17.90%

类似产品

© 2024     AIbase    备案号:闽ICP备08105208号-14

隐私政策

用户协议

意见反馈 网站地图