Megatron-LM

Megatron-LM 是由 NVIDIA 应用深度学习研究团队开发的一种强大的大规模 Transformer 模型。该产品用于大规模训练 Transformer 语言模型的持续研究。我们使用混合精度,高效的模型并行和数据并行,以及多节点的 Transformer 模型(如 GPT、BERT 和 T5)的预训练。

需求人群:

"适用于训练大规模语言模型的研究和实践场景"

产品特色:

高效训练大规模语言模型

模型并行和数据并行支持

支持 GPT、BERT 和 T5 等 Transformer 模型

浏览量:53

打开站点

网站流量情况

最新流量情况

月访问量

4.85m

平均访问时长

00:06:25

每次访问页数

6.08

跳出率

35.86%

流量来源

直接访问

52.62%

自然搜索

32.72%

邮件

0.05%

外链引荐

12.34%

社交媒体

2.17%

展示广告

0

截止目前所有流量趋势图

地理流量分布情况

中国

12.55%

德国

3.84%

印度

9.38%

俄罗斯

4.61%

美国

18.64%

类似产品

© 2025     AIbase    备案号:闽ICP备08105208号-14

隐私政策

用户协议

意见反馈 网站地图