Grok-1

Grok-1是由xAI从头开始训练的314亿参数的专家混合模型(Mixture-of-Experts)。该模型未经针对特定应用(如对话)的微调,是Grok-1预训练阶段的原始基础模型检查点。

需求人群:

"适用于需要大型语言模型进行研究和开发的企业和研究机构,可以用于多种自然语言处理任务。"

使用场景示例:

研究人员使用Grok-1进行自然语言理解和生成的实验

开发者利用Grok-1构建能够处理复杂对话的智能系统

企业使用Grok-1作为基础模型,进一步开发行业特定的AI应用

产品特色:

提供未经特定任务微调的大型语言模型

包含3140亿参数,其中25%的权重在给定标记上活跃

使用基于JAX和Rust的自定义训练堆栈进行训练

浏览量:9159

打开站点

网站流量情况

最新流量情况

月访问量

30511.92k

平均访问时长

00:01:56

每次访问页数

3.65

跳出率

38.62%

流量来源

直接访问

31.63%

自然搜索

60.26%

邮件

0.04%

外链引荐

5.93%

社交媒体

2.01%

展示广告

0

截止目前所有流量趋势图

地理流量分布情况

加拿大

3.25%

印度

12.62%

韩国

3.26%

美国

23.30%

越南

3.23%

类似产品

© 2025     AIbase    备案号:闽ICP备08105208号-14

隐私政策

用户协议

意见反馈 网站地图