TinyLlama

TinyLlama项目旨在在3万亿令牌上预训练一个1.1B Llama模型。通过一些适当的优化,我们可以在“仅”90天内使用16个A100-40G GPU完成。训练已于2023-09-01开始。我们采用了与Llama 2完全相同的架构和分词器。这意味着TinyLlama可以在许多建立在Llama基础上的开源项目中使用。此外,TinyLlama只有1.1B个参数,紧凑性使其能够满足许多对计算和内存占用有限的应用需求。

需求人群:

"TinyLlama可用于聊天模型的微调和文本生成。"

使用场景示例:

https://github.com/jzhang38/TinyLlama

https://huggingface.co/docs/transformers/main/en/chat_templating

https://github.com/huggingface/transformers.git

产品特色:

文本生成

Transformers

安全张量

浏览量:101

打开站点

网站流量情况

最新流量情况

月访问量

23904.81k

平均访问时长

00:04:51

每次访问页数

5.82

跳出率

43.33%

流量来源

直接访问

48.28%

自然搜索

35.88%

邮件

0.03%

外链引荐

12.71%

社交媒体

3.06%

展示广告

0

截止目前所有流量趋势图

地理流量分布情况

中国

13.77%

印度

8.48%

日本

3.85%

俄罗斯

4.86%

美国

17.58%

类似产品

© 2025     AIbase    备案号:闽ICP备08105208号-14

隐私政策

用户协议

意见反馈 网站地图