TinyLlama

TinyLlama项目旨在在3万亿令牌上预训练一个1.1B Llama模型。通过一些适当的优化,我们可以在“仅”90天内使用16个A100-40G GPU完成。训练已于2023-09-01开始。我们采用了与Llama 2完全相同的架构和分词器。这意味着TinyLlama可以在许多建立在Llama基础上的开源项目中使用。此外,TinyLlama只有1.1B个参数,紧凑性使其能够满足许多对计算和内存占用有限的应用需求。

需求人群:

"TinyLlama可用于聊天模型的微调和文本生成。"

使用场景示例:

https://github.com/jzhang38/TinyLlama

https://huggingface.co/docs/transformers/main/en/chat_templating

https://github.com/huggingface/transformers.git

产品特色:

文本生成

Transformers

安全张量

浏览量:100

打开站点

网站流量情况

最新流量情况

月访问量

25296.55k

平均访问时长

00:04:45

每次访问页数

5.83

跳出率

43.31%

流量来源

直接访问

48.39%

自然搜索

35.85%

邮件

0.03%

外链引荐

12.76%

社交媒体

2.96%

展示广告

0

截止目前所有流量趋势图

地理流量分布情况

中国

17.08%

印度

8.40%

日本

3.42%

俄罗斯

4.58%

美国

17.94%

类似产品

© 2025     AIbase    备案号:闽ICP备08105208号-14

隐私政策

用户协议

意见反馈 网站地图