LongLLaMA

LongLLaMA 是一个大型语言模型,能够处理长篇文本。它基于 OpenLLaMA,并使用 Focused Transformer (FoT) 方法进行了微调。它能够处理长达 256k 标记甚至更多的文本。我们提供了一个较小的 3B 基础模型(未经过指令调整),并在 Hugging Face 上提供了支持更长上下文的推断代码。我们的模型权重可以作为现有实现中 LLaMA 的替代品(适用于最多 2048 个标记的短上下文)。此外,我们还提供了评估结果和与原始 OpenLLaMA 模型的比较。

需求人群:

"适用于各种自然语言处理任务,如文本生成、文本分类、问答系统等"

产品特色:

处理长篇文本

支持 256k 标记或更长的文本

用于自然语言处理任务

浏览量:120

s1785318098921236

打开站点

构建AI去赚钱
s1785341518918206
网站流量情况

最新流量情况

月访问量

4.58m

平均访问时长

00:07:29

每次访问页数

6.65

跳出率

37.90%

流量来源

直接访问

51.57%

自然搜索

29.65%

邮件

0.89%

外链引荐

11.44%

社交媒体

6.43%

展示广告

0

截止目前所有流量趋势图

地理流量分布情况

美国

16.83%

中国

14.47%

印度

9.23%

日本

3.69%

德国

3.38%

类似产品

© 2024     AIbase    备案号:闽ICP备2023012347号-1

隐私政策

用户协议

意见反馈 网站地图