LongLLaMA

LongLLaMA 是一个大型语言模型,能够处理长篇文本。它基于 OpenLLaMA,并使用 Focused Transformer (FoT) 方法进行了微调。它能够处理长达 256k 标记甚至更多的文本。我们提供了一个较小的 3B 基础模型(未经过指令调整),并在 Hugging Face 上提供了支持更长上下文的推断代码。我们的模型权重可以作为现有实现中 LLaMA 的替代品(适用于最多 2048 个标记的短上下文)。此外,我们还提供了评估结果和与原始 OpenLLaMA 模型的比较。

需求人群:

"适用于各种自然语言处理任务,如文本生成、文本分类、问答系统等"

产品特色:

处理长篇文本

支持 256k 标记或更长的文本

用于自然语言处理任务

浏览量:214

s1785318098921236

打开站点

构建AI去赚钱
s1785341518918206
网站流量情况

最新流量情况

月访问量

4.75m

平均访问时长

00:06:34

每次访问页数

6.10

跳出率

36.20%

流量来源

直接访问

52.19%

自然搜索

32.64%

邮件

0.04%

外链引荐

12.93%

社交媒体

2.02%

展示广告

0

截止目前所有流量趋势图

地理流量分布情况

中国

14.32%

德国

3.68%

印度

9.04%

俄罗斯

3.92%

美国

19.25%

类似产品

© 2025     AIbase    备案号:闽ICP备08105208号-14

隐私政策

用户协议

意见反馈 网站地图