简介:

新一代多语言预训练模型,性能卓越。

功能:

支持5种不同大小的模型,包括0.5B、1.5B、7B、57B-A14B和72B。

在27种语言上进行了训练,增强了多语言能力。

在编码和数学方面有显著的性能提升。

扩展的上下文长度支持,最高可达128K tokens。

通过YARN技术优化,提高了长文本处理能力。

在安全性测试中表现出色,减少了有害响应。

需求人群:

"Qwen2模型适合需要处理多语言和长文本数据的开发者和研究人员,尤其是在编程、数据分析和机器学习领域。"

浏览量:382

s1785318098921236

打开站点

构建AI去赚钱
s1785341518918206
类似产品

© 2024     AIbase    备案号:闽ICP备08105208号-14

隐私政策

用户协议

意见反馈 网站地图