简介:

Gemma 2B模型,支持10M序列长度,优化内存使用,适用于大规模语言模型应用。

功能:

支持10M序列长度的文本处理能力

在低于32GB内存下运行,优化资源使用

专为CUDA优化的原生推理性能

循环局部注意力实现O(N)内存复杂度

200步早期检查点,计划训练更多token以提升性能

使用AutoTokenizer和GemmaForCausalLM进行文本生成

需求人群:

["适用于需要处理大量文本数据的研究人员和开发者","适合进行长文本生成、摘要、翻译等语言任务","对于追求高性能和资源优化的企业用户具有吸引力"]

浏览量:45

s1785318098921236

打开站点

构建AI去赚钱
s1785341518918206
类似产品

© 2024     AIbase    备案号:闽ICP备08105208号-14

隐私政策

用户协议

意见反馈 网站地图