简介:

多模态原生Mixture-of-Experts模型

功能:

- 长文本预训练:经过33B个token的训练,适合长视频问答和长文档问答数据集的继续预训练或微调。

- 多模态理解:能够理解多达250张高分辨率图像或多达500张中等分辨率图像。

- 强大的基础性能:在语言和多模态场景中保持与Aria-Base-8K相同的强大基础性能。

- 低比例聊天模板训练:仅用约3%的数据进行了聊天模板格式的训练,可能不适合直接用于聊天模板。

- 快速启动支持:提供了快速安装和推理的代码示例,便于用户快速开始使用模型。

- 高级推理和微调:提供了代码库,支持更高级的推理、示例和自定义数据集上的微调。

需求人群:

"目标受众为研究人员和开发者,特别是那些需要处理长文本和多模态数据集的专业人士。Aria-Base-64K提供了强大的预训练模型,可以用于视频问答、长文档问答等场景,帮助他们提高处理效率和准确性。"

浏览量:2

s1785318098921236

打开站点

构建AI去赚钱
s1785341518918206
类似产品

© 2024     AIbase    备案号:闽ICP备08105208号-14

隐私政策

用户协议

意见反馈 网站地图