vLLM

国外精选

简介:

快速易用的LLM推理和服务平台

功能:

支持与HuggingFace模型的无缝集成

提供高吞吐量的服务,支持多种解码算法

支持张量并行性,适用于分布式推理

支持流式输出,提高服务效率

兼容OpenAI API服务器,方便集成现有系统

支持NVIDIA和AMD GPU,提高硬件兼容性

需求人群:

"vLLM的目标受众主要是需要进行大型语言模型推理和提供服务的开发者和企业。它适合于那些需要快速、高效地部署和运行大型语言模型的应用场景,如自然语言处理、机器翻译、文本生成等。"

浏览量:31

s1785318098921236

打开站点

构建AI去赚钱
s1785341518918206
类似产品

© 2024     AIbase    备案号:闽ICP备08105208号-14

隐私政策

用户协议

意见反馈 网站地图