先进的大型混合专家视觉语言模型
DeepSeek-VL2是一系列先进的大型混合专家(MoE)视觉语言模型,相较于前代DeepSeek-VL有显著提升。该模型系列在视觉问答、光学字符识别、文档/表格/图表理解、视觉定位等多项任务中展现出卓越的能力。DeepSeek-VL2由三种变体组成:DeepSeek-VL2-Tiny、DeepSeek-VL2-Small和DeepSeek-VL2,分别拥有1.0B、2.8B和4.5B激活参数。DeepSeek-VL2在激活参数相似或更少的情况下,与现有的开源密集型和基于MoE的模型相比,达到了竞争性或最先进的性能。
高性能混合专家语言模型
DeepSeek-V2.5-1210是DeepSeek-V2.5的升级版本,它在多个能力方面进行了改进,包括数学、编码和写作推理。模型在MATH-500基准测试中的性能从74.8%提高到82.8%,在LiveCodebench (08.01 - 12.01)基准测试中的准确率从29.2%提高到34.38%。此外,新版本优化了文件上传和网页摘要功能的用户体验。DeepSeek-V2系列(包括基础和聊天)支持商业用途。
高效能的混合专家语言模型
Yuan2.0-M32是一个具有32个专家的混合专家(MoE)语言模型,其中2个处于活跃状态。引入了新的路由网络——注意力路由器,以提高专家选择的效率,使模型在准确性上比使用传统路由器网络的模型提高了3.8%。Yuan2.0-M32从头开始训练,使用了2000亿个token,其训练计算量仅为同等参数规模密集型模型所需计算量的9.25%。在编码、数学和各种专业领域表现出竞争力,Yuan2.0-M32在总参数40亿中只有3.7亿活跃参数,每个token的前向计算量为7.4 GFLOPS,仅为Llama3-70B需求的1/19。Yuan2.0-M32在MATH和ARC-Challenge基准测试中超越了Llama3-70B,准确率分别达到了55.9%和95.8%。
高效能混合专家注意力路由语言模型
Yuan2.0-M32是一个具有32个专家的混合专家(MoE)语言模型,其中2个是活跃的。提出了一种新的路由网络——注意力路由,用于更高效的专家选择,提高了3.8%的准确性。该模型从零开始训练,使用了2000B个token,其训练计算量仅为同等参数规模的密集模型所需计算量的9.25%。在编码、数学和各种专业领域表现出竞争力,仅使用3.7B个活跃参数,每个token的前向计算量仅为7.4 GFLOPS,仅为Llama3-70B需求的1/19。在MATH和ARC-Challenge基准测试中超越了Llama3-70B,准确率分别达到了55.9%和95.8%。
© 2025 AIbase 备案号:闽ICP备08105208号-14