Tülu 3 405B 是一个大规模开源语言模型,通过强化学习提升性能。
Tülu 3 405B 是由 Allen Institute for AI 开发的开源语言模型,具有 4050 亿参数。该模型通过创新的强化学习框架(RLVR)提升性能,尤其在数学和指令跟随任务中表现出色。它基于 Llama-405B 模型进行优化,采用监督微调、偏好优化等技术。Tülu 3 405B 的开源性质使其成为研究和开发领域的强大工具,适用于需要高性能语言模型的各种应用场景。
一款具有671B参数的Mixture-of-Experts语言模型。
DeepSeek-V3是一个强大的Mixture-of-Experts (MoE) 语言模型,拥有671B的总参数量,每次激活37B参数。它采用了Multi-head Latent Attention (MLA) 和 DeepSeekMoE架构,这些架构在DeepSeek-V2中得到了充分的验证。此外,DeepSeek-V3首次采用了无辅助损失的负载均衡策略,并设置了多令牌预测训练目标,以实现更强大的性能。DeepSeek-V3在14.8万亿高质量令牌上进行了预训练,随后进行了监督式微调和强化学习阶段,以充分利用其能力。综合评估显示,DeepSeek-V3超越了其他开源模型,并达到了与领先的闭源模型相当的性能。尽管性能出色,DeepSeek-V3的完整训练仅需要2.788M H800 GPU小时,并且训练过程非常稳定。
基于深度推理的神经机器翻译模型
DRT-o1-14B是一个神经机器翻译模型,旨在通过长链推理来提升翻译的深度和准确性。该模型通过挖掘含有比喻或隐喻的英文句子,并采用多代理框架(包括翻译者、顾问和评估者)来合成长思考的机器翻译样本。DRT-o1-14B基于Qwen2.5-14B-Instruct作为主干进行训练,具有14.8B的参数量,支持BF16张量类型。该模型的重要性在于其能够处理复杂的翻译任务,尤其是在需要深入理解和推理的情况下,提供了一种新的解决方案。
146亿参数的高性能MoE模型
Skywork-MoE是一个具有146亿参数的高性能混合专家(MoE)模型,拥有16个专家和22亿激活参数。该模型从Skywork-13B模型的密集型检查点初始化而来。引入了两种创新技术:门控逻辑归一化,增强专家多样化;自适应辅助损失系数,允许层特定的辅助损失系数调整。Skywork-MoE在各种流行基准测试中,如C-Eval、MMLU、CMMLU、GSM8K、MATH和HumanEval,展现出与参数更多或激活参数更多的模型相当的或更优越的性能。
中国首个长时长、高一致性、高动态性视频大模型,一键生成高清视频内容。国内版的Sora
Vidu是由生数科技联合清华大学发布的中国首个长时长、高一致性、高动态性视频大模型。该模型采用原创的Diffusion与Transformer融合的架构U-ViT,支持一键生成长达16秒、分辨率高达1080P的高清视频内容。Vidu不仅能够模拟真实物理世界,还拥有丰富想象力,具备多镜头生成、时空一致性高等特点。其快速突破源自于团队在贝叶斯机器学习和多模态大模型的长期积累和多项原创性成果。Vidu的问世代表了生数科技在多模态原生大模型领域的持续创新能力和领先性,面向未来,灵活架构将能够兼容更广泛的模态,进一步拓展多模态通用能力的边界。
© 2025 AIbase 备案号:闽ICP备08105208号-14