需求人群:
"该项目适合希望在自然语言处理领域进行研究和开发的开发者、研究人员以及企业用户。它提供了一个完整的框架,帮助用户复现和改进 DeepSeek-R1 模型,同时支持多种硬件配置和训练方法,适合不同规模和需求的项目。"
使用场景示例:
使用 SFT 方法对模型进行微调,以适应特定的自然语言处理任务。
通过 GRPO 方法优化模型性能,提高模型在推理任务中的表现。
利用 Distilabel 生成合成数据,增强模型的泛化能力。
产品特色:
提供完整的 R1 模型训练和评估流程,包括 SFT 和 GRPO 方法。
支持多种硬件配置,如 DDP 和 DeepSpeed(ZeRO-2 和 ZeRO-3)。
通过 Distilabel 生成合成数据,丰富训练数据集。
使用 lighteval 进行模型评估,支持多种任务和模型大小。
提供 Makefile 简化命令操作,方便用户快速上手。
使用教程:
1. 创建 Python 虚拟环境并安装必要的依赖项,如 vLLM 和 PyTorch。
2. 下载项目代码并配置加速器配置文件。
3. 使用 SFT 或 GRPO 脚本训练模型,根据需要调整参数。
4. 使用 lighteval 工具评估模型性能,选择合适的任务和模型配置。
5. 通过 Makefile 命令简化操作流程,快速执行训练和评估任务。
浏览量:29
最新流量情况
月访问量
4.91m
平均访问时长
00:06:18
每次访问页数
5.57
跳出率
37.92%
流量来源
直接访问
51.73%
自然搜索
32.88%
邮件
0.04%
外链引荐
13.01%
社交媒体
2.27%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
13.81%
德国
3.69%
印度
9.16%
俄罗斯
4.47%
美国
18.04%
这是一个完全开放的 DeepSeek-R1 模型的复现项目,旨在帮助开发者复现和构建基于 R1 的模型。
huggingface/open-r1 是一个开源项目,致力于复现 DeepSeek-R1 模型。该项目提供了一系列脚本和工具,用于训练、评估和生成合成数据,支持多种训练方法和硬件配置。其主要优点是完全开放,允许开发者自由使用和改进,对于希望在深度学习和自然语言处理领域进行研究和开发的用户来说,是一个非常有价值的资源。该项目目前没有明确的定价,适合学术研究和商业用途。
Janus-Pro-1B 是一个统一多模态理解和生成的自回归框架。
Janus-Pro-1B 是一个创新的多模态模型,专注于统一多模态理解和生成。它通过分离视觉编码路径,解决了传统方法在理解和生成任务中的冲突问题,同时保持了单个统一的 Transformer 架构。这种设计不仅提高了模型的灵活性,还使其在多模态任务中表现出色,甚至超越了特定任务的模型。该模型基于 DeepSeek-LLM-1.5b-base/DeepSeek-LLM-7b-base 构建,使用 SigLIP-L 作为视觉编码器,支持 384x384 的图像输入,并采用特定的图像生成 tokenizer。其开源性和灵活性使其成为下一代多模态模型的有力候选。
一款具有671B参数的Mixture-of-Experts语言模型。
DeepSeek-V3是一个强大的Mixture-of-Experts (MoE) 语言模型,拥有671B的总参数量,每次激活37B参数。它采用了Multi-head Latent Attention (MLA) 和 DeepSeekMoE架构,这些架构在DeepSeek-V2中得到了充分的验证。此外,DeepSeek-V3首次采用了无辅助损失的负载均衡策略,并设置了多令牌预测训练目标,以实现更强大的性能。DeepSeek-V3在14.8万亿高质量令牌上进行了预训练,随后进行了监督式微调和强化学习阶段,以充分利用其能力。综合评估显示,DeepSeek-V3超越了其他开源模型,并达到了与领先的闭源模型相当的性能。尽管性能出色,DeepSeek-V3的完整训练仅需要2.788M H800 GPU小时,并且训练过程非常稳定。
新一代大模型架构,超越 Transformer。
RWKV 是一种革新的深度学习架构,结合了 RNN 和 Transformer 的最佳特性。它提供出色的性能,快速的推理和训练,并且不依赖自注意力机制,节省 VRAM,支持 ' 无限 ' 的上下文长度。RWKV 在多个语言和编码中表现出色,成为全球开发者的热门选择,推动了开源大语言模型的进步。
首个面向语境智能的人类级实时交互系统,支持多情感、多风格语音交互。
SpeechGPT 2.0-preview 是一款由复旦大学自然语言处理实验室开发的先进语音交互模型。它通过海量语音数据训练,实现了低延迟、高自然度的语音交互能力。该模型能够模拟多种情感、风格和角色的语音表达,同时支持工具调用、在线搜索和外部知识库访问等功能。其主要优点包括强大的语音风格泛化能力、多角色模拟以及低延迟交互体验。目前该模型仅支持中文语音交互,未来计划扩展到更多语言。
YuE是一个开源的音乐生成模型,能够将歌词转化为完整的歌曲。
YuE是一个开创性的开源基础模型系列,专为音乐生成设计,能够将歌词转化为完整的歌曲。它能够生成包含吸引人的主唱和配套伴奏的完整歌曲,支持多种音乐风格。该模型基于深度学习技术,具有强大的生成能力和灵活性,能够为音乐创作者提供强大的工具支持。其开源特性也使得研究人员和开发者可以在此基础上进行进一步的研究和开发。
Tarsier 是由字节跳动推出的用于生成高质量视频描述的大型视频语言模型。
Tarsier 是由字节跳动研究团队开发的一系列大规模视频语言模型,旨在生成高质量的视频描述,并具备强大的视频理解能力。该模型通过两阶段训练策略(多任务预训练和多粒度指令微调)显著提升了视频描述的精度和细节。其主要优点包括高精度的视频描述能力、对复杂视频内容的理解能力以及在多个视频理解基准测试中取得的 SOTA(State-of-the-Art)结果。Tarsier 的背景基于对现有视频语言模型在描述细节和准确性上的不足进行改进,通过大规模高质量数据训练和创新的训练方法,使其在视频描述领域达到了新的高度。该模型目前未明确定价,主要面向学术研究和商业应用,适合需要高质量视频内容理解和生成的场景。
一种新颖的图像到视频采样技术,基于Hunyuan模型实现高质量视频生成。
leapfusion-hunyuan-image2video 是一种基于 Hunyuan 模型的图像到视频生成技术。它通过先进的深度学习算法,将静态图像转换为动态视频,为内容创作者提供了一种全新的创作方式。该技术的主要优点包括高效的内容生成、灵活的定制化能力以及对高质量视频输出的支持。它适用于需要快速生成视频内容的场景,如广告制作、视频特效等领域。该模型目前以开源形式发布,供开发者和研究人员免费使用,未来有望通过社区贡献进一步提升其性能。
百川智能开发的专为医疗场景优化的开源大语言模型,具备卓越的通用能力和医疗领域性能。
Baichuan-M1-14B 是由百川智能开发的开源大语言模型,专为医疗场景优化。它基于20万亿token的高质量医疗与通用数据训练,覆盖20多个医疗科室,具备强大的上下文理解和长序列任务表现能力。该模型在医疗领域表现出色,同时在通用任务中也达到了同尺寸模型的效果。其创新的模型结构和训练方法使其在医疗推理、病症判断等复杂任务中表现出色,为医疗领域的人工智能应用提供了强大的支持。
VideoLLaMA3是前沿的多模态基础模型,专注于图像和视频理解。
VideoLLaMA3是由DAMO-NLP-SG团队开发的前沿多模态基础模型,专注于图像和视频理解。该模型基于Qwen2.5架构,结合了先进的视觉编码器(如SigLip)和强大的语言生成能力,能够处理复杂的视觉和语言任务。其主要优点包括高效的时空建模能力、强大的多模态融合能力以及对大规模数据的优化训练。该模型适用于需要深度视频理解的应用场景,如视频内容分析、视觉问答等,具有广泛的研究和商业应用潜力。
DeepSeek-R1-Distill-Qwen-1.5B 是一款高效推理的开源语言模型,适用于多种自然语言处理任务。
DeepSeek-R1-Distill-Qwen-1.5B 是由 DeepSeek 团队开发的开源语言模型,基于 Qwen2.5 系列进行蒸馏优化。该模型通过大规模强化学习和数据蒸馏技术,显著提升了推理能力和性能,同时保持了较小的模型体积。它在多项基准测试中表现出色,尤其在数学、代码生成和推理任务中具有显著优势。该模型支持商业使用,并允许用户进行修改和衍生作品开发,适合研究机构和企业用于开发高性能的自然语言处理应用。
一个基于文本生成图像的预训练模型,具有80亿参数和Apache 2.0开源许可。
Flex.1-alpha 是一个强大的文本到图像生成模型,基于80亿参数的修正流变换器架构。它继承了FLUX.1-schnell的特性,并通过训练指导嵌入器,使其无需CFG即可生成图像。该模型支持微调,并且具有开放源代码许可(Apache 2.0),适合在多种推理引擎中使用,如Diffusers和ComfyUI。其主要优点包括高效生成高质量图像、灵活的微调能力和开源社区支持。开发背景是为了解决图像生成模型的压缩和优化问题,并通过持续训练提升模型性能。
InternLM3-8B-Instruct是一个开源的80亿参数指令模型,用于通用用途和高级推理。
InternLM3-8B-Instruct是InternLM团队开发的大型语言模型,具有卓越的推理能力和知识密集型任务处理能力。该模型在仅使用4万亿高质量词元进行训练的情况下,实现了比同级别模型低75%以上的训练成本,同时在多个基准测试中超越了Llama3.1-8B和Qwen2.5-7B等模型。它支持深度思考模式,能够通过长思维链解决复杂的推理任务,同时也具备流畅的用户交互能力。该模型基于Apache-2.0许可证开源,适用于需要高效推理和知识处理的各种应用场景。
强大的语言模型,拥有4560亿总参数,可处理长达400万token的上下文。
MiniMax-01是一个具有4560亿总参数的强大语言模型,其中每个token激活459亿参数。它采用混合架构,结合了闪电注意力、softmax注意力和专家混合(MoE),通过先进的并行策略和创新的计算-通信重叠方法,如线性注意力序列并行主义加(LASP+)、varlen环形注意力、专家张量并行(ETP)等,将训练上下文长度扩展到100万tokens,在推理时可处理长达400万tokens的上下文。在多个学术基准测试中,MiniMax-01展现了顶级模型的性能。
70B参数的文本生成模型
Llama-3.1-70B-Instruct-AWQ-INT4是一个由Hugging Face托管的大型语言模型,专注于文本生成任务。该模型拥有70B个参数,能够理解和生成自然语言文本,适用于多种文本相关的应用场景,如内容创作、自动回复等。它基于深度学习技术,通过大量的数据训练,能够捕捉语言的复杂性和多样性。模型的主要优点包括高参数量带来的强大表达能力,以及针对特定任务的优化,使其在文本生成领域具有较高的效率和准确性。
一款高效率的2.4亿参数轻量级语言模型
YuLan-Mini是由中国人民大学AI Box团队开发的一款轻量级语言模型,具有2.4亿参数,尽管仅使用1.08T的预训练数据,但其性能可与使用更多数据训练的行业领先模型相媲美。该模型特别擅长数学和代码领域,为了促进可复现性,团队将开源相关的预训练资源。
微软开源的视频分词器家族
VidTok是微软开源的一系列先进的视频分词器,它在连续和离散分词方面表现出色。VidTok在架构效率、量化技术和训练策略上都有显著的创新,提供了高效的视频处理能力,并且在多个视频质量评估指标上超越了以往的模型。VidTok的开发旨在推动视频处理和压缩技术的发展,对于视频内容的高效传输和存储具有重要意义。
深度推理翻译模型,通过长思考链优化神经机器翻译。
DRT-o1是一个神经机器翻译模型,它通过长思考链的方式优化翻译过程。该模型通过挖掘含有比喻或隐喻的英文句子,并采用多代理框架(包括翻译者、顾问和评估者)来合成长思考的机器翻译样本。DRT-o1-7B和DRT-o1-14B是基于Qwen2.5-7B-Instruct和Qwen2.5-14B-Instruct训练的大型语言模型。DRT-o1的主要优点在于其能够处理复杂的语言结构和深层次的语义理解,这对于提高机器翻译的准确性和自然性至关重要。
最强大的RWKV模型变体,打破多项英语基准测试。
Q-RWKV-6 32B Instruct Preview是由Recursal AI开发的最新RWKV模型变体,它在多项英语基准测试中超越了之前所有的RWKV、State Space和Liquid AI模型。这个模型通过将Qwen 32B Instruct模型的权重转换到定制的QRWKV6架构中,成功地用RWKV-V6注意力头替换了现有的Transformer注意力头,这一过程是由Recursal AI团队与RWKV和EleutherAI开源社区联合开发的。该模型的主要优点包括在大规模计算成本上的显著降低,以及对环境友好的开源AI技术。
基于深度强化学习的模型微调框架
ReFT是一个开源的研究项目,旨在通过深度强化学习技术对大型语言模型进行微调,以提高其在特定任务上的表现。该项目提供了详细的代码和数据,以便研究人员和开发者能够复现论文中的结果。ReFT的主要优点包括能够利用强化学习自动调整模型参数,以及通过微调提高模型在特定任务上的性能。产品背景信息显示,ReFT基于Codellama和Galactica模型,遵循Apache2.0许可证。
视觉语言模型增强工具,结合生成式视觉编码器和深度广度融合技术。
Florence-VL是一个视觉语言模型,通过引入生成式视觉编码器和深度广度融合技术,增强了模型对视觉和语言信息的处理能力。该技术的重要性在于其能够提升机器对图像和文本的理解,进而在多模态任务中取得更好的效果。Florence-VL基于LLaVA项目进行开发,提供了预训练和微调的代码、模型检查点和演示。
PaliGemma 2是功能强大的视觉语言模型,简单易调优。
PaliGemma 2是Gemma家族中的第二代视觉语言模型,它在性能上进行了扩展,增加了视觉能力,使得模型能够看到、理解和与视觉输入交互,开启了新的可能性。PaliGemma 2基于高性能的Gemma 2模型构建,提供了多种模型尺寸(3B、10B、28B参数)和分辨率(224px、448px、896px)以优化任何任务的性能。此外,PaliGemma 2在化学公式识别、乐谱识别、空间推理和胸部X光报告生成等方面展现出领先的性能。PaliGemma 2旨在为现有PaliGemma用户提供便捷的升级路径,作为即插即用的替代品,大多数任务无需大幅修改代码即可获得性能提升。
高性能英文文本生成模型
OLMo-2-1124-7B-SFT是由艾伦人工智能研究所(AI2)发布的一个英文文本生成模型,它是OLMo 2 7B模型的监督微调版本,专门针对Tülu 3数据集进行了优化。Tülu 3数据集旨在提供多样化任务的顶尖性能,包括聊天、数学问题解答、GSM8K、IFEval等。该模型的主要优点包括强大的文本生成能力、多样性任务处理能力以及开源的代码和训练细节,使其成为研究和教育领域的有力工具。
高效率的高分辨率图像合成框架
Sana是一个文本到图像的框架,能够高效生成高达4096×4096分辨率的图像。它以极快的速度合成高分辨率、高质量的图像,并保持强大的文本-图像对齐,可以部署在笔记本电脑GPU上。Sana的核心设计包括深度压缩自编码器、线性扩散变换器(DiT)、仅解码器的小型语言模型作为文本编码器,以及高效的训练和采样策略。Sana-0.6B与现代大型扩散模型相比,体积小20倍,测量吞吐量快100倍以上。此外,Sana-0.6B可以部署在16GB笔记本电脑GPU上,生成1024×1024分辨率图像的时间少于1秒。Sana使得低成本的内容创作成为可能。
7B参数的大型语言模型,提升自然语言处理能力
OLMo 2 7B是由Allen Institute for AI (Ai2)开发的一款7B参数的大型语言模型,它在多个自然语言处理任务上展现出色的表现。该模型通过在大规模数据集上的训练,能够理解和生成自然语言,支持多种语言模型相关的科研和应用。OLMo 2 7B的主要优点包括其大规模的参数量,使得模型能够捕捉到更加细微的语言特征,以及其开源的特性,促进了学术界和工业界的进一步研究和应用。
科学文献综合检索增强型语言模型
Ai2 OpenScholar是由艾伦人工智能研究所与华盛顿大学合作开发的检索增强型语言模型,旨在帮助科学家通过检索相关文献并基于这些文献生成回答来有效导航和综合科学文献。该模型在多个科学领域中表现出色,特别是在引用准确性和事实性方面。它代表了人工智能在科学研究中应用的重要进步,能够加速科学发现并提高研究效率。
先进的指令遵循模型,提供全面后训练技术指南。
Llama-3.1-Tulu-3-8B-RM是Tülu3模型家族的一部分,该家族以开源数据、代码和配方为特色,旨在为现代后训练技术提供全面指南。该模型专为聊天以外的多样化任务(如MATH、GSM8K和IFEval)提供最先进的性能。
领先的指令遵循模型家族,提供开源数据、代码和指南。
Llama-3.1-Tulu-3-70B-SFT是Tülu3模型家族的一部分,专为现代后训练技术提供全面指南而设计。该模型不仅在聊天任务上表现出色,还在MATH、GSM8K和IFEval等多种任务上实现了最先进的性能。它是基于公开可用的、合成的和人类创建的数据集训练的,主要使用英语,并遵循Llama 3.1社区许可协议。
© 2025 AIbase 备案号:闽ICP备08105208号-14