需求人群:
"适用于需要扩展模型容量而不增加计算量的开发者和研究人员,特别是在大规模语言模型和复杂数据处理场景中。"
使用场景示例:
在大规模语言模型中扩展词汇表和参数容量,而不增加计算负担.
用于自然语言处理任务中的信息检索和存储优化.
在分布式训练环境中高效运行大规模模型.
产品特色:
支持大规模数据处理
通过键值查找机制扩展模型参数
保持计算效率不变
适用于分布式训练
支持多种数据集和配置
提供详细的配置和启动脚本
支持本地和SLURM集群部署
灵活的模型评估功能
使用教程:
克隆仓库:`git clone https://github.com/facebookresearch/memory`
创建环境:`bash setup/create_env.sh` 或使用SLURM集群
激活环境:`conda activate lingua_<date>`
下载和准备数据:`python setup/download_prepare_hf_data.py fineweb_edu <MEMORY>`
下载分词器:`python setup/download_tokenizer.py llama3 <SAVE_PATH>`
启动训练任务:`python -m lingua.stool script=apps.main.train config=apps/main/configs/pkplus_373m_1024k.yaml`
进行模型评估:`srun -n 8 python -u -m apps.main.eval config=apps/main/configs/eval.yaml`
浏览量:31
最新流量情况
月访问量
4.85m
平均访问时长
00:06:25
每次访问页数
6.08
跳出率
35.86%
流量来源
直接访问
52.62%
自然搜索
32.72%
邮件
0.05%
外链引荐
12.34%
社交媒体
2.17%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
12.55%
德国
3.84%
印度
9.38%
俄罗斯
4.61%
美国
18.64%
一种可扩展的内存层实现,用于在不增加计算量的情况下扩展模型参数.
Memory Layers at Scale 是一种创新的内存层实现方式,通过可训练的键值查找机制,在不增加浮点运算次数的情况下为模型增加额外的参数。这种方法在大规模语言模型中尤为重要,因为它能够在保持计算效率的同时,显著提升模型的存储和检索能力。该技术的主要优点包括高效扩展模型容量、降低计算资源消耗以及提高模型的灵活性和可扩展性。该项目由 Meta Lingua 团队开发,适用于需要处理大规模数据和复杂模型的场景。
高效全球分布式AI模型训练框架
PrimeIntellect-ai/prime是一个用于在互联网上高效、全球分布式训练AI模型的框架。它通过技术创新,实现了跨地域的AI模型训练,提高了计算资源的利用率,降低了训练成本,对于需要大规模计算资源的AI研究和应用开发具有重要意义。
开源实现分布式低通信AI模型训练
OpenDiLoCo是一个开源框架,用于实现和扩展DeepMind的分布式低通信(DiLoCo)方法,支持全球分布式AI模型训练。它通过提供可扩展的、去中心化的框架,使得在资源分散的地区也能高效地进行AI模型的训练,这对于推动AI技术的普及和创新具有重要意义。
开源分布式深度学习工具
The Microsoft Cognitive Toolkit(CNTK)是一个开源的商业级分布式深度学习工具。它通过有向图描述神经网络的计算步骤,支持常见的模型类型,并实现了自动微分和并行计算。CNTK支持64位Linux和Windows操作系统,可以作为Python、C或C++程序的库使用,也可以通过其自身的模型描述语言BrainScript作为独立的机器学习工具使用。
开源的MuZero实现,分布式AI框架
MuKoe是一个完全开源的MuZero实现,使用Ray作为分布式编排器在GKE上运行。它提供了Atari游戏的示例,并通过Google Next 2024的演讲提供了代码库的概览。MuKoe支持在CPU和TPU上运行,具有特定的硬件要求,适合需要大规模分布式计算资源的AI研究和开发。
分布式长视频生成技术
Video-Infinity 是一种分布式长视频生成技术,能够在5分钟内生成2300帧的视频,速度是先前方法的100倍。该技术基于VideoCrafter2模型,采用了Clip Parallelism和Dual-scope Attention等创新技术,显著提高了视频生成的效率和质量。
高效的分布式数据并行框架,专为大型语言模型设计。
YaFSDP是一个分布式数据并行框架,专为与transformer类神经网络结构良好协作而设计。它在预训练大型语言模型(Large Language Models, LLMs)时比传统的FSDP快20%,并且在高内存压力条件下表现更佳。YaFSDP旨在减少通信和内存操作的开销。
基于AI的分布式自动支付处理器
Mobile Credits是一个基于AI的分布式自动支付处理器,确保安全快速地在全球范围内进行实时的资金转移,全天候提供服务。它提供了实时的、无需人工干预的交易处理能力,可以通过任何移动设备或已拥有的手机轻松进行全球范围的无接触即时支付。
3FS是一个高性能分布式文件系统,专为AI训练和推理工作负载设计。
3FS是一个专为AI训练和推理工作负载设计的高性能分布式文件系统。它利用现代SSD和RDMA网络,提供共享存储层,简化分布式应用开发。其核心优势在于高性能、强一致性和对多种工作负载的支持,能够显著提升AI开发和部署的效率。该系统适用于大规模AI项目,尤其在数据准备、训练和推理阶段表现出色。
LLaSA: 扩展基于 LLaMA 的语音合成的训练时间和测试时间计算量
LLaSA_training 是一个基于 LLaMA 的语音合成训练项目,旨在通过优化训练时间和推理时间的计算资源,提升语音合成模型的效率和性能。该项目利用开源数据集和内部数据集进行训练,支持多种配置和训练方式,具有较高的灵活性和可扩展性。其主要优点包括高效的数据处理能力、强大的语音合成效果以及对多种语言的支持。该项目适用于需要高性能语音合成解决方案的研究人员和开发者,可用于开发智能语音助手、语音播报系统等应用场景。
DeepSeek-V3/R1 推理系统是一个高性能的分布式推理架构,专为大规模 AI 模型优化设计。
DeepSeek-V3/R1 推理系统是 DeepSeek 团队开发的高性能推理架构,旨在优化大规模稀疏模型的推理效率。它通过跨节点专家并行(EP)技术,显著提升 GPU 矩阵计算效率,降低延迟。该系统采用双批量重叠策略和多级负载均衡机制,确保在大规模分布式环境中高效运行。其主要优点包括高吞吐量、低延迟和优化的资源利用率,适用于高性能计算和 AI 推理场景。
高效的大型语言模型(LLM)研究代码库
Meta Lingua 是一个轻量级、高效的大型语言模型(LLM)训练和推理库,专为研究而设计。它使用了易于修改的PyTorch组件,使得研究人员可以尝试新的架构、损失函数和数据集。该库旨在实现端到端的训练、推理和评估,并提供工具以更好地理解模型的速度和稳定性。尽管Meta Lingua目前仍在开发中,但已经提供了多个示例应用来展示如何使用这个代码库。
AI开发规模化的民主化平台
Prime Intellect是一个致力于AI开发规模化民主化的平台,提供全球计算资源的发现、模型训练以及共同拥有智能创新的能力。它通过分布式训练跨集群,使得用户能够训练最前沿的模型,并且共同拥有由此产生的开放AI创新成果,包括语言模型和科学突破。
实现零泡泡管道并行的调度策略
Zero Bubble Pipeline Parallelism是大规模分布式训练的关键组成部分之一,其效率受到管道泡沫的影响。我们引入了一种调度策略,成功实现了在同步训练语义下零管道泡沫。这一改进的关键思想是将反向计算分为两部分,一部分计算输入的梯度,另一部分计算参数的梯度。基于这一思想,我们手工设计了新颖的管道调度,明显优于基准方法。我们进一步开发了一种算法,根据特定模型配置和内存限制自动找到最佳调度。此外,为了真正实现零泡泡,我们引入了一种新颖的技术,在优化器步骤期间绕过同步。实验评估表明,我们的方法在类似内存限制下的吞吐量比1F1B调度高出了最多23%。当内存约束放宽时,这一数字可以进一步提高至31%。我们相信我们的结果标志着在发挥管道并行潜力方面迈出了重要的一步。
一种用于V3/R1训练中计算与通信重叠的双向流水线并行算法。
DualPipe是一种创新的双向流水线并行算法,由DeepSeek-AI团队开发。该算法通过优化计算与通信的重叠,显著减少了流水线气泡,提高了训练效率。它在大规模分布式训练中表现出色,尤其适用于需要高效并行化的深度学习任务。DualPipe基于PyTorch开发,易于集成和扩展,适合需要高性能计算的开发者和研究人员使用。
10亿参数的英文文本和代码语言模型
INTELLECT-1-Instruct是一个由Prime Intellect训练的10亿参数语言模型,从零开始在1万亿个英文文本和代码token上进行训练。该模型支持文本生成,并且具有分布式训练的能力,能够在不可靠的、全球分布的工作者上进行高性能训练。它使用了DiLoCo算法进行训练,并利用自定义的int8 all-reduce内核来减少通信负载,显著降低了通信开销。这个模型的背景信息显示,它是由30个独立的社区贡献者提供计算支持,并在3个大洲的14个并发节点上进行训练。
在家使用日常设备搭建自己的AI集群。
exo是一个实验性的软件项目,旨在利用家中的现有设备,如iPhone、iPad、Android、Mac、Linux等,统一成一个强大的GPU来运行AI模型。它支持多种流行的模型,如LLaMA,并具有动态模型分割功能,能够根据当前网络拓扑和设备资源来最优地分割模型。此外,exo还提供了与ChatGPT兼容的API,使得在应用程序中使用exo运行模型仅需一行代码的更改。
一个用于专家并行负载均衡的开源算法,旨在优化多GPU环境下的专家分配和负载平衡。
Expert Parallelism Load Balancer (EPLB)是一种用于深度学习中专家并行(EP)的负载均衡算法。它通过冗余专家策略和启发式打包算法,确保不同GPU之间的负载平衡,同时利用组限制专家路由减少节点间数据流量。该算法对于大规模分布式训练具有重要意义,能够提高资源利用率和训练效率。
异步去噪并行化扩散模型
AsyncDiff 是一种用于并行化扩散模型的异步去噪加速方案,它通过将噪声预测模型分割成多个组件并分配到不同的设备上,实现了模型的并行处理。这种方法显著减少了推理延迟,同时对生成质量的影响很小。AsyncDiff 支持多种扩散模型,包括 Stable Diffusion 2.1、Stable Diffusion 1.5、Stable Diffusion x4 Upscaler、Stable Diffusion XL 1.0、ControlNet、Stable Video Diffusion 和 AnimateDiff。
新一代生成式AI模型
Liquid Foundation Models (LFMs) 是一系列新型的生成式AI模型,它们在各种规模上都达到了最先进的性能,同时保持了更小的内存占用和更高效的推理效率。LFMs 利用动态系统理论、信号处理和数值线性代数的计算单元,可以处理包括视频、音频、文本、时间序列和信号在内的任何类型的序列数据。这些模型是通用的AI模型,旨在处理大规模的序列多模态数据,实现高级推理,并做出可靠的决策。
训练和部署嵌入式模型的AI平台
Marqo是一个专注于训练和部署嵌入式模型的平台,它提供了一个端到端的解决方案,从模型训练到推理,再到存储。Marqo支持150多种嵌入式模型,并且可以快速原型设计,加速迭代,并无缝部署。该平台支持多模态模型,如CLIP,可以从图像和其他数据类型中提取语义信息,实现文本和图像的无缝搜索,甚至可以将文本和图像组合成一个向量。Marqo还支持100多种语言的搜索,提供最先进的多语言模型,无需手动进行语言配置即可扩展到新的地区。此外,Marqo的可扩展性允许用户在笔记本电脑上的Docker镜像中运行,也可以扩展到云端数十个GPU推理节点,提供低延迟的搜索服务。
构建和连接分布式人工智能应用的第一层
Openfabric AI是一个分布式人工智能平台,通过区块链、先进的加密和新型基础设施,为人工智能应用的构建和使用创造了一个新的基础。它降低了利用人工智能应用所需的基础设施需求和技术知识,促进了新的市场机会。
众包分布式图像和文本生成平台
AI Horde是一个众包分布式图像和文本生成平台。它由一群协作的工作者组成,提供高效的图像和文本生成服务。AI Horde提供稳定的性能、广泛的功能和多样的使用场景。无论是个人用户还是企业用户,都可以通过AI Horde获得高质量的图像和文本生成服务。AI Horde的定价合理,定位于满足用户的创作、设计、娱乐等需求。
快速易用的LLM推理和服务平台
vLLM是一个为大型语言模型(LLM)推理和提供服务的快速、易用且高效的库。它通过使用最新的服务吞吐量技术、高效的内存管理、连续批处理请求、CUDA/HIP图快速模型执行、量化技术、优化的CUDA内核等,提供了高性能的推理服务。vLLM支持与流行的HuggingFace模型无缝集成,支持多种解码算法,包括并行采样、束搜索等,支持张量并行性,适用于分布式推理,支持流式输出,并兼容OpenAI API服务器。此外,vLLM还支持NVIDIA和AMD GPU,以及实验性的前缀缓存和多lora支持。
通过去噪生成模型进行空间推理,解决复杂分布下的视觉任务。
SRM是一种基于去噪生成模型的空间推理框架,用于处理连续变量集合的推理任务。它通过为每个未观测变量分配独立的噪声水平,逐步推断出这些变量的连续表示。该技术在处理复杂分布时表现出色,能够有效减少生成过程中的幻觉现象。SRM首次证明了去噪网络可以预测生成顺序,从而显著提高了特定推理任务的准确性。该模型由德国马普信息研究所开发,旨在推动空间推理和生成模型的研究。
PygmalionAI的大规模推理引擎
Aphrodite是PygmalionAI的官方后端引擎,旨在为PygmalionAI网站提供推理端点,并允许以极快的速度为大量用户提供Pygmalion模型服务。Aphrodite利用vLLM的分页注意力技术,实现了连续批处理、高效的键值管理、优化的CUDA内核等特性,支持多种量化方案,以提高推理性能。
分析 V3/R1 中的计算与通信重叠策略,提供深度学习框架的性能分析数据。
DeepSeek Profile Data 是一个专注于深度学习框架性能分析的项目。它通过 PyTorch Profiler 捕获训练和推理框架的性能数据,帮助研究人员和开发者更好地理解计算与通信重叠策略以及底层实现细节。这些数据对于优化大规模分布式训练和推理任务至关重要,能够显著提升系统的效率和性能。该项目是 DeepSeek 团队在深度学习基础设施领域的重要贡献,旨在推动社区对高效计算策略的探索。
教会LLMs管理自己的内存
MemGPT是一个增强了分层内存系统和一组函数的固定上下文LLM处理器,使其能够管理自己的内存。主要上下文是(固定长度的)LLM输入。MemGPT在每个处理周期解析LLM文本输出,并在执行函数调用时控制或返回控制,用于在主上下文和外部上下文之间移动数据。当LLM生成函数调用时,它可以请求立即返回执行以链接函数。在yield的情况下,LLM将不会再次运行,直到下一个外部事件触发(例如用户消息或计划中断)。
© 2025 AIbase 备案号:闽ICP备08105208号-14