一个用于LLM预训练的高效网络爬虫工具,专注于高效爬取高质量网页数据。
Crawl4LLM是一个开源的网络爬虫项目,旨在为大型语言模型(LLM)的预训练提供高效的数据爬取解决方案。它通过智能选择和爬取网页数据,帮助研究人员和开发者获取高质量的训练语料。该工具支持多种文档评分方法,能够根据配置灵活调整爬取策略,以满足不同的预训练需求。项目基于Python开发,具有良好的扩展性和易用性,适合在学术研究和工业应用中使用。
将Common Crawl转化为精细的长期预训练数据集
Nemotron-CC是一个基于Common Crawl的6.3万亿token的数据集。它通过分类器集成、合成数据改写和减少启发式过滤器的依赖,将英文Common Crawl转化为一个6.3万亿token的长期预训练数据集,包含4.4万亿全球去重的原始token和1.9万亿合成生成的token。该数据集在准确性和数据量之间取得了更好的平衡,对于训练大型语言模型具有重要意义。
提供高质量中文语料资源,助力人工智能大模型预训练。
中文互联网语料资源平台是由中国网络空间安全协会主办的专业网站,旨在为人工智能大模型的预训练提供高质量、安全合规的中文语料资源。该平台汇聚了来自企业、高校和科研单位的协同优势,依托‘共建-共享’机制,形成了包括中文互联网基础语料2.0、人民网主流价值数据集、国家版本馆明清文献语料等多个高质量语料库。这些语料库经过严格的信源筛选、格式清洗、语言过滤、数据去重、内容过滤、隐私过滤等处理步骤,确保了数据的合法性、真实性、准确性和客观性。平台的资源对于推动国家人工智能技术创新和产业发展具有重要意义,可帮助大模型更好地理解和生成中文内容,提升其知识能力与价值观对齐。
高性能的双向编码器Transformer模型
ModernBERT-large是一个现代化的双向编码器Transformer模型(BERT风格),在2万亿个英文和代码数据上预训练,具有长达8192个token的原生上下文长度。该模型采用了最新的架构改进,如旋转位置嵌入(RoPE)以支持长上下文,局部-全局交替注意力以提高长输入的效率,以及无填充和Flash Attention以提高推理效率。ModernBERT-long适合处理需要处理长文档的任务,如检索、分类和大型语料库中的语义搜索。模型训练数据主要是英文和代码,因此可能在其他语言上的表现会较低。
一款高效率的2.4亿参数轻量级语言模型
YuLan-Mini是由中国人民大学AI Box团队开发的一款轻量级语言模型,具有2.4亿参数,尽管仅使用1.08T的预训练数据,但其性能可与使用更多数据训练的行业领先模型相媲美。该模型特别擅长数学和代码领域,为了促进可复现性,团队将开源相关的预训练资源。
视觉语言模型的最新进展,集成微信AI的新技术
POINTS-Yi-1.5-9B-Chat是一个视觉语言模型,它集成了最新的视觉语言模型技术和微信AI提出的新技术。该模型在预训练数据集过滤、模型汤(Model Soup)技术等方面有显著创新,能够显著减少预训练数据集的大小并提高模型性能。它在多个基准测试中表现优异,是视觉语言模型领域的一个重要进展。
多语言预训练数据集
FineWeb2是由Hugging Face提供的一个大规模多语言预训练数据集,覆盖超过1000种语言。该数据集经过精心设计,用于支持自然语言处理(NLP)模型的预训练和微调,特别是在多种语言上。它以其高质量、大规模和多样性而闻名,能够帮助模型学习跨语言的通用特征,提升在特定语言任务上的表现。FineWeb2在多个语言的预训练数据集中表现出色,甚至在某些情况下,比一些专门为单一语言设计的数据库表现更好。
大型多模态模型,集成表格数据
TableGPT2是一个大型多模态模型,专门针对表格数据进行预训练和微调,以解决实际应用中表格数据整合不足的问题。该模型在超过593.8K的表格和2.36M的高质量查询-表格-输出元组上进行了预训练和微调,规模前所未有。TableGPT2的关键创新之一是其新颖的表格编码器,专门设计用于捕获模式级别和单元格级别的信息,增强了模型处理模糊查询、缺失列名和不规则表格的能力。在23个基准测试指标上,TableGPT2在7B模型上平均性能提升了35.20%,在72B模型上提升了49.32%,同时保持了强大的通用语言和编码能力。
高质量英文网页数据集
FineWeb数据集包含超过15万亿个经过清洗和去重的英文网页数据,来源于CommonCrawl。该数据集专为大型语言模型预训练设计,旨在推动开源模型的发展。数据集经过精心处理和筛选,以确保高质量,适用于各种自然语言处理任务。
首个中文大语言模型,专注中文理解和生成
Chinese Tiny LLM(CT-LLM)是针对中文设计的首个大语言模型,拥有20亿参数,并在12000亿中文语料库上进行预训练。CT-LLM专注于提高对中文语言的理解和生成能力,利用大规模的中文数据预训练,实现对中文文本的高效处理。虽然重点优化了中文处理,CT-LLM也展示了对英文和编程代码的良好处理能力,体现了模型的多语言适应性。在中文语言任务的基准测试CHC-Bench上,CT-LLM展现了出色的性能,证明了其在理解和应用中文方面的高效能力。CT-LLM从零开始训练,主要使用中文数据进行预训练,开放了整个数据过滤过程、训练动态、训练和评估数据,以及模型的中间检查点等所有相关信息。该开放资源的做法使得其他研究者、开发者能够访问这些资源,利用这些资料进行自己的研究或进一步改进模型。
苹果发布多模态LLM模型MM1
苹果发布了自己的大语言模型MM1,这是一个最高有30B规模的多模态LLM。通过预训练和SFT,MM1模型在多个基准测试中取得了SOTA性能,展现了上下文内预测、多图像推理和少样本学习能力等吸引人的特性。
实时开放词汇物体检测
YOLO-World是一款先进的实时开放词汇物体检测器,基于You Only Look Once (YOLO)系列检测器,并通过视觉-语言建模和大规模数据集的预训练,增强了开放词汇检测能力。其采用新的可重新参数化的视觉-语言路径聚合网络(RepVL-PAN)和区域-文本对比损失,促进了视觉和语言信息之间的交互。YOLO-World在零-shot方式下高效地检测各种对象,具有高效率。在具有挑战性的LVIS数据集上,YOLO-World在V100上实现了35.4 AP和52.0 FPS,在准确性和速度方面均优于许多最新方法。此外,经过微调的YOLO-World在多项下游任务上表现出色,包括物体检测和开放词汇实例分割。
© 2025 AIbase 备案号:闽ICP备08105208号-14