需求人群:
"该产品主要面向需要高效爬取网页数据以用于LLM预训练的研究人员和开发者。它适合那些希望在有限的资源下获取高质量训练语料的用户,尤其是在自然语言处理和人工智能领域的专业人士。"
使用场景示例:
研究人员使用Crawl4LLM从ClueWeb22数据集中爬取高质量文档,用于LLM的预训练。
开发者利用Crawl4LLM的灵活配置,自定义爬取策略,以满足特定项目的预训练需求。
团队通过Crawl4LLM高效爬取数据,并结合DCLM框架进行模型评估和优化。
产品特色:
支持多种文档评分方法,如基于长度、基于fastText模型评分等
灵活的配置选项,允许用户自定义爬取策略和参数
高效的数据爬取能力,支持多线程和大规模数据处理
与DCLM框架集成,便于后续的LLM预训练和评估
支持从ClueWeb22等大规模数据集中爬取数据
提供日志记录和状态保存功能,方便监控和恢复爬取过程
支持随机、基于入度等多种基线爬虫策略
使用教程:
1. 请求ClueWeb22数据集并准备Python虚拟环境。
2. 安装项目依赖,包括numpy、tqdm、fasttext等。
3. 下载DCLM fastText分类器到指定目录。
4. 创建配置文件,设置爬取参数和策略。
5. 运行crawl.py脚本开始爬取数据。
6. 使用fetch_docs.py获取爬取的文档文本。
7. 结合DCLM框架进行LLM预训练和评估。
浏览量:105
最新流量情况
月访问量
4.92m
平均访问时长
00:06:33
每次访问页数
6.11
跳出率
36.20%
流量来源
直接访问
51.61%
自然搜索
33.46%
邮件
0.04%
外链引荐
12.58%
社交媒体
2.19%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
12.55%
德国
3.84%
印度
9.38%
俄罗斯
4.61%
美国
18.64%
一个用于LLM预训练的高效网络爬虫工具,专注于高效爬取高质量网页数据。
Crawl4LLM是一个开源的网络爬虫项目,旨在为大型语言模型(LLM)的预训练提供高效的数据爬取解决方案。它通过智能选择和爬取网页数据,帮助研究人员和开发者获取高质量的训练语料。该工具支持多种文档评分方法,能够根据配置灵活调整爬取策略,以满足不同的预训练需求。项目基于Python开发,具有良好的扩展性和易用性,适合在学术研究和工业应用中使用。
提供多种预训练模型,支持多维度筛选,助力AI模型应用与开发。
该平台是一个专注于AI预训练模型的资源平台,整合了大量不同类型、规模和应用场景的预训练模型。其重要性在于为AI开发者和研究人员提供了便捷的模型获取渠道,降低了模型开发的门槛。主要优点包括模型分类细致、多维度筛选功能强大、信息展示详细且提供智能推荐。产品背景是随着AI技术的发展,对预训练模型的需求日益增长,平台应运而生。平台主要定位为AI模型资源平台,部分模型免费商用,部分可能需要付费,具体价格因模型而异。
专为LLM和RAG应用设计的高效网络爬虫
HyperCrawl是第一个为LLM(大型语言模型)和RAG(检索增强生成模型)应用设计的网络爬虫,旨在开发强大的检索引擎。它通过引入多种先进方法,显著减少了域名的爬取时间,提高了检索过程的效率。HyperCrawl是HyperLLM的一部分,致力于构建未来LLM的基础设施,这些模型需要更少的计算资源,并且性能超越现有的任何模型。
基于AI的Python网络爬虫库,自动化提取网页信息。
ScrapeGraphAI是一个使用LLM(大型语言模型)和直接图逻辑来为网站、文档和XML文件创建抓取管道的Python网络爬虫库。用户只需指定想要提取的信息,库就会自动完成这项工作。该库的主要优点在于简化了网络数据抓取的过程,提高了数据提取的效率和准确性。它适用于数据探索和研究目的,但不应被滥用。
快速构建可靠的网络爬虫工具
Crawlee是一个用于构建可靠网络爬虫的Python库。它由专业的网络爬虫开发者构建,每天用于抓取数百万页面。Crawlee支持JavaScript渲染,无需重写代码即可轻松切换到浏览器爬虫。此外,它还提供自动扩展和代理管理功能,能够基于系统资源智能管理并轮换代理,丢弃那些经常超时或返回网络错误的代理。
苹果发布多模态LLM模型MM1
苹果发布了自己的大语言模型MM1,这是一个最高有30B规模的多模态LLM。通过预训练和SFT,MM1模型在多个基准测试中取得了SOTA性能,展现了上下文内预测、多图像推理和少样本学习能力等吸引人的特性。
谷歌推出的开源预训练语言模型
Gemma-2b是谷歌推出的开源预训练语言模型系列,提供了多个不同规模的变体。它可以生成高质量的文本,广泛应用于问答、摘要、推理等领域。相比其他同类模型,它模型规模较小,可以部署在不同的硬件环境中。Gemma系列追求安全、高效的人工智能技术,使更多研究者和开发者可以接触前沿的语言模型技术。
超快速的网络爬虫与数据抓取API
UseScraper是一个超快速的网络爬虫与数据抓取API,可以快速抓取网页内容并提供多种输出格式,包括HTML、纯文本和Markdown。它支持浏览器渲染,可以爬取复杂的网站,并提供多种功能和定价选项。无需信用卡即可注册,还可以获得25美元的免费使用额度。
使用简单、原始的 C/CUDA 进行 LLM 训练
karpathy/llm.c 是一个使用简单的 C/CUDA 实现 LLM 训练的项目。它旨在提供一个干净、简单的参考实现,同时也包含了更优化的版本,可以接近 PyTorch 的性能,但代码和依赖大大减少。目前正在开发直接的 CUDA 实现、使用 SIMD 指令优化 CPU 版本以及支持更多现代架构如 Llama2、Gemma 等。
多语言预训练数据集
FineWeb2是由Hugging Face提供的一个大规模多语言预训练数据集,覆盖超过1000种语言。该数据集经过精心设计,用于支持自然语言处理(NLP)模型的预训练和微调,特别是在多种语言上。它以其高质量、大规模和多样性而闻名,能够帮助模型学习跨语言的通用特征,提升在特定语言任务上的表现。FineWeb2在多个语言的预训练数据集中表现出色,甚至在某些情况下,比一些专门为单一语言设计的数据库表现更好。
基于 Transformer 的预训练语言模型系列
Qwen1.5 是基于 Transformer 架构的解码器语言模型系列,包括不同规模的模型。具有 SwiGLU 激活、注意力 QKV 偏置、组查询注意力等特性。支持多种自然语言和代码。推荐进行后续训练,如 SFT、RLHF 等。定价免费。
大规模自回归图像模型预训练
这篇论文介绍了AIM,这是一组使用自回归目标进行预训练的视觉模型。这些模型受其文本对应物,即大型语言模型(LLMs)的启发,并表现出类似的扩展特性。具体来说,我们强调了两个关键发现:(1)视觉特征的性能随着模型容量和数据量的增加而提高,(2)目标函数的价值与模型在下游任务上的性能相关。我们通过在20亿张图像上对70亿参数的AIM进行预训练,实现了在ImageNet-1k上使用冻结主干达到84.0%的准确率。有趣的是,即使在这个规模上,我们观察到性能没有饱和的迹象,这表明AIM可能代表了训练大规模视觉模型的新前沿。AIM的预训练类似于LLMs的预训练,并不需要任何图像特定的策略来稳定大规模训练。
多语言预训练语言模型
「书生·浦语2.0」InternLM2是一个面向中文和英文的大型多语言预训练语言模型。它具有语言理解、自然语言生成、多模式推理、代码理解等强大的能力。模型采用Transformer架构并进行海量数据的预训练,在长文本理解、对话、数学运算等多个方向上都达到了业界领先水平。该系列模型包含多种规模,用户可以选择合适的模型进行下游任务微调或构建聊天机器人等应用。
未来派的AI驱动网页爬虫工具。
CyberScraper 2077是一款基于AI的网页爬虫工具,它利用OpenAI和Ollama等大型语言模型(LLM)来智能解析网页内容,提供数据提取服务。这款工具不仅拥有用户友好的图形界面,还支持多种数据导出格式,包括JSON、CSV、HTML、SQL和Excel。此外,它还具备隐形模式,以降低被检测为机器人的风险,以及遵循robots.txt和网站政策的道德爬取特性。
第二代多模态预训练对话模型
CogVLM2是由清华大学团队开发的第二代多模态预训练对话模型,它在多个基准测试中取得了显著的改进,支持8K内容长度和1344*1344的图像分辨率。CogVLM2系列模型提供了支持中文和英文的开源版本,能够与一些非开源模型相媲美的性能。
一个关于大型语言模型(LLM)后训练方法的教程、调查和指南资源库。
Awesome-LLM-Post-training 是一个专注于大型语言模型(LLM)后训练方法的资源库。它提供了关于 LLM 后训练的深入研究,包括教程、调查和指南。该资源库基于论文《LLM Post-Training: A Deep Dive into Reasoning Large Language Models》,旨在帮助研究人员和开发者更好地理解和应用 LLM 后训练技术。该资源库免费开放,适合学术研究和工业应用。
开源的中英双语预训练语言模型
LingoWhale-8B是一个开源的大规模中英双语预训练语言模型,具有强大的自然语言理解和生成能力。它通过在海量高质量中英文数据上进行预训练,可以完成长文本的理解和多轮交互。该模型采用Transformer架构,参数量达80亿。它在多个中文和英文公开基准测试上都取得了领先的效果。LingoWhale-8B完全开放给学术研究使用,个人开发者可以免费用于商业用途。该模型可以广泛应用于聊天机器人、知识问答、文本生成等领域。
大规模多模态预训练数据集
allenai/olmo-mix-1124数据集是由Hugging Face提供的一个大规模多模态预训练数据集,主要用于训练和优化自然语言处理模型。该数据集包含了大量的文本信息,覆盖了多种语言,并且可以用于各种文本生成任务。它的重要性在于提供了一个丰富的资源,使得研究人员和开发者能够训练出更加精准和高效的语言模型,进而推动自然语言处理技术的发展。
大型多语言预训练语言模型
Meta Llama 3.1-405B 是由 Meta 开发的一系列大型多语言预训练语言模型,包含8B、70B和405B三种规模的模型。这些模型经过优化的变压器架构,使用监督式微调(SFT)和强化学习与人类反馈(RLHF)进行调优,以符合人类对帮助性和安全性的偏好。Llama 3.1 模型支持多种语言,包括英语、德语、法语、意大利语、葡萄牙语、印地语、西班牙语和泰语。该模型在多种自然语言生成任务中表现出色,并在行业基准测试中超越了许多现有的开源和封闭聊天模型。
由Google Research开发的预训练时间序列预测模型。
TimesFM是一个由Google Research开发的预训练时间序列预测模型,用于时间序列预测任务。该模型在多个数据集上进行了预训练,能够处理不同频率和长度的时间序列数据。其主要优点包括高性能、可扩展性强以及易于使用。该模型适用于需要准确预测时间序列数据的各种应用场景,如金融、气象、能源等领域。该模型在Hugging Face平台上免费提供,用户可以方便地下载和使用。
文档智能的视觉引导生成文本布局预训练模型
ViTLP是一个视觉引导的生成文本布局预训练模型,旨在提高文档智能处理的效率和准确性。该模型结合了OCR文本定位和识别功能,能够在文档图像上进行快速准确的文本检测和识别。ViTLP模型的预训练版本ViTLP-medium(380M参数)在计算资源和预训练数据集规模的限制下,提供了一个平衡的解决方案,既保证了模型的性能,又优化了推理速度和内存使用。ViTLP的推理速度在Nvidia 4090上处理一页文档图像通常在5到10秒内,与大多数OCR引擎相比具有竞争力。
基于语言模型架构的预训练时间序列预测模型
Chronos是一系列基于语言模型架构的预训练时间序列预测模型。时间序列通过缩放和量化转换为一系列标记,然后使用交叉熵损失训练语言模型。训练完成后,通过给定历史上下文采样多个未来轨迹,获得概率性预测。Chronos模型已经在大量公开可用的时间序列数据和使用高斯过程生成的合成数据上进行了训练。
开源多模态预训练模型,具备中英双语对话能力。
GLM-4V-9B是智谱AI推出的新一代预训练模型,支持1120*1120高分辨率下的中英双语多轮对话,以及视觉理解能力。在多模态评测中,GLM-4V-9B展现出超越GPT-4-turbo-2024-04-09、Gemini 1.0 Pro、Qwen-VL-Max和Claude 3 Opus的卓越性能。
预训练T5模型,采用段落破坏和替换标记检测
SpacTor是一种新的训练程序,包括(1)结合了段落破坏(SC)和标记替换检测(RTD)的混合目标,以及(2)一个两阶段课程,该课程在初始tau次迭代中优化混合目标,然后过渡到标准的SC损失。我们在多种NLP任务上进行了实验,使用编码器-解码器架构(T5),SpacTor-T5在下游性能方面与标准的SC预训练相当,同时减少了50%的预训练迭代次数和40%的总FLOPs。另外,在相同的计算预算下,我们发现SpacTor能够显著提高下游基准性能。
将Common Crawl转化为精细的长期预训练数据集
Nemotron-CC是一个基于Common Crawl的6.3万亿token的数据集。它通过分类器集成、合成数据改写和减少启发式过滤器的依赖,将英文Common Crawl转化为一个6.3万亿token的长期预训练数据集,包含4.4万亿全球去重的原始token和1.9万亿合成生成的token。该数据集在准确性和数据量之间取得了更好的平衡,对于训练大型语言模型具有重要意义。
提升图文预训练的细粒度理解
SPARC是一种用于图文对预训练的简单方法,旨在从图像-文本对中预训练更细粒度的多模态表示。它利用稀疏相似度度量和对图像块和语言标记进行分组,通过对比细粒度的序列损失和全局图像与文本嵌入之间的对比损失,学习同时编码全局和局部信息的表示。SPARC在粗粒度信息的图像级任务和细粒度信息的区域级任务上均表现出改进,包括分类、检索、目标检测和分割。此外,SPARC提高了模型的可信度和图像描述能力。
网络爬虫与工作流自动化一站式解决方案
Hexomatic是一个提供网络爬虫和工作流自动化功能的平台。通过Hexomatic,您可以将互联网作为自己的数据源,自动化执行100多种销售、营销或研究任务。Hexomatic的主要功能包括网页抓取、数据提取、数据清洗和自动化工作流程等。它可以帮助您节省大量时间和人力资源,并提高工作效率。Hexomatic的定价根据用户需求和使用频率进行灵活调整。
© 2025 AIbase 备案号:闽ICP备08105208号-14