浏览量:121
最新流量情况
月访问量
25296.55k
平均访问时长
00:04:45
每次访问页数
5.83
跳出率
43.31%
流量来源
直接访问
48.39%
自然搜索
35.85%
邮件
0.03%
外链引荐
12.76%
社交媒体
2.96%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
17.08%
印度
8.40%
日本
3.42%
俄罗斯
4.58%
美国
17.94%
3D人物生成模型
En3D是一个提供先进自然语言处理模型的平台。他们提供了各种各样的模型和数据集,以帮助开发者构建和部署自然语言处理应用。En3D平台的优势在于提供了大量预训练模型和方便的部署工具,使得开发者能够快速、高效地构建自然语言处理应用。
模型和数据集的集合
Distil-Whisper是一个提供模型和数据集的平台,用户可以在该平台上访问各种预训练模型和数据集,并进行相关的应用和研究。该平台提供了丰富的模型和数据集资源,帮助用户快速开展自然语言处理和机器学习相关工作。
Qwen2.5-Max是一个大规模的Mixture-of-Expert (MoE)模型,致力于提升模型智能。
Qwen2.5-Max是一个大规模的Mixture-of-Expert (MoE)模型,经过超过20万亿tokens的预训练和监督微调与人类反馈强化学习的后训练。它在多个基准测试中表现优异,展示了强大的知识和编码能力。该模型通过阿里巴巴云提供API接口,支持开发者在各种应用场景中使用。其主要优点包括强大的性能、灵活的部署方式和高效的训练技术,旨在为人工智能领域提供更智能的解决方案。
Dolphin R1是一个用于训练推理模型的数据集,包含80万条样本。
Dolphin R1是一个由Cognitive Computations团队创建的数据集,旨在训练类似DeepSeek-R1 Distill模型的推理模型。该数据集包含30万条来自DeepSeek-R1的推理样本、30万条来自Gemini 2.0 flash thinking的推理样本以及20万条Dolphin聊天样本。这些数据集的组合为研究人员和开发者提供了丰富的训练资源,有助于提升模型的推理能力和对话能力。该数据集的创建得到了Dria、Chutes、Crusoe Cloud等多家公司的赞助支持,这些赞助商为数据集的开发提供了计算资源和资金支持。Dolphin R1数据集的发布,为自然语言处理领域的研究和开发提供了重要的基础,推动了相关技术的发展。
将Common Crawl转化为精细的长期预训练数据集
Nemotron-CC是一个基于Common Crawl的6.3万亿token的数据集。它通过分类器集成、合成数据改写和减少启发式过滤器的依赖,将英文Common Crawl转化为一个6.3万亿token的长期预训练数据集,包含4.4万亿全球去重的原始token和1.9万亿合成生成的token。该数据集在准确性和数据量之间取得了更好的平衡,对于训练大型语言模型具有重要意义。
大规模多语言偏好混合数据集
OLMo 2 1124 13B Preference Mixture是一个由Hugging Face提供的大型多语言数据集,包含377.7k个生成对,用于训练和优化语言模型,特别是在偏好学习和指令遵循方面。该数据集的重要性在于它提供了一个多样化和大规模的数据环境,有助于开发更加精准和个性化的语言处理技术。
高质量数据集,用于OLMo2训练的第二阶段。
DOLMino dataset mix for OLMo2 stage 2 annealing training是一个混合了多种高质数据的数据集,用于在OLMo2模型训练的第二阶段。这个数据集包含了网页页面、STEM论文、百科全书等多种类型的数据,旨在提升模型在文本生成任务中的表现。它的重要性在于为开发更智能、更准确的自然语言处理模型提供了丰富的训练资源。
大规模多模态医学数据集
MedTrinity-25M是一个大规模多模态数据集,包含多粒度的医学注释。它由多位作者共同开发,旨在推动医学图像和文本处理领域的研究。数据集的构建包括数据提取、多粒度文本描述生成等步骤,支持多种医学图像分析任务,如视觉问答(VQA)、病理学图像分析等。
高性能语言模型基准测试数据集
DCLM-baseline是一个用于语言模型基准测试的预训练数据集,包含4T个token和3B个文档。它通过精心策划的数据清洗、过滤和去重步骤,从Common Crawl数据集中提取,旨在展示数据策划在训练高效语言模型中的重要性。该数据集仅供研究使用,不适用于生产环境或特定领域的模型训练,如代码和数学。
表情包视觉标注数据集
emo-visual-data 是一个公开的表情包视觉标注数据集,它通过使用 glm-4v 和 step-free-api 项目完成的视觉标注,收集了5329个表情包。这个数据集可以用于训练和测试多模态大模型,对于理解图像内容和文本描述之间的关系具有重要意义。
高效的检索增强生成研究工具包
FlashRAG是一个Python工具包,用于检索增强生成(RAG)研究的复现和开发。它包括32个预处理的基准RAG数据集和12种最先进的RAG算法。FlashRAG提供了一个广泛且可定制的框架,包括检索器、重排器、生成器和压缩器等RAG场景所需的基本组件,允许灵活组装复杂流程。此外,FlashRAG还提供了高效的预处理阶段和优化的执行,支持vLLM、FastChat等工具加速LLM推理和向量索引管理。
一种用于生成超详细图像描述的模型,用于训练视觉语言模型。
ImageInWords (IIW) 是一个由人类参与的循环注释框架,用于策划超详细的图像描述,并生成一个新的数据集。该数据集通过评估自动化和人类并行(SxS)指标来实现最先进的结果。IIW 数据集在生成描述时,比以往的数据集和GPT-4V输出在多个维度上有了显著提升,包括可读性、全面性、特异性、幻觉和人类相似度。此外,使用IIW数据微调的模型在文本到图像生成和视觉语言推理方面表现出色,能够生成更接近原始图像的描述。
一个由真实世界用户与ChatGPT交互构成的语料库。
WildChat数据集是一个由100万真实世界用户与ChatGPT交互组成的语料库,特点是语言多样和用户提示的多样性。该数据集用于微调Meta的Llama-2,创建了WildLlama-7b-user-assistant聊天机器人,能够预测用户提示和助手回应。
高质量英文网页数据集
FineWeb数据集包含超过15万亿个经过清洗和去重的英文网页数据,来源于CommonCrawl。该数据集专为大型语言模型预训练设计,旨在推动开源模型的发展。数据集经过精心处理和筛选,以确保高质量,适用于各种自然语言处理任务。
MNBVC是一个超大规模的中文语料集,对标chatGPT训练的40T数据
MNBVC(Massive Never-ending BT Vast Chinese corpus)是一个旨在为AI提供丰富中文语料的项目。它不仅包括主流文化内容,还涵盖了小众文化和网络用语。数据集包括新闻、作文、小说、书籍、杂志、论文、台词、帖子、wiki、古诗、歌词、商品介绍、笑话、糗事、聊天记录等多种形式的纯文本中文数据。
文本转音乐和音频
MAGNeT是一个提供各种人工智能模型和数据集的社区平台。用户可以在平台上找到各种先进的自然语言处理和机器学习模型,以及相关的数据集。该平台还提供了一系列解决方案,包括文本到语音转换、图像处理等。MAGNeT定位于为开发人员、研究人员和企业提供高质量的人工智能模型和数据集。
LiteLlama-460M-1T: 减小规模的 Llama
LiteLlama-460M-1T 是一个开源的人工智能模型,使用 1T 个令牌进行训练,具有 460M 个参数。它是 Meta AI 的 LLaMa 2 的一个缩减版本,用于提供更小的模型规模。
大型语言模型角色扮演框架
RoleLLM是一个角色扮演框架,用于构建和评估大型语言模型的角色扮演能力。它包括四个阶段:角色概要构建、基于上下文的指令生成、使用GPT进行角色提示和基于角色的指令调整。通过Context-Instruct和RoleGPT,我们创建了RoleBench,这是一个系统化和细粒度的角色级别基准数据集,包含168,093个样本。此外,RoCIT在RoleBench上产生了RoleLLaMA(英语)和RoleGLM(中文),显著提高了角色扮演能力,甚至与使用GPT-4的RoleGPT取得了可比较的结果。
AI模型库与数据集平台
I2VGen-XL是一款AI模型库与数据集平台,提供丰富的AI模型和数据集,帮助用户快速构建AI应用。平台支持多种AI任务,包括图像识别、自然语言处理、语音识别等。用户可以通过平台上传、下载和分享模型和数据集,也可以使用平台提供的API接口进行调用。平台提供免费和付费两种服务,用户可以根据需求选择适合自己的服务。
基于自然语言输入的图像修复算法
Inst-Inpaint是一种图像修复算法,可以根据自然语言输入估计要删除的对象并同时删除它。该产品提供了一个名为GQA-Inpaint的数据集,以及一种名为Inst-Inpaint的新型修复框架,可以根据文本提示从图像中删除对象。该产品提供了各种GAN和扩散基线,并在合成和真实图像数据集上运行实验。该产品提供了不同的评估指标,以衡量模型的质量和准确性,并显示出显著的定量和定性改进。
大规模人工智能开放网络
LAION是一个非营利组织,致力于提供机器学习资源给公众使用,包括数据集、工具和模型。我们鼓励开放公共教育,并通过重复使用现有数据集和模型来更环保地使用资源。我们提供多个数据集、模型和项目,以支持广泛的人工智能研究。
高效的视觉编码技术,提升视觉语言模型性能。
FastVLM 是一种高效的视觉编码模型,专为视觉语言模型设计。它通过创新的 FastViTHD 混合视觉编码器,减少了高分辨率图像的编码时间和输出的 token 数量,使得模型在速度和精度上表现出色。FastVLM 的主要定位是为开发者提供强大的视觉语言处理能力,适用于各种应用场景,尤其在需要快速响应的移动设备上表现优异。
一个旨在推动人工智能民主化的开源项目。
DeepSeek-Prover-V2-671B 是一个先进的人工智能模型,旨在提供强大的推理能力。它基于最新的技术,适用于多种应用场景。该模型是开源的,旨在促进人工智能技术的民主化与普及,降低技术壁垒,使更多开发者和研究者能够利用 AI 技术进行创新。通过使用该模型,用户可以提升他们的工作效率,推动各类项目的进展。
Darvin是一款能够通过描述快速创建跨平台应用的工具。
Darvin是一款革命性的应用开发工具,通过简单的描述即可生成跨平台应用,极大地提高开发效率。Darvin背后基于先进的自然语言处理技术,让任何人都能轻松创建功能强大的应用。
Kimi-Audio 是一个开源音频基础模型,擅长音频理解与生成。
Kimi-Audio 是一个先进的开源音频基础模型,旨在处理多种音频处理任务,如语音识别和音频对话。该模型在超过 1300 万小时的多样化音频数据和文本数据上进行了大规模预训练,具有强大的音频推理和语言理解能力。它的主要优点包括优秀的性能和灵活性,适合研究人员和开发者进行音频相关的研究与开发。
一个基于深度学习的图像和视频描述模型。
Describe Anything 模型(DAM)能够处理图像或视频的特定区域,并生成详细描述。它的主要优点在于可以通过简单的标记(点、框、涂鸦或掩码)来生成高质量的本地化描述,极大地提升了计算机视觉领域的图像理解能力。该模型由 NVIDIA 和多所大学联合开发,适合用于研究、开发和实际应用中。
一个高效的强化学习框架,用于训练推理和搜索引擎调用的语言模型。
Search-R1 是一个强化学习框架,旨在训练能够进行推理和调用搜索引擎的语言模型(LLMs)。它基于 veRL 构建,支持多种强化学习方法和不同的 LLM 架构,使得在工具增强的推理研究和开发中具备高效性和可扩展性。
© 2025 AIbase 备案号:闽ICP备08105208号-14