需求人群:
"适用于自然语言处理研究者、中文机器学习开发者以及需要大量中文语料的AI项目。"
使用场景示例:
用于训练中文聊天机器人
支持中文文本挖掘和情感分析
作为中文自然语言理解模型的训练基础
产品特色:
提供大规模的中文语料数据
支持自然语言处理和机器学习研究
促进中文AI技术的发展
浏览量:47
最新流量情况
月访问量
5.16m
平均访问时长
00:06:42
每次访问页数
5.81
跳出率
37.20%
流量来源
直接访问
52.27%
自然搜索
32.92%
邮件
0.05%
外链引荐
12.52%
社交媒体
2.15%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
11.99%
德国
3.63%
印度
9.20%
俄罗斯
5.25%
美国
19.02%
MNBVC是一个超大规模的中文语料集,对标chatGPT训练的40T数据
MNBVC(Massive Never-ending BT Vast Chinese corpus)是一个旨在为AI提供丰富中文语料的项目。它不仅包括主流文化内容,还涵盖了小众文化和网络用语。数据集包括新闻、作文、小说、书籍、杂志、论文、台词、帖子、wiki、古诗、歌词、商品介绍、笑话、糗事、聊天记录等多种形式的纯文本中文数据。
大规模多模态医学数据集
MedTrinity-25M是一个大规模多模态数据集,包含多粒度的医学注释。它由多位作者共同开发,旨在推动医学图像和文本处理领域的研究。数据集的构建包括数据提取、多粒度文本描述生成等步骤,支持多种医学图像分析任务,如视觉问答(VQA)、病理学图像分析等。
高效的检索增强生成研究工具包
FlashRAG是一个Python工具包,用于检索增强生成(RAG)研究的复现和开发。它包括32个预处理的基准RAG数据集和12种最先进的RAG算法。FlashRAG提供了一个广泛且可定制的框架,包括检索器、重排器、生成器和压缩器等RAG场景所需的基本组件,允许灵活组装复杂流程。此外,FlashRAG还提供了高效的预处理阶段和优化的执行,支持vLLM、FastChat等工具加速LLM推理和向量索引管理。
模型和数据集的集合
Distil-Whisper是一个提供模型和数据集的平台,用户可以在该平台上访问各种预训练模型和数据集,并进行相关的应用和研究。该平台提供了丰富的模型和数据集资源,帮助用户快速开展自然语言处理和机器学习相关工作。
Qwen Turbo 1M Demo是一个由Qwen提供的Hugging Face空间。
Qwen Turbo 1M Demo是一个基于Hugging Face平台的人工智能模型演示。这个模型代表了自然语言处理技术的最新进展,特别是在中文文本理解和生成方面。它的重要性在于能够提供高效、准确的语言模型,以支持各种语言相关的应用,如机器翻译、文本摘要、问答系统等。Qwen Turbo 1M Demo以其较小的模型尺寸和快速的处理速度而受到青睐,适合需要快速部署和高效运行的场合。目前,该模型是免费试用的,具体价格和定位可能需要进一步的商业洽谈。
Qwen2.5-Coder系列中的0.5B参数代码生成模型
Qwen2.5-Coder是Qwen大型语言模型的最新系列,专注于代码生成、代码推理和代码修复。基于强大的Qwen2.5,该系列模型通过增加训练令牌至5.5万亿,包括源代码、文本代码基础、合成数据等,显著提升了编码能力。Qwen2.5-Coder-32B已成为当前最先进的开源代码大型语言模型,编码能力与GPT-4o相当。此外,Qwen2.5-Coder还为实际应用如代码代理提供了更全面的基础,不仅增强了编码能力,还保持了在数学和通用能力方面的优势。
AI研究与趋势分析平台
Epoch AI是一个研究人工智能关键趋势和问题的研究机构,旨在塑造AI的轨迹和治理。该机构通过报告、论文、模型和可视化工具,推进基于证据的AI讨论。Epoch AI的工作得到了研究和媒体的信任,为理解AI的发展轨迹提供了重要资源。
一个实验性的文本到语音模型
OuteTTS是一个使用纯语言建模方法生成语音的实验性文本到语音模型。它的重要性在于能够通过先进的语言模型技术,将文本转换为自然听起来的语音,这对于语音合成、语音助手和自动配音等领域具有重要意义。该模型由OuteAI开发,提供了Hugging Face模型和GGUF模型的支持,并且可以通过接口进行语音克隆等高级功能。
生成任何3D和4D场景的先进框架
GenXD是一个专注于3D和4D场景生成的框架,它利用日常生活中常见的相机和物体运动来联合研究一般的3D和4D生成。由于社区缺乏大规模的4D数据,GenXD首先提出了一个数据策划流程,从视频中获取相机姿态和物体运动强度。基于此流程,GenXD引入了一个大规模的现实世界4D场景数据集:CamVid-30K。通过利用所有3D和4D数据,GenXD框架能够生成任何3D或4D场景。它提出了多视图-时间模块,这些模块分离相机和物体运动,无缝地从3D和4D数据中学习。此外,GenXD还采用了掩码潜在条件,以支持多种条件视图。GenXD能够生成遵循相机轨迹的视频以及可以提升到3D表示的一致3D视图。它在各种现实世界和合成数据集上进行了广泛的评估,展示了GenXD在3D和4D生成方面与以前方法相比的有效性和多功能性。
O1复制之旅:战略进展报告第一部分
O1-Journey是由上海交通大学GAIR研究组发起的一个项目,旨在复制和重新想象OpenAI的O1模型的能力。该项目提出了“旅程学习”的新训练范式,并构建了首个成功整合搜索和学习在数学推理中的模型。这个模型通过试错、纠正、回溯和反思等过程,成为处理复杂推理任务的有效方法。
自监督触觉表示,用于基于视觉的触觉传感。
Sparsh是一系列通过自监督算法(如MAE、DINO和JEPA)训练的通用触觉表示。它能够为DIGIT、Gelsight'17和Gelsight Mini生成有用的表示,并在TacBench提出的下游任务中大幅度超越端到端模型,同时能够为新下游任务的数据高效训练提供支持。Sparsh项目包含PyTorch实现、预训练模型和与Sparsh一起发布的数据集。
开发者可使用的Grok系列基础模型API
xAI API提供了对Grok系列基础模型的程序化访问,支持文本和图像输入,具有128,000个token的上下文长度,并支持函数调用和系统提示。该API与OpenAI和Anthropic的API完全兼容,简化了迁移过程。产品背景信息显示,xAI正在进行公共Beta测试,直至2024年底,期间每位用户每月可获得25美元的免费API积分。
多语言生成语言模型
Aya模型是一个大规模的多语言生成性语言模型,能够在101种语言中遵循指令。该模型在多种自动和人类评估中优于mT0和BLOOMZ,尽管它覆盖的语言数量是后者的两倍。Aya模型使用包括xP3x、Aya数据集、Aya集合、DataProvenance集合的一个子集和ShareGPT-Command等多个数据集进行训练,并在Apache-2.0许可下发布,以推动多语言技术的发展。
由CohereForAI开发的Hugging Face Space
Aya Expanse是一个由CohereForAI开发的Hugging Face Space,它可能涉及到机器学习模型的开发和应用。Hugging Face是一个专注于自然语言处理的人工智能平台,提供各种模型和工具,以帮助开发者构建、训练和部署NLP应用。Aya Expanse作为该平台上的一个Space,可能具有特定的功能或技术,用于支持开发者在NLP领域的工作。
开源的PDF到Podcast工作流构建工具
NotebookLlama是一个开源项目,旨在通过一系列教程和笔记本指导用户构建从PDF到Podcast的工作流。该项目涵盖了从文本预处理到使用文本到语音模型的整个流程,适合对大型语言模型(LLMs)、提示和音频模型零知识的用户。NotebookLlama的主要优点包括易用性、教育性和实验性,它不仅提供了一个参考实现,还鼓励用户通过实验不同的模型和提示来优化结果。
IBM Granite 3.0模型,高效能AI语言模型
IBM Granite 3.0模型是一系列高性能的AI语言模型,由IBM开发,并通过Ollama平台提供。这些模型在超过12万亿个token上进行训练,展示了在性能和速度上的显著提升。它们支持基于工具的用例,包括检索增强生成(RAG)、代码生成、翻译和错误修复。IBM Granite 3.0模型包括密集型模型和Mixture of Expert(MoE)模型,后者专为低延迟使用而设计,适合在设备上应用或需要即时推理的场景。
全球大语言模型资源汇总
awesome-LLM-resourses是一个汇总了全球大语言模型(LLM)资源的平台,提供了从数据获取、微调、推理、评估到实际应用等一系列资源和工具。它的重要性在于为研究人员和开发者提供了一个全面的资源库,以便于他们能够更高效地开发和优化自己的语言模型。该平台由王荣胜维护,持续更新,为LLM领域的发展提供了强有力的支持。
高效能小型语言模型
Zamba2-7B是由Zyphra团队开发的一款小型语言模型,它在7B规模上超越了当前领先的模型,如Mistral、Google的Gemma和Meta的Llama3系列,无论是在质量还是性能上。该模型专为在设备上和消费级GPU上运行以及需要强大但紧凑高效模型的众多企业应用而设计。Zamba2-7B的发布,展示了即使在7B规模上,前沿技术仍然可以被小团队和适度预算所触及和超越。
高性能的7B参数因果语言模型
tiiuae/falcon-mamba-7b是由TII UAE开发的高性能因果语言模型,基于Mamba架构,专为生成任务设计。该模型在多个基准测试中展现出色的表现,并且能够在不同的硬件配置上运行,支持多种精度设置,以适应不同的性能和资源需求。模型的训练使用了先进的3D并行策略和ZeRO优化技术,使其在大规模GPU集群上高效训练成为可能。
AIGC 应用快速构建平台
派欧算力云大模型 API 提供易于集成的各模态 API 服务,包括大语言模型、图像、音频、视频等,旨在帮助用户轻松构建专属的 AIGC 应用。该平台拥有丰富的模型资源,支持个性化需求的模型训练和托管,同时保证用户私有模型的保密性。它以高性价比、高吞吐量和高性能推理引擎为特点,适用于多种 AI 应用场景,如聊天机器人、总结摘要、小说生成器等。
小型语言模型调研、测量与洞察
SLM_Survey是一个专注于小型语言模型(SLMs)的研究项目,旨在通过调研和测量,提供对这些模型的深入了解和技术评估。该项目涵盖了基于Transformer的、仅解码器的语言模型,参数范围在100M至5B之间。通过对59个最先进的开源SLMs进行调研,分析了它们的技术创新,并在多个领域评估了它们的能力,包括常识推理、上下文学习、数学和编程。此外,还对它们的运行时成本进行了基准测试,包括推理延迟和内存占用。这些研究对于推动SLMs领域的研究具有重要价值。
视觉语言模型高效文档检索工具
ColPali 是一种基于视觉语言模型的高效文档检索工具,它通过直接嵌入文档页面图像的方式来简化文档检索流程。ColPali 利用了最新的视觉语言模型技术,特别是 PaliGemma 模型,通过晚交互机制实现多向量检索,从而提高检索性能。这一技术不仅加快了索引速度,降低了查询延迟,而且在检索包含视觉元素的文档方面表现出色,例如图表、表格和图像。ColPali 的出现,为文档检索领域带来了一种新的“视觉空间检索”范式,有助于提高信息检索的效率和准确性。
研究项目,探索自动语言模型基准测试中的作弊行为。
Cheating LLM Benchmarks 是一个研究项目,旨在通过构建所谓的“零模型”(null models)来探索在自动语言模型(LLM)基准测试中的作弊行为。该项目通过实验发现,即使是简单的零模型也能在这些基准测试中取得高胜率,这挑战了现有基准测试的有效性和可靠性。该研究对于理解当前语言模型的局限性和改进基准测试方法具有重要意义。
基于熵的采样技术,优化模型输出的多样性和准确性
Entropy-based sampling 是一种基于熵理论的采样技术,用于提升语言模型在生成文本时的多样性和准确性。该技术通过计算概率分布的熵和方差熵来评估模型的不确定性,从而在模型可能陷入局部最优或过度自信时调整采样策略。这种方法有助于避免模型输出的单调重复,同时在模型不确定性较高时增加输出的多样性。
利用AI技术生成高质量句子的在线工具
AI句子生成器是一个基于人工智能技术的在线工具,它能够根据用户提供的主题和类型生成连贯且上下文相关的句子。这项技术对于作家、学生和任何希望提高写作技能的人都非常有价值。它通过复杂的自然语言处理技术和机器学习模型,确保每个生成的句子都是定制化的,以满足用户的需求。AI句子生成器的主要优点包括简化写作过程、节省时间、激发创造力,并帮助用户生成多样化的句子结构和语调,提高整体写作风格。
先进的多模态AI模型家族
Molmo是一个开放的、最先进的多模态AI模型家族,旨在通过学习指向其感知的内容,实现与物理和虚拟世界的丰富互动,为下一代应用程序提供行动和交互的能力。Molmo通过学习指向其感知的内容,实现了与物理和虚拟世界的丰富互动,为下一代应用程序提供行动和交互的能力。
多语言大型语言模型
Llama 3.2是由Meta公司推出的多语言大型语言模型(LLMs),包含1B和3B两种规模的预训练和指令调优生成模型。这些模型在多种语言对话用例中进行了优化,包括代理检索和总结任务。Llama 3.2在许多行业基准测试中的表现优于许多现有的开源和封闭聊天模型。
创造无限可能的人工智能助手
YunHu Ai 是一个基于人工智能技术的聊天助手,旨在通过自然语言处理和机器学习技术,为用户提供高效、智能的对话体验。它能够理解用户的需求,提供准确的信息和建议,帮助用户解决问题。YunHu Ai 以其强大的语言理解能力、快速响应和用户友好的界面而受到用户的喜爱。
© 2024 AIbase 备案号:闽ICP备08105208号-14