需求人群:
"Yi可以广泛应用于各种场景,包括自然语言处理、文本生成、机器翻译等。"
使用场景示例:
使用Yi进行情感分析
使用Yi进行文本生成
使用Yi进行机器翻译
产品特色:
全球领先的预训练模型
轻巧的模型尺寸
适用于个人和研究用途
适用于多元场景
开源模型对学术研究完全开放
免费商用申请
浏览量:194
最新流量情况
月访问量
128.03k
平均访问时长
00:04:20
每次访问页数
5.20
跳出率
36.65%
流量来源
直接访问
52.81%
自然搜索
37.21%
邮件
0.03%
外链引荐
9.07%
社交媒体
0.65%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
62.18%
日本
1.36%
美国
22.53%
技术全球领跑
Yi是一款全球领先的预训练模型,在多项评测中取得了SOTA国际最佳性能指标表现。它具有轻巧的模型尺寸,超越了大尺寸开源模型,更加友好于开发者社群。零一万物适合个人及研究用途,并且已具备大模型涌现能力,适用于多元场景,满足开源社区的刚性需求。Yi开源模型对学术研究完全开放,并且同步开放免费商用申请。
Qwen2.5-Coder系列中的3B参数模型,专注于代码生成与理解。
Qwen2.5-Coder-3B是Qwen2.5-Coder系列中的一个大型语言模型,专注于代码生成、推理和修复。基于强大的Qwen2.5,该模型通过增加训练令牌至5.5万亿,包括源代码、文本代码基础、合成数据等,实现了在代码生成、推理和修复方面的显著改进。Qwen2.5-Coder-32B已成为当前最先进的开源代码大型语言模型,其编码能力与GPT-4o相匹配。此外,Qwen2.5-Coder-3B还为现实世界的应用提供了更全面的基础,如代码代理,不仅增强了编码能力,还保持了在数学和通用能力方面的优势。
专为软件改进设计的开源大型语言模型。
Lingma SWE-GPT是一个开源的大型语言模型,专注于软件工程领域的任务,旨在提供智能化的开发支持。该模型基于Qwen系列基础模型,经过额外训练以增强其在复杂软件工程任务中的能力。它在软件工程智能代理的权威排行榜上表现出色,适合需要自动化软件改进的开发团队和研究人员。
业界领先的开源大型混合专家模型
Tencent-Hunyuan-Large(混元大模型)是由腾讯推出的业界领先的开源大型混合专家(MoE)模型,拥有3890亿总参数和520亿激活参数。该模型在自然语言处理、计算机视觉和科学任务等领域取得了显著进展,特别是在处理长上下文输入和提升长上下文任务处理能力方面表现出色。混元大模型的开源,旨在激发更多研究者的创新灵感,共同推动AI技术的进步和应用。
开源人工智能定义,推动AI领域的开放与合作
Open Source AI Definition(OSAID)是由Open Source Initiative(OSI)发布的行业首个开源人工智能定义。它提供了一个标准,通过社区领导的开放和公共评估来验证一个AI系统是否可以被认为是开源AI。OSAID v1.0的发布是多年研究和合作的结果,经过国际研讨会和为期一年的共同设计过程。这个定义要求开源模型提供足够的训练数据信息,以便熟练的人可以使用相同或类似的数据重建一个大致等效的系统。OSAID的发布对于推动AI领域的开放性、透明度和合作具有重要意义,它强调了开源原则在AI发展中的核心地位,并为独立机器学习研究人员和大型AI开发者之间的透明度提供了支持。
超轻量级数字人模型,移动端实时运行
Ultralight-Digital-Human是一个超轻量级的数字人模型,可以在移动端实时运行。这个模型是开源的,据开发者所知,它是第一个如此轻量级的开源数字人模型。该模型的主要优点包括轻量级设计,适合移动端部署,以及实时运行的能力。它的背后是深度学习技术,特别是在人脸合成和声音模拟方面的应用,这使得数字人模型能够以较低的资源消耗实现高质量的表现。产品目前是免费的,主要面向技术爱好者和开发者。
全栈开源机器人
智元灵犀X1是一款开源人形机器人,具有29个关节和2个夹爪,支持扩展头部3自由度。它提供了详细的开发指南和开源代码,使开发者能够快速搭建并进行二次开发。该产品代表了智能机器人领域的先进技术,具有高度的灵活性和可扩展性,适用于教育、研究和商业开发等多种场景。
开源视频生成模型
genmoai/models 是一个开源的视频生成模型,代表了视频生成技术的最新进展。该模型名为 Mochi 1,是一个基于 Asymmetric Diffusion Transformer (AsymmDiT) 架构的10亿参数扩散模型,从零开始训练,是迄今为止公开发布的最大的视频生成模型。它具有高保真运动和强提示遵循性,显著缩小了封闭和开放视频生成系统之间的差距。该模型在 Apache 2.0 许可下发布,用户可以在 Genmo 的 playground 上免费试用此模型。
行业领先的面部操作平台
FaceFusion Labs 是一个专注于面部操作的领先平台,它利用先进的技术来实现面部特征的融合和操作。该平台主要优点包括高精度的面部识别和融合能力,以及对开发者友好的API接口。FaceFusion Labs 背景信息显示,它在2024年10月15日进行了初始提交,由Henry Ruhs主导开发。产品定位为开源项目,鼓励社区贡献和协作。
与您的PDF文件进行对话
PDFtoChat是一个允许用户与PDF文件进行对话的平台。它通过AI技术分析PDF内容,让用户能够以提问的方式获取信息,极大地提高了处理文档的效率。该产品背景信息显示,它是由Together AI和Mixtral提供支持的,并且是开源的,源代码可在GitHub上找到。PDFtoChat的主要优点包括免费使用、易于上手、能够处理复杂的文档内容,并且支持开源社区的贡献。
将任何PDF转换为播客集!
Open NotebookLM是一个利用开源语言模型和文本到语音模型的工具,它可以处理PDF内容,生成适合音频播客的自然对话,并将其输出为MP3文件。该项目的灵感来自于NotebookLM工具,通过使用开源的大型语言模型(LLMs)和文本到语音模型来实现。它不仅提高了信息的可访问性,还为内容创作者提供了一种新的媒体形式,使他们能够将书面内容转换为音频格式,扩大其受众范围。
前沿级多模态大型语言模型,实现视觉-语言任务的先进性能。
NVLM 1.0是一系列前沿级的多模态大型语言模型(LLMs),在视觉-语言任务上取得了与领先专有模型和开放访问模型相媲美的先进成果。值得注意的是,NVLM 1.0在多模态训练后,其文本性能甚至超过了其LLM主干模型。我们为社区开源了模型权重和代码。
开源的专家混合语言模型,具有1.3亿活跃参数。
OLMoE是一个完全开放的、最先进的专家混合模型,具有1.3亿活跃参数和6.9亿总参数。该模型的所有数据、代码和日志都已发布。它提供了论文'OLMoE: Open Mixture-of-Experts Language Models'的所有资源概览。该模型在预训练、微调、适应和评估方面都具有重要应用,是自然语言处理领域的一个里程碑。
高效编码的开源大型语言模型
Yi-Coder是一系列开源的代码大型语言模型(LLMs),在少于100亿参数的情况下提供最先进的编码性能。它有两种尺寸—1.5B和9B参数—提供基础和聊天版本,旨在高效推理和灵活训练。Yi-Coder-9B在GitHub的代码库级别代码语料库和从CommonCrawl筛选的代码相关数据上,额外训练了2.4万亿高质量token。Yi-Coder在多种编程任务中表现出色,包括基础和竞技编程、代码编辑和仓库级完成、长上下文理解以及数学推理。
一个用于与ChatGPT模型交互的提示集合
Awesome ChatGPT Prompts是一个开源仓库,收集了用于与ChatGPT模型交互的提示示例。这个仓库鼓励用户添加自己的提示,并使用ChatGPT生成新的提示。
RWKV v6 Finch 14B,开源大模型,高效处理长文本。
RWKV v6 Finch 14B是RWKV架构的第六个版本,也是该系列中最大的模型。它通过引入数据依赖性到token shift和time-mixing中,提高了处理长文本时的效率。Finch 14B模型在处理提示时,能够更好地管理其长期记忆,从而提供更广泛的应用范围。该模型是开源的,由Linux Foundation认可,并且接受社区的GPU集群时间捐赠以支持训练。
小型语言模型,提供高准确度的AI能力。
Mistral-NeMo-Minitron 8B是由NVIDIA发布的小型语言模型,它是Mistral NeMo 12B模型的精简版,能够在保持高准确度的同时,提供计算效率,使其能够在GPU加速的数据中心、云和工作站上运行。该模型通过NVIDIA NeMo平台进行定制开发,结合了剪枝和蒸馏两种AI优化方法,以降低计算成本的同时提供与原始模型相当的准确度。
低代码工具,快速构建和协调多智能体团队
Tribe AI是一个低代码工具,它利用langgraph框架,让用户能够轻松自定义和协调智能体团队。通过将复杂任务分配给擅长不同领域的智能体,每个智能体可以专注于其最擅长的工作,从而更快更好地解决问题。
开源的多语言代码生成模型
CodeGeeX4-ALL-9B是CodeGeeX4系列模型的最新开源版本,基于GLM-4-9B持续训练,显著提升了代码生成能力。它支持代码补全、生成、代码解释、网页搜索、函数调用、代码问答等功能,覆盖软件开发的多个场景。在公共基准测试如BigCodeBench和NaturalCodeBench上表现优异,是参数少于10亿的最强代码生成模型,实现了推理速度与模型性能的最佳平衡。
探索大脑智能的AI项目
Thousand Brains Project是由Jeff Hawkins和Numenta公司发起,旨在通过理解大脑新皮层的工作原理来开发新型的人工智能系统。该项目基于Thousand Brains Theory of Intelligence,提出了与传统AI系统根本不同的大脑工作原理。项目的目标是构建一种高效且强大的智能系统,能够实现人类所具备的智能能力。Numenta公司开放了其研究资源,包括会议记录、代码开源,并建立了一个围绕其算法的大型社区。该项目得到了盖茨基金会等的资金支持,并鼓励全球研究人员参与或加入这一激动人心的项目。
轻量级大语言模型,专注于文本生成。
Index-1.9B-Pure是Index系列模型中的轻量版本,专为文本生成而设计。它在2.8T的中英文语料上进行了预训练,与同等级模型相比,在多个评测基准上表现领先。该模型特别过滤了所有指令相关数据,以验证指令对benchmark的影响,适用于需要高质量文本生成的领域。
开源视觉-语言-动作模型,推动机器人操作技术发展。
OpenVLA是一个具有7亿参数的开源视觉-语言-动作(VLA)模型,通过在Open X-Embodiment数据集上的970k机器人剧集进行预训练。该模型在通用机器人操作策略上设定了新的行业标准,支持开箱即用控制多个机器人,并且可以通过参数高效的微调快速适应新的机器人设置。OpenVLA的检查点和PyTorch训练流程完全开源,模型可以从HuggingFace下载并进行微调。
基于大规模数据的高质量信息抽取模型
雅意信息抽取大模型(YAYI-UIE)由中科闻歌算法团队研发,是一款在百万级人工构造的高质量信息抽取数据上进行指令微调的模型。它能够统一训练信息抽取任务,包括命名实体识别(NER)、关系抽取(RE)和事件抽取(EE),覆盖了通用、安全、金融、生物、医疗、商业等多个场景的结构化抽取。该模型的开源旨在促进中文预训练大模型开源社区的发展,并通过开源共建雅意大模型生态。
一个完全开源的大型语言模型,提供先进的自然语言处理能力。
MAP-NEO是一个完全开源的大型语言模型,它包括预训练数据、数据处理管道(Matrix)、预训练脚本和对齐代码。该模型从零开始训练,使用了4.5T的英文和中文token,展现出与LLaMA2 7B相当的性能。MAP-NEO在推理、数学和编码等具有挑战性的任务中表现出色,超越了同等规模的模型。为了研究目的,我们致力于实现LLM训练过程的完全透明度,因此我们全面发布了MAP-NEO,包括最终和中间检查点、自训练的分词器、预训练语料库以及高效稳定的优化预训练代码库。
下一代本地优先的大型语言模型(LLMs)
anime.gf 是由 moecorp 发起的下一代本地优先的大型语言模型(LLMs),目前正处于积极开发阶段。它代表了一种新兴的本地化和开源的人工智能技术,旨在提供更高效、更个性化的用户体验。
一款面向高质量长视频生成的实验性框架,具有扩展序列长度和增强动态特性。
Mira(Mini-Sora)是一个实验性的项目,旨在探索高质量、长时视频生成领域,特别是在模仿Sora风格的视频生成方面。它在现有文本到视频(T2V)生成框架的基础上,通过以下几个关键方面实现突破:扩展序列长度、增强动态特性以及保持3D一致性。目前,Mira项目处于实验阶段,与Sora等更高级的视频生成技术相比,仍有提升空间。
一个开源的聊天机器人,能够解释概念、写诗、编程、解逻辑谜题。
Chat With Llama 3 是一个开源的聊天机器人,由Meta AI开发。它能够进行多种智能对话,包括解释复杂概念、创作诗歌、编写代码、解决逻辑谜题,甚至帮助用户给宠物起名。这个聊天机器人的主要优点在于它的多功能性和开源性,使其可以被广泛地应用于各种场景,并且可以根据需要进行定制和改进。
基于Java的全能视觉智能识别项目
JavaVision是一个基于Java开发的全能视觉智能识别项目,它不仅实现了PaddleOCR-V4、YoloV8物体识别、人脸识别、以图搜图等核心功能,还可以轻松扩展到其他领域,如语音识别、动物识别、安防检查等。项目特点包括使用SpringBoot框架、多功能性、高性能、可靠稳定、易于集成和灵活可拓展。JavaVision旨在为Java开发者提供一个全面的视觉智能识别解决方案,让他们能够以熟悉且喜爱的编程语言构建出先进、可靠且易于集成的AI应用。
© 2024 AIbase 备案号:闽ICP备08105208号-14