需求人群:
"目标受众为人工智能领域的研究人员、开发者和学生,他们需要对小型语言模型有深入了解,以便于在资源受限的环境中部署高效的语言处理模型。SLM_Survey提供了丰富的数据和见解,帮助他们评估和选择最适合自己需求的模型。"
使用场景示例:
研究人员使用SLM_Survey提供的数据来比较不同小型语言模型的性能。
开发者利用该项目的分析结果来选择适合其应用场景的语言模型。
教育机构使用SLM_Survey作为教学材料,向学生介绍小型语言模型的最新研究进展。
产品特色:
调研59个最先进的开源小型语言模型(SLMs)。
分析SLMs在架构、训练数据集和训练算法方面的技术创新。
评估SLMs在常识推理、上下文学习、数学和编程等领域的能力。
基准测试SLMs的推理延迟和内存占用,以了解其运行时成本。
提供对SLMs研究领域的深入见解,以推动该领域的研究进展。
使用教程:
1. 访问SLM_Survey的GitHub页面,了解项目的基本信息和研究背景。
2. 阅读项目的README文件,获取如何使用该项目的指导。
3. 浏览项目的Issues和Discussions,了解当前的研究问题和讨论。
4. 下载项目的代码和数据,进行本地分析或作为研究的基础。
5. 利用项目的基准测试结果,评估不同SLMs的性能和效率。
6. 参考项目的分析方法,对新的小型语言模型进行评估和比较。
7. 参与项目的Contributors,为SLM领域的研究贡献自己的力量。
浏览量:25
最新流量情况
月访问量
4.92m
平均访问时长
00:06:33
每次访问页数
6.11
跳出率
36.20%
流量来源
直接访问
51.61%
自然搜索
33.46%
邮件
0.04%
外链引荐
12.58%
社交媒体
2.19%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
13.25%
德国
3.63%
印度
9.32%
俄罗斯
4.28%
美国
19.34%
小型语言模型调研、测量与洞察
SLM_Survey是一个专注于小型语言模型(SLMs)的研究项目,旨在通过调研和测量,提供对这些模型的深入了解和技术评估。该项目涵盖了基于Transformer的、仅解码器的语言模型,参数范围在100M至5B之间。通过对59个最先进的开源SLMs进行调研,分析了它们的技术创新,并在多个领域评估了它们的能力,包括常识推理、上下文学习、数学和编程。此外,还对它们的运行时成本进行了基准测试,包括推理延迟和内存占用。这些研究对于推动SLMs领域的研究具有重要价值。
Janus-Pro-1B 是一个统一多模态理解和生成的自回归框架。
Janus-Pro-1B 是一个创新的多模态模型,专注于统一多模态理解和生成。它通过分离视觉编码路径,解决了传统方法在理解和生成任务中的冲突问题,同时保持了单个统一的 Transformer 架构。这种设计不仅提高了模型的灵活性,还使其在多模态任务中表现出色,甚至超越了特定任务的模型。该模型基于 DeepSeek-LLM-1.5b-base/DeepSeek-LLM-7b-base 构建,使用 SigLIP-L 作为视觉编码器,支持 384x384 的图像输入,并采用特定的图像生成 tokenizer。其开源性和灵活性使其成为下一代多模态模型的有力候选。
1T开源多语言大型语言模型
Tele-FLM-1T是一个开源的1T多语言大型语言模型,基于解码器仅Transformer架构,经过约2T tokens的训练。该模型在规模上展现出卓越的性能,有时甚至超越了更大的模型。除了分享模型权重外,还提供了核心设计、工程实践和训练细节,期待对学术和工业社区都有所裨益。
高性能的开源代码模型
Mamba-Codestral-7B-v0.1 是 Mistral AI Team 开发的基于 Mamba2 架构的开源代码模型,性能与最先进的基于 Transformer 的代码模型相当。它在多个行业标准基准测试中表现出色,提供高效的代码生成和理解能力,适用于编程和软件开发领域。
谷歌推出的开源预训练语言模型
Gemma-2b是谷歌推出的开源预训练语言模型系列,提供了多个不同规模的变体。它可以生成高质量的文本,广泛应用于问答、摘要、推理等领域。相比其他同类模型,它模型规模较小,可以部署在不同的硬件环境中。Gemma系列追求安全、高效的人工智能技术,使更多研究者和开发者可以接触前沿的语言模型技术。
Lepton是一个开源的语言模型搜索平台
Lepton是一个开源的自然语言处理平台,提供语言理解、生成和推理能力。它采用Transformer模型架构,能够进行多轮对话、问答、文本生成等任务。Lepton具有高效、可扩展的特点,可以在多个领域部署使用。
个人化的 AI 记忆层,确保数据安全与隐私。
OpenMemory 是一个开放源代码的个人记忆层,为大型语言模型(LLMs)提供私密、可携带的记忆管理。它确保用户对自己的数据拥有完全的控制权,能够在构建 AI 应用程序时保持数据的安全性。此项目支持 Docker、Python 和 Node.js,适合开发者进行个性化的 AI 体验。OpenMemory 尤其适合希望在不泄露个人信息的情况下使用 AI 的用户。
开源的手机端 GUI 智能代理,支持中英文应用操作。
AgentCPM-GUI 是一款开源的手机端大型语言模型(LLM)代理,专为操作中英文应用程序而设计,能够根据用户的屏幕截图自动执行任务。其主要优点在于高效的 GUI 元素理解、增强的推理能力以及对中文应用的精准支持。此技术的开发背景是为了提升移动设备上智能代理的用户体验,特别是在复杂任务处理方面。该产品定位于提高移动端的生产力,适用于各类用户。
开源的 AI 研究助手,集成多种外部资源。
SurfSense 是一款开源的 AI 研究助手,它将多种外部资源(如搜索引擎、Slack、Notion 等)整合在一起,帮助用户高效地进行研究和信息管理。该产品支持多种文件格式的上传与搜索,具备自然语言交互能力,并能快速生成内容。SurfSense 旨在提升研究效率,适合对知识管理有高需求的用户。
Seed-Coder 是一个开源的 8B 代码大型语言模型系列。
Seed-Coder 是字节跳动 Seed 团队推出的开源代码大型语言模型系列,包含基础、指令和推理模型,旨在通过最小的人力投入,自主管理代码训练数据,从而显著提升编程能力。该模型在同类开源模型中表现优越,适合于各种编码任务,定位于推动开源 LLM 生态的发展,适用于研究和工业界。
一个社区驱动的深度研究框架,结合语言模型与多种工具。
DeerFlow 是一个深度研究框架,旨在结合语言模型与如网页搜索、爬虫及 Python 执行等专用工具,以推动深入研究工作。该项目源于开源社区,强调贡献回馈,具备多种灵活的功能,适合各类研究需求。
用于生成和推荐笔记的可检索大型语言模型。
NoteLLM 是一款专注于用户生成内容的可检索大型语言模型,旨在提升推荐系统的性能。通过将主题生成与嵌入生成相结合,NoteLLM 提高了对笔记内容的理解与处理能力。该模型采用了端到端的微调策略,适用于多模态输入,增强了在多样化内容领域的应用潜力。其重要性在于能够有效提升笔记推荐的准确性和用户体验,特别适用于小红书等 UGC 平台。
代理法官,用于自动评估任务和提供奖励信号。
Agent-as-a-Judge 是一种新型的自动化评估系统,旨在通过代理系统的互相评估来提高工作效率和质量。该产品能够显著减少评估时间和成本,同时提供持续的反馈信号,促进代理系统的自我改进。它被广泛应用于 AI 开发任务中,特别是在代码生成领域。该系统具备开源特性,便于开发者进行二次开发和定制。
一个模型上下文协议服务器,用于 Excel 文件操作。
Excel MCP Server 是一个无须安装 Microsoft Excel 即可操作 Excel 文件的服务器,用户可以创建、读取和修改 Excel 工作簿。该工具的主要优点在于它的易用性和灵活性,支持多种 Excel 功能,并可通过 AI 代理进行文件操作。此产品适合需要频繁处理 Excel 文件的用户,如数据分析师、财务人员等。此工具是开源的,使用 Python 开发,便于在本地或远程服务器上运行。
Ubicloud是一种开源云,可在任何地方运行,提供弹性计算、块存储、负载均衡器、防火墙、托管PostgreSQL和GitHub Actions运行器。
Ubicloud是一个开源云平台,可在任何地方运行。它提供弹性计算、块存储、负载均衡器、防火墙、托管PostgreSQL和GitHub Actions运行器。通过自托管软件或使用托管服务,可将云成本降低3-10倍。
Zarin是首个开源AI平台,集成了200多个热门和最新的AI多模型,可生成图片、视频、音频、代码、学术论文等。
Zarin是一个开源AI平台,汇聚了200多个热门和最新的AI多模型,为用户提供生成图片、视频、音频、代码、学术论文等功能。该平台的主要优点是打破了不同AI平台之间切换的障碍,使用户能够在一个平台上完成多种任务。Zarin的背景信息是由Ibrohim Abdivokhidov开发。
一个旨在推动人工智能民主化的开源项目。
DeepSeek-Prover-V2-671B 是一个先进的人工智能模型,旨在提供强大的推理能力。它基于最新的技术,适用于多种应用场景。该模型是开源的,旨在促进人工智能技术的民主化与普及,降低技术壁垒,使更多开发者和研究者能够利用 AI 技术进行创新。通过使用该模型,用户可以提升他们的工作效率,推动各类项目的进展。
F Lite 是一款 10B 参数的扩散模型,专注于合法和安全内容。
F Lite 是由 Freepik 和 Fal 开发的一个大型扩散模型,具有 100 亿个参数,专门训练于版权安全和适合工作环境 (SFW) 的内容。该模型基于 Freepik 的内部数据集,包含约 8000 万张合法合规的图像,标志着公开可用的模型在这一规模上首次专注于合法和安全的内容。它的技术报告提供了详细的模型信息,并且使用了 CreativeML Open RAIL-M 许可证进行分发。该模型的设计旨在推动人工智能的开放性和可用性。
Simular AI 提供开放源代码的智能 AI 代理,以自动化计算机任务。
Simular 是一款领先的开放源代码计算机使用代理,通过人类般的计算机操作来自动化多种数字任务,提升工作效率。该产品由来自 DeepMind、Google 和 Baidu 等顶尖 AI 研究机构的专家团队开发,旨在通过开放的代理框架实现透明且可控的业务集成。
一个统一的图像编辑模型,支持多种用户指令。
Step1X-Edit 是一种实用的通用图像编辑框架,利用 MLLMs 的图像理解能力解析编辑指令,生成编辑令牌,并通过 DiT 网络解码为图像。其重要性在于能够有效满足真实用户的编辑需求,提升了图像编辑的便捷性和灵活性。
一键部署和扩展您喜爱的开源应用,价格为主流云主机的一半。
RepoCloud是一个开源应用云市场,让用户能够轻松部署和扩展他们喜爱的开源应用。它提供一键部署功能,并且价格仅为主流云主机的一半,旨在降低用户的部署和运营成本。
Kimi-Audio 是一个开源音频基础模型,擅长音频理解与生成。
Kimi-Audio 是一个先进的开源音频基础模型,旨在处理多种音频处理任务,如语音识别和音频对话。该模型在超过 1300 万小时的多样化音频数据和文本数据上进行了大规模预训练,具有强大的音频推理和语言理解能力。它的主要优点包括优秀的性能和灵活性,适合研究人员和开发者进行音频相关的研究与开发。
一套用于 DevOps 面试准备的练习题和资源。
devops-exercises 是一个旨在帮助求职者准备 DevOps 面试的资源库。它包含了各种技术和工具的练习题,帮助用户提高自己的技能和面试表现。该项目是开源的,适合所有希望在 DevOps 领域发展的人员。它涵盖了包括 Docker、Kubernetes、AWS 等热门技术,适合初学者和有经验的专业人士。该项目的使用完全免费,促进了社区的学习与成长。
开放源代码的 8B 参数文本到图像扩散模型。
Flex.2 是当前最灵活的文本到图像扩散模型,具备内置的重绘和通用控制功能。它是一个开源项目,由社区支持,旨在推动人工智能的民主化。Flex.2 具备 8 亿参数,支持 512 个令牌长度输入,并符合 OSI 的 Apache 2.0 许可证。此模型可以在许多创意项目中提供强大的支持。用户可以通过反馈不断改善模型,推动技术进步。
一个可以在一次传递中生成超逼真的对话的 TTS 模型。
Dia 是一个由 Nari Labs 开发的文本到语音(TTS)模型,具有 1.6 亿参数,能够直接从文本生成高度逼真的对话。该模型支持情感和语调控制,并能够生成非言语交流,如笑声和咳嗽。它的预训练模型权重托管在 Hugging Face 上,适用于英语生成。此产品对于研究和教育用途至关重要,能够推动对话生成技术的发展。
开源的全能 AI 助手,帮助完成各种任务。
Suna 是一个开源的 AI 助手,通过自然对话帮助用户轻松完成研究、数据分析和日常挑战。它结合强大的功能与直观的界面,能够高效解决复杂问题并自动化工作流程。Suna 的工具包包括无缝的浏览器自动化、文件管理、网站部署和与多种 API 的集成。其功能强大且灵活,适用于各种用户需求。
一个高效的强化学习框架,用于训练推理和搜索引擎调用的语言模型。
Search-R1 是一个强化学习框架,旨在训练能够进行推理和调用搜索引擎的语言模型(LLMs)。它基于 veRL 构建,支持多种强化学习方法和不同的 LLM 架构,使得在工具增强的推理研究和开发中具备高效性和可扩展性。
一款现代、功能丰富的无数据库平面文件 Wiki 平台。
LeoMoon Wiki-Go 是一款快速、现代的平面文件 Wiki,使用 Go 语言构建。它专注于简单性和性能,支持 Markdown 格式,完全不依赖数据库,零维护。适合个人知识管理、团队协作及内部文档。
© 2025 AIbase 备案号:闽ICP备08105208号-14