浏览量:35
最新流量情况
月访问量
22216.76k
平均访问时长
00:04:50
每次访问页数
5.52
跳出率
47.80%
流量来源
直接访问
46.24%
自然搜索
30.97%
邮件
0.78%
外链引荐
13.53%
社交媒体
8.45%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
15.26%
美国
13.36%
印度
6.45%
俄罗斯
3.91%
法国
3.77%
下一代开源和双语大型语言模型
Yi-9B是01.AI研发的下一代开源双语大型语言模型系列之一。训练数据量达3T,展现出强大的语言理解、常识推理、阅读理解等能力。在代码、数学、常识推理和阅读理解等方面表现卓越,是同尺寸开源模型中的佼佼者。适用于个人、学术和商业用途。
东南亚地区定制的开放语言模型
Sailor是一套专为东南亚地区定制的开放语言模型,支持印尼语、泰语、越南语、马来语和老挝语等。这些模型通过精心的数据策划,旨在理解和生成东南亚地区多样化的语言文本。Sailor模型基于Qwen 1.5构建,包含从0.5B到7B不同大小的模型版本,以满足不同需求。在东南亚语言的任务中,如问答、常识推理、阅读理解等,Sailor展现出强大的性能。
一款高效经济的语言模型,具有强大的专家混合特性。
DeepSeek-V2是一个由236B参数构成的混合专家(MoE)语言模型,它在保持经济训练和高效推理的同时,激活每个token的21B参数。与前代DeepSeek 67B相比,DeepSeek-V2在性能上更强,同时节省了42.5%的训练成本,减少了93.3%的KV缓存,并提升了最大生成吞吐量至5.76倍。该模型在8.1万亿token的高质量语料库上进行了预训练,并通过监督式微调(SFT)和强化学习(RL)进一步优化,使其在标准基准测试和开放式生成评估中表现出色。
高效的企业级人工智能模型,低成本实现高质量定制模型。
Snowflake Arctic 是一款专为企业级人工智能任务设计的大规模语言模型(LLM),它在 SQL 生成、编码以及指令遵循等基准测试中表现出色,即使与计算预算更高的开源模型相比也毫不逊色。Arctic 通过其高效的训练和推理,为 Snowflake 客户以及广大 AI 社区提供了一种成本效益极高的定制模型创建方式。此外,Arctic 采用 Apache 2.0 许可,提供无门槛的权重和代码访问,并通过开源数据配方和研究洞察,进一步推动了社区的开放性和成本效益。
Meta 新一代开源大型语言模型,性能卓越
Meta Llama 3是Meta公司推出的新一代开源大型语言模型,性能卓越,在多项行业基准测试中表现出色。它可支持广泛的使用场景,包括改善推理能力等新功能。该模型将在未来支持多语种、多模态,提供更长的上下文窗口和整体性能提升。Llama 3秉承开放理念,将被部署在主要云服务、托管和硬件平台上,供开发者和社区使用。
分析Transformer语言模型的内部工作机制
LLM Transparency Tool(LLM-TT)是一个开源的交互式工具包,用于分析基于Transformer的语言模型的内部工作机制。它允许用户选择模型、添加提示并运行推理,通过可视化的方式展示模型的注意力流动和信息传递路径。该工具旨在提高模型的透明度,帮助研究人员和开发者更好地理解和改进语言模型。
以低成本实现高性能的大型语言模型
JetMoE-8B是一个开源的大型语言模型,通过使用公共数据集和优化的训练方法,以低于10万美元的成本实现了超越Meta AI LLaMA2-7B的性能。该模型在推理时仅激活22亿参数,大幅降低了计算成本,同时保持了优异的性能。
强大的多模态LLM,商业解决方案
Reka Core是一个GPT-4级别的多模态大型语言模型(LLM),具备图像、视频和音频的强大上下文理解能力。它是目前市场上仅有的两个商用综合多模态解决方案之一。Core在多模态理解、推理能力、编码和Agent工作流程、多语言支持以及部署灵活性方面表现出色。
领先的代码生成大语言模型
CodeGemma是谷歌公司推出的先进大语言模型,专注于生成代码、理解和追踪指令,旨在为全球开发人员提供高质量的代码辅助工具。包括20亿参数的基础模型,70亿参数的基础模型和用于指导追踪的70亿参数模型,针对代码开发场景进行优化和微调。在各种编程语言中表现卓越,具有超凡的逻辑和数学推理能力。
谷歌开源的大型语言模型,能够生成高质量的文本内容
RecurrentGemma是谷歌开发的一系列开放语言模型,采用创新的循环架构设计,在文本生成任务上性能优异,包括问答、摘要和推理等。与Gemma模型相比,RecurrentGemma所需的内存更少,生成长序列的推理速度更快。该模型提供了预训练和针对指令的微调版本,可广泛应用于内容创作、对话AI等场景。
Octopus-V2-2B是一款在移动设备上运行的2B LLMs,性能优于GPT-4
Octopus-V2-2B是由斯坦福大学NexaAI开发的开源大型语言模型,具有20亿参数,专门为Android API的功能调用定制。它采用了独特的功能性标记策略,用于训练和推理阶段,使其达到与GPT-4相当的性能水平,并提高了推理速度。Octopus-V2-2B特别适合边缘计算设备,能够在设备上直接运行,支持广泛的应用场景。
支持同时理解和生成图像的多模态大型语言模型
Mini-Gemini是一个多模态视觉语言模型,支持从2B到34B的系列密集和MoE大型语言模型,同时具备图像理解、推理和生成能力。它基于LLaVA构建,利用双视觉编码器提供低分辨率视觉嵌入和高分辨率候选区域,采用补丁信息挖掘在高分辨率区域和低分辨率视觉查询之间进行补丁级挖掘,将文本与图像融合用于理解和生成任务。支持包括COCO、GQA、OCR-VQA、VisualGenome等多个视觉理解基准测试。
大规模MoE语言模型,性能媲美七十亿参数模型
Qwen1.5-MoE-A2.7B是一款大规模的MoE(Mixture of Experts)语言模型,仅有27亿个激活参数,但性能可与70亿参数模型相媲美。相比传统大模型,该模型训练成本降低75%,推理速度提高1.74倍。它采用特别的MoE架构设计,包括细粒度专家、新的初始化方法和路由机制等,大幅提升了模型效率。该模型可用于自然语言处理、代码生成等多种任务。
基于大语言模型的问答系统,可回答各种问题
Search4All是一个基于大语言模型的问答系统。它可以回答各种问题,包括事实性问题、解释性问题、分析问题等。该系统使用先进的自然语言处理技术,能够深入理解问题的含义并给出准确的答复。它具有广泛的知识储备,涵盖了历史、地理、科学、艺术、体育等多个领域。同时,它还具备一定的推理和分析能力,可以对复杂问题进行逻辑分析和建议性回答。使用Search4All可以帮助用户快速获取所需信息,提高工作效率。
Grok-1.5带有改进的推理能力和128,000个标记的上下文长度。
Grok-1.5是一种先进的大型语言模型,具有出色的长文本理解和推理能力。它可以处理高达128,000个标记的长上下文,远超以前模型的能力。在数学和编码等任务中,Grok-1.5表现出色,在多个公认的基准测试中获得了极高的分数。该模型建立在强大的分布式训练框架之上,确保高效和可靠的训练过程。Grok-1.5旨在为用户提供强大的语言理解和生成能力,助力各种复杂的语言任务。
突破性SSM-Transformer开放模型
Jamba是一款基于SSM-Transformer混合架构的开放语言模型,提供顶级的质量和性能表现。它融合了Transformer和SSM架构的优势,在推理基准测试中表现出色,同时在长上下文场景下提供3倍的吞吐量提升。Jamba是目前该规模下唯一可在单GPU上支持14万字符上下文的模型,成本效益极高。作为基础模型,Jamba旨在供开发者微调、训练并构建定制化解决方案。
一个新的高效开源大型语言模型标准
DBRX是一个由Databricks的Mosaic研究团队构建的通用大型语言模型(LLM),在标准基准测试中表现优于所有现有开源模型。它采用Mixture-of-Experts (MoE)架构,使用362亿个参数,拥有出色的语言理解、编程、数学和逻辑推理能力。DBRX旨在推动高质量开源LLM的发展,并且便于企业根据自身数据对模型进行定制。Databricks为企业用户提供了交互式使用DBRX、利用其长上下文能力构建检索增强系统,并基于自身数据构建定制DBRX模型的能力。
苹果发布多模态LLM模型MM1
苹果发布了自己的大语言模型MM1,这是一个最高有30B规模的多模态LLM。通过预训练和SFT,MM1模型在多个基准测试中取得了SOTA性能,展现了上下文内预测、多图像推理和少样本学习能力等吸引人的特性。
新一代开源大型语言模型,性能卓越
Meta Llama 3是Meta公司推出的新一代开源大型语言模型,性能卓越,在多项行业基准测试中表现出色。它可支持广泛的使用场景,包括改善推理能力等新功能。该模型将在未来支持多语种、多模态,提供更长的上下文窗口和整体性能提升。Llama 3秉承开放理念,将被部署在主要云服务、托管和硬件平台上,供开发者和社区使用。
Mistral Large是Mistral AI的旗舰模型,具有顶级推理能力。
Mistral Large是Mistral AI团队最新推出的旗舰语言模型,具有顶级推理能力。它可用于复杂的多语言推理任务,包括文本理解、转换和代码生成。该模型在常用基准测试中取得了强大的成绩,是继GPT-4之后全球第二大可通过API进行使用的模型。
将LLM上下文窗口扩展至200万令牌的技术
LongRoPE是微软推出的技术,可以将预训练大型语言模型(LLM)的上下文窗口扩展到2048k(200万)令牌,实现从短上下文到长上下文的扩展,降低训练成本和时间,同时保持原有短上下文窗口性能。适用于提高语言模型在长文本上的理解和生成能力,提升机器阅读理解、文本摘要和长篇文章生成等任务。
谷歌推出的开源预训练语言模型
Gemma-2b是谷歌推出的开源预训练语言模型系列,提供了多个不同规模的变体。它可以生成高质量的文本,广泛应用于问答、摘要、推理等领域。相比其他同类模型,它模型规模较小,可以部署在不同的硬件环境中。Gemma系列追求安全、高效的人工智能技术,使更多研究者和开发者可以接触前沿的语言模型技术。
给视觉语言模型赋予空间推理能力
SpatialVLM是一个由谷歌DeepMind开发的视觉语言模型,能够对空间关系进行理解和推理。它通过大规模合成数据的训练,获得了像人类一样直观地进行定量空间推理的能力。这不仅提高了其在空间VQA任务上的表现,还为链式空间推理和机器人控制等下游任务打开了新的可能。
人类启发式阅读代理,具有非常长上下文的要点记忆
ReadAgent是一个简单的提示系统,它利用大型语言模型(LLM)的先进语言能力来决定将哪些内容存储在记忆集中,将这些记忆集压缩成称为要点记忆的短篇回忆,并在ReadAgent需要提醒自己相关细节以完成任务时,采取行动查阅原始文本。ReadAgent可以通过使用要点记忆来捕获全局上下文,并关注局部细节,从而有效地推理非常长的上下文,在需要一次处理的信息量方面具有高效性,这对理解也很重要。
基于大规模视觉-语言模型的专家混合模型
MoE-LLaVA是一种基于大规模视觉-语言模型的专家混合模型,展现出在多模态学习中出色的性能。其具有较少的参数,但表现出较高的性能,并且可以在短时间内完成训练。该模型支持Gradio Web UI和CLI推理,并提供模型库、需求和安装、训练和验证、自定义、可视化、API等功能。
通用型视觉语言模型
Qwen-VL 是阿里云推出的通用型视觉语言模型,具有强大的视觉理解和多模态推理能力。它支持零样本图像描述、视觉问答、文本理解、图像地标定位等任务,在多个视觉基准测试中达到或超过当前最优水平。该模型采用 Transformer 结构,以 7B 参数规模进行预训练,支持 448x448 分辨率,可以端到端处理图像与文本的多模态输入与输出。Qwen-VL 的优势包括通用性强、支持多语种、细粒度理解等。它可以广泛应用于图像理解、视觉问答、图像标注、图文生成等任务。
高效为大型语言模型提供服务
FP6-LLM是一种用于大型语言模型的全新支持方案,通过六位量化(FP6)有效地减小了模型大小,并在各种应用中始终保持模型质量。我们提出了TC-FPx,这是第一个完整的GPU内核设计方案,统一支持各种量化位宽的浮点权重。我们将TC-FPx内核集成到现有推理系统中,为量化的LLM推理提供了全新的端到端支持(称为FP6-LLM),实现了推理成本和模型质量之间更好的权衡。实验证明,FP6-LLM使得使用单个GPU进行LLaMA-70b推理成为可能,实现的规范化推理吞吐量比FP16基准高1.69倍至2.65倍。
多模态语言模型预测网络
Honeybee是一个适用于多模态语言模型的局部性增强预测器。它能够提高多模态语言模型在不同下游任务上的性能,如自然语言推理、视觉问答等。Honeybee的优势在于引入了局部性感知机制,可以更好地建模输入样本之间的依赖关系,从而增强多模态语言模型的推理和问答能力。
© 2024 AIbase 备案号:闽ICP备2023012347号-1