需求人群:
"研究人员和开发者分析和理解语言模型"
使用场景示例:
研究人员使用LLM-TT分析特定语言模型的注意力分布
开发者通过LLM-TT调整模型参数以改善性能
教育工作者利用LLM-TT向学生展示语言模型的工作原理
产品特色:
选择模型和提示进行推理
浏览贡献图
选择令牌以构建图表
调整贡献阈值
选择任何令牌在任何块之后的表示
查看输出词汇表中的表示,以及前一个块中哪些令牌被提升/抑制
浏览量:42
新一代大模型架构,超越 Transformer。
RWKV 是一种革新的深度学习架构,结合了 RNN 和 Transformer 的最佳特性。它提供出色的性能,快速的推理和训练,并且不依赖自注意力机制,节省 VRAM,支持 ' 无限 ' 的上下文长度。RWKV 在多个语言和编码中表现出色,成为全球开发者的热门选择,推动了开源大语言模型的进步。
Gemma 2B模型,支持10M序列长度,优化内存使用,适用于大规模语言模型应用。
Gemma 2B - 10M Context是一个大规模的语言模型,它通过创新的注意力机制优化,能够在内存使用低于32GB的情况下处理长达10M的序列。该模型采用了循环局部注意力技术,灵感来源于Transformer-XL论文,是处理大规模语言任务的强大工具。
多语言大型语言模型,优化对话和文本生成。
Meta Llama 3.1是一系列预训练和指令调整的多语言大型语言模型(LLMs),包含8B、70B和405B三种大小的模型,专门针对多语言对话使用案例进行了优化,并在行业基准测试中表现优异。该模型使用优化的transformer架构,并通过监督式微调(SFT)和人类反馈的强化学习(RLHF)进一步与人类偏好对齐,以确保其有用性和安全性。
70亿参数的大型多语言对话生成模型
Meta Llama 3.1是Meta公司推出的一种大型语言模型,拥有70亿参数,支持8种语言的文本生成和对话。该模型使用优化的Transformer架构,并通过监督微调(SFT)和人类反馈强化学习(RLHF)进行调优,以符合人类对有用性和安全性的偏好。它旨在为商业和研究用途提供支持,特别是在多语言对话场景下表现出色。
8B参数的大型多语言生成模型
Meta Llama 3.1是一系列预训练和指令调整的多语言大型语言模型(LLMs),包含8B、70B和405B大小的版本,支持8种语言,专为多语言对话用例优化,并在行业基准测试中表现优异。Llama 3.1模型采用自回归语言模型,使用优化的Transformer架构,并通过监督式微调(SFT)和强化学习结合人类反馈(RLHF)来提高模型的有用性和安全性。
一款专注于代码生成的高级语言模型
Codestral Mamba是Mistral AI团队发布的专注于代码生成的语言模型,它基于Mamba2架构,拥有线性时间推理的优势和理论上无限序列建模的能力。该模型经过专业训练,具备高级代码和推理能力,能够与当前最先进的基于Transformer的模型相媲美。
加速长上下文大型语言模型的推理过程
MInference是一个针对长上下文大型语言模型(LLMs)的推理加速框架。它利用了LLMs注意力机制中的动态稀疏特性,通过静态模式识别和在线稀疏索引近似计算,显著提升了预填充(pre-filling)的速度,实现了在单个A100 GPU上处理1M上下文的10倍加速,同时保持了推理的准确性。
大型视频语言模型,提供视觉问答和视频字幕生成。
VideoLLaMA2-7B-Base 是由 DAMO-NLP-SG 开发的大型视频语言模型,专注于视频内容的理解与生成。该模型在视觉问答和视频字幕生成方面展现出卓越的性能,通过先进的空间时间建模和音频理解能力,为用户提供了一种新的视频内容分析工具。它基于 Transformer 架构,能够处理多模态数据,结合文本和视觉信息,生成准确且富有洞察力的输出。
实时表情生成人类模型
PROTEUS是Apparate Labs推出的一款下一代基础模型,用于实时表情生成人类。它采用先进的transformer架构的潜在扩散模型,创新的潜在空间设计实现了实时效率,并能通过进一步的架构和算法改进,达到每秒100帧以上视频流。PROTEUS旨在提供一种通过语音控制的视觉体现,为人工对话实体提供直观的接口,并且与多种大型语言模型兼容,可定制用于多种不同应用。
高效的分布式数据并行框架,专为大型语言模型设计。
YaFSDP是一个分布式数据并行框架,专为与transformer类神经网络结构良好协作而设计。它在预训练大型语言模型(Large Language Models, LLMs)时比传统的FSDP快20%,并且在高内存压力条件下表现更佳。YaFSDP旨在减少通信和内存操作的开销。
强大的结构化文本生成工具
Outlines是一个用于生成结构化文本的开源库,它支持多种模型集成,如OpenAI、transformers等,并提供了基于Jinja模板引擎的简单而强大的提示原语。它通过多种方式控制语言模型的生成,使输出更加可预测,从而提高模型效率并减少所需的示例数量。Outlines是提高包含大型语言模型的系统可靠性的第一步,通过确保模型输出与用户定义的代码之间有明确定义的接口。
基于扩散模型的文本到音频生成技术
Make-An-Audio 2是一种基于扩散模型的文本到音频生成技术,由浙江大学、字节跳动和香港中文大学的研究人员共同开发。该技术通过使用预训练的大型语言模型(LLMs)解析文本,优化了语义对齐和时间一致性,提高了生成音频的质量。它还设计了基于前馈Transformer的扩散去噪器,以改善变长音频生成的性能,并增强时间信息的提取。此外,通过使用LLMs将大量音频标签数据转换为音频文本数据集,解决了时间数据稀缺的问题。
从零开始实现Llama3模型
这是一个开源项目,作者naklecha从零开始实现了Llama3模型,这是一个大型语言模型。项目提供了详细的代码实现,包括模型的各个组成部分,如注意力机制、前馈网络等。通过这个项目,开发者可以深入理解大型语言模型的工作原理,同时也可以在此基础上进行自己的实验和改进。
使用Kolmogorov-Arnold网络实现的预训练生成式变换器(GPTs)的语言模型
kan-gpt是一个基于PyTorch的Generative Pre-trained Transformers (GPTs) 实现,它利用Kolmogorov-Arnold Networks (KANs) 进行语言建模。该模型在文本生成任务中展现出了潜力,特别是在处理长距离依赖关系时。它的重要性在于为自然语言处理领域提供了一种新的模型架构,有助于提升语言模型的性能。
一款私人且离线的AI个人知识管理桌面应用
Reor是一个AI驱动的桌面笔记应用,它通过自动链接相关笔记、回答笔记上的问题、提供语义搜索以及生成AI闪卡来增强个人的知识管理。所有数据本地存储,支持类似Obsidian的Markdown编辑器。Reor项目的核心假设是,思考工具的AI模型应默认在本地运行。它利用了Ollama、Transformers.js和LanceDB等技术,使得大型语言模型(LLM)和嵌入模型能够在本地运行。同时,也支持连接到OpenAI或兼容的API,如Oobabooga。
扩展Transformer模型处理无限长输入
Google开发的“Infini-attention”技术旨在扩展基于Transformer的大语言模型以处理无限长的输入,通过压缩记忆机制实现无限长输入处理,并在多个长序列任务上取得优异表现。技术方法包括压缩记忆机制、局部与长期注意力的结合和流式处理能力等。实验结果显示在长上下文语言建模、密钥上下文块检索和书籍摘要任务上的性能优势。
基于 Transformer 的预训练语言模型系列
Qwen1.5 是基于 Transformer 架构的解码器语言模型系列,包括不同规模的模型。具有 SwiGLU 激活、注意力 QKV 偏置、组查询注意力等特性。支持多种自然语言和代码。推荐进行后续训练,如 SFT、RLHF 等。定价免费。
突破性SSM-Transformer开放模型
Jamba是一款基于SSM-Transformer混合架构的开放语言模型,提供顶级的质量和性能表现。它融合了Transformer和SSM架构的优势,在推理基准测试中表现出色,同时在长上下文场景下提供3倍的吞吐量提升。Jamba是目前该规模下唯一可在单GPU上支持14万字符上下文的模型,成本效益极高。作为基础模型,Jamba旨在供开发者微调、训练并构建定制化解决方案。
HyperGAI推出的创新多模态LLM框架,旨在理解和处理文本、图像、视频等多种输入模态
HPT(Hyper-Pretrained Transformers)是HyperGAI研究团队推出的新型多模态大型语言模型框架,它能够高效且可扩展地训练大型多模态基础模型,理解包括文本、图像、视频等多种输入模态。HPT框架可以从头开始训练,也可以通过现有的预训练视觉编码器和/或大型语言模型进行高效适配。
开源自然语言生成模型
OLMo是一个开源的自然语言生成模型,由Allen AI研究所开发,基于Transformer架构,可用于生成高质量的英文文本。它具有生成长度可达4096个token的长文本的能力。OLMo-7B是目前公开的参数量最大的开源英文语言模型之一,拥有69亿参数,在多个英文NLP任务上的表现优于同类模型。它可用于文本生成、任务导向的微调等多种自然语言处理任务。
通用型视觉语言模型
Qwen-VL 是阿里云推出的通用型视觉语言模型,具有强大的视觉理解和多模态推理能力。它支持零样本图像描述、视觉问答、文本理解、图像地标定位等任务,在多个视觉基准测试中达到或超过当前最优水平。该模型采用 Transformer 结构,以 7B 参数规模进行预训练,支持 448x448 分辨率,可以端到端处理图像与文本的多模态输入与输出。Qwen-VL 的优势包括通用性强、支持多语种、细粒度理解等。它可以广泛应用于图像理解、视觉问答、图像标注、图文生成等任务。
多语言预训练语言模型
「书生·浦语2.0」InternLM2是一个面向中文和英文的大型多语言预训练语言模型。它具有语言理解、自然语言生成、多模式推理、代码理解等强大的能力。模型采用Transformer架构并进行海量数据的预训练,在长文本理解、对话、数学运算等多个方向上都达到了业界领先水平。该系列模型包含多种规模,用户可以选择合适的模型进行下游任务微调或构建聊天机器人等应用。
开源的中英双语预训练语言模型
LingoWhale-8B是一个开源的大规模中英双语预训练语言模型,具有强大的自然语言理解和生成能力。它通过在海量高质量中英文数据上进行预训练,可以完成长文本的理解和多轮交互。该模型采用Transformer架构,参数量达80亿。它在多个中文和英文公开基准测试上都取得了领先的效果。LingoWhale-8B完全开放给学术研究使用,个人开发者可以免费用于商业用途。该模型可以广泛应用于聊天机器人、知识问答、文本生成等领域。
大规模训练 Transformer 模型的持续研究
Megatron-LM 是由 NVIDIA 应用深度学习研究团队开发的一种强大的大规模 Transformer 模型。该产品用于大规模训练 Transformer 语言模型的持续研究。我们使用混合精度,高效的模型并行和数据并行,以及多节点的 Transformer 模型(如 GPT、BERT 和 T5)的预训练。
PaLI-3 视觉语言模型:更小、更快、更强
Pali3是一种视觉语言模型,通过对图像进行编码并与查询一起传递给编码器-解码器Transformer来生成所需的答案。该模型经过多个阶段的训练,包括单模态预训练、多模态训练、分辨率增加和任务专业化。Pali3的主要功能包括图像编码、文本编码、文本生成等。该模型适用于图像分类、图像字幕、视觉问答等任务。Pali3的优势在于模型结构简单、训练效果好、速度快。该产品定价为免费开源。
Flash-Decoding for long-context inference
Flash-Decoding是一种针对长上下文推理的技术,可以显著加速推理中的注意力机制,从而使生成速度提高8倍。该技术通过并行加载键和值,然后分别重新缩放和组合结果来维护正确的注意力输出,从而实现了更快的推理速度。Flash-Decoding适用于大型语言模型,可以处理长文档、长对话或整个代码库等长上下文。Flash-Decoding已经在FlashAttention包和xFormers中提供,可以自动选择Flash-Decoding或FlashAttention方法,也可以使用高效的Triton内核。
处理长文本的大型语言模型
LongLLaMA 是一个大型语言模型,能够处理长篇文本。它基于 OpenLLaMA,并使用 Focused Transformer (FoT) 方法进行了微调。它能够处理长达 256k 标记甚至更多的文本。我们提供了一个较小的 3B 基础模型(未经过指令调整),并在 Hugging Face 上提供了支持更长上下文的推断代码。我们的模型权重可以作为现有实现中 LLaMA 的替代品(适用于最多 2048 个标记的短上下文)。此外,我们还提供了评估结果和与原始 OpenLLaMA 模型的比较。
© 2024 AIbase 备案号:闽ICP备08105208号-14