需求人群:
["应用于基于Transformer的语言模型中","用作BERT等模型的分词器"]
使用场景示例:
用minbpe对文本进行BPE编码
使用minbpe实现自定义BPE分词器
minbpe可用于自己训练语言模型
产品特色:
实现BPE算法的训练
实现文本的BPE编码
实现BPE编码的文本解码
提供可保存和加载的功能
浏览量:46
最新流量情况
月访问量
4.67m
平均访问时长
00:07:27
每次访问页数
6.62
跳出率
37.89%
流量来源
直接访问
51.41%
自然搜索
29.45%
邮件
0.92%
外链引荐
11.72%
社交媒体
6.47%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
美国
16.52%
中国
14.70%
印度
9.14%
日本
3.64%
德国
3.30%
开源自然语言生成模型
OLMo是一个开源的自然语言生成模型,由Allen AI研究所开发,基于Transformer架构,可用于生成高质量的英文文本。它具有生成长度可达4096个token的长文本的能力。OLMo-7B是目前公开的参数量最大的开源英文语言模型之一,拥有69亿参数,在多个英文NLP任务上的表现优于同类模型。它可用于文本生成、任务导向的微调等多种自然语言处理任务。
用于可定制、生产就绪的 NLP 应用程序的 LLM 编排框架
Haystack 是一个端到端的自然语言处理框架,可以帮助您构建由 LLMs、Transformer 模型和向量搜索等驱动的应用。无论您想进行问答、答案生成、语义文档搜索,还是构建能够进行复杂决策和查询解决的工具,都可以使用 Haystack 的最先进的 NLP 模型来构建解决您的用例的端到端 NLP 应用。
使用Kolmogorov-Arnold网络实现的预训练生成式变换器(GPTs)的语言模型
kan-gpt是一个基于PyTorch的Generative Pre-trained Transformers (GPTs) 实现,它利用Kolmogorov-Arnold Networks (KANs) 进行语言建模。该模型在文本生成任务中展现出了潜力,特别是在处理长距离依赖关系时。它的重要性在于为自然语言处理领域提供了一种新的模型架构,有助于提升语言模型的性能。
一款私人且离线的AI个人知识管理桌面应用
Reor是一个AI驱动的桌面笔记应用,它通过自动链接相关笔记、回答笔记上的问题、提供语义搜索以及生成AI闪卡来增强个人的知识管理。所有数据本地存储,支持类似Obsidian的Markdown编辑器。Reor项目的核心假设是,思考工具的AI模型应默认在本地运行。它利用了Ollama、Transformers.js和LanceDB等技术,使得大型语言模型(LLM)和嵌入模型能够在本地运行。同时,也支持连接到OpenAI或兼容的API,如Oobabooga。
Qwen1.5系列首个千亿参数开源模型,多语言支持,高效Transformer解码器架构。
Qwen1.5-110B是Qwen1.5系列中规模最大的模型,拥有1100亿参数,支持多语言,采用高效的Transformer解码器架构,并包含分组查询注意力(GQA),在模型推理时更加高效。它在基础能力评估中与Meta-Llama3-70B相媲美,在Chat评估中表现出色,包括MT-Bench和AlpacaEval 2.0。该模型的发布展示了在模型规模扩展方面的巨大潜力,并且预示着未来通过扩展数据和模型规模,可以获得更大的性能提升。
分析Transformer语言模型的内部工作机制
LLM Transparency Tool(LLM-TT)是一个开源的交互式工具包,用于分析基于Transformer的语言模型的内部工作机制。它允许用户选择模型、添加提示并运行推理,通过可视化的方式展示模型的注意力流动和信息传递路径。该工具旨在提高模型的透明度,帮助研究人员和开发者更好地理解和改进语言模型。
扩展Transformer模型处理无限长输入
Google开发的“Infini-attention”技术旨在扩展基于Transformer的大语言模型以处理无限长的输入,通过压缩记忆机制实现无限长输入处理,并在多个长序列任务上取得优异表现。技术方法包括压缩记忆机制、局部与长期注意力的结合和流式处理能力等。实验结果显示在长上下文语言建模、密钥上下文块检索和书籍摘要任务上的性能优势。
基于 Transformer 的预训练语言模型系列
Qwen1.5 是基于 Transformer 架构的解码器语言模型系列,包括不同规模的模型。具有 SwiGLU 激活、注意力 QKV 偏置、组查询注意力等特性。支持多种自然语言和代码。推荐进行后续训练,如 SFT、RLHF 等。定价免费。
斯坦福大学的CS25课程,专注于深度学习模型Transformers
CS25是斯坦福大学提供的一门课程,主要探讨深度学习模型Transformers,该模型在全球范围内产生了巨大影响。课程邀请了Transformers研究领域的前沿人物,讨论从GPT和Gemini等LLM架构到创造性应用(如DALL-E和Sora)在内的最新突破。CS25已经成为斯坦福最热门和最令人兴奋的研讨会课程之一。
老照片修复 图片无损放大工具
SwinIR 是一款基于 Swin Transformer 进行图像恢复的官方 PyTorch 实现,在经典、轻量级和真实世界图像超分辨率、灰度 / 彩色图像去噪以及 JPEG 压缩伪影去除等任务中取得了最先进的性能。它由浅层特征提取、深层特征提取和高质量图像重建组成,具有卓越的性能和参数优化。
突破性SSM-Transformer开放模型
Jamba是一款基于SSM-Transformer混合架构的开放语言模型,提供顶级的质量和性能表现。它融合了Transformer和SSM架构的优势,在推理基准测试中表现出色,同时在长上下文场景下提供3倍的吞吐量提升。Jamba是目前该规模下唯一可在单GPU上支持14万字符上下文的模型,成本效益极高。作为基础模型,Jamba旨在供开发者微调、训练并构建定制化解决方案。
HyperGAI推出的创新多模态LLM框架,旨在理解和处理文本、图像、视频等多种输入模态
HPT(Hyper-Pretrained Transformers)是HyperGAI研究团队推出的新型多模态大型语言模型框架,它能够高效且可扩展地训练大型多模态基础模型,理解包括文本、图像、视频等多种输入模态。HPT框架可以从头开始训练,也可以通过现有的预训练视觉编码器和/或大型语言模型进行高效适配。
Hotshot - ACT 1是一个先进的直接文本到视频合成系统,由Hotshot开发,旨在赋予世界通过视频分享他们的想象力的能力
ACT 1(Advanced Cinematic Transformer)是一个由Hotshot Research开发的直接文本到视频合成系统,它能够生成高清晰度的视频,具有多种宽高比且无水印,提供引人入胜的用户体验。该系统通过使用大规模高分辨率文本视频语料库进行训练,以实现高保真度的空间对齐、时间对齐和审美质量。
Transformer Debugger是由OpenAI的Superalignment团队开发的用于调查小型语言模型特定行为的工具
Transformer Debugger结合了自动化可解释性和稀疏自编码器技术,支持在编写代码之前进行快速探索,并能够在前向传递中进行干预,以观察其如何影响特定行为。它通过识别对行为有贡献的特定组件(神经元、注意力头、自编码器潜在表示),展示自动生成的解释来说明这些组件为何强烈激活,并追踪组件间的连接以帮助发现电路。
无需相机校准信息的密集立体3D重建
DUSt3R是一种新颖的密集和无约束立体3D重建方法,适用于任意图像集合。它不需要事先了解相机校准或视点姿态信息,通过将成对重建问题视为点图的回归,放宽了传统投影相机模型的严格约束。DUSt3R提供了一种统一的单目和双目重建方法,并在多图像情况下提出了一种简单有效的全局对齐策略。基于标准的Transformer编码器和解码器构建网络架构,利用强大的预训练模型。DUSt3R直接提供场景的3D模型和深度信息,并且可以从中恢复像素匹配、相对和绝对相机信息。
大规模代码生成预训练模型
StarCoder2是一个1500亿参数的Transformer模型,在包括GitHub在内的600多种编程语言数据集上进行了预训练,使用了Grouped Query Attention等技术。该模型可用于代码生成任务,支持多种编程语言。
通用型视觉语言模型
Qwen-VL 是阿里云推出的通用型视觉语言模型,具有强大的视觉理解和多模态推理能力。它支持零样本图像描述、视觉问答、文本理解、图像地标定位等任务,在多个视觉基准测试中达到或超过当前最优水平。该模型采用 Transformer 结构,以 7B 参数规模进行预训练,支持 448x448 分辨率,可以端到端处理图像与文本的多模态输入与输出。Qwen-VL 的优势包括通用性强、支持多语种、细粒度理解等。它可以广泛应用于图像理解、视觉问答、图像标注、图文生成等任务。
Lepton是一个开源的语言模型搜索平台
Lepton是一个开源的自然语言处理平台,提供语言理解、生成和推理能力。它采用Transformer模型架构,能够进行多轮对话、问答、文本生成等任务。Lepton具有高效、可扩展的特点,可以在多个领域部署使用。
视觉状态空间模型,线性复杂度,全局感知
VMamba是一种视觉状态空间模型,结合了卷积神经网络(CNNs)和视觉Transformer(ViTs)的优势,实现了线性复杂度而不牺牲全局感知。引入了Cross-Scan模块(CSM)来解决方向敏感问题,能够在各种视觉感知任务中展现出优异的性能,并且随着图像分辨率的增加,相对已有基准模型表现出更为显著的优势。
基于双向状态空间模型的高效视觉表示学习框架
Vision Mamba是一个高效的视觉表示学习框架,使用双向Mamba模块构建,可以克服计算和内存限制,进行高分辨率图像的Transformer风格理解。它不依赖自注意力机制,通过位置嵌入和双向状态空间模型压缩视觉表示,实现更高性能,计算和内存效率也更好。该框架在 ImageNet分类、COCO目标检测和ADE20k语义分割任务上,性能优于经典的视觉Transformers,如DeiT,但计算和内存效率提高2.8倍和86.8%。
基于Transformer的通用领域文本到图像生成
CogView是一个用于通用领域文本到图像生成的预训练Transformer模型。该模型包含410亿参数,能够生成高质量、多样化的图像。模型的训练思路采用抽象到具体的方式,先 pretrain 获得通用知识,然后 finetune 在特定域生成图像,能显著提升生成质量。值得一提的是,论文还提出了两种帮助大模型稳定训练的技巧:PB-relax 和 Sandwich-LN。
多语言预训练语言模型
「书生·浦语2.0」InternLM2是一个面向中文和英文的大型多语言预训练语言模型。它具有语言理解、自然语言生成、多模式推理、代码理解等强大的能力。模型采用Transformer架构并进行海量数据的预训练,在长文本理解、对话、数学运算等多个方向上都达到了业界领先水平。该系列模型包含多种规模,用户可以选择合适的模型进行下游任务微调或构建聊天机器人等应用。
零成本人像生成
FaceChain-FACT是一款零成本人像生成工具,无需用户训练LoRA模型,仅需用户提供一张照片即可生成定制人像。相比于其他商业应用,我们的生成速度提升了100倍,支持秒级图像生成。我们集成了基于Transformer的人脸特征提取器,其结构类似于Stable Diffusion,能更好地利用面部信息;我们使用密集细粒度特征作为面部条件,具有更好的人物再现效果;FaceChain-FACT与ControlNet和LoRA插件无缝兼容,支持即插即用。
多模态文档理解模型
DocLLM是一个提供多模态文档理解模型的平台,旨在处理企业文档中的文本和空间布局,并提供优于现有大型语言模型的性能。其模型采用轻量级扩展,避免昂贵的图像编码器,专注于边界框信息以纳入空间布局结构。通过分解经典Transformer中的注意机制,捕获文本和空间模态之间的交叉对齐。此外,设计了一个预训练目标,学习填充文本段落,以解决视觉文档中经常遇到的不规则布局和异质内容。该解决方案在14个任务的16个数据集中优于现有大型语言模型,并且对5个以前未见数据集具有良好的泛化能力。
开源的中英双语预训练语言模型
LingoWhale-8B是一个开源的大规模中英双语预训练语言模型,具有强大的自然语言理解和生成能力。它通过在海量高质量中英文数据上进行预训练,可以完成长文本的理解和多轮交互。该模型采用Transformer架构,参数量达80亿。它在多个中文和英文公开基准测试上都取得了领先的效果。LingoWhale-8B完全开放给学术研究使用,个人开发者可以免费用于商业用途。该模型可以广泛应用于聊天机器人、知识问答、文本生成等领域。
图片马赛克去除神器
CodeFormer是一个基于 Transformer 的预测网络,用于图片马赛克恢复。通过学习离散码本和解码器,它能够减少恢复映射的不确定性,生成高质量人脸。它具有优秀的抗退化鲁棒性,适用于合成数据集和真实数据集。
大规模训练 Transformer 模型的持续研究
Megatron-LM 是由 NVIDIA 应用深度学习研究团队开发的一种强大的大规模 Transformer 模型。该产品用于大规模训练 Transformer 语言模型的持续研究。我们使用混合精度,高效的模型并行和数据并行,以及多节点的 Transformer 模型(如 GPT、BERT 和 T5)的预训练。
MoMask: 3D 人体运动生成
MoMask 是一个用于基于文本驱动的 3D 人体运动生成的模型。它采用了分层量化方案,以高保真度的细节将人体运动表示为多层离散运动令牌。MoMask 通过两个不同的双向 Transformer 网络进行生成,以从文本输入预测运动令牌。该模型在文本到运动生成任务上优于现有方法,并可以无缝应用于相关任务,如文本引导的时间修复。
© 2024 AIbase 备案号:闽ICP备2023012347号-1