需求人群:
"适用于法律、媒体、金融等行业,可用于长文本处理、摘要生成、问答回答、信息提取、编程辅助等场景"
产品特色:
处理长文本
生成长文本摘要
回答长文本问答
提取长篇文档关键信息
辅助编程
浏览量:242
最新流量情况
月访问量
107.11k
平均访问时长
00:01:35
每次访问页数
2.85
跳出率
60.06%
流量来源
直接访问
81.50%
自然搜索
13.50%
邮件
0.01%
外链引荐
4.62%
社交媒体
0.09%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
91.39%
美国
1.57%
越南
0.59%
全球最长上下文窗口大模型
Baichuan2-192K推出全球最长上下文窗口大模型Baichuan2-192K,一次可输入35万字超越Claude2。Baichuan2-192K不仅在上下文窗口长度上超越Claude2,在长窗口文本生成质量、长上下文理解以及长文本问答、摘要等方面的表现也全面领先Claude2。Baichuan2-192K通过算法和工程的极致优化,实现了窗口长度和模型性能之间的平衡,做到了窗口长度和模型性能的同步提升。Baichuan2-192K已经开放了API接口,提供给企业用户,并已经在法律、媒体、金融等行业落地应用。
扩展LLM上下文窗口
LLM Context Extender是一款旨在扩展大型语言模型(LLMs)上下文窗口的工具。它通过调整RoPE的基础频率和缩放注意力logits的方式,帮助LLMs有效适应更大的上下文窗口。该工具在精细调整性能和稳健性方面验证了其方法的优越性,并展示了在仅有100个样本和6个训练步骤的情况下,将LLaMA-2-7B-Chat的上下文窗口扩展到16,384的非凡效率。此外,还探讨了数据组成和训练课程如何影响特定下游任务的上下文窗口扩展,建议以长对话进行LLMs的精细调整作为良好的起点。
从语言到视觉的长上下文转换模型
LongVA是一个能够处理超过2000帧或超过200K视觉标记的长上下文转换模型。它在Video-MME中的表现在7B模型中处于领先地位。该模型基于CUDA 11.8和A100-SXM-80G进行了测试,并且可以通过Hugging Face平台进行快速启动和使用。
高效无限上下文语言模型的官方实现
Samba是一个简单而强大的混合模型,具有无限的上下文长度。它的架构非常简单:Samba = Mamba + MLP + 滑动窗口注意力 + 层级MLP堆叠。Samba-3.8B模型在Phi3数据集上训练了3.2万亿个token,主要基准测试(例如MMLU、GSM8K和HumanEval)上的表现大大超过了Phi3-mini。Samba还可以通过最少的指令调整实现完美的长上下文检索能力,同时保持与序列长度的线性复杂度。这使得Samba-3.8B-instruct在下游任务(如长上下文摘要)上表现出色。
70亿参数的超长上下文对话模型
InternLM2.5-7B-Chat-1M 是一个开源的70亿参数的对话模型,具有卓越的推理能力,在数学推理方面超越了同量级模型。该模型支持1M超长上下文窗口,能够处理长文本任务,如LongBench等。此外,它还具备强大的工具调用能力,能够从上百个网页搜集信息进行分析推理。
超长上下文模型,革新软件开发
Magic团队开发的超长上下文模型(LTM)能够处理高达100M tokens的上下文信息,这在AI领域是一个重大突破。该技术主要针对软件开发领域,通过在推理过程中提供大量代码、文档和库的上下文,极大地提升了代码合成的质量和效率。与传统的循环神经网络和状态空间模型相比,LTM模型在存储和检索大量信息方面具有明显优势,能够构建更复杂的逻辑电路。此外,Magic团队还与Google Cloud合作,利用NVIDIA GB200 NVL72构建下一代AI超级计算机,进一步推动模型的推理和训练效率。
扩展大语言模型的上下文窗口
LLM Maybe LongLM是一个面向开发者和研究人员的人工智能平台,提供各种模型、数据集和解决方案。其中,LLM Maybe LongLM是针对大语言模型长上下文处理的研究成果,通过自我扩展实现了对长上下文的处理能力。该方法无需训练,只需对原始模型进行少量代码修改即可扩展上下文窗口,为处理长文本提供了有效的解决方案。
将LLM上下文窗口扩展至200万令牌的技术
LongRoPE是微软推出的技术,可以将预训练大型语言模型(LLM)的上下文窗口扩展到2048k(200万)令牌,实现从短上下文到长上下文的扩展,降低训练成本和时间,同时保持原有短上下文窗口性能。适用于提高语言模型在长文本上的理解和生成能力,提升机器阅读理解、文本摘要和长篇文章生成等任务。
多模态大型语言模型,支持图像和文本处理。
Llama-3.2-11B-Vision 是 Meta 发布的一款多模态大型语言模型(LLMs),它结合了图像和文本处理的能力,旨在提高视觉识别、图像推理、图像描述和回答有关图像的一般问题的性能。该模型在常见的行业基准测试中的表现超过了众多开源和封闭的多模态模型。
强大的语言模型,拥有4560亿总参数,可处理长达400万token的上下文。
MiniMax-01是一个具有4560亿总参数的强大语言模型,其中每个token激活459亿参数。它采用混合架构,结合了闪电注意力、softmax注意力和专家混合(MoE),通过先进的并行策略和创新的计算-通信重叠方法,如线性注意力序列并行主义加(LASP+)、varlen环形注意力、专家张量并行(ETP)等,将训练上下文长度扩展到100万tokens,在推理时可处理长达400万tokens的上下文。在多个学术基准测试中,MiniMax-01展现了顶级模型的性能。
MiniMax-Text-01是一个强大的语言模型,具有4560亿总参数,能够处理长达400万token的上下文。
MiniMax-Text-01是一个由MiniMaxAI开发的大型语言模型,拥有4560亿总参数,其中每个token激活459亿参数。它采用了混合架构,结合了闪电注意力、softmax注意力和专家混合(MoE)技术,通过先进的并行策略和创新的计算-通信重叠方法,如线性注意力序列并行主义加(LASP+)、变长环形注意力、专家张量并行(ETP)等,将训练上下文长度扩展到100万token,并能在推理时处理长达400万token的上下文。在多个学术基准测试中,MiniMax-Text-01展现出了顶级模型的性能。
高效能长文本处理AI模型
Jamba 1.5 Open Model Family是AI21公司推出的最新AI模型系列,基于SSM-Transformer架构,具有超长文本处理能力、高速度和高质量,是市场上同类产品中表现最优的。这些模型专为企业级应用设计,考虑了资源效率、质量、速度和解决关键任务的能力。
高效能的长文本处理AI模型
AI21-Jamba-1.5-Mini是AI21实验室开发的最新一代混合SSM-Transformer指令跟随基础模型。这款模型以其卓越的长文本处理能力、速度和质量在市场上脱颖而出,相较于同类大小的领先模型,推理速度提升高达2.5倍。Jamba 1.5 Mini和Jamba 1.5 Large专为商业用例和功能进行了优化,如函数调用、结构化输出(JSON)和基础生成。
权限感知上下文提供者
ReLLM提供权限感知上下文,可用于大型语言模型(如ChatGPT)的应用中。通过将用户的长期记忆提供给ChatGPT,实现更自然的对话体验。ReLLM还处理与ChatGPT的通信和消息链管理,保证数据安全性。只提供用户可以访问的数据。数据加密存储,解密只在使用时进行。定价详见官方网站。
MoBA 是一种用于长文本上下文的混合块注意力机制,旨在提升大语言模型的效率。
MoBA(Mixture of Block Attention)是一种创新的注意力机制,专为长文本上下文的大语言模型设计。它通过将上下文划分为块,并让每个查询令牌学习关注最相关的块,从而实现高效的长序列处理。MoBA 的主要优点是能够在全注意力和稀疏注意力之间无缝切换,既保证了性能,又提高了计算效率。该技术适用于需要处理长文本的任务,如文档分析、代码生成等,能够显著降低计算成本,同时保持模型的高性能表现。MoBA 的开源实现为研究人员和开发者提供了强大的工具,推动了大语言模型在长文本处理领域的应用。
超级上下文定向引擎!
Neuwo是一款领先的上下文人工智能引擎,用于内容分类和品牌安全。我们的技术帮助出版商和数字资产管理者改善用户体验并提供不打扰的广告。Neuwo通过丰富您的宝贵数据,提供元标签、相关内容和IAB分类,实现上下文广告的最大化利用。我们的使命是使您的数据更有价值!
国际领先的语言理解与长文本处理大模型。
GLM-4-Plus是智谱推出的一款基座大模型,它在语言理解、指令遵循和长文本处理等方面性能得到全面提升,保持了国际领先水平。该模型的推出,不仅代表了中国在大模型领域的创新和突破,还为开发者和企业提供了强大的语言处理能力,进一步推动了人工智能技术的发展和应用。
在本地运行GPT-4和基础模型,无需上传屏幕上下文。
AmbientGPT是一个革命性的编程辅助工具,它允许开发者在本地运行GPT-4和基础模型,同时能够直接推断屏幕上下文,从而无需手动上传上下文信息。这大大提高了代码编写和问题解决的效率。产品目前处于测试阶段,适用于拥有ARM64架构MacBook的开发者,并且需要一个兼容的OpenAI API密钥。
实时零唇语音转换的流式上下文感知语言建模
StreamVoice是一种基于语言模型的零唇语音转换模型,可实现实时转换,无需完整的源语音。它采用全因果上下文感知语言模型,结合时间独立的声学预测器,能够在每个时间步骤交替处理语义和声学特征,从而消除对完整源语音的依赖。为了增强在流式处理中可能出现的上下文不完整而导致的性能下降,StreamVoice通过两种策略增强了语言模型的上下文感知性:1)教师引导的上下文预见,在训练过程中利用教师模型总结当前和未来的语义上下文,引导模型对缺失上下文进行预测;2)语义屏蔽策略,促进从先前受损的语义和声学输入进行声学预测,增强上下文学习能力。值得注意的是,StreamVoice是第一个基于语言模型的流式零唇语音转换模型,无需任何未来预测。实验结果表明,StreamVoice具有流式转换能力,同时保持与非流式语音转换系统相媲美的零唇性能。
月之暗面推出的最新AI模型,支持自动同步更新和大上下文长度,适用于AI聊天和智能助手构建。
kimi-latest 是月之暗面公司推出的最新 AI 模型,与 Kimi 智能助手同步升级,具备强大的上下文处理能力和自动缓存功能,能够有效降低使用成本。该模型支持图像理解和多种功能,如 ToolCalls 和联网搜索,适用于构建 AI 智能助手或客服系统。其价格为每百万 Tokens 1 元,定位为高效、灵活的 AI 模型解决方案。
评估大型语言模型的逻辑推理和上下文理解能力。
Turtle Benchmark是一款基于'Turtle Soup'游戏的新型、无法作弊的基准测试,专注于评估大型语言模型(LLMs)的逻辑推理和上下文理解能力。它通过消除对背景知识的需求,提供了客观和无偏见的测试结果,具有可量化的结果,并且通过使用真实用户生成的问题,使得模型无法被'游戏化'。
万亿参数MoE文本大模型
abab 6.5系列包含两个模型:abab 6.5和abab 6.5s,均支持200k tokens的上下文长度。abab 6.5包含万亿参数,而abab 6.5s则更高效,能在1秒内处理近3万字的文本。它们在知识、推理、数学、编程、指令遵从等核心能力测试中表现出色,接近行业领先水平。
256M参数的医学领域语言模型,用于医学文本处理等任务
SmolDocling-256M-preview是由ds4sd推出的一个具有256M参数的语言模型,专注于医学领域。其重要性在于为医学文本处理、医学知识提取等任务提供了有效的工具。在医学研究和临床实践中,大量的文本数据需要进行分析和处理,该模型能够理解和处理医学专业语言。主要优点包括在医学领域有较好的性能表现,能够处理多种医学相关的文本任务,如疾病诊断辅助、医学文献摘要等。该模型的背景是随着医学数据的增长,对处理医学文本的技术需求日益增加。其定位是为医学领域的研究人员、医生、开发者等提供语言处理能力支持,目前未提及价格相关信息。
专注长文本、多语言、垂直化
达观 “曹植” 大模型是专注于长文本、多语言、垂直化发展的国产大语言模型。具有自动化写作、翻译、专业性报告写作能力,支持多语言应用和垂直行业定制。可提供高质量文案撰写服务,广泛适用于各行业,是解决企业实际问题的智能工具。
LG AI Research开发的双语文本生成模型
EXAONE-3.5-2.4B-Instruct-AWQ是由LG AI Research开发的一系列双语(英语和韩语)指令调优生成模型,参数范围从2.4B到32B。这些模型支持长达32K令牌的长上下文处理,并且在真实世界用例和长上下文理解方面展现出最先进的性能,同时在与近期发布的类似大小模型相比,在通用领域保持竞争力。该模型在部署到小型或资源受限设备上进行了优化,并且采用了AWQ量化技术,实现了4位群组权重量化(W4A16g128)。
前沿级别的AI模型,提供顶级的指令遵循和长文本处理能力。
EXAONE 3.5是LG AI Research发布的一系列人工智能模型,这些模型以其卓越的性能和成本效益而著称。它们在模型训练效率、去污染处理、长文本理解和指令遵循能力方面表现出色。EXAONE 3.5模型的开发遵循了LG的AI伦理原则,进行了AI伦理影响评估,以确保模型的负责任使用。这些模型的发布旨在推动AI研究和生态系统的发展,并为AI创新奠定基础。
EasyContext演示了如何利用现有技术组合,来训练700K和1M上下文的语言模型。
EasyContext是一个开源项目,旨在通过结合多种技术手段,实现使用普通硬件训练语言模型的上下文长度达到100万词元。主要采用的技术包括序列并行、Deepspeed zero3离载、Flash注意力以及激活checkpoint等。该项目不提出新的创新点,而是展示如何组合现有的技术手段来实现这一目标。已成功训练出Llama-2-7B和Llama-2-13B两个模型,分别在8块A100和16块A100上实现了700K和1M词元的上下文长度。
加速长上下文大型语言模型的预填充处理
MInference 1.0 是一种稀疏计算方法,旨在加速长序列处理的预填充阶段。它通过识别长上下文注意力矩阵中的三种独特模式,实现了对长上下文大型语言模型(LLMs)的动态稀疏注意力方法,加速了1M token提示的预填充阶段,同时保持了LLMs的能力,尤其是检索能力。
LG AI Research开发的多语言生成模型
EXAONE-3.5-7.8B-Instruct是由LG AI Research开发的一系列指令调优的双语(英语和韩语)生成模型,参数范围从2.4B到32B。这些模型支持长达32K令牌的长上下文处理,并在真实世界用例和长上下文理解方面展现出最先进的性能,同时在与近期发布的类似大小模型相比,在通用领域保持竞争力。
AI21推出的Jamba 1.6模型,专为企业私有部署设计,具备卓越的长文本处理能力。
Jamba 1.6 是 AI21 推出的最新语言模型,专为企业私有部署而设计。它在长文本处理方面表现出色,能够处理长达 256K 的上下文窗口,采用混合 SSM-Transformer 架构,可高效准确地处理长文本问答任务。该模型在质量上超越了 Mistral、Meta 和 Cohere 等同类模型,同时支持灵活的部署方式,包括在本地或 VPC 中私有部署,确保数据安全。它为企业提供了一种无需在数据安全和模型质量之间妥协的解决方案,适用于需要处理大量数据和长文本的场景,如研发、法律和金融分析等。目前,Jamba 1.6 已在多个企业中得到应用,如 Fnac 使用其进行数据分类,Educa Edtech 利用其构建个性化聊天机器人等。
© 2025 AIbase 备案号:闽ICP备08105208号-14