需求人群:
"教育、科研"
使用场景示例:
在长文本中查找信息
多跳跟踪信息
在长文本中进行聚合
产品特色:
长文本语言模型测试
多跳跟踪
聚合
浏览量:130
最新流量情况
月访问量
25296.55k
平均访问时长
00:04:45
每次访问页数
5.83
跳出率
43.31%
流量来源
直接访问
48.39%
自然搜索
35.85%
邮件
0.03%
外链引荐
12.76%
社交媒体
2.96%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
13.77%
印度
8.48%
日本
3.85%
俄罗斯
4.86%
美国
17.58%
一种用于测试长文本语言模型的合理性的评估基准
RULER 是一种新的合成基准,为长文本语言模型提供了更全面的评估。它扩展了普通检索测试,涵盖了不同类型和数量的信息点。此外,RULER 引入了新的任务类别,如多跳跟踪和聚合,以测试超出检索从上下文中的行为。在 RULER 上评估了 10 个长文本语言模型,并在 13 个代表性任务中获得了表现。尽管这些模型在普通检索测试中取得了几乎完美的准确性,但在上下文长度增加时,它们表现得非常差。只有四个模型(GPT-4、Command-R、Yi-34B 和 Mixtral)在长度为 32K 时表现得相当不错。我们公开源 RULER,以促进对长文本语言模型的全面评估。
使大型语言模型在长文本问答中生成细粒度引用
LongCite是一个开源的模型,它通过训练大型语言模型(LLMs)来实现在长文本问答场景中生成准确的回答和精确的句级引用。该技术的重要性在于它能够提高问答系统的准确性和可信度,使用户能够验证输出信息的来源。LongCite支持高达128K的上下文长度,并且提供了两个模型:LongCite-glm4-9b和LongCite-llama3.1-8b,分别基于GLM-4-9B和Meta-Llama-3.1-8B进行训练。
专注长文本、多语言、垂直化
达观 “曹植” 大模型是专注于长文本、多语言、垂直化发展的国产大语言模型。具有自动化写作、翻译、专业性报告写作能力,支持多语言应用和垂直行业定制。可提供高质量文案撰写服务,广泛适用于各行业,是解决企业实际问题的智能工具。
长文本问答增强型检索生成模型
LongRAG是一个基于大型语言模型(LLM)的双视角、鲁棒的检索增强型生成系统范式,旨在增强对复杂长文本知识的理解和检索能力。该模型特别适用于长文本问答(LCQA),能够处理全局信息和事实细节。产品背景信息显示,LongRAG通过结合检索和生成技术,提升了对长文本问答任务的性能,特别是在需要多跳推理的场景中。该模型是开源的,可以免费使用,主要面向研究者和开发者。
高效处理长文本的先进语言模型
Qwen2.5-Turbo是阿里巴巴开发团队推出的一款能够处理超长文本的语言模型,它在Qwen2.5的基础上进行了优化,支持长达1M个token的上下文,相当于约100万英文单词或150万中文字符。该模型在1M-token Passkey Retrieval任务中实现了100%的准确率,并在RULER长文本评估基准测试中得分93.1,超越了GPT-4和GLM4-9B-1M。Qwen2.5-Turbo不仅在长文本处理上表现出色,还保持了短文本处理的高性能,且成本效益高,每1M个token的处理成本仅为0.3元。
用于评估文本、对话和RAG设置的通用评估模型
Patronus GLIDER是一个经过微调的phi-3.5-mini-instruct模型,可以作为通用评估模型,根据用户定义的标准和评分规则来评判文本、对话和RAG设置。该模型使用合成数据和领域适应数据进行训练,覆盖了183个指标和685个领域,包括金融、医学等。模型支持的最大序列长度为8192个token,但经过测试可以支持更长的文本(高达12000个token)。
Gemini Embedding 是一种先进的文本嵌入模型,通过 Gemini API 提供强大的语言理解能力。
Gemini Embedding 是 Google 推出的一种实验性文本嵌入模型,通过 Gemini API 提供服务。该模型在多语言文本嵌入基准测试(MTEB)中表现卓越,超越了之前的顶尖模型。它能够将文本转换为高维数值向量,捕捉语义和上下文信息,广泛应用于检索、分类、相似性检测等场景。Gemini Embedding 支持超过 100 种语言,具备 8K 输入标记长度和 3K 输出维度,同时引入了嵌套表示学习(MRL)技术,可灵活调整维度以满足存储需求。该模型目前处于实验阶段,未来将推出稳定版本。
处理长文本的大型语言模型
LongLLaMA 是一个大型语言模型,能够处理长篇文本。它基于 OpenLLaMA,并使用 Focused Transformer (FoT) 方法进行了微调。它能够处理长达 256k 标记甚至更多的文本。我们提供了一个较小的 3B 基础模型(未经过指令调整),并在 Hugging Face 上提供了支持更长上下文的推断代码。我们的模型权重可以作为现有实现中 LLaMA 的替代品(适用于最多 2048 个标记的短上下文)。此外,我们还提供了评估结果和与原始 OpenLLaMA 模型的比较。
一款由Gradient AI团队开发的高性能语言模型,支持长文本生成和对话。
Llama-3 70B Instruct Gradient 1048k是一款由Gradient AI团队开发的先进语言模型,它通过扩展上下文长度至超过1048K,展示了SOTA(State of the Art)语言模型在经过适当调整后能够学习处理长文本的能力。该模型使用了NTK-aware插值和RingAttention技术,以及EasyContext Blockwise RingAttention库,以高效地在高性能计算集群上进行训练。它在商业和研究用途中具有广泛的应用潜力,尤其是在需要长文本处理和生成的场景中。
高效处理长文本的双向编码器模型
ModernBERT-base是一个现代化的双向编码器Transformer模型,预训练于2万亿英文和代码数据,原生支持长达8192个token的上下文。该模型采用了Rotary Positional Embeddings (RoPE)、Local-Global Alternating Attention和Unpadding等最新架构改进,使其在长文本处理任务中表现出色。ModernBERT-base适用于需要处理长文档的任务,如检索、分类和大型语料库中的语义搜索。模型训练数据主要为英文和代码,因此可能在其他语言上的表现会有所降低。
释放长文本生成能力的LLM模型
LongWriter是由清华大学团队开发的长文本生成模型,它基于大规模语言模型(LLMs),能够生成超过10,000字的文本内容。该模型特别适用于需要生成长篇连贯文本的场景,如写作辅助、内容创作等。LongWriter通过精细调整和优化,提高了生成文本的质量和一致性,同时保持了模型的高效性和可扩展性。
高效能长文本处理AI模型
Jamba 1.5 Open Model Family是AI21公司推出的最新AI模型系列,基于SSM-Transformer架构,具有超长文本处理能力、高速度和高质量,是市场上同类产品中表现最优的。这些模型专为企业级应用设计,考虑了资源效率、质量、速度和解决关键任务的能力。
高效能的长文本处理AI模型
AI21-Jamba-1.5-Mini是AI21实验室开发的最新一代混合SSM-Transformer指令跟随基础模型。这款模型以其卓越的长文本处理能力、速度和质量在市场上脱颖而出,相较于同类大小的领先模型,推理速度提升高达2.5倍。Jamba 1.5 Mini和Jamba 1.5 Large专为商业用例和功能进行了优化,如函数调用、结构化输出(JSON)和基础生成。
用于评估其他语言模型的开源工具集
Prometheus-Eval 是一个用于评估大型语言模型(LLM)在生成任务中表现的开源工具集。它提供了一个简单的接口,使用 Prometheus 模型来评估指令和响应对。Prometheus 2 模型支持直接评估(绝对评分)和成对排名(相对评分),能够模拟人类判断和专有的基于语言模型的评估,解决了公平性、可控性和可负担性的问题。
新一代多语言预训练模型,支持长文本和代码执行。
GLM-4-9B-Chat是智谱AI推出的新一代预训练模型GLM-4系列中的开源版本,具备多轮对话、网页浏览、代码执行、自定义工具调用和长文本推理等高级功能。支持包括日语、韩语、德语在内的26种语言,并且推出了支持1M上下文长度的模型。
Gemini 2.0 Flash-Lite 是高效的语言模型,专为长文本处理和多种应用场景优化。
Gemini 2.0 Flash-Lite 是 Google 推出的高效语言模型,专为长文本处理和复杂任务优化。它在推理、多模态、数学和事实性基准测试中表现出色,具备简化的价格策略,使得百万级上下文窗口更加经济实惠。Gemini 2.0 Flash-Lite 已在 Google AI Studio 和 Vertex AI 中全面开放,适合企业级生产使用。
MoBA 是一种用于长文本上下文的混合块注意力机制,旨在提升大语言模型的效率。
MoBA(Mixture of Block Attention)是一种创新的注意力机制,专为长文本上下文的大语言模型设计。它通过将上下文划分为块,并让每个查询令牌学习关注最相关的块,从而实现高效的长序列处理。MoBA 的主要优点是能够在全注意力和稀疏注意力之间无缝切换,既保证了性能,又提高了计算效率。该技术适用于需要处理长文本的任务,如文档分析、代码生成等,能够显著降低计算成本,同时保持模型的高性能表现。MoBA 的开源实现为研究人员和开发者提供了强大的工具,推动了大语言模型在长文本处理领域的应用。
大型语言模型排行榜,实时评估模型性能。
OpenCompass 2.0是一个专注于大型语言模型性能评估的平台。它使用多个闭源数据集进行多维度评估,为模型提供整体平均分和专业技能分数。该平台通过实时更新排行榜,帮助开发者和研究人员了解不同模型在语言、知识、推理、数学和编程等方面的性能表现。
加速模型评估和微调的智能评估工具
SFR-Judge 是 Salesforce AI Research 推出的一系列评估模型,旨在通过人工智能技术加速大型语言模型(LLMs)的评估和微调过程。这些模型能够执行多种评估任务,包括成对比较、单项评分和二元分类,同时提供解释,避免黑箱问题。SFR-Judge 在多个基准测试中表现优异,证明了其在评估模型输出和指导微调方面的有效性。
统一的语言模型评估框架
PromptBench是一个基于Pytorch的Python包,用于评估大型语言模型(LLM)。它为研究人员提供了用户友好的API,以便对LLM进行评估。主要功能包括:快速模型性能评估、提示工程、对抗提示评估以及动态评估等。优势是使用简单,可以快速上手评估已有数据集和模型,也可以轻松定制自己的数据集和模型。定位为LLM评估的统一开源库。
多语言多任务基准测试,用于评估大型语言模型(LLMs)
P-MMEval是一个多语言基准测试,覆盖了基础和能力专业化的数据集。它扩展了现有的基准测试,确保所有数据集在语言覆盖上保持一致,并在多种语言之间提供平行样本,支持多达10种语言,涵盖8个语言家族。P-MMEval有助于全面评估多语言能力,并进行跨语言可转移性的比较分析。
拆分长文本,方便与Chat GPT聊天
Split Long Text for Chat GPT是一款Chrome插件,用于将超过4000个字符的长文本拆分成可管理的部分,并无缝粘贴到与Chat GPT的聊天中。通过这个插件,您不再需要手动分割文本,节省时间和精力。快速安装插件,享受与AI模型聊天时没有字符限制的便利和舒适体验。
AI21推出的Jamba 1.6模型,专为企业私有部署设计,具备卓越的长文本处理能力。
Jamba 1.6 是 AI21 推出的最新语言模型,专为企业私有部署而设计。它在长文本处理方面表现出色,能够处理长达 256K 的上下文窗口,采用混合 SSM-Transformer 架构,可高效准确地处理长文本问答任务。该模型在质量上超越了 Mistral、Meta 和 Cohere 等同类模型,同时支持灵活的部署方式,包括在本地或 VPC 中私有部署,确保数据安全。它为企业提供了一种无需在数据安全和模型质量之间妥协的解决方案,适用于需要处理大量数据和长文本的场景,如研发、法律和金融分析等。目前,Jamba 1.6 已在多个企业中得到应用,如 Fnac 使用其进行数据分类,Educa Edtech 利用其构建个性化聊天机器人等。
用于评估大型语言模型事实性的最新基准
FACTS Grounding是Google DeepMind推出的一个全面基准测试,旨在评估大型语言模型(LLMs)生成的回应是否不仅在给定输入方面事实准确,而且足够详细,能够为用户提供满意的答案。这一基准测试对于提高LLMs在现实世界中应用的信任度和准确性至关重要,有助于推动整个行业在事实性和基础性方面的进步。
前沿级别的AI模型,提供顶级的指令遵循和长文本处理能力。
EXAONE 3.5是LG AI Research发布的一系列人工智能模型,这些模型以其卓越的性能和成本效益而著称。它们在模型训练效率、去污染处理、长文本理解和指令遵循能力方面表现出色。EXAONE 3.5模型的开发遵循了LG的AI伦理原则,进行了AI伦理影响评估,以确保模型的负责任使用。这些模型的发布旨在推动AI研究和生态系统的发展,并为AI创新奠定基础。
一款经过优化的大型语言模型,擅长文本生成和对话。
OLMo-2-1124-13B-Instruct是由Allen AI研究所开发的一款大型语言模型,专注于文本生成和对话任务。该模型在多个任务上表现出色,包括数学问题解答、科学问题解答等。它是基于13B参数的版本,经过在特定数据集上的监督微调和强化学习训练,以提高其性能和安全性。作为一个开源模型,它允许研究人员和开发者探索和改进语言模型的科学。
知识编辑基准测试,用于评估大型语言模型的知识编辑方法。
KnowEdit是一个专注于大型语言模型(LLMs)的知识编辑基准测试。它提供了一个综合的评估框架,用于测试和比较不同的知识编辑方法在修改特定领域内LLMs行为时的有效性,同时保持跨各种输入的整体性能。KnowEdit基准测试包括六个不同的数据集,涵盖了事实操作、情感修改和幻觉生成等多种编辑类型。该基准测试旨在帮助研究者和开发者更好地理解和改进知识编辑技术,推动LLMs的持续发展和应用。
开源幻觉评估模型
Patronus-Lynx-8B-Instruct-v1.1是基于meta-llama/Meta-Llama-3.1-8B-Instruct模型的微调版本,主要用于检测RAG设置中的幻觉。该模型经过CovidQA、PubmedQA、DROP、RAGTruth等多个数据集的训练,包含人工标注和合成数据。它能够评估给定文档、问题和答案是否忠实于文档内容,不提供超出文档范围的新信息,也不与文档信息相矛盾。
© 2025 AIbase 备案号:闽ICP备08105208号-14