需求人群:
"教育、科研"
使用场景示例:
在长文本中查找信息
多跳跟踪信息
在长文本中进行聚合
产品特色:
长文本语言模型测试
多跳跟踪
聚合
浏览量:8
最新流量情况
月访问量
22216.76k
平均访问时长
00:04:50
每次访问页数
5.52
跳出率
47.80%
流量来源
直接访问
46.24%
自然搜索
30.97%
邮件
0.78%
外链引荐
13.53%
社交媒体
8.45%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
15.26%
美国
13.36%
印度
6.45%
俄罗斯
3.91%
法国
3.77%
从长文本中合成无限可控角色动画
Story-to-Motion是一个全新的任务,它接受一个故事(顶部绿色区域)并生成与文本描述相符的动作和轨迹。该系统利用现代大型语言模型作为文本驱动的运动调度器,从长文本中提取一系列(文本、位置)对。它还开发了一个文本驱动的运动检索方案,结合了经典运动匹配和运动语义以及轨迹约束。此外,它设计了一个渐进式掩蔽变换器,以解决过渡动作中常见的问题,如不自然的姿势和滑步。该系统在轨迹跟随、时间动作组合和动作混合等三个不同子任务的评估中表现优异,胜过以往的动作合成方法。
一款由Gradient AI团队开发的高性能文本生成模型。
Llama-3 8B Instruct 262k是一款由Gradient AI团队开发的文本生成模型,它扩展了LLama-3 8B的上下文长度至超过160K,展示了SOTA(State of the Art)大型语言模型在学习长文本操作时的潜力。该模型通过适当的调整RoPE theta参数,并结合NTK-aware插值和数据驱动的优化技术,实现了在长文本上的高效学习。此外,它还基于EasyContext Blockwise RingAttention库构建,以支持在高性能硬件上的可扩展和高效训练。
基于7B参数的强大对话智能语言模型
360Zhinao是由奇虎360开源的一系列7B规模的智能语言模型,包括基础模型和三个不同长度上下文的对话模型。这些模型经过大规模中英文语料预训练,在自然语言理解、知识、数学、代码生成等多种任务上表现出色,并具有强大的长文本对话能力。模型可用于各种对话式应用的开发和部署。
Grok-1.5带有改进的推理能力和128,000个标记的上下文长度。
Grok-1.5是一种先进的大型语言模型,具有出色的长文本理解和推理能力。它可以处理高达128,000个标记的长上下文,远超以前模型的能力。在数学和编码等任务中,Grok-1.5表现出色,在多个公认的基准测试中获得了极高的分数。该模型建立在强大的分布式训练框架之上,确保高效和可靠的训练过程。Grok-1.5旨在为用户提供强大的语言理解和生成能力,助力各种复杂的语言任务。
专注长文本、多语言、垂直化
达观 “曹植” 大模型是专注于长文本、多语言、垂直化发展的国产大语言模型。具有自动化写作、翻译、专业性报告写作能力,支持多语言应用和垂直行业定制。可提供高质量文案撰写服务,广泛适用于各行业,是解决企业实际问题的智能工具。
开源自然语言生成模型
OLMo是一个开源的自然语言生成模型,由Allen AI研究所开发,基于Transformer架构,可用于生成高质量的英文文本。它具有生成长度可达4096个token的长文本的能力。OLMo-7B是目前公开的参数量最大的开源英文语言模型之一,拥有69亿参数,在多个英文NLP任务上的表现优于同类模型。它可用于文本生成、任务导向的微调等多种自然语言处理任务。
将LLM上下文窗口扩展至200万令牌的技术
LongRoPE是微软推出的技术,可以将预训练大型语言模型(LLM)的上下文窗口扩展到2048k(200万)令牌,实现从短上下文到长上下文的扩展,降低训练成本和时间,同时保持原有短上下文窗口性能。适用于提高语言模型在长文本上的理解和生成能力,提升机器阅读理解、文本摘要和长篇文章生成等任务。
多语言预训练语言模型
「书生·浦语2.0」InternLM2是一个面向中文和英文的大型多语言预训练语言模型。它具有语言理解、自然语言生成、多模式推理、代码理解等强大的能力。模型采用Transformer架构并进行海量数据的预训练,在长文本理解、对话、数学运算等多个方向上都达到了业界领先水平。该系列模型包含多种规模,用户可以选择合适的模型进行下游任务微调或构建聊天机器人等应用。
扩展大语言模型的上下文窗口
LLM Maybe LongLM是一个面向开发者和研究人员的人工智能平台,提供各种模型、数据集和解决方案。其中,LLM Maybe LongLM是针对大语言模型长上下文处理的研究成果,通过自我扩展实现了对长上下文的处理能力。该方法无需训练,只需对原始模型进行少量代码修改即可扩展上下文窗口,为处理长文本提供了有效的解决方案。
开源的中英双语预训练语言模型
LingoWhale-8B是一个开源的大规模中英双语预训练语言模型,具有强大的自然语言理解和生成能力。它通过在海量高质量中英文数据上进行预训练,可以完成长文本的理解和多轮交互。该模型采用Transformer架构,参数量达80亿。它在多个中文和英文公开基准测试上都取得了领先的效果。LingoWhale-8B完全开放给学术研究使用,个人开发者可以免费用于商业用途。该模型可以广泛应用于聊天机器人、知识问答、文本生成等领域。
一款高效经济的语言模型,具有强大的专家混合特性。
DeepSeek-V2是一个由236B参数构成的混合专家(MoE)语言模型,它在保持经济训练和高效推理的同时,激活每个token的21B参数。与前代DeepSeek 67B相比,DeepSeek-V2在性能上更强,同时节省了42.5%的训练成本,减少了93.3%的KV缓存,并提升了最大生成吞吐量至5.76倍。该模型在8.1万亿token的高质量语料库上进行了预训练,并通过监督式微调(SFT)和强化学习(RL)进一步优化,使其在标准基准测试和开放式生成评估中表现出色。
用于评估其他语言模型的开源工具集
Prometheus-Eval 是一个用于评估大型语言模型(LLM)在生成任务中表现的开源工具集。它提供了一个简单的接口,使用 Prometheus 模型来评估指令和响应对。Prometheus 2 模型支持直接评估(绝对评分)和成对排名(相对评分),能够模拟人类判断和专有的基于语言模型的评估,解决了公平性、可控性和可负担性的问题。
Llama-3 70B模型的LoRA适配器,扩展上下文长度至超过524K。
Llama-3 70B Gradient 524K Adapter是一个基于Llama-3 70B模型的适配器,由Gradient AI Team开发,旨在通过LoRA技术扩展模型的上下文长度至524K,从而提升模型在处理长文本数据时的性能。该模型使用了先进的训练技术,包括NTK-aware插值和RingAttention库,以高效地在高性能计算集群上进行训练。
业界首个llama3中文指令微调模型,支持长文本输入,实现高质量中文问答。
Unichat-llama3-Chinese是中国联通AI创新中心发布的业界首个基于Meta Llama 3模型的中文指令微调模型。该模型通过增加中文数据进行训练,实现了高质量的中文问答功能,支持长达28K的上下文输入,并计划发布支持长度64K的版本。模型的微调指令数据经过人工筛查,确保了数据的高质量。此外,该模型还计划陆续发布700亿参数的中文微调版本,包括长文本版本和加入中文二次预训练的版本。
基于GPT-4架构的先进聊天模型,提供高质量的对话体验。
gpt2-chatbot是一个基于GPT-4架构的大型语言模型,由OpenAI训练。它在对话中表现出色,能够提供结构化、有深度的回答,并且在知识存储方面表现出色。该模型在LMSYS的Direct Chat和Arena (Battle)模式中可供使用,允许用户无需登录即可进行交流和评估。
用Kimi AI一键总结网页内容
Kimi Copilot是一款网页总结助手,基于Kimi的长文本大模型,能够一键总结网页内容。安装后,在浏览网络文章时点击插件图标,或使用快捷键 Ctrl/Cmd+Shift+K,即可一键召唤Kimi.ai总结网页内容。特点包括总结更全面、极简易用、支持暗黑模式等。适用于个人用户或需要快速总结网页内容的用户。
一款12.1B参数的解码型语言模型
Stable LM 2 12B是一种12.1十亿参数的解码器式语言模型,经过2万亿token的多语种和代码数据集预训练。该模型可用作基础模型进行下游任务的微调,但在使用前需要评估和微调以确保安全可靠的性能。该模型可能包含不当内容,建议使用时谨慎评估,不要用于可能会给他人造成伤害的应用。
一个用于评估大型视觉语言模型的精英基准测试集
MMStar是一个旨在评估大型视觉语言模型多模态能力的基准测试集。它包含1500个精心挑选的视觉语言样本,涵盖6个核心能力和18个细分维度。每个样本都经过了人工审查,确保具有视觉依赖性,最小化数据泄露,并需要高级多模态能力来解决。除了传统的准确性指标外,MMStar还提出了两个新的指标来衡量数据泄露和多模态训练的实际性能增益。研究人员可以使用MMStar评估视觉语言模型在多个任务上的多模态能力,并借助新的指标发现模型中存在的潜在问题。
使用大型语言模型进行逆向工程:反编译二进制代码
LLM4Decompile是一个开源项目,旨在创建并发布第一个专门用于反编译的LLM(大型语言模型),并通过构建首个专注于可重编译性和可执行性的反编译基准测试来评估其能力。该项目通过编译大量C代码样本到汇编代码,然后使用这些数据对DeepSeek-Coder模型进行微调,构建了评估基准Decompile-Eval。
连接不同语言模型和生成视觉模型进行文本到图像生成
LaVi-Bridge是一种针对文本到图像扩散模型设计的桥接模型,能够连接各种预训练的语言模型和生成视觉模型。它通过利用LoRA和适配器,提供了一种灵活的插拔式方法,无需修改原始语言和视觉模型的权重。该模型与各种语言模型和生成视觉模型兼容,可容纳不同的结构。在这一框架内,我们证明了通过整合更高级的模块(如更先进的语言模型或生成视觉模型)可以明显提高文本对齐或图像质量等能力。该模型经过大量评估,证实了其有效性。
大型语言模型 (LLM) 性能评测的众包开放平台
LMSys 聊天机器人竞技场排行榜是一个用于评估大型语言模型 (LLM) 性能的众包开放平台。它利用 Elo 排名系统对 LLM 进行排名,排名依据是超过 30 万用户投票的结果。用户可以在网站上与不同的 LLM 进行互动,并根据其对话质量进行投票。该排行榜可用于追踪不同 LLM 的发展趋势,并为研究人员和开发者提供基准测试工具。
下一代AI模型家族,提供行业领先的智能
Claude 3模型家族是Anthropic推出的下一代AI模型,包括Claude 3 Haiku、Claude 3 Sonnet和Claude 3 Opus三个不同能力的模型。这些模型在多种认知任务上设立了新的行业基准,提供从即时响应到复杂任务处理的不同选择。Claude 3模型在分析、预测、内容创作、代码生成和非英语对话等方面能力增强,同时在视觉处理和长文本记忆方面表现出色。
MetaVoice-1B是一个语音合成模型。
MetaVoice-1B是一个1.2B参数的语音合成基础模型,通过训练10万小时的语音数据而成。它具有以下特点:支持英语情感语调和语气;支持语音克隆;少量数据(1分钟内)就可实现印度语音克隆;无参克隆美式和英式语音(30秒音频);支持长文本语音合成。我们在Apache 2.0许可下免费开源这个模型,可以无限制使用。
开源语言模型和训练框架
OLMo是一个开源的语言模型和训练框架,由AI2研究院发布。它提供了完整的训练数据、代码、模型参数、评估代码等资源,使研究人员能够训练并实验大规模语言模型。OLMo的优势在于真正开放,用户可以访问从数据到模型的完整信息,辅以丰富的文档,便于研究人员进行开放式研究和协作。该框架降低了语言模型研究的门槛,使更多人参与进来推动语言模型技术进步。
开源双语文生图生成模型
Taiyi-Diffusion-XL是一个开源的基于Stable Diffusion训练的双语文生图生成模型,支持英文和中文的文本到图像生成,相比之前的中文文生图模型有了显著提升。它可以根据文本描述生成照片般逼真的图像,支持多种图像风格,具有较高的生成质量和多样性。该模型采用创新的训练方式,扩展了词表、位置编码以支持长文本和中文,并在大规模双语数据集上进行训练,确保了其强大的中英文生成能力。
开源代码生成模型
Code Llama 70B是一个大型开源代码生成语言模型,可以从自然语言提示或现有代码片段生成多种编程语言的代码。它基于175亿参数的通用语言模型Llama 2,经过专门针对代码生成任务的微调,可以高效准确地生成Python、C++、Java等语言的代码。Code Llama 70B在人工评估基准测试中取得了67.8的高分,性能超过了以往的开源模型,可与专利模型媲美。它强大的代码生成能力可以提升编程效率,降低编码门槛,启发更多创新应用。
© 2024 AIbase 备案号:闽ICP备2023012347号-1