需求人群:
"用于中文文本处理、生成和理解任务"
使用场景示例:
用于中文NLP研究
中文文章自动生成
中文文本情感分析
产品特色:
20亿参数的大语言模型
中文语言任务表现优秀
适应中文、英文和编程代码
开放资源支持进一步研究和应用
浏览量:69
最新流量情况
月访问量
0
平均访问时长
00:00:00
每次访问页数
0.00
跳出率
0.00%
流量来源
直接访问
0
自然搜索
0
邮件
0
外链引荐
0
社交媒体
0
展示广告
0
截止目前所有流量趋势图
强大的中文语言模型
Beagle14-7B 是一个强大的中文语言模型,可以用于各种自然语言处理任务。它基于多个预训练模型进行了合并,包含丰富的语言知识和表达能力。Beagle14-7B 具有高效的文本生成能力和准确的语义理解能力,可以广泛应用于聊天机器人、文本生成、摘要提取等任务。Beagle14-7B 的定价信息请访问官方网址了解详情。
多语言预训练语言模型
「书生·浦语2.0」InternLM2是一个面向中文和英文的大型多语言预训练语言模型。它具有语言理解、自然语言生成、多模式推理、代码理解等强大的能力。模型采用Transformer架构并进行海量数据的预训练,在长文本理解、对话、数学运算等多个方向上都达到了业界领先水平。该系列模型包含多种规模,用户可以选择合适的模型进行下游任务微调或构建聊天机器人等应用。
开源的中英双语预训练语言模型
LingoWhale-8B是一个开源的大规模中英双语预训练语言模型,具有强大的自然语言理解和生成能力。它通过在海量高质量中英文数据上进行预训练,可以完成长文本的理解和多轮交互。该模型采用Transformer架构,参数量达80亿。它在多个中文和英文公开基准测试上都取得了领先的效果。LingoWhale-8B完全开放给学术研究使用,个人开发者可以免费用于商业用途。该模型可以广泛应用于聊天机器人、知识问答、文本生成等领域。
业界首个llama3中文指令微调模型,支持长文本输入,实现高质量中文问答。
Unichat-llama3-Chinese是中国联通AI创新中心发布的业界首个基于Meta Llama 3模型的中文指令微调模型。该模型通过增加中文数据进行训练,实现了高质量的中文问答功能,支持长达28K的上下文输入,并计划发布支持长度64K的版本。模型的微调指令数据经过人工筛查,确保了数据的高质量。此外,该模型还计划陆续发布700亿参数的中文微调版本,包括长文本版本和加入中文二次预训练的版本。
构建最好的中文Llama大模型,完全开源可商用。
Llama中文社区是一个专注于Llama模型在中文方面的优化和上层建设的技术社区。社区提供基于大规模中文数据的预训练模型,并对Llama2和Llama3模型进行持续的中文能力迭代升级。社区拥有高级工程师团队支持,丰富的社区活动,以及开放共享的合作环境,旨在推动中文自然语言处理技术的发展。
一款开源大型语言模型,适用于中英文
MediaTek Research发布了名为MR Breeze-7B的新开源大型语言模型,拥有70亿参数,擅长处理中英文。相比先前的BLOOM-3B,MR Breeze-7B吸收了20倍的知识,使其能够精准处理传统中文语言的文化和语言细微差别。优化后,MR Breeze-7B在处理速度上胜过其他模型,为用户带来更流畅的体验。定价免费。
超千亿参数的大语言模型
百川智能Baichuan 3是一款超千亿参数的大语言模型,在多个权威通用能力评测中展现出色,特别在中文任务上超越了GPT-4。它在自然语言处理、代码生成、医疗任务等领域表现优异,采用了多项创新技术手段提升模型能力,包括动态数据选择、重要度保持和异步CheckPoint存储等。训练过程中采用因果采样的动态训练数据选择方案,保证数据质量;引入了重要度保持的渐进式初始化方法,优化模型训练稳定性;并针对并行训练问题进行了一系列优化,性能提升超过30%。
AmigoAI,面向未来的AI创作助手
AmigoAI是一个基于大规模语言模型的AI创作助手,帮助用户提高工作效率,实现自动化创作。它可以根据提示文本自动生成各类内容,支持代码、文章、故事等创作,还可进行智能对话。AmigoAI采用独特的深度学习技术,支持中文输入,输出风格连贯流畅。它是提升个人和组织产出的有力工具。
大型语言模型角色扮演框架
RoleLLM是一个角色扮演框架,用于构建和评估大型语言模型的角色扮演能力。它包括四个阶段:角色概要构建、基于上下文的指令生成、使用GPT进行角色提示和基于角色的指令调整。通过Context-Instruct和RoleGPT,我们创建了RoleBench,这是一个系统化和细粒度的角色级别基准数据集,包含168,093个样本。此外,RoCIT在RoleBench上产生了RoleLLaMA(英语)和RoleGLM(中文),显著提高了角色扮演能力,甚至与使用GPT-4的RoleGPT取得了可比较的结果。
基于MINIMAX最新一代中文大语言模型的AI智能助理
应事AI是一款基于MINIMAX最新一代中文大语言模型的AI智能助理,帮助用户高效写作、激发灵感、获取知识、做出决策。应事拥有强大的语言处理能力,能够快速准确地理解用户的需求,并给出相应的建议和解决方案。应事的优势在于其高效、准确、智能的语言处理能力,能够帮助用户提高工作效率和创造力。应事的定价为免费试用+付费订阅,用户可以根据自己的需求选择不同的订阅方案。
腾讯混元大模型,中文创作能力
腾讯混元大模型是由腾讯研发的大语言模型,具备强大的中文创作能力,复杂语境下的逻辑推理能力,以及可靠的任务执行能力。该模型持续训练终身学习,覆盖五大核心优势能力,包括多轮对话、内容创作、逻辑推理、知识增强和多模态(敬请期待)。丰富的应用场景,提供多样化服务,包括文档场景、会议场景、广告场景和营销场景等。
WeLM Playground是一款开源的大型中文语言模型聊天工具
WeLM Playground是基于开源中文语言模型WeLM的在线聊天 Demo,用户可以通过网页与 AI 对话、获取写作帮助。它提供稳定流畅的语言生成,支持自由聊天、话题控制、长篇闲聊、文本续写等功能。作为 Anthropic 公司开源的大模型之一,WeLM Playground 完全免费,代码开源,用户无需注册即可使用。它旨在让普通用户也能安全便捷地体验 LLM 对话带来的便利。
一款高效经济的语言模型,具有强大的专家混合特性。
DeepSeek-V2是一个由236B参数构成的混合专家(MoE)语言模型,它在保持经济训练和高效推理的同时,激活每个token的21B参数。与前代DeepSeek 67B相比,DeepSeek-V2在性能上更强,同时节省了42.5%的训练成本,减少了93.3%的KV缓存,并提升了最大生成吞吐量至5.76倍。该模型在8.1万亿token的高质量语料库上进行了预训练,并通过监督式微调(SFT)和强化学习(RL)进一步优化,使其在标准基准测试和开放式生成评估中表现出色。
高质量英文网页数据集
FineWeb数据集包含超过15万亿个经过清洗和去重的英文网页数据,来源于CommonCrawl。该数据集专为大型语言模型预训练设计,旨在推动开源模型的发展。数据集经过精心处理和筛选,以确保高质量,适用于各种自然语言处理任务。
基于7B参数的强大对话智能语言模型
360Zhinao是由奇虎360开源的一系列7B规模的智能语言模型,包括基础模型和三个不同长度上下文的对话模型。这些模型经过大规模中英文语料预训练,在自然语言理解、知识、数学、代码生成等多种任务上表现出色,并具有强大的长文本对话能力。模型可用于各种对话式应用的开发和部署。
一个基于稀疏专家模型的大型语言模型
Mixtral-8x22B是一个预训练的生成式稀疏专家语言模型。它由Mistral AI团队开发,旨在推进人工智能的开放发展。该模型具有141B个参数,支持多种优化部署方式,如半精度、量化等,以满足不同的硬件和应用场景需求。Mixtral-8x22B可以用于文本生成、问答、翻译等自然语言处理任务。
谷歌开源的大型语言模型,能够生成高质量的文本内容
RecurrentGemma是谷歌开发的一系列开放语言模型,采用创新的循环架构设计,在文本生成任务上性能优异,包括问答、摘要和推理等。与Gemma模型相比,RecurrentGemma所需的内存更少,生成长序列的推理速度更快。该模型提供了预训练和针对指令的微调版本,可广泛应用于内容创作、对话AI等场景。
一款12.1B参数的解码型语言模型
Stable LM 2 12B是一种12.1十亿参数的解码器式语言模型,经过2万亿token的多语种和代码数据集预训练。该模型可用作基础模型进行下游任务的微调,但在使用前需要评估和微调以确保安全可靠的性能。该模型可能包含不当内容,建议使用时谨慎评估,不要用于可能会给他人造成伤害的应用。
HyperGAI推出的创新多模态LLM框架,旨在理解和处理文本、图像、视频等多种输入模态
HPT(Hyper-Pretrained Transformers)是HyperGAI研究团队推出的新型多模态大型语言模型框架,它能够高效且可扩展地训练大型多模态基础模型,理解包括文本、图像、视频等多种输入模态。HPT框架可以从头开始训练,也可以通过现有的预训练视觉编码器和/或大型语言模型进行高效适配。
基于语言模型架构的预训练时间序列预测模型
Chronos是一系列基于语言模型架构的预训练时间序列预测模型。时间序列通过缩放和量化转换为一系列标记,然后使用交叉熵损失训练语言模型。训练完成后,通过给定历史上下文采样多个未来轨迹,获得概率性预测。Chronos模型已经在大量公开可用的时间序列数据和使用高斯过程生成的合成数据上进行了训练。
一款小型评分器,提升大型多任务语言模型性能
Cappy是一种新型方法,旨在提高大型多任务语言模型的性能和效率。它是一个轻量级的预训练评分器,基于RoBERTa,仅有3.6亿个参数。Cappy可独立解决分类任务,或作为辅助组件提升语言模型性能。在下游任务中微调Cappy,可有效整合监督信息,提高模型表现,且不需要反向传播到语言模型参数,降低了内存需求。Cappy适用于开源和封闭源代码的语言模型,是一种高效的模型微调方法。
用于NASA科学任务的基于RoBERTa的转换模型
nasa-smd-ibm-v0.1是一个基于RoBERTa的编码器转换模型,针对NASA科学任务进行了域适应优化。它在与NASA科学任务相关的科学期刊和文章上进行了微调训练,旨在增强自然语言技术,如信息检索和智能搜索等。该模型具有1.25亿个参数,使用掩码语言模型进行预训练。可用于命名实体识别、信息检索、句子转换、可扩展问答等任务,专门定位于NASA科学任务相关的科学用例。
苹果发布多模态LLM模型MM1
苹果发布了自己的大语言模型MM1,这是一个最高有30B规模的多模态LLM。通过预训练和SFT,MM1模型在多个基准测试中取得了SOTA性能,展现了上下文内预测、多图像推理和少样本学习能力等吸引人的特性。
连接不同语言模型和生成视觉模型进行文本到图像生成
LaVi-Bridge是一种针对文本到图像扩散模型设计的桥接模型,能够连接各种预训练的语言模型和生成视觉模型。它通过利用LoRA和适配器,提供了一种灵活的插拔式方法,无需修改原始语言和视觉模型的权重。该模型与各种语言模型和生成视觉模型兼容,可容纳不同的结构。在这一框架内,我们证明了通过整合更高级的模块(如更先进的语言模型或生成视觉模型)可以明显提高文本对齐或图像质量等能力。该模型经过大量评估,证实了其有效性。
WhiteRabbitNeo-7B-v1.5a 是一个预训练的大型语言模型,可用于多种自然语言处理任务。
WhiteRabbitNeo-7B-v1.5a 是WhiteRabbitNeo系列的一个版本,这是一系列大规模、面向自然语言处理任务的预训练语言模型。该模型能够支持文本生成、摘要、翻译等多种任务。
集成音乐能力的开源LLM
ChatMusician是一个开源的大型语言模型(LLM),它通过持续的预训练和微调,集成了音乐能力。该模型基于文本兼容的音乐表示法(ABC记谱法),将音乐视为第二语言。ChatMusician能够在不依赖外部多模态神经结构或分词器的情况下,理解和生成音乐。
为边缘设备定制的小型语言模型
MobiLlama是一个为资源受限设备设计的小型语言模型(SLM),它旨在提供准确且轻量级的解决方案,以满足设备上的处理需求、能效、低内存占用和响应效率。MobiLlama从更大的模型出发,通过精心设计的参数共享方案来降低预训练和部署成本。
将LLM上下文窗口扩展至200万令牌的技术
LongRoPE是微软推出的技术,可以将预训练大型语言模型(LLM)的上下文窗口扩展到2048k(200万)令牌,实现从短上下文到长上下文的扩展,降低训练成本和时间,同时保持原有短上下文窗口性能。适用于提高语言模型在长文本上的理解和生成能力,提升机器阅读理解、文本摘要和长篇文章生成等任务。
© 2024 AIbase 备案号:闽ICP备2023012347号-1