需求人群:
"适用于需要处理极长文本的任务,提高语言模型在长文本上的理解和生成能力,提升机器阅读理解、文本摘要和长篇文章生成等任务的性能。"
使用场景示例:
用于机器阅读理解任务,提高模型在长文本上的理解能力。
应用于文本摘要生成,提升自动摘要生成效果。
支持长篇文章生成,使模型能够更好地处理大篇幅文本。
产品特色:
扩展上下文窗口至200万令牌
低成本微调
保持短上下文性能
浏览量:69
最新流量情况
月访问量
4.38m
平均访问时长
00:07:17
每次访问页数
6.50
跳出率
38.34%
流量来源
直接访问
51.33%
自然搜索
30.08%
邮件
0.86%
外链引荐
11.05%
社交媒体
6.66%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
美国
15.94%
中国
15.11%
印度
9.28%
日本
3.94%
德国
3.35%
高质量、类人同声传译系统
CLASI是一个由字节跳动研究团队开发的高质量、类人同声传译系统。它通过新颖的数据驱动读写策略平衡翻译质量和延迟,采用多模态检索模块来增强特定领域术语的翻译,利用大型语言模型(LLMs)生成容错翻译,考虑输入音频、历史上下文和检索信息。在真实世界场景中,CLASI在中英和英中翻译方向上分别达到了81.3%和78.0%的有效信息比例(VIP),远超其他系统。
多语言对话生成模型
Meta Llama 3.1系列模型是一套预训练和指令调整的多语言大型语言模型(LLMs),包含8B、70B和405B三种规模的模型,专为多语言对话使用案例优化,性能优于许多开源和闭源聊天模型。
多语言大型语言模型,优化对话和文本生成。
Meta Llama 3.1是一系列预训练和指令调整的多语言大型语言模型(LLMs),包含8B、70B和405B三种大小的模型,专门针对多语言对话使用案例进行了优化,并在行业基准测试中表现优异。该模型使用优化的transformer架构,并通过监督式微调(SFT)和人类反馈的强化学习(RLHF)进一步与人类偏好对齐,以确保其有用性和安全性。
Bing的新型生成式搜索体验。
Bing generative search是微软Bing搜索团队推出的新型搜索体验,它结合了生成式人工智能和大型语言模型(LLMs)的能力,为用户提供定制化和动态的搜索结果。该技术通过理解用户查询,审核数百万信息源,动态匹配内容,并以新的AI生成的布局生成搜索结果,以更有效地满足用户查询的意图。
多语言对话生成模型
Meta Llama 3.1是一系列预训练和指令调整的多语言大型语言模型(LLMs),支持8种语言,专为对话使用案例优化,并通过监督式微调(SFT)和人类反馈的强化学习(RLHF)来提高安全性和有用性。
先进的大型语言模型,具备推理和编程能力。
Mistral-Large-Instruct-2407是一个拥有123B参数的先进大型语言模型(LLM),具备最新的推理、知识和编程能力。它支持多语言,包括中文、英语、法语等十种语言,并且在80多种编程语言上受过训练,如Python、Java等。此外,它还具备代理中心能力和先进的数学及推理能力。
节省LLM成本,不牺牲质量的框架
RouteLLM是一个用于服务和评估大型语言模型(LLM)路由器的框架。它通过智能路由查询到不同成本和性能的模型,以节省成本同时保持响应质量。它提供了开箱即用的路由器,并在广泛使用的基准测试中显示出高达85%的成本降低和95%的GPT-4性能。
8B参数的大型多语言生成模型
Meta Llama 3.1是一系列预训练和指令调整的多语言大型语言模型(LLMs),包含8B、70B和405B大小的版本,支持8种语言,专为多语言对话用例优化,并在行业基准测试中表现优异。Llama 3.1模型采用自回归语言模型,使用优化的Transformer架构,并通过监督式微调(SFT)和强化学习结合人类反馈(RLHF)来提高模型的有用性和安全性。
PygmalionAI的大规模推理引擎
Aphrodite是PygmalionAI的官方后端引擎,旨在为PygmalionAI网站提供推理端点,并允许以极快的速度为大量用户提供Pygmalion模型服务。Aphrodite利用vLLM的分页注意力技术,实现了连续批处理、高效的键值管理、优化的CUDA内核等特性,支持多种量化方案,以提高推理性能。
深入研究大型语言模型的内部一致性和自我反馈
ICSFSurvey是一个关于大型语言模型内部一致性和自我反馈的调查研究。它提供了对LLMs自我评估和自我更新机制的统一视角,包括理论框架、系统分类、评估方法、未来研究方向等。
数学竞赛问题的解决方案集合
NuminaMath是一套为训练最先进数学语言模型(SOTA math LLMs)而设计的数据库和模型。它包含860k+数学竞赛问题及其解决方案对,每个解决方案都使用了链式思维(Chain of Thought, CoT)推理进行模板化。此外,还有70k+数学竞赛问题,其解决方案由GPT-4通过工具集成推理(Tool-Integrated Reasoning, TIR)生成。NuminaMath通过提供高质量的数学问题和解决方案,为教育工作者和学生提供了一个宝贵的资源,帮助他们提高数学思维和解决问题的能力。
大规模城市环境中的机器人模拟交互平台。
GRUtopia是一个为各种机器人设计的交互式3D社会模拟平台,它通过模拟到现实(Sim2Real)的范式,为机器人学习提供了一个可行的路径。平台包含100k精细标注的交互场景,可以自由组合成城市规模的环境,覆盖89种不同的场景类别,为服务导向环境中通用机器人的部署提供了基础。此外,GRUtopia还包括一个由大型语言模型(LLM)驱动的NPC系统,负责社交互动、任务生成和分配,模拟了具身AI应用的社交场景。
构建和训练大型语言模型的综合框架
DataComp-LM (DCLM) 是一个为构建和训练大型语言模型(LLMs)而设计的综合性框架,提供了标准化的语料库、基于open_lm框架的高效预训练配方,以及超过50种评估方法。DCLM 支持研究人员在不同的计算规模上实验不同的数据集构建策略,从411M到7B参数模型。DCLM 通过优化的数据集设计显著提高了模型性能,并且已经促成了多个高质量数据集的创建,这些数据集在不同规模上表现优异,超越了所有开放数据集。
MacOS的简化助手
MacOS Agent 是一个基于大型语言模型(LLM)的简单、轻量级解决方案,利用Dify这个AI应用开发平台。该助手使用户,甚至儿童,能够通过自然语言命令轻松控制MacOS,就像与技术专家交谈一样简单。它不仅类似于Siri,还通过支持多轮对话增强了功能,允许用户在任务中保持上下文和连续性。例如,你可以要求助手提供一些文本,然后请求它将该文本转换为Excel或Word文件。
AI模型服务与编排平台
UbiOps是一个AI基础设施平台,帮助团队快速运行他们的AI和机器学习工作负载作为可靠和安全的微服务,而无需改变现有的工作流程。它提供了零DevOps的超快速管道、优化的计算资源、支持LLMs和CV模型等功能。UbiOps支持混合和多云工作负载编排,允许在私有或公共云环境中部署模型,确保数据和模型始终留在用户的环境中。此外,UbiOps还提供了内置的安全特性,如端到端加密、安全数据存储和访问控制,帮助企业符合相关法规。
智能记忆层,提升AI个性化体验
Mem0是一个为大型语言模型(LLMs)提供智能、自我改进记忆层的平台。它通过在用户会话、交互和AI代理之间保留信息,确保连续性和上下文,从而实现个性化的AI体验。Mem0的主要功能包括用户、会话和AI代理记忆,适应性个性化,开发者友好的API,平台一致性,以及托管服务。这些功能使得Mem0在个性化学习助手、客户支持AI代理、医疗助手、虚拟伴侣和生产力工具等多个应用场景中具有显著优势。
低代码多代理系统框架
Praison AI 是一个低代码的集中式框架,旨在简化各种大型语言模型(LLM)应用的多代理系统的创建和编排。它强调易用性、可定制性和人机交互。Praison AI 利用 AutoGen 和 CrewAI 或其他代理框架,通过预定义的角色和任务来实现复杂的自动化任务。用户可以通过命令行界面或用户界面与代理进行交互,创建自定义工具,并通过多种方式扩展其功能。
高效小型语言模型
SmolLM是一系列最新的小型语言模型,包含135M、360M和1.7B参数的版本。这些模型在精心策划的高质量训练语料库上进行训练,能够实现在本地设备上运行,显著降低推理成本并提高用户隐私。SmolLM模型在多种基准测试中表现优异,测试了常识推理和世界知识。
AI原生的新型学校
Eureka Labs 致力于构建一个AI原生的新型学校,通过结合生成式AI技术,提供个性化、高质量的教学辅助,旨在实现教育资源的广泛覆盖和深入学习。其首个产品,LLM101n,是一门引导学生训练自己的AI的本科级课程,类似于AI教学助手的缩小版。课程材料在线可获取,并计划同时运行数字和实体的课程群体。
数学视觉指令调优模型
MAVIS是一个针对多模态大型语言模型(MLLMs)的数学视觉指令调优模型,主要通过改进视觉编码数学图表、图表-语言对齐和数学推理技能来增强MLLMs在视觉数学问题解决方面的能力。该模型包括两个新策划的数据集、一个数学视觉编码器和数学MLLM,通过三阶段训练范式在MathVerse基准测试中取得领先性能。
构建知识图谱的Neo4j应用
llm-graph-builder是一个利用大型语言模型(如OpenAI、Gemini等)从非结构化数据(PDF、DOCS、TXT、YouTube视频、网页等)中提取节点、关系及其属性,并使用Langchain框架创建结构化知识图谱的应用程序。它支持从本地机器、GCS或S3存储桶或网络资源上传文件,选择LLM模型并生成知识图谱。
多模态长篇故事生成模型
SEED-Story是一个基于大型语言模型(MLLM)的多模态长篇故事生成模型,能够根据用户提供的图片和文本生成丰富、连贯的叙事文本和风格一致的图片。它代表了人工智能在创意写作和视觉艺术领域的前沿技术,具有生成高质量、多模态故事内容的能力,为创意产业提供了新的可能性。
加速长上下文大型语言模型的推理过程
MInference是一个针对长上下文大型语言模型(LLMs)的推理加速框架。它利用了LLMs注意力机制中的动态稀疏特性,通过静态模式识别和在线稀疏索引近似计算,显著提升了预填充(pre-filling)的速度,实现了在单个A100 GPU上处理1M上下文的10倍加速,同时保持了推理的准确性。
心理健康大模型,支持心理健康辅导链路。
EmoLLM是一个心理健康大模型,由LLM指令微调而来,旨在全面理解和促进个体、群体乃至整个社会的心理健康状态。它包含认知因素、情感因素、行为因素、社会环境、生理健康、心理韧性、预防和干预措施、评估和诊断工具等多个关键组成部分。EmoLLM通过微调配置,能够在心理咨询任务上提供支持,帮助用户更好地理解和应对心理问题。
多语言大型语音生成模型,提供全栈推理、训练和部署能力。
CosyVoice 是一个多语言的大型语音生成模型,它不仅支持多种语言的语音生成,还提供了从推理到训练再到部署的全栈能力。该模型在语音合成领域具有重要性,因为它能够生成自然流畅、接近真人的语音,适用于多种语言环境。CosyVoice 的背景信息显示,它是由 FunAudioLLM 团队开发,使用了 Apache-2.0 许可证。
加速长上下文大型语言模型的预填充处理
MInference 1.0 是一种稀疏计算方法,旨在加速长序列处理的预填充阶段。它通过识别长上下文注意力矩阵中的三种独特模式,实现了对长上下文大型语言模型(LLMs)的动态稀疏注意力方法,加速了1M token提示的预填充阶段,同时保持了LLMs的能力,尤其是检索能力。
智能协调子代理的框架
maestro是一个用于协调子代理的智能框架,它利用Anthropic API中的Opus和Haiku两种AI模型来分解目标任务,执行子任务,并最终整合结果。该框架支持多种API,包括Anthropic、Gemini、OpenAI等,并且通过LiteLLM简化了模型选择过程。
自主AI营销助手,全年无休创作博客和帖子。
Skott是一个AI驱动的社交媒体营销、博客和设计一体化工具,能够自主地生产数千篇博客和帖子,无需人工干预,全年365天持续运作。它基于Lyzr Agent Framework构建,提供企业级自动化服务,用户可以完全控制提示、LLMs、分析以及最重要的数据。Skott具备自我反思能力,能够持续改进内容,拥有长期记忆功能,保留用户偏好和指导方针。此外,Skott还提供24小时企业级支持,确保数据隐私,可在本地云上运行。
© 2024 AIbase 备案号:闽ICP备08105208号-14