需求人群:
"CogVLM2适合需要进行多模态对话和图像理解的研究者和开发者,特别是那些在中文和英文环境下工作,需要处理长文本和高分辨率图像的专业人士。"
使用场景示例:
用于开发智能客服系统,提高客户服务效率
在教育领域,辅助教学,提供图像和文本的交互式学习体验
在医疗领域,辅助医生进行病例分析和图像识别
产品特色:
支持多种基准测试,如TextVQA, DocVQA等
支持8K内容长度和1344*1344的高分辨率图像
提供中英文双语支持
开源模型,易于获取和使用
与上一代模型相比,性能有显著提升
提供基础调用方法和微调示例
支持CLI、WebUI和OpenAI API等多种调用方式
使用教程:
首先,访问CogVLM2的GitHub页面,了解模型的基本信息和特点
根据项目结构,选择适合的基础调用方法或微调示例
下载并安装必要的依赖和工具
根据提供的示例代码,进行模型的调用和测试
根据需要对模型进行微调,以适应特定的应用场景
将模型集成到自己的项目中,开发多模态对话应用
浏览量:104
最新流量情况
月访问量
4.85m
平均访问时长
00:06:25
每次访问页数
6.08
跳出率
35.86%
流量来源
直接访问
52.62%
自然搜索
32.72%
邮件
0.05%
外链引荐
12.34%
社交媒体
2.17%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
12.55%
德国
3.84%
印度
9.38%
俄罗斯
4.61%
美国
18.64%
第二代多模态预训练对话模型
CogVLM2是由清华大学团队开发的第二代多模态预训练对话模型,它在多个基准测试中取得了显著的改进,支持8K内容长度和1344*1344的图像分辨率。CogVLM2系列模型提供了支持中文和英文的开源版本,能够与一些非开源模型相媲美的性能。
开源多模态预训练模型,具备中英双语对话能力。
GLM-4V-9B是智谱AI推出的新一代预训练模型,支持1120*1120高分辨率下的中英双语多轮对话,以及视觉理解能力。在多模态评测中,GLM-4V-9B展现出超越GPT-4-turbo-2024-04-09、Gemini 1.0 Pro、Qwen-VL-Max和Claude 3 Opus的卓越性能。
大规模多模态预训练数据集
allenai/olmo-mix-1124数据集是由Hugging Face提供的一个大规模多模态预训练数据集,主要用于训练和优化自然语言处理模型。该数据集包含了大量的文本信息,覆盖了多种语言,并且可以用于各种文本生成任务。它的重要性在于提供了一个丰富的资源,使得研究人员和开发者能够训练出更加精准和高效的语言模型,进而推动自然语言处理技术的发展。
开源多语言多模态对话模型
GLM-4系列是智谱AI推出的新一代预训练模型,包括GLM-4-9B、GLM-4-9B-Chat、GLM-4-9B-Chat-1M和GLM-4V-9B。这些模型在语义理解、数学推理、代码执行等方面表现出色,支持多达26种语言,并具备网页浏览、代码执行等高级功能。GLM-4V-9B模型还具备高分辨率的视觉理解能力,适合多模态应用场景。
多模态原生Mixture-of-Experts模型
Aria-Base-64K是Aria系列的基础模型之一,专为研究目的和继续训练而设计。该模型在长文本预训练阶段后形成,经过33B个token(21B多模态,12B语言,69%为长文本)的训练。它适合于长视频问答数据集或长文档问答数据集的继续预训练或微调,即使在资源有限的情况下,也可以通过短指令调优数据集进行后训练,并转移到长文本问答场景。该模型能够理解多达250张高分辨率图像或多达500张中等分辨率图像,并在语言和多模态场景中保持强大的基础性能。
新一代开源预训练模型,支持多轮对话和多语言。
GLM-4-9B-Chat-1M 是智谱 AI 推出的新一代预训练模型,属于 GLM-4 系列的开源版本。它在语义、数学、推理、代码和知识等多方面的数据集测评中展现出较高的性能。该模型不仅支持多轮对话,还具备网页浏览、代码执行、自定义工具调用和长文本推理等高级功能。支持包括日语、韩语、德语在内的26种语言,并特别推出了支持1M上下文长度的模型版本,适合需要处理大量数据和多语言环境的开发者和研究人员使用。
大型多模态模型,集成表格数据
TableGPT2是一个大型多模态模型,专门针对表格数据进行预训练和微调,以解决实际应用中表格数据整合不足的问题。该模型在超过593.8K的表格和2.36M的高质量查询-表格-输出元组上进行了预训练和微调,规模前所未有。TableGPT2的关键创新之一是其新颖的表格编码器,专门设计用于捕获模式级别和单元格级别的信息,增强了模型处理模糊查询、缺失列名和不规则表格的能力。在23个基准测试指标上,TableGPT2在7B模型上平均性能提升了35.20%,在72B模型上提升了49.32%,同时保持了强大的通用语言和编码能力。
苹果发布多模态LLM模型MM1
苹果发布了自己的大语言模型MM1,这是一个最高有30B规模的多模态LLM。通过预训练和SFT,MM1模型在多个基准测试中取得了SOTA性能,展现了上下文内预测、多图像推理和少样本学习能力等吸引人的特性。
70B参数的多语言大型预训练语言模型
Meta Llama 3.3是一个70B参数的多语言大型预训练语言模型(LLM),专为多语言对话用例优化,并在常见行业基准测试中表现优于许多现有的开源和封闭聊天模型。该模型采用优化的Transformer架构,并使用监督式微调(SFT)和基于人类反馈的强化学习(RLHF)来符合人类的有用性和安全性偏好。
多模态大型语言模型,融合视觉与语言理解。
InternVL2_5-26B是一个先进的多模态大型语言模型(MLLM),在InternVL 2.0的基础上,通过引入显著的训练和测试策略增强以及数据质量提升,进一步发展而来。该模型保持了其前身的“ViT-MLP-LLM”核心模型架构,并集成了新增量预训练的InternViT与各种预训练的大型语言模型(LLMs),例如InternLM 2.5和Qwen 2.5,使用随机初始化的MLP投影器。InternVL 2.5系列模型在多模态任务中展现出卓越的性能,尤其在视觉感知和多模态能力方面。
开源的端到端自动驾驶多模态模型
OpenEMMA是一个开源项目,复现了Waymo的EMMA模型,提供了一个端到端框架用于自动驾驶车辆的运动规划。该模型利用预训练的视觉语言模型(VLMs)如GPT-4和LLaVA,整合文本和前视摄像头输入,实现对未来自身路径点的精确预测,并提供决策理由。OpenEMMA的目标是为研究人员和开发者提供易于获取的工具,以推进自动驾驶研究和应用。
字节跳动自研大模型,提供多模态能力
豆包大模型是字节跳动推出的自研大模型,通过内部50+业务场景实践验证,每日万亿级tokens大使用量持续打磨,提供多模态能力,以优质模型效果为企业打造丰富的业务体验。产品家族包括多种模型,如通用模型、视频生成、文生图、图生图、同声传译等,满足不同业务需求。
情商智商俱佳的多模态大模型
西湖大模型是心辰智能云推出的一款具有高情商和智商的多模态大模型,它能够处理包括文本、图像、声音等多种数据类型,为用户提供智能对话、写作、绘画、语音等AI服务。该模型通过先进的人工智能算法,能够理解和生成自然语言,适用于多种场景,如心理咨询、内容创作、客户服务等,具有高度的定制性和灵活性。西湖大模型的推出,标志着心辰智能云在AI领域的技术实力和创新能力,为用户提供了更加丰富和高效的智能服务体验。
高效多模态大型语言模型
TinyGPT-V 是一种高效的多模态大型语言模型,通过使用小型骨干网络来实现。它具有强大的语言理解和生成能力,适用于各种自然语言处理任务。TinyGPT-V 采用 Phi-2 作为预训练模型,具备出色的性能和效率。
视觉语言模型的最新进展,集成微信AI的新技术
POINTS-Yi-1.5-9B-Chat是一个视觉语言模型,它集成了最新的视觉语言模型技术和微信AI提出的新技术。该模型在预训练数据集过滤、模型汤(Model Soup)技术等方面有显著创新,能够显著减少预训练数据集的大小并提高模型性能。它在多个基准测试中表现优异,是视觉语言模型领域的一个重要进展。
谷歌推出的开源预训练语言模型
Gemma-2b是谷歌推出的开源预训练语言模型系列,提供了多个不同规模的变体。它可以生成高质量的文本,广泛应用于问答、摘要、推理等领域。相比其他同类模型,它模型规模较小,可以部署在不同的硬件环境中。Gemma系列追求安全、高效的人工智能技术,使更多研究者和开发者可以接触前沿的语言模型技术。
基于 Transformer 的预训练语言模型系列
Qwen1.5 是基于 Transformer 架构的解码器语言模型系列,包括不同规模的模型。具有 SwiGLU 激活、注意力 QKV 偏置、组查询注意力等特性。支持多种自然语言和代码。推荐进行后续训练,如 SFT、RLHF 等。定价免费。
多模态和多任务模型训练框架
4M是一个用于训练多模态和多任务模型的框架,能够处理多种视觉任务,并且能够进行多模态条件生成。该模型通过实验分析展示了其在视觉任务上的通用性和可扩展性,为多模态学习在视觉和其他领域的进一步探索奠定了基础。
提升图文预训练的细粒度理解
SPARC是一种用于图文对预训练的简单方法,旨在从图像-文本对中预训练更细粒度的多模态表示。它利用稀疏相似度度量和对图像块和语言标记进行分组,通过对比细粒度的序列损失和全局图像与文本嵌入之间的对比损失,学习同时编码全局和局部信息的表示。SPARC在粗粒度信息的图像级任务和细粒度信息的区域级任务上均表现出改进,包括分类、检索、目标检测和分割。此外,SPARC提高了模型的可信度和图像描述能力。
HyperGAI推出的创新多模态LLM框架,旨在理解和处理文本、图像、视频等多种输入模态
HPT(Hyper-Pretrained Transformers)是HyperGAI研究团队推出的新型多模态大型语言模型框架,它能够高效且可扩展地训练大型多模态基础模型,理解包括文本、图像、视频等多种输入模态。HPT框架可以从头开始训练,也可以通过现有的预训练视觉编码器和/或大型语言模型进行高效适配。
大规模自回归图像模型预训练
这篇论文介绍了AIM,这是一组使用自回归目标进行预训练的视觉模型。这些模型受其文本对应物,即大型语言模型(LLMs)的启发,并表现出类似的扩展特性。具体来说,我们强调了两个关键发现:(1)视觉特征的性能随着模型容量和数据量的增加而提高,(2)目标函数的价值与模型在下游任务上的性能相关。我们通过在20亿张图像上对70亿参数的AIM进行预训练,实现了在ImageNet-1k上使用冻结主干达到84.0%的准确率。有趣的是,即使在这个规模上,我们观察到性能没有饱和的迹象,这表明AIM可能代表了训练大规模视觉模型的新前沿。AIM的预训练类似于LLMs的预训练,并不需要任何图像特定的策略来稳定大规模训练。
多模态语音大型语言模型
ultravox-v0_4_1-mistral-nemo是一个基于预训练的Mistral-Nemo-Instruct-2407和whisper-large-v3-turbo的多模态语音大型语言模型(LLM)。该模型能够同时处理语音和文本输入,例如,一个文本系统提示和一个语音用户消息。Ultravox通过特殊的<|audio|>伪标记将输入音频转换为嵌入,并生成输出文本。未来版本计划扩展标记词汇以支持生成语义和声学音频标记,进而可以输入到声码器中产生语音输出。该模型由Fixie.ai开发,采用MIT许可。
多语言预训练语言模型
「书生·浦语2.0」InternLM2是一个面向中文和英文的大型多语言预训练语言模型。它具有语言理解、自然语言生成、多模式推理、代码理解等强大的能力。模型采用Transformer架构并进行海量数据的预训练,在长文本理解、对话、数学运算等多个方向上都达到了业界领先水平。该系列模型包含多种规模,用户可以选择合适的模型进行下游任务微调或构建聊天机器人等应用。
多模态语言模型
SpeechGPT是一种多模态语言模型,具有内在的跨模态对话能力。它能够感知并生成多模态内容,遵循多模态人类指令。SpeechGPT-Gen是一种扩展了信息链的语音生成模型。SpeechAgents是一种具有多模态多代理系统的人类沟通模拟。SpeechTokenizer是一种统一的语音标记器,适用于语音语言模型。这些模型和数据集的发布日期和相关信息均可在官方网站上找到。
多模态语言模型预测网络
Honeybee是一个适用于多模态语言模型的局部性增强预测器。它能够提高多模态语言模型在不同下游任务上的性能,如自然语言推理、视觉问答等。Honeybee的优势在于引入了局部性感知机制,可以更好地建模输入样本之间的依赖关系,从而增强多模态语言模型的推理和问答能力。
大型多语言预训练语言模型
Meta Llama 3.1-405B 是由 Meta 开发的一系列大型多语言预训练语言模型,包含8B、70B和405B三种规模的模型。这些模型经过优化的变压器架构,使用监督式微调(SFT)和强化学习与人类反馈(RLHF)进行调优,以符合人类对帮助性和安全性的偏好。Llama 3.1 模型支持多种语言,包括英语、德语、法语、意大利语、葡萄牙语、印地语、西班牙语和泰语。该模型在多种自然语言生成任务中表现出色,并在行业基准测试中超越了许多现有的开源和封闭聊天模型。
基于语言模型架构的预训练时间序列预测模型
Chronos是一系列基于语言模型架构的预训练时间序列预测模型。时间序列通过缩放和量化转换为一系列标记,然后使用交叉熵损失训练语言模型。训练完成后,通过给定历史上下文采样多个未来轨迹,获得概率性预测。Chronos模型已经在大量公开可用的时间序列数据和使用高斯过程生成的合成数据上进行了训练。
开源的中英双语预训练语言模型
LingoWhale-8B是一个开源的大规模中英双语预训练语言模型,具有强大的自然语言理解和生成能力。它通过在海量高质量中英文数据上进行预训练,可以完成长文本的理解和多轮交互。该模型采用Transformer架构,参数量达80亿。它在多个中文和英文公开基准测试上都取得了领先的效果。LingoWhale-8B完全开放给学术研究使用,个人开发者可以免费用于商业用途。该模型可以广泛应用于聊天机器人、知识问答、文本生成等领域。
© 2025 AIbase 备案号:闽ICP备08105208号-14