提供全面的MLLMs评估
该工具旨在通过对最新专有和开源MLLMs进行定性研究,从文本、代码、图像和视频四个模态的角度,评估其泛化能力、可信度和因果推理能力,以提高MLLMs的透明度。我们相信这些属性是定义MLLMs可靠性的几个代表性因素,支持各种下游应用。具体而言,我们评估了闭源的GPT-4和Gemini以及6个开源LLMs和MLLMs。总体上,我们评估了230个手动设计的案例,定性结果总结为12个分数(即4个模态乘以3个属性)。总共,我们揭示了14个实证发现,有助于了解专有和开源MLLMs的能力和局限性,以更可靠地支持多模态下游应用。
高效多模态大型语言模型
TinyGPT-V 是一种高效的多模态大型语言模型,通过使用小型骨干网络来实现。它具有强大的语言理解和生成能力,适用于各种自然语言处理任务。TinyGPT-V 采用 Phi-2 作为预训练模型,具备出色的性能和效率。
基于知识图谱的检索增强生成框架,赋能大型语言模型处理知识密集型任务
KG-RAG是一个任务无关的框架,它结合知识图谱的显性知识和大型语言模型的隐性知识。这里,我们利用一个巨大的生物医学知识图谱SPOKE作为生物医学上下文的提供者。KG-RAG的主要特征是它从SPOKE知识图谱中提取“与提示相关的上下文”,这被定义为响应用户提示所需的最小上下文。
大型世界模型,理解视频与语言
Large World Models是一个利用RingAttention技术训练的神经网络,专注于处理长视频和语言序列,以理解人类知识和多模态世界。它通过大规模数据集训练,实现了前所未有的上下文大小,并开源了一系列70亿参数的模型,能够处理超过100万标记的文本和视频。
学习模型间字符串关系,检查视觉世界
这篇论文系统评估了大型语言模型(LLMs)生成和识别逐渐复杂的视觉概念的能力,并展示了如何使用文本模型训练初步的视觉表示学习系统。虽然语言模型不能直接处理像素级的视觉信息,但使用代码表示图像进行研究。LLM 生成的图像虽然不像自然图像,但在图像生成和纠正方面的结果表明,准确建模字符串可以教会语言模型许多关于视觉世界的方面。此外,利用文本模型生成的图像进行自监督视觉表示学习的实验,突出了只使用 LLMs 就能训练能够对自然图像进行语义评估的视觉模型的潜力。
小型语言模型结合增强视觉词汇
Vary-toy是一个小型Vary模型,基于Qwen-1.8B作为基础“大”语言模型。Vary-toy引入了改进的视觉词汇,使模型不仅具备Vary的所有特性,还具有更广泛的泛化能力。具体来说,在生成视觉词汇的过程中,我们用目标检测驱动的正样本数据替换自然图像的负样本,更充分地利用了词汇网络的容量,使其能够高效地编码与自然物体对应的视觉信息。在实验中,Vary-toy在DocVQA上实现了65.6%的ANLS,在ChartQA上实现了59.1%的准确率,在RefCOCO上实现了88.1%的准确率,在MMVet上实现了29%的准确率。定价:免费试用,付费版本定价待定。定位:为研究人员提供在资源有限的情况下在普通GPU上训练和部署LVLMs的解决方案。
基于LLM的文本到图像生成系统
DiffusionGPT是一种基于大型语言模型(LLM)的文本到图像生成系统。它利用扩散模型构建了针对各种生成模型的领域特定树,从而能够无缝地适应各种类型的提示并集成领域专家模型。此外,DiffusionGPT引入了优势数据库,其中的思维树得到了人类反馈的丰富,使模型选择过程与人类偏好保持一致。通过广泛的实验和比较,我们展示了DiffusionGPT的有效性,展示了它在不同领域推动图像合成边界的潜力。
提升图文预训练的细粒度理解
SPARC是一种用于图文对预训练的简单方法,旨在从图像-文本对中预训练更细粒度的多模态表示。它利用稀疏相似度度量和对图像块和语言标记进行分组,通过对比细粒度的序列损失和全局图像与文本嵌入之间的对比损失,学习同时编码全局和局部信息的表示。SPARC在粗粒度信息的图像级任务和细粒度信息的区域级任务上均表现出改进,包括分类、检索、目标检测和分割。此外,SPARC提高了模型的可信度和图像描述能力。
多模态文档理解模型
DocLLM是一个提供多模态文档理解模型的平台,旨在处理企业文档中的文本和空间布局,并提供优于现有大型语言模型的性能。其模型采用轻量级扩展,避免昂贵的图像编码器,专注于边界框信息以纳入空间布局结构。通过分解经典Transformer中的注意机制,捕获文本和空间模态之间的交叉对齐。此外,设计了一个预训练目标,学习填充文本段落,以解决视觉文档中经常遇到的不规则布局和异质内容。该解决方案在14个任务的16个数据集中优于现有大型语言模型,并且对5个以前未见数据集具有良好的泛化能力。
信息提取与问题解答的文档图语言模型
DocGraphLM是一种用于信息提取和问题解答的文档图语言模型。它采用了先进的视觉丰富文档理解技术,结合了预训练语言模型和图形语义。其独特之处在于提出了联合编码器架构来表示文档,并采用了一种新颖的链接预测方法来重构文档图。DocGraphLM通过收敛的联合损失函数预测节点之间的方向和距离,优先考虑邻域恢复并降低远程节点检测的权重。在三个SotA数据集上的实验表明,采用图形特征能够在信息提取和问题解答任务上实现一致的改进。此外,我们还报告说,采用图形特征能够加速训练过程中的收敛,尽管这些特征仅通过链接预测构建。
深入了解大型语言模型的内部工作
LLMs-from-scratch将带您逐步了解LLMs的工作原理。本书将逐步指导您创建自己的LLM,通过清晰的文本、图表和示例解释每个阶段。所描述的用于教育目的的训练和开发自己的小型但功能齐全模型的方法,与创建ChatGPT等大规模基础模型的方法相似。
增强LLM推理能力的ReFT
ReFT是一种增强大型语言模型(LLMs)推理能力的简单而有效的方法。它首先通过监督微调(SFT)对模型进行预热,然后使用在线强化学习,具体来说是本文中的PPO算法,进一步微调模型。ReFT通过自动对给定问题进行大量推理路径的采样,并从真实答案中自然地得出奖励,从而显著优于SFT。ReFT的性能可能通过结合推理时策略(如多数投票和重新排名)进一步提升。需要注意的是,ReFT通过学习与SFT相同的训练问题而获得改进,而无需依赖额外或增强的训练问题。这表明ReFT具有更强的泛化能力。
扩展能力,提升效率
LLM Augmented LLMs通过将现有基础模型与更具体的模型进行组合,实现新的能力。CALM(Composition to Augment Language Models)引入模型之间的交叉注意力,以组合它们的表示并实现新的能力。其显著特点包括:(i)通过“重用”现有LLMs以及少量额外参数和数据,在新任务上扩展LLMs的规模;(ii)保持现有模型权重不变,因此保留现有的能力;(iii)适用于不同的领域和设置。实验证明,将PaLM2-S与在低资源语言上训练的较小模型进行增强,在诸如翻译成英语和低资源语言的算术推理等任务上,结果绝对改善了高达13%。类似地,当PaLM2-S与特定于代码的模型进行增强时,在代码生成和解释任务上,相对于基础模型,我们看到了高达40%的改进,与完全微调的对应模型不相上下。
面向生成场景的可控大语言模型
孟子生成式大模型(孟子 GPT)是一个面向生成场景的可控大语言模型,能够通过多轮的方式帮助用户完成特定场景中的多种工作任务。它支持知识问答、多语言翻译、通用写作和金融场景任务等功能,具有更可控、更灵活、更个性、更专业的优势。具体定价和使用方式请咨询官方网站。
由中国电信推出的千亿参数大模型
星辰语义大模型是中国电信推出的千亿参数大模型,具备强大的生成和理解能力。通过缓解多轮幻觉、增强关键信息注意力、强化知识图谱和知识溯源能力,提升模型在推理和回答准确性方面的表现。支持长文本生成和理解、知识问答、逻辑推理、数学能力和代码能力等多项功能,适用于办公、生产协同、客服等场景。
更好的文本到视频生成评价工具
该产品是一种用于评价文本到视频生成质量的工具。它引入了一种新的评价指标,即文本到视频评分(T2VScore)。该评分整合了两个关键标准:(1)文本-视频对齐,用于审查视频在呈现给定文本描述方面的忠实度;(2)视频质量,评估视频的整体制作水平。此外,为了评估提出的指标并促进未来对其的改进,该产品提供了TVGE数据集,收集了对2,543个文本到视频生成视频在这两个标准上的人类判断。对TVGE数据集的实验表明,提出的T2VScore在为文本到视频生成提供更好的评价指标方面表现出优越性。
大型语言模型是视觉推理协调器
Cola是一种使用语言模型(LM)来聚合2个或更多视觉-语言模型(VLM)输出的方法。我们的模型组装方法被称为Cola(COordinative LAnguage model or visual reasoning)。Cola在LM微调(称为Cola-FT)时效果最好。Cola在零样本或少样本上下文学习(称为Cola-Zero)时也很有效。除了性能提升外,Cola还对VLM的错误更具鲁棒性。我们展示了Cola可以应用于各种VLM(包括大型多模态模型如InstructBLIP)和7个数据集(VQA v2、OK-VQA、A-OKVQA、e-SNLI-VE、VSR、CLEVR、GQA),并且它始终提高了性能。
语言模型自我奖励训练
本产品是一种自奖励语言模型,通过 LLM 作为裁判,使用模型自身提供的奖励信号进行训练。通过迭代的 DPO 训练,模型不仅可以提高遵循指令的能力,还能提供高质量的自我奖励。经过三次迭代的 Fine-tuning,本产品在 AlpacaEval 2.0 排行榜上超过了许多现有系统,包括 Claude 2、Gemini Pro 和 GPT-4 0613。这项工作虽然只是初步研究,但为模型在两个方面持续改进的可能性打开了大门。
增强视觉语言理解的高级大型语言模型
MiniGPT-4是一个基于先进的大型语言模型的视觉语言理解模型,具有生成详细图像描述、从手写草稿生成网站等功能。它还能根据给定的图像写故事和诗歌、提供解决问题的方法、根据食物照片教用户烹饪等。MiniGPT-4通过对原始图像文本对进行预训练,并使用对话模板的对齐数据进行微调,以提高生成结果的连贯性和准确性。MiniGPT-4的定价和定位信息请参考官方网站。
大规模强化学习用于扩散模型
Text-to-image扩散模型是一类深度生成模型,展现了出色的图像生成能力。然而,这些模型容易受到来自网页规模的文本-图像训练对的隐含偏见的影响,可能无法准确地对我们关心的图像方面进行建模。这可能导致次优样本、模型偏见以及与人类伦理和偏好不符的图像。本文介绍了一种有效可扩展的算法,利用强化学习(RL)改进扩散模型,涵盖了多样的奖励函数,如人类偏好、组成性和公平性,覆盖了数百万张图像。我们阐明了我们的方法如何大幅优于现有方法,使扩散模型与人类偏好保持一致。我们进一步阐明了如何这显著改进了预训练的稳定扩散(SD)模型,生成的样本被人类偏好80.3%,同时改善了生成样本的组成和多样性。
© 2025 AIbase 备案号:闽ICP备08105208号-14