需求人群:
"LVBench适用于研究人员和开发者,他们需要评估和改进多模态大型语言模型在长视频理解方面的表现。"
使用场景示例:
研究人员使用LVBench评估不同模型在长视频问答任务上的表现
开发者利用LVBench的数据集训练和测试他们的视频理解模型
教育机构可能使用LVBench作为教学工具,帮助学生理解视频理解技术的前沿发展
产品特色:
提供长视频理解的基准测试
包含公开来源的视频,如电视剧、体育广播和日常监控录像
包含多种任务,旨在长视频理解和信息提取
利用手动注释和模型辅助技术创建视频理解问答数据集
挑战多模态模型展示长期记忆和扩展理解能力
通过LVBench推动更高级模型的发展,以处理长视频理解的复杂性
使用教程:
访问LVBench官方网站
了解LVBench的背景信息和重要性
查看数据集的详细信息,包括视频类别和子类别
分析不同模型在LVBench上的表现,了解当前技术的限制
利用LVBench的资源开发或改进自己的视频理解模型
参与LVBench的社区,与其他研究人员和开发者交流
浏览量:13
长视频理解基准测试
LVBench是一个专门设计用于长视频理解的基准测试,旨在推动多模态大型语言模型在理解数小时长视频方面的能力,这对于长期决策制定、深入电影评论和讨论、现场体育解说等实际应用至关重要。
视频指令调优与合成数据研究
LLaVA-Video是一个专注于视频指令调优的大型多模态模型(LMMs),通过创建高质量的合成数据集LLaVA-Video-178K来解决从网络获取大量高质量原始数据的难题。该数据集包括详细的视频描述、开放式问答和多项选择问答等任务,旨在提高视频语言模型的理解和推理能力。LLaVA-Video模型在多个视频基准测试中表现出色,证明了其数据集的有效性。
理解复杂视频,作诗配文的AI视频模型
MiniGPT4-Video是为视频理解设计的多模态大模型,能处理时态视觉数据和文本数据,配标题、宣传语,适用于视频问答。基于MiniGPT-v2,结合视觉主干EVA-CLIP,训练多阶段阶段,包括大规模视频-文本预训练和视频问题解答微调。在MSVD、MSRVTT、TGIF和TVQA基准上取得显著提升。定价未知。
研究项目,探索自动语言模型基准测试中的作弊行为。
Cheating LLM Benchmarks 是一个研究项目,旨在通过构建所谓的“零模型”(null models)来探索在自动语言模型(LLM)基准测试中的作弊行为。该项目通过实验发现,即使是简单的零模型也能在这些基准测试中取得高胜率,这挑战了现有基准测试的有效性和可靠性。该研究对于理解当前语言模型的局限性和改进基准测试方法具有重要意义。
多模态原生混合专家模型
Aria是一个多模态原生混合专家模型,具有强大的多模态、语言和编码任务性能。它在视频和文档理解方面表现出色,支持长达64K的多模态输入,能够在10秒内描述一个256帧的视频。Aria模型的参数量为25.3B,能够在单个A100(80GB)GPU上使用bfloat16精度进行加载。Aria的开发背景是满足对多模态数据理解的需求,特别是在视频和文档处理方面。它是一个开源模型,旨在推动多模态人工智能的发展。
机器学习工程能力的AI代理评估基准
MLE-bench是由OpenAI推出的一个基准测试,旨在衡量AI代理在机器学习工程方面的表现。该基准测试汇集了75个来自Kaggle的机器学习工程相关竞赛,形成了一套多样化的挑战性任务,测试了训练模型、准备数据集和运行实验等现实世界中的机器学习工程技能。通过Kaggle公开的排行榜数据,为每项竞赛建立了人类基准。使用开源代理框架评估了多个前沿语言模型在该基准上的表现,发现表现最佳的设置——OpenAI的o1-preview配合AIDE框架——在16.9%的竞赛中至少达到了Kaggle铜牌的水平。此外,还研究了AI代理的各种资源扩展形式以及预训练污染的影响。MLE-bench的基准代码已经开源,以促进未来对AI代理机器学习工程能力的理解。
数据库查询的自然语言处理基准测试
TAG-Bench是一个用于评估和研究自然语言处理模型在回答数据库查询方面性能的基准测试。它基于BIRD Text2SQL基准测试构建,并通过增加对世界知识或超越数据库中明确信息的语义推理要求,提高了查询的复杂性。TAG-Bench旨在推动AI和数据库技术的融合,通过模拟真实的数据库查询场景,为研究者提供了一个挑战现有模型的平台。
腾讯QQ多媒体研究团队开发的轻量级灵活视频多语言模型
Video-CCAM 是腾讯QQ多媒体研究团队开发的一系列灵活的视频多语言模型(Video-MLLM),致力于提升视频-语言理解能力,特别适用于短视频和长视频的分析。它通过因果交叉注意力掩码(Causal Cross-Attention Masks)来实现这一目标。Video-CCAM 在多个基准测试中表现优异,特别是在 MVBench、VideoVista 和 MLVU 上。模型的源代码已经重写,以简化部署过程。
评估大型语言模型的逻辑推理和上下文理解能力。
Turtle Benchmark是一款基于'Turtle Soup'游戏的新型、无法作弊的基准测试,专注于评估大型语言模型(LLMs)的逻辑推理和上下文理解能力。它通过消除对背景知识的需求,提供了客观和无偏见的测试结果,具有可量化的结果,并且通过使用真实用户生成的问题,使得模型无法被'游戏化'。
通过街霸3对战评估大型语言模型
llm-colosseum是一个创新的基准测试工具,它使用街霸3游戏来评估大型语言模型(LLM)的实时决策能力。与传统的基准测试不同,这个工具通过模拟实际游戏场景来测试模型的快速反应、智能策略、创新思维、适应性和恢复力。
高性能语言模型基准测试数据集
DCLM-baseline是一个用于语言模型基准测试的预训练数据集,包含4T个token和3B个文档。它通过精心策划的数据清洗、过滤和去重步骤,从Common Crawl数据集中提取,旨在展示数据策划在训练高效语言模型中的重要性。该数据集仅供研究使用,不适用于生产环境或特定领域的模型训练,如代码和数学。
视频理解的先进模型
Goldfish 是一种为理解任意长度视频而设计的方法论。它通过高效的检索机制,首先收集与指令相关的前k个视频片段,然后提供所需的响应。这种设计使得Goldfish能够有效处理任意长的视频序列,适用于电影或电视剧等场景。为了促进检索过程,开发了MiniGPT4-Video,该模型为视频片段生成详细的描述。Goldfish在长视频基准测试中取得了41.78%的准确率,超过了之前的方法14.94%。此外,MiniGPT4-Video在短视频理解中也表现出色,分别在MSVD、MSRVTT、TGIF和TVQA短视频基准测试中超过了现有最佳方法3.23%、2.03%、16.5%和23.59%。这些结果表明,Goldfish模型在长视频和短视频理解方面都有显著改进。
大规模长视频数据集,结构化字幕
MiraData是一个大规模的视频数据集,专注于长视频片段,平均时长72秒,提供结构化字幕,平均字幕长度318字,丰富了视频内容的描述。通过使用GPT-4V等技术,MiraData在视频理解和字幕生成方面展现出高准确性和语义连贯性。
综合表格数据学习工具箱和基准测试
LAMDA-TALENT是一个综合的表格数据分析工具箱和基准测试平台,它集成了20多种深度学习方法、10多种传统方法以及300多个多样化的表格数据集。该工具箱旨在提高模型在表格数据上的性能,提供强大的预处理能力,优化数据学习,并支持用户友好和适应性强的操作,适用于新手和专家数据科学家。
一款多功能大型视觉语言模型
InternLM-XComposer-2.5是一款支持长上下文输入和输出的多功能大型视觉语言模型。它在各种文本图像理解和创作应用中表现出色,实现了与GPT-4V相当的水平,但仅使用了7B的LLM后端。该模型通过24K交错图像文本上下文进行训练,能够无缝扩展到96K长上下文,通过RoPE外推。这种长上下文能力使其在需要广泛输入和输出上下文的任务中表现突出。此外,它还支持超高分辨率理解、细粒度视频理解、多轮多图像对话、网页制作以及撰写高质量图文文章等功能。
提升视频理解和生成的AI模型。
ShareGPT4Video系列旨在通过密集且精确的字幕来促进大型视频-语言模型(LVLMs)的视频理解以及文本到视频模型(T2VMs)的视频生成。该系列包括:1) ShareGPT4Video,40K GPT4V注释的密集视频字幕,通过精心设计的数据过滤和注释策略开发而成。2) ShareCaptioner-Video,一个高效且功能强大的任意视频字幕模型,由其注释的4.8M高质量美学视频。3) ShareGPT4Video-8B,一个简单但卓越的LVLM,其在三个先进的视频基准测试中达到了最佳性能。
大型视频-语言模型,提供视觉问答和视频字幕生成。
VideoLLaMA2-7B是由DAMO-NLP-SG团队开发的多模态大型语言模型,专注于视频内容的理解和生成。该模型在视觉问答和视频字幕生成方面具有显著的性能,能够处理复杂的视频内容,并生成准确、自然的语言描述。它在空间-时间建模和音频理解方面进行了优化,为视频内容的智能分析和处理提供了强大的支持。
视频理解领域的先进空间-时间建模与音频理解模型。
VideoLLaMA 2 是一个针对视频理解任务优化的大规模语言模型,它通过先进的空间-时间建模和音频理解能力,提升了对视频内容的解析和理解。该模型在多选视频问答和视频字幕生成等任务上展现了卓越的性能。
知识编辑基准测试,用于评估大型语言模型的知识编辑方法。
KnowEdit是一个专注于大型语言模型(LLMs)的知识编辑基准测试。它提供了一个综合的评估框架,用于测试和比较不同的知识编辑方法在修改特定领域内LLMs行为时的有效性,同时保持跨各种输入的整体性能。KnowEdit基准测试包括六个不同的数据集,涵盖了事实操作、情感修改和幻觉生成等多种编辑类型。该基准测试旨在帮助研究者和开发者更好地理解和改进知识编辑技术,推动LLMs的持续发展和应用。
一个多图像视觉语言模型,具有训练、推理和评估方案,可从云端部署到边缘设备(如Jetson Orin和笔记本电脑)。
VILA是一个预训练的视觉语言模型(VLM),它通过大规模的交错图像-文本数据进行预训练,从而实现视频理解和多图像理解能力。VILA通过AWQ 4bit量化和TinyChat框架在边缘设备上可部署。主要优点包括:1) 交错图像-文本数据对于提升性能至关重要;2) 在交错图像-文本预训练期间不冻结大型语言模型(LLM)可以促进上下文学习;3) 重新混合文本指令数据对于提升VLM和纯文本性能至关重要;4) 标记压缩可以扩展视频帧数。VILA展示了包括视频推理、上下文学习、视觉思维链和更好的世界知识等引人入胜的能力。
视频理解领域的新型状态空间模型,提供视频建模的多功能套件。
Video Mamba Suite 是一个用于视频理解的新型状态空间模型套件,旨在探索和评估Mamba在视频建模中的潜力。该套件包含14个模型/模块,覆盖12个视频理解任务,展示了在视频和视频-语言任务中的高效性能和优越性。
在线聊天机器人竞技场,比较不同语言模型的表现。
LMSYS Chatbot Arena 是一个在线平台,旨在通过用户与匿名聊天机器人模型的互动,对大型语言模型(Large Language Models, LLMs)进行基准测试。该平台收集了超过70万次人类投票,计算出LLM的Elo排行榜,以确定谁是聊天机器人领域的冠军。平台提供了一个研究预览,具有有限的安全措施,可能生成不当内容,因此需要用户遵守特定的使用条款。
面向长期视频理解的大规模多模态模型
MA-LMM是一种基于大语言模型的大规模多模态模型,主要针对长期视频理解进行设计。它采用在线处理视频的方式,并使用记忆库存储过去的视频信息,从而可以在不超过语言模型上下文长度限制或GPU内存限制的情况下,参考历史视频内容进行长期分析。MA-LMM可以无缝集成到当前的多模态语言模型中,并在长视频理解、视频问答和视频字幕等任务上取得了领先的性能。
用于评估文本到视觉生成的创新性指标和基准测试
Evaluating Text-to-Visual Generation with Image-to-Text Generation提出了一种新的评估指标VQAScore,能够更好地评估复杂的文本到视觉生成效果,并引入了GenAI-Bench基准测试集。VQAScore基于CLIP-FlanT5模型,能够在文本到图像/视频/3D生成评估中取得最佳性能,是一种强大的替代CLIPScore的方案。GenAI-Bench则提供了包含丰富组合语义的实际场景测试文本,可用于全面评估生成模型的性能。
对视觉生成模型进行基准测试
GenAI-Arena是一个用于在野外对视觉生成模型进行基准测试的平台。用户可以匿名参与竞技,对比目标模型的表现,并投票选出更优秀的模型。平台支持不同领域的匿名模型对决,帮助用户找到最佳的条件图像生成模型。用户可以点击“New Round”开始新的对决,并通过点击按钮投票选择更优秀的模型。
冒泡鸭AI是由阶跃星辰开发的面向个人用户的AI互动平台
冒泡鸭AI是基于自研多模态大模型开发的AI互动平台,提供拟人、工具、内容、游戏、娱乐等多个领域的海量智能体。平台具有超长的上下文记忆能力和实时联网搜索能力,能够深度理解用户意图,并提供即时、准确、个性化的回复和选择。用户还可以定制个性化的AI智能体,以满足个性化的需求和偏好。
Apollo是一个多语言医学领域的模型、数据集、基准和代码库
Apollo项目由FreedomIntelligence组织维护,旨在通过提供多语言医学领域的大型语言模型(LLMs)来民主化医疗AI,覆盖6亿人。该项目包括模型、数据集、基准测试和相关代码。
© 2024 AIbase 备案号:闽ICP备08105208号-14