需求人群:
["视频高光检测","增量学习"]
使用场景示例:
使用LiveFood数据集训练视频高光检测模型
基于LiveFood的四个领域数据进行域增量学习实验
利用LiveFood的丰富注释数据进行视频理解研究
产品特色:
包含超过5100个精细注释的美食视频
涵盖食材、烹饪、呈现和食用四个领域
高质量的视频注释
全局原型编码(GPE)模型
浏览量:113
LiveFood是一个美食视频高光检测数据集和全局原型编码模型
LiveFood是一个包含超过5100个美食视频的数据集,视频包括食材、烹饪、呈现和食用四个领域,所有视频均由专业工人精细注释,并采用严格的双重检查机制进一步保证注释质量。我们还提出了全局原型编码(GPE)模型来处理这个增量学习问题,与传统技术相比获得了竞争性的性能。
生成任何3D和4D场景的先进框架
GenXD是一个专注于3D和4D场景生成的框架,它利用日常生活中常见的相机和物体运动来联合研究一般的3D和4D生成。由于社区缺乏大规模的4D数据,GenXD首先提出了一个数据策划流程,从视频中获取相机姿态和物体运动强度。基于此流程,GenXD引入了一个大规模的现实世界4D场景数据集:CamVid-30K。通过利用所有3D和4D数据,GenXD框架能够生成任何3D或4D场景。它提出了多视图-时间模块,这些模块分离相机和物体运动,无缝地从3D和4D数据中学习。此外,GenXD还采用了掩码潜在条件,以支持多种条件视图。GenXD能够生成遵循相机轨迹的视频以及可以提升到3D表示的一致3D视图。它在各种现实世界和合成数据集上进行了广泛的评估,展示了GenXD在3D和4D生成方面与以前方法相比的有效性和多功能性。
用于训练通用目标分割模型的视频数据集
SA-V Dataset是一个专为训练通用目标分割模型设计的开放世界视频数据集,包含51K个多样化视频和643K个时空分割掩模(masklets)。该数据集用于计算机视觉研究,允许在CC BY 4.0许可下使用。视频内容多样,包括地点、对象和场景等主题,掩模从建筑物等大规模对象到室内装饰等细节不等。
Aria每日活动数据集,加速机器感知和人工智能发展
Aria每日活动数据集是Aria项目发布的首个试点数据集的重新发布版本,该数据集利用新的工具和位置数据进行了更新,以加速机器感知和人工智能技术的发展。数据集包含日常生活场景下的第一人称视频序列,并配有丰富的传感器数据、注释数据以及由Aria机器感知服务生成的3D点云数据等。研究人员可以使用Aria提供的专用工具快速上手使用该数据集开展研究。
大规模视频自动配音数据集
ANIM-400K是一个包含超过425,000个对齐的日语和英语动画视频片段的综合数据集,支持自动配音、同声翻译、视频摘要、流派/主题/风格分类等各种视频相关任务。该数据集公开用于研究目的。
大规模人脸文本-视频数据集
CelebV-Text是一个大规模、高质量、多样化的人脸文本-视频数据集,旨在促进人脸文本-视频生成任务的研究。数据集包含70,000个野外人脸视频剪辑,每个视频剪辑都配有20个文本,涵盖40种一般外观、5种详细外观、6种光照条件、37种动作、8种情绪和6种光线方向。CelebV-Text通过全面的统计分析验证了其在视频、文本和文本-视频相关性方面的优越性,并构建了一个基准来标准化人脸文本-视频生成任务的评估。
将视频文件转换为结构化数据,为您的LLM提供支持。
Cloudglue是一个将视频库转换为结构化、AI准备数据的工具。它能够帮助您处理繁重的任务,提供快速、开发友好的API。无需再费力处理数据清理等问题。
将TikTok和Instagram视频转化为可购买的内容,通过ReelUp添加视频小部件,快速、无缝、适合商店速度友好。
ReelUp是一个视频转化平台,通过将TikTok和Instagram视频转化为可购买的内容,帮助商家提高销售量。其主要优点包括提高SEO、增加用户参与度以及提升购物体验。
将冗长的YouTube视频转换为3个不同的摘要(快速摘要,顺序摘要,深度探讨问题)的免费AI工具。
InsightKeeper是一款免费AI YouTube总结工具,可帮助用户将YouTube视频转换为简明扼要的摘要,节省时间提高生产力。通过本工具,用户可以快速获得重要信息,无需浪费时间观看冗长视频。
无需订阅,开始免费使用Livideo进行无限面部交换视频。
Livideo是一个提供无限面部交换视频的平台,使用AI技术,无需订阅费用,保护用户隐私。它的优势在于采用桌面应用处理视频,节省成本,并提供无限创意空间。
TwelveLabs是被领先研究人员认可为视频理解中性能最出色的人工智能,超越了云计算巨头和开源模型的基准。
TwelveLabs是一个强大的视频智能平台,通过能够看、听、推理的人工智能,发现深度见解,分析、重组和自动化工作流程。它可以看到视频背后的整个故事,是视频智能的未来。
Content Compass AI是一个AI驱动的YouTube创作者反馈工具。
Content Compass AI是一款Chrome插件,利用人工智能即时生成与您的YouTube视频相关的反馈调查,无缝集成了Google表单。它通过分析YouTube评论和视频内容,帮助您了解观众真实想法,从而提供有针对性的改进建议。该产品背景信息丰富,提供免费计划并设有透明的定价政策。
用于理解任意视频中的相机运动的工具。
CameraBench 是一个用于分析视频中相机运动的模型,旨在通过视频理解相机的运动模式。它的主要优点在于利用生成性视觉语言模型进行相机运动的原理分类和视频文本检索。通过与传统的结构从运动 (SfM) 和实时定位与*构建 (SLAM) 方法进行比较,该模型在捕捉场景语义方面显示出了显著的优势。该模型已开源,适合研究人员和开发者使用,且后续将推出更多改进版本。
无需注册,免费在线交换视频、照片和GIF中的面孔。
FaceswapFree是一款免费的AI人脸交换工具,使用强大的AI技术快速、准确地交换面孔。该工具的主要优点在于免费、无需注册,支持多种媒体格式,快速处理并提供高质量的交换结果。
生成AI库存视频,无版权问题,灵感立现。
AI Stock Video是一个基于人工智能技术生成的库存视频平台。它利用先进的深度学习模型,快速创建符合描述的独特视频,提供高品质色彩分级、逼真光线和自然运动,无需担心许可问题。
Sand AI是一家人工智能研究和产品公司,旨在推动AI发展造福全人类。
Sand AI是一家致力于推动AI发展的人工智能研究和产品公司。其最新产品Magi 1是第一个具有顶尖质量输出的自回归视频模型,具有广泛的应用前景。
一个基于深度学习的图像和视频描述模型。
Describe Anything 模型(DAM)能够处理图像或视频的特定区域,并生成详细描述。它的主要优点在于可以通过简单的标记(点、框、涂鸦或掩码)来生成高质量的本地化描述,极大地提升了计算机视觉领域的图像理解能力。该模型由 NVIDIA 和多所大学联合开发,适合用于研究、开发和实际应用中。
为 Diffusion Transformer 提供高效灵活的控制框架。
EasyControl 是一个为 Diffusion Transformer(扩散变换器)提供高效灵活控制的框架,旨在解决当前 DiT 生态系统中存在的效率瓶颈和模型适应性不足等问题。其主要优点包括:支持多种条件组合、提高生成灵活性和推理效率。该产品是基于最新研究成果开发的,适合在图像生成、风格转换等领域使用。
高保真可动画 3D 人类重建模型,快速生成动画角色。
LHM(大规模可动画人类重建模型)利用多模态变压器架构进行高保真 3D 头像重建,支持从单张图像生成可动画的 3D 人类形象。该模型能够详细保留服装几何和纹理,尤其是在面部身份和细节恢复方面表现优异,适合对 3D 重建精度有较高要求的应用场景。
Jellypod 2.0 是一款革命性的 AI 播客工具,支持视频和多种。
Jellypod 2.0 是一款全新的 AI 播客创作平台,旨在提供更高的创作自由度和灵活性。它不仅支持音频播客,还能生成视频内容,帮助用户提升播客的视觉效果和受众参与度。通过强大的 AI 技术,Jellypod 2.0 让用户无需设计技能即可创建专业的封面艺术,同时支持多语言播出和一键发布到多个平台。该产品适合各种类型的播客创作者,提供丰富的创作工具和发布选项,帮助他们更快地成长和吸引听众。
一种无混叠的任意尺度超分辨率方法。
Thera 是一种先进的超分辨率技术,能够在不同尺度下生成高质量图像。其主要优点在于内置物理观察模型,有效避免了混叠现象。该技术由 ETH Zurich 的研究团队开发,适用于图像增强和计算机视觉领域,尤其在遥感和摄影测量中具有广泛应用。
通过多实例扩散模型将单张图像生成高保真度的3D场景。
MIDI是一种创新的图像到3D场景生成技术,它利用多实例扩散模型,能够从单张图像中直接生成具有准确空间关系的多个3D实例。该技术的核心在于其多实例注意力机制,能够有效捕捉物体间的交互和空间一致性,无需复杂的多步骤处理。MIDI在图像到场景生成领域表现出色,适用于合成数据、真实场景数据以及由文本到图像扩散模型生成的风格化场景图像。其主要优点包括高效性、高保真度和强大的泛化能力。
一个高效的无边界3D城市生成框架,使用3D高斯绘制技术实现快速生成。
GaussianCity是一个专注于高效生成无边界3D城市的框架,基于3D高斯绘制技术。该技术通过紧凑的3D场景表示和空间感知的高斯属性解码器,解决了传统方法在生成大规模城市场景时面临的内存和计算瓶颈。其主要优点是能够在单次前向传递中快速生成大规模3D城市,显著优于现有技术。该产品由南洋理工大学S-Lab团队开发,相关论文发表于CVPR 2025,代码和模型已开源,适用于需要高效生成3D城市环境的研究人员和开发者。
EgoLife是一个长期、多模态、多视角的日常生活AI助手项目,旨在推进长期上下文理解研究。
EgoLife是一个面向长期、多模态、多视角日常生活的AI助手项目。该项目通过记录六名志愿者一周的共享生活体验,生成了约50小时的视频数据,涵盖日常活动、社交互动等场景。其多模态数据(包括视频、视线、IMU数据)和多视角摄像头系统为AI研究提供了丰富的上下文信息。此外,该项目提出了EgoRAG框架,用于解决长期上下文理解任务,推动了AI在复杂环境中的应用能力。
Level-Navi Agent是一个无需训练即可使用的框架,利用大语言模型进行深度查询理解和精准搜索。
Level-Navi Agent是一个开源的通用网络搜索代理框架,能够将复杂问题分解并逐步搜索互联网上的信息,直至回答用户问题。它通过提供Web24数据集,覆盖金融、游戏、体育、电影和事件等五大领域,为评估模型在搜索任务上的表现提供了基准。该框架支持零样本和少样本学习,为大语言模型在中文网络搜索代理领域的应用提供了重要参考。
© 2025 AIbase 备案号:闽ICP备08105208号-14