需求人群:
["音视觉语音识别研究","自动语音识别系统开发","多模态数据聚类分析"]
使用场景示例:
研究人员使用AV-HuBERT框架进行音视觉语音识别的实验研究
开发者利用AV-HuBERT模型开发能够理解不同语言环境下的语音识别应用
教育工作者使用AV-HuBERT辅助开发语言学习工具,提高学生的语言理解能力
产品特色:
音视觉语音表示学习
掩蔽多模态聚类预测
自监督学习
唇读、ASR和音视觉语音识别
浏览量:63
最新流量情况
月访问量
5.16m
平均访问时长
00:06:42
每次访问页数
5.81
跳出率
37.20%
流量来源
直接访问
52.27%
自然搜索
32.92%
邮件
0.05%
外链引荐
12.52%
社交媒体
2.15%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
中国
11.99%
德国
3.63%
印度
9.20%
俄罗斯
5.25%
美国
19.02%
自监督学习框架,用于音视觉语音处理
AV-HuBERT是一个自监督表示学习框架,专门用于音视觉语音处理。它在LRS3音视觉语音基准测试中实现了最先进的唇读、自动语音识别(ASR)和音视觉语音识别结果。该框架通过掩蔽多模态聚类预测来学习音视觉语音表示,并且提供了鲁棒的自监督音视觉语音识别。
自监督触觉表示,用于基于视觉的触觉传感。
Sparsh是一系列通过自监督算法(如MAE、DINO和JEPA)训练的通用触觉表示。它能够为DIGIT、Gelsight'17和Gelsight Mini生成有用的表示,并在TacBench提出的下游任务中大幅度超越端到端模型,同时能够为新下游任务的数据高效训练提供支持。Sparsh项目包含PyTorch实现、预训练模型和与Sparsh一起发布的数据集。
视频到声音的同步生成系统
Video-Foley是一个创新的视频到声音生成系统,它通过使用均方根(RMS)作为时间事件条件,结合语义音色提示(音频或文本),实现高控制性和同步性的视频声音合成。该系统采用无需标注的自监督学习框架,包括Video2RMS和RMS2Sound两个阶段,结合了RMS离散化和RMS-ControlNet等新颖概念,与预训练的文本到音频模型相结合。Video-Foley在声音时间、强度、音色和细节的音视频对齐和控制性方面达到了最先进的性能。
视频编辑中的手-物交互意识
HOI-Swap是一个基于扩散模型的视频编辑框架,专注于处理视频编辑中手与物体交互的复杂性。该模型通过自监督训练,能够在单帧中实现物体交换,并学习根据物体属性变化调整手的交互模式,如手的抓握方式。第二阶段将单帧编辑扩展到整个视频序列,通过运动对齐和视频生成,实现高质量的视频编辑。
零样本图像编辑,一键模仿参考图像风格
MimicBrush是一种创新的图像编辑模型,它允许用户通过指定源图像中的编辑区域和提供一张野外参考图像来实现零样本图像编辑。该模型能够自动捕捉两者之间的语义对应关系,并一次性完成编辑。MimicBrush的开发基于扩散先验,通过自监督学习捕捉不同图像间的语义关系,实验证明其在多种测试案例下的有效性及优越性。
一种自监督的视听特征对齐模型。
DenseAV是一种新颖的双编码器定位架构,通过观看视频学习高分辨率、语义有意义的视听对齐特征。它能够无需明确定位监督即可发现单词的“意义”和声音的“位置”,并且自动发现并区分这两种关联类型。DenseAV的定位能力来自于一种新的多头特征聚合操作符,它直接比较密集的图像和音频表示进行对比学习。此外,DenseAV在语义分割任务上显著超越了先前的艺术水平,并且在使用参数少于一半的情况下,在跨模态检索上超越了ImageBind。
将静态肖像和输入音频转化为生动的动画对话视频
AniTalker是一个创新的框架,它能够从单一的肖像生成逼真的对话面部动画。它通过两个自监督学习策略增强了动作表现力,同时通过度量学习开发了一个身份编码器,有效减少了对标记数据的需求。AniTalker不仅能够创建详细且逼真的面部动作,还强调了其在现实世界应用中制作动态头像的潜力。
© 2024 AIbase 备案号:闽ICP备08105208号-14