需求人群:
"计算机视觉、机器学习等领域的研究人员"
使用场景示例:
研究人员可以用该数据集进行场景理解、手势识别等方面的研究
可用于训练识别日常物品和场景的计算机视觉模型
开发具备环境感知能力的视觉导航系统
产品特色:
包含日常生活场景的第一人称视频序列
丰富的传感器数据和注释数据
由Aria机器感知服务生成的3D点云数据
配套的研究工具
浏览量:82
最新流量情况
月访问量
16.80k
平均访问时长
00:00:27
每次访问页数
2.07
跳出率
47.70%
流量来源
直接访问
43.63%
自然搜索
40.61%
邮件
0.09%
外链引荐
10.10%
社交媒体
4.64%
展示广告
0
截止目前所有流量趋势图
地理流量分布情况
加拿大
5.33%
德国
7.50%
英国
6.79%
印度
4.72%
美国
53.49%
机器人硬件平台,集成传感器和末端执行器。
Digit Plexus是一个机器人硬件平台,旨在为各种机器人手集成触觉传感器提供标准化的硬件-软件解决方案。该平台能够将基于视觉和基于皮肤的触觉传感器(如Digit、Digit 360和ReSkin)整合到控制板中,并通过单根电缆将所有数据编码传输到主机电脑。这种集成方式允许无缝的数据收集、控制和分析。产品背景信息显示,Digit Plexus与Wonik Robotics合作开发了基于该平台的下一代Allegro Hand,并且可以通过特定链接表达早期访问的兴趣。
具有人类级别精度的人工触觉传感器
Digit 360是由Meta FAIR发布的人工手指形状的触觉传感器,它能够以人类级别的精度数字化触觉。该传感器拥有超过18种独特的传感特性,允许研究人员结合使用各种传感技术或单独隔离信号进行深入分析。Digit 360在检测空间细节上达到了7微米,力量检测上达到了1毫牛,响应速度是人的30倍,为触觉传感技术树立了新的标准。
Aria每日活动数据集,加速机器感知和人工智能发展
Aria每日活动数据集是Aria项目发布的首个试点数据集的重新发布版本,该数据集利用新的工具和位置数据进行了更新,以加速机器感知和人工智能技术的发展。数据集包含日常生活场景下的第一人称视频序列,并配有丰富的传感器数据、注释数据以及由Aria机器感知服务生成的3D点云数据等。研究人员可以使用Aria提供的专用工具快速上手使用该数据集开展研究。
大规模视频自动配音数据集
ANIM-400K是一个包含超过425,000个对齐的日语和英语动画视频片段的综合数据集,支持自动配音、同声翻译、视频摘要、流派/主题/风格分类等各种视频相关任务。该数据集公开用于研究目的。
自监督触觉表示,用于基于视觉的触觉传感。
Sparsh是一系列通过自监督算法(如MAE、DINO和JEPA)训练的通用触觉表示。它能够为DIGIT、Gelsight'17和Gelsight Mini生成有用的表示,并在TacBench提出的下游任务中大幅度超越端到端模型,同时能够为新下游任务的数据高效训练提供支持。Sparsh项目包含PyTorch实现、预训练模型和与Sparsh一起发布的数据集。
大规模人脸文本-视频数据集
CelebV-Text是一个大规模、高质量、多样化的人脸文本-视频数据集,旨在促进人脸文本-视频生成任务的研究。数据集包含70,000个野外人脸视频剪辑,每个视频剪辑都配有20个文本,涵盖40种一般外观、5种详细外观、6种光照条件、37种动作、8种情绪和6种光线方向。CelebV-Text通过全面的统计分析验证了其在视频、文本和文本-视频相关性方面的优越性,并构建了一个基准来标准化人脸文本-视频生成任务的评估。
连接实时物理数据,推动物理AI时代
Archetype AI发布了一个创新的人工智能平台Newton™,专为理解物理世界设计。Newton™结合实时传感器数据和自然语言处理技术,帮助用户提出开放式问题并做出智能决策。Newton™连接全球数十亿传感器的实时物理数据,利用多种传感器数据和自然语言解锁物理世界见解。已应用于建筑安全、车辆状况感知、家庭安全、物流优化等多个行业。支持定制优化,数据私密性,边缘部署能力。
多模态多视角视频数据集和基准挑战
Ego-Exo4D 是一个多模态多视角视频数据集和基准挑战,以捕捉技能人类活动的自我中心和外部中心视频为中心。它支持日常生活活动的多模态机器感知研究。该数据集由 839 位佩戴摄像头的志愿者在全球 13 个城市收集,捕捉了 1422 小时的技能人类活动视频。该数据集提供了专家评论、参与者提供的教程样式的叙述和一句话的原子动作描述等三种自然语言数据集,配对视频使用。Ego-Exo4D 还捕获了多视角和多种感知模态,包括多个视角、七个麦克风阵列、两个 IMUs、一个气压计和一个磁强计。数据集记录时严格遵守隐私和伦理政策,参与者的正式同意。欲了解更多信息,请访问官方网站。
大规模长视频数据集,结构化字幕
MiraData是一个大规模的视频数据集,专注于长视频片段,平均时长72秒,提供结构化字幕,平均字幕长度318字,丰富了视频内容的描述。通过使用GPT-4V等技术,MiraData在视频理解和字幕生成方面展现出高准确性和语义连贯性。
智能语音生成与数据集
ClearCypherAI是一家总部位于美国的AI初创公司,致力于构建前沿的解决方案。我们的产品包括文本转语音(T2A)、语音转文本(A2T)和语音转语音(A2A),支持多语言、多模态、实时语音智能。我们还提供自然语言数据集、威胁评估、AI定制平台等服务。我们的产品具有高度定制性、先进的技术和优质的客户支持。
AI模型数据集平台
始智AI是一家提供AI模型和数据集的平台,致力于为科研单位、企事业单位和个人提供高质量的AI模型和数据集。始智AI的优势在于提供多种类型的AI模型和数据集,包括图像、视频、自然语言处理等,用户可以根据自己的需求选择合适的模型和数据集。始智AI的定价合理,用户可以根据自己的需求选择不同的套餐,满足不同的需求。始智AI的定位是成为AI模型和数据集领域的领先平台。
LiveFood是一个美食视频高光检测数据集和全局原型编码模型
LiveFood是一个包含超过5100个美食视频的数据集,视频包括食材、烹饪、呈现和食用四个领域,所有视频均由专业工人精细注释,并采用严格的双重检查机制进一步保证注释质量。我们还提出了全局原型编码(GPE)模型来处理这个增量学习问题,与传统技术相比获得了竞争性的性能。
用于训练通用目标分割模型的视频数据集
SA-V Dataset是一个专为训练通用目标分割模型设计的开放世界视频数据集,包含51K个多样化视频和643K个时空分割掩模(masklets)。该数据集用于计算机视觉研究,允许在CC BY 4.0许可下使用。视频内容多样,包括地点、对象和场景等主题,掩模从建筑物等大规模对象到室内装饰等细节不等。
基于IMU传感器实现的面部表情捕捉系统
IMUSIC是一个基于IMU传感器信号进行面部表情捕捉的新颖系统。它使用经过优化的IMU传感器配置方案和解耦算法,能够仅通过IMU信号准确预测面部Blendshape参数。与基于视觉的传统面部捕捉方案不同,IMUSIC可以在视觉受阻的场景下进行面部捕捉,同时保护用户隐私。
数据标注专家 - 为您的训练数据集进行标注
数据标注专家是一个为您提供优质训练数据集的数据标注服务平台。我们拥有专业的团队、先进的标注工具和有效的方法论,致力于帮助您获得更好的训练数据集。我们的服务包括数据标注、算法调优、数据清洗等。无论您是需要图像标注、文本标注还是其他类型的标注,我们都可以满足您的需求。
模型和数据集的集合
Distil-Whisper是一个提供模型和数据集的平台,用户可以在该平台上访问各种预训练模型和数据集,并进行相关的应用和研究。该平台提供了丰富的模型和数据集资源,帮助用户快速开展自然语言处理和机器学习相关工作。
生成合成数据,管理数据,提高数据质量,构建最佳AI项目数据集。
YData是一个数据中心AI平台,提供生成合成数据、管理数据、提高数据质量和构建最佳AI项目数据集的功能。通过YData,您可以生成高质量的合成数据集,对数据进行管理和改进,构建出适用于您的AI项目的最佳数据集。YData还提供数据目录、数据配置和数据测量等功能。YData的定价信息,请联系官方获取。YData定位为数据科学领域的数据质量工具。
数学文本智能标记数据集
AutoMathText是一个广泛且精心策划的数据集,包含约200GB的数学文本。数据集中的每条内容都被最先进的开源语言模型Qwen进行自主选择和评分,确保高标准的相关性和质量。该数据集特别适合促进数学和人工智能交叉领域的高级研究,作为学习和教授复杂数学概念的教育工具,以及为开发和训练专门处理和理解数学内容的AI模型提供基础。
全球首个无需呼吸测醉器的被动醉酒驾驶检测系统
DrunkSense是VinAI公司推出的一款革命性的醉酒驾驶检测技术,它利用多传感器方法,结合面部表情跟踪、车辆控制监控和空气酒精传感器,能够在无需驾驶员主动配合的情况下,以85%的准确率检测出驾驶员是否处于醉酒状态。这项技术不仅提高了检测的灵敏度,还减少了因醉酒驾驶引发的交通事故,为现代交通安全带来了突破性的改进。DrunkSense技术的出现,为汽车制造商提供了符合严格标准的安全解决方案,有助于提升所有交通参与者的安全感。
高质量的AI客服数据集,训练智能客服
Botdocs是一系列高质量的数据集,用于训练人工智能处理常见的客服互动。它可用于训练大型语言模型、意图分类器和自然语言理解引擎,以帮助企业自动化常见的客服互动,并提供对客户意图的理解和提供卓越的客户体验。Botdocs以CSV、JSONL和Dialogflow(ES)格式提供,以满足AI开发人员和系统对大型语言模型、意图分类器和自然语言理解引擎的不同需求。
表情包视觉标注数据集
emo-visual-data 是一个公开的表情包视觉标注数据集,它通过使用 glm-4v 和 step-free-api 项目完成的视觉标注,收集了5329个表情包。这个数据集可以用于训练和测试多模态大模型,对于理解图像内容和文本描述之间的关系具有重要意义。
首个说唱音乐生成数据集
RapBank是一个专注于说唱音乐的数据集,它从YouTube收集了大量说唱歌曲,并提供了一个精心设计的数据预处理流程。这个数据集对于音乐生成领域具有重要意义,因为它提供了大量的说唱音乐内容,可以用于训练和测试音乐生成模型。RapBank数据集包含94,164首歌曲链接,成功下载了92,371首歌曲,总时长达到5,586小时,覆盖84种不同的语言,其中英语歌曲的总时长最高,占总时长的大约三分之二。
多语言预训练数据集
FineWeb2是由Hugging Face提供的一个大规模多语言预训练数据集,覆盖超过1000种语言。该数据集经过精心设计,用于支持自然语言处理(NLP)模型的预训练和微调,特别是在多种语言上。它以其高质量、大规模和多样性而闻名,能够帮助模型学习跨语言的通用特征,提升在特定语言任务上的表现。FineWeb2在多个语言的预训练数据集中表现出色,甚至在某些情况下,比一些专门为单一语言设计的数据库表现更好。
大规模图像编辑数据集
UltraEdit是一个大规模的图像编辑数据集,包含约400万份编辑样本,自动生成,基于指令的图像编辑。它通过利用大型语言模型(LLMs)的创造力和人类评估员的上下文编辑示例,提供了一个系统化的方法来生产大规模和高质量的图像编辑样本。UltraEdit的主要优点包括:1) 它通过利用大型语言模型的创造力和人类评估员的上下文编辑示例,提供了更广泛的编辑指令;2) 其数据源基于真实图像,包括照片和艺术作品,提供了更大的多样性和减少了偏见;3) 它还支持基于区域的编辑,通过高质量、自动生成的区域注释得到增强。
生成计算机视觉的合成数据集
Datagen是一个可通过平台或API访问的合成图像数据集,可根据需要生成逼真的全身人像和人与物体在不同环境中互动的场景。用户可以通过代码对单个参数进行完全控制,实现人类中心数据集的设计和生成。
高质量英文网页数据集
FineWeb数据集包含超过15万亿个经过清洗和去重的英文网页数据,来源于CommonCrawl。该数据集专为大型语言模型预训练设计,旨在推动开源模型的发展。数据集经过精心处理和筛选,以确保高质量,适用于各种自然语言处理任务。
大规模多模态医学数据集
MedTrinity-25M是一个大规模多模态数据集,包含多粒度的医学注释。它由多位作者共同开发,旨在推动医学图像和文本处理领域的研究。数据集的构建包括数据提取、多粒度文本描述生成等步骤,支持多种医学图像分析任务,如视觉问答(VQA)、病理学图像分析等。
© 2025 AIbase 备案号:闽ICP备08105208号-14