Meta推出多模态开放数据集AEA,通过Project Aria眼镜收集

分类:大语言模型 | 热度:67 ℃

Meta推出数据集Aria Everyday Activities (AEA) ,这是一个以第一人称视角记录的多模态开放数据集,通过Project Aria眼镜收集。AEA数据集包含了多个佩戴者在五个不同地理位置的室内环境中记录的143个日常活动序列。每个记录都包含了通过Project Aria眼镜收集的多模态传感器数据,此外,还提供了机器感知数据,包括高频全局对齐的3D轨迹、场景点云、每帧的3D注视向量和与时间对齐的语音转录。论文中展示了一些由这个数据集支持的研究应用示例,包括神经场景重建和提示分割。AEA是一个开源数据集,可以从projectaria.com下载。同时,还提供了开源的Project Aria工具和示例,展示如何使用这个数据集。

地址:https://www.projectaria.com/datasets/aea

论文地址:https://arxiv.org/abs/2402.13349

主要功能:

  • 提供丰富的多模态传感器数据,用于研究和开发个性化和情境化的人工智能助手。
  • 支持机器感知服务,提供高精度的3D位置数据、注视追踪和语音转录。
  • 促进了神经场景重建和提示分割等研究应用的发展。

主要特点:

  • 4D数据集,包含空间-时间对齐的多日活动记录。
  • 提供了高精度的6自由度(6DoF)轨迹和半密集点云,用于3D环境重建。
  • 包含了与时间对齐的语音转录,有助于理解佩戴者的意图。
  • 数据集是开源的,可以方便地下载和使用。

工作原理:

  • 使用Project Aria眼镜收集第一人称视角的视频、音频和其他传感器数据。
  • 通过机器感知服务(MPS)处理原始数据,生成高精度的3D轨迹和注视数据。
  • 提供了时间同步的多设备记录,确保不同观察结果在空间和时间上的准确对齐。

具体应用场景:

  • 用于开发和测试个性化的人工智能助手,这些助手可以理解用户的上下文和意图。
  • 在增强现实(AR)和虚拟现实(VR)应用中,用于创建沉浸式、逼真的虚拟记忆场景重建。
  • 在自动驾驶和机器人导航研究中,用于理解和预测人类行为。
  • 在多模态学习和计算机视觉研究中,用于提高模型对复杂场景和动态对象的理解能力。

总的来说,AEA数据集为研究人员提供了一个丰富的资源,用于探索和开发能够理解和响应用户日常活动的人工智能技术。

声明: 猎游人 每天为你带来最新的游戏和硬件打折情报,帮你精心挑选值得玩的游戏,让您的钱花的更值!本站信息大部分来自于网友爆料,如果您发现了优质的游戏或好的价格,不妨爆料给我们吧(谢绝任何商业爆料)! 点此爆料

0条评论

Hi,您需要填写昵称和邮箱!
姓名 (必填)
邮箱 (必填)
网站

暂时木有评论