欢迎来到第壹文秘! | 帮助中心 分享价值,成长自我!
第壹文秘
全部分类
  • 幼儿/小学教育>
  • 中学教育>
  • 高等教育>
  • 研究生考试>
  • 外语学习>
  • 资格/认证考试>
  • 论文>
  • IT计算机>
  • 法律/法学>
  • 建筑/环境>
  • 通信/电子>
  • 医学/心理学>
  • ImageVerifierCode 换一换
    首页 第壹文秘 > 资源分类 > DOCX文档下载
    分享到微信 分享到微博 分享到QQ空间

    十大具身智能机器人数据集汇总.docx

    • 资源ID:1372814       资源大小:35.78KB        全文页数:15页
    • 资源格式: DOCX        下载积分:5金币
    快捷下载 游客一键下载
    账号登录下载
    三方登录下载: 微信开放平台登录 QQ登录
    下载资源需要5金币
    邮箱/手机:
    温馨提示:
    快捷下载时,如果您不填写信息,系统将为您自动创建临时账号,适用于临时下载。
    如果您填写信息,用户名和密码都是您填写的【邮箱或者手机号】(系统自动生成),方便查询和重复下载。
    如填写123,账号就是123,密码也是123。
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    加入VIP,免费下载
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    十大具身智能机器人数据集汇总.docx

    十大具身智能机器人数据集汇总数据集概览数据集名称发布时间发布机构(作者)任务种类与数量数据模态数据规模仿真顺实支持数据格式项目/论文链接AiBotWorld2024年12月智元机器人,上海Al实验室等移动式双臂机器人日常操作技能80余种RGB视觉、触觉、六维力、机器人状态等*100+*个机器人,*100万+*啕d真实数据(真机采集)统一采集流程(工业级质控)曲目主页论如(无)OpenX-Embodiment2023年10月GoogleDeepMind<n11l构单臂、双臂、四22种形态527项技能,160,266个任善多源视觉、传感器观测和动作(统-RLDS格式)311个场景,*100万+*嗽迹仿真+真实混合数据RLDS标准格式项目论文DROID2024年03月Stanford,UCBerkeIey等单臂机械臂(Franka7DoF)86种操作任叁多视RGB视频、机器人控制指令564个场景,76,000轨迹真实数据(跨13机构采集)统一硬件平台采集P页目论文RT-1/RT-22022年12月/2023年07月GoogleQMjQd移动式机器人(轮式底座+7DoF机械臂)境务关环任拾开居百如;家数I取等然器图自指机作一机、言、初相像语令人RT-I含13万轨迹(-111GB);预训练10亿图文对真实数据+网页图像自定义数据结构(开源代码)项目,论文BrigeDatav','z2023年09月UCBerkeley等桌面6DoF机械臂(WicipwX)3目标图像或语言指令条件的多任务视I动三文8秀It楸作24种环境,共60,096轨迹真实数据(VR遥操作采集)HDF5数据集(开源提供)颐目论文RoboSet(RgboAgent)j2023年09月CMU,MetaAl桌面机械臂(FrankaEmika)厨房场景38项任务,12种技能四视RGB视频、语言指令、动作7,500轨迹用于训练(一共-28,5轨迹)真实数据(动觉+遥操作)HDF5序歹IJ结构P页目论文ARIO(AllRobotsInOne)2024年08月鹏城实验室等联盟多种机形态(主站双臂+S趣等)合技抓放移开作盖、操涵取置动等能觉图点声文触RGB像不余心258场景,321,064任秀,303万轨迹仿真+真实遵合开源黝居ARlO统一格式标准P页目论文RoMINp2024年12月北京具能机器人创新中心等多实体:单臂、双臂、人形机等279项任务(6类技能类别)多幅Rqg-Ds磕状态、末端器信息、语言描述5.5万成功+5千失败轨迹;61类物体真实数据+部分仿真规范化数据结构项目论文RH20T2023年07月上海交通大学单臂机械臂(多相机+力传感器平台)147项操作任务(RLBench+MetaWorI力自定义)多视角视频、力反馈、音频、机器+人类示范视频F万+*k迹,数据量40TB真实数据(力回馈遥操作采集)自定义多模态数据格式颐目论文EmbodiedCi2024年io月清华大学虚拟智能体(支持无人机/无人车等)室外城市导航、场景描述、多轮问答等基准任虚拟环境多模态:高逼真3D视觉、语义标签、文本指令等2.8×2.4km城市区域模型,2栋建筑,1条街道仿真环境(基于UE5引擎)提供PythonAPI和SDK官网论文AgiBotWorld数据集由智元机器人携手上海Al实验室等机构于2024年发布,是全球首个覆盖全域真实场景、采用全能硬件平台并具备全流程质量把控的百万级真实机器人数据集。该数据集面向机器人日常生活能力训练,涵盖了80余种家庭与工业场景下的操作技能,从抓取、放置、推拉等基础动作,到搅拌、折叠、熨烫等复杂的双臂协作长程任务,几乎囊括日常生活所需的大部分动作类型。数据由100台移动双臂机器人(智元Genie-I等)在400011f真实场地中采集完成,场景包括家居、餐饮、工业、商超、办公五大类,涉及3000+种真实物品。数据模态与规模:AgiBotWorld提供多模态感知和动作数据,包括环绕布局的RGB相机画面、高精度触觉传感器数据、末端六轴力传感、机器人的关节状态和操作指令等。总计收录了来自100台机器人执行的100多万条示范轨迹(总时长约595小时,Alpha版本),数据量远超此前同类数据集(轨迹数约为Google的OpenX-Embodiment的10倍)。每条轨迹不仅包含机器人的动作序列及传感器读数,还附有对应的人类自然语言指令,实现语言-视觉-动作三模态对齐。,仿真和结构:AgiBotWorId专注于真实世界数据,不包含仿真环境数据。其采集过程制定了统一规范和工业级质控,确保不同机器人采集的数据具有一致格式和标注标准。数据采用分层文件组织(划分场景和任务),并提供JS0N/HDF5格式的标注描述,方便跨平台使用和解析(通过社区协议开放获取)。项目主页提供了数据下载(需签署协议)和使用文档。开放获取:项目主页提供了数据集的概览和获取途径。目前AgiBotWorld已在GitHub和HuggingFace发布Alpha版本。作为国内开源的百万级真机数据集,它为研究者在机器人整理、分拣、家务助理等日常任务大模型训练提供了宝贵资源,对推动具身智能大模型的应用具有重要意义。2. OpenX-Embodiment(2023年)OpenX-Embodiment是GoogleDeepMind联合全球21家研究机构于2023年推出的开放、大规模标准化机器人学习数据集。该项目整合了60个已有机器人数据集的数据,将它们统一转换为谷歌RLDS(强化学习数据集标准)格式的“episode”序列。OpenX-Embodiment涵盖从单臂、双臂机械臂到四足机器人在内的22种不同形态机器人的数据,共计超过100万条机器人示范轨迹,分属311个环境场景、527项技能,细分为160,266个具体任务。这是机器人领域迄今规模最大的多源多任务数据集之一,被誉为机器人研究的"ImageNet时刻”。任务与技能:数据集中常见技能包括拾取(PiCking)、移动(moving)推动(PUShing)、放置(Plaeing)等基本操作,涉及的任务目标多样,如几何形状物体、容器、家具、电器、餐具、食物等。这种广泛的技能和目标分布,使数据集可以支持训练通用机器人策略。研究团队在此数据集上训练并开源了RT-I-X和RT-2-X模型,将原有单一数据集训练的模型性能分别提升了50%和300%o尤其RT-2-X结合视觉语言预训练,实现了视觉-语言-动作模型对新奇技能的显著泛化。,数据模态:由于整合数据源众多,OPenX-Embodiment的数据模态因子涵盖视觉、力觉、事件序列等不同类型。每条数据以时序“episode”形式组织,包含传感器观测序列(如相机图像、深度或点云、机器人proprioception等)以及对应的机器人动作序列,采用统一的时间步长格式和元数据标注。谷歌提供的RLDS格式确保了各子数据的高度兼容和易解析性。仿真与现实:该数据集综合了真实机器人实验的数据和模拟环境生成的数据。例如,既包含Franka、KUKA等真实机械臂采集的演示,也整合了MetaWOrId、RLBenCh等模拟平台的数据。所有数据均被转换到统一空间,使仿真和真实的数据可以无缝混合用于训练这为研究者提供了同时利用模拟和真实数据训练模型的机会,有助于提高策略的泛化能力。,获取与使用:OpenX-Embodiment通过GitHub开放了数据集转换工具和部分数据。论文中详细描述了数据格式和基准模型RT-X的性能。由于数据量巨大,完整数据需要通过与作者团队联系获取,但其开放标准和部分示例数据已极大降低了复现门槛。OpenX-Embodiment为跨硬件、跨任务的通用机器人大模型研究奠定了数据基础。3. DROID(2024年)DROID(DistributedRobotInteractionDataset)是由斯坦福大学、UC伯克利、丰田研究院等机构于2024年联合发布的大规模*“野外”机器人操作数据集*O该数据集关注多场景、多任务、多操作者的丰富数据采集,旨在提升机器人策略的鲁棒性与泛化性。DROID包含由50位操作者在北美、亚洲和欧洲13家机构使用统一硬件采集的约76,000条机器人示范轨迹,总时长约350小时,覆盖86种日常操作任务和564个真实场景OPenreVieW.net。这些数据分布于家庭厨房、客厅、办公室、走廊、卧室、浴室、洗衣房等多样真实生活环境。采集硬件与任务:所有实验均使用相同的移动工作台硬件配置:包含一个FrankaPanda7-DoF机械臂、两个Zed2立体相机、腕载ZedMini相机,以及OCUIUSQuest2VR头显+手柄用于遥操作。通过VR控制器,人类操作者直观地远程操作机械臂执行任务,从而保证每条演示的独特性。任务涵盖了厨房做饭、物品收纳、家具整理、清洁整理等日常家庭及办公情景下的操作技能,共86类具体任务,难度从简单的拾取物品到复杂的长序列动作皆有。数据模态与质量:DROlD的每条数据序列包含多视角的视频帧序列(来自8-10个全局RGB-D摄像头和机械臂腕上的摄像头)、操作者的动作控制指令(如末端轨迹)以及时间同步的六维力传感读数等,力求记录丰富的接触信息。止匕外,每条轨迹还提供对应人类示范视频,方便机器人学习模仿人类策略。相比此前数据集,DROID的数据在场景、技能广度上显著更丰富,经验证可令策略性能平均提升20%以上。开放资源:DROID数据集及其基准方法已随论文公开。官网提供了数据下载、硬件搭建指南和评测代码。由于采用统一采集标准,研究者可直接在不同场景数据上训练单一模型,避免了硬件差异造成的数据分布不一致问题。DRolD的推出表明,通过大规模多场景实测数据,机器人操作策略的泛化水平和稳健性能够大幅提升,为发展具备“野外”适应能力的机器人奠定了基础。4. RT-I/RT-2(2022-2023年)RT-I(RoboticsTransformer1)与RT-2是Google在2022-2023年推出的一系列视觉-语言-动作(VLA)机器人大模型及数据集。RT-I发布于2022年,包含一个经过13个月实机采集的大规模多任务机器人数据集,以及一个Transformer架构的多任务政策模型。RT-2于2023年推出,在RT-I真实机器人数据的基础上,融合了大规模的网络图像-文本数据,进一步提升了模型的认知和推理能力。,数据组成:RT-I数据集由谷歌EVerydayRobots团队的13台移动机械臂机器人采集,机器人具有7自由度机械臂、两指夹爪和自主移动底座。在17个月内,这些机器人在办公室和厨房等真实环境中累计收集了13万段人机交互片段(总计InGB)o每段包含机器人执行某项任务的摄像头画面序列,以及对应的人类指令文本标注。RT-2则引入了从网络筛选所得的约10亿对图像-文本数据(原始WebLI数据集包含100亿对,筛选后保留10%)。通过将预训练的视觉语言知识融入机器人控制,RT-2实现了从互联网上习得常识来辅助物体操作。 任务与场景:RT-1/2的数据主要来自办公室、厨房等室

    注意事项

    本文(十大具身智能机器人数据集汇总.docx)为本站会员(p**)主动上传,第壹文秘仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知第壹文秘(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    关于我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服 - 联系我们

    copyright@ 2008-2023 1wenmi网站版权所有

    经营许可证编号:宁ICP备2022001189号-1

    本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有。第壹文秘仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知第壹文秘网,我们立即给予删除!

    收起
    展开