近日,稚晖君团队携手上海 AI Lab 等机构发布了全球首个基于真实场景的大规模机器人数据集——AgiBot World。这是一个涵盖日常生活全域场景、基于高质量硬件平台的开源数据集,为具身智能研究带来了新的机遇。
打造高质量数据集的探索之路
在具身智能研究领域,高质量的数据集一直是一个难点。此前,Google DeepMind 的 Open X-Embodiment 数据集虽然整合了 22 种机器人数据,但缺乏统一的采集标准,且部分机器人构型已经过时。斯坦福等机构的 DROID 数据集虽然流程规范,但存在大量低质量数据,反而影响了机器人的学习效果。
相比之下,AgiBot World 在数据规模和质量上都实现了突破。其长程数据规模是 Open X-Embodiment 的 10 倍,场景覆盖面扩大了 100 倍。更重要的是,其数据质量从实验室级提升到了工业级标准。
这个数据集收录了 80 多种日常生活技能,从基础的抓取、放置,到复杂的搅拌、折叠、熨烫等操作。例如,机器人能够完成毫米级精确度的内存条安装,通过双臂配合完成衣物熨烫,甚至能实现多机器人协作搬运大型物体。
走进机器人的真实世界
AgiBot World 的采集环境令人印象深刻。团队建立了超过 4000 平方米的数据采集工厂,包含 100 多种真实场景,涵盖了 3000 多种日常物品。这些场景根据实际需求分为五大类:家居占 40%、餐饮和工业各占 20%、商超和办公各占 10%。
在家居场景中,机器人能够完成花艺插花、地面清洁、厨房操作等多样化任务。比如在厨房场景,机器人可以按照配方准备沙拉,还能仔细清洗餐具。在餐饮场景中,机器人可以完成从点餐到上菜的全流程服务。
工业场景则侧重于分拣与物流自动化,机器人在流水线上能够精准完成物品打包。在商超场景中,机器人可以进行商品上架、扫码结算等操作,展现了在实际应用中的潜力。
技术细节中的匠心
这些高质量数据的背后,是一套强大的技术支撑。采集用的机器人配备了 8 个 360 度环绕式摄像头,可实现全方位环境感知。它拥有 6 个自由度的灵巧手和末端六维力传感器,全身最高可达 32 个自由度,能够应对复杂的操作任务。
数据质量控制也是一个重要环节。团队建立了从任务设计到数据采集、审核标注、算法验证的完整流程。每个环节都有专业人员把关,确保数据的可用性和准确性。
写在最后
这是稚晖君团队近三个月来的第三次重要开源。从 9 月底的 AimRT 框架,到 10 月的灵犀 X1 机器人资料,再到现在的 AgiBot World 数据集,展现了团队持续推动开源的决心。
未来,团队计划陆续开源百万真机数据和千万级仿真数据,并发布具身基座大模型和完整工具链。这些努力将为具身智能研究提供更坚实的基础。