
3 月 17 日消息,开放原子“园区行”—— 开源数据集专场于 3 月 16 日在上海漕河泾会议中心举办,“具身智能开源数据集社区”启动,并全球首发 OpenLET 全身运控数据集。
这是国家级平台发起的首个具身智能开源数据集社区,为具身智能数据基础设施建设提供制度保障与资源协同。
仪式上,“开放原子开源基金会人工智能开源社区开源数据集工作组”正式启动。工作组由开放原子开源基金会指导,联合中国信通院、上海人工智能实验室、库帕思、乐聚机器人、百度、海天瑞声、视觉中国创意社区等产学研用核心单位共同发起,旨在构建行业级数据协作机制,致力于制定 AI 数据集的开源治理框架与质量评估标准,推动数据资源在产业界、学术界的规范流通与互信共享。
随后,“开放原子具身智能开源数据集社区”正式启动。该社区由开放原子开源基金会发起建立,乐聚机器人牵头建设,联合蚂蚁灵波、库帕思、上海交通大学、哈尔滨工业大学、同济大学、宇树、具识智能、具脑磐石、无问智行等核心单位共建,是国家级平台发起的第一个具身智能开源数据集社区,致力于成为全球具身智能领域有影响力、有吸引力的真实数据资源枢纽与协作创新平台。
活动现场,OpenLET“触觉灵巧操作 + 全身运动”数据集在 AtomGit 人工智能开源社区全球首发。这是全球首个融合触觉灵巧操作与全身高动态运动的多模态具身智能数据集开源,也是国内首次开源全尺寸人形机器人全身运控多模态真机数据,填补了行业相关领域空白。
该数据集包括两大核心板块亮点:
LET 灵巧操作数据提供 6×12×10 指尖压力矩阵的触觉阵列数据、精度 ±0.5% 的六维力数据、高分辨率 RGB-D 视觉数据,实现“视觉-力触-动作”全链路同步对齐,捕捉机器人操作的全维度细节。
LET 全身运控数据覆盖 41 个关节精细控制信号,将任务维度从基础行走站立延伸至深度下蹲、弯腰等高难度全身联动任务,在动作节奏、平衡维持及交互顺应性上实现高度拟人表现。
附开源地址如下:
https://ai.gitcode.com/lejurobot/LET_Base_Dataset

