全球最大含触觉数据集Daimon Infinity发布,谷歌DeepMind等数十机构共建
2026/04/20 15:55阅读量 8
戴盟机器人联合Google DeepMind、新加坡国立大学等数十家顶尖机构,发布了全球最大规模含触觉全模态物理世界数据集Daimon Infinity。该数据集预计年内数据量达数百万小时,首批10000小时已开源至阿里魔搭社区,旨在通过视觉与触觉协同提升具身智能训练效率。数据显示,引入高质量触觉数据后,模型在精细操作任务中的训练效率可提升约10倍。
事件概述
4月15日,戴盟机器人(Daimon Robotics)联合Google DeepMind、中国移动、新加坡国立大学、香港科技大学、北京大学、清华大学等数十家全球顶尖学术机构与企业,共同发布了Daimon Infinity。这是目前全球最大规模的含触觉全模态物理世界数据集,标志着具身智能领域在数据生态建设上的重大突破。
核心信息
-
数据规模与构成:
- 数据集覆盖触觉、视觉、动作轨迹、执行动作、语音文本等多个维度。
- 预计年内数据总量将达到数百万小时,涵盖户外、家庭、工厂等复杂非标准化场景。
- 首批10,000小时数据已直接开源,上线于阿里魔搭社区(ModelScope)并置顶展示。
-
技术架构与创新:
- 基于戴盟提出的**VTLA(Vision-Tactile-Language-Action)**架构,将物理交互作为具身数据主干。
- 提供行业最高质量的触觉数据,不仅包含接触力,还覆盖接触形变、滑移趋势、接触状态及物体纹理、软硬、材质等十多种模态。
- 采用自研轻量化、便携式采集设备构建外发式数据采集网络,打破封闭实验室限制,还原真实人类经验。
-
性能表现:
- 经验证,使用Daimon Infinity进行预训练时,仅需约十分之一的数据量,即可在精细操作任务中达到更优效果。
- 训练效率实现10倍提升,有效解决了传统视觉感知因遮挡或光线不足导致的盲区问题。
-
产业意义:
- 通过“顶级数据×顶级算力”的全链路处理引擎(与阿里云合作),实现操作轨迹精度还原及多模态精准融合。
- 免费开源策略旨在避免企业重复造轮子,推动建立含触觉数据的统一技术标准,加速具身智能从实验室走向商业化落地。
值得关注
此次发布由戴盟主导,其团队源自香港科技大学机器人研究院,以视触觉技术为核心壁垒。Google DeepMind等头部机构的加入,进一步印证了行业对“视觉+触觉”深度协同路线的认可。随着高质量触觉数据的规模化供给,具身智能在复杂物理环境中的泛化能力有望得到质的飞跃。
