全球最大含触觉数据集Daimon Infinity发布,谷歌DeepMind等数十机构共建

2026/04/20 15:55阅读量 8

戴盟机器人联合Google DeepMind、新加坡国立大学等数十家顶尖机构,发布了全球最大规模含触觉全模态物理世界数据集Daimon Infinity。该数据集预计年内数据量达数百万小时,首批10000小时已开源至阿里魔搭社区,旨在通过视觉与触觉协同提升具身智能训练效率。数据显示,引入高质量触觉数据后,模型在精细操作任务中的训练效率可提升约10倍。

事件概述

4月15日,戴盟机器人(Daimon Robotics)联合Google DeepMind、中国移动、新加坡国立大学、香港科技大学、北京大学、清华大学等数十家全球顶尖学术机构与企业,共同发布了Daimon Infinity。这是目前全球最大规模的含触觉全模态物理世界数据集,标志着具身智能领域在数据生态建设上的重大突破。

核心信息

  • 数据规模与构成

    • 数据集覆盖触觉、视觉、动作轨迹、执行动作、语音文本等多个维度。
    • 预计年内数据总量将达到数百万小时,涵盖户外、家庭、工厂等复杂非标准化场景。
    • 首批10,000小时数据已直接开源,上线于阿里魔搭社区(ModelScope)并置顶展示。
  • 技术架构与创新

    • 基于戴盟提出的**VTLA(Vision-Tactile-Language-Action)**架构,将物理交互作为具身数据主干。
    • 提供行业最高质量的触觉数据,不仅包含接触力,还覆盖接触形变、滑移趋势、接触状态及物体纹理、软硬、材质等十多种模态。
    • 采用自研轻量化、便携式采集设备构建外发式数据采集网络,打破封闭实验室限制,还原真实人类经验。
  • 性能表现

    • 经验证,使用Daimon Infinity进行预训练时,仅需约十分之一的数据量,即可在精细操作任务中达到更优效果。
    • 训练效率实现10倍提升,有效解决了传统视觉感知因遮挡或光线不足导致的盲区问题。
  • 产业意义

    • 通过“顶级数据×顶级算力”的全链路处理引擎(与阿里云合作),实现操作轨迹精度还原及多模态精准融合。
    • 免费开源策略旨在避免企业重复造轮子,推动建立含触觉数据的统一技术标准,加速具身智能从实验室走向商业化落地。

值得关注

此次发布由戴盟主导,其团队源自香港科技大学机器人研究院,以视触觉技术为核心壁垒。Google DeepMind等头部机构的加入,进一步印证了行业对“视觉+触觉”深度协同路线的认可。随着高质量触觉数据的规模化供给,具身智能在复杂物理环境中的泛化能力有望得到质的飞跃。

准备好启动您的定制项目了吗?

现在咨询,即可获得免费的业务梳理与技术架构建议方案。