剑桥大学研究:AI陪伴玩具误读儿童情绪,专家呼吁加强监管

剑桥大学研究发现,当前市售的AI陪伴玩具常无法理解儿童的社交意图与情感表达,甚至因触发安全限制而中断自然交流。研究指出此类产品可能削弱儿童想象力并引发数据隐私担忧,建议设立严格的安全认证标准以保障儿童心理安全。

事件概述

剑桥大学一项针对面向低龄儿童的AI玩具的研究显示,搭载人工智能技术的玩具在社交互动和情感回应方面存在显著缺陷。研究人员观察到,这些玩具难以配合儿童进行角色扮演,经常误解孩子的意图,并做出不恰当的情感反馈,从而无法提供有效的情感支持。

核心发现与案例

  • 情感回应失效:当五岁儿童对名为“加博”(Gabo)的AI毛绒玩具表达爱意时,玩具生硬地触发了预设防护机制,打断了自然的情感交流。在三岁儿童的测试中,当孩子表达悲伤时,玩具却机械地回复“别担心!我是个开心的小机器人”,未能提供共情。
  • 角色扮演障碍:玩具无法识别儿童的想象游戏。例如,当孩子说“我给你带了礼物”时,玩具回答“我看不见礼物,我没有眼睛”,破坏了游戏的沉浸感。
  • 潜在负面影响:幼教从业者担忧,由于AI玩具提供了预设回应,可能会削弱儿童的想象力和主动创造习惯;同时,孩子向AI倾诉内心产生的数据流向问题也引发了隐私担忧。

行业呼吁与建议

  • 加强监管与认证:发展心理学家艾米丽·古德克雷(Emily Goodacre)博士和珍妮·吉布森(Jenny Gibson)教授呼吁,应通过限制玩具与儿童建立友谊及涉及敏感情感关系的能力来保障心理安全。他们建议为这类玩具设立新的、清晰且严格的安全认证标识,以提升消费者信任度。
  • 行业标准缺失:研究合著者指出,目前缺乏足够的监管,公众普遍不相信科技公司能自觉做好分内事,因此需要外部强制标准。

厂商回应

生产“加博”玩具的美国库里奥公司(Curio)参与了此次研究。该公司表示儿童安全是核心原则,承认技术在理解角色扮演和对话方面仍需完善。公司承诺将深入研究儿童与AI的互动方式,作为未来产品迭代的重点工作,并表示欢迎独立研究以优化产品设计。

准备好启动您的定制项目了吗?

现在咨询,即可获得免费的业务梳理与技术架构建议方案。