Meta AI眼镜隐私危机:外包审核窥探私密、技术滥用致“开盒”风险
Meta AI眼镜因数据隐私问题引发争议,用户拍摄的私密视频被传输至肯尼亚外包公司Sama,由低薪标注员人工审核。同时,该技术可被用于60秒内通过公开数据库“开盒”陌生人,且拍摄指示灯易被遮盖。当前全球AI眼镜监管存在空白,立法滞后于技术风险,企业营销承诺与实际数据流向严重不符。
事件概述
近期调查揭露Meta AI眼镜存在严重隐私漏洞,用户无意或有意录制的私密内容(如更衣、如厕画面)被传输至海外外包团队进行人工审核。与此同时,技术滥用案例显示,仅需接入公开数据库,AI眼镜即可在1分钟内获取陌生人的姓名、住址等敏感信息。这些事件暴露了可穿戴设备在数据采集、处理及监管层面的巨大风险。
核心事实与数据
- 人工审核机制:Meta AI眼镜录制的视频被传输至肯尼亚外包公司Sama。标注员时薪不足2美元,需长期接触暴力、裸露及私密内容,导致严重的心理问题。2023年南非籍前员工诉讼中,肯尼亚法院裁定Meta为实际雇主。
- 数据泄露风险:
- 2024年10月,哈佛学生利用Meta AI眼镜接入美国选民登记和社交媒体公开数据库,1分钟内即可识别陌生人身份并获取家庭住址等信息。
- 拍摄指示灯可通过物理手段遮盖,受害者难以察觉被录制。
- Meta计划推进人脸识别功能,进一步加剧隐私担忧。
- 技术缺陷:尽管Meta声称人脸会自动模糊,但算法在光线不足等情况下可能失效,导致私密内容完整记录。即便用户选择“不分享额外数据”,后台仍持续与服务器通信,无法完全离线运行。
- 市场预测:预计到2028年,全球AI眼镜出货量将达到2000万副,小米、阿里巴巴、华为等企业均在布局该领域。
监管滞后与企业责任
- 法律空白:
- 欧盟《人工智能法案》禁止公共空间生物识别监控,但未明确覆盖可穿戴设备的日常使用场景。
- 中国虽禁止在更衣室等场所安装固定摄像设备,但对可移动、可佩戴的AI眼镜缺乏专门约束。
- 全国政协委员建议增设独立的“侵犯公民隐私罪”或“偷窥罪”。
- 企业合规争议:Meta在营销中强调“为隐私而设计”,但在冗长的隐私政策中隐藏了人工审查条款。用户集体诉讼指控其隐瞒关键事实,营销承诺与实际情况不符。
- 专家观点:技术本身具有中性价值(如辅助残障人士),但企业商业化利用正在模糊隐私边界。电子隐私信息中心指出,佩戴者无法代表他人给予同意,现有法律框架难以应对此类动态风险。
