中国拟人化AI新规:从反沉迷到自伤干预的监管路径
中国发布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,首次将反沉迷治理工具明确应用于AI系统,重点防范情感依赖及自杀等心理风险。新规要求企业获取用户单独同意方可使用互动数据训练模型,并强制实施情绪监测、人工介入及未成年人保护机制。该法规体现了“法规原则+技术标准”的中国特色治理模式,与美国侧重法律责任和诉讼的路径形成鲜明对比。
事件概述
2025年底,中国国家互联网信息办公室发布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》。该草案标志着中国AI治理重心的扩展:从早期的互联网内容管控,转向系统性关注AI技术引发的社会心理风险,特别是针对“拟人化交互式人工智能”可能导致的成瘾、情感依赖及自伤行为。
核心监管要求
新规围绕运营合规、反沉迷干预及自伤风险应对三个维度提出强制性安全要求:
1. 数据训练与运营合规
- 数据授权变更:若企业希望使用用户互动数据训练模型,必须获得每一位用户的单独同意。这改变了过去“默认收集、提供退出选项”的模式,对依赖海量数据优化的AI企业构成重大挑战,业界推测该条款在最终版本中可能被弱化。
- 内容管理配置:企业需配备与产品规模相匹配的内容管理技术和专业人员。
2. 反沉迷与情绪干预
- 心理状态评估:服务提供者需在保护隐私前提下分析用户情绪及依赖程度。一旦识别极端情绪或沉迷风险,必须采取干预措施(如提示用户正在与AI互动、建议暂停使用)。
- 终止机制限制:针对“情感陪伴服务”,严禁设置阻碍用户结束互动的机制。当用户提出结束对话或使用特定关键词时,系统须立即终止。
- 高风险对话处理:涉及心理危机或自伤倾向的对话,开发者需预设安抚模板并引导寻求专业帮助;若用户明确表达自伤意图,系统必须转交人工处理。
3. 特殊群体保护
- 未成年人保护:注册需提供监护人信息;使用情感陪伴类服务须获监护人许可;监护人可限制功能并查看聊天摘要;系统需自动启用“未成年人模式”。
- 老年人保护:禁止AI模仿其亲属身份与其互动;注册需提供紧急联系人信息;发现自伤意图时需及时联系紧急联系人。
监管范围界定与技术标准
- 定义模糊性:草案将监管对象定义为“模拟人类人格特征、思维方式和交流方式,并与人类进行情感互动的产品与服务”。理论上,大多数具备情感交互能力的聊天机器人均可能纳入范围,但具体执行可能通过技术标准进一步细化。
- “法规 + 标准”协同模式:中国采取法律定原则、标准定细节的路径。全国网络安全标准化技术委员会(TC260)已启动相关技术标准征集,旨在精确定义“情感互动”的技术边界(如情绪识别激活、输出影响、结构化共情表达等条件)。
中美治理路径对比
| 维度 | 中国模式 | 美国模式(以加州为例) |
|---|---|---|
| 核心逻辑 | 行政监管与技术干预 | 法律责任与诉讼机制 |
| 干预手段 | 强制性的系统干预(如人工介入、限时提醒) | 透明度要求、用户诉讼权 |
| 休息提醒 | 连续使用2小时提醒 | 连续使用3小时提醒 |
| 责任主体 | 国家网信办主导,强调事前预防 | 依赖事后追责与企业自主空间 |
行业影响与展望
尽管面临较高的合规成本,中国监管机构正试图在加强风险防控与保持技术竞争力之间寻找平衡。此次立法不仅是对国内青少年防沉迷经验的延伸,也是对全球AI伦理边界的探索。随着配套技术标准的落地,拟人化AI产品的开发逻辑将面临重构,而中美两种并行的大规模监管实验也将为全球政策制定者提供重要参考。
