多数家长未察觉AI风险:仅三成家庭制定规则,青少年社交与思考能力受冲击

调查显示,我国中小学生使用生成式AI比例超六成,但仅约32%的家庭为其制定了使用规则,家庭监管普遍缺位。调研发现近半数学生遇烦恼首选询问AI,超两成出现“想和AI聊天而非真人”的社交异化倾向,且部分学生认为用AI代写作业不算作弊。专家呼吁AI企业尽快完善未成年人保护模式,同时建议家庭、学校及政府协同建立规范以应对伦理风险。

事件概述

中国青少年研究中心研究员孙宏艳针对中小学生使用生成式AI的情况进行了全国性摸底调研,覆盖全国七省(市)共8563名学生。调研显示,尽管AI在青少年群体中下沉速度极快,但家庭作为第一道防线在管理、风险认知和引导方面存在显著缺位。

核心数据与事实

  • 用户规模:截至2026年,我国AI用户规模达6亿,包含大量中小学生。
  • 普及率:超过61.7%的学生表示使用过AI,且对AI评价较为积极。
  • 监管缺失:仅32.1%的家庭给孩子制定了使用AI的规则。
  • 伦理风险数据
    • 46.4%的学生表示“心里有烦恼只想去问AI”。
    • 21.5%的学生“想和AI聊天,不想和真人聊天”,显示出社交退缩或异化迹象。
    • 19.7%的学生认为用AI代写作业不算作弊。
    • 超过20%的学生只想依赖AI而不愿自己思考,超一成完全相信AI生成的内容。
    • 近三成学生表示会因AI的评价影响对自己和未来的看法。

主要风险与挑战

不同于游戏或短视频,生成式AI具备生成综合答案和多轮拟人对话的特性,可能带来以下新挑战:

  1. 思考惰性:过度依赖AI导致独立思考能力下降。
  2. 社交异化:虚拟陪伴替代真实人际交往,加剧人际疏离。
  3. 价值观冲击:AI的评价可能干扰青少年的自我认知和价值观形成。

各方行动建议

  • 家庭:尽早与孩子共同制定并执行“家庭AI使用公约”,避免事后补救。
  • 学校:开展AI素养教育,不仅教授使用方法,更要明确风险边界和使用规范。
  • AI企业:开发真正的“未成年人保护模式”,包括区分年龄层、过滤不适内容、限制时长与消费、加密敏感数据(如照片、位置),并融入AI素养教育内容。
  • 政府:制定细化监管标准,明确企业在内容安全、隐私保护和防沉迷方面的责任。

结论

生成式AI并非不可控的洪水猛兽。通过加强社会教育、行业规范和家庭引导,形成多方合力,可以有效控制风险,使技术真正服务于青少年的成长。

准备好启动您的定制项目了吗?

现在咨询,即可获得免费的业务梳理与技术架构建议方案。