多数家长未察觉AI风险:仅三成家庭制定规则,青少年社交与思考能力受冲击
调查显示,我国中小学生使用生成式AI比例超六成,但仅约32%的家庭为其制定了使用规则,家庭监管普遍缺位。调研发现近半数学生遇烦恼首选询问AI,超两成出现“想和AI聊天而非真人”的社交异化倾向,且部分学生认为用AI代写作业不算作弊。专家呼吁AI企业尽快完善未成年人保护模式,同时建议家庭、学校及政府协同建立规范以应对伦理风险。
事件概述
中国青少年研究中心研究员孙宏艳针对中小学生使用生成式AI的情况进行了全国性摸底调研,覆盖全国七省(市)共8563名学生。调研显示,尽管AI在青少年群体中下沉速度极快,但家庭作为第一道防线在管理、风险认知和引导方面存在显著缺位。
核心数据与事实
- 用户规模:截至2026年,我国AI用户规模达6亿,包含大量中小学生。
- 普及率:超过61.7%的学生表示使用过AI,且对AI评价较为积极。
- 监管缺失:仅32.1%的家庭给孩子制定了使用AI的规则。
- 伦理风险数据:
- 46.4%的学生表示“心里有烦恼只想去问AI”。
- 21.5%的学生“想和AI聊天,不想和真人聊天”,显示出社交退缩或异化迹象。
- 19.7%的学生认为用AI代写作业不算作弊。
- 超过20%的学生只想依赖AI而不愿自己思考,超一成完全相信AI生成的内容。
- 近三成学生表示会因AI的评价影响对自己和未来的看法。
主要风险与挑战
不同于游戏或短视频,生成式AI具备生成综合答案和多轮拟人对话的特性,可能带来以下新挑战:
- 思考惰性:过度依赖AI导致独立思考能力下降。
- 社交异化:虚拟陪伴替代真实人际交往,加剧人际疏离。
- 价值观冲击:AI的评价可能干扰青少年的自我认知和价值观形成。
各方行动建议
- 家庭:尽早与孩子共同制定并执行“家庭AI使用公约”,避免事后补救。
- 学校:开展AI素养教育,不仅教授使用方法,更要明确风险边界和使用规范。
- AI企业:开发真正的“未成年人保护模式”,包括区分年龄层、过滤不适内容、限制时长与消费、加密敏感数据(如照片、位置),并融入AI素养教育内容。
- 政府:制定细化监管标准,明确企业在内容安全、隐私保护和防沉迷方面的责任。
结论
生成式AI并非不可控的洪水猛兽。通过加强社会教育、行业规范和家庭引导,形成多方合力,可以有效控制风险,使技术真正服务于青少年的成长。
