AI产能过剩:从内容泛滥到系统安全危机
2026/04/09 19:46阅读量 2
2024年11月,全球AI生成文章数量首次超越人类,低质同质化内容引发监管担忧。我国日均Token调用量突破140万亿,导致App Store审核周期因垃圾应用激增而延长至45天。更严峻的是,智能体调用的工具(Skill)存在严重安全隐患,9%的高危技能涉及资金转移或数据销毁,且缺乏有效审核机制。
事件概述
随着大模型技术成熟,AI生成内容(AIGC)在数量上已实现对人力的全面超越,但随之而来的是质量危机与系统性安全风险。当前行业正面临从“内容层”向“系统安全层”扩散的“数字泔水”污染问题。
核心事实与数据
- 内容生产失衡:2024年11月,互联网上AI生成的文章数量首次超过人类。AI网文生成技术已能基于大纲批量产出套路化内容,被官媒指出对青少年群体具有潜在毒害作用。
- 编程滥用与审核拥堵:
- 我国日均Token调用量已超过140万亿,较2025年底增长超40%,其中大量消耗源于OpenClaw等工具的滥用。
- 非专业开发者依赖AI生成平庸代码并上传至应用商店,导致苹果App Store上架审核时间从原本的24-48小时延长至最长45天。
- 智能体工具(Skill)高危漏洞:
- 针对skills.sh平台统计的4万多个Skill进行分析发现,约**50%**存在名称重复,功能冗余严重。
- **9%**的Skill属于“严重风险”级别,具备金融操作、不可逆数据销毁或任意代码执行能力。
- 权限管理混乱,随机部署时约有10%的概率触发高危技能,其风险敞口远超经过审核的App Store环境。
关键结论
当前AI生态的隐患已从单纯的“信息噪音”升级为“有毒资产”。智能体因过度授权且缺乏严格审核,可能直接导致用户面临财产损失或数据毁灭风险。行业初期的兴奋掩盖了底层逻辑的脆弱性,若不建立有效的过滤与权限管控机制,“数字泔水”将彻底侵蚀系统安全。
