大厂为何筑起AI高墙:美团京东限制员工使用外部大模型背后的安全与成本博弈
2026/04/04 14:43阅读量 2
美团与京东近期收紧对外部大模型的使用权限,要求业务调用需高层审批或直接拦截访问,转而强制推广自研模型。此举核心动因在于防范数据泄露风险、降低API调用成本以及消化内部采购的算力资源。然而,这种“强制吃狗粮”策略导致一线员工效率下降,甚至催生通过私人设备绕过内网限制的“地下工作”现象。
事件概述
近期,互联网巨头在内部AI工具使用上采取了一系列限制性措施,引发了关于“大厂孤岛化”的讨论。
- 美团调整:不再推荐业务部门使用阿里云提供的Qwen(通义千问)模型。若业务确需使用,必须提交详细原因并上报至X3级别(老板级)审批。目前,豆包等其他外部模型无需审批,但公司主推自研的LongCat(龙猫)模型。
- 京东限制:正式限制员工访问外部AI相关网站。当尝试打开豆包、千问、Gemini、DeepSeek、ChatGPT、Grok等内外网AI工具时,页面会被自动拦截。拦截页面提供了公司自研大模型的入口及外部AI申请通道。
核心动因分析
大厂“筑墙”行为并非单纯的商业博弈,主要基于以下三重考量:
-
数据安全与合规
- 历史沿袭:自互联网时代起,企业便严禁将本地业务数据传至外部服务器。进入云时代后,这一原则演变为私有仓库隔离、代码提交审计以及对屏幕共享、剪贴板等操作的监控。
- 行业趋势:字节跳动曾禁用Cursor、Windsurf等第三方编程软件以防范代码泄露;微软全面禁止员工使用DeepSeek应用;快手也收紧了第三方编程软件权限。此次美团与京东的措施是在此基础上的范围扩大。
-
财务成本与资源利用
- Token成本:大模型推理消耗高昂的Token费用。若允许业务线无节制调用外部API,将产生巨额账单。
- 算力消化:巨头已投入巨资采购英伟达与华为的AI芯片。若员工仍优先使用由PPU训练的外部模型(如Qwen),则与公司内部的算力投资方向背道而驰。将使用留在内部,被视为集团层面的“稳赚不赔”买卖。
-
模型飞轮效应
- 大模型需要大量业务数据“喂养”才能迭代优化。强制内部使用有助于沉淀业务数据资产,推动自研模型的定制化改进,避免仅依赖蒸馏闭源模型。
现实影响与矛盾
尽管管理层算清了安全账和财务账,但执行层面却产生了显著的负面效应:
- 效率落差:自研模型(如LongCat)在能力上起步较晚,响应速度慢且幻觉较多。员工被迫在低效工具上花费更多时间修正逻辑漏洞,而KPI截止日期并未因此放宽。
- “地下工作”泛滥:为应对内网限制,部分员工采取“双轨制”生存策略:在内网完成形式化打卡,同时利用私人设备(手机/iPad)翻墙使用Claude、Gemini等海外先进模型处理核心任务。有分析师指出,这导致原本可通过API安全调用的数据,变成了脱敏后的人工搬运。
- 隐性成本转移:公司获得了安全感、数据沉淀和成本节约,但代价是员工加班时长增加、精力损耗以及被迫在信息孤岛中重复造轮子。这种效率损失未被计入公司的显性成本核算中。
