腾讯OpenClaw与“龙虾十条”难解算力中心闲置困局
腾讯一日发布三款OpenClaw相关产品,配合深圳“龙虾十条”政策,试图通过个人用户场景激活闲置算力。然而,受限于国产算力适配难、企业垫资门槛高及大众用户渗透率不足,算力券核销率低,智算中心利用率普遍低于30%。随着GPU折旧周期短于应用层爆发速度,算力中心面临资产快速贬值风险,单纯依靠短期热潮难以解决结构性过剩问题。
事件概述
2026年3月11日,腾讯在一天内连续发布三款OpenClaw相关产品:WorkBuddy正式上线、QClaw曝光,并同步推出企业微信官方接入教程。同日,深圳市龙岗区发布“龙虾十条”政策,从补贴部署到算力支持进行全方位扶持。这一系列动作旨在利用OpenClaw(开源智能体框架)将算力消耗场景从大模型训练延伸至个人用户,以缓解地方政府智算中心的高闲置率问题。
核心矛盾:算力券“发得出”却“用不掉”
尽管各地政府大力推行算力补贴政策,但实际落地效果存在显著瓶颈:
- 政策数据空白:自2023年北京、上海、深圳等地陆续发放算力券以来,公开渠道从未披露过任何地区的核销率数据。
- 企业端障碍:
- 资金门槛:以深圳为例,企业需先全额垫资使用服务,凭发票、结算单等凭证方可抵扣,这对初创公司现金流构成巨大压力。
- 技术适配:国产算力与国际通用软件生态适配困难,导致企业更倾向于直接采购亚马逊、微软等海外云服务。
- 利用率现状:
- 中国信通院报告显示,全国上线智算中心整体利用率仅为32%。
- IDC数据显示,企业级通用算力中心利用率仅10%-15%,部分国产芯片闲置率高达70%-80%。
- 部分智算中心上架率不足50%,年运营成本超3000万元,却难以找到持续消耗算力的场景。
OpenClaw带来的需求变化与局限
OpenClaw的普及首次将算力消耗场景拉向个人用户,但其需求结构呈现明显的“分层”特征:
- 重度用户贡献主要增量:开发者运行自动化任务链(涉及文件读写、代码执行、多轮API调用),Token消耗量是普通聊天的几十倍甚至上百倍,且需求持续稳定。MiniMax、Kimi等厂商近期收入激增印证了这一点。
- 大众用户渗透缓慢:周鸿祎、王坚等行业领袖指出,当前配置OpenClaw对普通人仍较困难,真正的渗透率远未到位。多数非技术背景用户因配置门槛或不知如何应用而流失。
- 短期峰值效应:三四月份的“养龙虾”热潮可能带来短暂的消耗峰值,但随后需求将收敛为“窄而深”的形态。对于依赖高利用率生存的算力中心而言,这种波动无法支撑其长期运营。
大厂卡位战:入口争夺而非模型之争
腾讯与飞书在OpenClaw生态中的布局逻辑揭示了行业竞争的新焦点:
- 腾讯策略:QClaw采用“三明治”架构,底层为OpenClaw能力,中间层封装部署与路由,顶层依托微信和QQ入口。值得注意的是,腾讯默认支持Kimi、MiniMax、GLM、DeepSeek等竞品模型,表明其核心诉求并非模型调用分成,而是锁定用户在通讯工具中的任务发起行为及数据资产。
- 飞书策略:通过官方插件深度嵌入企业工作流(读取纪要、调动表格),构建“组织级工作上下文”,抢占B端协同场景。
- 竞争本质:双方争夺的是“任务发起场景”。谁锁住了用户发起任务的入口,谁就掌握了Agent时代的主动权。
深层隐忧:基础设施折旧与应用爆发的剪刀差
尽管“基础设施激活应用”的故事在宽带和4G时代成功上演,但在AI算力领域面临截然不同的挑战:
- 资产属性差异:
- 通信基建:由国有运营商建设,无折旧回款压力,可等待应用层长达数年的培育期。
- 算力中心:大量民营资金投入,GPU硬件折旧周期通常为4-5年,但英伟达架构迭代速度极快(约2年)。黄仁勋曾指出,新一代架构出货时,旧架构即便免费也无人问津。北美新建数据中心平均需24个月通电,而GPU换代仅需18-20个月,导致新卡到货时旧机房尚未建成,资产在等待中持续贬值。
- 市场天花板与格局:
- 用户规模:消费互联网用户近乎无限扩张,而OpenClaw的重度用户目前仍局限于开发者和特定企业,市场天花板较低。
- 竞争格局:编排层竞争者多为腾讯、字节、阿里等拥有流量入口的大厂,留给新创业公司的空间被大幅压缩。
结论
短期内,OpenClaw热潮带来的需求拉升无法根本解决算力过剩问题。随着热潮退去,若应用层渗透速度跟不上GPU的经济折旧速度,算力中心将面临严峻的商业模式挑战。最终受益者大概率是已掌握流量入口的大厂及反应敏捷的垂直云服务商,而大量自建算力中心的投资方能否在窗口期关闭前跑通闭环,仍是未知数。
