Cursor 与 Kimi 从争议到合作:中国开源模型接力 DeepSeek 成全球焦点
Cursor 自研模型 Composer 2 被曝底层基于月之暗面 Kimi K2.5 微调,引发开源协议争议后迅速转为官方合作,凸显中国开源模型的技术实力。Kimi 近期凭借架构创新论文、黄仁勋在 GTC 的背书及商业爆发,取代 DeepSeek 成为中国 AI 开源领域的最新代表。这一系列事件标志着中国大模型在全球技术栈中的话语权持续上升,形成类似硅谷的交替竞争格局。
事件概述:Cursor 与 Kimi 的合作反转
北京时间 3 月 20 日,AI 编程工具 Cursor 发布自研模型 Composer 2,宣称进行了“继续预训练结合强化学习”。然而,开发者随即发现其底层模型 ID 指向 Kimi K2.5(kimi-k2p5-rl-0317-s515-fast),且 tokenizer 与 Kimi 完全一致。
- 争议爆发:月之暗面预训练负责人杜宇伦指出,Composer 2 未遵守 Kimi K2.5 采用的修改版 MIT 许可证(要求高营收/高活产品需标注来源),并质疑未支付费用。该言论随后被删除。
- 迅速反转:舆论发酵不到 24 小时,月之暗面官方宣布与 Cursor 达成合作,确认 Cursor 通过推理服务商 Fireworks AI 获得授权。Cursor 联合创始人承认未在博客中提及基座来源是失误,并解释选择 K2.5 是因为其“最强”。
- 核心逻辑:Cursor 面临依赖竞品(如 Anthropic、OpenAI)做编程工具的悖论,而中国开源模型既具备顶级能力又无直接竞争威胁,成为其理想底座。尽管 Cursor 估值目标高达 500 亿美元,公开承认使用中国模型可能影响叙事,但事实无法掩盖。
Kimi 的爆发:技术、舞台与商业三重突破
Kimi 近期经历了一周的高密度曝光,全面接棒 DeepSeek 成为全球关注焦点:
- 技术论文突破:3 月 16 日,月之暗面发布架构论文《Attention Residuals》,提出优化 Transformer 残差连接的新方法。实验显示训练效率提升约 25%,推理延迟增加不足 2%。该成果获马斯克、Andrej Karpathy 等业界大佬点赞,被视为深度学习基础设施层面的重要创新。
- GTC 全球舞台:
- 3 月 17 日,英伟达 CEO 黄仁勋在 GTC 2026 Keynote 中将 Kimi K2.5 作为展示推理能力的标杆模型,取代了去年的 DeepSeek。
- 3 月 18 日,月之暗面创始人杨植麟登台演讲,系统披露 K2.5 在 Token 效率、长上下文和 Agent 集群三大维度的技术路线。
- 商业表现飙升:
- 收入爆发:K2.5 发布后 20 天累计收入超过 2025 年全年;个人订阅支付订单环比增长 8280%。
- 估值跃升:估值从 2025 年底的 43 亿美元飙升至 2026 年 3 月的 180 亿美元,新一轮融资正在推进。
行业趋势:中国开源模型的“接力赛”
- 光环转移:DeepSeek 曾引领风潮(如 V3 架构被 Kimi 沿用),但近期相对沉寂;Kimi 凭借底层创新和商业化成功,填补了“中国 AI 开源代表”的位置。
- 策略差异:DeepSeek 采用纯 MIT 许可证,渗透率极高;Kimi 采用带商业限制的修改版 MIT,更注重底层架构创新(如 Attention Residuals)。
- 生态演变:中国模型正形成类似硅谷的“交替接管”模式(DeepSeek -> Kimi -> ...),推动技术迭代与话语权巩固。这种螺旋式上升的竞争格局,使得中国大模型在全球技术栈中的影响力持续扩大。
