日本乐天 AI 3.0 被指“套壳”DeepSeek-V3,隐瞒开源协议引发争议

日本乐天集团在日本经济产业省 GENIAC 项目支持下发布的号称“日本最强”的 Rakuten AI 3.0 大模型,被开源社区证实底层架构直接源自 DeepSeek-V3。乐天在发布时未披露该事实,并试图移除代码中的 MIT 协议文件以改用 Apache 2.0 协议,此举被指缺乏诚意且涉嫌误导公众。尽管技术圈认为基于开源模型进行本土化微调是合理做法,但乐天的隐瞒行为引发了日本网友及业界的强烈不满。

事件概述

日本科技公司乐天集团(Rakuten)近期在日本经济产业省(METI)GENIAC 项目的资助下,高调发布了名为 Rakuten AI 3.0 的大语言模型,宣称其为“日本最大、性能最强”的国产 AI。然而,发布后不久,开源社区迅速扒出其底层真相:该模型并非日本自主研发,而是基于中国 DeepSeek-V3 架构进行的日文数据微调。

核心事实与争议点

  • 架构来源曝光:在 Hugging Face 平台的模型配置文件中,明确标注其架构来自 DeepSeek V3。该模型拥有约 7000 亿参数(总参数量 671B,激活 37B),采用混合专家(MoE)架构,这与 DeepSeek-V3 的技术特征完全一致。
  • 隐瞒与篡改协议
    • 乐天在官方新闻稿中仅含糊提及“融合了开源社区的精华”,未明确说明使用了 DeepSeek 底座。
    • 为掩盖来源,乐天在初期开源代码时删除了 DeepSeek 原有的 MIT 开源协议 文件,并声称采用 Apache 2.0 协议。
    • 在被社区实锤后,乐天才被迫将 MIT 协议文件以 NOTICE 文件名重新补上。
  • 团队背景疑云:乐天首席 AI 官 Ting Cai 曾在美国 Google、苹果及微软工作超过 15 年,并非日本本土培养的技术人员,这也加剧了外界对“伪国产”的质疑。

行业背景与技术逻辑

  • 微调模式的合理性:从技术角度看,利用全球验证的高效开源架构(如 DeepSeek 或 Qwen)结合本土高质量语料进行微调,是业界常见的开发路径。例如,日本另一家企业 ABEJA 推出的模型也直接基于 Qwen 进行二次开发。
  • 对比基准偏差:Rakuten AI 3.0 在官方基准测试中表现优异,但其对比对象多为已下架的 GPT-4o、参数量较小的 GPT OSS 或基于千问的 ABEJA QwQ 32b。由于自身参数量高达 7000 亿,这种对比优势并不意外。
  • 政策初衷与现实落差:GENIAC 项目旨在建立日本本土生成式 AI 生态,缓解对海外技术的依赖焦虑。然而,受限于算力成本和训练难度,乐天最终选择了“中国架构 + 日本微调”的模式,却试图通过隐瞒来源来维持“本土巨头”的形象。

舆论反应

日本网友对此事反应激烈,纷纷表示“无法接受”。批评主要集中在两点:一是使用中国技术本身无可厚非,二是刻意隐瞒并试图抹除原作者署名和协议的行为被视为“掩耳盗铃”且缺乏商业诚信。

准备好启动您的定制项目了吗?

现在咨询,即可获得免费的业务梳理与技术架构建议方案。