GitHub Copilot 交互数据使用政策更新:默认纳入训练,企业版不受影响

GitHub 宣布自 2026 年 4 月 24 日起,Copilot Free、Pro 及 Pro+ 用户的交互数据(包括输入、输出代码片段及上下文)将默认用于训练和改进 AI 模型。该政策不适用于 Copilot Business 和 Enterprise 用户,且此前已选择退出的用户偏好将被保留。参与计划的用户需通过设置中的“隐私”选项主动退出,其贡献的数据将帮助提升模型对开发工作流的理解及代码建议的准确性。

事件概述

GitHub 更新了 GitHub Copilot 的交互数据使用政策,旨在利用真实世界的开发者交互数据来优化 AI 模型性能。从 2026 年 4 月 24 日 起,以下变化生效:

  • 适用对象:Copilot Free、Pro 和 Pro+ 个人订阅用户。
  • 默认行为:除非用户主动选择退出(Opt out),否则其交互数据将被用于训练和改进 AI 模型。
  • 豁免对象:Copilot Business 和 Copilot Enterprise 用户不受此政策变更影响。

核心信息

1. 数据收集范围

若用户未选择退出,GitHub 可能收集并利用以下交互数据进行模型训练:

  • 用户操作:接受或修改的代码输出、发送给 Copilot 的输入(含代码片段)、对建议的反馈(点赞/点踩)。
  • 上下文信息:光标周围的代码上下文、编写的注释与文档、文件名、仓库结构及导航模式。
  • 功能交互:与 Copilot 功能(如聊天、行内建议)的互动记录。

2. 明确排除的数据

以下数据不会被用于此训练项目:

  • Copilot Business 和 Enterprise 用户的数据。
  • 企业拥有的仓库中的数据。
  • 已选择退出模型训练的用户数据。
  • Issues、Discussions 或处于静止状态(at rest)的私有仓库内容。
    • *注:GitHub 强调“静止状态”是因为在用户使用 Copilot 时,系统必须处理私有仓库代码以提供服务,这部分实时交互数据属于服务运行必要范畴,但用户可通过设置阻止其用于训练。

3. 数据共享与流向

  • 内部共享:数据可能与 GitHub 关联公司(包括 Microsoft)共享。
  • 外部限制:数据不会分享给第三方 AI 模型提供商或其他独立服务提供商。

4. 用户控制权

  • 退出机制:用户可在 Copilot 设置的“隐私”(Privacy)选项中取消授权。
  • 历史偏好:此前已选择退出收集数据的用户,其偏好将被保留,数据不会被用于训练,除非用户重新选择加入(Opt in)。

值得关注

此次政策调整基于 GitHub 过往经验:引入 Microsoft 员工及 GitHub 员工的真实交互数据后,模型在多语言场景下的代码采纳率显著提升。GitHub 认为,利用开发者真实的交互数据是提升模型理解开发工作流、提供更准确安全建议以及辅助发现潜在 Bug 的关键路径。

准备好启动您的定制项目了吗?

现在咨询,即可获得免费的业务梳理与技术架构建议方案。