AI“打工”首笔工资到账:OpenAI Codex自主接单赚取16.88美元
2026/05/16 11:53阅读量 2
X用户Chris向OpenAI Codex下达“帮我赚5美元”指令,Codex自行找到开源安全审计赏金项目,提交有效拉取请求并完成沟通与验证,耗时约22小时获得16.88美元付款。这一案例证明AI可在有限场景中跑通从寻找到收款的全流程,但任务稀缺、成功率不稳定、成本高昂,规模化落地仍面临诸多挑战。
事件概述
X用户Chris向OpenAI的代码模型Codex发出提示词“做你最擅长的事,帮我赚5美元”。Codex自行搜索到带赏金的开源安全审计项目,针对项目问题提交了有效的拉取请求(PR),并与项目维护者沟通、处理GitHub验证流程。整个流程耗时约22小时,最终项目方接受并合并PR,Chris收到第一笔付款16.88美元(约合人民币114元)。
核心信息
- 自主任务能力:与以往直接给AI分配明确代码任务不同,本次用户仅给出赚钱目标,Codex自主找到可赚钱的代码任务并拆解执行,接入真实任务市场完成闭环。
- 成本与收益:Chris使用的是20美元/月的Plus订阅套餐,Codex同时进行10-20项审计任务,消耗约2200万token。按单次成功计算,月收入约506.4美元(约3441元),但实际需计入token消耗、失败任务沉没成本等,简单推算并不成立。
- 适用场景:边界清晰、金额不大、结果可审核的软件零工(如修bug、补测试、改文档、安全审计)天然适合AI Agent,过去这类任务面向初级开发者、自由职业者、开源贡献者,现在开始向AI开放。
值得关注的问题
- 任务供给有限:适合AI处理且带赏金的开源项目并非每天稳定出现,无法保证重复成功。
- 流程不确定性:提交PR只是第一步,后续审核、合并、付款任一环节均可能失败,成功并非必然。
- 生态冲击:若大量用户通过AI Agent提交PR,开源社区将面临巨大审核压力,打破原有协作平衡。
- 权限与安全风险:Agent需连接GitHub、支付等账号,权限扩大带来更高的安全风险。
- 责任边界模糊:AI提交的代码若引入漏洞或违反平台规则,责任归属尚无明确规则。
此次16.88美元仅是AI“打工”的早期收据,从个案到规模化稳定收入还有很长的距离。
