OpenAI·xAI 安全人才流失,核心三点
- xAI 联合创始人 12 人中 6 人离职
- OpenAI,解散使命对齐团队后解雇政策主管
- 安全负责人离职,AI 行业信任受损
xAI 创始团队半数离职
埃隆·马斯克的 xAI 中,一半的联合创始人已经离职。12 人中 6 人离职,仅上周就有超过 11 名工程师宣布离职。[TechCrunch]
最近,直接向马斯克汇报的 Jimmy Ba 和多模态负责人 Tony Wu 离职。马斯克称之为“提高执行速度的组织重组”,但也有很多是自愿离职。[Fortune]
OpenAI,解散安全团队并解雇反对者
OpenAI 解散了使命对齐团队。该团队由 6~7 人组成,负责向公司内外传达使命。团队负责人仅更换了头衔为“首席未来学家”,其余人员被分配到其他部门。[TechCrunch]
更具争议的是政策副总裁 Ryan Beiermeister 的解雇。据称,他在反对 ChatGPT 的“成人模式”后,因性别歧视指控而被解雇。他本人完全否认了这些指控。[TechCrunch]
AI 行业选择速度而非安全
Anthropic 的安全研究团队负责人 Mrinank Sharma 也因“世界很危险”而离职。三家公司同时出现安全负责人离职的情况实属罕见。[CNN]
模式相同。在提高产品发布速度的同时,安全检查被置于次要地位,反对者选择离开。安全人才的流失从长远来看是一个巨大的风险。
常见问题 (FAQ)
Q: xAI 联合创始人离职的原因?
A: 官方说法是组织重组。但产品开发压力、监管问题、Grok 深度伪造争议等因素综合作用。自愿离职和结构调整并存,马斯克解释说是为了提高执行速度。
Q: OpenAI 成人模式是什么?
A: 允许 ChatGPT 提供成人内容的模式。应用部门 CEO Fidji Simo 预计在 2026 年第一季度推出。政策副总裁反对后被解雇,引发争议。有人批评这是优先考虑利润而非安全。
Q: AI 安全人才流失为何是问题?
A: 安全研究人员和政策负责人负责监督 AI 的伦理运作。他们的离开削弱了内部制衡。在接近 AGI 的时刻,缺乏安全人员可能会导致无法预测的风险。
如果这篇文章对您有帮助,请订阅 AI Digester。
参考资料
- Okay, now exactly half of xAI’s founding team has left the company – TechCrunch (2026-02-10)
- X-odus: Half of xAI’s founding team has left – Fortune (2026-02-11)
- OpenAI disbands mission alignment team – TechCrunch (2026-02-11)
- OpenAI policy exec fired on discrimination claim – TechCrunch (2026-02-10)
- AI researchers are sounding the alarm on their way out – CNN (2026-02-11)