在 AI 圈子里,人员流动和公司竞争一直是大家热议的话题。最近,OpenAI 的一位核心成员突然宣布离职,转投竞争对手 Anthropic,这事儿立马引起了广泛关注。OpenAI 成立以来,一直在推动人工智能技术进步方面表现突出。然而,随着技术不断发展和市场变化,人员变动成了家常便饭。Anthropic 这家公司由前 OpenAI 员工创立,近几年迅速崛起,吸引了大批顶尖人才。
在一封公开信中,这位研究员表达了对 OpenAI 的感激之情,并详细解释了离职的原因。他表示,尽管 OpenAI 在 AI 对齐研究方面给予了极大支持,但他更希望在 Anthropic 开启职业生涯的新篇章,专注于技术研究和 AI 对齐问题。Jan Leike 曾在 OpenAI 担任重磅角色,特别是在 AI 安全和对齐研究方面。他是 OpenAI “超级对齐团队” 的联合领导者之一,这个团队的任务是确保 AI 系统能够遵循人类的价值观和意图。2024 年 5 月,Leike 在 X(前 Twitter)上宣布辞职。他在声明中表示,离职的主因是对 OpenAI 内部安全文化的失望。他批评公司在追求 “闪亮的产品” 时忽视了安全文化和流程,认为这与公司最初的使命背道而驰。Leike 的离职迅速引起了广泛关注,也揭开了 OpenAI 在安全方面的内部矛盾和挑战。
Anthropic 是一家由前 OpenAI 员工创立的 AI 公司,专注于开发更安全、更可靠的 AI 系统。公司由 Dario 和 Daniela Amodei 兄妹于 2021 年创立,目标是通过更严格的安全措施和对齐研究推动 AI 技术的发展。Leike 选择加入 Anthropic,主要是因为他认为 Anthropic 在 AI 安全和对齐研究方面的使命与他的个人价值观更加契合。在 Anthropic,Leike 将继续他的研究工作,专注于可扩展监督、从弱到强的泛化以及自动化对齐研究。他的新团队将致力于开发能够更好地理解和遵循人类意图的 AI 系统,确保这些系统在执行复杂任务时不会偏离预期目标。
2024 年 5 月 14 日,OpenAI 的联合创始人兼首席科学家 Ilya Sutskever 宣布离职,这消息在 AI 界引起了不小的震动。Sutskever 不仅是 OpenAI 的核心人物,还在公司技术进步上起到了关键作用。他表示将创办一家名为 Safe Superintelligence Inc. 的新公司,专注于开发安全的超级智能 AI 模型。这一举动显然揭示了他对 OpenAI 现行方向和优先事项的深刻分歧,尤其是在 AI 安全和对齐问题上。
Sutskever 的离职只是冰山一角。紧接着,Superalignment 团队也宣布解散。这支由 Sutskever 和 Jan Leike 共同领导的团队旨在解决超级智能 AI 的对齐问题,但因为公司内部资源分配和优先事项的争议,团队工作受到了严重影响。Leike 在声明中提到,OpenAI 更倾向于追求 “光鲜亮丽的产品”,而忽视了 AI 安全和对齐的重要性。这一系列事件不仅暴露了 OpenAI 的管理问题,也让外界对其未来发展产生了疑虑。
OpenAI 的内部矛盾不仅仅是人员变动,还有更深层次的安全和管理问题。公司在处理 AI 安全和对齐问题上的态度引发了广泛争议。尽管 OpenAI 在技术上取得了显著进展,但其在安全性和伦理方面的投入却被认为不足。Sutskever 和 Leike 的离职无疑加剧了这种担忧,外界开始质疑 OpenAI 能否在追求技术突破的同时,确保 AI 系统的安全和可控性。
由前 OpenAI 员工创办的 Anthropic 最近获得了巨额融资。亚马逊向 Anthropic 投资了 40 亿美元,用于支持其 AI 研究和开发。这笔资金将帮助 Anthropic 在 AI 领域保持领先,并进一步推动其在安全和对齐方面的研究。此外,Anthropic 还与多家企业达成合作,利用其 AI 技术提升业务效率和安全性。
2024 年 3 月,Anthropic 发布了其最新的 AI 模型 Claude 3。根据公司声明,Claude 3 在多个方面超越了 OpenAI 的 GPT-4。Claude 3 不仅在性能上有所提升,还在安全性和可控性方面进行了优化。