在 2024 年 9 月 30 日,图灵奖得主 Yann LeCun 与 OpenAI 的核心贡献者 Noam Brown 因 OpenAI 最新发布的 o1 模型展开了一场激烈的争论。Noam Brown 在社交媒体上强调,OpenAI 并未降低研究优先级,o1 模型是通过强化学习训练的,具备自我验证的能力。Yann LeCun 在评论区反击,质疑 OpenAI 的技术透明度和安全性。此争论迅速引发了广泛关注,成为 AI 领域的热点话题。
争论的焦点集中在 OpenAI 的 o1 模型上。Noam Brown 在一系列帖子中详细介绍了 o1 模型的技术特点,强调其通过强化学习训练,能够在回答问题之前进行 “思考”,从而提高回答的准确性和可靠性。
Yann LeCun 在评论区反击,认为 OpenAI 在技术透明度方面存在问题。他指出,OpenAI 不公布技术细节,可能是出于竞争压力的考量。LeCun 认为,AI 技术的发展应该更加开放和透明,以便学术界和公众能够更好地理解和监督这些技术。
社交媒体上,用户们对这场争论表现出浓厚的兴趣。一些用户支持 Noam Brown 的观点,认为 OpenAI 的技术进步是显而易见的,o1 模型的自我验证能力将大大提高 AI 的可靠性和安全性。另一部分用户则站在 Yann LeCun 一边,认为技术透明度和开放性是 AI 发展的关键,只有在公开的环境下,AI 技术才能真正为社会带来益处。
例如,用户 @RobLevy 在推特上表示,LeCun 的质疑是有道理的,AI 技术的发展不能忽视透明度和安全性。另一位用户 @TomZhang 则表示,他希望看到更多关于这场争论的深入讨论。
此外,Yann LeCun 还在推特上发表了一系列评论,进一步阐述了他的观点。他指出,当前世界各地的立法模糊性限制了开放模型的开放程度,这对 AI 技术的发展是不利的。他还感谢州长 Gavin Newsom 否决了 SB-1047 法案,认为这对开源 AI 社区是一个明智的决定。
这场争论的背景是 AI 技术的快速发展和相关立法的不断推进。2024 年 9 月 17 日,美国加利福尼亚州州长 Gavin Newsom 签署了多项 AI 相关法案,其中包括三项旨在管控通过 AI 生成的深度伪造或其他欺骗性内容的法案,以及两项与保护演员的数字肖像有关的法案。这些法案的出台,标志着加州在应对 AI 技术发展及其潜在威胁方面走在全球前列。
其中,最受争议的是 SB 1047 法案。该法案要求对功能强大的前沿人工智能模型进行安全测试,开发者在构建大模型时必须评估其是否有合理能力造成或实质上促成重大损害,包括制造生物武器或造成网络攻击。大模型厂商需要针对这些风险采取保护措施,如必须在新模型中设置 “终止开关”,确保在出现问题时能随时关闭。
这项法案在科技行业内引发了激烈的意见交锋。支持者认为,该法案能够有效保证前沿人工智能系统的安全发展,使其不损害公众利益。AI 先驱 Yoshua Bengio 表示,如果 OpenAI 确实像他们报告的那样,跨过了 CBRN 的 “中等风险” 水平,这只会加强出台 SB 1047 这样的立法来保护公众的重要性和紧迫性。
然而,反对者则认为,该法案过度惩罚开发者,将会扼杀创新,对开源社区、学术研究等造成严重损害。前美国众议院议长南希・佩洛西、“AI 教母” 李飞飞、Meta 首席科学家 Yann LeCun 等多位知名人士和风投公司 Andreessen Horowitz 等大型机构都对该法案表示反对。他们认为,法律应关注 “实际风险” 而非 “假设风险”,最终决定将在创新与安全之间取得平衡。
谷歌、Meta、OpenAI 等科技公司也对 SB 1047 法案表示反对。OpenAI 在致法案提出者、加州参议员 Scott Wiener 的一封信中明确指出,SB 1047 将减缓 AI 创新步伐,导致一流的工程师和企业家离开加州,到其他地方寻找更大的机会。OpenAI 认为,应由联邦政府而非各州来监管 AI 风险,这样才能为人工智能实验室和开发者提供清晰度和确定性,同时保障公共安全。
这场争论不仅反映了 AI 技术发展中的复杂性和挑战,也揭示了技术透明度和安全性的重要性。Yann LeCun 与 Noam Brown 的争论,促使更多人关注 AI 技术的潜在风险和监管问题。