OpenAI 最近宣布将与美国 AI 安全研究所合作,提供其下一个 AI 模型的早期访问权限。这一举动旨在强化 AI 技术的安全和透明度,回应公众对 AI 技术安全性的担忧。OpenAI 的首席执行官 Sam Altman 表示,这项合作将确保新模型在发布前经过严格的安全评估。
通过与政府机构的合作,OpenAI 希望能更好地应对 AI 技术带来的潜在风险,确保其技术在各个应用领域的安全性和可靠性。这次合作的关键在于通过早期访问权限和安全测试,确保 AI 模型的安全性和可靠性,防范潜在的滥用和风险。
今年 6 月,OpenAI 与英国 AI 安全机构也达成了类似的合作协议,显示出公司在全球范围内对 AI 安全的重视。这些合作协议表明,OpenAI 正在采取措施,确保其 AI 技术在全球范围内的安全性和可靠性。
根据协议,OpenAI 将向美国 AI 安全研究所提供其下一个主要生成式 AI 模型的早期访问权限,以便进行安全测试。安全测试包括 AI 红队测试、能力评估、风险管理和安全保障等多个方面,确保新模型的安全性和可靠性。通过这些测试流程,OpenAI 希望能发现并解决潜在的安全问题,确保其 AI 技术的安全应用。
OpenAI 最近支持的《未来创新法案》让美国人工智能安全研究所拥有更大的权威,负责设定 AI 模型标准和指南。这个法案的通过,赋予了安全研究所在 AI 技术安全性和标准化方面的关键作用。OpenAI 选择在这个时机与安全研究所达成合作协议,是对 AI 技术安全性和透明度的进一步承诺。
包括夏威夷民主党参议员 Brian Schatz 在内的五位参议员,对 OpenAI 的安全标准和雇佣实践提出了质疑。他们在最近致 Sam Altman 的信中,表达了对 OpenAI 在安全评估和网络安全方面的担忧。面对这些质疑,OpenAI 表示将采取一系列措施来回应外界的关切。首先,OpenAI 将取消限制性非贬损条款,这些条款曾隐含地阻止内部人员举报。此外,OpenAI 还将创建一个安全委员会,并承诺将其计算资源的 20% 用于安全研究。
尽管 OpenAI 采取了上述措施,但这些举措仍未能完全安抚一些观察者。特别是当安全委员会全部由公司内部人员组成,包括 Altman 自己时,外界对其独立性和有效性表示怀疑。安全委员会的主要职责是监督和确保 AI 技术的安全性,但其内部组成可能会影响其公正性和透明度。
通过与美国 AI 安全研究所的合作,OpenAI 向该研究所提供其下一个旗舰模型的早期访问权限,以进行全面的安全评估。这不仅回应了公众和政府对 AI 技术安全性的担忧,也为 AI 安全发展树立了新标杆。