Skip to content
毫河风报
菜单
  • 首页
  • 关于我们
  • 联系我们
  • 播记
 
OpenAI 与美国 AI 安全研究所合作,强化 AI 模型安全性

OpenAI 与美国 AI 安全研究所合作,强化 AI 模型安全性

2024-08-01

OpenAI 最近宣布将与美国 AI 安全研究所合作,提供其下一个 AI 模型的早期访问权限。这一举动旨在强化 AI 技术的安全和透明度,回应公众对 AI 技术安全性的担忧。OpenAI 的首席执行官 Sam Altman 表示,这项合作将确保新模型在发布前经过严格的安全评估。

通过与政府机构的合作,OpenAI 希望能更好地应对 AI 技术带来的潜在风险,确保其技术在各个应用领域的安全性和可靠性。这次合作的关键在于通过早期访问权限和安全测试,确保 AI 模型的安全性和可靠性,防范潜在的滥用和风险。

今年 6 月,OpenAI 与英国 AI 安全机构也达成了类似的合作协议,显示出公司在全球范围内对 AI 安全的重视。这些合作协议表明,OpenAI 正在采取措施,确保其 AI 技术在全球范围内的安全性和可靠性。

根据协议,OpenAI 将向美国 AI 安全研究所提供其下一个主要生成式 AI 模型的早期访问权限,以便进行安全测试。安全测试包括 AI 红队测试、能力评估、风险管理和安全保障等多个方面,确保新模型的安全性和可靠性。通过这些测试流程,OpenAI 希望能发现并解决潜在的安全问题,确保其 AI 技术的安全应用。

OpenAI 最近支持的《未来创新法案》让美国人工智能安全研究所拥有更大的权威,负责设定 AI 模型标准和指南。这个法案的通过,赋予了安全研究所在 AI 技术安全性和标准化方面的关键作用。OpenAI 选择在这个时机与安全研究所达成合作协议,是对 AI 技术安全性和透明度的进一步承诺。

包括夏威夷民主党参议员 Brian Schatz 在内的五位参议员,对 OpenAI 的安全标准和雇佣实践提出了质疑。他们在最近致 Sam Altman 的信中,表达了对 OpenAI 在安全评估和网络安全方面的担忧。面对这些质疑,OpenAI 表示将采取一系列措施来回应外界的关切。首先,OpenAI 将取消限制性非贬损条款,这些条款曾隐含地阻止内部人员举报。此外,OpenAI 还将创建一个安全委员会,并承诺将其计算资源的 20% 用于安全研究。

尽管 OpenAI 采取了上述措施,但这些举措仍未能完全安抚一些观察者。特别是当安全委员会全部由公司内部人员组成,包括 Altman 自己时,外界对其独立性和有效性表示怀疑。安全委员会的主要职责是监督和确保 AI 技术的安全性,但其内部组成可能会影响其公正性和透明度。

通过与美国 AI 安全研究所的合作,OpenAI 向该研究所提供其下一个旗舰模型的早期访问权限,以进行全面的安全评估。这不仅回应了公众和政府对 AI 技术安全性的担忧,也为 AI 安全发展树立了新标杆。

AI 日报

查看全部日报

  • AI 技术在医疗领域的突破性应用:从诊断到治疗的全新变革
  • AI 代理战场新核武!OpenAI 发布 o3 模型:比肩人类决策,媲美专业审核
  • 软银 5000 亿美元 AI「星门」陷融资困境,孙正义:短期波动不足为惧
  • 贝索斯加持 AI 搜索新星估值 140 亿!3 年超谷歌 7 年成绩
  • 苹果重磅爆料:秘密研发两大“杀手锏”芯片,剑指智能眼镜与 AI 服务器!

©2025 毫河风报 沪ICP备18012441号-5