Skip to content
毫河风报
菜单
  • 首页
  • 关于我们
  • 联系我们
  • 播记
 
OpenAI 与美国 AI 安全研究所合作,确保下一代 AI 模型安全

OpenAI 与美国 AI 安全研究所合作,确保下一代 AI 模型安全

2024-08-03

在人工智能领域,安全性一直是大家关注的重点。最近,OpenAI 宣布与美国人工智能安全研究所达成合作,获得了其下一代 AI 模型的早期访问权限。这一步是为了确保新模型在正式发布前能够通过严格的安全评估,回应公众和政府对 AI 技术安全性的担忧。美国人工智能安全研究所是商务部下属的国家标准与技术研究院的一部分,专门负责 AI 红队测试、能力评估、风险管理和安全保障的指导方针制定。

通过这次合作,OpenAI 将提升自己 AI 模型的安全性,并在 AI 相关法律和标准的制定中发挥更大的影响力。早在 2023 年 10 月,OpenAI 就开始向该研究所开放其 AI 模型的早期访问权限。这一举动主要是为了确保 AI 技术的安全性和透明度,回应公众对 AI 潜在风险的担忧。之后在 2024 年 6 月,OpenAI 又与英国的 AI 安全机构达成类似合作。

依据协议,OpenAI 会向美国 AI 安全研究所提供其下一代 AI 模型的早期访问权限。这样一来,研究所可以在模型正式发布前进行全面的安全测试,包括 AI 红队测试、能力评估、风险管理和安全保障等。这一系列测试流程旨在发现和解决潜在的安全问题,确保 AI 技术的安全应用。

最近,五位参议员,包括夏威夷的民主党人 Brian Schatz,对 OpenAI 的安全标准和雇佣实践表示不满。他们写信给 Sam Altman,表达了对 OpenAI 在安全评估和网络安全方面的担忧。对此,OpenAI 的首席战略官 Jason Kwon 回应说,OpenAI 在每个阶段都实施了严格的安全协议。为了解决这些质疑,OpenAI 采取了一系列措施,比如取消限制性非贬损条款,这些条款曾经隐含地阻止内部人员举报。

另外,OpenAI 还成立了一个安全委员会,并承诺将 20% 的计算资源用于安全研究。这个委员会由董事会主席 Bret Taylor、董事 Adam D’Angelo、董事 Nicole Seligman 和首席执行官 Sam Altman 领导,负责向董事会全体成员提出有关 OpenAI 项目和运营的关键安全决策建议。委员会的首要任务是在未来 90 天内评估并进一步发展 OpenAI 的流程和保障措施,并在此后与全体董事会分享建议。

OpenAI 在联邦游说方面的支出也大幅增加,2024 年前六个月的支出达到了 80 万美元,而 2023 年全年的支出仅为 26 万美元。通过增加游说支出,OpenAI 希望能在 AI 技术的监管和标准制定中发挥更大的作用,确保技术在安全和透明的框架下发展。

AI 日报

查看全部日报

  • AI 技术在医疗领域的突破性应用:从诊断到治疗的全新变革
  • AI 代理战场新核武!OpenAI 发布 o3 模型:比肩人类决策,媲美专业审核
  • 软银 5000 亿美元 AI「星门」陷融资困境,孙正义:短期波动不足为惧
  • 贝索斯加持 AI 搜索新星估值 140 亿!3 年超谷歌 7 年成绩
  • 苹果重磅爆料:秘密研发两大“杀手锏”芯片,剑指智能眼镜与 AI 服务器!

©2025 毫河风报 沪ICP备18012441号-5