Skip to content
毫河风报
菜单
  • 首页
  • 关于我们
  • 联系我们
  • 播记
 
OpenAI 安全测试引发担忧,员工联名要求加强透明度

OpenAI 安全测试引发担忧,员工联名要求加强透明度

2024-07-15

据《华盛顿邮报》报道,一名匿名人士透露,OpenAI 在产品发布前的安全测试速度较快。OpenAI 的安全问题一直备受关注,最近的曝光加剧了外界的不安。联合创始人 Ilya Sutskever 离职后,公司安全团队被解散。现任和前任员工联名签署了一封公开信,要求公司加强安全和透明度。曾经的核心研究人员 Jan Leike 辞职时表示,公司内部的安全文化和流程已经发生变化。

OpenAI 在章程中提到安全的重要性,多位发言人也声明产品是经过安全测试才发布的,公司使命是帮助社会和各大企业实现 AGI(通用人工智能)。一位不愿透露姓名的公司代表承认,实际的安全审查时间被压缩到了仅仅一周。

OpenAI 宣布与洛斯阿拉莫斯国家实验室合作,研究如何让 AI 模型安全地支持生物科学研究。这一合作引来了市场和监管机构更多的关注。

前 OpenAI 联合创始人 Ilya Sutskever 宣布创办一家新公司 SSI,专注于创造安全的超级智能。

OpenAI 的发言人表示,他们在发布产品前进行了安全测试,确保符合公司章程中所强调的安全标准。发言人还重申了 OpenAI 的使命,即协助社会和更多公司实现通用人工智能(AGI)的目标,同时强调了公司在安全方面的承诺。一位未透露姓名的公司内部人士透露,最近的安全审查时间被压缩到了一周。

OpenAI 在安全测试和合作方面做出了努力,市场和监管组织对其在健康领域的合作仍有担忧。OpenAI 需要在安全和产品开发之间找到一个平衡点,以确保技术的安全应用。

AI 日报

查看全部日报

  • AI 技术在医疗领域的突破性应用:从诊断到治疗的全新变革
  • AI 代理战场新核武!OpenAI 发布 o3 模型:比肩人类决策,媲美专业审核
  • 软银 5000 亿美元 AI「星门」陷融资困境,孙正义:短期波动不足为惧
  • 贝索斯加持 AI 搜索新星估值 140 亿!3 年超谷歌 7 年成绩
  • 苹果重磅爆料:秘密研发两大“杀手锏”芯片,剑指智能眼镜与 AI 服务器!

©2025 毫河风报 沪ICP备18012441号-5