据《华盛顿邮报》报道,一名匿名人士透露,OpenAI 在产品发布前的安全测试速度较快。OpenAI 的安全问题一直备受关注,最近的曝光加剧了外界的不安。联合创始人 Ilya Sutskever 离职后,公司安全团队被解散。现任和前任员工联名签署了一封公开信,要求公司加强安全和透明度。曾经的核心研究人员 Jan Leike 辞职时表示,公司内部的安全文化和流程已经发生变化。
OpenAI 在章程中提到安全的重要性,多位发言人也声明产品是经过安全测试才发布的,公司使命是帮助社会和各大企业实现 AGI(通用人工智能)。一位不愿透露姓名的公司代表承认,实际的安全审查时间被压缩到了仅仅一周。
OpenAI 宣布与洛斯阿拉莫斯国家实验室合作,研究如何让 AI 模型安全地支持生物科学研究。这一合作引来了市场和监管机构更多的关注。
前 OpenAI 联合创始人 Ilya Sutskever 宣布创办一家新公司 SSI,专注于创造安全的超级智能。
OpenAI 的发言人表示,他们在发布产品前进行了安全测试,确保符合公司章程中所强调的安全标准。发言人还重申了 OpenAI 的使命,即协助社会和更多公司实现通用人工智能(AGI)的目标,同时强调了公司在安全方面的承诺。一位未透露姓名的公司内部人士透露,最近的安全审查时间被压缩到了一周。
OpenAI 在安全测试和合作方面做出了努力,市场和监管组织对其在健康领域的合作仍有担忧。OpenAI 需要在安全和产品开发之间找到一个平衡点,以确保技术的安全应用。