苹果公司最近宣布,他们将加入白宫制定的人工智能安全协议,成为最新一家承诺遵循这些自愿保障措施的科技公司。拜登政府推动这一协议,是为了确保 AI 技术在安全、透明和可靠的发展轨道上前行。早在去年,亚马逊、谷歌、Meta 和微软等公司就已经签署了类似的承诺,这些承诺旨在通过第三方监督和信息共享,减少 AI 技术带来的潜在风险。
2024 年 7 月 26 日,苹果公司正式宣布加入白宫推动的 AI 安全协议。这一协议的目的是确保 AI 技术的安全性、透明度和可靠性,得到了亚马逊、谷歌、微软和 OpenAI 等科技公司的支持。拜登政府一直对 AI 技术的安全性非常关注,并推出了一系列政策来推动 AI 技术的安全发展。去年年底,拜登签署了一项行政命令,制定了新的 AI 系统安全标准,要求开发者将安全测试结果与美国政府分享。
白宫 AI 安全协议的核心目标是确保 AI 技术的安全、透明和可靠。为此,协议制定了一系列具体措施:
- ** 安全测试 **:签署协议的公司承诺在发布前对 AI 系统进行内部和外部安全测试,包括由外部专家进行的 “红队” 测试。这种测试通过模拟攻击来暴露 AI 模型的缺陷和漏洞,从而增强系统的安全性。
- ** 信息共享 **:公司将互相以及与政府分享有关 AI 风险和防御措施的信息。这种信息共享机制有助于各方及时了解和应对 AI 技术带来的潜在风险。
- ** 网络安全投资 **:协议要求公司投资网络安全和内部威胁防护措施,以保护私人模型数据。这一措施旨在防止数据泄露和其他安全威胁,确保 AI 技术的安全应用。
全球对 AI 安全问题的关注也在增加。例如,欧盟已经通过了《人工智能法案》,这是全球首部全面监管 AI 的法规。尽管协议为 AI 技术的发展设定了护栏,但如何在快速变化的技术环境中保持监管的有效性依然是个难题。而且,随着 AI 技术的进步,新的风险和挑战也会不断涌现,需要持续关注和应对。
苹果公司决定参与白宫 AI 安全协议,这表明科技公司们在人工智能领域的合作进入了一个新阶段。这个协议不仅强调了 AI 技术的安全性和透明度,还展示了各大公司在应对 AI 潜在风险方面的共同责任。通过模拟攻击和信息共享等措施,协议旨在确保 AI 系统在发布前经过严格测试,减少社会和国家安全风险。