英国政府最近宣布,将为最强大的人工智能模型制定相应规则,并加强对 AI 产品的安全监管。通过新的立法和监管框架,政府希望确保 AI 模型的开发和应用达到安全标准。这些规则的主要目标包括:
- ** 确保安全和稳健性 **:AI 系统应该在其整个生命周期内保持稳健、可靠和安全。
- ** 透明度和可解释性 **:AI 系统的操作必须透明且能够被解释。
- ** 公平性 **:AI 系统不应损害个人或组织的合法权利,避免不公平的歧视或市场结果。
- ** 问责制和治理 **:AI 系统需要有效监督,并建立明确的问责机制。
- ** 可竞争性和补救 **:当事方应该有权对可能产生有害结果的 AI 决定提出异议,并获得补救。
自 2014 年以来,英国政府在人工智能领域已投资超过 2.3 亿英镑,并宣布了针对长期需求的新投资项目,包括为多达 2,000 个新的人工智能和数据科学奖学金提供资金。政府还推出了新的签证途径,以吸引该行业所需的技能和人才。
英国的监管框架将依靠现有的监管机构来执行这些规则,包括:
- 金融行为监管局(FCA)
- 信息专员办公室(ICO)
- 竞争与市场管理局(CMA)
- 平等与人权委员会(EHRC)
- 药品和保健产品监管机构(MHRA)
这些机构将负责解释和实施上述原则,确保 AI 技术在安全和合规的前提下发展。
最近,英国竞争与市场管理局(CMA)对微软与 Inflection AI 的交易展开了反垄断调查,担心此举可能导致 “竞争实质性减少”。CMA 还对微软和 OpenAI 的合作关系展开了反垄断评估,以调查双方的合作是否导致了 “控制权的获得”。
在 AI 监管方面,英国、欧盟和美国各有各的做法。欧盟的《人工智能法案》是全球首个全面监管 AI 的法规,主要是对高风险 AI 应用实行严格监管。相比之下,英国的监管框架更加灵活,而美国则更依赖行业自律和市场调节,政府的直接干预相对较少。
国际合作在 AI 监管中至关重要。AI 技术的全球化特性要求各国在监管标准和实施上保持一致,避免出现监管漏洞和技术滥用。通过国际合作,各国可以共享监管经验和技术,共同应对 AI 技术带来的挑战。