2024 年 9 月 5 日,美国、英国和欧盟等多个国家签署了由欧洲委员会制定的人工智能安全条约。这一条约旨在确保人工智能技术的安全性和人权保护,标志着全球在 AI 监管方面迈出了重要一步。各国在批准和实施这一条约的具体进程上仍存在不确定性。例如,英国计划制定相关立法,但尚未明确提出草案的时间表。欧洲委员会表示将在适当时候提供更多关于条约实施的更新。
此次签署的条约涵盖了 AI 系统的整个生命周期,并强调了技术中立性。条约的具体目标和实施细节仍需各国进一步明确和落实。欧盟在 2024 年 8 月 1 日正式生效的《人工智能法案》(EU AI Act)是全球首个全面的 AI 监管法案,为全球人工智能监管奠定了基础。该法案旨在实现与《通用数据保护条例》(GDPR)相同的 “布鲁塞尔效应”,即通过严格的法律框架影响全球的 AI 监管标准。法案的发布适应了人工智能发展的浪潮,为保护公民免受人工智能风险侵害提供了法律依据,但也增加了企业的合规成本。
根据法案,违反规定的企业将被处以最高 3500 万欧元或最高年收入 7% 的行政罚款,以较高者为准。上海大邦律师事务所合伙人游云庭表示,GDPR 实施以来,企业的合规成本大幅上升,预计《人工智能法案》也将带来类似的影响。企业需要投资研究合规政策,处理违规通知和公开披露制度等,这些都将增加成本。
欧盟《人工智能法案》于 2024 年 3 月在欧洲议会通过,5 月获得欧盟理事会批准。法案旨在避免高风险人工智能的侵害,同时促进创新。法案将在未来三年内分阶段实施,最严苛的义务将适用于高风险应用,包括信用评分和员工监控等。
自 GDPR 于 2018 年正式生效以来,欧盟一直是人工智能监管领域的全球领导者。GDPR 法规为个人数据的使用设定了全球黄金标准框架,而个人数据对于人工智能系统的开发和运行至关重要。如今,凭借《人工智能法案》,欧盟成为全球首个针对人工智能采用特定监管框架的司法管辖区,为整个欧盟的人工智能开发、应用和监管提供一致的规则。
年利达律师事务所分析认为,GDPR 和《人工智能法案》的不同之处在于,GDPR 是一项基于原则的立法,而《人工智能法案》更像是一项产品安全法规,融合了基本权利。GDPR 总体上适用于一切,而《人工智能法案》则侧重于产品和应用程序投放市场的情况,但不包括纯技术的研究和开发。新法规要求欧盟每个成员国必须至少建立一个人工智能监管沙盒。沙盒旨在通过提供一个受监管的环境,让人工智能系统在监管监督下进行测试,从而促进创新和合规。
对于在快速发展的法律和监管环境中生存的全球性企业而言,管理合规性挑战对于维护与监管机构、客户和员工等各类利益相关方的信任至关重要。《人工智能法案》的推出是在欧洲成为中国科技公司重要出海目的地的大背景下。这些企业中,有些已经在欧盟开展业务,也有些正在积极评估欧洲市场的潜力。除了腾讯、TikTok 这些科技巨头,近年来也有越来越多中小型企业进入欧洲市场,例如电商平台 Shein,以及一些软件和游戏公司。
针对欧盟《人工智能法案》实施后,企业是否会增加对合规成本的投入,Shein 方面表示尚不了解这方面的情况。一家正在考虑出海欧洲的上海人工智能软件公司创始人表示,欧盟新法规显然是他们在评估出海过程中会综合考虑的因素。另一家提供自动驾驶技术的科技初创公司负责人也表示,欧盟的法案增加企业合规成本将是必然的,但具体程度还需要继续观望。
一些科技公司表示,它们将不仅要花费更多时间和金钱来遵守欧盟的新规则,同时还可能面对过度监管导致阻碍创新的隐患。一家小型软件公司 Dayta AI 预计,欧盟法规的合规和评估要求将使该公司的研发和测试成本增加 20% 至 40%,增加的支出将包括额外的文件、审计和某些技术措施。欧盟关于 “训练数据的质量、相关性和代表性” 的规定将要求企业在选择数据源时更加谨慎,而对数据质量的关注最终将提高企业解决方案的性能及公平性。
欧盟的法案一贯强调用户权利,并对个人数据的使用施加严格的限制。对此,年利达律师事务所合伙人奥弗斯特里滕表示,欧盟的机构可能给人一种过度监管的印象,但实际上是想为推动创新提供法律上的确定性,并创造一个可信任的环境。他认为,这一综合框架为整个欧盟提供了一致的规则,也会对在欧盟没有实体存在的企业产生影响。例如,一家美国银行可能已经为美国市场开发了一种基于人工智能的信用评分工具,并打算在欧盟推出或在美国使用它来评估欧盟自然人的信用度,但这时就会受到欧盟《人工智能法案》的约束。
年利达律师事务所发布的一份最新报告预估,欧盟《人工智能法案》的影响力将超出欧盟范围,波及全球,尤其是会影响中国和美国相关法律法规的制定。报告中强调,欧盟《人工智能法案》的地域范围异常广泛,涵盖许多在欧盟没有实际存在的国际组织,包括在欧盟投入使用或投放市场的人工智能系统提供商,以及输出在欧盟使用的人工智能系统提供商或部署者。
自 2022 年 11 月 OpenAI 首次发布 ChatGPT 以来,生成式人工智能服务迈入高速发展阶段。欧盟新规的通过和实施反映了全球竞相制定人工智能护栏的竞争。中国也加速制定对人工智能监管的法规。去年 8 月,中国发布了首个针对生成式 AI 服务的法规 ——《生成式人工智能服务管理暂行办法》,在 AI 监管方面处于领先地位,也是全球首批建立算法注册中心并颁布关于生成人工智能强制性法规的市场之一。按照规定,生成式人工智能提供商在提供面向公众的服务时必须获得许可。中国此前还出台了其他规则来规范与人工智能相关的服务和产品,例如算法推荐和深度合成(或 “深度伪造”)服务。今年 5 月,国务院印发的《国务院 2024 年度立法工作计划》中,“人工智能法草案” 再次被列入预备提请全国人大常委会审议项目。
年利达上海合伙人罗世轩表示,欧盟和中国人工智能法规的主要原则非常相似,包括对客户透明、保护数据、对利益相关者负责、在产品上写明说明和指导意见等。他认为,亚太地区的一些政府在制定自己的人工智能立法时,大量借鉴了欧盟的数据保护和人工智能法规,这也有助于实现跨市场的一致性规则。
长期以来,美国企业历来都是数据隐私监管的追随者,但伴随着人工智能的激进发展,美国也正朝着更严格的监管方向迈进。在拜登人工智能行政命令和人工智能权利法案的推动下,美国也致力于引领全球关于人工智能风险管理和合规性的讨论。美国各州和城市正在逐步推出新法律,最引人注目的是科罗拉多州的《人工智能法案》,它采用与欧盟《人工智能法案》类似的分类系统,旨在防止算法歧视,预计将对各行各业的企业产生重大影响。
美国在人工智能监管方面也在积极行动。2024 年 5 月 15 日,参议院 AI 工作组发布了《推动美国在 AI 领域的创新:参议院 AI 政策路线图》(简称《路线图》),用于指导美国国会监管人工智能,提供立法框架。这份长达 31 页的《路线图》提出了大量鼓励性的政策,比如每年划拨 320 亿美元的研发经费,但几乎没有提到具体的风险治理措施。负责该文件的工作组成立于 2023 年 5 月,由参议院领袖查克・舒默和另一名民主党参议员、两名共和党参议员组成的两党合作小组,专门研究人工智能。过去的一年中,该工作组为此召开过一系列论坛和非公开会议,Sam Altman、Elon Musk 等多个科技行业领袖均有参与。
查克・舒默在新闻发布会上透露,参议院希望 “零碎” 小步立法,不考虑大而全的 AI 法案。本周美国参议院已经提出三项选举相关的 AI 法案,美国众议院也提出了一项升级 AI 技术出口管制的法案。《路线图》着重呼吁联邦政府持续增加 AI 领域的投资。文件建议,每年对人工智能相关技术的拨款不能低于 320 亿美元,达到美国人工智能安全委员会建议的投入水平。文件划出了投资的重点应用,包括人工智能研发、半导体、机器人、材料研究、智慧城市和交通系统。查克・舒默在新闻发布会上称,这笔资金用于非国防用途的人工智能。
除了技术研发,《路线图》还多次提到拨款支持美国国家标准与技术研究所(NIST)。对外经济贸易大学数字经济与法律创新研究中心主任张欣表示,持续支持 NIST 的工作也是美国一直以来治理人工智能的思路。美国希望推广自己的治理影响力,一条重要的实现路径便是 NIST 制定的标准,比如通过它界定专业术语和技术标准。此外,《路线图》一个较新的重点是 AI 治理的跨部门合作。文件开头便写道 AI 政策问题具有跨司法管辖区的性质,鼓励各委员会在 AI 立法上进行密切合作,并点名商务部、能源部、NIST、国家科学基金会等,足以说明对监管机构保持步伐一致的重视。
值得一提的是,参议院在文件中呼吁为美国商务部提供更多资金,尤其是与尖端 AI 芯片有关的半导体出口。近日美国众议院的 AI 工作组也提出了一部法案,计划让商务部升级对 AI 技术的出口管制。在《路线图》筹备的一年多来,外界期望这份文件能够回应人工智能治理中一些最棘手的矛盾,包括版权、个人隐私、社会风险。不过该文件只用了不到四页讲述人工智能的风险问题,几乎没有展开阐释。
选举中的 AI 使用是《路线图》关注的第一个问题,查克・舒默也透露选举法案是美国参议院今年的 “最高优先项之一”。参议院规则委员会本周批准了三项 AI 法案,包括禁止用 AI 对政治选举的候选人生成欺骗性内容。参议院还重点建议通过立法形式,治理深度合成的亲密、色情内容。今年一月,AI 生成的泰勒・斯威夫特色情图片在社交媒体上疯传,白宫发言人当时回应:“网络上的监管不严对女性影响更大,她们是网络骚扰的主要目标。” 并提到考虑用立法解决社交媒体上虚假内容泛滥的问题。
在 AI 的风险治理上,《路线图》建议 AI 法案采取弹性、灵活的风险治理体系,尤其要关注到闭源与开源大模型的差异。文件具体指出要制定一套连贯的透明度要求,强调透明度在 AI 系统开发、训练、部署和监管中的重要性,并表示一些不透明的 AI “黑箱” 是不可接受的。
一些美国公民团体和非营利组织对《路线图》表示了失望,认为文件几乎没有详细回应如何监管人工智能带来的社会负面影响,在争议问题上也语焉不详。北京师范大学法学院副教授吴沈括表示,这符合美国从去年拜登的白宫 AI 行政令延续至今的治理思路,那就是提高技术竞争优势。吴沈括认为,美国的治理方法主要体现在透明度上,“尤其是《路线图》要求监管部门能获得关于 AI 系统的深层内部信息,这一点要求还是很显眼的。” 吴沈括表示,要求保持透明度是一种穿透式的监管方式,以强化对 AI 整个研发应用流程的监管。而欧盟为 AI 风险分类分级,更多是从组织管理的角度强化治理,这也进一步凸显了美国和欧盟在治理思路上的差异。
不过《路线图》与欧盟的《AI 法案》在治理思路上有一点相似 —— 关注高风险 AI。张欣注意到,《路线图》中关于透明度、可解释性、评估的要求,主要集中在与宪法权利、公共安全等密切相关的 AI 高影响领域(high impact use of AI),她指出美国现在给予了高风险 AI、通用人工智能的监管更高关注度。
在面向记者的简报会中,查克・舒默表示,参议院倾向于零碎推出人工智能法案,率先推动一些紧迫问题的立法,不追求单一全面的法案。查克・舒默说,“我们不会等待涵盖所有领域的 AI 法案,如果某些领域比其他领域更早准备好,它们就应该推进。”