在飞速发展的人工智能时代,AI 的滥用问题引起了广泛关注。Daniel Jeffries 提出,解决这个问题的办法是用更好的 AI 技术来对抗。他举例说,如果有人用 AI 构建攻击程序,那么可以用灵活的 AI 防御系统来拦截;如果有人利用 AI 建立监控系统,那么可以用 AI 反监控系统来对付。
在 7 月 31 日的 ISC.AI 2024 第十二届互联网安全大会上,360 创始人周鸿祎提到,微软 “蓝屏” 事件提醒我们,数字化让世界更脆弱,必须用 AI 来应对升级版的安全问题。同样,Commvault 亚太地区副总裁 Martin Creighan 在接受《每日经济新闻》采访时也强调,赢得 AI 时代的网络安全攻防战的途径是用 AI 对抗 AI。
最近几年,AI 技术在造谣和网络攻击方面的滥用越来越严重,对社会的威胁也越来越大。比如,上海市公安局曾通报,有人利用 AI 生成了 “上海地铁行凶” 的虚假视频,造成了恶劣的社会影响。类似的还有 “西安突发爆炸” 和 “济南高层住宅楼起火” 等虚假新闻,都是通过 AI 工具炮制的谣言。
在网络攻击方面,不法分子也开始利用 AI 技术实施更复杂和频繁的攻击。周鸿祎指出,微软 “蓝屏” 事件提醒我们,随着数字化的发展,世界变得更加脆弱,AI 技术的滥用可能会导致更严重的网络安全问题。
为了解决 AI 技术带来的威胁,利用 AI 对抗 AI 已经成为一种解决方案。近年来,一些互联网内容平台和相关部门已经开始在这方面进行探索,并取得了一定的成效。比如,Martin Creighan 表示,赢得 AI 时代的网络安全攻防战的途径是利用 AI 来对抗 AI。Commvault 通过 AI 技术进行威胁检测、威胁扫描和异常监测,提升了网络安全防护能力。
在反监控方面,AI 技术也有应用。Yann LeCun 指出,如果有人利用 AI 建立监控系统,那么可以通过 AI 反监控系统来绕过它。
此外,AI 技术在版权保护方面也有应用。伦敦帝国理工学院的研究团队开发了一种名为 “版权陷阱” 的新方法,能够帮助作者和出版商检测他们的作品是否被用于 AI 模型训练。这种方法通过在作品中添加隐藏文本,巧妙地标记作品,从而在后期进行追踪和检测。
针对这些挑战,可以采取以下措施:
-
法治保障:完善法律法规,确保 AI 开发和应用符合法律和道德。例如,我国已经出台了《互联网信息服务深度合成管理规定》和《生成式人工智能服务管理暂行办法》。
-
技术优化:不断优化 AI 技术,提升其识别和应对威胁的能力。
-
多方合作:政府、企业和学术界要合作,共同推动 AI 技术的安全应用。
关于治理 AI 造谣,新华社提到,利用 AI 对抗 AI 是个有效方案。通过建立辟谣机制和快速响应系统,可以及时识别并阻止虚假信息传播。还有,Commvault 和 GigaOm 发布的《2024 网络恢复就绪报告》也强调了用 AI 提升网络安全的重要性。
全球 16 家公司共同签署的前沿人工智能安全承诺,标志着国际社会在 AI 安全合作方面迈出了一步。国际 AI 安全会议也为各国提供了交流合作的平台,有助于形成共识,共同推动 AI 技术的安全应用。