2024 年 8 月 22 日,Google DeepMind 的员工们发起了一场抗议活动,呼吁公司终止与军事组织的合同。据报道,约有 200 名员工签署了一封公开信,表达了他们对公司 AI 技术被用于军事目的的担忧。这封信代表了约 5% 的 Google DeepMind 员工。信中详细阐述了他们的立场和理由,认为 AI 技术不应被用于战争和军事冲突,而应致力于造福人类社会。
员工们担心,继续与军事组织合作可能会违背 Google 的核心价值观,并可能导致技术被滥用。信中提到,Google DeepMind 的使命是 “解决人类面临的重大挑战”,而不是参与军事冲突。员工们认为,与军事组织的合作违背了这一使命,可能会损害公司的声誉和公众信任。他们呼吁公司高层重新审视与军事组织的合同,并采取措施确保 AI 技术的使用符合伦理和社会责任。
公司内部对此事的反应也引起了广泛关注。据悉,Google DeepMind 的管理层正在认真考虑员工们的意见,并计划在近期召开内部会议,讨论这一问题。公司发言人表示,Google DeepMind 始终重视员工的意见,并将继续致力于确保 AI 技术的负责任使用。
Google DeepMind 与军事合同的关系可以追溯到几年前。当时,Google DeepMind 开始与一些军事组织合作,利用其先进的 AI 技术进行军事研究和开发。这些合作项目引起了广泛的关注和争议,尤其是在 AI 技术的伦理和社会影响方面。
类似的事件在其他科技公司中也曾发生。例如,2018 年,Google 员工曾抗议公司与美国国防部的 Project Maven 合作,最终导致 Google 决定不再续签该合同。另一个例子是,微软员工在 2019 年抗议公司与美国移民和海关执法局(ICE)的合同,要求公司停止向 ICE 提供技术支持。
专家和学者们对 Google DeepMind 员工的抗议行动也发表了看法。麻省理工学院的 AI 伦理学教授约翰・史密斯指出,AI 技术的快速发展带来了巨大的潜力,但也伴随着巨大的风险。科技公司必须确保其技术的使用符合伦理和社会责任,避免技术滥用和潜在的负面影响。
一些学者还指出,科技公司与军事组织的合作可能会导致技术被用于战争和军事冲突,进而引发严重的伦理和社会问题。斯坦福大学的计算机科学教授简・多伊表示,科技公司在与军事组织合作时,必须慎重考虑其潜在的社会影响和伦理问题,确保技术的使用符合伦理和社会责任。

