AI武器的伦理
目前国际法对人工智能武器没有任何具体规定,国际社会也没有明确支持限制或禁止此类武器系统的条约。学界对此也争议不断,许多重量级科学家反对人工智能武器化。2015年,包括马斯克和霍金在内的1 000多名人工智能专家签署了一封公开信,呼吁禁止自主化武器,他们甚至称完全人工智能的发展可能招致人类历史的终结。2018年谷歌公司仅仅因为向美国军方的一个项目Maven提供了TensorFlow的接口,就有近4 000名谷歌员工联合签名请愿公司不要和军方合作,因为这个项目的目标是为军方提供先进的计算机视觉,能够自动检测和识别无人摄像机捕获的38种物体,甚至有十几名员工因此要辞职。国际机器人武器控制委员会(ICRAC)也发布一封联名公开信,超过300位人工智能、伦理学和计算机科学的学者公开呼吁谷歌结束该项目的工作,并支持禁止自主武器系统的国际条约。
自主化武器很可能加剧全球军备竞赛。2016年美国国防部发表新报告表示,美国需要“立即采取行动”加速AI战争科技的开发工作,未来AI战争不可避免,建议五角大楼在这方面加强发展,否则会被潜在的敌人超越。2017年7月,中国推出了《新一代人工智能发展规划》,该规划将人工智能指定为未来经济和军事力量的转型技术。它的目标是,到2030年,中国将利用“军民融合”战略成为人工智能领域的卓越力量。
2017年9月,普京对刚开学的俄罗斯孩子说:“人工智能就是未来,不仅对俄罗斯而言,更是对整个的人类社会。谁成为这个领域的领导者,谁就将成为世界的统治者。”马斯克在推特上回应道:“在国家层面上人工智能优势的竞争是最可能导致第三次世界大战的原因。”这种军备竞赛可能会使国际局面特别不稳定,除了几个超级大国,其他国家也会效仿。
人工智能很可能将加速全球军事力量不对等和战争的发生。拥有人工智能技术、战争经历和战争数据的国家能够让自主化武器迭代速度更快。目前,美国、俄罗斯、以色列等国家拥有较多战争的文字、视频记录。通过监控恐怖组织、社交媒体、其他国家行动的数据,并把这些数据喂给人工智能让它们快速升级。另外,自主化武器更易流通和被滥用,或被其他国家和恐怖分子获得。即使达成了禁止军事机器人的协议,自主化武器技术也非常易于转让,并将普及开来。另外,因为该类武器能够将人员伤亡降到最低,所以政客发动战争的阻碍因素又减少了一项,毕竟美国等地民众对战争造成士兵牺牲的抗议比战争花费更让政府头疼。
自主化武器失控和错判的风险将一直存在,比如软件代码错误,或者受到网络攻击。这可能导致机器失灵或攻击自己人,或由于系统升级太快,人类伙伴无法及时响应。很难对自动化武器的可靠性进行测试,会思考的机器的行事方式也可能会超出人类控制者的想象。无论是在人机交互的回路之内(人类不间断监控操作,并保有关键决策的负责人),还是在回路之上(人类监督机器,并可以在任务的任何阶段干预机器)或者跳出回路(机器执行任务时没有人员干预),人们应该如何与不同程度的自主机器交互仍然有待研究。西方军事机构坚持认为,人类必须始终处于人机交互的回路之中。但是看到了完全自主系统所带来的军事优势,不是每个国家都会这么审慎。
本书评论