机器人杀手
希望你会认同我的想法,我认为人工智能系统当我们的老板会导致员工异化,而让人工智能系统来决定一个人是否应该被警方拘留,这是对人权的一种侮辱。那么,对于一个有能力决定你生死的人工智能系统,人们又将如何看待呢?随着人工智能的迅猛发展,人们对这一前景的担忧开始见诸报端,其中至少有一部分原因是我们提到过很多次的《终结者》场景。
关于自主武器的话题总是带有强烈的煽动性,许多人会本能地厌恶它,认为这样的系统是不道德的,永远不该被建立。对于持有这样观点的人而言,若是有品行端正的人持有相反观点,会让他们感到惊讶。因为我知道这个主题有多么震撼,所以我会尽可能轻描淡写地带领你深入研究潜在的人工智能自主武器所引发的问题。
自主武器的讨论大多源于战争中使用得越来越频繁的无人机。无人机,顾名思义,就是无人驾驶的飞机,在军用领域,它可以携带导弹等武器。因为无人机不用搭载人类飞行员,所以它比传统飞机更小巧、更轻便、造价更低。而且无人机的飞行不会给遥控它的人带来风险,因此它可以被用于飞往危险区域执行任务。对于军事组织来说,这自然是一个富有吸引力的选择。
在过去的50年里,无人机的军用开发经历了数次尝试,不过直到21世纪才成为现实。自2001年以来,美国一直在对阿富汗、巴基斯坦和也门的军事行动中使用军用无人机。尽管我们不知道具体数量,但似乎美国已经投入了数百架无人机,可能导致了数千人死亡。
遥控无人机本身就引发了各种严重的伦理争议,例如,由于控制无人机的驾驶员没有亲身涉险,他们可能会采取一些实际在场的情况下不会采取的行为。而且,最重要的是,人们不会像自己亲临现场那样认真对待行为的后果。
出于以上以及更多的原因,使用遥控无人机引起了极大争议。然而,自主无人机出现的可能性将人们的担忧提升到了更高层面。无人机不再被遥控,意味着很大程度上,它们不再需要人类的引导或者说干预来执行任务。而且,作为执行任务的一部分,它们可能有权决定是否夺走人类的性命。
自主无人机和其他种类自主武器的构想,立刻会让你联想到非常熟悉的电影场景:机器人大军无情地、精准地使用致命武器屠杀人类,没有任何对人类的怜悯、同情或理解。我们已经了解到为什么这样的《终结者》式末日场景不值得我们今晚就担忧得失眠,但是自主武器出问题的可能性,以及致命的后果,仍然是人们反对其发展和应用的一个重要论据。但是,关注自主武器也有许多其他原因。其中之一是拥有自主武器的国家可能不太介意发动战争,因为他们的部队不需要亲自上前线。因此,自主武器可能使得发动战争的决定变得更加容易,使得战争更加普遍化。但是,最常见的反对意见是,自主武器是不道德的:人们不能制造能够决定夺走人类性命的武器,这是错误的。
值得指出的是,在目前的技术条件下,人工智能驱动自主武器是完全可能实现的。请考虑如下场景[125] :
现在有一种廉价的小型无人机型,配备了摄像头和GPS导航系统,机载小型电脑和一块手榴弹大小的炸药。这架无人机被设计成可以在城市道路巡航,寻找人类。它不需要精准识别特定的人,只需要识别人类的形态,当它识别出人体时,会飞到人类的位置,引爆炸药。
这种设想十分可怕,人工智能只需要能够在街道上空导航、识别人体并飞向他们就可以了。我认为,任何一个合格的人工智能研究生,只要有合适的资源,就能够构造一个这样的无人机原型,而且它们可以以低廉的价格大量生产。现在想象一下,若是成千上万的无人机被投放到伦敦、巴黎、纽约、德里或者东京街头,将会发生什么。想象一下大屠杀,想象一下恐怖的画面。据我所知,这样的无人机已经有人制造出来了[126] 。
对许多人而言,关于人工智能自主武器是否应该存在,根本无须争议,然而,有关的争议确实存在。
这场争辩中最著名的主角之一,是美国佐治亚理工学院的罗恩·阿尔金(Ron Arkin)教授,他认为自主武器的出现肯定是不可避免的(总会有某个人,或者某个机构将它们最终制造出来),因此,最好的对策是思考如何设计它们,使它们的行为比普通人类士兵更合乎道德[127] 。毕竟,他指出,人类士兵在道德方面并没有很好的记录。当然,他也承认,不可能出现拥有“完美道德”的人工智能自主武器,尽管如此,阿尔金教授仍然相信,我们能够制造出比人类士兵更有道德的自主武器。
还有其他支持自主武器的观点,例如,有人认为,让机器人去从事卑鄙的战争事业,总比让人类去打仗更好:战争的赢家往往是拥有更优秀机器人的一方(当然,问题就变成了如何确保我们拥有更好的机器人)。
我还听过这样的论点,即反对自主武器比反对常规战争更没有道德。例如,当一架B-52轰炸机在5万英尺的高空飞行,释放炸弹的时候,负责释放炸弹的投弹手并不清楚他们投下的32吨的炸弹将落到何处,也不知道它会落到谁身上。那么,为什么人们要反对能够精准杀人的自主武器,而不反对这样随意杀戮的常规武器轰炸?我想,答案是我们应该同时反对它们。但实际上,常规轰炸确实没有像自主武器那样引起这么多的道德争议。
不管人们试图构建什么有利的论据,我必须坚定地说,国际人工智能界的大多数研究人员都强烈反对开发致命的自主武器。关于自主武器可能被设计成比人类士兵更合乎道德的论点并没有被广泛接受。理论上这是一个有建设性的想法,但实际上我们根本不知道怎么去做,而且也不可能很快成为现实(见上一章的讨论)。虽然我敢说,提出这一论点的初衷是最好的,但令人担心的是,它已被那些想现在就制造自主武器的人所劫持。
在过去十年里,科学家、人权组织和其他组织联合开展了一场旨在阻止自主武器研发的运动。“禁止机器人杀手运动”成立于2012年,得到了国际特赦组织等主要国际人权组织的支持[128] 。该运动的既定目标是实现全球禁止研发、生产和使用完全自主武器。这项运动得到了人工智能研究界大部分人的支持。2015年7月,近4000名人工智能科学家和2万多人签署了一封公开信,支持禁令;除此之外还有许多其他类似的倡议。
有迹象表明,政府组织听到了人们的呼声。2018年4月,中国驻联合国代表团提议禁止使用致命的自主武器;英国政府最近的一份报告也明确建议,永远不要给人工智能系统以伤害或杀人的权力[129] 。
显然,致命的自主武器既危险又不道德,因此,在我看来,按照《渥太华禁雷公约》[3] 的思路,实施一项禁令是有必要的。但这可能比较难:不仅要考虑到致力于制造这类武器的组织会施加阻力,另外,制定一项禁令本身不是容易的事情。英国上议院人工智能特别委员会在2018年的报告中指出,给致命自主武器下一个清晰的定义相当困难,这将是立法的一个主要障碍。从纯粹实际的角度来看,仅仅试图在武器开发领域禁用人工智能技术基本上不太现实(我斗胆猜测许多常规武器已经在某种形式上使用人工智能系统控制)。此外,立法禁止某种特定的人工智能技术使用,比如神经网络,那就更不现实了,因为软件开发人员可以很轻易地在代码中掩饰使用的技术。
因此,即使公众和政府都愿意控制或禁止发展和使用致命自主武器,制定和执行相关立法也是困难重重。但是,有迹象表明,各国政府正在尝试,这未尝不是一个好的开始。
本书评论