新武器竞赛
我们相信人们对自动化决策的依赖,以及电脑在自动化决策中发挥的作用不会减弱、受限或是放缓。这两种趋势给经济和人类带来的利益,很快就会超越任何阻碍的力量。即使我们能做到阻碍其发展,也不应该那么做。正如奥伦·埃齐奥尼(Oren Etzioni)在2017年9月《纽约时报》的一篇文章中所指出的:“问题在于,如果我们真那么做了,像中国这样的国家就会超越我们。”
很明显,我们已经进入了一场新武器竞赛,而且这一竞赛没有终点。那么我们能做什么?我们应该做什么?竞赛规则又是什么?
1942年,艾萨克·阿西莫夫向我们介绍了他的机器人三定律:[13]
1.机器人不得伤害人,也不得见人受到伤害而袖手旁观。
2.机器人应服从人的一切命令,但不得违反第一定律。
3. 机器人应保护自身的安全,但不得违反第一、第二定律。
自那时起,成千上万的作品都引用了这三条定律,它们已经成了机器人支持者的口头禅。这些定律看起来似乎非常简单,那么这到底是不是所有问题的答案呢?很可能不是。在布鲁金斯学会的一篇发布稿中,彼得·辛格(Peter Singer)指出了这些定律背后的荒谬之处,“你给死神(Reaper)无人机安装地狱火(Hellfire)导弹,在模块化先进武装机器人系统(Modular Advanced Armed Robotic System,简称MAARS)上配备机器枪,就是在让人们互相伤害。问题就在这里”。
微软CEO萨提亚·纳德拉(Satya Nadella)提出了更为务实的管理人工智能的定律:[14]
·人工智能必须用来辅助人类。纳德拉提出,与人类一起工作的机器应当从事“采矿之类的危险工作”,但仍旧“尊重人类自治”。
·人工智能必须是透明的。“我们需要的不仅是智能机器,而且是可理解的机器,”纳德拉说,“大家应该对技术如何审视和分析世界有所了解。”
·人工智能必须实现效能最大化,同时不伤害人类的自尊。“在设计这些系统时,我们需要让人更广泛、更深入地参与更多的互动,未来的价值观和美德不应由技术来决定。”
·人工智能必须保护智能隐私。纳德拉要求,“要有复杂的手段保护个人以及群体的信息”。
·人工智能必须承担算法责任。以便“人类可以撤销非故意的伤害”。
谷歌也有自己的五条定律,并将它称为挑战。[15]
·避免负面影响:如何阻止扫地机器人为了更快地打扫地面径直推翻(而不是绕过)花瓶?
·避免对奖励条件的非法解读:如果机器人的编程是享受打扫你的房间,你如何阻止它因为想再次享受打扫之乐而又把房间弄乱?
·可扩展的监管:你会让机器人做多少决定,它打扫你的房间时,是否每次移动一个物体都要问你一次?还是只有在移动你放在床下的那个特殊的花瓶时才问?而且由于同样的原因,它从来不在瓶中插入鲜花?
·安全探索:你如何教会机器人好奇心应该是有限制的?谷歌的研究人员给出了一个机器人学会哪里可以打扫的例子。你如何让它知道擦新地板是没问题的,但它无论如何也不应该把拖把插进插座中?
·分配转变的坚定性:我们如何保证机器人尊重它们所处的空间,一台可以在你的卧室里尽情撒欢的扫地机器人与在工厂里打扫的机器人的表现应该完全不一样,但它怎么能知道两者的区别呢?
苹果的联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)说我们还应加一条定律,即人类不能伤害一台能“思考”的机器。这要求我们做一些本书始终在建议的事情,把人工智能当作一个合作伙伴,我们的做法要跟工业时代的道德观恰恰相反:让人工智能人格化。
但所有这些定律、挑战以及准则都有一个问题,这些问题不是针对人工智能、电脑、自动装置、机器人,而是针对人类的。
想想今天你会如何贯彻这些定律。如果你制造了一台有伤害人类倾向的机器人,芯片中有没有那种内置的安全防护,能够防止机器人造成伤害?诸如Python(派森)这样的编程语言,有没有适合所有软件应用的标准代码,能够保证它不伤害人类?当然没有了。
有一种很荒谬的方法,可能会抚慰我们的良知或让我们不那么焦虑,那就是相信有一套简单的规则,可以管控人工智能的进化,但这只是幻想罢了。我们所讨论的技术,从人工智能到自动驾驶汽车,从区块链到行为学计算,都会在某种程度上造成伤害、斗争,招致恐怖主义,触犯法律。我们虽然不能容忍,但必须接受这个现实。我们的挑战不在于找到方法消除这种可能性,因为那是徒劳的(除非我们找到方法改变人性),挑战在于充分利用同样的技术,做到趋利避害。
所以,我们在计划什么呢?如果我们同意答案并非如此,而且也不存在掌握完美的解决方案的能力,事实的概念也不像我们希望的那样非黑即白,而在于我们如何巧妙地利用这些技术收获多种益处。那么问题就变成:“我们如何利用技术创造最大的益处,让其招致的麻烦最小化?”我们希望提出以下6条针对任何智能系统或自动化设备的国际标准:
1. 在人工智能不承担法律责任的前提下,最终必须是人类或承担法律责任的实体对人工智能设备的行为负责。
2. 有能力做决定的机器人、自动驾驶汽车以及任何人工智能设备,其开发必须遵循人类同样遵守的法则。
3. 任何自动化设备必须允许授权人的干预,人类有凌驾于设备之上的决定权,并且必须要遵照自动继承顺序,至少有一个授权人。
4. 自动设备的任何决定必须是可稽核的,其方式是人类可以理解的。
5. 涉及损害财产事件或造成人类伤害或死亡的自动设备,必须提供学到的可稽核的教训,形式应是人类可以理解的,同时能与其他自动设备分享。
6. 任何普适的人工智能必须获得许可才能执行任务,且仅限于明确定义的操作领域。
这些标准为人工智能的合法及可接受的使用范围奠定了基础,但这是万能之计吗?当然不是。它们只是旅途的起点,但会把我们带向未曾想象过的远方。
此外,我们深信,应该在这个领域开发国际标准,使人们能够监测、分享并基于道德规范发展人工智能。回想一下我们在第四章中探讨的,如何收集、分析航空事故中分享的数据,并在整个航空业广泛分享,以努力从事故中汲取教训,提升整个行业而非某个航空公司或生产商的安全水平。对人工智能和智能设备来说也是同理,无论是机器人、自动驾驶汽车还是任何其他自动设备。我们有必要建立一个全球人工智能理事会(Global Artificial Intelligence Directorate),确保人工智能的使用遵循有益于人类的发展路径。
不妨想想,尽管人类课题研究已有确定的标准,对人类课题相关的公开可用数据展开的研究却没有类似的限制,如果正如我们所预测的那样,我们的数字自我变得如同我们的行为记录一样稳定,我们就需要为其使用制定道德标准。
这些法律或道德的约束会消除违法利用人工智能,或阻止民族主义国家把人工智能用于不道德或非法的用途吗?我们知道这不可能,但它至少提供了一种制裁、追踪心怀不轨的人的方法,防止他们滥用人工智能和人类的数字自我。不要小看这些,将之视为不必要的官僚主义作风,这是我们在构建未来的过程中,需要发挥积极作用的领域。如果我们曾在核能演变过程中做了类似的事情,很有可能就会避免过去70年间核武器大规模扩散带来的许多风险。
另外,对于最终权威必须为人类的情况,人工智能的角色该如何定义。使用风险可控的狭义的人工智能是一回事;但对于不仅要替代人类判断,还要取代人类的直觉、价值和道德标准的人工智能,则应另当别论。
本书中描述的行为学金矿,面向任何一个希望抓一把数字凿子、铲子的人,这是史无前例、毫无规则的阵地争夺。
在本书第一版手稿最终确定时,我们听到了苏联中校斯坦尼斯拉夫·彼得罗夫(Stanislav Petrov)的讣告,他个人的人性之举可能使全世界免于一场核浩劫,因此我们又想起了这两点(监测人工智能的应用及其授权范围)是何等重要。
1983年9月26日,彼得罗夫还是一位没有名气的苏联军官,他的职责是监控预防美国核导弹袭击苏联的卫星预警系统。
就在三个星期前,苏联人击落了一架韩国的民航客机,致使机上的269名乘客和机组人员全部死于非命。这正是我们在第一章中探讨的那架飞机,促使时任美国总统里根开放了GPS数据,而当时两个超级大国之间可以说是剑拔弩张,战争一触即发。
9月26日早上,彼得罗夫监测的雷达系统发出了一次又一次信号,毫无疑问五枚美国民兵洲际导弹正直扑他的祖国苏联而来,苏联正遭遇袭击,红军协议(Red Army protocol)明确规定了彼得罗夫必须要怎么做:不到30分钟,导弹就能到达目的地,苏联将丧失在本国发起反击的能力。各种恐惧突然变成了不可想象的现实,彼得罗夫回忆起当时紧张不已的几秒,仍心有余悸。
“警报声响起,但我在那儿坐了几分钟,目不转睛地盯着巨大的、闪烁的红色屏幕,上面写着‘发射’。”这是他在2013年接受BBC驻俄罗斯频道的采访时所说的。闪烁的“发射”字样表明,美国的确已经发射了导弹。彼得罗夫数着时间,第二次报警响起,“导弹袭击”的字样开始在屏幕上闪烁。“我只需要拿起电话,给我们的最高指挥官直接汇报。”
如果彼得罗夫打了这个电话,我们——至少我们这些还能幸存下来探讨此事的人——就会记住,26日那天世界发动核武器袭击,重新回到石器时代。
很显然,彼得罗夫并未拿起电话,他坐下来,倾听自己的内心。他的内心在斗争,是想都不想按照要求行事,还是出于人类的本能阻止一次核浩劫,相信美国军队绝不会发起这种不可想象之举?彼得罗夫的内心告诉他这不可能是真的,一定是电脑弄错了。他看着确定无疑的数据,听着核警报发出的尖锐刺耳的声音,看着巨大的监视屏上闪烁的红色字母“导弹袭击”,等待着。他违抗了协议,联系了苏联导弹跟踪站,看看他们有没有发现什么,结果什么也没有。从发射报警到现在已经过去了7分钟。23分钟后,彼得罗夫知道自己的直觉是对的,是电脑错了。
后来经证实,电脑把投射到云上的阳光当成了洲际导弹。
如果换作人工智能,在理解雷达和卫星发出的必要感官数据时,它会做得更好吗?它会有跟人类一样的反应,冷静下来思考遵照明确的目标行事会有什么后果吗?甚至连彼得罗夫自己都坦言,他的决定很大程度上是基于他并非纯军方背景。如果人工智能是由军方编程,采用军方的道德标准,它的决定会跟非军方承包商开发的人工智能一样吗?
这些全是不可能回答的问题,但这也正是关键所在。在判断力和直觉至关重要的情况下,既不存在确定无疑的线性或逻辑情况,也不存在单一的结果。
我们并不是说自己能回答这些问题,但我们要理解每一代新技术的创造能力和破坏能力其实是在同步增强的。这需要人们与日俱增的警惕性,我们必须与之保持同步。
写作本书的初衷绝不是引发恐惧,我们所列出的益处绝对大于需要为提高警惕而付出的代价。在任何情况下,人类面临的选择不是人工智能的演变或其破坏力,而是如何学会与之共处,充分利用其益处。
本书评论