人工智能伦理研究的兴起
别作恶。
还有更多更广泛的问题涉及人工智能和伦理学,这些问题比电车难题更具紧迫性,也更相关。在撰写本书的时候,人们正为这些问题进行激烈争辩。似乎每一家科技公司都想证明他们的人工智能比其他公司的更具有道德性,几乎每星期各家都有新闻稿宣布一项新的人工智能伦理倡议。我们需要回顾一下这些问题,以及思考它们在人工智能未来发展中可能扮演的角色。
最早也是最有影响力的人工智能道德框架之一是阿西洛玛人工智能准则 ,它是由一群人工智能科学家和评论员于2015年和2017年在加州的阿西洛玛度假胜地确定的。阿西洛玛人工智能准则一共有23条,全世界人工智能科学家和开发者都被要求签署这些准则[103] 。大多数准则都是没有什么争议的,比如:第一条,人工智能研究的目标应该是创造有益的智能;第六条,人工智能系统应该是安全可靠的;第十二条,人们应该有权访问、管理和控制与人工智能系统相关的数据。
另外一些准则志存高远。例如:第十五条要求“人工智能创造的经济繁荣应该被广泛分享、造福全人类”。我个人对签署这一条倒是没什么异议,但这一条对那些大型企业而言,恐怕只是嘴上说说罢了,指望他们落实这一条那恐怕是天真过了头。大企业投资人工智能的主要原因是希望获取竞争上的优势,为股东带来利益,而不是他们想造福全人类[104] 。
最后的五条原则涉及人工智能长远的未来,以及对人工智能可能会以某种方式失控的担忧——《终结者》场景再现:
· 能力警惕:我们应该避免关于未来人工智能能力上限的过高假设,但这一点还没有达成共识。
· 重要性:高级人工智能能够代表地球生命历史的深远变化,人类应该报以高度关注,以及用合适的资源来进行规划和管理。
· 风险性:必须投入与人工智能系统预期影响力相对应的努力来应对和缓解它们带来的风险,尤其是毁灭性风险或者涉及人类存亡的风险。
· 递归式自我改善:对于设计中能够进行递归式自我改进(自动提高它们的智力,然后利用改进后的智力进一步提高自己)或者自我复制,可能会导致人工智能智力快速提升或者复制品迅速增加的人工智能系统,必须遵守严格的安全和控制措施。
· 共同利益:超级智能的开发应当只为普世认同的道德理想服务,应当惠及全人类,而非惠及某一国家或者组织。
再次重申,我个人对签署以上准则是没有任何异议的,但事实上,正如我之前讲到过的,我们离这些准则暗示的场景还有十万八千里,将这些场景纳入准则中几乎就等于制造恐慌。
用人工智能科学家吴恩达A的话来说,现在担心这些问题就像在担心火A吴恩达,1976年生,华裔美国人,斯坦福大学计算机科学系和电子工程系副教授、人工智能实验室主任。吴恩达是人工智能和机器学习领域最权威的学者之一,也是在线教育平台Coursera的联合创始人。星人口过剩一样[105] 。或许在未来的某一天,这些问题足以将人折磨到失眠,但现在就提出来,是在误导人工智能的未来发展之路,更令人担忧的是,它分散了我们的关注。我们究竟该关注哪些问题,这个会在下一章讨论。当然,也正是因为这些场景在未来很长一段时间内都不可能出现,所以各大公司都可以不费吹灰之力地欣然接受,并且享受由此带来的提升企业形象的正面宣传效果。
2018年,谷歌发布了自己的人工智能道德指南。比阿西洛玛准则略简洁,它们涵盖了许多相同的领域(有益、避免偏见、安全)。并且,谷歌还就人工智能和机器学习开发的最佳实践提供了一些具体指导[106] 。2018年底,欧盟提出了另一个框架[107] ,还有一个框架是由IEEE(电气和电子工程师协会,一个非常重要的计算机和信息技术专业学会)提出的[108] 。许多大公司(不仅仅是IT公司)也发布了他们自己的人工智能道德准则。
当然,大企业宣称他们致力于发展人工智能道德是一件好事情。然而,他们是否真正理解所承诺的东西,这才是难点。高层的愿景是很美好的,比如分享人工智能的益处,肯定受欢迎,但是将其转化为具体行动却并不容易。谷歌十多年来使用的公司座右铭是“别作恶”,这听起来不错,我敢说这是真诚并带有善意的——但这对谷歌的员工而言又意味着什么呢?如果需要防止谷歌越轨到黑暗面,他们还需要更具体详细的指导。
在已经提出的各种框架内,某些主题反复出现,围绕它们所达成的共识也越来越多。我在瑞典于默奥大学的同事维吉尼亚·迪格努姆(Virginia Dignum)将这些问题分为三个关键类别:解释义务、责任和透明度[109] 。
解释义务主要是指,比如一个人工智能系统做了一个对某人有重大影响的决策,那么这个人有权要求系统对这个决策进行解释。但是怎么样才算是解释,这就是个难题了,在不同的环境下有不同的答案,而现在的机器学习程序无法提供解释。
责任则意味着应该明确对决策负责的智能体,而且,最重要的是,我们不应该试图声称人工智能系统本身要对决策“负责”,责任方应该是部署该系统的个人或者组织。这就指向了一个更深层次的哲学问题,一个与道德智能体有关的问题。
道德智能体通常被理解为一个实体,它能够分辨是非,并理解其行为所导致的后果。人们通常认为,人工智能系统可以承担道德智能体的责任,并且能够为它的决策和行为负责。而人工智能研究界的普遍观点恰好相反:软件是不能被追究责任的。更进一步说,人工智能研究中的责任并不意味着制造出有道德责任的机器人,而是以负责任的方式开发人工智能系统。
例如,发布一个类似Siri的软件智能体,误导用户以为自己在跟另一个人交互,这就是软件智能体的开发者对人工智能不负责任的使用。软件在这里不是罪魁祸首,开发和部署它的人才是。负责任的设计在这里意味着人工智能将始终清晰地表明它的非人类身份。
最后,透明度意味着一个系统使用的数据应该是可获取的,其中使用的算法也应该是清晰明确的。
人工智能伦理研究的兴起是令人值得高兴的进步,尽管目前正在提出的各种框架和体系实际的实施范围还有待观察。
本书评论