是否该信任机器的决定
随着机器学习能力的增加和暗知识的大爆炸,未来越来越多的决定将交给机器去做。这些决定可以从疾病的诊断到职业的选择,可以从商业的决策到政策的制定,甚至战争的决策,许多决定牵涉巨大的经济利益甚至人命。当人类无法做出最适当的决定时,是否该信任机器的决定?
要回答这个问题,我们需要把机器决定的场景分为两类:第一类是反复出现的场景,第二类是从来没出现过的场景。
第一类场景的典型是自动驾驶。在这类场景中,人类对机器的信任和今天对一家大型客机上软件的信任没有本质区别。只要场景是反复出现的并且有时间去测试,我们就可以通过长时间的测试来验证机器的可靠性,这正是今天所有自动驾驶公司在做的事:经年累月地在大街上驾驶,不断提高可靠性。这类场景还有一种情况是疾病诊断,虽然机器是第一次对某个病人下诊断,但机器已经正确地诊断了许多其他类似的病人。所以不论是个人生活中的决策,还是商业决策,只要机器有过在类似场景下大量的测试,就可以信任机器。当然这里不排除机器出错的概率,这和不排除有经验的医生误诊,不排除大型客机的软件出故障一样。
第二类场景的典型是一场战争的决策。机器很难有在实际战争中反复测试的机会,即使有,每场战争的性质也大不相同。在这种场合人必须负起责任。那是不是说机器在这种场合就完全没用了呢?不是。如果能有历史战争数据,比如战场的视频和卫星图片,机器仍然可以从这些海量信息中发现隐蔽的关系,也即暗知识。机器也可以模拟战争场景,就像今天自动驾驶系统也可以用模拟环境训练一样。所以即使机器无法在实际场景中测试,仍然有可能为人类决策提供辅助支持。






本书评论