破灭出现
就像许多理论上很美好的人工智能一样,基于知识的人工智能被证明实际应用非常有限。这种方式在一些我们认为荒谬琐碎的推理任务中,也遇到了困难。考虑一下常识推理任务,下面的场景给出一个典型例子[42] :
你得知翠迪是一只鸟,所以你得出一个结论:翠迪会飞。然而,翠迪是一只企鹅。所以你收回了之前的结论。
乍一看,这个问题在逻辑上应该很容易理解。看上去跟我们之前讨论的逻辑三段论没什么差别——我们的人工智能系统存在知识“如果x是一只鸟,那么x会飞”,那么,给出“x是一只鸟”的信息,它理所当然能推理出“x能飞”的结论。好吧,到目前为止没有任何问题。但我们现在得知,翠迪是一只企鹅,接下来会发生什么呢?我们需要撤销之前得出的“翠迪会飞”的结论。问题来了,逻辑无法处理这样的问题。在逻辑上,增加更多的信息永远不会消除你之前得到的任何结论。但是增加的信息(即“翠迪是一只企鹅”)确确实实使我们需要撤销之前的结论(即“翠迪会飞”)。
常识推理还有另外一个问题,在我们遇到矛盾的时候就会凸显。以下是文献中的标准示例[43] :
贵格会教徒是和平主义者;
共和党人不是和平主义者;
尼克松是一名共和党人,也是一名和平主义者。
试着从逻辑上解释上述文字,你就会陷入理解困境,因为最终我们会得出结论:尼克松既是和平主义者,又不是和平主义者——这是一个矛盾。在这样的矛盾面前,逻辑完全失效:
它不能应对这样的场景,也无法告知我们任何有意义的结论。
然而,矛盾是我们每天都会遇见的现实。我们被告知纳税是有益处的,我们也被告知纳税是一种损失;我们被告知葡萄酒有益,我们也被告知葡萄酒有害;等等。矛盾在生活中无处不在。问题在于,我们试图用逻辑去处理它不该处理的领域——在数学中,如果遇见矛盾,就意味着你犯了错。
这些问题看似微不足道,但在20世纪80年代末,它们是基于知识的人工智能研究最主要的挑战,吸引了该领域最聪明的一群人,但从来没得到过真正意义上的解决。
事实证明,构建和部署专家系统比最初想象的困难得多。
最主要的难题是后来被称为知识获取 的问题,简单地说,就是如何从人类专家那里提取知识并以规则形式编码。人类专家通常也很难表达他们所拥有的专业知识——他们擅长处理某种事情并不意味着他们可以讲清楚实际上是怎么做到的。另外,专家们也并非那么渴望分享自己的专业知识。毕竟,如果你的公司能够用程序来代替你工作,他们还要你干什么?何况人工智能会取代人类的担忧一直存在。
到了20世纪80年代末,专家系统的繁荣已经结束。基于知识的系统技术倒不能说是失败了,毕竟许多成功的专家系统也在这一时期内建立起来,此后也逐步有更多的专家系统出现。但是,看样子,又一次证明,人工智能的实际产出没有达到被鼓吹炒作的高度。






本书评论