多伦多书苑

机器70年: 互联网、大数据、人工智能带来的人类变革

人工智能(AI)的理想

20世纪90年代,哲学家和机器人学家对当时的人工智能概念提出了明显的质疑。美国著名机器人制造专家罗德尼·布鲁克斯发表了题为《大象不会下棋》的论文,标题言简意赅地指出了传统人工智能研究的局限性。他认为,与任何计算机相比,包括大象在内的很多哺乳动物都要聪明得多,但很明显大象不会下棋,它们在进化过程中没有形成逻辑思维和符号操作能力。现代最新的人工智能程序可以做到逻辑思维,可以具有高超的棋艺,比如Google的Alpha Go;但它无法应对现实环境,按照传统人工智能思想开发出来的程序,根本不符合人们对人工智能的期待。

事实上,由于布鲁克斯的启发,传统人工智能研究开始反思。在第二章中,我们曾经探讨过复杂系统的组织和运行方式,复杂系统不是通过一个高性能中枢进行控制的,而是通过一个一个简单的反应系统叠加成的。人工智能也是这样,我们最开始想创造一个可以为伴的人工智能。至今,我们却直接对大脑进行了复制建模并输入计算机,其行为部分完全被忽视掉了。这也就是传统人工智能自上而下的研究方法。首先将大脑的每一块感知模块集合成一个,然后根据这个系统模型制订相应的执行计划,在执行每一个任务单元的时候都要按执行计划分步骤完成。很明显,这在逻辑上是站得住的,可是当我们审视人工智能所要模仿的人类和其他生物的时候,这个过程显然非常低效,生物系统从感知开始到行动结束整个过程极其迅速。

布鲁克斯曾尝试从生物学的角度搭建一个可用于机器人的人工智能系统,他称之为“包容结构”(subsumption architecture)。他按照生物学结构进行构建,先形成一层一层的简单本能反射,再以此为基础构建下一层优先级更高的本能反射。这种思想一直贯穿他的机器人和人工智能研究。

低层次的本能反射对维系一个系统是最重要的,这就好像我们走在大街上会自然地躲避障碍物;较高层次的本能反射重要性相对低很多,比如看一部电影,有的人会感动得流泪,流泪与不流泪具有很大的随机性,因为这并不会在多大程度上影响到整个系统。一个系统的行为层面,感应模块根据不同刺激的优先级,会直接形成优先处理的结果,对系统有重大影响的低层次行为会得到优先处理的权限。这也就意味着,如果一个高级行为在处理过程中,一个低层次行为发生,高级行为会被中断。感应模块和执行模块相连接,这是最直接的想法。但是如果按照生物系统来构建,这个传导网络会变得很复杂,有众多部件参与其中,每个部件之间相互联动,加速了系统反应的速度和精准性。

如果将这个想法推动到计算机领域也很有突破,计算机可以非常迅速地解开一个复杂方程,这得益于计算机不断加强的计算能力。但如果我们的需求是让一台计算能力很弱的计算设备计算一个复杂方程,那么我们可以用刚刚提到的生物学的方式构建一台机械计算机:把必须计算的部分交给计算机,以消耗优先的计算资源;然后在周边加入大量的本能反应模块,比如1和2通过加号相连的时候,3自动弹出,通过这样联动系统的叠加,我们就可以用极小的计算量支撑一个庞大的系统。这与中国的算盘极其相似,中国的算盘可以进行非常大的运算,而其中的计算全部通过机械的联动实现。

现在,人工智能领域已经从计算机范畴扩展到生活的各个方面。科学家们研究出的人工智能机器不仅仅是一个聪明的大脑,更能解决实际的问题,人工智能在一步一步贴近自然状态。

人工智能和机器人的结合,让这个领域爆发了不可思议的想象。在没有任何符号语言处理、不需要预装庞大知识存储的情况下,搭载人工智能的机器人就可以有限度地开始适应环境。我们可以假设机器人的实体外壳是人工智能与真实世界接触的传感器,就类似人类的大脑和躯干四肢的关系。以往的人工智能训练需要在计算机环境下模拟出一个模型,而现在搭载了人工智能的机器人可以在环境中自己学习。环境就是它的模型,人工智能需要自己去适应周围的环境。这就像一只刚刚出生的小动物,对这个世界一无所知,步履蹒跚地往前走,以适应这个环境。

在此,我们不妨把人工智能向着理想更推进一步,人工智能怎么能看起来更像“生命”?如果分解一下意识,自由意志、好奇心、探索精神可能是意识最基础的表现。联想能力、图形识别、记忆力、遗忘力、学习能力、趋利避害、前瞻性、设定目标的能力等,这些都是构成意识的部分。如果人工智能已表现出这样的特征,我们会感觉到它在一定程度上有了“生命”。

科学界斯图尔特·威尔逊(Stewart Wilson)发表了一篇题为《人工动物:实现人工智能的必经之路》(The Animat Path to AI),首次提出了人工动物(animat)的概念,这个概括了机器人和虚拟仿真技术的术语,让人工智能的研究进入了一个新的阶段。人工动物理论的基本策略与上文所说的生物理论基本类似,是自下而上建立系统。

但是一旦提到人工动物,这就为人工智能提出了更高的要求——具备生命特征且能进化。人工动物的基本策略是这样的:先制造可以在简单环境下运行的机器生命,然后增加环境复杂性,让机器生命逐渐适应,在完全适应后继续增加环境复杂性。以此往复,直到我们将真实环境搬到它面前为止。在理论条件下,不需要很久,这部机器就会出现意识和生命感,对环境的适应过程也将内化成它的学习和进化能力。

当前随着人工智能技术和思想的不断深入,计算机科学家与生物学家和哲学家、社会学家一道,不断将人工智能的边界向前推进,不断接近人类对于人工智能的理想——为自己制造一个小伙伴。

启发式搜索、人工生命、进化计算、机器学习等,这些人工智能领域的问题不断挑战着我们的想象力,人工智能发展了70年,我们仍不得不面对很多基础性的问题。我们探索得越深,问题就越多。我们看到这个由计算机科学家们开始的探索,如今已经跨越到了哲学家和社会学家的视角范畴:人为何存在?生命如何起源?意识是什么?智能是什么?生命体如何进化?

人工智能最初从模仿人类大脑开始,但我们发现模仿的最终结果是无法完成模仿到真实的跨越。所以科学家又一次不得不回到问题的原点,研究人工智能的基础问题——了解人类自身。

ABM模型(agent-based-model)是近几年研究人工智能系列问题的建模工具,建模对象包括个体、个体行为、个体间互动、个体与环境互动等,从文学和社会学研究方法中得到灵感。代理人可以是任何形态,可以是不断进化的生物,可以是一台有计算机中控的物理机器人,也可以是生物学产物。ABM模型将有助于我们构建出一个符合主动学习和进化的实验对象,而这个对象正是我们希望寻找的智能产生的原点。

面对生命体和智能体这一类复杂系统,我们不得不认同一个问题,那就是许多自然现象和人的行为根本无法用数学工具进行预测研究。但如果我们把每个现象细分开来,逐个部分进行研究,则似乎不是很复杂的事情。这一再重复我们对于复杂系统的认识:复杂的系统是由无数简单的系统组成的,反过来,简单的系统只要按照一定规则组合起来,就能创造复杂系统。这种认识可以推及任何一个领域,比如在经济领域,复杂的宏观经济是由无数简单的单笔交易组成的;复杂的汽车是由无数个复杂系统组成的,每个系统里由无数组件聚合而成;生物的发育过程靠基因决定,但过程中也有基因、蛋白质、细胞的相互作用,基因和这些相互作用共同塑造了生物本身。通过ABM模型,我们可以对一系列复杂系统进行建模研究。

长久以来,计算机科学家一直希望计算机可以像大脑一样思考,对大脑如何思考的研究尽管已经有了很多假说,但很多深层次的哲学问题依然没有答案。我们如何判断计算机是否在思考呢?一台通过了图灵测试的计算机我们可以说它能思考吗?图灵测试以5分钟为限,如果我们把时间拉长,这台计算机是不是某一刻就会暴露出不会思考的本质呢?这个问题并不好回答。这么多年来,科学家一直在探索机器产生意识的可能性,并企图有一天产生能与人类媲美的人造智能。但对智能机器人的探索很可能会引来某种程度的灾难,有意识的机器人会产生怎样的效应?我们也是不得而知。

我们对人工智能都充满了憧憬,但或许AI中的智能(Intelligence)给了我们局限,让我们一开始就走错了方向。智能和意识并非那么重要,经验和经验总结占据了人生活的大部分,如果把经验部分与我们常谈的意识做对比,其实二者在效用上区别并不大。这也就是说,让机器有意识约等于让机器有经验。这种想法可能更多的是从人的角度去反推一条智能之路,但其中的逻辑也不妨成为人工智能的一种发展理念。

“虽然前进的道路有一小段是明晰的,但探索它仍然会是充满艰辛的。”人工智能发展如何,这是艾伦·图灵的看法。

Author:

退出移动版