想象力比知识更重要
如今,我们可以让计算机做很多看起来非常智能的事情,比如i Phone用户可以跟siri进行对话(尽管对话显得有点简单机械)、Google翻译用户可以将任何一段看起来像语言的字符翻译成自己看得懂的语言、Google图片搜索可以帮助用户在互联网上找到一张跟自己这张相似的图片、微软的how-old.net通过一张照片几乎能准确地判断出你的年龄。猛然之间我们似乎觉得计算机已经懂得了世界各地的语言,会逻辑思考并有相当的智力水平。其实不然,计算机的核心能力只有两个:一个是计算能力;另一个是存储能力。基于以上能力,傻傻的计算机开始有了灵性。
《思想》杂志在1950 年的时候刊登了一篇图灵(Turing)的论文,题目为《计算的机器和智能》。图灵在论文中提出了一个验证机器是否具有智能的标准:图灵测试(Turing Test),一个人(代号C)使用测试对象皆理解的语言去询问两个他看不见的对象任意一串问题。两个对象:一个是正常思维的人(代号B),一个是机器(代号A)。如果经过若干询问以后,C不能得出实质的区别来分辨A与B的不同,则此机器A通过图灵测试(引用维基百科定义)。简言之,如果人在和机器交流的过程中,人无法分辨对方是人还是机器,那么就可以说机器具有了某种程度的智能。
受到普遍常识和语言的局限,人们总会以想当然的方法去实现图灵留给大家的未来图景——让机器以人的智能实现的方式作为标本来模仿学习。为什么会采用这样的方法论?因为人就是这样做的,没有第二种模型供大家参考,这严重考验着人们的想象力。我们可以将这种方法论形象地称为:仿生学+。成功的例子如潜艇,整体模仿了鱼在水中升潜的原理,结合了机械、力学、热机等相关学科的知识构建而成;不成功的例子如人类早期制造飞机的思路,模仿鸟扇动翅膀产生动力的飞行机器。尽管现在这种仿生学的思路也造出过可以持续飞行的飞行器,但是我们谁都知道,当前绝大多数的飞行器都是依靠空气动力学的理论发展出来的。在“仿生学+”这条路上,大家艰难地走了将近40年。更痛苦的是,“仿生学+”在今天看来并非出路,而几乎牺牲了三代当时最优秀的计算机科学家。
既然计算机天生很难具有智能,那些看起来有些智力水平的应用难道背后都是人工实现的吗?当然不是!
图灵的论文像是一个预言,他以计算机科学之父的名义,预言了多年之后机器会具有智能。直到1988年,IBM的计算机科学家彼得·布朗(Peter Brown)终于找到了实现计算机理解自然语言的方法,那就是基于数学和统计,充分发挥机器计算能力和存储能力的机器智能实现方案。这套方案实现了今天我们所知的人工智能。
斯坦福人工智能中心及视像实验室负责人李飞飞教授,带领她的团队教会了计算机“看”,他们充分使用了基于数学和统计的方案,但“仿生学”概念仍是他们不愿意放弃的法宝。只不过这次,他们的“仿生学”准确称法应该是“仿机器学”。人是如何学会“看”的?这个“看”并不是如相机或摄像机那样把影像保留下来,而是带有相当的理解。也就是说,我们“看”的意义在于我们不能仅仅看到了,还得知道我们看到的是什么。他们假设小孩子的眼睛是一台高分辨率的生物摄像机,这台摄像机的能力是每200毫秒(眼球转动一次平均时长200毫秒)就能拍摄一张高清照片,那么一个3 岁的孩子看过1703 亿张照片(365×3×12×30×24×60×60×1000/200张),这个数目惊人且被标记过的图片库就教会了小孩子“看”。基于这样的考虑,李飞飞团队利用庞大的图片数据库和算法训练计算机“看”。
如今,机器可以与人对话,也可以理解自己所看到的景象,通过传感器技术还能识别气味和物质。机器已经初步具备人的感官和智能,可以不知疲倦地守候在以往只有人才能做出反应的岗位,如水下深潜、极端环境作业、病人看护、抢险救灾等。可以说,人类未来的生活很有可能因为机器智能而变得越来越美好。
Artificial Intelligence即人工智能,这个词造得非常好。机器的智能是人工制造出来的,是区别于人的。随着技术的发展,机器可以很“聪明”,能主动学习、能积极思考。但是机器永远不能拥有人的智力,它缺乏的恰恰是人最重要的改变世界的能力——想象力。






本书评论
This info is priceless. Where can I find out more?