AI突破三要素
AI发展了60年,为什么到今天能够突破?这是由于长期积累的三个条件成熟了。
第一个条件是计算能力。计算能力和半导体的集成度(在单位半导体材料面积上可以集成的晶体管的数量)直接相关。从第一个集成电路晶体管诞生以来,在过去的50年中,半导体的集成度的增加速度基本遵循“摩尔定律”。1965年4月19日,《电子学》杂志(Electronics )发表了仙童半导体公司工程师戈登·摩尔(Gordon Moore,后成为英特尔的创始人之一)撰写的文章《让集成电路填满更多的组件》,文中预言半导体芯片上集成的晶体管和电阻数量将每年增加一倍。1975年,摩尔在IEEE(电竞和电子工程师协会)国际电子组件大会上提交了一篇论文,根据当时的实际情况对摩尔定律进行了修正,把“每年增加一倍”改为“每两年增加一倍”,而这个定律经过传播演化,变成今天普遍流行的说法“计算机运算速度每18个月提升一倍,价格每18个月下降一半”。
1970年一个芯片上的晶体管数量约为1 000个,今天一个芯片上的晶体管数量达到100亿个,不到50年中提高了1 000万倍。相应地,计算能力也提高了1 000万倍。目前虽然单个芯片的晶体管数量增加速度放缓,但人们开始把成百上千个芯片封装在一起以便提高总的计算速度。
计算能力对人工智能的巨大推动还体现在一个标志性事件上——GPU(图形处理器)被用于训练AI算法。2009年,斯坦福大学计算机系教授吴恩达和他的博士生拉加特·蓝恩纳(Rajat Raina)第一次提出由于神经网络中大量计算可以并行,用一个GPU可以比双核CPU快70倍,原来需要几周完成的计算一天就可以完成。之后纽约大学、多伦多大学及瑞士人工智能实验室纷纷在GPU上加速其深度神经网络。赢得2012年ImageNet竞赛的AlexNet同样用的也是GPU。从此之后,GPU就在神经网络的训练和识别中树立了公认的王者地位。再到后来AlphaGo发威战胜人类顶级围棋手,背后则是谷歌自行研发的专为深度学习使用的TPU发挥了重要支撑,每个TPU可以提供10倍于GPU的计算能力。在本章中将会详细分析为什么TPU比GPU快。
第二个条件是数据。如果说算法是火箭发动机,那么数据就是燃料。由于互联网的发展和各类传感器(例如在各种环境中的温度、位置、压力等物理化学变量的测量,社会中大量摄像头的存在)成本的大幅下降和广泛安装,根据IDC(互联网数据中心)的监测统计,2011年全球数据总量已经达到1.8ZB(1ZB=1万亿GB),相当于18亿个1TB的移动硬盘,而这个数值还在以每两年翻一番的速度增长,预计到2020年全球将总共拥有35ZB的数据量,增长近20倍。
这比从人类出现到计算机出现前产生的所有数据都多。以目前的传感器技术发展速度,若干年后回头看今天的数据量,不仅量小而且数据采集的密度和广度都远远不够。
第三个条件就是那批甘愿坐“冷板凳”的科学家经过了几十年的积累,终于从2006年开始在算法上有了重大突破。当时在多伦多大学任教的辛顿教授在美国《科学》杂志和相关的期刊上发表了论文,证明了深度神经网络的能力和实用性。从此,基于多层神经网络的深度学习理论成为本轮人工智能发展的重要推动力,相当于过去飞机从达·芬奇设计的扇翅膀的飞行器变成有螺旋桨的发动机,人工智能的概念和应用开始一路攀升,语音识别、机器视觉技术在几年间便超过了人类的水平。
正是算力、数据、算法这三个要素同步成熟,形成合力,终于带来了今天AI的爆发。这三个要素中最重要的是计算能力的发展和算法的互相促进。
本书评论