模拟向我们走来
生物学一直都在做这件事。生命依靠数字编码的指令,在序列和结构之间转换(从核苷酸到蛋白质),由核糖体阅读、复制和翻译纸带上的序列。但是,任何相似性都在不同的寻址方式这里结束,而计算机通过寻址方式执行指令。在数字计算机中,指令采取命令(地址)的形式,其中地址就是一个绝对或相对的存储位置。通俗地说,这个过程可以解释为:用你在“这里”找到的东西“做这个”,然后去“那里”得出结果。一切不仅取决于确切的指令,而且取决于准确定义的“这里”、“那里”和“哪里”。
在生物学中,用伴随而来的“那个”的下一副本“做这个”。这里所说的“那个”的确定,不是依靠代表特定地址的数字地址,而是依靠一个分子模板来识别由一些较小的、可识别部分所组成的较大的复杂分子。这就是有机体由微小(或近微小)单元组成的原因,因为只有所有部件之间的物理间距尽量缩小,随机的、基于模板的寻址模式才能快速运转。中央地址管理机构和中央时钟都不存在,许多事情都能够立即执行。这种有组织地利用本地以及随意过程的一般能力(到目前为止),就是将生物体中的信息处理和数字计算机所做的信息处理区分开来的能力。
随着对复杂分子机器工作机制的了解不断增多,我们对生命的理解也越来越深刻;而随着机器不断向生物的复杂度靠近,我们对技术的理解却大打折扣。我们退回到了朱利安·毕格罗和诺伯特·维纳于1943年与人合著的《行为、目的和目的论》一文中止步的地方:“对于生物和机器的进一步比较……可能取决于是否存在一种或多种具备不同定性且独特的特征,这种特征是一个群体所具备而另一群体却没有的。”他们在文章结尾这样写道:“至今为止,这种定性上的区别尚未出现。”
随着数字宇宙不断膨胀,它和两种已有的信息储备发生了碰撞:存储在基因代码中的信息和存储在大脑中的信息。事实上,基因中的信息比想象的数字化程度更深、更有序、更富有逻辑性,大脑中的信息则恰恰相反。
如果冯·诺依曼活得久一些,就有可能将注意力转移到基因代码上来,不过在生命快要走到尽头的时候,他关注了在大脑中处理信息的问题。据乌拉姆说,“冯·诺依曼最后为即将到来的耶鲁大学西利曼纪念讲座(Silliman Memorial Lectures)准备的手稿未能完成,只是以最低限度粗略地描绘了他计划思考的东西”。克拉拉对这份手稿做了编辑,在他去世后,以《计算机与人脑》(The Computer and the Brain)一书出版。冯·诺依曼试图解释两个系统之间的差异,第一个差异就是我们近乎了解电子计算机中发生的一切,但是对人脑却几乎一无所知。
他解释说:“神经系统中使用的消息系统具有必要的统计特征。”
重要的不是明确标记、数字的确切位置,而是它们出现的统计特征……一个符号系统与我们在普通算法和数学中熟悉的截然不同……显然,也可以使用(统计)消息的其他特征:的确,所参考的频率是单一脉冲序列的一个属性,而相关的每一条神经都包含大量纤维,每条纤维都传输许多个脉冲序列。因此,这些脉冲序列之间的特定(统计)关系也应该传输信息是完全合理的……
无论中枢神经系统使用哪种语言,它都比我们通常习惯的语言在逻辑和算法深度方面要弱,并且它的结构必定与我们一般经验所涉及的那些语言有所不同。
大脑是一个统计型、概率型的系统,其中的逻辑和算法以更高水平的过程运行。计算机是一个逻辑型、数学型的系统,在此之上可能建立更高水平的统计型、概率型系统(如人类语言和智能)。斯坦·乌拉姆曾发问:“你为什么如此确信数学逻辑符合我们思考的方式呢?”
在真空管的时代,数字计算机运作数千亿次而不出错是不可想象的,计算的未来似乎属于可以持久容忍硬件故障的逻辑架构和编码系统。在1952年,代码很短,可以进行全面除错,但是不能指望硬件始终如一地执行命令。现在,这种情况刚好反转过来。然而,大自然的硬件和代码都很松散,怎么能获得这样可靠的结果呢?1949年,冯·诺依曼提出:“我们有理由怀疑我们对线性代码的偏爱主要是一种文艺习性,线性代码有一个简单的时间序列,与我们不甚高明的组合相一致,而非常高效的语言可能与线性相悖。”计算最成功的新进展——搜索引擎和社交网络都是介乎数字编码和脉冲频率编码系统之间的非线性混合物,它们正超越线性、全数字化的系统。
在一个数字编码的系统中,每个数字都有准确的含义,即使是替换一个数字,都有可能导致出现错误的答案或计算停止。在脉冲频率编码的系统中,意义通过给定位置之间传输的脉冲频率进行传达——无论这些位置是大脑中的突触还是万维网中的地址。频率的调整意味着意义的改变,但是信息的传达、存储和解译是概率性的、统计性的,与每个数字是否在合适的时间出现在合适的位置无关。而意义在于在哪里相互联系,以及联系的频率,同时意义被编码在所传达的信号中。正如冯·诺依曼在1948年解释的那样:“为了理解高复杂度的自动机,特别是中枢神经系统,必须发明一个新的逻辑理论。然而,与反向过程相比,逻辑或许必须在更大程度上经历从假象过渡到神经学的过程。”
1948年,由于单片微处理器的可靠性和单片存储器的保真度不够,未能凸显这种假象的必要性,使其看似绝无可能。直到最近,这种假象才重回正轨。冯·诺依曼的地址矩阵正在成为非冯·诺依曼地址矩阵的基础,而图灵机也被融入非图灵机的系统。数字地址矩阵和中央时钟周期对错误及在地址和时间上的模糊界定是零容忍的,但是代码——我们现在称它们为应用程序,却能够容忍错误和模糊界定的存在。
然而,微处理器保留了下来,正如多细胞生物的出现并未让单细胞生物走向灭亡。生物体可以分解为细胞,因为代谢和增殖所依赖的、随机的、基于模板的分子地址在局部范围内运作更快。技术有机体也可以分解为细胞(处理器分解为多核),不仅是为了隔离错误,也是因为数字处理所依赖的数值地址只在局部范围内以纳秒的速度运作。在规模和时间都更大的域里,其他形式的地址和处理过程及其他架构都开始进化了。
在所有事物都数字化的时代,我们再一次开始制造模拟计算机。冷战时期,由于ENIAC取代了布什微分分析仪,模拟计算才消失,而当时军备竞赛的重点在于进行高速运算,因此毫无疑问,数字计算会脱颖而出。除了算法,还有其他的基准。虽然图灵、冯·诺依曼以及毕格罗对数字革命做出了许多贡献,但他们并没有将模拟计算看作一个死胡同。正如杰克·古德在1962年所说的那样:“模拟计算机这个名字很愚蠢,应该叫连续计算机。”对于实际问题,特别是模糊不清的问题,模拟计算不仅在计算答案方面,而且在提问和传达结果方面,表现得更加快速、准确、稳健。Web 2.0是我们在6年前提出的、日渐取代数字模拟的代名词,这与数字逻辑嵌入模拟分量的方法是相背离的。搜索引擎和社交网络只是一个开始——前寒武纪。
1948年,冯·诺依曼表示:“如果数字扩展系统的唯一缺点是更高的逻辑复杂性,大自然不会仅仅因为这个原因就排斥它。”
搜索引擎和社交网络是具备史无前例规模的模拟计算机。信息被编码和处理为连续且容噪的变量,如连接或出现的频率,以及在哪里连接的拓扑,该连接位置越来越多地由容错模板所限定,而不是由一个对错误零容忍的数字地址所限定。脉冲频率编码互联网是一种描述搜索引擎工作架构的方式,而神经元的“网页排名”是一种描述大脑工作架构的方式。这些计算结构使用数字部件,但是由系统执行的模拟计算总体超过了它所运行的数字代码的复杂度。社交图谱或人类知识的模型自行构建和更新。
分子、人类或思想的复杂网络组成了自身最简单的行为描述。相比使用数字、算法代码定义,连续模拟网络能更轻易地捕捉到这种行为。这些模拟网络可能由数字处理器组成,但是有趣的计算在模拟域中执行。“纯粹‘数字’程序可能比必要的更笨拙,并且要看具体情况,”1951年,冯·诺依曼警告说,“但是,可能存在更为协调、更为综合的程序。”
模拟回归了,它正向我们走来。
本书评论