读书笔记的附录系列其实是一个“没准的”坑,笔者自己都不敢保证能写到哪儿结束。大体来说主要就是读书笔记系列的延展内容,因为如果放在原本的笔记里会显得离题和冗长(虽说笔记内容本身就已经非常冗长了)。但是有些内容如果只是在笔记里一笔带过又不太合适,值得拓展开来写,才有了这个“笔记附录”系列。
因为是依附于原本笔记的拓展内容,所以附录系列的内容不太有连贯性。比如上一篇笔记是关于“人机博弈”的主题,这一篇则是一篇单纯的翻译资料。后面还会有什么题目还不好说,毕竟目前《GEB》还没有读完,而这本书即使是读完之后,也值得反复阅读,说不定还会有新的收获——换言之这个“附录”系列就可能是一个填不完的天坑。
之前在笔记系列里提到了一个贯穿了整个“人工智能”领域的核心问题——心智是什么?围绕这个问题,学术界的主要立场可以划分为两个大类:“心智机械论”和“心智非机械论”(有的学者在这二者之间徘徊,主要是因为这两方都没有能够完全驳倒对方的决定性证据,虽说“心智机械论”是目前学术界的主流观点,那也主要是因为符合学术界的风气——搞研究的也是人,也有自己的倾向和希望。)关于这二者的争论,其结果将直指“人工智能”的终极问题之一——它能不能做出来。
涉及到“学术争论”的话题其实这里还想多说几句,人们总是很热衷于“争论”,同时在涉及到大规模的争论的时候,还会带进来一些特别的性质。单对单争论其实很容易得到结果,哪怕谁也没有说服谁,大家都精疲力竭,这争论也就到此为止了。但如果争论的双方都是“群体”,那这事情可能就没有那么简单了——首先不会那么轻易的结束。。“群体”的续航力要比个人强得多——毕竟持相同意见的人可以接力加入争辩。然而往往争论到最后会变质:从理性之争变成意气之争。
所以如果真的想在争论中有所收获的话,那么最好的方式是在争论中保持沉默,仔细倾听两边的声音,各取长处,也许就会有新的发现——所谓:取百家之长,而集大成者。即使是完全不同意卢卡斯教授观点的侯世达也是在仔仔细细地研究了卢卡斯教授的论文,在完全理解了的基础上才试着进行反驳。(而不是上来先挑刺,以驳倒对手为第一目的……)
这篇论文的内容很长,而且前后紧密相连(因为是逐步推进,逐条论证的),所以原本笔者打算分几次发出来,但最后还是作罢,因为一旦断开,很多内容就乱了。另一个有意思的地方是,就像侯世达自己所说,卢卡斯教授在这篇论文里对哥德尔不完备性定理的解释和举例几乎和侯世达教授在GEB里的一模一样,但是他们却得出了截然相反的结论。
《心灵、机器与哥德尔》(英语:Minds, Machines and Gödel)由约翰·卢卡斯教授于1959年撰写的哲学论文,他认为人类数学家不能被图灵机所替代。首次出版于《哲学》(Philosophy,XXXVI,1961年刊)第112-127页;后转载于《心智模型》(由肯尼斯·M·赛尔和弗雷德里克·J·克罗森编辑,圣母院出版社出版,1963年刊)第269-270页;《心灵、机械与哥德尔》(艾伦罗斯·安德森编辑,普伦蒂斯·霍尔出版社,1964年)第43-59页。
依我看,哥德尔定理证明了机械论是错的。也就是说,心智不能解释为机器。在许多人看来也是如此:几乎每个听过我的阐述的数学、逻辑学家都承认自己有过类似的看法,但在这个论点得到完整的阐述,并且充分的论证了所有的反对意见之前,他们都不愿意承认自己的看法。而我想尝试一下。
哥德尔的定理指出,在任何强到可以包容皮亚诺算术公理的一致的系统中,都有一些定理不能在系统中被证明,但我们却可以看出这些定理是正确的。实际上,我们看出的定理,是指:“这个定理在系统中是不可证明的。”如果这个定理是系统中可证明的定理,那么我们就会产生矛盾:因为如果它在系统中是可被证明的,那么它就不是系统中“不可被证明的定理”,所以“这个定理在系统中是不可证明的。”就是错误的:同样,如果它是系统中可证明的定理,那么它就不会是错误的,而必然是正确的。因为在任何一致的系统中,都不能通过证明获得错误结果,而只能通过证明获得正确结果(定理)。所以定理:“这个定理在系统中是不可证明的。”就不是在系统中可得到证明的定理,但确实是属于系统中的“不可证明的定理”。此外,如果定理:“这个定理在系统中是不可证明的”在系统中是“不可证明的定理”,那么这个定理在系统中是不能被证明的,也就是说定理:“这个公式在系统中是不可证明的”本身是正确的。
上述的论证很繁琐,很难被完全理解:把论证反过来思考可能简单一些,假设“这个定理在系统中是不可证明的”这条定理是错误的,但实际上这是不可能的事,从而证明这个定理是正确的;由此得出的结论是“定理”确实是不可证明的。即便如此,这一论点仍然无法令人信服:我们认为,这其中一定有某种缺陷。哥德尔定理的全部工作就是证明在任何地方都有“定理”没有被捕获到,其结果可以通过最严格的推导来确定 ;它适用于所有形式系统,这些系统是一致的,足以涵盖简单的算术运算,即包含自然数和加法、乘法运算——这表明它们都是不完备的——即包含不可证明但却完全有意义的定理,而且,我们站在系统之外,就可以看到其中一些定理确实是正确的。
哥德尔定理必然适用于机械控制论,因为它是机器的本质,它应该是形式系统的具体实例。由此可知,任何一台机器,只要它是一致的,并且能够做到简单的算术运算,就有一个定理是不能产生为真的,也就是说,这个定理在系统中是不可证明的,但是我们却可以看到它是真的。因此,没有一台机器能够成为完美的心智模型,心智本质上不同于机械。
我们通过机械控制论来理解一种装置,它根据一组确定的规则来执行一组操作。通常我们对一台机器“编程”:也就是说,我们给它一套指令,告诉它在每一种可能的情况下要做什么;我们输入机器进行计算的初始“信息”。当我们考虑到大脑可能是控制论机制的时候,我们有这样一个模型;我们假设大脑是由复杂的神经回路组成的,感官输入的信息被“处理”并作用或存储以备将来使用。如果它是这样一种机制,那么它被给定编程的方式,即它被“连接”的方式,以及输入到其中的信息,就确定了它的反应,即“输出”,并可以在足够的时间内被计算出来。我们对机器的看法是,它的行为完全由它的构造方式和输入的“刺激”所决定:它不可能独立运行。给定某种形式的构造和某种信息输入,那么它必然以某种特定的方式运行。然而,我们不应该关心机器必然会做什么,而应该关心它能做什么。也就是说,我们不考虑一整套操作规则,虽然这些规则共同决定了一台机器在特定情况下将做什么,而只考虑这些规则的概要,这些规则将界定机器可能的反应,但不是完全的。完整的规则将完全决定每个阶段的操作;在每个阶段都将有一个确定的指令,例如,“如果数字是素数且大于2,则加1除以2:如果不是素数,则除以其最小因子”:然而,我们将考虑是否可能有替代指令,例如:“在一个分数中,你可以用分子和分母的因子除以上下”。因此,我们放宽模型的限制,使它不再是完全决定论的,但仍然是完全机械论的,我们将考虑到一个经常被提出来,用于心灵机械模型的特征,即:它们应该包含一个随机装置。人们可以建造一台机器,在给定的一些选项中做出选择,比如说,在半分钟内,镭射原子在给定容器中分解的数量。初步看来,我们的大脑应该很容易受到随机效应的影响:脉冲很可能足以触发神经冲动。但很明显,在一台机器中,一个随机化装置不能用来做出选择:它只能在许多给定的选项中进行选择。把任意选择的数字加到方程等式的两边是可以的,但不能把一个数字加到一边,另一个加到别的地方去。我们可以选择证明欧几里德的一个定理而不是另一个定理,或者我们可以使用一种方法而不是另一种方法,但我们不能“证明”不可证的东西,也不能使用无效的“证明方法”来证明。任何随机化设备只能在那些不会导致不一致的操作之间进行选择:这正是我们的模型所放宽的限制,可以这样说:与其考虑一台完全确定的机器必然做什么,不如考虑一台机器如果有一种随机化装置,当它有两个或两个以上的操作可能时,它们会不会产生矛盾。
如果有这样一台机器是用来产生关于算术定理的(在许多方面,这是数学中最简单的部分),那么它将只有有限数量的部件,因此它只能进行有限数量的运算,并且只能进行有限数量的初始设定。事实上,我们可以更进一步地说,只有有限数量的操作类型和初始设定可以纳入其中。机械是确定的:任何不确定或无限的东西我们都不应该算作是机器。注意,我们说的是操作类型的数量,而不是操作的数量。如果有足够的时间,并且机器没有磨损,它可以无限期地重复一个操作:它只不过可以执行有限种类型的操作。
如果系统中只有一定数量的操作类型和初始设定,我们可以用适当的书面形式的符号来表示它们。我们可以通过规则(“推理规则”或“公理模式”)来进行操作,允许我们从一个或多个公式(或者甚至根本没有公式)到另一个公式,并且我们可以通过一组初始公式(“原始命题”、“假设”或“公理”)来进行初始设定(如果有的话)。一旦我们在纸面上写出了这些内容,我们就可以看到每一个操作步骤:我们需要做的只是给出表示操作前后情况的公式,并注意调用的是哪个规则。因此,我们可以在纸面上表示机器可能执行的任何操作序列。不管机器运行多久,只要给我们足够的时间,纸和耐心,我们都可以写出机器运行的步骤模拟。这种类比事实上是一种形式上的证明:机器的每一个操作都是由一个规则的应用来表示的:而决定机器在某种情况下是否可以执行操作的条件,在我们的表述中变成了:决定规则能否应用于某一公式的条件,即适用的形式条件。因此,将我们的规则解释为推理规则,我们将有一个公式的证明序列,每一个公式都是根据某个形式的推理规则写下来的,该规则已经应用于一些以前的公式(当然,对于最初的公式除外,因为它们代表了系统内置的初始设定。)因此,机器产生的结果可能是真的,这将与相应形式系统中可以证明的定理相对应。我们现在在这个形式系统中构造一个哥德尔定理。这个定理不能在系统中被证明。因此,机器不能产生正确的相应公式。但我们可以看到,哥德尔定理是正确的:任何理性的人都可以遵循哥德尔的论点,并说服自己,哥德尔定理虽然在体系中无法被证明,但事实上,正是因为这个原因,才是正确的。现在,任何心灵的机器模型都必须包含一种能够阐明算术真理的机制,因为这是心灵所能做到的:事实上,很容易能构建出机器模型,这种模型在许多方面产生的算术真理远远强于人类。但在这一点上,它们做不好:在这一点上,每一台机器都有一个真理(哥德尔定理),但它不能生成这个真理,而大脑可以生成这真理。这表明一台机器不可能是一个完美的心智模型。它不能做到心智能做的每件事,因为不管它能做多少事,总有它做不到而大脑能做到的事。这并不是说我们不能制造一台机器来模拟任何想要的类似心智的行为:只是我们不能制造一台机器来完全模拟每个类似心智的行为。我们可以(或有一天将能够)制造机器,能够再现一些类似于心智的行为,甚至超越人类心智的表现:但是无论机器表现的有多好,无论它在几乎所有方面能做得多好,它总是有这一个弱点,这一个它做不到的事情,而心灵却可以做到。哥德尔定理是机器控制论的致命弱点。因此,我们永远不能指望生产出一台机器,它能做到一个大脑所能做到的一切:从根本上我们永远不可能获得一个完全的心智的机器模型。
这个结论对有些人来说是值得质疑的,他们首先会反对,我们不可能拥有一台可以模拟任何一种类似于思维行为的同时,却不能模拟每一种行为的机器。对那些人来说这是矛盾的:因为对他们来说,好像只要指出任何自然数都可以产生一个更大的数,而一个数不能产生大于每一个数的数,这两个事实之间没有矛盾就足够了。我们也可以用同样的类比来反驳另一些人;在他们发现他们的第一台机器有不能产生的公式是真的,于是便承认那台机器确实是不充分的,但因此寻求构造第二台更充分的机器,其中可以产生那些为真的公式。他们确实可以做到这一点:但是第二台机器将有一个自己的哥德尔公式,将哥德尔过程应用于表示其(第二台机器)自己的、扩展的操作方案的形式系统上。而第二台机器所产生的这个公式将不能被认为是真的,但心智却能够看出它是真的。如果现在又有了第三台机器,能够做第二台机器做不到的事情,同样的事情也会发生:还会有第三个公式,对应于第三台机器的操作方案的形式系统的哥德尔公式,而第三台机器仍然不能产生这样的公式,而心智还是能够看到它是真的。所以无论我们构造出多么复杂的机器,只要它是机器,就都对应于一个形式系统。接着就能找到一个在该系统内不可证的公式而使之受到哥德尔过程的打击。机器不能保持着真理性地把这个公式产生出来,尽管人类心智会看出它是真的。因为这部机器仍然不是一个完整的够格的心智模型。我们总是试图建立心智的一种机械模型,它是机械的——本质上讲是“死”的——而心智事实上是“活”的,它总能比任何形式的、僵硬的、死的系统干得更好。幸亏哥德尔定理,心智总是有最后的决定权。
现在将提出第二项反对意见:用以构造哥德尔公式的那个过程是一个标准过程——因而就能确保对每个形式系统都能构造出一个哥德尔公式。可既然它是个标准过程,那也就能编出程序使一台机器能实施它……而这又对应着存在一个具有一条附加推理规则的系统,使我们能把原系统的哥德尔公式作为一条定理加进去,然后又把这个新的、强化了的形式系统的哥德尔公式加进去,如此下去。这相当于在原先的形式系统中加进一个无穷的公理序列,即加进逐次得到的每个系统的哥德尔公式……我们或许会期望,有一个心智在面对着这台拥有哥德尔化算子、以及一切的一切再来个哥德尔化。事实上,已经证明的确如此。即使我们把由各个哥德尔公式所组成的那个无穷公理集加进该系统,所得到的系统仍然是不完全的,仍然会含有一个在该系统内不可证的公式,而一个有理性的人站在该系统之外时却能看出它是真的。我们已经料到这一点,因为即使加进一个无穷的公理集,它们也得靠某种有穷的规则或规格来指明,而这种进一步的规则或规格也会被心智在考察扩大了的形式系统时考虑进去。在某种意义上,恰是由于心智有最后的决定权,所以它总能从任何一个被当作它自己工作的模型的形式系统中挖出一个洞。从某种角度看,机械模型必定是有穷的、确定的,所以人的心智总能做得更好。
这是对图灵提出的一项反对意见的回应,他认为对机器能力的限制并没有多大意义。尽管每一台机器都无法得到某些问题的正确答案,但毕竟每一个人也都有可能犯错:而且无论如何,“我们的优越感也只能在这种情况下才能被感受到,这是面对机器的一个小小的胜利而已。”不可能同时胜过所有的机器。但这不是问题的重点。我们讨论的不是机器或心智孰优孰劣,而是它们是否相同。在某些方面,机器无疑比人类的大脑优越;而它们会被一个相当琐碎,甚至微不足道的问题难住,这是不可否认的。但这已经足以证明机器和心智是不一样的。诚然,机器可以做许多人类心智做不到的事情:但如果有机器做不到的事情,而大脑可以做到,那么无论那是多么琐碎的事情,都足以说明我们不能把两者等同起来,也不能指望有一个心智的完备机械模型。我们能胜过一台单独的机器也并不意味着什么:因为对一个特例的胜利没有意义,对所有对象的胜利才有意义——在拉丁语中是quivis(任何)或quilibet(任意),而不是quidam(某些)——心智的机械模型必然是一台单独的机器。尽管一个大脑对一台机器的任何特定的“胜利”都可以被另一台机器“压倒”,而另一台机器能够产生第一台机器所不能产生的答案,因此“同时战胜所有机器是不可能的”,但这无关紧要。问题不在于一个大脑和所有机器之间的不平等竞争,而在于是否有任何单独的一台机器可以做到一个大脑所能做到的一切。要使机械论的论点成立,原则上,必须有可能产生一个独立的模型,它能做到心智所能做到的一切。这就像一场游戏。机械师在第一回合创造了一个——任何一个独立的——心智的机械模型。我指出它做不到但心智可以做到的事。机械师可以自由地修改他的模型,但每次修改时,我都有权在修改后的模型中查找缺陷。如果机械师能设计出一个我找不到缺点的模型,那么他的论点就成立了:如果他不能,那么论点就不成立:既然——事实证明他一定做不到,那论点就被驳倒了。要想取得成功,他必须能够创造出某种明确的心智机械模型——随他乐意,但他可以具体说明,并将坚持下去。但是,由于他原则上不能产生任何足够强力的模型,即使破绽很小,他也必然会失败,而机器必须是失败的。
还可以更进一步的来反驳,哥德尔定理只适用于演绎系统而人类思维能做到的不仅仅只是推理演绎。哥德尔定理只适用于一致的系统,而人类是否是一致的,这在很大程度上都值得怀疑。哥德尔定理只适用于形式系统,而人类的聪明才智没有先验的限制,这就否定了我们创造出某种形式系统无法替代的人类复制品的可能性。
人类不仅仅局限于做出演绎推理,CG·亨佩尔和哈特利·罗杰斯都曾大力主张,一个合理的心智模型必须考虑到做出非演绎推理的可能性,而这可能提供了一种逃避哥德尔结果的方法。哈特利·罗杰斯提出了一个具体的建议,即机器应该被编程来接受各种未被证明或证伪的命题,有时还可以把它们添加到公理列表中。比如费马的最后一个定理或者哥德巴赫猜想。如果之后发现这些被添加命题会导致矛盾,那么这些命题将被删除,同时,这些命题的的反命题将被添加到定理列表中。在这种方式下,一台机器很可能被构造成能够产生某些正确的公式,而这些公式就不能根据其推理规则从原本的公理中获得证明。因此,证明头脑比机器优越的方法可能就不再奏效了。
然而,建造这样一台机器是困难的。它不能接受所有不可证明的公式,并将其添加到自己的公理中,否则它会发现自己接受了哥德尔公式和其否定,因此就是不一致的。它也不会只接受每一对公式中的前者,并且把公式加入公理中。因为如果这么做了,那么它将不再把公式的否定看作是不可判定的,所以永远也不会接受它:因为这可能导致机器在两个选项中选出错误的那个选项:它可能接受哥德尔公式的否定,而不是哥德尔公式本身。公理的良序集构成的系统,与哥德尔公式的否定相邻,虽然不矛盾,却是一个不健全的系统,不被常理所认可。它有点像二维的非笛沙格几何:实际上并不是不一致的,而是错误的,这足以使其失去纳入考虑的资格。一台容易发生这种不良运行的机器,是不够资格成为人类大脑的模型的。
显然,在选择不可证明的公式时需要相当严谨的标准。哈特利·罗杰斯提出了一些可能的建议。但是,一旦我们有规则生成新的公理,即使所生成的公理只是暂时被接受,并且如果发现它们导致不一致,就可能被再次丢弃,那么我们还是可以在这个系统上着手使用哥德尔方法,就像任何其他的系统一样。当我们有规则生成无限集合的哥德尔公式作为公理时,我们依然可以使用同样的方法。简而言之,不管一台机器是如何设计的,它都必须随机地或按一定的规则运行。只要它的过程是随机的,我们就不能胜过它:但它所表现出的不会是对智能行为的令人信服的模仿:只要它的过程符合明确的规则,就可以用哥德尔方法产生一个公式,根据这些规则,机器将不能断言它是真的,尽管我们站在系统外,可以看出这是真的。
而且,正如哥德尔在他的第二个定理——他的第一个定理的推论——中所表明的,在一个一致的系统中,系统不可能证明自身是一致的。因此,为了通过产生一个我们既可以说它是真的又不能证明它是真的的公式来对机器进行故障诊断,我们可以说机器(或者说,它相应的形式系统)是一致的;但并没有绝对的证据能证明这一点。我们所能做的就是检验这台机器,看它是否一致。始终存在一些尚未检测到的不一致的可能性。我们最多只可以说机器是一致的,前提是我们自身是一致的。但我们凭什么这样做呢?哥德尔的第二个定理似乎表明,一个人不能断言他自己的一致性,因此哈特利·罗杰斯认为,我们不能真正使用哥德尔的第一个定理来反驳机械论的论点,除非我们可以说“人有特殊性能够超越这最后的局限性,但依旧保持一致性。”
如果一个人的一致性受到质疑,他的理性反应就是激烈的肯定自己的一致性:但是,鉴于哥德尔的第二定理,一些哲学家认为这恰恰是他实际不一致的证据。普特南教授认为人是机器,但却是不一致的机器。如果一台机器被连接到一个不一致的系统上,那么就不会有一个界定良好的公式,它就不能产生一个为真的公式;但也不能因此证明它比人差。我们也不能把它的不一致当作是对它的责备——难道男人也不一致吗?当然,女性、政治家、甚至男性非政治家有时也会自相矛盾,一个不一致就足以使一个系统不一致。
我们有时都是不一致的,这一点不能否认,但从这一点来看,我们并不等于是不一致的系统。我们的不一致是我们犯错,而不是原本的运行机制。这对应于机器偶尔出现的故障,而不是它的正常运作模式。有一点可以证明,当我们认识到自身的不一致时,我们会试图纠正。如果我们真的是不一致的机器,我们应该会满足于我们的不一致,并且乐于接受矛盾。此外,我们将不会做出任何绝对的判断。这很容易证明,在一个不一致的形式系统中,一切都是可证明的,而一致性的必要条件是,并不是所有的东西都能在其中被证明,这不是“干什么都行”的情况。这当然是人类心理活动的一个特点:他们是有选择性的:他们确实区分喜欢的——对的——和讨厌的——虚假的——陈述:当一个人准备说任何话,并且准备不带任何疑虑或反感地反驳自己时,他就被判“失去理智”。人类虽然不完全一致,但与其说是不一致,不如说是容易出错的。
一台容易出错但能自我修正的机器仍将受制于哥德尔的结果。只有从根本上不一致的机器才能摆脱哥德尔。我们能有一个根本不一致的,但同时又能自我修正的机器吗?这二者都不会受到哥德尔结果的影响吗?也不会是完全不同于人类因而不值一提的的模型?一台带有搜索引擎的机器:将不一致引导入其中,所以所有正常的任务都是一致的,但是当它与哥德尔语句一起出现时,能够证明它吗?
有各种各样的方法可以排除多余的验证。我们可能有一条规则,每当我们证明了“p”和“not-p”,我们就检验它们的证明,并延长时间拒绝得出结果。或者我们可以按照一定的顺序安排公理和推理规则,当提出一个导致不一致的证明时,看看它需要什么公理和规则,并拒绝在排序中的最后出现这个公理或规则。在某种程度上,我们可以有一个不一致的系统,有一个停止规则,这样不一致就不会以不一致的公式的形式出现了。
乍一看,这个建议似乎很有吸引力:但也有严重的问题。即使我们可以通过一条规则来保持一致性的表象,即无论何时出现两个不一致的公式,我们都会拒绝具有较长证明的公式,然而这样一条规则在我们的逻辑意义上是令人反感的。即使是如此也还是太武断了。系统不再在某些确定的公式上使用某些确定的推理规则。相反,规则适用,公理是真实的,提供……我们并没有在给机器找麻烦。我们也不知道自己的立场了。“肯定前件”( 注:1 )规则的一个应用可以被接受,而另一个则被拒绝:有时公理可能是真的,或者另一个显然是错误的。这个系统将不再是一个正式的逻辑系统,因为这台机器将几乎不符合头脑模型的标准。因为它在操作上远不像心智那样:心智确实会尝试可疑的公理和推理规则;但是如果发现它们导致矛盾,它们就会被完全否定掉。我们暂时地推断出公理和推理规则---是真的:但是一旦发现它们会导致矛盾,我们就不会保留它们。我们可能会寻求将它们替换掉,或者尽管需要某种公理或推理规则,但我们会觉得形式化是错误的。我们虽然不能完全正确地进行表述,但我们不会保留错误的表述而不作修改,这只是当论点产生矛盾时,我们拒绝遵循它的附带条件。但这样做是完全不合理的。我们的立场应该是,在某些情况下,当我们提供了一个模仿者的前提时,比如说,我们应用了规则并允许得出结论,而在其他情况下,我们拒绝应用规则并拒绝得出结论。一个人,或者一台机器,如果做了一件事却不能给出合理的理由,就会被认为是武断和不理智的。“论证”或“理由”概念的一部分是,它们在某种意义上具有一般性和普遍性:如果说,当我建立一个理想的结论时,“肯定前件”就是一个有效的争论方法,那么当我的对手建立一个反面的结论时,它也同样是一个有效的方法。当我们想要进行合理的争论时,我们就无法挑选哪种形式是有效的;这当然是正确的,但我们的非正式论点还没有完全得到形式化,我们确实区分了乍一看相似的论点,进一步解释为什么它们并不是真正相似的:并且可以认为机器同样有能力在第一眼看到的参数时区分相似的参数,如果它有充分的理由这样做的话。还可以进一步认为,机器有充分的理由拒绝那些论点模式,最好的理由是为了避免矛盾。但如果这是一个原因的话,那就太好了。我们并不认为一个人没理由仅仅靠拒绝接受那些论点就能避免矛盾。这种特殊情况并不能算作是充分的依据。如果一个人聪明到能预见到前面的几步争论,只要一看到争论的终点,他就会用石头砸自己,从而避免承认自己的不一致性,那么他就没有什么信用可言了。相反,我们也会认为他前后矛盾,不是因为他肯定又否定了同一个命题,而是因为他即使用又拒绝使用同样的推理规则。不一致的停止规则不足以避免不一致的计算机出问题。
我们的大脑“是不一致的系统,并且没有终止规则”这一论断,仍然存在某种可能性。但这种不一致性是如此令人费解:以至于从未被展现出来过。毕竟,深植于常识性思维方式中的朴素集合论,其结果确实是前后矛盾的。我们能肯定简单的算术系统也不会遭遇类似的命运吗?从某种意义上说,我们并不能。尽管我们有一种强烈的信念,那就是我们的整数系统可以相加和相乘,永远不会有“不一致”的证明。可以想象,我们可能会发现我们把它形式化的错误。如果有的话,我们应该尝试重新制定我们直观的整数概念,就像我们有直观的集合概念一样。如果我们这样做,我们当然应该重建我们的系统:我们现在的公理和推理规则将被完全否定:不论我们用不用它们“不一致”的方式。一旦我们重建了这个系统,我们就应当和现在一样,拥有一个被认为是一致的,但不能被证明是一致的系统。但那就不会有其他的矛盾了吗?这确实是一种可能性。但同样任何“不一致”都是不能容忍的,一旦有任何不一致被我们发现,都必须将其消除。 因此,尽管我们永远不能完全确定或完全否定再次思考数学本质的风险,但最终的结果是:要么我们有一个简单的算术系统,据我们所知和所信是一致的;要么我们不可能有这样的系统。二者必居其一。在前一种情况下,和我们现在的处境是一样的:在后一种情况下,如果我们发现任何包含简单算术的系统都不能没有矛盾,我们就不仅要抛弃整个数学和数学科学,而且要抛弃整个思想。
尽管从这个意义上说,一个人必须假定,如果不遵循自己的承诺的话,他就不能保证自己的一致性。我们也许是始终如一的;我们确实有充分的理由希望我们是如此的:但是必要的谦虚使我们不能这样断言。然而这并不是哥德尔第二定理所说的。哥德尔已经证明,在一个一致的系统中,说明系统一致性的公式不能在该系统中得到证明。因此,一台机器,如果是一致的,就不能产生一个关于其自身一致性的真实断言:同理,人的心智,如果它真的是机械的,也就不能得出自己是一致的结论。于是得出的结论就是心智并不是机械的。哥德尔所证明的是:人的心智不能确实对证明一个形式系统在系统内部的一致性:但是没有人反对跳出系统,也没有人反对以不明确的论据来证明一个形式系统或一个非形式系统的一致性。这种不严格的争论不可能完全形式化,但哥德尔结果的整个基调是,我们不应该要求,也不可能获得完全形式化。尽管如果我们能得到论证的形式化就好了,因为完全形式化的论点比不严格的论点更具强制性,但既然我们不能把所有的论点都转换成这种形式,我们就不能因为它们是不严格的论点,而认为它们都是完全没有价值的。因此,在我看来,心智坚持自己的一致性是正当的、合理的:正当之处是因为尽管机器,如我们所料,不能完全反映其自身的性能和能力,然而能够以这种方式保持自我意识,正是我们对心智的期望:而且合理之处,我们已经在上述内容里给出了理由。我们不仅可以公正地说,我们知道除了我们会犯错之外,我们是一致的,而且我们可以假设在任何情况下我们的思想都可能是一致的;此外,我们可以选择,我们不会像不一致的机器那样,可能做任何事:最后,在某种意义上,我们可以决定自身是一致的,在某种意义上,我们可以消除我们思想和说话中的不一致,我们会通过撤回和取消矛盾的部分来消除我们自身出现的不一致性。
我们可以看得出,可以用哥德尔定理来区分自我意识的生物和无生命的物体。因为哥德尔公式的本质上是关于自指的。它表示的是:“这个定理在这个系统中是不可证明的”。当问题转移到一台具体的机器上时,这个公式就是根据特定的机器而定的。当这台机器被问到关于它自身程序的问题时,我们要求它有自我意识,自己表示自己能做什么和不能做什么。众所周知,这些问题导致了悖论。当一个人第一次尝试进行最简单的哲学思考时,他就陷入了这样一个问题:当一个人知道某件事时,他是否知道自己知道这件事以及自己知道什么事?当他在思考自己时,他在思考什么,他的思维在做什么?在被这个问题迷惑和挫伤了很长一段时间之后,人们学会了不去问这些问题:有意识的对象与无意识的对象。两者的概念无疑是不相同的。在说一个有意识的人知道某事时,我们说的是他仅知道某事,而且他也知道自己知道某事,他知道自己知道自己知道某事,等等。只要我们想提出这个问题:我们承认,这里有一个不是贬义上的“无穷回溯”,正因为如此,这些问题的意义逐渐消失,变得毫无意义,而不是获得了答案。这些问题被认为是毫无意义的,因为这个概念本身就包含了要能够无限次回答这些问题的想法。虽然有意识的存在可以继续回答下去,但我们不想把这简单地表现为心灵能够执行的一系列任务,也不希望把心灵看作是一个无限的自我、超自我和超越超自我的序列组合。相反,我们坚持认为有意识的存在是一个统一体,尽管我们在谈论心灵的某些部分,但我们这样做只是为了作为一个比喻,并不是字面上的意思。
意识的悖论之所以会出现,是因为一个有意识的存在可以意识到自身,以及其他事物,但却不能把意识解释为若干部分的组合。这意味着一个有意识的存在可以用一种机器不能用的方式来处理哥德尔问题,因为一个有意识的存在既可以思考自我,也可以思考自我的状态,而不是别的什么状态。一台机器可以通过语言的形式来“思考”它自身的状态,但如果没有这种“内置思考”它也没有变成一台完全不同的机器,这不过是旧机器加上一个“新零件”而已。但我们的意识观念本身就有这种能力,它可以反省自己,批评自己的表现,而不需要额外的部分来帮助做到这一点:它已经是完整的了,没有“阿基里斯之腱”(缺陷)。
于是,我们论文的主题开始变得更像是概念分析,而不是数学发现。考虑到图灵提出的另一个论点就证明了这一点:到目前为止,我们只建造了相当简单、可预测的机器。而当我们增加机器的复杂性时,也许我们会感到惊讶。他用核裂变反应堆作为比喻。在低于某个“临界”点时,不会发生什么事:但高于临界点时,火花开始飞溅。或许,大脑和机器也是如此。目前,大多数大脑和所有的机器都是“亚临界的”——它们对输入的刺激反应迟钝而无趣,没有自己的想法,只能做出内存的反应——但是,目前的一些大脑,可能还有未来的一些机器,都会是超临界的,从自身发出闪耀的光芒。图灵认为这只是一个复杂度的问题,而在某种程度上的复杂性,将会出现质的差异,因此超临界的机器将完全不同于迄今所设想的简单机器。
也许是这样的,复杂到一定程度就会带来质的差异。这听起来有些难以置信,也许在达到了一定程度的复杂性之后,机器可能将真的会变得不可预测。理论上说,机器也许能够独立运作,或者依靠某些具有启发性的运算语句使得机器开始产生自我意识。它可能开始有自己的想法。当它不再在可预测和可控制的范围之内,能够做出在我们看来是智能的事情,而不仅仅是出错或随机运行,并且是我们没有提前编入程序的时候,它就算开始拥有自己的心智了。但从原则上来说,它已经不是一台机器了。在关于机械论的争论中,重点不在于大脑的本质是什么或者可能是如何形成的,而在于它是如何运作的。从机械论的观点来说,心灵的机器模型必然是按照“机械原理”来运作的,也就是说,我们可以从它的各个部分的运作来理解整体的运作,而每个部分的运作要么由它的初始状态和机器的构造来决定,要么在确定的数值和操作之间进行随机选择。如果工程师建造出的机器复杂到不再适用于机械论,那么就我们的讨论而言,无论它是如何构造的都不再是一台机器了。相反,我们应该说,他创造了一种像人类一样的智能。然后会有两种方式把新的智能带入这个世界;传统的方法通过女人生孩子,还有一种新的方法,通过构建非常复杂的系统,比如用阀门和继电器。在谈到第二种方法时,我们应该强调的是:虽然创造出来的东西看起来像一台机器,但实际上并不单纯是台机器,因为它有的不仅仅只是它全部的零件。人们无法仅通过它的构建方式和它的各个部分的初始状态来判断它将要做什么。人们甚至无法判断它的能力极限,因为即使是在提出哥德尔式的问题时,它也能得到正确的答案。事实上,我们可以这么说:任何没有被哥德尔问题所破坏的系统都不是图灵机,也就是说,不是行为意义上的机器。
如果证明了机械论的错误,那么这对整个哲学来说,都是有着非常重大的意义的。自牛顿时代以来,机械决定论的谬论一直困扰着哲学家们。如果我们要成为科学家,我们似乎必须把人类看作是确定的自动机,而不是自主的道德代行者;如果我们要成为道德的人,我们似乎必须否定科学的正当性,要么把我们的发展进程专横的限制在人类神经生理学当中,要么就是躲进蒙昧主义和神秘主义里去。即使康德也无法解决这两个观点之间的紧张关系。但现在,尽管仍然存在许多反对人类拥有自由意志的论据,其中来自机械论的论据也许是最令人信服的,而它也已经开始失去它的说服力了。在这一点上,自然哲学家(科学家)将不再有责任以科学的名义否认自由意志:而道德家也不再需要为了给信仰腾出空间,而否认知识。我们甚至可以看到,在没有必要废除甚至限制科学领域的情况下,道德依然可以货的生存空间。我们的论点对科学研究并没有任何限制:大脑的研究工作仍然是可行的,仍然有可能产生心智的机械模型。只是现在我们可以看到,没有一个心智模型是完备的,也没有一个具备足够说服力的纯机械论解释。我们可以提出模型和解释,它们将具有启发性:但是,无论它们走多远,总能有更多的话说。科学探究不受任意约束,但任何科学探究都不能耗尽人类思维的无限多样性。
注1 : 在逻辑中,肯定前件(拉丁语:Modus ponens)是有效的、简单的论证形式(常缩写为MP): 如果P,则Q。P能证明Q。
这算是笔者一次自不量力的尝试吧,毕竟有一就有二(上次翻译《印斯茅斯疑云》的弃稿)。目前GEB本篇的内容还有五个大章节,可能写到明年四五月份就能完结了。学海无涯,GEB这样的书好在不仅仅是自身传递的知识,它同时也可以作为一个“引索”拓展很多别的内容。
这里附上这篇论文的英语在线阅读地址,如果有读者愿意提出修改意见,这里感激不尽。(毕竟笔者的英语水平真的一塌糊涂,翻译当中可能存在大量谬误而不自知。)
评论区
共 15 条评论热门最新