心灵大脑和程序1(第2页)
对于我们的思维实验的另外两种意见虽然经常可见(因此值得一提),但实在是离题太远了。
(5)他人心灵回答(耶鲁大学)。“你怎么知道别人理解汉语或其他东西?完全凭他们的行为。既然计算机能够像别人一样(从原则上讲)顺利通过行为测试,那么如果你认为别人具有认知能力,也就必须从原则上认为计算机有认知能力。”
对于这样一种反对意见,实在不必兴师动众,只须三言两语就能解决问题。这里所谈及的问题并不是关于我如何知道别人具有认知状态,而是当认为他们具有认知状态时,他们究竟具有什么样的东西。这个论证的中心在于,他们具有的不仅仅只是计算过程和输出,因为在没有认知状态的情况下,计算过程和输出也能存在。假装麻木不仁不能回答这一论证。在物理科学里,我们不得不假设物体的实在性和可知性,同样,在“认知科学”里,我们也假设了心理状态的实在性和可知性。
(6)多层回答(伯克利分校)。“你的整个论证假定人工智能只与模拟计算机和数字计算机有关。但这仅仅是因为目前科技才发展到这一水平。你认为因果过程是目的性的关键,(假定你的看法是对的)不管它们是什么,最终我们将制造出具有因果过程的东西来,那将是人工智能。因此,你的论证根本不在于探讨人工智能形成和解释认知状态的能力。”
我对此回答并没有异议,但我想提出一点,这个回答通过把人工智能重新定义成人为地产生和解释认知的东西,而使强人工智能这一工程变得琐碎而无意义。强人工智能论的最初目标在于论证人工智能是一个确切的、明确限定的论题,那种心理过程是对形式限定因素的计算过程。我一直想对这一论题提出异议。如果这一说法经过重新定义不再是原来的那个论题,我的异议也就不成立了,因为对我的异议来说,已不再有一个可适用的可检验的假设。
现在让我们回头去看一看那个我曾答应解答的问题:假定在我原来的例子里,我懂英语而不懂汉语,假定因此计算机既不懂英语也不懂汉语,那么,我身上肯定有某种东西使我懂英语,还缺少某种东西使我不懂汉语。既然如此,为什么不能使计算机也获得这种东西(无论它是什么)呢?
从原则上讲,我不明白为什么我们不能让计算机也具有理解英语或汉语的能力,因为从某种重要的意义上讲,我们的身体和大脑也正是这样的机器。但我确实发现我们有充分的理由不能把这个东西给予计算机。计算机的运算只是被确定为对形式确定的因素所进行的计算过程。换句话说,计算机的运算是某一程序的例示。我并不因为是计算机程序的例示,才能够理解英语,并具有其他的目的形式的(我想,我是任何数量的计算机程序的例示),而是据我们所知,是因为我是某种具有某个生物(也就是化学和物理)结构的有机体,在某些条件下,这一结构必定能够产生知觉、行为、理解、学习和其他目的现象。在这个论证中,有一部分理由是说,只有当某样东西具备了这些因果力量之后才有可能获得这种目的性。也许其他的物理和化学过程也能够产生同样的结果。比方说,火星人也能够具有目的性,但他们的大脑完全是用另外一种物质构成的。这是个经验的问题,它有点像另一类问题,比方说,其化学成分与叶绿素不同的某样东西是否也能进行光合作用。
但是,这个论证的中心论点在于,纯形式的模式本身不足以产生目的性,因为形式特征本身不是目的性的构成要素,它们本身没有因果力量,只有一种力量,那就是当计算机在运转时,它们能够产生下一阶段的形式程序。这种形式模式具体实现后所呈现的任何其他因果特征都与此形式模式无关,因为我们能够用完全不同的方式来实现这一形式模式,而前面的因果特征就会**然无存。即使是操汉语的人奇迹般地完全实现了香克的程序,我们还是能够将同一程序给予操英语的人、水管或计算机,尽管他们或它们都不懂汉语,但却懂得程序。
大脑活动的关键并不在于突触顺序的形式影像,而在于此顺序的实际特征。据我所知,强人工智能论的所有论证都旨在给认知的影像画一个轮廓,并声称这影像就是实在。
作为总结,我想把隐匿在此论证中的某些一般的哲学问题阐明一下。为明了起见,我将使用问答的形式,第一个就是大家已经谈腻了的问题。
“机器是否能够思维?”
答案很明显:能够思维。我们人类正是这样的机器。
“好,但是人造的机器是否也能够思维?”
假设我们能够制造一台机器,此机器具有神经系统,里面的神经原具有轴突和树突,其他部分也与人类一样,那么,对此问题的回答还是很明显:能够思维。如果你能够准确无误地复制前因,你也就能够准确无误地复制后果。我们确实也有可能复制出意识、目的性和其他东西。为此,我们将使用与人类不同的化学原理。正如我在前面说过的那样,这是个经验的问题。
“好的,但是一台数字计算机是否能够思维?”
如果你这里所说的“数字计算机”具有一个描述层次,在此层次上,它能够被正确地描述为计算机程序的例示,那么,回答当然是:能够思维。因为我们就是任何数量的计算机程序的例示,我们是能够思维的。
“但是,如果单是计算机加上合适的程序,它是否能够思维,能够理解?单是实现一个程序,当然是正确的程序,是不是产生理解能力的充足条件?”
我认为这个问题提得很好,尽管此问题常常与前面的一个或数个问题混为一谈。对此问题的回答是:不能思维。
“为什么不能?”
因为形式符号的处理过程本身并没有目的性,它们是没有意义的;更严格地讲,它们还不是符号处理,因为这些符号并不代表任何事物。用语言学的术语来说它们只有句法而没有语义。计算机具有的那种目的性只是存在于编程序和操作计算机的人脑中,存在于存入输入和破译输出的人脑中。
前面所举的关在小屋内看汉字的例子旨在说明这个问题,一旦当我们将某种东西给予一个确实有目的的系统(一个人),并用这种形式程序来规定他的活动时,你就会发现,这种形式程序并没有带来额外的目的性。比方说,它丝毫也没有给那个人的理解汉语的能力带来任何帮助。
第一,对程序与程序的实现加以区别势必会造成这样的后果,即同一个程序可以有各种各样甚至乱七八糟的程序实现,它们根本就没有目的性。魏岑鲍姆就曾详细地解释过如何用一卷手纸或一堆碎石来构造一台计算机。同样,理解汉语故事的程序也能够输入一套水管、风力机或只讲英语的人脑中,但他们或它们并不因此而能理解汉语。首先,诸如石头、手纸、风和水管这样的东西就不可能具有目的性,只有像大脑这样的具有因果力量的东西才能具有目的性,尽管操英语的人有大脑,并能够有目的性,但光凭熟记程序是得不到更多的目的性的,因为熟记程序不能教会他懂汉语。
第二,程序是纯形式的,但目的状态在此意义上却不是形式的。目的状态是以其内容而不是以其形式而被定义的。比方说,天下雨了这个信念并不以它的某种形式状态而定义的,而是以具有满足条件、适用定向等心理内容而被定义的(参见塞尔1979年的著作)。说实话,在这种句法意义上说这样的信念根本就没有形式状态,因为同一个信念在不同的语言系统内可以通过无数不同的句法形式来表达。
第三,我在前面已经讲过,心理状态和事件实质是大脑活动的一种产物,而程序在此意义上却并非计算机的产物。
“如果程序怎么也不可能构成心理过程的话,那为什么还有那么多的人相信程序能构成心理过程呢?至少必须对此作出某种解释。”
我真不知道该如何回答这个问题才好。有人认为计算机模拟就等于被模拟的对象,这种看法一开始就很值得怀疑,因为计算机绝对不仅限于模拟心理活动。没有人会相信计算机模拟的一场特级火灾会把周围的建筑物烧光,也没有人会相信模拟的暴风雨会将我们淋成落汤鸡。究竟是什么原因使人认为计算机模拟的理解力真的能理解事物?有时你会听到这样的说法,要让计算机感觉疼痛或坠入情网极其困难,但疼痛和恋爱与认知或其他任何事情相比根本不分上下。就模拟而言,你只需正确地输入和输出,中间再加上一个程序,将前者变为后者。计算机的一切活动只需这些东西就足够了。不管是关于疼痛、恋爱、认知、大火还是大风雨方面,其错误都在于将模拟与复制混为一谈了。
首先,也许还是最重要的是,人们对“信息处理”这个概念的理解存在着一些问题。许多研究认知科学的人认为,人类大脑及其心灵进行着所谓“信息处理”的活动;同样,计算机及其程序也在进行信息处理活动。但是,大火和暴风雨则无什么信息处理可言。因此,尽管计算机能够模拟任何过程的形式特征,但它同心灵和大脑却保持着极为特殊的关系,这是因为,一旦计算机输入适当的程序,最理想的就是像人类大脑这样的程序,那么,大脑和计算机所做的信息处理工作就完全一样,而这种信息处理正是心理活动的本质。但是,这个论证有个问题。它的基础概念“信息”是有歧义的。如果人们在解算术题,或在谈一个故事并回答与此有关的问题时,就是在“处理信息”,那么,从这个意义上讲,程序计算机并没有在进行“信息处理”,它只是在操纵形式符号。程序的设计和输出的破译者用符号来代表世界上的各种事物,这一点计算机是全然没有能力想到的。我再强调一遍,计算机只有句法而没有语义。因此,如果你打入“2+2=?”这个问题,计算机会打出“4”。但是,计算机全然不知道这个“4”的意思是4,或者它代表了某种意义。这并不是说计算机没有某种第二级信息以便用来破译第一级的符号,实际上,就计算机本身而言,它的第一级符号根本就没有解释。计算机除了符号还是符号。因此,将“信息处理”这个概念用于计算机就会陷入困境:或者将“信息处理”这个概念解释成它意味着目的性是信息处理的一部分;或者不作这样的解释。如果是前者,那么,程序计算机并没有在进行信息处理,而只是在操纵形式符号。如果是后者,那么,尽管计算机是在进行信息处理,但这与计算器、打字机、肠胃、恒温器、暴风雨和飓风所进行的信息处理并没有什么两样,也就是说,它们都有一个描述层次,在此层次上,我们能够将它们描写成一头输入、中间转换、另一头输出信息这样的一个过程。但在这种情况下,是不是将这种输入和输出解释为通常的信息,那就完全取决于外部观察者了。并不能根据信息处理中的相似性来确定计算机与大脑的相似性。
其次,在许多人工智能理论中还残存着行为主义或操纵主义的观点。由于带有适当程序的计算机能够具有类似于人类的输入—输出模式,因此,我们不禁认为计算机具有类似于人类的心理状态。但是,当我们发现无论从理论上还是从经验上都可能使一个系统在某些领域内具有人类的能力,同时却可以毫无目的性时,我们就应该能够克服这种冲动了。我的台式计算器具有计算能力,但没有目的性。在本文中我一直想说明这样一个问题,即一个系统能具有输入和输出能力,此能力复制了母语是汉语的人的能力,但不管程序是怎样编制的,它对汉语却还是一窍不通。图灵测试正是这种恬不知耻的行为主义和操作主义传统的典型。我坚信,如果人工智能的研究者抛弃行为主义和操作主义,那么,关于模拟和复制的许多问题就会迎刃而解。
“机器是否能够思维?”对此,我个人的看法是:只有一种机器能够思维,一种极为特殊的机器,也就是大脑或者具有和大脑一样的因果力量的机器。正是这个原因,关于思维的本质强人工智能论所谈极少,因为关于机器它几乎无话可说。根据它自己的定义,强人工智能论的研究对象是程序,而程序不是机器。不管目的性会是什么东西,有一点是可以肯定的,它是一种生物现象,像哺乳、光合作用等其他的生物现象一样,它的产生与其特有的生物化学结构有着因果性的依赖关系。如果我们用计算机来模拟哺乳和光合作用的形式顺序,就能生产出奶和糖,对此种说法恐怕没有人会相信吧?但是,一涉及心灵,许多人就愿意相信这样一种不可思议的奇迹,其原因就在于根深蒂固、源远流长的二元论:拥护这种理论的人认为心灵是一种形式过程,它跟奶和糖不一样,它完全独立于特殊的物质原因。
(陈鲁明译)
[1]选自丹尼特等:《心我论》,上海,上海译文出版社,1999。
[2]还有,“理解”既暗示了拥有心理(有目的的)状态,又暗示了拥有这些状态的真值(有效性和成功)。出于对本文讨论的考虑,我们只研究拥有这些状态时的情况。
[3]根据定义,目的性是某些心灵状态的特征,这些心灵状态是针对有关外部世界对象或事态的。因此,信仰、欲望以及目的属于有目的性的状态,而无目标的焦虑和沮丧则不在其列。