第九章 通往有意识的机器之路(第2页)
一个明显的基于常识的反对意见就是中文房间根本不可能实现。除此之外,让人去扮演计算机处理器的角色,也就意味着要花费上千年的时间来完成计算机一秒钟之内能执行的指令。把相关的程序编码成书面指令的想法也是荒谬的:当今典型的大规模计算机程序将涉及大约一亿行计算机代码(以人类可以阅读的方式印刷出来,恐怕得好几万册书卷)。计算机可以在微秒级的时间内从内存中检索指令,而中文房间的人的运算速度恐怕要慢数十亿倍。考虑到这些实际情况,中文房间以及它所包含的一切,无法让图灵测试的询问者相信它是一个懂得中文的人:也就是说,实际上它根本无法通过图灵测试。
还有一种对中文房间的说法是,虽然房间里的人没有表现出对中文的理解,房间本身也没有,但包含房间、人、说明书等的整个系统却有着理解。事实上,我们如果在人脑中四处挖掘,试图找到理解,也会一无所获。虽然人类的大脑某些区域负责语言理解,但在这些区域中,我们也找不到希尔勒所定义的理解力。
我对希尔勒巧妙的思维实验有着另一种解读。中文房间难题,如果从图灵测试的角度来看,是一种作弊,因为它没有把房间当作一个黑盒。只能说当我们往房间内部看的时候,在中文房间里不存在理解。而图灵测试要求我们只看输入和输出,从输入和输出来判断跟我们对话的是否真人。在我看来,争辩一个计算机系统是否“真正”理解,这是没有意义的。只要事实上它所做的事情与理解中文的人类所做的事情毫无区别,即可。
另一种反对意见是说,也许智能无法用传统的计算机实现,因为传统计算机在数学上已经被证明了具有局限性。或许你还记得,图灵的工作已经证明计算机能做什么和不能做什么——有些问题是计算机从根本上就无法解决的,但它们可以被明确界定。那么,如果人工智能所追求的智能行为在以图灵机为原型的计算机上都是无法实现的呢?图灵本人将这个观点作为强人工智能无法存在的一个可能性论据。大多数人工智能研究人员并不关心它,但是,正如我们之前经常看到的,什么是可计算问题,这一直是人工智能发展历程中的一大拦路虎。
身体还是心灵
现在我们转向意识研究中最著名的难题:身体还是心灵问题。人体和大脑中的某些物理过程会产生意识思维,但它们究竟是怎么形成的,为什么会出现呢?神经元、突触和轴突的物理世界与我们有意识的主观体验之间,到底存在什么关系?这是科学和哲学中最古老也是最艰难的问题之一。澳大利亚哲学家大卫·查尔莫斯(DavidChalmers)称之为意识的难题。
有关这个课题的研究至少可以追溯到柏拉图。在《斐德罗篇》一书中,他提出一种人类行为模型,大脑中的某个控制推理的部分就像马车夫一样,控制着两匹马的缰绳——其中一匹马代表理性、高尚的渴望,另一匹代表不合理或者无意义的欲望。一个人一生的道路取决于他的马车夫是如何控制这两匹马的。印度哲学经典《奥义书》里也出现过类似观点[147]。
把理性的自我视为马车夫是一个很好的比喻,毫无疑问,它挺可爱的——我更倾向接受控制自我内心高尚和卑劣的部分这个理论——不过它也遇到了一个常见的心灵理论上的问题。柏拉图把马车夫想象成某种“心灵”,但他所得出的结论说,人类的心灵是由另一个心灵(即马车夫)控制的,哲学上称之为侏儒问题(侏儒的意思是“小个子的人”,在这个例子中,侏儒就是马车夫)这样的解释是存在问题的,因为它实际上没有解释任何东西——只是把心灵的问题用另一个心灵问题来描述而已。
不管怎么说,“马车夫”模型是存疑的,因为它指出推理是我们行为的主要驱动力,而有大量证据表明事实并非如此。例如,在一系列著名实验中,神经科学家约翰-迪伦·海恩斯(Joln-DylanHaynes)显然能够探测到受试者意识到自己做出最终决定的10秒前内心所做的决定[148]。
这个结果引发了各种各样的问题,但最重要的一点是,如果有意识的思考和推理并不是我们决定做什么的机制,那到底什么才是呢?
进化理论告诉我们,人体拥有的各种特征都会给我们带来进化优势。所以,按照这个理论,我们可以扪心自问,意识思维给了我们怎样的进化优势?因为根据推测,如果它没有给我们带来进化优势的话,它就不应该存在。
有一种理论认为,有意识的头脑只不过是我们身体产生各种行为的一种毫无意义的副产品,这一理论被称为副现象论。如果有意识的心灵是一种副产物,那么你的意识就不再是如柏拉图所说的,掌控缰绳的马车夫,它只是一个坐在车上的乘客,幻想自己是马车夫而已。
也有稍微中立一些的观点,认为意识并不像柏拉图说的那样在我们的行为中起主导作用,而是我们大脑进行其他活动过程中以某种方式产生的——大概是一些在低等动物大脑中不存在的过程。毕竟,据我们所知,它们并不像人类那样享受丰富的精神生活。
在接下来的内容中,我们将讨论人类意识体验的一个关键组成部分:我们的社会性,即我们理解自己和他人作为社会群体一部分的能力,以及能够思考他人和他人如何看待我们的能力。这一关键能力很可能演变成在大型复杂社会群体中共同生活和工作的需要。为了理解这一点,我们将从英国进化心理学家罗宾·邓巴(RobinDunbar)进行的一项著名社交大脑研究开始。
社交大脑
邓巴对一个简单的问题很感兴趣:为什么人类(以及其他灵长类生物)的大脑比其他动物都大[149]?归根结底,大脑是一个信息处理设备,它消耗了人体所产生能量的相当大一部分——通常的估算为20%。因此,灵长类生物会进化出更大的大脑,是因为它们需要处理更重要的信息。而考虑到庞大的能量需求,大脑必须产生一些实质性的进化优势。但究竟是怎样的信息处理需求,以及什么样的进化优势呢?
邓巴研究了一些灵长类生物,寻找它们可能需要增强信息处理能力的因素。例如,灵长类生物可能需要追踪环境中的食物来源,或者灵长类生物需要更大的生活范围以及觅食区域。然而,邓巴发现,和灵长类生物大脑体积关系最密切的因素是平均社会群体规模,即灵长类生物社会群体中动物的平均数量。这就表明,灵长类生物需要更发达的大脑来成功维持庞大的社交群体,更准确地说,是寻找、维持和利用群体中的社会关系。
邓巴的研究提出了一个有意思的问题:鉴于我们所知的人类大脑的平均大小,可以分析预测人类的平均群体规模是多少。通过分析,人们得出一个数值,被称为邓巴数,公认为150。也就是说,考虑到人脑的平均大小以及对其他灵长类生物的分析,我们估计人类社会群体的平均规模大约是150人,即一个人拥有稳定社交的上限人数大约是150人。邓巴数是一个能引起人好奇心的数字,随后的各种研究发现,这个数字在人类社会群体实际规模计算中反复出现。例如,新石器时代的农业村庄通常大约有150名居民。最近发现的一个有趣事实是,邓巴数可以解释我们在脸书等社交网站上积极接触的朋友数量。
邓巴数可以理解为人类大脑能够管理的人际关系的最大数量。当然,不少人互动的人数是大于这个数字的,但邓巴数是我们能够真正保持的关系数量。
简言之,如果这个分析是正确的,那么人脑的不同之处在于它是一个社会性的大脑。与其他灵长类动物相比,人脑的容量更大,因为我们生活在庞大的社会群体中,这就要求我们有能力维持和管理大量的社会关系。
接下来的问题浮出水面了,维持和管理这些社会关系到底意味着什么?为了回答这个问题,我们将探讨一个由著名美国哲学家丹尼尔·丹尼特(Da)提出的观点,即我们如何用他所谓的意向立场的层面来理解和预测人们的行为。
意向立场
我们环顾四周,试图弄清楚我们看到的一切,似乎我们自然而然就能区分出智能体和其他对象。我们已经在本书中看到过智能体这个词:在之前,它指代的是构建一个人工智能程序,代表我们独立行动,理性地实现我们的偏好;而我们现在讨论的智能体,从某种意义上来说,似乎是一种跟我们有着相似属性的实体,就像有自主能力的演员。当一个孩子思考从一堆巧克力中选择哪一块,并仔细地选出时,我们看到了智能体的存在:有选择,还有有思考、有目的性、有自主性的行为。相反,当一株植物从岩石底下冒头,随着时间推移,它掀开了岩石,我们却看不到任何智能体性质:它是在以某种形式进行活动,但在活动中我们看不到思考,也看不到有意识的目的。
那么,为什么我们会把孩子挑选巧克力解释为智能体性质的行为,而把植物生长解释为一个无意识的行为呢?
为了理解这个问题的答案,想一想我们试图解释改变世界的过程时,可以从不同的层面得到不同的解释。其中之一是丹尼特所说的物理立场,它可以解释一个实体行为。在物理立场中,我们使用自然法则(物理、化学等)来预测系统的行为结果。例如,丹尼特指出,当他释放手里的一块石头时,可以使用简单的物理原理成功地预测石头会落在地上,因为石头有质量,它受到重力的作用。现在,虽然物理立场在解释这种行为的时候非常有效,但无法应用于理解或者预测人类行为,这当然是不可行的,因为人类的行为太过复杂,无法用这种方式去理解。也许原则上可行(毕竟我们最终只是一堆原子),但应用在实践中是行不通的。就这一点而言,物理立场也不是理解计算机或者计算机程序行为的一种切实可靠的方法——典型的现代计算机操作系统的源代码长达数亿行。
另一种层面是设计立场,在这种立场下,我们根据系统应该实现的目的进行理解,并预测系统行为,即它的设计目的。丹尼特举了一个闹钟的例子,我们不需要使用物理定律去理解闹钟的行为,我们知道它是时钟,就明白它显示的数字指的是时间,因为时钟就是用来显示时间的。同样,如果这个时钟发出刺耳的闹铃声,我们就明白它是被设定为在这个特殊时间点上开启闹钟。因为在指定时间发出刺耳的噪音也是闹钟设计的目的。这种解释不需要了解时钟的内部机制,不需要了解闹钟的具体物质构成方式、力学作用等,只需要了解它被设计出来的目的即可。
第三种层面,也是我们最感兴趣的,丹尼特称之为意向立场[150]。从这个层面看,我们将心理状态——诸如信念、欲望等归因为实体,然后使用与心理状态有关的常识去预测实体将如何行动,假设它根据自己的信念和欲望做出选择。最明显的地方在于,我们解释人类活动的时候,通常需要做出如下陈述:
珍妮认为天要下雨了,她希望自己能不被淋湿。
皮特想完成他的评分。
如果珍妮认为天要下雨了,又不想淋湿,我们可以预测她会穿雨衣或者带把伞,或者压根不外出。这些都是拥有上述信念和愿望的理性智能体会采取的行为。因此,意向立场是具有解释力的,它允许我们解释人们做了什么,以及他们将(可能)做什么。
请注意,与设计立场一样,意向立场对实际产生这些行为的内部构造是不关心的。这个理论同样适用于机器和人类,我们将在下面详细讨论。
丹尼特创造了意向系统这个术语,用来描述那些行为可以被有效理解和预测的实体,这些实体的行为可以归因于它们的信念、欲望和理性选择。
意向系统有着自然的层级结构,越往上越复杂。一阶意向系统有着自己的信念和欲望,但没有关于任何有关信念和欲望的信念和欲望。相比之下,二阶意向系统能够对信念和欲望产生信念和欲望。讲起来很拗口,我们举例说明:
一阶意向系统:珍妮相信天要下雨了。
二阶意向系统:迈克尔想要珍妮相信天要下雨了。
三阶意向系统:皮特认为迈克尔想要珍妮相信天要下雨了。
在我们日常生活中,几乎不会用到超过三阶的意向立场等级(除非我们研究人工智能的活动,比如解决一个谜题),而且对我们大多数人而言,似乎超过五阶就很难厘清了。