第九章 通往有意识的机器之路(第1页)
第九章通往有意识的机器之路
我希望到目前为止,这本书能够成功地让你明白一件事情,虽然近年来人工智能和深度学习方面取得了真实的、令人兴奋的突破,但它们并不是构建通用人工智能的法宝。深度学习可能是通用人工智能的一个重要组成部分,但它绝不是唯一的组成部分。实际上,我们并不清楚还缺失了哪些关键部分,更不知道通用人工智能的秘方究竟是怎么组成的。我们开发出的所有令人印象深刻的人工智能系统——图像识别、语言翻译、无人驾驶汽车,都无法构成通用人工智能。从这个意义上来讲,我们仍然面临罗德尼·布鲁克斯在20世纪80年代强调的问题:我们有一些智能组件,但不知道如何将它们组成一个真正的通用智能系统。无论如何,某些关键的组件仍然缺失,正如我们在第五章所看到的,即便是当代最好的人工智能系统也无法展示出它们对自己所做的事情有着真正意义上的理解。尽管它们非常擅长自己的工作,但它们仍然只是为了执行特定的、狭隘领域的任务而构建和优化的软件组合而已。
因为我相信,我们离通用人工智能还有十分漫长的道路要走,所以对于强人工智能的目标——构建跟人类一样有自我意识的,真正能够自主存在的机器,我自然是表示怀疑的。不过,这是最后一章了,让我们放纵一下吧,即使强人工智能前景渺茫,我们仍然可以从探索中寻找到乐趣,也仍然可以思考如何朝着它前进。所以,让我们一起沿着通往有意识的机器的道路旅行吧,让我们想象这里的风景是什么样子的,又可能会遭遇哪些障碍。并且,最重要的是,我们如何知道即将接近这条道路的终点。
意识、思想和其他奥秘
1838年,英国科学家约翰·赫歇尔(JohnHerschel)进行了一个简单的实验,试图测量太阳辐射有多少能量。他把一个装有水的容器暴露在阳光下,测量了太阳能使容器中水温升高1摄氏度所需的时间。通过一个简单的计算,赫歇尔可以估算出我们的恒星每秒发射多少能量。结果令人难以理解:在一秒钟内,太阳辐射出难以想象的能量,这一数量远远超过地球上一年所产生的能量。这就给当时的科学界出了难题:新出现的地质证据表明,我们生活的地方至少有几千万年的历史(所以太阳至少也有这么长的历史),但还没有已知的物理过程可以为太阳在那么长的时间里提供能量。任何已知的能源都会导致太阳最多在几千年内就烧毁。当时的科学家们天马行空,发明出令人着迷的难以置信的理论,试图将赫歇尔简单、易于重复的实验证据与地质记录的证据相协调。直到19世纪末,核物理学诞生,科学家才开始了解原子核中潜在的庞大能量。在赫歇尔实验出现整整一个世纪之后,物理学家汉斯·贝特(Hahe)最终提出了目前被广泛接受的关于恒星能量产生的解释,即核聚变[144]。
现在我们回到强人工智能的话题,我们的目标是建造真正具有意识、具有思维,能够拥有自我意识和理解力的机器,与我们自身非常相似。而目前的我们就跟当年的赫歇尔处在同样的位置,因为人类思维和意识这种现象——它们是如何进化的,如何工作的,甚至它们是如何在我们的行为中扮演控制角色的——对我们而言,就像在赫歇尔时代为太阳提供能量的物理机制,是完全神秘的。这些问题我们不知道答案,连寻求答案的方式都不太清楚。目前,我们只有一些线索,以及大量的猜测。事实上,如果这些问题有了明确的、令人满意的答案,我们就能够从科学意义上理解宇宙的起源和命运。正是这种根本性的缺乏使得强人工智能离我们如此遥远——我们都不知道该从什么地方着手。
实际上的情况更加糟糕,因为我们甚至不知道到底该处理什么。我也提到过好多次“意识”“思想”和“自我意识”之类的术语,但事实上,我们都不知道它们具体是什么东西。看上去这些概念都很容易理解——毕竟我们都拥有它们——但我们没有办法用科学的方式来定义或者衡量它们。从科学意义来讲,我们无法证明它们真实存在,但根据个人经验和常识,它们确实存在。赫歇尔能够用一个实验来解决他的问题,使用了很好理解、可以量化的物理概念:温度、能量,等等。我们根本没有这样的测试来研究思想或者意识:它们不适合被客观观察或测量。没有标准的科学单位来衡量思想或者主观意识,甚至没有直接的方法来确定如何衡量它们——我看不出你在想什么,我也无法明白你的感受。从历史上看,我们对人脑结构和运作的大部分了解都是通过研究那些因疾病或创伤而大脑受损的人获得的,但这很难成为一个系统的研究项目。虽然像核磁共振成像之类的神经成像技术给我们提供了大脑结构和运作的重要见解,但它们并不能让我们了解个人的主观体验。
当然,尽管没有精确定义,我们还是可以确定一些在讨论意识时出现的共同特征。
我们需要先确定一个重要的观点,意识产生于有主观感受的智能体,拥有主观上的内在感受性。重点就在于对内在心理现象的感知,哲学上称之为感受性。这个名字挺别致,不过含义其实很简单:感受性是指所有人都会经历的精神感觉,比如咖啡的味道。让我们暂停一下,先想一想这个香味,或者,干脆去给自己煮上一杯,吸入那个香气。你所经历的那种感觉,就是感受性的实例。在炎热的夏天喝一杯冰啤酒的经历,从冬天到春天气候开始转暖的经历,我的孩子们在探索新事物上取得成功让我感觉到开心的经历……这些感受都是定性的:你能够了解它们,并且自己也很享受其中,但矛盾的是,尽管我们谈论的是相同的经历,但我并不确定你的感受是否跟我一样。因为感受性——以及其他心理体验——本质上都是私人的。我闻到咖啡香时候的精神体验只有我自己能理解,我无法判断你是否有过类似经历,即使我们可以用同样的词句来描述它。
1974年,美国哲学家托马斯·内格尔(ThomasNagel)对意识的争论做出了最著名的贡献[145],内格尔提出了一种测试方法,通过这个测试,人们可以分辨出某个事物是否具有意识。假设你想知道下方列表中的事物是否是有意识的:
·一个人
·一只猩猩
·一条狗
·一只老鼠
·一条蚯蚓
·一个烤面包机
·一块石头
内格尔提出的测试是对上述实体思考问题“成为一个X是什么样的感觉”。如果我们认为成为一个X是有感受的(这里的X可能是人,可能是猩猩),那么内格尔就认为,这个智能体X是有意识的。看看上面的列表,这个问题应用到人身上,结论是肯定的。猩猩呢?我想成为一只猩猩应该也是有感受的,狗和老鼠也一样。因此,根据内格尔的测试,猩猩、狗和老鼠都是有意识的。当然,这并非它们确实有意识的“证据”,我们在这个问题上不得不依赖常识而不是客观事实。
蚯蚓呢?在这里,我认为我们可能拿不准了。蚯蚓是一种很简单的生物,根据内格尔的测试,成为一条蚯蚓会有感觉吗?我很怀疑这一点,因此,根据内格尔的论点,蚯蚓是没有意识的。当然,也有人会认为,蚯蚓也应该有一些简单的意识,但我不得不坚持说,那跟人类的意识比起来,实在是太简单了。不过,在烤面包机和石头的问题上,我不接受任何质疑:显然它们都是无意识的。成为一个烤面包机,可真的是毫无感觉。
内格尔的测试提出了一些重要的论点。
首先,意识并不是一个有或者无的东西,它是有层次的,从极端的成熟的人类意识,到另一个极端的蚯蚓的简单意识。即使是人与人之间,也存在差异,一个人有意识的程度也会不同,取决于他们是否受酒精等外部因素的影响,或者仅仅是因为太过疲惫。
其次,意识对不同的实体而言是不同的。内格尔的论文是《成为一只蝙蝠是怎样的感受》,他选择蝙蝠作为标题,是因为蝙蝠和人类差异非常大。内格尔的测试在蝙蝠这个实体上肯定是有意义的,根据内格尔的理论,蝙蝠具有意识。但是蝙蝠有我们没有的感觉,尤其是声呐,它们在飞行的时候发出超声波,根据超声波的回音来感知周围环境。有些蝙蝠甚至能探测到地球磁场,并利用它进行导航——它们的体内自带罗盘。人类没有这项感知,因此,我们无法想象成为一只蝙蝠的具体感受,尽管在内格尔测试中这个答案是肯定的。蝙蝠的意识与人类的意识完全不同,事实上,内格尔相信它超出了人类能够理解的范畴,尽管我们仍可以确定它的存在。
内格尔研究的主要目的是对意识进行测试(“成为一个X是什么样的感觉”),并得出结论,有些意识超越了我们能够理解的范畴(我们无法想象成为蝙蝠是什么样的感觉)。但他的测试也可以应用于电脑,大多数人似乎都相信成为一个电脑没什么感觉,就像烤面包机一样。
基于这个原因,有人用内格尔测试的论点来证明了强人工智能是不可能的,因为成为一个计算机是没有感觉的。我个人并不接受这个结论,在我看来,“成为一个X是什么感觉”不过是基于直觉的回答,直觉能够很容易区分显而易见的案例(比如猩猩和烤面包机),但我不明白,在更微妙的情况下,或者在我们对自然界的体验之外(比如人工智能领域),我们怎样将直觉当作可靠的指引。也许我们无法想象成为一台计算机是什么感受,仅仅是因为它与我们完全不同,但这并不意味着(至少对我来说)机器意识是不可能存在的——机器意识只是跟人类意识不同而已。
试图证明强人工智能不可能实现的观点有许多,内格尔的观点只是其中之一,我们再来看看其中最著名的几种。
强人工智能不可能存在吗
内格尔的观点基于一种常识,即人类是有生命的物体,这是人类特殊的地方。而计算机不同于人,它是没有生命的,所以,强人工智能是不可能出现的。根据这一论点,我和老鼠的共同点比我和电脑的共同点更多,电脑和烤面包机的共同点比它和我的更多。
对此我有异议。在我的观念里,不管人类有多么了不起,最终也就是由一群原子组成的物体。人类和人类的大脑都是物理实体,遵守物理定律——即使我们目前并不太清楚这些物理定律是什么。人类是非凡的、奇妙的、不可思议的生物,但从宇宙及其规律来看,我们并没有什么特殊性。当然,这不能回答一个难题,即一堆特定的原子是怎么产生意识的——我们稍后会回到这个问题上。
美国哲学家休伯特·德雷福斯(HubertDreyfus)提出了“人类是特殊生命体”的变体理论。德雷福斯在批判人工智能的时候有一个主要观点,人工智能的实际成就实在是配不上人工智能这个名字。在这方面,他并非完全没有道理。但他有一个具体的论点,用以否定强人工智能存在的可能性。即人类的许多行为和决策建立在“直觉”的基础上,他认为直觉不像计算机要求的那样精准。简言之,德雷福斯认为,人类的直觉不能够简化为计算机程序那样的步骤。
现在确实有大量的证据表明我们的许多决策不是基于明确或者严密的推理[146],我们经常做出决定,但无法阐明自己的理由。事实上,我们大多数决策都是这一类型。从这个意义上来说,我们确实依靠某种直觉。但这种直觉肯定是源自我们随着时间推移获取的经验(要么是通过进化获得的经验,要么是通过基因传递给我们的经验),即使我们无法在意识层面上表达出来,这也并非什么神秘的事情。而且,正如我们所看到的,计算机可以在经验中学习,并成为有效的决策者,即使它们也无法清楚地表达自己决策的基本原理。
反对强人工智能存在的最著名论断,来自哲学家约翰·希尔勒(JolnSearle),正是他创造了强人工智能和弱人工智能的术语,我们在第一章就了解过。他发明了一个名叫“中文房间”的场景,试图证明强人工智能是不可能实现的。中文房间场景如下:
想象一个人被反锁在一个房间里,房门上有一个卡槽,他可以通过卡槽收到卡片,上面写着中文的问题。他自己不懂中文,但是房间里有规则书,可以指导房间里的人如何按照规则用中文写一个答案,然后把它传递出去。此时此刻,这个房间(包括里面的一切)实际上正在进行一个“理解中文”的图灵测试,房间里提供的答案让测试员相信测试对象是一个理解中文的人。
接下来,扪心自问:房间里的人真正懂得中文吗?希尔勒不这么认为,房间里的人不懂中文,房间本身也不懂中文,不管从什么角度来看,整个处理过程都没有表现出对中文的理解。这个人所做的一切不过是精确仔细地按照规则书的步骤给出问题的答案。他的人类智慧在这个场景里面仅仅用在尽职尽责遵守规则回答问题上。
显然这个人所做的就是计算机的工作:简单地按照一系列指令执行一系列步骤。他所执行的“步骤”就是计算机的指令。因此,根据希尔勒的观点,按照同样的道理,即使通过图灵测试的计算机,也没有表现出理解力。
如果希尔勒的观点是正确的,那就意味着理解这种能力——强人工智能所需要的能力——是不能够通过遵循步骤执行命令产生的。因此,用传统计算机是无法实现强人工智能的。如果认可这一点,这个简单的论点将扼杀人工智能的宏伟梦想。不管你的程序看上去拥有多么出色的理解力,这都只是一种错觉:在程序的背后,没有半点理解可言。
对于希尔勒的批评,人们提出了许多反对意见。