关灯
护眼
字体:

计算机和智能1(第2页)

章节目录保存书签

我认为,那些持数学异议的人大多数愿意接受模拟游戏作为讨论的基点。而持前两种反对意见的人不大会对什么标准问题感兴趣。

(4)来自意识的论点。这个论点在杰斐逊教授1949年的李斯德演说中阐述得很明确,我摘引了其中的一段话:“若要我们承认机器与大脑是一样的,除非机器能够因为感受了思想与感情而不是符号的偶然涂抹写出十四行诗或协奏曲来。也就是说,它不仅写了,而且也应知道自己确实这样做了。任何机器都感觉不到(不只是属于简易发明之类的人工信号)成功的喜悦,也不会因困难而沮丧,因受奉承而沾沾自喜,因犯错误而闷闷不乐,因见异性而神魂颠倒,也不会因欲望得不到满足而暴跳如雷或一蹶不振。”

这个论点看上去否定了我们测试的有效性。按照这种观点的最极端形式,你若要肯定一台机器是否能思维,唯一的途径就是成为那台机器并且去感受自己的思维活动。这样的话,他就能够向众人描述他自己的感觉,当然,没有人会知道这些话是不是实话。同样,依照这个观点,要想知道某人是否在思维,唯一途径就是成为那个特定的人。这实际上是唯我论的观点。这也许是符合逻辑的,但若真是这样,那思想交流就太困难了。A会说:“A在想,而B不在想。”而B会说:“B在想,而A不在想。”我们犯不着为这个观点争执不休,我们不如客客气气地认为大家都在想。

我肯定杰斐逊教授不愿意采纳这样一个极端的唯我论的观点。他倒更有可能愿意把这个模拟游戏当做一个测试。模拟游戏(省略了游戏者B)在实际中经常采用“口试”形式,来鉴定某人是真的理解了,还仅仅是“鹦鹉学舌”,让我们看一看这种“口试”的情形:

提问者:你的十四行诗的第一行是这样的,“我欲比君为夏日,如何?”要是将“夏日”改成“春日”,是不是也可以,或许会更好?

证人:这样一改便不合韵了。

提问者:改为“冬日”怎么样?这样也合韵。

证人:是没问题。但有谁愿意将自己比作冬日呢?

提问者:你认为匹克威克先生会使你联想起圣诞节吗?

证人:在一定程度上,会的。

提问者:但是圣诞节是在冬天,我认为匹克威克先生对这个比喻不会在意。

证人:我想你也许在开玩笑。冬日的意思是指某一个典型的冬日,而不是像圣诞节那样特殊的一天。

这里不再赘引。如果那台写十四行诗的机器在这场“口试”中能够这样对答,杰斐逊教授会作何感想呢?我不知道他是不是会认为,机器只是在“机械地通过发信号”而作出这些答复;但是,如果这些答复如上面所引那样令人满意,前后一致,我认为他不会再把机器当做“一个属于简易发明之类的人工信号”。所谓“属于简易发明的人工信号”指的是一架机器里的一些设计功能,可以用来播放一个人念十四行诗的录音,只要拨动键钮你随时都可以听到这段录音。

综上所述,我认为大部分支持来自意识的异议的人都可以经过劝说而放弃原来的主张,不至于陷入唯我论的困境。这些人因此也就有可能愿意接受我们的测试。

我并不想给大家留下这样一个印象,即我认为意识并没有什么神秘之处。比方说,要想确定意识在人体中的位置,就是一个谜。但是,如果我们没有解决这些谜,还是能够回答这个与本文有关的问题的。

(5)来自种种能力限制的论证。这些论证一般是这样一种说法:“我担保,你可以使机器干任何你刚才提到的事情,可你永远也不能使一台机器有x类的行为。”这类行为包括许多特征。我在这里援引一例:

要和蔼、机灵、美丽、友好……富于首创精神、富于幽默感、善于明辨是非、会犯错误……会坠入情网,喜欢草莓和奶油……能使别人钟情于它,通达世故……措辞得当,长于反思……像人一样行为多姿多彩,富于创新……

说这些话一般都用不着证明。我认为这些话都是以科学归纳的原则为基础的。一个人在他一生中看到过成百上千台机器。他由所见所闻得出了一些普遍的结论。它们形态丑陋,应用范围狭窄,只要范围略有变动,它们就束手无策。此外,它们的行为方式也非常单一,等等。他很自然地认为,这就是机器大体上的必备特征。大部分机器的能力限制与机器储存量太小有关(我在设想,储存量这个概念可以通过某种方式进行扩充,它不仅仅包括离散状态的机器,也包括其他机器。因为目前讨论还不需要讲究数学的准确性,所以定义准确问题并不要紧)。数年前,由于数字计算机在社会上还鲜为人知,要是你光说其特征而不提其构造,那么,人们就会以为你在信口开河。我想这也是因为人们使用了科学归纳原则的结果。当然,人们在使用这个原则时,大都是无意识的。一个小孩一朝被火烫,十年怕烛台,我认为他这就是在使用科学归纳(当然,我也可以用许多别的方式来解释这一现象)。人类的行为和习惯看上去不适合运用科学归纳。如果你想获得可信赖的结果,你就要对时空的大部分进行研究。要不然的话,我们会(就像许多说英语的儿童那样)以为世界上所有的人都讲英语,再去学法语真是傻透了。

然而,关于我们刚才提到的许多能力限制,还要特别说几句,说机器没有能力享受草莓和奶油,这种说法会使读者觉得有点轻率。我们有可能使机器喜欢这些美味,但任何强迫这样做的企图都是愚蠢的。值得重视的是,这种能力限制对解释其他能力限制也有影响。比如,难以使人与机器之间形成那种像白人与白人之间,或是黑人与黑人之间的友好情感。

认为“机器不会出差错”这种想法有点令人费解。我们不禁要反问:“它们出了错就更糟了吗?”让我们站在同情的立场上,看看这究竟是什么意思。我想我们可以用模拟游戏来解释这种说法。有人声称,在游戏中提问者可以向被试问几道算术题来分辨哪个是机器,哪个是人,因为机器在回答算术题时总是丝毫不差。这种说法未免太轻率了。(带模拟游戏程序的)机器并没有准备给算术题以正确的答案。它会故意算错,以蒙骗提问者。机器在做算术题时,由于对要出现什么样的错误作出了不妥当的决定,因而显示了机械的故障。我们对这种观点作这样的理解,其实也不太富有同情心。但是,我们对这个问题限于篇幅不可能进一步讨论。在我看来,这个观点的根源在于混淆了两个不同性质的错误。这两个错误我们称之为“功能错误”和“结论错误”。功能错误是由某些机械或电器故障引起的,这些故障导致机器不能够按照原指令工作。在进行哲学讨论时,我们很容易忽视发生这种错误的可能性;这样的话,我们实际上是在谈论“抽象的机器”。而这些抽象的机器与其说是实在的物体倒不如说是数学的虚构。从定义上讲,它们不会犯功能上的错误。从这个意义上讲,我们完全可以这么说:“机器从不出差错。”当某一意思与来自机器的输出信号联在一起时,就会产生结论的错误。比方说,机器能够自动打出数学方程或英语句子。当机器打出一个错误的命题时,我们就认为这台机器犯了结论错误。很明显,找不到丝毫理由说,机器从不犯这类错误。一台机器有可能别的什么也不能做,只会连续打出“0=1”。举这样一个例子也许太过分了,我们可以换一个例子:机器会想办法通过科学归纳来得出结论。这种办法有时无疑会导致错误的结果。

有人说,机器不能成为它自己思维的主体。如果我们能证明机器的某些思维是有某些主题的话,我们就能驳回这种说法。尽管如此,“机器活动的主题”确实有点意义,至少对于研究它的人来说是这样的。比如,如果一台机器试图解x2-40x-11=0这个方程式,我们不禁会认为,这时,这个方程式本身就是机器主题的一部分。从这种意义上说,机器无疑能够成为它自己的主题。这对编排它自己的程序,对预测因本身结构变化带来的后果都会有所帮助。机器能够通过观察自己行为的结果,修改自己的程序,以便更有效地达到某种目的。这并不是乌托邦式的空想,而是不久的将来可能办到的事。

有人批评说,机器的行为比较单一。这也就是说,机器不能够有很大的存储能力。直到最近,达到1000数字的存储量都很罕见。

我们现在这里考虑的一些反对意见实际上都是来自意识的那个异议的改头换面。通常,如果我们坚持认为,一台机器有能力做其中的一件事,并对机器所能采用的方法进行描述,那么,不会给别人多深印象。人们会认为机器所使用的方法(不管是什么方法,总是机械性的)实在是太低级了。请参见前面所引杰斐逊演讲中括号内的话。

(6)洛夫莱斯夫人的异议。洛夫莱斯夫人的回忆录中曾对巴比奇的分析引擎作过详尽的记述。她这样写道:“分析引擎没有任何意图要想创作什么东西。它能做我们知道该怎样去指挥它做的任何事。”(重点为她所加)哈特里引用了这段话,并补充道:“这并不是说,就不可能制造能‘独立思考’的电子设备,(用生物学的话说)在这种设备里,我们能够引起可以用来作为‘学习’基础的条件反射。从最近的一些发展情况看,这种设想从原则上说是不是有可能,已经引起人们的极大兴趣和关注。但是,当时制造的那些机器并不具备这个特点。”

在这点上我完全同意哈特里的看法,我们会注意到,他并没有断言当时的机器还不具备这个特点,他倒是指出了,洛夫莱斯夫人所能获得的证明还不足以使她相信这些机器已具备了这个特点。从某种意义上讲,这些机器已具备了这个特点,这是极有可能的,因为,我们可以设想某些离散机器有这个特点。分析引擎实际上是一台万能数字计算机,因而,如果它的存储能力和速度达到一定水准,我们就能通过适当的程序使它模仿我们讨论的机器。也许伯爵夫人或巴比奇都没有想到这一点。无论怎么说,他们不必能提什么要求,便提什么要求。

洛夫莱斯夫人的异议还有另外一种说法,即机器“永远也不能创新”。这种说法可以用一句谚语“世上无新事”抵挡一阵。谁能保证,他的“独创性成就”就不是接受教育的结果,就不是因循著名的普遍原则的结果?这种异议还有另一个稍稍好一点的说法,即机器永远也不能“使我们惊奇”。这种说法有点直截了当,我能够针锋相对地加以反驳。机器经常令我吃惊。这主要是由于我对机器能做什么估算甚少,更确切地说是由于即使我作了估算,也匆匆忙忙,马马虎虎。我也许这样对自己说:“我认为此处的电压应与彼处相同;不管怎么样,就当是一样吧。”我自然经常出错,结果我大吃一惊,因为一俟实验完成,这些假设早被忘得一干二净了。我对自己的这些错误开诚布公,但在我证实了所惊讶的事时,人们也不会认为我在信口开河。

我的回答并不会使批评者就此缄口沉默,他也许会这样做,所谓大吃一惊都是因为我自己富于想象力的心理活动,与机器本身毫不相干。这样,我们重又回到来自意识的那个论证上去,而背离了吃惊不吃惊的话题。我们不得不认为这种论证方式是封闭式的,但是,也许值得一提的是,要将某物认作会使人惊奇的,则需要许多“富于想象力的心理活动”,不管这件令人吃惊的事件是由一个人、一本书、一台机器还是任何别的东西引起的。

我认为,那种认为机器不会令人吃惊的观点是由这样一个为哲学家和数学家特别容易犯的错误引起的。它是这样的一个假设,即心灵一旦接受了某个事实,由此事实所引起的一切后果就会同时涌入心灵。在许多情况下,这种假设十分有用,但是,人们会情不自禁地忘了这是个错误的假设。如果照这样做的话,其必然结果就是认为,仅仅从数据和普遍原则得出结论会毫无效力可言。

(7)来自神经系统连续性的论证。众所周知,神经系统不像离散状态的机器。若是关于撞击神经原的神经脉冲规模的信息有误,那么关于外冲脉冲的规模的信息就会有很大误差。既然这样,就可以论证:我们不可能用一个离散状态系统去模仿神经系统的行为。

离散状态机器同连续机器肯定不大一样,这一点没什么问题。但是,如果我们严格遵循模拟游戏的条件,提问者就不可能从这个差别得到任何有利之处。如果我们考察一下其他一些更简单的连续机器,有些话就能够说得更明白。一台微分分析机就足以胜任了(微分分析机是一种用作非离散状态计算的机器)。有些这样的机器能打出答案来,所以可以参加模拟游戏。一台数字计算机不可能猜准微分分析机对一个问题究竟作何答复,但是,它倒是有能力给出正确回答的。比如,如果你要它回答π的值是多少(实际上约等于3。1416),它就会在3。12、3。13、3。14、3。15、3。16之间作随机选择,其选择概率依次分别为(比方说)0。05、0。15、0。55、0。19、0。06。这样的话,提问者就很难分辨哪个是微分分析机,哪个是数字计算机。

(8)来自行为变通性的论证。我们不可能总结出一套规则来囊括一个人在所有可想象的环境中的行为。比方说,我们可以有这样一条规则:行人见到红灯止步,见到绿灯行走,但是,由于某种错误,红绿灯同时亮了,那该怎么办?我们也许会这样决定,为安全起见最好止步。但是,这个决定还会有其他问题。要想总结出一套可以囊括一切人类行为的规则,哪怕是有关红绿灯的规则,看来都是不大可能的。对这些看法我全赞同。

从这一点可以得出,我们不能成为机器。我试图重新进行论证,但又恐怕做不好。似乎可以这么说:“如果每一个人都有一套行动规则来制约他的生活,那么,人同机器就会相差无几了。但实际上不存在这种规则,因此,人不能成为机器。”这里,不周延的中项十分刺眼。我想谁也没有这样去论证过,但我相信实际上用的就是这样的论证。有人将“行为规则”和“行为规律”混为一谈,因此使这个问题有点模糊不清。所谓“行为规则”我指的是像“见到红灯止步”这样的规则。对这类规则你能服从,并能意识到。所谓“行为规律”我指的是自然律,若用在人体上的话,就像“如果你拧他,他就会叫喊”这样的规律。如果我们将上面所引论证中的“制约他的生活的行为规律”改为“他用以制约自己生活的行为规律”,那么,这个论证中的不周延的中项就不再是不可克服的了,因为,我们相信,不仅是,用行为规律来制约生活意味着人就是某种机器(尽管这种机器并不一定就是一台离散状态的机器),而且反过来说,如果是这样一台机器的话,那么,它就是由这种规律来制约的。然而我们很难像否认完整的行为规则那样轻易地否认完整的行为规律。只有通过科学观察,才能发现这种规律;无论在何种情况下,都不能说:“我们找得够久了,这种规律实际上不存在。”

我们可以找到有力的证据,证明这种说法是不正确的。因为,假定存在这种规律,我们肯定能够找到。对一台离散状态的机器来说,我们极有可能通过观察找到规律,预测其未来的行为,这要有一个合理的极限,比方说,在1000年之内。但事情并非如此。我曾在曼彻斯特计算机内输入了一个程序,这个程序用1000存储单元,这样,这个16位数的计算机就可以在两秒钟内作出回答。我绝对不相信任何人能仅从这些回答中充分了解这个程序,并预测对未试值的回答。

(9)来自超感官知觉的论证。我想读者都很熟悉超感官知觉的说法,熟悉它的四种方式即心灵感应、千里眼、先知和精神运动的意义。这些令人不安的现象似乎在与一般的科学观念作对。我们多么想怀疑它们!不幸的是统计的证据使人至少对心灵感应不得不信。人们很难重新调整自己已有的观念以接受这些新事物,我们一旦接受了这些事物,就离相信鬼怪精灵为期不远了。朝这个方向前进的第一步是相信我们的身体除了按照已知的物理学规律运动外,还按照未知的、但相近的规律运动。

这个论点在我看来十分有力。我们可以这样回答,许多科学理论尽管同超感知觉有冲突,但实际上还是可行的;事实上,我们要是对这些现象置之不理,依然能活得很好。这是一种甚为冷漠的安慰,恐怕思维这个现象与超感知觉有着特殊的联系。

基于超感知觉的更具体的论证大致如下:“让我做一个模拟游戏,让一个善于接受心灵感应的人和一台数字计算机作为证人。提问者可以想象‘我右手中的那张牌是哪个花色’这样的问题。具有心灵感应或是千里眼的被问者在400张牌中可以答对130张。而机器只能随机猜对约104张,因此提问者就能作出正确的鉴定了。”这里有一个有趣的可能性。假使这台数字计算机有一个随机数字生成程序,那么,我们很自然就能用这个程序来决定给予什么回答。但是,这个随机数字生成程序又处在提问者的精神运动的能力作用范围之内。有了精神运动,计算机猜对的次数比概率计算还要高,因此,提问者就无法作出正确的鉴别了。而另一方面,提问者也能通过千里眼,不用提问就猜对。有了超感知觉,什么样的事都会发生。

如果允许心灵感应介入模拟游戏,我们就有必要严格规定测试方式。现在这情境就好比在模拟游戏中,提问者在自言自语,一个被问者正贴墙侧耳倾听。要是将被问者置入一间“防心灵感应室”,就能满足所有要求。

(陈鲁明译)

[1]选自丹尼特等:《心我论》,上海,上海译文出版社,1999。

章节目录