第一部分 人工智能是什么 第一章 图灵的电子大脑(第4页)
1。程序确确实实理解了与询问者的对话,这种理解与人类的理解大致相同。
2。程序并没有真正理解与询问者的对话,但可以模拟出理解对话以后的回复。
这两种情况简直是天差地别,宣称能做到情况1——程序真正能理解对话的,明显比只能做到情况2厉害得多。情况2只需要我们创建表现出能理解对话的程序即可。
我想大多数人工智能研究人员——可能还包括大多数本书的读者——都能轻松理解情况2是容易可行的(至少原则上是可行的)。但要他们接受情况1是可行的这一点上,恐怕得需要更多的说服力。事实上,我们不知道如何证明一段程序如情况1所描述那样运行——图灵测试本身也没有这么要求(我怀疑,图灵本人肯定会对这两者的区别表示恼火:他会指出,发明图灵测试的主要原因之一就是为了结束关于这两者区别的争论)。因此,立志构建一个类似情况1的程序,比起情况2的程序而言,更具有雄心壮志,也更具有争议性。
构建出具有人类的理解力(或者说是意识之类的词)的目标程序,被称为强人工智能,而次一级的目标,即构建虽然没有具备人类的理解力,但是可以模拟出特定能力的程序,被称为弱人工智能。
超越图灵测试
以图灵的“无法分辨”为原则,图灵测试有许多变种。例如,在一个更强大的测试版本中,我们可以想象机器人试图把自己伪装成人类进行日常生活。在这里,“无法分辨”是以一种非常苛刻的方式来诠释的——这意味着机器人与人类完全无法区别(当然,你不能去解剖它们,所以本质上还是黑盒测试)。在可预见的未来,这类情况只能时常出现在小说里面。事实上,一个无法区分机器人和人类的世界,就是绝佳的电影及小说创作素材。以此为基础的电影可不少,1982年,雷德利·斯科特(RidleyScott)的经典作品《银翼杀手》中,年轻的哈里森·福特(HarrisonFord)饰演的主角每天都在进行神秘的测试,目的是确认漂亮的年轻女性实际上是机器人。类似的主题还有许多,比如2014年的《机械姬》。
虽然《银翼杀手》中的场景还不曾出现,但研究人员已经在探究图灵测试是否存在一些变式,可以有意义地测试真正的智能,并且可以破解类似网络聊天机器人那种骗过询问者的诡计。一种非常简单的想法就是测试理解力,就如著名的威诺格拉德模式都是一些需要理解力的简短句子,下面举例说明[11]:
句子1b:市议员拒绝给示威者颁发许可,因为他们鼓吹暴力。
问题:谁担心鼓吹暴力?
注意,这两个句子中只有一个词语不同(加下画线词语),但这个小小的不同会影响整个句子的含义。测试的重点在于确定在每种情况下,被测试对象都能准确地辨认出“他们”指代的是谁。在句子1a中,“他们”显然是指市议员(市议员担心示威者出现暴力行为),而在句子1b中,“他们”指的是示威者(市议员担心示威者会鼓吹暴力行为)。
这里我们再举一个例子:
句子2a:奖杯不能放进棕色手提箱里,因为它太大了。
句子2b:奖杯不能放进棕色手提箱里,因为它太小了。
问题:什么东西太大太小?
显然,在句子2a中,是奖杯太大,句子2b中,则是手提箱太小。
大多数稍有文化和常识的成年人都能轻易辨认出两个例子中的区别,类似这样的问题完全难不倒真人,但类似聊天机器人使用的那些小伎俩就会被这种简单的句式辨别出来。为了给出正确答案,被测试者需要真正理解这些句子,并且要对讨论的场景有一定了解。比如,要辨别句子1a和1b的差异,你需要了解什么叫示威者(示威往往有可能导致暴力行为),什么叫市议员(他们有权批准或拒绝示威许可,并且他们会努力避免暴力行为出现)。
人工智能所面临的另一个类人挑战是理解人类世界,以及支配其中的许多约定俗成的规则。下面是心理学家兼语言学家斯蒂芬·平克(StevenPinker)设计的一段简短对话:
鲍勃:“我要离开你。”
爱丽丝:“她是谁?”
你能解释这段对话的意思吗?当然,对你来说这太容易了,这就是肥皂剧中经常会出现的场景:鲍勃和爱丽丝在谈恋爱,现在鲍勃的话让爱丽丝认为他移情别恋了,她想知道那个插足他们感情的女人是谁。并且,我们可以推测出,爱丽丝一定很生气。
但是你怎么能让计算机编程来理解这样的对话呢?这样的理解力对于听故事、写作来说,都是必不可少的。如果能理解这种贯穿于生活中的常识性的东西,以及人类的信仰、欲望和关系,计算机程序就可以欣赏类似《东区人》的肥皂剧了。我们都拥有这样的能力,这似乎也是分辨强人工智能和弱人工智能的关键点。对于如何让机器拥有这样的理解力,我们还只有模糊的想法,到目前为止,没有一个成功的案例。机器要想理解这样的场景,回答关于这些场景的问题,还有漫长的道路要走。
通用人工智能
虽然如我们所证明的那样,人工智能的宏伟梦想听起来简单明了,但要想实现它,目前研究人员简直是毫无头绪,连给它下一个精准的定义都难上加难,更不知道什么时候才能做到。因此,尽管强人工智能是人工智能故事中一个重要而迷人的部分,但很大程度上,它与当代的人工智能研究无关。去参加一个尖端人工智能研讨会,你几乎听不到有关内容的讨论,倒是在深夜的酒吧里面能听到不少。
然而,即使这个次一级的目标,也是当代人工智能研究的边缘。与之相反,人工智能领域的研究人员更关注的是构建能够执行当前必须依靠人脑来执行的任务的计算机程序——逐步遍历图1所示的任务集。这种人工智能的实现方法——让计算机完成某种特殊任务,有时候被称为狭义人工智能。但这个说法并非人工智能科研领域的术语。事实上,如果你在某个人工智能大会上使用这种方式表达,别人会认为你是个外行。我们不会把目前所研究的人工智能加个“狭义”的前缀,因为所谓的狭义人工智能,就是人工智能。对于那些渴望机器人全能管家的人而言,这不是个好消息。但对那些担心机器人叛乱统治人类的人而言,这可能还真是个好消息。
所以,现在你应该明白,人工智能究竟是什么东西了,并且知道它为何如此难以实现。但是,人工智能的研究人员究竟是怎么做到解决各种问题的呢?
心智或者大脑?
我们怎样才能够让计算机产生人类水准的智能行为呢?历史上,人工智能研究人员对这个问题有两种实现方式。粗略地说,第一种是试图建立思维模型:有意识的推理、认知、解决问题的过程,我们在生活中都会用到的过程。这种方法被称为符号人工智能,因为它使用各种符号来代表各种事物,并对此进行推理、认知等行为。例如,机器控制系统中的符号“room451”可能是机器人用来指代你卧室的符号,而“”则是用来定义房间清洁这一活动的符号。当机器人确定要做什么的时候,它会明确使用这些符号。例如,当机器人决定执行“451)”操作,这就意味着机器人要对你的卧室进行清洁。符号就意味着机器人语言中的事物及行为。
从20世纪50年代中期到80年代末,30多年的时间里,符号人工智能一直是构建人工智能体系最流行的方式。它有许多优势,或许最重要的一点是,它的过程是透明的:当机器人认为它应该执行“451)”操作时,我们可以理解为它知道即将做什么。不过,我认为符号人工智能之所以这么流行,是因为它反映了我们有意识的思维过程。我们本身“思考”的方式就是用符号或者文字流程化了,在决定做什么之前,我们可能会跟自己来一场心灵对话,讨论各种方案的利弊,最终决定执行某一种。符号人工智能渴望捕捉这一切,我们将在第二章讨论相关问题。在20世纪80年代初期,符号人工智能的发展达到巅峰。
不过我们可以从大脑结构中获取一些灵感,并以此结构为基础构造智能系统中的组件。这个研究领域被称为神经网络——这个名字来自我们大脑微观结构中细胞信息处理单元神经元,它们是呈网状连接的。神经网络的研究可以追溯到人工智能出现之前,并沿着人工智能的主流研究发展。正是神经网络研究在21世纪取得的突破性进展,才带来了目前人工智能研究领域的繁荣。
符号人工智能和神经网络人工智能是两条截然不同的道路,所使用的方法也完全不同。在过去的60年里,它们都有着各自的辉煌和没落,我们也将在后续章节讨论到,两种流派彼此之间也爆发过激烈的争论。然而,在20世纪50年代,人工智能作为一门新兴的学科诞生,符号人工智能在很大程度上占据了主流地位。
[1] 《弗兰肯斯坦》被认为是世界上第一部真正意义上的科幻小说。
[2] 查尔斯·巴贝奇发明的分析机被认为是最早期的计算机雏形,而阿达·洛芙莱斯的算法则被认为是最早的计算机程序和软件。
[3] 图灵指出的悖论即著名的“停机问题”,如果存在图灵机A,对它输入任意图灵机,都能够判定其运行结果是“停机”或者“不停机”,那么可以构造图灵机B,调用图灵机A但输出永远与之相反,即B的输入经A判定“停机”,则B“不停机”,如果B的输入经A判定“不停机”,则B“停机”。那么,图灵机B的输入为图灵机B本身时,则出现矛盾。B只有在“停机”的时候才能“不停机”,反之亦然。此悖论与理发师悖论类似,理发师声称“给而且只给那些不给自己理发的人理发”。如果理发师不给自己理发,那么根据定义,他要给自己理发;如果理发师给自己理发,那么根据定义,他不能给自己理发。
[4] 1英尺≈0。30米。
[5] 2016年NIPS(神经信息处理系统大会,是一个关于机器学习和计算神经科学的国际会议)上,出现一家神秘的创业公司:火箭人工智能,宣称要基于一项革命性的“时间递归最优学习”技术来进行人工智能项目开发。短短几小时,吸引了五家风投公司对此项目进行评估,估值高达上千万美元。事实上,这家公司是参会的专家们注册来恶搞的,该技术纯属子虚乌有,专家们旨在以此来讽刺人工智能领域的投资泡沫太过严重。