第八章 现实中的人工智能会导致什么问题(第4页)
他是一名医生
还真是没有性别的刻板印象啊,是吧?
偏见本来就是人工智能中存在的问题,对女性而言,这个问题更具有特殊性。因为新的人工智能系统建立在有着强烈男性偏见的数据基础上,而建造新人工智能系统的团队压根没注意到这一点,因为他们自己也有男性偏见。
人工智能面临的终极挑战之一,就是如果我们构建某些体现真人特性的系统,例如,当我们构建Siri和a这样的软件智能体时,可能会无意中以强化某种刻板的性别认知方式来构建。如果我们要构建一个具有服从性的人工智能系统,让它看上去或者听上去都像女人,那么就等于在无意中宣传女性的仆从地位[135]。
假新闻
顾名思义,假新闻就是将虚假的、不准确的或者误导性的消息当作事实,并以新闻的方式呈现。当然,在数字时代之前,世界上就存在大量的假新闻源,但是互联网,尤其是影响巨大的社交媒体,却成了传播假新闻的完美渠道。
社交媒体的存在是让人们可以方便地彼此联系,现代社交媒体平台在这方面取得了惊人的成功——西方的脸书和推特,还有中国的微信,都有着大量的用户基础。21世纪初,社交媒体应用首次出现的时候,它们似乎都是关于朋友、家人和日常生活的:有很多小孩子的照片,还有猫狗等宠物的。但社交媒体作为一个非常强大的工具,很快就被应用于其他目的。互联网假新闻频发的现象已经在2016年登上了头条,这一现象证明了社交媒体有多强大,以及多么轻易就能造成严重影响。
人工智能是假新闻的重要组成部分,因为它对假新闻的传播方式至关重要。所有的社交媒体平台都依赖于你在它们上面消磨了多少时间——这就给了平台向你展示广告的机会,而这也是平台最终盈利的方式。如果你喜欢在平台上看到的内容,那么你就会花更多的时间在它上面。因此,社交媒体平台就有动机向你展现你喜欢的东西,而不是真相。它们怎么知道你喜欢什么呢?因为你会告诉它们。每一次你的点赞,都会让平台去查找类似的消息,即你可能会喜欢的消息。一个运行良好的平台都会建立一张有关你偏好的关系图(这就是残酷的事实),并以此来决定给你推送什么内容[136]。例如,约翰·多伊(JohnDoe)是一名白人男性,喜欢暴力视频,有种族主义倾向……如果某个平台想要约翰·多伊喜欢它,那么,它会向这位用户推送什么样的新闻呢?
人工智能在其中所起的作用是根据你的点赞、评论,以及你点击的相关阅读链接等行为去分析你的偏好,然后寻找到你也许会喜欢的新消息。这些都是很典型的人工智能应用,所有社交媒体平台公司都会有专门的研究和开发团队来解决这些问题。
但是,如果所有社交媒体平台都这样——弄清楚你喜欢什么,向你展示你喜欢的东西,隐藏你不喜欢的——那么,它们呈现在约翰·多伊面前的是怎么样的世界?一个充满了暴力视频和种族主义新闻的世界,他不会得到多渠道的、公正的信息,他将深陷于自己的社交气泡中,对自己的世界也会存在偏见,并且偏见还会因此得到加强:这被称为证实性偏见。而这种现象如此令人担忧的原因是它的规模:社交媒体正在全球范围内操纵人们的信仰,无论这种操纵是蓄意的,还是纯粹偶然,这无疑是值得警惕的。
从长远来看,我们看待世界的根本角度有可能被人工智能改变。每个人都通过自己的感官(视觉、听觉、触觉、嗅觉和味觉)获取关于世界的信息,并利用这些信息建立对现实的一致看法:对世界实际情况的描述和可以被广泛接受的看法。如果你和我都以同样的方式见证了一个特定的事件,那么我们会得到同样的信息,我们可以利用这个信息表达对共识现实的一致看法。但是,假如这个世界没有了共识现实,没有共同看法,会发生什么呢?如果我们每个人都以完全不同的方式看待世界,又会发生什么呢?人工智能可能会让这些假设成为现实。
这种类型的应用被作为增强现实(Augmey,AR)应用:它们获取真实的世界,并在其上覆盖计算机生成的信息或图像。但是,如果应用程序不仅仅是增强现实,而是完全改变现实,甚至使用户根本察觉不到这种改变,又会如何?在撰写本书的时候,我的儿子汤姆已经13岁了,他是托尔金(Tolkien)的著作《指环王》的超级粉丝,也特别热衷于这本巨著衍生的电影。想象一下,谷歌眼镜应用程序可能会改变他对学校的认知,让他的同学看上去像是精灵,老师看上去像是兽人。你可能也想要一款类似的星球大战主题的应用程序,等等。这会很有趣,但问题是:如果我们都居住在自己的私人世界里,那共识现实又有什么意义呢?你和我不再有相同的、共通的经验来建立共识。另外,这样的应用程序也容易被黑客入侵。想象一下,如果有一天汤姆的眼镜被黑了,从根本上改变了他认知世界的方式,从而操纵他的信仰,那会发生多么恐怖的事情。
尽管目前这样的应用还不能实现,但在未来二三十年内,这类增强现实应用很有可能成为现实。我们已经开发出了人工智能系统,它能够生成对人类而言完全真实的图像,但其实图像是由神经网络构建的。例如,在撰写本书时,人们就表示了对DeepFakes的担忧[137]。DeepFakes是一款人工智能换脸工具,可以通过换脸技术,让图片或者视频中出现根本没有出现过的人。负面影响最大的案例发生在2019年,美国众议院议长南希·佩洛西(NancyPelosi)的一段讲话被篡改,让人觉得她有语言障碍,或者可能受到毒品或酒精的影响[138]。DeepFakes也被用来修改色情视频,在视频中加入实际上没有参与的“演员”[139]。
目前,DeepFakes修改过的视频质量还很差,但它正在慢慢变好,或许很快我们就完全无法分辨照片或者视频是真的,还是DeepFakes篡改过的。到那时,照片和视频将不再是对某一事件的原始可靠记录。如果我们每个人都居住在自己特有的、由人工智能驱动的数字世界里,那么建立在共同价值观和原则之上的社会将面临真正的危险。社交媒体上的假新闻,只是一个开始。
我们在第四章中看到了类似Siri、Alexa和a这样的软件智能体是如何在21世纪开始的十年里,作为20世纪90年代智能体研究的直系“后裔”出现的。在Siri问世后不久,一些大众媒体就报道过Siri存在未经记录的功能。你可以对Siri说:“你好,Siri,你是我最好的朋友。”Siri会给出一个看上去很有意义的回应(虽然我尝试的结果是“好的,迈克,不管天气好坏,我们都会成为好朋友的”)。媒体们很兴奋,他们想知道,这是通用人工智能吗?好吧,不是。Siri所做的只是针对某些关键词和语句在常备回答中选择回应,这和几十年前的ELIZA没有太大差别。在这个问答里面没有什么智能可言,显然,这个有意义的答案不过是假的人工智能而已。
苹果并不是唯一一家使用假人工智能的公司,2018年10月,英国宣布一款名为Pepper的机器人将参加下议院听证会[140],但这只是无稽之谈。Pepper机器人当然出席了听证会(而且,根据记录,它是一个很了不起的机器人,是许多幕后精彩研究的结晶),但它只是用预先写好的答案回答预先确定的问题而已,甚至还不到ELIZA的水平。
在Siri和Pepper的案例中,没有任何欺骗的意图——它们只是一点善意的小乐趣。但许多人工智能研究界人士对此感到很恼火,因为这些小乐趣描绘了一幅完全错误的人工智能远景图。首先,如果有人真的相信Pepper可以回答人们提出的问题,他们就会对目前人工智能问答系统产生不切实际的期望,这完全是误导性的。不过我想应该不会有太多人上当吧——毕竟很容易就能看出问题。那么问题就在于,人们可能会认为这些胡说八道作秀才是人工智能的真正目的:造假。
类似的事件发生在2018年12月,在俄罗斯雅罗斯拉夫尔的青年科学论坛上,一个“高科技机器人”表演了令人震惊的舞蹈。结果证明,这是一个穿着机器人服装的真人[141]。目前尚不清楚活动的组织者是蓄意欺骗还是作秀,我姑且认为这只是一个善意的玩笑。但是俄罗斯国家电视台报道称,这个“机器人”看上去跟真人一样。任何观看了这场舞蹈的人都会得出一个合理的结论,这应该能代表目前机器人技术和人工智能所能达到的最高水准。
不幸的是,这样的造假在人工智能的边缘领域太普遍了,这让人工智能研究人员非常沮丧。2017年10月,沙特阿拉伯宣布将公民身份授予一个名叫索菲亚的机器人,这毫无意外地引起了媒体的广泛关注[142]。鉴于沙特阿拉伯在人权方面不太理想的记录,尤其是在妇女权益方面,许多评论员强调了这个宣布(赋予机器人公民身份)的讽刺意味。但许多人也想知道,这个机器人是否存在一些全新的东西:它是通往通用人工智能的起点吗?
你的感受和喜好是什么?
你有没有让机器人住进你的家里,或者跟你一起工作过?
没有。
你知道,或许现在已经有不少机器人进入你的生活,而你并没有意识到。你希望有一天能够和机器人一起生活吗?
那现在我的身边出现的是什么样的机器人呢?
确实。
当你不知道怎么回答的时候,你默认的答案就是“确实”吗?
是的。
脸书的人工智能研究主管亚恩·勒库恩(YannLe)对此嗤之以鼻。2018年1月,他在推特上写道:“这些把戏对比真正的人工智能,就跟变戏法对比真正的魔法一样天差地别。这些简直就是胡说八道。”这恰好概括了人工智能研究界对这种廉价宣传噱头的不屑。
人工智能造假,主要是人们被误导了,相信他们看到的就是真正的人工智能,而事实上,这些幕后都只是一些把戏而已。我听到有传言说,如果人工智能初创公司不能让他们的技术在关键的成果展示中发挥作用,他们就会在幕后使用假人工智能来糊弄。我不清楚这种做法有多普遍,但人工智能造假对每个人来说都是实实在在的问题,也是对人工智能研究界的莫大伤害。