第七章 杞人忧天我们想象中的人工智能会出什么错(第2页)
阿西莫夫机器人三定律可以说是第一次也是最著名的尝试,试图构建能够管理人工智能决策系统的总体框架。不过它并不是一个严肃的人工智能伦理框架,我们可以把它视为伴随人工智能飞速发展而产生的一系列类似框架的鼻祖。人工智能伦理框架已经成为一项重要的研究课题[98],在本章剩余部分,我们将深入探索这项工作,并讨论它是否朝着正确的方向发展。我们的探索从一个特定的场景开始,它很有名,吸引了很多人的注意。
电车难题是伦理哲学领域最著名的思想实验之一,最初由英国哲学家菲利帕·富特(PhilippaFoot)于20世纪60年代末提出[99]。她引入电车难题的目的是解开围绕堕胎道德的某些高度感性的问题。富特的电车难题有许多版本,最常见的版本是这样的(参见图21):
一辆电车失去控制,正高速冲向五个无法移动的人。轨道旁边有一个操纵杆,如果拉动操纵杆,电车将转向另一条轨道,那里只有一个人(同样无法移动)。你如果拉动了操纵杆,你会杀死一个人,但会拯救五个人。
那么,你拉还是不拉?
图21 电车难题
如果你无作为,上方轨道的五个人会死;如果你拉动操纵杆,下方轨道的一个人会死。你该怎么办呢?
由于无人驾驶汽车即将到来,电车难题迅速凸显。专家们指出,无人驾驶汽车很可能陷入类似电车难题的困境,然后人工智能软件就会被要求做出艰难的选择。2016年,一则标题为“自动驾驶汽车已经在决定杀死谁了”[100]的网络头条新闻,在网上掀起了一场轩然大波。我认识的几位哲学家受宠若惊地发现,突然有一批网友关注他们,期待他们对这个迄今为止在伦理哲学方面很难下定论的问题发表意见。
电车难题表面看很简单,但它衍生出一系列令人惊讶的复杂问题。我对电车难题的直觉反应是,在不考虑其他条件的情况下,我会拉动操纵杆,因为只死一个人总比死五个好。哲学家称这种想法为结果主义者(因为它根据行为的后果来评估行为的道德性)。最著名的结果主义应该是功利主义了,它起源于18世纪英国哲学家杰里米·边沁(JeremyBentham)和他的学生约翰·斯图亚特·密尔(JohnStuartMill)。他们提出了一个被称为“最大幸福原则”的理论,大致来说就是一个人选择的任何行为,都会使“世界总体幸福”最大化。在更现代的术语中,我们会说功利主义者是为了社会福利最大化而行动的人。在这里,功利被定义为社会福利。
虽然总体原则没问题,但要精确定义“世界总体幸福”并不容易。例如,假设电车难题中的五个人是邪恶的杀人凶手,而另一个人是无辜的小孩。五个邪恶的杀人凶手生命的价值会超过一个无辜小孩吗?如果不是五个,是十个邪恶杀手呢——这会让你下定决心拉动操纵杆吗?
另一种观点则认为,如果一项行为符合普世的“善意”行为原则,那么它是可以接受的,标准例子就是“夺取别人性命是错误的”原则。如果你坚持这个原则,那么任何导致别人死亡的行为都是不可接受的。因此,信奉这样原则的人不会对电车难题采取任何行动,即无作为,因为他们的行为会导致谋杀,虽然不采取任何行动也会导致人死亡。
第三种观点基于美德伦理学的思想,从这个角度看,我们认为一个“有道德的人”体现了我们渴望决策者身上有的美德,然后,我们可以得出结论,他在这种情况下所做的选择,就是正确的选择。
当然,对人工智能而言,做决策的是一个智能体——它必须决定一辆无人驾驶汽车在直行杀死五个人和转弯杀死一个人之间如何选择。那么,当人工智能遇见电车难题或者类似问题时,智能体应该怎么做?
首先,我们应该扪心自问,在这样的情况下,期望人工智能做出正确选择是否合理。如果世界上最伟大的哲学家都无法彻底解决电车难题,那么期待人工智能系统去解决它,合理吗?
其次,我得指出,我开了几十年车了,从来没遇见过这样的难题,我认识的所有人也没有遇见过。此外,我所知道的道德伦理,尤其是有关电车难题的伦理,仅仅是上述你读到的假设情况而已,我不需要通过道德伦理考试才能拿到驾照。到目前为止,这个问题还没有对我造成任何困扰,驾驶汽车也不需要更深层次的伦理推演。因此,要求无人驾驶汽车在上路之前先解决电车难题,在我看来有点荒谬。
第三,在这类伦理问题上,无论你认为自己的答案多么理所当然,其他人总会有不同答案,他们也认为那才是顺理成章。麻省理工学院的研究人员已经证明了这个事实,他们为此做了一个聪明的在线实验,研究人员建立了一个名为道德机器的网站,用户可以在网站上看到一系列的电车难题,并被问及如果无人驾驶汽车遇见这样的情况应该怎么做[101]。那些无辜的受害者可能包括男性、女性、肥胖人士、儿童、罪犯、流浪汉、医生、运动员和老年人,还可能包括猫狗等动物。这项实验引起了网友们的广泛关注,研究人员从233个国家的用户那里收集到了大约4000万份个人决策数据。
这些数据揭示了全球对电车难题中伦理决策的不同态度。研究人员发现了三个关键的“道德集群”,每一个都体现了具有独特特征的伦理框架。研究人员将这些集群命名为西部、东部和南部。西部集群包括北美和大多数欧洲国家;东部集群包括许多远东国家,如日本和中国,以及伊斯兰国家;南部集群包括中美洲、南美洲和拉丁美洲国家。与西部集群相比,东部集群更倾向于保护合法的人而不是罪犯,更倾向于保护行人而不是车上的乘客,而且更倾向于保护年轻人。南部的集群似乎更关心的是如何保护地位高的个体,以及年轻人和女性。研究人员深入研究发现,还有其他的决策预测因素:例如,如果一个国家拥有繁荣的文化或强大的法治,这两种社会特质在预测偏好方面都会起到明显的作用。
麻省理工学院的研究人员将研究结果(人们认为无人驾驶汽车在有轨电车问题的情况下应该如何运行)与2017年德国联邦政府制定的一些有关汽车道德决策的实际指南进行了比较[102]。德国的指南提出了20条建议,例如:
·在危险情况下,必须始终优先考虑拯救人的生命,而不是防止财产损失。
·如果发生事故不可避免,在决定如何行动时,不允许考虑一个人任何的生理特征(年龄、性别等)。
·必须始终弄清楚,目前是人类还是计算机负责驾驶。
·汽车必须记录下任何时间在驾驶汽车的对象。
其中一些指导原则与道德机器实验中所得出的数据相悖:例如,禁止任何基于个人特征的歧视的规定与道德机器所揭示的拯救年轻人的国际偏好形成鲜明对比。试想一下,如果一辆无人驾驶汽车遵循德国的指导方针,不对事故对象做区分,结果导致一名儿童而不是一名老年晚期癌症患者被撞死,那会引起多大的公愤。我举的例子很极端,在此深表歉意,但你应该能明白我的意思。
虽然道德机器实验挺有意思,但我认为它本身和它所涉及的电车难题都无法给我们太多有关无人驾驶汽车人工智能软件的启示。我不相信未来几十年内我们的无人驾驶汽车会遇见这种道德困境。那么,当遇上电车难题的时候,一辆真正的无人驾驶汽车在实际操作中会怎么做呢?那些致力于研究无人驾驶汽车技术的人对细节也不太清楚,但以我过去几十年在人工智能领域积累的经验来看,最基本的工程原理是最大限度提高预期安全性(换言之,就是最小化预期风险)。这不涉及深层次道德推断的问题——如果真的需要推断,也可能不会比你面对多个障碍物时避开较大的那些需要做的推断更复杂。坦率地说,即使是这种层面的推断也并不是一定会发生的。事实上最有可能的结果是汽车会紧急刹车。也许,在实践中,在同样的情况下,我们也应该尽全力去做到这一点。
人工智能伦理研究的兴起
别作恶。
——谷歌公司座右铭,2000—2015年
还有更多更广泛的问题涉及人工智能和伦理学,这些问题比电车难题更具紧迫性,也更相关。在撰写本书的时候,人们正为这些问题进行激烈争辩。似乎每一家科技公司都想证明他们的人工智能比其他公司的更具有道德性,几乎每星期各家都有新闻稿宣布一项新的人工智能伦理倡议。我们需要回顾一下这些问题,以及思考它们在人工智能未来发展中可能扮演的角色。
最早也是最有影响力的人工智能道德框架之一是阿西洛玛人工智能准则,它是由一群人工智能科学家和评论员于2015年和2017年在加州的阿西洛玛度假胜地确定的。阿西洛玛人工智能准则一共有23条,全世界人工智能科学家和开发者都被要求签署这些准则[103]。大多数准则都是没有什么争议的,比如:第一条,人工智能研究的目标应该是创造有益的智能;第六条,人工智能系统应该是安全可靠的;第十二条,人们应该有权访问、管理和控制与人工智能系统相关的数据。
另外一些准则志存高远。例如:第十五条要求“人工智能创造的经济繁荣应该被广泛分享、造福全人类”。我个人对签署这一条倒是没什么异议,但这一条对那些大型企业而言,恐怕只是嘴上说说罢了,指望他们落实这一条那恐怕是天真过了头。大企业投资人工智能的主要原因是希望获取竞争上的优势,为股东带来利益,而不是他们想造福全人类[104]。
最后的五条原则涉及人工智能长远的未来,以及对人工智能可能会以某种方式失控的担忧——《终结者》场景再现: