第八章 现实中的人工智能会导致什么问题(第2页)
我也很想相信乌托邦式的未来,但由人工智能推动的大规模全民基本收入计划在短期内实现似乎并不合理[116]。首先,人工智能所产生的经济效益必须是巨大的,才能使全民基本收入得以实现,因此就需要远远超过以往的技术创新来支撑庞大的项目,而没有任何迹象表明目前的人工智能发展会带来如此规模的经济效益。其次,要想推行全民基本收入计划,将需要前所未有的强烈政治意愿:可能会在社会环境极其紧张的情况下才能迫使政府接受这样的行动方针。我的猜测是,恐怕需要出现大规模的失业潮,这个想法才有可能被提上议程。最后,全民基本收入将从根本上破坏社会的结构,毕竟在当今社会中,工作占据着核心的社会地位。目前同样没有任何迹象表明社会做好了接受这种变化的准备。
虽然人工智能是导致工作环境变化的一个重要因素,但它不是唯一因素,甚至可能并不是最重要的。一方面,无情的全球化进程尚未走到终点,在此之前,它将继续以我们无法想象的方式震撼整个世界。计算机本身也没有达到进化的终点——在可预见的未来,计算机将会继续变得越来越便宜、小巧,以及拥有更高的交互性能。光是这些发展就足以持续改变我们的世界,还有生活与工作的方式。在这个背景下,我们的世界相互联系日益紧密,全世界的社会、经济和政治格局也在不断变化:化石燃料资源减少、气候变化和民粹主义政治抬头。所有的因素都将对就业和社会产生影响,对我们产生影响,而这些影响比人工智能大得多。
算法异化以及改变工作性质
在一本人工智能科普书里看到卡尔·马克思(KarlMarx)的名字时,你可能会感到惊讶,但是,这位《共产党宣言》的合著者所关注的问题,与当前人工智能如何改变工作和社会现状的争论密切相关。特别在19世纪中叶第一次工业革命以后建立起来的异化理论——当时资本主义社会才初具形态。马克思的异化理论关注的是工人与工作和社会的关系,以及资本主义制度是如何影响这种关系的。他指出,工业革命出现了工厂系统,工人们在工厂中从事重复性的、无聊的、最终毫无成就感的工作,以换取微薄的收入。他们没有机会筹备安排自己的工作,事实上,他们根本没有控制工作的权利。马克思认为,这是一种非自然的生活方式。工人们的工作,从真正的意义上来说是没有意义的,但是工人们别无选择,只能从事这种毫无成就感、没有意义的工作。
可能这些工作状态也会让你点头认同,不过人工智能和相关技术的迅速发展将马克思的理论推向了一个新的维度:在未来,我们的老板可能只是一段算法。
我们又一次看到了异化现象,特别是在所谓“零工经济”领域——这是工作模式发生改变的另一个方面。半个世纪前,你或许会在一家公司从毕业干到退休,这很常见。长期雇佣关系是一种常态,那些频繁跳槽的员工会受到质疑。
但现在,长期雇佣关系已经越来越少见,取而代之的是短期工作、计件工作和临时工作——这就是零工经济。在过去20年里,移动计算机技术的发展是全球化零工经济迅速腾飞的主要原因,工作人员可以通过移动设备协调和参与工作。手机内置的GPS系统可以随时定位和监控工作人员的位置,还可以随时向他们传达工作指示。人们日常工作所做的每一件事,甚至在键盘上按键的次数,发送电子邮件的习惯语气,都可以被电脑程序记录和监控。
网络购物巨头亚马逊因为对员工要求严格、监控严密、工作环境严苛而时常遭受批评,以下是2013年英国《金融时报》的一篇报道,描述了一名仓库工人的工作[117]:
亚马逊的软件会计算出最高效的配送货物步行线路,指导工人装满手推车,然后通过手持卫星导航设备屏幕的指示,指导工人从一个货架走到另一个货架。即使路线如此高效,依然有许多需要步行的地方……“你就像个机器一样,不过是人形的,”亚马逊的工人说,“如果你乐意的话,可以管这叫作人类自动化。”
如果马克思今天还活着,我想,他会用这篇报道作为异化概念的完美解释例证。这就是人工智能造就的自动化噩梦:人类的劳动被系统地简化为那些不能被机器或软件自动化的任务,工人被细致地监控和监督着,没有创造力、没有创新性、没有个性,甚至没有思考的空间。想象一下,如果你的年度考核是由电脑程序来决定,甚至是否决定录用你,也是由电脑程序来判断,你会有什么感受。有点愤世嫉俗地说,我们也许不应该太关心这些问题,因为这些工作不会存在很长时间了:很快它们就会被人工智能和机器人自动化技术完全替代(亚马逊正在大力投资仓库机器人技术)。
世界上很大一部分劳动人口从事这样的工作,这个前景一点都不诱人。不过,我想现在已经说得很清楚了,这并不是什么新鲜事——只是从工业革命时期就存在的趋势,人工智能只是扩展了它的维度。当然,当今职场上还有许多人的工作条件远比亚马逊的仓库工人差得多。这不应该归罪于技术,技术是中立的。雇主、政府、工会和监管者应该思考人工智能在这些方面对社会的影响——它将如何改变人类工作的性质,以及什么样才算体面的工作环境和条件,还有失业问题。迄今为止,人工智能所引起的焦虑和争议,大多集中在失业问题上。
人权
上述讨论显示了控制我们工作状况的人工智能系统是如何让现代职场人异化的,但是,人们对人工智能的使用的更大担忧,是它影响了最基本的人权。拥有一个人工智能系统做老板已经很让人头疼了,它告诉你什么时候可以休息,什么时候应该工作,给你设定目标,并对你的工作状况随时监控和批评……但是,如果人工智能系统有权决定你是否应该进监狱,这种情况又会如何?
再一次声明,这可不是臆想——现在已经有类似的人工智能系统正在投入使用。例如,英国杜伦的警察部队于2017年5月宣布,他们将启用危害评估风险工具(HarmAssessmentRiskTool,HART)[118],这是旨在帮助警察决定应该释放还是拘留涉案嫌犯的人工智能系统。HART是机器学习的经典应用,它的训练库包括2008至2013年获得的所有拘捕数据(约104000起拘捕事件),并用2013年的全年拘捕数据进行测试(测试用的数据未纳入训练库)[119]。最终结果是,在低风险案例中该系统的准确率高达98%,而在高风险案例中为88%。有趣的是,系统设计的时候考虑到了谨慎处理高风险案例(例如涉嫌暴力犯罪的案件),或者这能解释最终结果的区别。系统使用34种不同的案例特征进行训练,其中大部分与嫌犯的犯罪史有关,不过也包括年龄、性别和住址特征。
没有迹象表明,杜伦的警察把所有决定嫌犯是否拘留的决定权都交给了HART,该系统只是作为决策支持工具,辅助监管人员做决策而已。但是,尽管如此,当社会各界得知HART投入使用时,仍然引起了很大的不安。
主要问题在于HART只关心独立案件的一系列特征,它不会像一个有经验的监管人员那样,会综合考虑嫌犯背景和案件流程,所以它的重要决定是基于相当狭窄的数据基础做出的。决策缺乏透明度也是一个令人担忧的问题(这是机器学习的经典问题,人工智能程序无法给出决策的解释)。当然,培训所使用的数据特征可能存在偏差,也有人提出这一点(尤其是将嫌疑人的住址作为特征之一,这更令人担忧,该系统的决策可能涉嫌歧视底层区域的人)。
还有一点,尽管HART只是一个决策支持工具,但可能在未来的某一天,我们会发现它成了主要的决策者:监管人员有可能太过疲惫、太过迷糊或者太过懒惰,放弃了自己来做决策的权利,于是不加任何思考地全盘接受HART的建议。
我认为,所有这些担忧都指向一点:HART这样的系统侵蚀了人类判断的地位。归根结底,对一个人做出重大影响的决策者是人类,比起别的东西,更让人感觉自在。毕竟,我们享有基本的人权,例如接受同侪审判的权利,而这项权利来之不易,理应受到高度重视。让类似HART的电脑程序对人类做出判决,也许会让人感觉我们在放弃这些来之不易的权利。对这样的趋势我们不应当掉以轻心。
这些担忧是合理的,尽管我不认为应该简单粗暴地全面禁用类似HART的系统,但在使用它的时候,应当遵循非常重要的注意事项。
首先,诚如HART案例中明确指出的,这些工具只能用于为人类决策者提供支持,而不能取代人类进行决策。机器学习决策并非十全十美,它们难免会做出一些明显毫无意义的决策。而当前机器学习还有一个令人沮丧的现状,就是很难确认它什么时候的决策会出错。因此,在给人们带来重大影响的决策方面,盲目遵循人工智能的建议是非常不明智的。
另一个问题涉及对机器学习技术不成熟地开发和利用。HART是由经验丰富的研究团队开发的,他们应该全面周到地考虑过这款软件可能面临的各类问题。并不是所有开发者都有如此丰富的经验,或者会如此深入思考。因此,令人担忧的是,代替人类做决策的系统,是否在开发环节考虑得足够谨慎和全面。
HART只是备受人权组织关注的应用于执法系统的软件之一,伦敦警察厅因使用一款名为“帮派矩阵”的工具而饱受批评。该系统有数千人的记录,并将数据代入一些简单的数学公式中,以预测这些人参加帮派的可能性[120]。帮派矩阵系统大部分似乎都建立在传统计算机技术上,不太涉及人工智能领域,但有这方面的趋势。国际特赦组织称该系统是一个“种族偏见数据库,将某个年代的黑人全部定罪”。有人声称,如果你表现出只偏好某一类音乐的倾向,就会被列入数据库。美国一家名为PredPol的公司销售支持“预测警务”的软件,用以预测犯罪热点区域[121]。同样,该软件的使用引发了人权方面的争议:如果数据有偏差怎么办?如果软件设计不合理怎么办?如果警察开始过度依赖它该怎么办?另一个系统,PAS,旨在预测一个人再次犯罪的可能性[122],该系统用于量刑参考[123]。
有一个极端的案例说明这种错误的想法是如何走向绝境的。2016年,两名研究人员发表了一篇文章,声称只需要让人工智能系统识别一下人脸就可以发现潜在的犯罪行为。这样的系统让我们回到了一个世纪前那些武断的犯罪理论。随后的研究表明,他们的系统大概是根据一个人是否微笑来判断犯罪行为:系统训练使用的是警方拍摄的罪犯面部照片,而这些照片往往都不会面带微笑[124]。
机器人杀手
希望你会认同我的想法,我认为人工智能系统当我们的老板会导致员工异化,而让人工智能系统来决定一个人是否应该被警方拘留,这是对人权的一种侮辱。那么,对于一个有能力决定你生死的人工智能系统,人们又将如何看待呢?随着人工智能的迅猛发展,人们对这一前景的担忧开始见诸报端,其中至少有一部分原因是我们提到过很多次的《终结者》场景。
关于自主武器的话题总是带有强烈的煽动性,许多人会本能地厌恶它,认为这样的系统是不道德的,永远不该被建立。对于持有这样观点的人而言,若是有品行端正的人持有相反观点,会让他们感到惊讶。因为我知道这个主题有多么震撼,所以我会尽可能轻描淡写地带领你深入研究潜在的人工智能自主武器所引发的问题。
自主武器的讨论大多源于战争中使用得越来越频繁的无人机。无人机,顾名思义,就是无人驾驶的飞机,在军用领域,它可以携带导弹等武器。因为无人机不用搭载人类飞行员,所以它比传统飞机更小巧、更轻便、造价更低。而且无人机的飞行不会给遥控它的人带来风险,因此它可以被用于飞往危险区域执行任务。对于军事组织来说,这自然是一个富有吸引力的选择。
在过去的50年里,无人机的军用开发经历了数次尝试,不过直到21世纪才成为现实。自2001年以来,美国一直在对阿富汗、巴基斯坦和也门的军事行动中使用军用无人机。尽管我们不知道具体数量,但似乎美国已经投入了数百架无人机,可能导致了数千人死亡。
遥控无人机本身就引发了各种严重的伦理争议,例如,由于控制无人机的驾驶员没有亲身涉险,他们可能会采取一些实际在场的情况下不会采取的行为。而且,最重要的是,人们不会像自己亲临现场那样认真对待行为的后果。
出于以上以及更多的原因,使用遥控无人机引起了极大争议。然而,自主无人机出现的可能性将人们的担忧提升到了更高层面。无人机不再被遥控,意味着很大程度上,它们不再需要人类的引导或者说干预来执行任务。而且,作为执行任务的一部分,它们可能有权决定是否夺走人类的性命。
自主无人机和其他种类自主武器的构想,立刻会让你联想到非常熟悉的电影场景:机器人大军无情地、精准地使用致命武器屠杀人类,没有任何对人类的怜悯、同情或理解。我们已经了解到为什么这样的《终结者》式末日场景不值得我们今晚就担忧得失眠,但是自主武器出问题的可能性,以及致命的后果,仍然是人们反对其发展和应用的一个重要论据。但是,关注自主武器也有许多其他原因。其中之一是拥有自主武器的国家可能不太介意发动战争,因为他们的部队不需要亲自上前线。因此,自主武器可能使得发动战争的决定变得更加容易,使得战争更加普遍化。但是,最常见的反对意见是,自主武器是不道德的:人们不能制造能够决定夺走人类性命的武器,这是错误的。
值得指出的是,在目前的技术条件下,人工智能驱动自主武器是完全可能实现的。请考虑如下场景[125]: