词汇表(第2页)
道德机器:一个在线实验,在这个实验中,用户被问及在各种电车难题中应该做出什么样的选择。
道德智能体:如果一个实体能够理解其行为的结果以及有是非的观念,并且能够因此对其行为负责,那它就是一个道德智能体。主流观点认为,人工智能系统不应该,事实上也不可能被视为道德智能体。道德责任在于构建和运行人工智能系统的人,而不是系统本身。
电车难题:伦理学中的一个问题,最早出现于20世纪60年代:如果你无作为,有5个人会死亡,而如果你采取行动,那么另外1个人会死亡。你应该行动吗?通常在无人驾驶汽车背景下讨论,尽管大部分人工智能研究员认为无关紧要。
顶级挑战赛:美国国防高级研究计划局组织的无人驾驶汽车竞赛,2005年10月,由STANLEY机器人获得胜利,标志着无人驾驶汽车时代的到来。
对抗性机器学习:机器学习的一个分支,人们给程序输入容易导致错误输出的数据,试图欺骗机器学习程序,虽然这些输入的结果对人类而言是“显而易见”的。
多层感知器:多层神经网络的早期形式。
多层神经网络:将神经网络组织成一系列多层级网络的标准方法,每层的输出作为下一层的输入。早期神经网络研究的一个关键问题是没有办法训练多层神经网络,而单层神经网络的能力又十分有限。
多智能体系统:多个智能体相互作用的系统。
反向传播:训练神经网络的一种重要算法。
反向推理:在基于知识的人工智能系统中,我们从试图建立的目标(例如“该动物是食肉动物”)开始,试图通过使用我们所掌握的数据来验证目标是否合理(例如“如果动物会吃肉,那么该动物是食肉动物”)。与正向推理相对。
分支因子:在解决问题的时候,每次做决定时必须考虑的备选方案的数量。在玩游戏的时候,分支因子即你在任何棋盘位置上平均可能移动的次数。在井字棋游戏中,分支因子约为4;在国际象棋中,约为35;在围棋中,约为250。较大的分支因子会导致搜索树很快变得庞大到难以想象,因此需要使用启发式搜索来优化。
符号人工智能:一种人工智能类型,包括明确的推理建模和规划过程。
副现象论:一种意识研究的观念,即意识是身体内部机械运动的结果,是物质运动之后伴随出现的次生现象。
感受性:个人心理体验。比如闻到咖啡味,或者在热天喝冷饮之类。
感知:了解周围环境的过程。它是符号人工智能的根本症结所在。
感知器感知器模型:一种神经网络,起源于20世纪60年代,但至今仍是有价值的。对感知器的研究在20世纪70年代早期就逐渐停止,因为当时有研究表明单层感知器模型所能学习的东西有着严重局限性。
高级编程语言:一种隐藏程序运行时实际计算机底层操作的编程语言。高级编程语言至少在原则上是独立于机器的:同一个程序可以在不同类型的计算机上运行,比如Python和Java。约翰·麦卡锡开发的LISP就是早期的高级编程语言例子。
功利主义:应该选择让社会福利最大化的行动的观点。在电车难题中,功利主义者会选择杀死一个人来挽救五个人的生命。另请参见美德伦理学。
工作存储器:在专家系统中,工作存储器里包含了正在解决问题的信息(与编码在规则中的知识相对)。
规则:一种离散的知识。以“如果……那么……”的形式表示,例如,规则“如果动物有**,那么该动物为哺乳动物。”它告诉我们,如果我们知道某动物是有**的,那么我们可以据此得到新的信息,即该动物为哺乳动物。
后果结论:专家系统的“如果……那么……”规则中,“那么”后面跟随的部分即为后果结论。例如,在规则“如果动物有**,那么该动物是哺乳动物”中,后果结论是“该动物是哺乳动物”。
极大极小值搜索:游戏开发使用的关键搜索技术之一,在游戏中,你试图使自己的利益最大化,而你的对手会试图使你的利益最小化。另请参见搜索树。
积木世界:一个模拟的“微观世界”,人工智能在其中的任务是摆放各式各样的物体,如方块或者盒子。其中最著名的是SHRDLU所在的积木世界,随后因为抽象了人工智能系统在现实世界中所面临的诸多真正困难的问题——尤其是感知问题——而广受批评。
机器人三定律:科幻作家艾萨克·阿西莫夫在20世纪30年代提出的三条定律,是一种规范人工智能行为的伦理框架。虽然它们非常巧妙,但实际上不可能直接在人工智能编码中实现,甚至无法被明确定义。
机器学习:智能系统的核心功能之一。机器学习程序学习输入和输出之间的关联,而不需要明确告诉它按照怎样的步骤去执行。神经网络和深度学习是机器学习的常用方法。
基于逻辑的人工智能:一种人工智能系统构建方法,其中的智能决策被简化为逻辑推理,例如一阶逻辑。
基于行为的人工智能:1985年至1995年期间,一种获得了广泛关注的取代符号人工智能的系统。该系统在构建的时候更为关注系统应该表现出的行为,再去考虑这些行为是如何关联的。包容式架构是构建基于行为的人工智能系统最流行的方法。
基于知识的人工智能:1975年至1985年间,人工智能的主流范式。使用明确的知识来解决问题,通常以规则的方式编码。
基于智能体的交互界面:通过人工智能驱动的软件智能体来实现计算机界面操作的想法。软件智能体与使用者共同工作,智能体是一个主动的助手,而不是像常规计算机应用程序那样只能被动地等待使用者告诉它做什么工作。
监督式学习:机器学习最简单的形式,通过向程序展示输入和期望输出的实例来训练程序。另请参见训练。
奖励:强化学习程序对其行动的反馈,奖励可能是正面的,也可能是负面的。
脚本:20世纪70年代发展起来的一种知识表述方案,旨在捕捉常见情况下常规事件的序列。
精神状态:意识的一个重要组成部分,包括欲望、信念和偏好等。另请参见意向立场。
可判定问题:即可以使用算法解决的问题。
莱特希尔报告:20世纪70年代初,英国的一份关于人工智能的报告,对当时的人工智能研究提出了严重的质疑。该报告直接导致了人工智能研究经费大幅削减,普遍认为该报告是导致人工智能寒冬出现的因素之一。
逻辑:推理使用的正规框架。另请参见一阶逻辑和基于逻辑的人工智能。
逻辑编程:一种编程方法,我们简单地陈述对问题的了解和我们的目标,然后剩下的由机器去执行。另请参见PROLOG。
旅行机:20世纪90年代中期出现的一种典型的智能体设计。它将智能体的控制系统分为三层,分别负责反应、计划和建模。
美德伦理学:当面临伦理问题时,确定一个道德智能体,他体现了我们所注重的道德原则,然后他的选择就是我们应该去做的选择。