词汇表(第1页)
词汇表
A*:人工智能中使用最广泛的启发式搜索方法,是斯坦福研究所SHAKEY项目的一部分,于20世纪70年代早期开发。在A*之前,启发式搜索是一种相当特殊的技术。A*让启发式搜索建立在坚实的数学基础上。
&:一个突破性的图像识别系统。该系统在2012年实现了图像识别的巨大改进,是一个具有里程碑意义的深度学习系统。
AlphaGo:一个突破性的围棋游戏系统,由深度思维的团队开发。2016年3月,在韩国首尔举行的一场比赛中,AlphaGo以4∶1的成绩击败世界围棋冠军李世石。
&erisparibuspreferences:即“尽可能保持其他条件不变”,这个概念是指我们在给人工智能系统说明自己的偏好时,希望它执行任务的前提是“尽量保持其他事物不变”(即尽可能让其他的事物保持原来的状态)。
Cyc工程:基于知识的人工智能时代中,最著名也是得到负面评价最多的实验。它试图通过提供一个受过合理教育的人类所拥有的关于世界的一切知识来构建一个通用人工智能系统,但最终失败了。
Cyc假说:一种假设,即人工智能主要的问题是知识问题。一个拥有全面知识库的人工智能系统可以等同于通用人工智能。
DENDRAL:一个经典的早期专家系统,帮助用户识别未知的有机化合物。
ELIZA:20世纪60年代由约瑟夫·魏岑鲍姆开发的会话式人工智能开创性实验,ELIZA用简单的封装脚本来模拟心理医生。
HOMER:20世纪80年代开发的一种智能体,它在模拟的“海洋世界”环境中运行。HOMER可以使用(一部分)英语与人交互,被指派在海洋世界完成任务,并对自己的行为有一些常识性的理解。
&:一个由李飞飞开发的带有标签的大型在线图像档案库,在训练深度学习程序为图像添加标签的领域有着深远影响。
LISP:在符号人工智能时代被广泛应用的编程语言,由约翰·麦卡锡开发。LISP机器是专门设计来运行LISP编程语言的计算机。另请参见PROLOG。
MY:20世纪70年代出现的经典专家系统,它充当医生的助手,诊断人类血液疾病。
NP完全问题:一类无法有效解决的计算问题。NP完全性理论是20世纪70年代发展起来的,在此期间许多人工智能问题被发现是NP完全问题。另请参见P与NP问题。
PROLOG:一种基于一阶逻辑的编程语言,在基于逻辑的人工智能时代特别流行。
P与NP问题:P代表“多项式时间”,NP代表“非确定性多项式时间”,从技术上讲,P与NP问题指的是在非确定性多项式时间内可以解决的问题是否可以在多项式时间内解决。NP完全问题是否一定能够在多项式时间内解决?这是当今数学中最大的难题之一,在短期内可能无法解决。
R1X:20世纪70年代美国数字设备公司开发的经典专家系统,旨在帮助他们配置VAX系列计算机。这是早期人工智能的盈利案例。
SHAKEY:20世纪60年代末,斯坦福研究院在自主机器人方面进行的有重大意义的实验,开创了几项关键的人工智能技术。
SHRDLU:人工智能黄金时代出现的著名系统,后来因为专注于模拟的微观世界而广受非议。
STANLEY:赢得2005年美国国防高级研究计划局顶级挑战赛冠军的无人驾驶汽车,由斯坦福大学开发,自动驾驶大约140英里,平均时速19英里。
STRIPS:一个影响深远的计划系统,在斯坦福研究院的人工智能项目中使用。
阿西洛玛人工智能准则:2015年和2017年,人工智能科学家和评论员在加利福尼亚州阿西洛玛举行了两次会议,制定了一套关于人工智能伦理的准则。
包容式体系结构:一种行为人工智能时代的机器人体系结构,将机器人可能的行为组织成一个层次结构,越是底层的行为,优先级就越高。
贝叶斯定理贝叶斯推断:贝叶斯定理是概率论的一个核心概念,在人工智能中,它为我们提供了一种在得到新数据或者证据时调整人工智能信念库的方法。最关键的是,新的数据可能只是“噪音”或者不够确定的数据。贝叶斯定理为我们提供了处理此类不确定信息的正确方法。
贝叶斯网络:一种知识表述方案,用于捕获基于概率的数据之间产生的复杂网络。使用基于贝叶斯定理的贝叶斯推断来构成。
本体工程:在一个专家系统中(更普遍地说是在一个基于知识的人工智能系统中),这是一个定义概念词汇表的任务,这些词汇表被用来表示系统中的知识。
博弈论:一种基于全局的推理理论,在人工智能中被广泛用于构造人工智能系统和其他系统交互的框架。
不可判定问题:从精确的数学意义上来讲,某个问题无法用计算机(或者更确切地说,图灵机)来解决,即为不可判定问题。
不确定性:人工智能普遍存在的一个问题。我们接收到的信息很少是确定的(即确切为真或者为假),通常会具有不确定性。同样,当我们做决策的时候,也很少确切地知道决策后果是什么:通常有多种可能性结果,只是每种结果出现的概率不同。因此,处理不确定性是人工智能的一个基本主题。另请参见贝叶斯定理及附录C。
不确定性选择:在这种情况下,我们所做的选择可能有多种结果,而我们所知的,是对于每一个可能的选择,其结果发生的概率。参见预期效用。
不通情理的实例化:人工智能系统按照使用者的要求达成任务,但并没有按照使用者预期的方式去做。
(神经网络的)不透明性:神经网络的专业知识都被编码在一系列的权重数字中,我们无法分辨这些权重的“含义”。这意味着目前的神经网络不能解释或者证明它们的决策。
常识推理:这是一个宽泛的术语,基本上人类都有能力做出有关世界的常识性的推断,但这对基于逻辑的人工智能来说非常困难。
城市挑战赛:2007年美国国防高级研究计划局顶级挑战赛的后续挑战赛,在城市挑战赛中,无人驾驶汽车必须能够自主穿越城市环境。
触发:在基于知识的人工智能系统中,如果在工作存储器中的信息与规则的前因条件正确匹配,那么规则就会被触发,从而允许我们将规则的后果结论添加到工作存储器中。
触发阈值:即人工神经元被触发的临界值。人工神经元接收大量的信号输入,其中可能只有一部分输入被激活,当被激活的输入的权重值超过触发阈值时,神经元会被“触发”(即产生一个输出)。
初始状态:在解决问题中,初始状态描述了我们在执行任务之前呈现的状态。另请参见目标状态。
传感器:给机器人提供原始感知数据的装置。典型的传感器有摄像机、激光雷达、超声波测距仪和碰撞探测器。解释原始感知数据是人工智能的重大挑战之一。