人工智能 artificial intelligence (Selmer Bringsjord and Naveen Sundar Govindarajulu)

首次发表于 2018 年 7 月 12 日

人工智能(AI)是致力于构建人工动物(或至少在适当的环境中看起来像动物的人工生物)的领域,对许多人来说,也是致力于构建人工人(或至少在适当的环境中看起来像人的人工生物)的领域。[1] 这些目标立即确保了人工智能是一个引起许多哲学家兴趣的学科,这一点已经得到了证实(例如),许多哲学家积极尝试证明这些目标实际上是不可实现的。在建设性方面,人工智能中使用的许多核心形式和技术都源自哲学,并且在哲学中仍然被广泛使用和完善:一阶逻辑及其扩展;适用于建模信念态度和道义推理的内涵逻辑;归纳逻辑、概率论和概率推理;实践推理和规划等等。鉴于此,一些哲学家将人工智能研究和开发作为哲学进行。

在本条目中,简要回顾了人工智能的历史,讨论了该领域的定义,并提供了该领域的概述。此外,通过具体示例,讨论了哲学人工智能(作为哲学追求的人工智能)和人工智能哲学。该条目以一些关于人工智能未来的必要推测性评论结束。


1. 人工智能的历史

人工智能(AI)领域正式始于 1956 年,由达特茅斯学院在新罕布什尔州汉诺威举办的一次由 DARPA 赞助的夏季会议拉开了序幕。(这次历史性会议的 50 周年庆典 AI@50 于 2006 年 7 月在达特茅斯举行,原始参与者中有五人回到了会场。[2] 这次会议的具体内容将在本文的最后一节中介绍。)会议共有十位思想家参加,包括约翰·麦卡锡(他在 1956 年在达特茅斯工作)、克劳德·香农、马文·明斯基、亚瑟·塞缪尔、特伦查德·摩尔(显然是原始会议上唯一的记录者)、雷·所罗门诺夫、奥利弗·塞尔弗里奇、艾伦·纽厄尔和赫伯特·西蒙。从现在的角度来看,进入新千年的开始,达特茅斯会议因许多原因而令人难忘,其中包括以下两点:一是在会议上首次提出了“人工智能”这个术语(尽管有些与会者不喜欢,比如摩尔),但这个术语已经深入人心;二是纽厄尔和西蒙展示了一个被与会者(以及会后不久得知和了解此事的几乎所有人)认为是一项了不起成就的程序——逻辑理论家(LT)。LT 能够证明命题演算中的基本定理。[3][4]

尽管“人工智能”一词是在 1956 年的会议上首次出现,但 AI 领域在 1956 年之前就已经开始运作了(在这里,AI 领域被操作性地定义为由以特定方式思考和行动的从业者组成的领域)。例如,在 1950 年的一篇著名的《Mind》论文中,艾伦·图灵提出了一个问题:“机器能思考吗?”(这里图灵指的是标准的计算机:能够计算自然数(或其组合)到图灵机或等效机器所能处理的自然数的机器),并建议将这个问题替换为“机器能在语言上与人类无法区分吗?”他具体提出了一个测试,即“图灵测试”(TT),如今已被广泛知晓。在图灵测试中,一名女性和一台计算机被隔离在密封的房间里,一个人类评委并不知道哪个房间里有哪个参赛者,通过电子邮件(实际上是通过电传打字机,使用了原始术语)向两个参赛者提问。如果评委根据回答的内容无法在判断哪个房间里有哪个参赛者时做出更好的选择,我们就说这台计算机通过了图灵测试。在这个意义上,通过测试来操作性地定义了语言上的无法区分性。稍后,我们将讨论图灵测试在定义人工智能方面所起的作用,以及它目前仍在尝试中的作用。目前,重点是在他的论文中,图灵明确提出了建造能够证明肯定回答他问题的机器的呼吁。这个呼吁甚至包括了如何进行这样的构建的建议(他建议建造“儿童机器”,并且这些机器可以逐渐自主成长,学会以成年人的水平进行自然语言交流。这个建议在 Rodney Brooks 和哲学家丹尼尔·丹尼特(1994 年)的 Cog 项目中被认为是遵循的范例)。 此外,斯皮尔伯格/库布里克的电影《人工智能》至少在某种程度上是图灵建议的电影探索。[5] 图灵测试仍然是人工智能和其基础讨论的核心,正如(摩尔 2003)的出现所证实的那样。事实上,图灵测试仍然被用来定义这个领域,就像尼尔森(1998)在他的教科书中表达的那样,人工智能简单地是致力于构建能够通过这个测试的工具的领域。通过梦想工程一台能够通过图灵测试的计算机,或者通过围绕声称已经通过了图灵测试的争议,提供的能量,如果有的话,比以往任何时候都更加强大,读者只需通过字符串进行互联网搜索

图灵测试通过

寻找最新的尝试来实现这个梦想,以及试图(有时是由哲学家)揭穿某些这样的尝试已经成功的说法。

回到历史记录的问题,即使有人加强了 AI 从 1956 年的会议开始的说法,并附加了“人工智能”指的是一种螺丝钉工程追求的条件(在这种情况下,图灵的哲学讨论,尽管有人要求制造一个孩子机器,但并不完全算作 AI 本身),人们仍然必须面对这样一个事实:图灵,以及许多前辈,确实尝试构建智能工件。在图灵的情况下,这种构建在可编程计算机出现之前就已经被人们意外地理解了:图灵在计算机运行这种程序之前就为下棋写了一个程序,通过自己奴隶般地遵循代码。他在 1950 年之前就做到了这一点,远在 Newell(1973)在印刷品上认真考虑建造一台出色的下棋计算机的可能性之前很久。[6]

从哲学的角度来看,机械智能的系统研究被视为有意义和富有成效,与产生计算机科学的具体逻辑形式(例如,一阶逻辑)和问题(例如,决策问题)是分开的,1956 年的会议,也不是图灵的《心智》论文,都不能算作 AI 的开始。这很容易理解。例如,笛卡尔在图灵出生很久之前就提出了 TT(当然不是以这个名字),以下是相关的段落:

如果有一种机器与我们的身体相似,并在道德上尽可能地模仿我们的行为,那么我们总是有两个非常确定的测试来认识到,尽管如此,它们并不是真正的人类。第一个测试是,它们永远无法像我们一样使用语言或其他符号,将我们的思想记录下来以便他人受益。因为我们可以很容易理解一台机器被构造成能够发出声音,甚至对其身体上的某种行为作出一些反应,从而改变其器官的状态;例如,如果它被触摸到某个特定部位,它可能会问我们想对它说什么;如果在另一个部位被触摸,它可能会呼喊自己受伤了,等等。但它从来不会以各种方式安排自己的言辞,以便适当地回答在它面前说的一切,就像即使是最低级别的人类也能做到的那样。第二个不同之处在于,虽然机器可以像我们中的任何人一样甚至更好地执行某些事情,但它们在其他方面却无法做到完美,通过这种方式我们可以发现它们并不是出于知识而行动,而只是出于器官的安排。因为理性是一种通用工具,可以适用于所有情况,而这些器官则需要针对每个特定的行动进行一些特殊的适应。由此可见,在任何一台机器中,要使其在生活的各个事件中以与我们的理性引导我们行动的方式相同地行动,是在道德上不可能的。(笛卡尔,1637 年,第 116 页)

目前,笛卡尔无疑占据了上风。图灵预测他的测试将在 2000 年通过,但新千年伊始全球的烟花已经消失,最有口才的计算机仍然无法与一个聪明的幼儿进行有意义的辩论。此外,虽然在某些专注领域,机器的表现超过了人类思维(例如 IBM 著名的深蓝在国际象棋中战胜了加里·卡斯帕罗夫;最近,人工智能系统在其他游戏中也取得了胜利,例如 Jeopardy!和围棋,稍后将会详细介绍),但人类思维具有(笛卡尔式的)能力,在几乎任何领域中培养自己的专长。(如果向深蓝或任何现有的继任者宣布国际象棋不再是首选游戏,而是一个以前未玩过的国际象棋变种,那么这台机器将被智力平均的儿童轻松击败,这些儿童没有国际象棋的专业知识。)人工智能简单地没有成功创造出普遍的智能;它甚至没有成功制造出表明它最终将创造出这样一种东西的工艺品。

但是 IBM 沃森在 Jeopardy!游戏节目比赛中的著名胜利呢?[9] 这显然是机器在人类的“主场”上战胜人类的胜利,因为 Jeopardy!提供了一个跨越许多领域的人类水平的语言挑战。事实上,在许多人工智能专家中,沃森的成功被认为比深蓝的成功更令人印象深刻,原因有很多。其中一个原因是,虽然国际象棋通常被认为从形式计算的角度来看是被很好理解的(毕竟,众所周知,存在一种完美的下棋策略),但在开放领域的问答(QA)中,就像在任何重要的自然语言处理任务中一样,对于问题的形式化解决方法没有共识。简而言之,问答(QA)是读者所想的那样:一个人向机器提问,然后得到一个答案,答案必须通过某种“重要”的计算过程产生。(有关 QA 历史上的概述,请参见 Strzalkowski&Harabagiu(2006))。更准确地说,对于问题回答能力计算的基本函数,形式上没有共识。这种缺乏共识自然而然地源于对自然语言的形式定义没有共识。[10] 尽管存在这种模糊性,并且几乎普遍认为开放领域的问答问题将在十年或更长时间内无法解决,沃森在这个星球上击败了两位顶级人类 Jeopardy!冠军。在比赛中,沃森不仅需要回答需要简单事实掌握的问题(问题 1),还需要一定程度的基本推理(以时间推理的形式)和常识(问题 2):

问题 1:美国连续两任总统具有相同的名字。

问题 2:1898 年 5 月,葡萄牙庆祝这位探险家抵达印度的 400 周年纪念。

尽管沃森在“危险边缘!”风格的问答游戏中明显优于人类(新的“危险边缘!”大师可能会出现,但对于国际象棋而言,人工智能现在认为,第二轮 IBM 级别的投资将击败新的人类对手),但这种方法对笛卡尔所描述的那种自然语言处理挑战是行不通的;也就是说,沃森无法即时对话。毕竟,有些问题不依赖于复杂的信息检索和机器学习,而是依赖于当场的复杂推理。这样的问题可能涉及指代消解,这需要更深入的常识性对时间、空间、历史、民间心理学等的理解。Levesque(2013)列举了一些令人震惊的简单问题,属于这一类别。(Marcus,2013,对 Levesque 的挑战进行了更广泛的解释,适合更广泛的受众。)沃森失败的另一类问答任务可以被描述为动态问答。这些问题的答案可能在提问时没有以文本形式记录,或者答案依赖于随时间变化的因素。下面给出了两个属于这一类别的问题(Govindarajulu 等人,2013):

问题 3:如果我有 4 个 foo 和 5 个 bar,并且 foo 和 bar 不相同,如果我得到 3 个恰好是 foo 的 baz,我会有多少个 foo?

问题 4:IBM 在最近 60 天的交易中的夏普比率是多少?

紧随 Watson 的胜利之后,在 2016 年 3 月,Google DeepMind 的 AlphaGo 在五场比赛中以四场胜利击败了围棋排名前列的选手李世石。这被认为是人工智能领域的一个里程碑式的成就,因为在人工智能社区中普遍认为计算机在围棋中的胜利至少还需要几十年的时间,部分原因是围棋中有效的走法序列数量比国际象棋要庞大得多。[11] 虽然这是一个了不起的成就,但需要注意的是,尽管在大众媒体中广泛报道,AlphaGo 和 Watson 都无法理解用简单明了的英语写成的围棋规则,并生成一个能够下围棋的计算机程序。有趣的是,在人工智能领域中有一个项目专门解决这个问题的狭义版本:通用游戏博弈,机器在开始玩游戏之前会得到一个全新游戏的描述(Genesereth 等人,2005)。然而,所提到的描述是用形式语言表达的,机器必须能够从这个描述中玩游戏。需要注意的是,这仍然远远不能理解甚至是简单的用英语描述的游戏,以至于能够玩它。

但是,如果我们从哲学的角度而不是与之最密切相关的领域的角度来考虑人工智能的历史,会怎样呢?这里的参考是计算机科学。从这个角度来看,人工智能是否早在图灵之前就存在了?有趣的是,结果是一样的:我们发现人工智能深入到过去,并且一直以来都有哲学的血脉。这是因为计算机科学起源于逻辑和概率论 [13],而逻辑和概率论又起源于(并且仍然与)哲学交织在一起。如今,计算机科学完全充斥着逻辑;这两个领域是无法分离的。这种现象已经成为一个独立的研究对象(Halpern 等人,2001)。当我们谈论的不是传统逻辑,而是概率形式主义时,情况也并不不同,概率形式主义也起源于哲学,正如 Glymour(1992)部分详细记录的那样。例如,帕斯卡尔的头脑中诞生了一种严格计算概率的方法,条件概率(目前在人工智能中起着特别重要的作用),以及帕斯卡尔赌注等富有哲学和概率论的论证,根据这个论证,不成为基督徒是非理性的。

现代人工智能的根源在哲学中,事实上,这些历史根源甚至比笛卡尔的遥远时代还要深远,可以通过查看综合教材《人工智能:现代方法》(在人工智能界简称为 AIMA2e,作者是 Russell 和 Norvig,2002 年)第二版(第三版是当前版本)的巧妙而透露的封面来看到。

《AIMA2e》封面(Russell 和 Norvig,2002 年)

你在那里看到的是一些可能出现在某个虚构的人工智能研究者桌子上和周围的杂项纪念品的折衷集合。例如,如果你仔细看,你会特别看到:图灵的照片,透过窗户看到的大本钟的景色(也许 R&N 意识到了图灵曾经著名地认为具有通用图灵机能力的物理机器在物理上是不可能的:他开玩笑说它的大小必须和大本钟一样),亚里士多德《动物运动论》中描述的规划算法,弗雷格对一阶逻辑的迷人符号表示法,刘易斯·卡罗尔(1958)对三段论推理的图示表示的一瞥,拉蒙·卢尔在他 13 世纪的《大艺术》中的概念生成轮,以及其他一些有意义的物品(包括聪明、递归且近乎自我恭维的一举,一本《AIMA》的副本)。虽然这里的空间不足以建立所有的历史联系,但我们可以从这些物品的出现推断出(当然我们指的是古代的物品):人工智能确实非常非常古老。即使那些坚持认为人工智能至少在某种程度上是一种制造工艺的人也必须承认,鉴于这些物品,人工智能是古老的,因为它不仅仅是从智能在本质上是计算的角度进行的理论化,而是追溯到人类历史的遥远过去:例如,卢尔的轮子标志着一种试图捕捉智能的尝试,不仅仅是在计算中,而是在体现计算的物理工艺中。[14]

《AIMA》现已进入第三版,对人工智能的历史感兴趣的人,以及对心灵哲学的历史感兴趣的人,通过研究第三版封面,不会对其失望(第二版封面与第一版几乎完全相同)。 (封面的所有元素,分别列出并加以注释,可以在网上找到。)第三版封面的一个重要补充是托马斯·贝叶斯的绘画;他的出现反映了概率技术在人工智能中的近期流行,我们稍后会讨论。

关于人工智能历史的最后一点值得一提。

普遍认为,现代人工智能的诞生主要归功于和通过现代高速数字计算机的出现。这种假设符合常识。毕竟,人工智能(以及在某种程度上与之相关的认知科学,特别是认知科学的子领域——计算认知建模)旨在在计算机中实现智能,因此可以合理地认为这一目标与这些设备的出现密不可分。然而,这只是故事的一部分:回溯到图灵和其他(如冯·诺伊曼)负责第一台电子计算机的人。另一部分是,正如前面提到的,从历史上看,人工智能与推理(基于逻辑的推理以及处理不确定性的归纳/概率推理)有着特别紧密的联系。在 Glymour(1992)所讲述的这个故事中,对“什么是证明?”这个问题的探索最终得出了一个基于弗雷格的一阶逻辑(FOL)版本的答案:(有限的)数学证明包括从一个一阶逻辑公式到下一个的一系列逐步推理。这个答案的明显延伸(并不是一个完整的答案,因为尽管常识认为,许多经典数学显然无法用 FOL 表达;即使是作为有限公式集的皮亚诺公理也需要 SOL)是说不仅数学思维,而且一切思维都可以用 FOL 来表达。(这个延伸在信息处理心理学和认知科学开始之前就被许多逻辑学家考虑过——这是一些认知心理学家和认知科学家经常似乎忘记的事实。) 今天,基于逻辑的人工智能只是人工智能的一部分,但重点是这部分仍然存在(在逻辑的帮助下,比 FOL 更强大但更复杂),并且可以追溯到亚里士多德的三段论理论。[15] 在不确定推理的情况下,问题不是“什么是证明?”,而是诸如“根据某些观察和概率,理性上应该相信什么?”这是在数字计算机出现之前很久就提出和解决的问题。

2. 人工智能到底是什么?

到目前为止,我们一直在按照我们对人工智能性质的坚定而准确的把握进行。但人工智能到底是什么?哲学家们可以说比任何人都更了解,精确地定义一个特定学科以满足所有相关方的要求(包括该学科内部的从业人员)可能是非常具有挑战性的。科学哲学家们确实提出了关于构成一个科学和/或工程领域的一般形状和纹理的可信解释,但物理学的确切定义是什么?生物学呢?哲学到底是什么?这些都是非常困难的问题,甚至可能是永远无法回答的问题,尤其是如果目标是达成共识的定义。也许在明显的空间限制下,我们在这里能采取的最谨慎的做法是以简洁的形式呈现一些关于人工智能的提议定义。我们确实包括了最近试图以详细而严谨的方式定义人工智能的尝试的一瞥(我们认为这样的尝试将对科学哲学家和对这个哲学子领域感兴趣的人们有兴趣)。

Russell 和 Norvig(1995 年,2002 年,2009 年)在他们前面提到的 AIMA 文本中,提供了一系列对“什么是人工智能?”这个问题的可能答案,在该领域内具有相当的流行度。这些答案都假设人工智能应该根据其目标来定义:一个候选定义的形式是“人工智能是旨在构建...的领域”。这些答案都属于四种类型,沿着两个维度排列。一个维度是目标是匹配人类表现还是理想的理性。另一个维度是目标是构建能够推理/思考的系统,还是行动的系统。这种情况在下表中总结如下:

根据 AIMA,人工智能的四个可能目标。

请注意,这四种可能性确实反映了(至少是相当大部分)相关文献。例如,哲学家约翰·豪格兰(1985 年)在他说到人工智能时属于人类/推理象限,他说:“这是一种令人兴奋的新尝试,让计算机思考……以完全和字面意义上拥有思维的机器。”(迄今为止,这是大多数流行叙事肯定和探索的象限。最近的《西部世界》电视剧就是一个有力的例子。)卢格尔和斯塔布菲尔德(1993 年)在写到“关注智能行为自动化的计算机科学分支”时似乎属于理想/行为象限。图灵最突出地占据了人类/行为的立场,只有那些能够像人类一样行动的系统才能通过他的测试。例如,温斯顿(1992 年)捍卫了“理性思考”的立场。虽然断言这里给出的四个分类是穷尽的可能会有争议,但即使对迄今为止的文献进行全面调查,这样的断言似乎是相当合理的。

重要的是要知道,在人工智能教材的核心,以及人工智能本身的核心,我们已经看到,系统思考/推理与系统行动之间的对比,并不意味着人工智能研究人员将他们的工作仅仅归类于这两个领域之一。那些更专注于知识表示和推理的研究人员也完全准备好承认,他们正在研究(他们认为的)跨越推理/行动区别的更大系统家族中的一个核心组成部分或能力。最明显的例子可能来自规划领域的工作,这是一个传统上广泛使用表示和推理的人工智能领域。无论是好是坏,这项研究的大部分工作都是在抽象中进行的(体外,而不是体内),但参与其中的研究人员肯定打算,或者至少希望他们的工作结果能够嵌入到实际执行计划等任务的系统中。

那么,Russell 和 Norvig 自己呢?他们对“什么是人工智能?”这个问题有什么回答?他们坚定地站在“行为合理”阵营。事实上,可以说他们是这个答案的主要支持者,并且他们一直以来都是非常成功的传教士。他们极具影响力的 AIMA 系列可以被视为一本书长的对理想/行为类别进行辩护和规范的著作。稍后我们将看一下 Russell 和 Norvig 如何将整个人工智能领域都归结为智能体的概念,智能体是按照各种理性的理想标准行动的系统。但首先,让我们更仔细地看一下 AIMA 文本所基于的智能观。我们可以通过参考 Russell(1997)来做到这一点。在这里,Russell 将“什么是人工智能?”的问题重新表述为“什么是智能?”的问题(假设我们对工艺品有很好的理解),然后他将智能与理性等同起来。更具体地说,Russell 将人工智能视为致力于构建智能体的领域,智能体是根据来自外部环境的感知元组作为输入,并根据这些感知元组产生行为(动作)的函数。Russell 的整体观点如下:

Russell 对智能/理性的解释的基本图景

让我们对这个图解进行一些解读,并首先看一下从中可以得出的完美理性的解释。智能体在环境 E(来自环境类 E)中的行为会产生该环境的一系列状态或快照。一个性能度量 U 评估这个序列;请注意上图中标有“性能度量”的方框。我们用 V(f,E,U)表示智能体函数 f 在 E 上操作时根据 U 的预期效用。现在我们将完美理性的智能体与智能体函数等同起来:

(1)fopt=argmaxfV(f,E,U)

根据上述方程,一个完全理性的行为体可以被认为是函数 fopt,在考虑的环境中产生最大期望效用。当然,正如 Russell 指出的那样,实际上很难构建完全理性的行为体。例如,虽然很容易指定一个下棋无敌的算法,但实施这个算法是不可行的。在人工智能领域,传统上构建的是计算上理性的程序,正如 Russell 恰当地称之为:这些程序在无限快的执行下会产生完全理性的行为。在下棋的情况下,这意味着我们努力编写一个程序,运行一个原则上能找到完美走法的算法,但我们添加了一些功能,以便在可接受的时间范围内进行搜索。

Russell 本人提倡一种新的人工智能智能/理性品牌;他将这种品牌称为有限最优性。为了理解 Russell 的观点,首先我们跟随他引入一个区别:我们说行为体有两个组成部分:一个程序和一个运行该程序的机器。我们用 Agent(P,M)表示由程序 P 在机器 M 上运行的行为体函数。现在,让 P(M)表示所有可以在机器 M 上运行的程序 P 的集合。有限最优程序 Popt,M 则是:

Popt,M=argmaxP∈P(M)V(Agent(P,M),E,U)

你可以从任何数学理想化的角度理解这个方程。例如,机器可以被认为是图灵机减去指令(即,这里仅从架构上看待图灵机:具有被分成方块的磁带,可以在上面写入和擦除符号的读/写头,以及控制单元,该单元在任何时候都处于有限数量的状态之一),而程序可以被认为是图灵机模型中的指令(根据机器所处的状态,告诉机器写入和擦除符号)。因此,如果你被告知必须在 22 状态的图灵机的约束下“编程”,你可以在这些约束条件下寻找“最佳”程序。换句话说,你可以努力在 22 状态架构的限制范围内找到最优的程序。因此,罗素(1997)认为,人工智能是致力于在实施这些程序的机器上的时间和空间约束下创建最优程序的领域。[17]

读者可能已经注意到,在 Popt,M 的方程中,我们没有详细说明 E 和 U 以及方程(1)如何用于构建一个代理,如果环境 E 的类别非常普遍,或者真实环境 E 只是未知的。根据构建人工智能代理的任务,E 和 U 会有所不同。环境 E 和效用函数 U 的数学形式会因棋类游戏和 Jeopardy!之类的任务而大不相同。当然,如果我们设计一个全球智能的代理,而不仅仅是一个下棋的代理,我们可以只使用一对 E 和 U。如果我们正在构建一个普遍智能的代理,而不仅仅是一个擅长单一任务的代理,E 会是什么样子?E 将是一个模型,不仅仅是一个单一游戏或任务,而是由许多游戏、任务、情境、问题等组成的整个物理-社会-虚拟宇宙。这个项目(至少目前)是无望的困难,因为显然我们离拥有这样一个全面的万物理论模型还差得远。有关为这个问题提出的理论架构的进一步讨论,请参阅 AIXI 架构的补充说明。

值得一提的是,“什么是人工智能?”这个问题有一个不同的、更直接的答案。这个答案可以追溯到最初的达特茅斯会议的时代,由现代人工智能的创始人之一纽厄尔(1973 年)等人提出(回想一下他参加了 1956 年的会议);它是:

人工智能是致力于构建具有智能的人工制品的领域,其中“智能”通过智力测试(如韦氏成人智力量表)和其他智力能力测试(包括机械能力、创造力等测试)来操作化。

上述定义可以被视为充分指定了 Russell 和 Norvig 四个可能目标的具体版本。虽然现在很少有人意识到这一点,但这个答案曾经被认真对待过一段时间,并且实际上是人工智能历史上最著名的程序之一:Evans(1968)的 ANALOGY 程序,该程序解决了许多智力测试中出现的几何类比问题。Bringsjord 和 Schimanski(2003)试图严格定义这种被遗忘的人工智能形式(他们称之为心理测量人工智能),并从 Newell 和 Evans 的时代中复活它 [参见例如(Bringsjord 2011)]。目前已经在进行的尝试中,已经进行了相当大的私人投资,现在被称为 Aristo 项目,旨在构建一个“数字亚里士多德”,即一台能够在美国高中生所面对的 AP 考试等标准化测试中表现出色的机器(Friedland 等人,2004)。在这个方向上,Allen 人工智能研究所的研究人员继续进行着活跃的工作 [18]。此外,西北大学的研究人员还在人工智能和机械能力测试之间建立了联系(Klenk 等人,2005)。

最后,与任何学科一样,要真正了解这门学科需要你至少在某种程度上深入研究和实践,或者至少深入阅读。二十年前,这样的深入研究还是相当容易的。如今,由于构成人工智能的内容已经迅速增长,这种深入研究(或者至少是之后的深入学习)变得更加具有挑战性。

3. 人工智能的方法

有许多种“划分”人工智能的方式。迄今为止,总结该领域最谨慎和最有成效的方法是再次参考 AIMA 文本,因为它对该领域进行了全面的概述。

3.1 智能体连续体

正如 Russell 和 Norvig(2009)在 AIMA 的前言中告诉我们的那样:

主要的统一主题是智能体的概念。我们将人工智能定义为研究从环境中接收感知并执行动作的代理。每个这样的代理实现了一个将感知序列映射到动作的函数,并且我们涵盖了表示这些函数的不同方式...(Russell&Norvig 2009,vii)

基本的图像如下所示:

智能体的印象概述

AIMA 的内容基本上源自对这个图像的具体阐述;也就是说,上述图像对应于智能体实现的整体功能的不同表示方式。并且从最弱的智能体逐渐发展到更强大的智能体。下图展示了本书早期讨论的一种简单智能体的高级视图。(尽管简单,这种智能体对应于 Rodney Brooks 于 1991 年设计和实现的无表示智能体的架构。)

  • 一个简单的反射型智能体*

随着书籍的进展,智能体变得越来越复杂,它们所代表的功能的实现因此从当前人工智能能够提供的更多内容中汲取。下图概述了一个比简单反射型智能体更聪明的智能体。这个更聪明的智能体具有内部建模外部世界的能力,因此不仅仅受限于当前可以直接感知到的内容。

一个更复杂的反射型智能体

《AIMA》分为七个部分。当读者阅读这些部分时,她将会了解到每个部分讨论的智能体所具备的能力。第一部分是对基于智能体的视角的介绍。第二部分关注的是在明确定义的环境中,给予智能体能够预先思考几步的能力。这里的例子包括能够成功玩完全信息游戏(如国际象棋)的智能体。第三部分涉及具有陈述性知识并能够以大多数哲学家和逻辑学家熟悉的方式进行推理的智能体(例如,基于知识的智能体推断出应采取哪些行动来实现其目标)。本书的第四部分通过以概率方式进行推理,为智能体处理不确定性提供了能力。在第五部分,智能体具备了学习的能力。下图显示了学习智能体的整体结构。

  • 一个学习智能体*

代理人最终获得的一组特权使他们能够进行沟通。这些特权在第六部分中进行了解释。

耐心地跟随越来越聪明的代理人的整个进展的哲学家们无疑会在到达第七部分的末尾时问,是否有什么遗漏。总体上,我们是否得到足够的东西来构建一个人工智能,还是只有足够的东西来构建一个简单的动物?这个问题隐含在 Charniak 和 McDermott(1985)的以下陈述中:

人工智能的最终目标(我们离实现还很遥远)是构建一个人,或者更加谦虚地说,一个动物。(Charniak&McDermott 1985,7)

Russell&Norvig 在 AIMA 的第 27 章“人工智能:现在和未来”中,至少在某种程度上考虑了这个问题,这值得称赞。[] 他们这样做是通过考虑一些迄今为止尚未满足的人工智能挑战来实现的。其中一个挑战由 R&N 描述如下:

[机器学习在高于输入词汇的抽象层面上构建新表示的重要问题上几乎没有取得进展。例如,在计算机视觉中,如果代理强制从像素作为输入表示开始工作,学习诸如教室和餐厅之类的复杂概念将变得不必要困难;相反,代理需要首先能够形成中间概念,例如桌子和托盘,而无需明确的人类监督。类似的概念适用于学习行为:在许多计划中,喝茶是一个非常重要的高级步骤,但它如何进入最初只包含更简单的动作(如举手和吞咽)的动作库中呢?也许这将包括深度信念网络-具有多层隐藏变量的贝叶斯网络,如 Hinton 等人(2006)、Hawkins 和 Blakeslee(2004)以及 Bengio 和 LeCun(2007)的工作。...除非我们理解这些问题,否则我们将面临一个艰巨的任务,即手工构建大型常识知识库,而这种方法迄今为止并不成功。(Russell&Norvig 2009,第 27.1 章)

虽然在解决这个挑战方面已经取得了一些进展(以深度学习或表示学习的形式),但这个具体的挑战实际上只是人工智能必须最终设法攀登的一系列令人眼花缭乱的高山之前的一个山脚。其中一个山脉,简单地说,就是阅读。[21] 尽管如前所述,AIMA 的第五部分致力于机器学习,但就目前而言,人工智能在通过阅读进行学习的机械化方面几乎没有任何进展。然而,当你考虑一下,阅读可能是你在这个阶段学习的主要方式。想一想你此刻正在做什么。很有可能你正在阅读这个句子,因为之前你设定了学习人工智能领域的目标。然而,AIMA 第四部分提供的学习的形式模型(这些模型是人工智能中所使用的全部模型)不能应用于通过阅读进行学习。[22] 这些模型都从基于函数的学习观点开始。根据这个观点,学习几乎总是基于一组受限制的配对 ⟨x1,f(x1)⟩,⟨x2,f(x2)⟩,…,⟨xn,f(xn)⟩ 来产生一个基础函数 f。

{⟨x1,f(x1)⟩,⟨x2,f(x2)⟩,…,⟨xn,f(xn)⟩}.

例如,考虑接收由 1、2、3、4 和 5 组成的输入,以及相应的范围值 1、4、9、16 和 25;目标是“学习”从自然数到自然数的底层映射。在这种情况下,假设底层函数是 n2,并且您确实“学会”了它。虽然这种狭窄的学习模型可以应用于许多过程,但阅读过程不是其中之一。通过阅读学习不能(至少在可预见的未来)被建模为推测出产生参数-值对的函数。相反,只有当您的知识以正确的方式增加,并且该知识使您能够产生行为以确认对所讨论的主题领域的充分掌握时,您对人工智能的阅读才能产生回报。这种行为可以从正确回答和证明有关人工智能的测试问题,到产生强大而有说服力的演示或论文,以显示您的成就。

有两点值得注意关于机器阅读。首先,可能并不清楚对所有读者来说,阅读是智能的核心能力。这种核心性源于智能需要广博的知识。我们没有其他办法将系统性知识输入系统,除了从文本中获取,无论是网络上的文本,还是图书馆、报纸等的文本。你甚至可以说,人工智能的一个大问题是机器相对于人类来说真的不知道太多。这只能是因为人类阅读(或听:不识字的人可以听到文本被说出来并通过这种方式学习)。要么机器通过人类手动编码和插入知识来获得知识,要么通过阅读和听力。这些都是事实。(当然,我们暂且不谈超自然的技术。有趣的是,图灵似乎并没有:他似乎认为超感官知觉应该与心智和机器的能力讨论在一起。参见图灵,1950 年。)[23]

现在是第二点。能够阅读的人类无一例外地也学会了一种语言,并且学习语言一直以来都是按照上面概述的基于功能的方法进行建模的(Osherson 等,1986)。然而,这并不意味着一个能够阅读的人工智能代理,至少在很大程度上,必须真正学会一种自然语言。人工智能首要关注的是工程计算工件,使其能够通过某种测试(是的,有时这个测试来自人类领域),而不是这些工件是否以与人类情况相匹配的方式处理信息。在设计一台能够阅读的机器时,是否需要赋予该机器人类水平的语言能力可能是必要的,也可能不是。这个问题是经验性的,随着时间的推移和工程的进行,我们无疑会看到这个问题得到解决。

人工智能面临的另外两个重大挑战是主观意识和创造力,然而,似乎这些巨大的挑战是该领域尚未完全应对的。对于许多心灵哲学家和神经科学家来说,心理现象在 AIMA 中根本没有提到。例如,AIMA 只是简单提及了意识,但主观意识是我们生活中最重要的事情 - 实际上,我们之所以希望继续生活,是因为我们希望继续享受某些类型的主观状态。此外,如果人类的思维是进化的产物,那么显然现象意识具有巨大的生存价值,并且对于一个打算具有至少与我们自己的大脑相匹配的第一批具有行为能力的生物的机器人来说,它将是极大的帮助(猎人采集者;参见 Pinker 1997)。当然,主观意识在认知心理学和计算认知建模的姐妹领域中也基本缺失。我们在下面的人工智能哲学部分讨论了其中一些挑战。有关认知科学的类似挑战的列表,请参阅认知科学条目的相关部分。[24]

对于一些读者来说,指出主观意识是人工智能尚未解决的一个重大挑战,可能至少看起来是有偏见的。这些读者可能认为,指出这个问题是通过一种独特的哲学视角来看待人工智能,而且是一种有争议的哲学立场。

但正如其文献所清楚表明的那样,人工智能通过观察动物和人类,并从中挑选出卓越的心智能力,然后看看这些能力是否可以被机械化来衡量自己。可以说,对人类最重要的能力(体验能力)在大多数人工智能研究者的目标清单上根本找不到。这可能有一个很好的理由(也许是因为没有形式主义在手),但不可否认的是,根据人工智能如何衡量自己的情况,这是令人担忧的。

至于创造力,在 AIMA 中找不到我们最称赞的人类思维能力是非常引人注目的。就像在(Charniak&McDermott 1985)中无法在索引中找到“神经”一样,在 AIMA 的索引中也找不到“创造力”。这特别奇怪,因为许多人工智能研究者实际上已经在创造力上进行了研究(尤其是那些来自哲学领域的人;例如,Boden 1994,Bringsjord&Ferrucci 2000)。

尽管重点是放在 AIMA 上,但也可以使用其它类似的人工智能教材。以 Nils Nilsson 的《人工智能:一种新综合》为例。与 AIMA 的情况一样,这里的一切都围绕着从最简单的代理人(在 Nilsson 的案例中是反应式代理人)逐渐发展到具有越来越多区分人的那些能力的代理人。积极的读者可以验证 Nilsson 的书和 AIMA 的主要部分之间存在着惊人的相似之处。此外,Nilsson 像 Russell 和 Norvig 一样,忽略了现象意识、阅读和创造力。这三者甚至没有被提及。同样,Luger(2008)的最新综合人工智能教材也遵循相同的模式。

一个总结本节的最后一点。认为 AI 教材的结构具有一定的必然性似乎是相当合理的,而表面上的原因可能相当有趣。在个人交谈中,Jim Hendler 是一位著名的 AI 研究者,他是语义 Web(Berners-Lee,Hendler,Lassila 2001)背后的主要创新者之一,他正在开发中的“AI-ready”版本的万维网。他说,当教授《人工智能导论》时,这种必然性可以很容易地展示出来;下面是具体的方法。首先询问学生们对 AI 的理解是什么。不可避免的是,许多学生会自愿表示 AI 是致力于构建具有智能的人工生物的领域。接下来,询问智能生物的例子。学生们总是给出一系列例子:简单的多细胞生物、昆虫、啮齿动物、低级哺乳动物、高级哺乳动物(最终是大猩猩),最后是人类。当要求学生描述他们所引用的生物之间的区别时,他们最终实际上描述了从简单的行为体到具有我们(例如)交流能力的行为体的进展。这种进展构成了每本综合性 AI 教材的骨架。为什么会发生这种情况?答案似乎很明确:这是因为我们无法抵制将 AI 构想为我们熟悉的现存生物的能力。至少目前来说,人类和只享有部分人性的生物是 AI 的衡量标准。[25]

3.2 基于逻辑的人工智能:一些手术要点

基于经典演绎逻辑的推理是单调的;也就是说,如果 Φ⊢ϕ,那么对于所有的 ψ,Φ∪{ψ}⊢ϕ。常识推理不是单调的。虽然你可能基于推理相信你的房子仍然屹立不倒,但如果你在工作时看到电脑屏幕上显示一场巨大的龙卷风正在你房子所在的地方移动,你会放弃这种信念。新信息的添加会导致先前的推断失败。在已成为人工智能基础的更简单的例子中,如果我告诉你 Tweety 是一只鸟,你会推断 Tweety 会飞,但如果我随后告诉你 Tweety 是一只企鹅,推断就会消失,这也是应该的。非单调(或可推翻)逻辑包括旨在捕捉这些例子背后机制的形式化方法。请参阅关于逻辑和人工智能的单独条目,该条目侧重于非单调推理以及关于时间和变化的推理。它还提供了基于逻辑的人工智能早期历史的概述,清楚地说明了那些奠定了这一传统的人的贡献(例如,约翰·麦卡锡和帕特·海斯;请参阅他们的开创性论文,发表于 1969 年)。

逻辑 AI 的形式化和技术已经达到了令人印象深刻的成熟水平 - 以至于在各种学术和企业实验室中,这些形式化和技术的实现可以用于构建强大的现实世界软件。强烈建议对这些领域感兴趣的读者参考(Mueller 2006),该书提供了非单调推理(具体形式为限制)以及关于情境和事件演算中的时间和变化的综合覆盖。 (前者演算也由 Thomason 引入。在第二个演算中,包括时间点在内,还有其他内容。)(Mueller 2006)的另一个好处是使用的逻辑是多重排序的一阶逻辑(MSL),这种逻辑具有统一的能力,许多技术哲学家和逻辑学家(Manzano 1996)都会知道和欣赏。

现在我们转向 AI 中的另外三个重要主题。它们是:

  1. 在构建智能人工代理的尝试背景下的逻辑 AI 的总体方案。

  2. 通用逻辑和对互操作性的不断追求。

  3. 一种被称为编码下降的技术,可以使机器能够高效地推理知识,如果不进行编码下降,推理过程将导致瘫痪的低效率。

这三个方面按顺序进行介绍,从第一个开始。

在基于代理的方案下,可以在(Lenat 1983,Lenat&Guha 1990,Nilsson 1991,Bringsjord&Ferrucci 1998)中找到关于逻辑主义人工智能的详细解释。核心思想是智能代理以某种逻辑系统(例如,一阶逻辑)中的公式形式接收来自外部世界的感知,并根据这些感知和其知识库推断出应该执行哪些行动以实现代理的目标。(这当然是一种野蛮的简化。来自外部世界的信息被编码为公式,并且用于完成此任务的转换器可能是代理的组成部分。)

为了澄清一些事情,我们简要地考虑与任意逻辑系统 LX 相关的逻辑主义观点。通过适当的方式设置 X,我们可以得到一个特定的逻辑系统。一些例子:如果 X=I,那么我们就有了一个在 FOL 层次上的系统(遵循模型论的标准符号表示法;参见例如(Ebbinghaus 等,1984))。LII 是二阶逻辑,LωIω 是一个“小系统”的无穷逻辑(允许可数无穷的合取和析取)。这些逻辑系统都是外延的,但也有内涵的逻辑系统。例如,我们可以有与标准命题模态逻辑(Chellas,1980)中看到的逻辑系统相对应的逻辑系统。对于许多哲学家来说,一个可能性是命题 KT45,或者 LKT45。在每种情况下,所讨论的系统都包括一个相关的字母表,通过形式语法构造出良构公式,以及一个推理(或证明)理论,一个形式语义学,以及至少一些元理论结果(完备性、一致性等)。从标准符号出发,我们可以这样说,某个特定逻辑系统 LX 中的一组公式 ΦLX,可以与某个推理理论一起使用,推导出某个特定公式 ϕLX。(推理可以是演绎的、归纳的、诱导的等等。逻辑主义 AI 在推理方式上没有任何限制。)为了表明这样的情况成立,我们写 ΦLX⊢LXϕLX

当上下文中明确指的逻辑系统,或者我们不关心涉及的逻辑系统时,我们可以简单地写 Φ⊢ϕ

每个逻辑系统在其形式语义学中都包括用于表示该系统中公式所指向的世界的方式的对象。让这些方式用 WiLX 表示。当我们不关心涉及的逻辑系统时,我们可以简单地写 Wi。为了表明这样的方式对公式 ϕ 进行建模,我们写 Wi⊨ϕ

我们以自然的方式将其扩展到一组公式:Wi⊨Φ 表示 Φ 中的所有元素在 Wi 上都为真。现在,利用我们已经建立的简单机制,我们可以以广义的方式描述符合逻辑主义观点的智能体的生活。这种生活符合 AIMA 意义上支撑智能体的基本循环。

首先,我们假设人类设计师在研究世界后,使用特定逻辑系统的语言,给我们的智能体一个关于这个世界的初始信念集合 Δ0。在这样做的过程中,设计师使用这个世界的一个形式模型 W,并确保 W⊨Δ0。按照传统,我们将 Δ0 称为智能体的(起始)知识库。(鉴于我们谈论的是智能体的信念,这个术语被认为是奇特的,但它仍然存在。)接下来,智能体通过调整其知识库来产生一个新的知识库 Δ1。我们说调整是通过操作 A 来完成的;因此 A [Δ0]=Δ1。调整过程 A 如何工作?有很多可能性。不幸的是,许多人认为最简单的可能性(即 A [Δi] 等于可以从 Δi 中以某种基本方式推导出的所有公式的集合)耗尽了所有可能性。事实是,如上所示,调整可以通过任何推理方式进行——归纳、演绎和是的,与所使用的逻辑系统相对应的各种形式的演绎。出于现在的目的,我们不必仔细列举所有的选择。

当智能体行动以实现其目标时,循环继续进行。当然,行动可能会导致环境发生变化。此时,智能体感知环境,并将这个新信息 Γ1 纳入调整过程中,以便 A [Δ1∪Γ1]=Δ2。感知 ⇒ 调整 ⇒ 行动的循环继续产生我们智能体的生活 Δ0,Δ1,Δ2,Δ3,…, …。

这可能让你感到荒谬,将逻辑主义人工智能吹捧为复制所有认知的方法。在某种逻辑系统中对公式进行推理可能适用于计算捕捉高级任务,比如尝试解决数学问题(或为《斯坦福哲学百科全书》编写大纲),但这样的推理如何适用于像鹰在俯冲捕捉匆匆逃逸的猎物时所面临的任务呢?在人类领域中,运动员成功完成的任务似乎属于同一类别。肯定会有人宣称,一个外野手追逐飞球并不通过证明定理来计算如何完成一个扑救来挽救比赛!有两个极端简化的论据支持这种“逻辑主义的一切理论”方法来处理认知。第一个论据源于一个事实,即仅仅对一阶逻辑进行完整的证明演算可以模拟图灵级别的计算(第 11 章,Boolos 等人,2007 年)。第二个理由来自逻辑在数学和数学推理的基础理论中的作用。不仅数学的基础理论是以逻辑为基础的(Potter,2004 年),而且已经有成功的项目在机器验证普通非平凡定理方面取得了成果,例如仅在 Mizar 项目中就已经验证了大约 5 万个定理(Naumowicz 和 Kornilowicz,2009 年)。论证是,如果任何人工智能方法都可以用数学方式表达,那么它可以以逻辑主义的形式表达。

毋庸置疑,这样的声明已经被逻辑学家们仔细考虑过,超越了上述还原论的论证。例如,Rosenschein 和 Kaelbling(1986)描述了一种使用逻辑来指定有限状态机的方法。这些机器在“运行时”用于快速、反应性处理。在这种方法中,虽然有限状态机在传统意义上不包含逻辑,但它们是由逻辑和推理产生的。Amir 和 Maynard-Reid(1999, 2000, 2001)通过一阶定理证明演示了真实的机器人控制。实际上,您可以下载 2.0 版本的软件,使这种方法在办公环境中适用于 Nomad 200 移动机器人。当然,与洋基队的外野手经常展示的快速调整相比,与办公环境的协商相去甚远,但无疑,未来的机器是否能够通过快速推理来模仿这样的壮举是一个悬而未决的问题。这个问题之所以悬而未决,原因不仅仅是因为所有人都必须承认,一阶定理证明器的推理速度不断增加令人惊叹。(有关此增加的最新消息,请访问并监控 TPTP 网站。)目前没有任何已知的理由,说明这种软件工程不能继续产生速度增益,最终使人工生物能够通过纯粹的逻辑方式处理信息来接住一个飞球。

现在我们来谈谈与逻辑学人工智能相关的第二个话题,值得在此提及的是:通用逻辑和使用不同逻辑的基于逻辑的系统之间互操作性的迫切追求。这里只提供了一些简短的评论。想要了解更多的读者可以在摘要过程中提供的链接中进行探索。

一个标准化的方法是通过所谓的通用逻辑(CL)及其变体。 (CL 作为 ISO 标准发布-ISO 是国际标准化组织。)对逻辑感兴趣的哲学家和逻辑学家会发现 CL 非常有趣。从历史的角度来看,CL 的出现有趣的一点是,推动它的人正是帕特·海耶斯(Pat Hayes),正是这位海耶斯与麦卡锡合作在 1960 年代建立了逻辑主义人工智能。尽管海耶斯没有参加 1956 年的达特茅斯会议,但他无疑应被视为当代人工智能的创始人之一。关于 CL 的有趣之处之一是,至少在我们看来,它标志着逻辑、编程语言和环境融合的趋势。另一个逻辑/编程混合的系统是 Athena,它可以用作编程语言,同时也是一种 MSL 形式。Athena 基于称为指示性证明语言的形式系统(Arkoudas 2000)。

如何通过 CL 实现两个系统之间的互操作性?假设其中一个系统基于逻辑 L,另一个系统基于 L'。(为了简化说明,假设两个逻辑都是一阶逻辑。)这个想法是,一个理论 ΦL,即 L 中的一组公式,可以被翻译成 CL,产生 ΦCL,然后这个理论可以被翻译成 Φ'L。因此,CL 成为一种中间语言。注意,在 L 中什么样的良构公式可能与 L'中的不同。这两个逻辑也可能有不同的证明理论。例如,L 中的推理可能基于归结,而 L'中的推理可能是自然演绎的。最后,符号集将是不同的。尽管存在这些差异,通过翻译,可以在翻译过程中产生所需的行为。无论如何,这是希望。这里的技术挑战是巨大的,但是联邦资金越来越多地用于解决互操作性问题。

现在是本节的第三个主题:所谓的编码降低。这个技术很容易理解。假设我们手头有一组一阶公理 Φ。众所周知,对于任意公式 ϕ,判断它是否可以从 Φ 中推导出来是图灵不可判定的:在一般情况下,没有图灵机或等价物可以正确地返回“是”或“否”。然而,如果所讨论的领域是有限的,我们可以将这个问题编码降低到命题演算中。所有事物都具有 F 的断言当然等价于断言 Fa,Fb,Fc,只要领域只包含这三个对象。因此,一阶量化公式在命题演算中变成了一个合取式。确定这样的合取式是否可以从在命题演算中表示的公理中推导出来是图灵可判定的,并且在某些情况下,可以在命题演算中非常快速地进行检查;非常快速。对于对编码降低到命题演算感兴趣的读者,可以参考 Bart Selman 最近由 DARPA 赞助的工作。请注意,编码降低的目标不一定是命题演算。因为机器在内涵逻辑中找到证明比在直接的一阶逻辑中更困难,所以通常将前者编码降低到后者是很方便的。例如,命题模态逻辑可以在多重排序逻辑(FOL 的一种变体)中进行编码;参见(Arkoudas&Bringsjord 2005)。这样的编码降低的突出应用可以在一组称为描述逻辑的系统中找到,这些逻辑比一阶逻辑更具表达能力,但比命题逻辑更具表达能力(Baader 等人,2003)。描述逻辑用于推理给定领域中的本体,并且已经成功地应用于生物医学领域(Smith 等人,2007)。

3.3 非逻辑主义人工智能:摘要

定义非逻辑主义人工智能很容易通过否定来进行:一种构建智能体的方法,拒绝逻辑主义人工智能的特征。这种捷径意味着,由非逻辑主义人工智能研究人员和开发人员设计的智能体,无论这些智能体的优点如何,都不能说知道 ϕ;的原因很简单,通过否定,非逻辑主义范式甚至没有一个候选的陈述命题是 ϕ; 的。然而,这并不是一种特别有启发性的定义非符号主义人工智能的方式。更有成效的方法是说,非符号主义人工智能是基于除逻辑系统之外的特定形式主义进行的人工智能,并列举这些形式主义。当然,结果将是这些形式主义无法包含正常意义上的知识。(众所周知,在哲学中,正常意义是指如果 p 被知道,p 是一个陈述性陈述。)

从除逻辑系统以外的形式主义的角度来看,非逻辑主义人工智能可以分为符号但非逻辑主义方法和连接主义/神经计算方法。(基于符号的、声明性结构进行的人工智能,为了可读性和易用性,研究人员不直接将其视为形式逻辑的要素,不计入其中。这类方法包括传统的语义网络、Schank(1972)的概念依赖方案、基于框架的方案和其他类似方案。)前者方法如今是概率性的,并且基于下面介绍的形式主义(贝叶斯网络)。后者方法基于我们已经提到的可以广义地称为“神经计算”的形式主义。鉴于空间限制,本文只描述了这一类别中的一个形式主义(并且简要介绍):前述的人工神经网络。[30] 虽然人工神经网络在适当的架构下可以用于任意计算,但几乎只用于构建学习系统。

神经网络由用于表示神经元的单元或节点组成,这些单元或节点通过用于表示树突的连接相连,每个连接都有一个数值权重。

人工神经网络中的“神经元”(来自 AIMA3e)

通常假设一些单元与外部环境共生工作;这些单元形成输入单元和输出单元的集合。每个单元都有一个当前激活水平,即其输出,并且可以根据其输入和这些输入上的权重计算出下一个时刻的激活水平。这个计算完全是局部的:一个单元只考虑网络中的邻居。这个局部计算分为两个阶段。首先,输入函数 ini 给出了单元输入值的加权和,即输入激活的加权和:

ini=∑jWjiaj

在第二阶段,激活函数 g 将第一阶段的输入作为参数,并生成输出或激活水平 ai:

人工智能=g(初始)=g(∑jWjiaj)

一个常见(并且公认为基本的)激活函数选择(通常控制给定网络中的所有单元)是阶跃函数,通常具有阈值 t,当输入大于 t 时输出 1,否则输出 0。这在某种程度上被认为是“类似于大脑”,因为 1 表示神经元通过轴突发射脉冲,0 表示没有发射。下图显示了一个简单的三层神经网络。

一个简单的三层人工神经网络(来自 AIMA3e)

正如你所想象的那样,有许多不同类型的神经网络。主要区别在于前馈网络和循环网络。在前馈网络中,如上图所示,链接以单向传递信息,没有循环;而循环网络允许循环回溯,并且可能变得相当复杂。有关更详细的介绍,请参阅《神经网络补充》。

神经网络在本质上受到一个困扰,即虽然它们简单且具有理论上高效的学习算法,但当它们是多层的且足够表达非线性函数时,在实践中很难训练。这在 2000 年代中期发生了变化,因为出现了更好地利用先进硬件的方法(Rajat 等人,2009 年)。用于训练多层神经网络的反向传播方法可以转化为对大量数字进行重复简单算术运算的序列。计算硬件的一般趋势是偏向于能够执行大量不太相互依赖的简单操作,而不是少量复杂而复杂的操作。

Neural networks were fundamentally plagued by the fact that while they are simple and have theoretically efficient learning algorithms, when they are multi-layered and thus sufficiently expressive to represent non-linear functions, they were very hard to train in practice. This changed in the mid 2000s with the advent of methods that exploit state-of-the-art hardware better (Rajat et al. 2009). The backpropagation method for training multi-layered neural networks can be translated into a sequence of repeated simple arithmetic operations on a large set of numbers. The general trend in computing hardware has favored algorithms that are able to do a large of number of simple operations that are not that dependent on each other, versus a small of number of complex and intricate operations.

另一个最近的关键观察是,深度神经网络可以首先在无监督阶段进行预训练,即它们只是被提供数据,而没有任何数据的标签。每个隐藏层被强制表示下一层的输出。这种训练的结果是一系列层,它们以逐渐抽象的方式表示输入域。例如,如果我们用人脸图像对网络进行预训练,我们将得到一个第一层,它擅长检测图像中的边缘,一个第二层,它可以将边缘组合成眼睛、鼻子等面部特征,一个第三层,它对特征组合做出响应,依此类推(LeCun 等人,2015 年)。

或许在其他统计学习形式和方法的背景下,教授学生有关神经网络的最佳技术是专注于一个特定的问题,最好是一个似乎不太适合使用逻辑技术解决的问题。任务是寻求使用所有可用的技术来设计解决方案。一个很好的问题是手写识别(这也涉及到丰富的哲学维度;参见 Hofstadter 和 McGraw,1995 年)。例如,考虑这样一个问题,即在给定一个手写数字 d 作为输入的情况下,分配正确的数字,从 0 到 9。因为研究人员可以获得一个包含 60,000 个带标签数字的数据库(来自国家科学技术研究所),这个问题已经发展成为一个用于比较学习算法的基准问题。根据 Benenson(2016 年)最近的排名,神经网络目前是解决这个问题的最佳方法。

对于对人工智能(和计算认知科学)感兴趣的读者,建议探索 Rick Granger(2004a,2004b)及其脑工程实验室和 W.H. Neukom 计算科学研究所的研究工作。Granger 和他的合作者采用的方法(直接建模脑电路)与最初于 1956 年的会议上开始的“干燥”的逻辑主义人工智能的方法形成了鲜明对比。对于那些对神经网络的计算属性感兴趣的人,Hornik 等人(1989)研究了神经网络的一般表示能力,独立于学习。

3.4 超越范式冲突的人工智能

在这一点上,读者已经接触到了人工智能中的主要形式化方法,并且可能想知道如何桥接它们的异质方法。在人工智能领域是否有这样的研究和发展?是的。从工程角度来看,这样的工作具有不可抗拒的好处。现在人们认识到,为了构建能够完成任务的应用程序,应该从一个工具箱中选择逻辑主义、概率/贝叶斯和神经计算技术。鉴于最初的自上而下的逻辑主义范式仍然活跃并蓬勃发展(例如,参见 Brachman&Levesque 2004,Mueller 2006),并且正如前面提到的,贝叶斯和神经计算方法的复兴也使得这两个范式在坚实而富饶的基础上站稳了脚跟,人工智能现在以这个基本三元组为武器向前发展,几乎可以肯定的是,应用程序(例如机器人)将通过吸取这三个元素的要素来进行工程化。沃森的 DeepQA 架构就是一个利用多种范式的工程系统的最新例子。有关详细讨论,请参见

人工智能的深度 QA 架构的补充。

Google DeepMind 的 AlphaGo 是另一个多范式系统的例子,尽管形式比 Watson 要窄得多。在诸如围棋或国际象棋等游戏中,中心算法问题是搜索一系列庞大的有效移动。对于大多数非平凡的游戏来说,这是不可行的。蒙特卡洛树搜索(MCTS)算法通过以统计方式搜索大量有效移动的空间来克服这个障碍(Browne 等,2012 年)。虽然 MCTS 是 AlpaGo 的核心算法,但还有两个神经网络帮助评估游戏中的状态,并帮助模拟专家对手的玩法(Silver 等,2016 年)。值得注意的是,MCTS 几乎是所有一般游戏中获胜提交的背后(Finnsson,2012 年)。

然而,关于人工智能主要范式的深度理论整合呢?目前,这样的整合只是未来的可能性,但读者可以参考一些努力追求这种整合的研究。例如:Sun(1994,2002)一直致力于证明,表面上是符号性的人类认知(例如,分析传统中的专业哲学,明确处理符号化的论证和定义)可以从神经计算性的认知中产生。Koller(1997)研究了概率论和逻辑之间的结合。而且,总的来说,所谓的人类级别的人工智能的最近到来是由寻求真正整合上述三个范式的理论家所引领的(例如,Cassimatis,2006 年)。

最后,我们注意到像 Soar(Laird 2012)和 PolyScheme(Cassimatis 2006)这样的认知架构是人工智能不同领域融合的另一个领域。例如,一个致力于构建人级人工智能的努力是 Companions 项目(Forbus 和 Hinrichs 2006)。Companions 是长寿系统,努力成为与人类合作的人级人工智能系统。Companions 架构试图在一个统一的系统中解决多个人工智能问题,如推理和学习、互动性和长寿性。

4. 人工智能的爆炸性增长

正如我们上面所提到的,人工智能的工作在过去几十年里迅速增长。现在我们稍微了解了构成人工智能的内容,我们快速看一下人工智能的爆炸性增长。

首先,需要澄清一点。我们所说的增长并不是与为某个人工智能子领域提供的资金数量相关的肤浅类型。这种情况在所有领域都经常发生,并且可以通过完全政治和财务变化来触发,以促进某些领域的增长,减少其他领域的发展。同样,我们所说的增长也与围绕人工智能(或其子领域)的工业活动的数量无关;这种增长也可能受到完全超出人工智能科学广度扩展的力量的驱动。[31] 相反,我们所说的是深度内容的爆炸:某人打算熟悉该领域所需了解的新材料。与其他领域相比,这种爆炸的规模可能是前所未有的。(尽管可能值得注意的是,哲学领域的类似增长将以为推理开发全新的形式主义为标志,这一事实反映在长期存在的哲学教材如 Copi 的《逻辑导论》(2004 年)被大幅重写和扩大以包括这些形式主义,而不是固守基本不变的核心形式主义,并在多年间通过边缘的渐进改进进行修订。)但它确实看起来非常引人注目,并且值得在这里注意,即使只是因为人工智能的近期发展在很大程度上将围绕着这些新内容是否构成了新的长期研究和开发的基础,否则将无法获得。[32]

人工智能在各种工件和应用中的使用也出现了爆炸式增长。虽然我们还远未能构建出具备人类能力或根据上述 Russell/Hutter 定义在所有情景下都能理性行事的机器,但源自人工智能研究的算法现在广泛应用于各个领域的许多任务中。

4.1 机器学习中的绽放

人工智能在应用领域的巨大增长主要得益于机器学习子领域中新算法的发明。机器学习关注构建系统,在给定任务的理想性能示例或通过重复经验改善任务性能时提高其性能。机器学习算法已被应用于语音识别系统、垃圾邮件过滤器、在线欺诈检测系统、产品推荐系统等。目前机器学习的最新技术可以分为三个领域(Murphy 2013,Alpaydin 2014):

  1. 监督学习:一种学习形式,计算机试图通过给定示例学习函数 f,训练数据 T,以及其在域中各个点的值 T={⟨x1,f(x1)⟩,⟨x2,f(x2)⟩,…,⟨xn,f(xn)⟩}。一个示例任务是尝试用人名标记人脸图像。监督学习中的监督以函数 f(x)在域的某个部分中各个点 x 的值的形式出现。通常以一组固定的输入和输出对的形式给出。设 h 为“学习函数”。监督学习的目标是使 h 与真实函数 f 在相同的域上尽可能匹配。通常使用错误函数来定义错误,例如,error=∑x∈Tδ(f(x)−h(x)),其中 T 为训练数据。还有其他形式的监督和学习目标是可能的。例如,在主动学习中,学习算法可以请求任意输入的函数值。监督学习主导了机器学习领域,并且几乎在上述所有实际应用中都得到了应用。

  2. 无监督学习:在这里,机器试图在给定一些原始数据{x1,x2,...,xn}时找到有用的知识或信息。与输入相关联的函数不需要学习。这个想法是机器帮助揭示可能隐藏在数据中的有趣模式或信息。无监督学习的一个用途是数据挖掘,其中搜索大量数据以寻找有趣的信息。PageRank 是 Google 搜索引擎使用的最早的算法之一,可以被认为是一个无监督学习系统,它在没有任何人类监督的情况下对页面进行排名(第 14.10 章,Hastie 等人,2009 年)。

  3. 强化学习:在这里,机器被释放到一个环境中,它不断地行动和感知(类似于上面的 Russell/Hutter 观点),只偶尔通过奖励或惩罚的形式接收到对其行为的反馈。机器必须从这个反馈中学会合理地行为。强化学习的一个应用是构建能够玩电脑游戏的代理程序。这里的目标是构建能够将游戏的感知数据在每个时间点映射到一个能够帮助赢得游戏或最大化人类玩家对游戏的享受的动作的代理程序。在大多数游戏中,我们只在游戏结束时或游戏中的不频繁时间间隔内知道我们的表现如何(例如,我们觉得自己正在赢的国际象棋游戏可能在最后迅速转向我们)。在监督学习中,训练数据具有理想的输入-输出对。这种形式的学习不适用于构建需要在一段时间内运行并且不仅仅根据一个动作而是一系列动作及其对环境的影响来判断的代理程序。强化学习领域通过各种方法来解决这个问题。虽然有点过时,但 Sutton 和 Barto(1998 年)对该领域进行了全面介绍。

除了在传统上是人工智能领域的应用之外,机器学习算法也被广泛应用于科学研究的各个阶段。例如,机器学习技术现在常常被用来分析粒子加速器产生的大量数据。例如,欧洲核子研究组织每秒产生的数据量达到了 1PB(1015 字节),而源自人工智能的统计算法被用来过滤和分析这些数据。粒子加速器被用于物理学中的基础实验研究,以探索我们物质宇宙的结构。它们通过将更大的粒子碰撞在一起来产生更细小的粒子。并非所有这样的事件都是有意义的。机器学习方法已被用来选择进一步分析的事件(Whiteson 和 Whiteson 2009 以及 Baldi 等人 2014)。最近,欧洲核子研究组织的研究人员发起了一场机器学习竞赛,以帮助分析希格斯玻色子。这个挑战的目标是开发算法,根据欧洲核子研究组织的大型强子对撞机的数据,将有意义的事件与背景噪音分离开来。

在过去的几十年中,出现了一种数据爆炸,这些数据没有任何明确的语义附加在上面。这些数据由人类和机器生成。大部分这些数据不容易被机器处理;例如,图像、文本、视频(与知识库或数据库中精心策划的数据相对)。这导致了一个庞大的行业,应用人工智能技术从如此庞大的数据中获取可用信息。将从人工智能派生的技术应用于大量数据的领域被称为“数据挖掘”,“大数据”,“分析”等等。这个领域太广泛了,即使在本文中也无法涵盖。但我们注意到,对于什么构成“大数据”问题并没有完全一致的意见。Madden(2012)提出的一个定义是,大数据与传统的机器可处理数据不同,它要么太大(对于大多数现有的最先进硬件来说),要么太快(以快速速率生成,例如在线电子邮件交易),要么太难。在太难的部分,人工智能技术非常有效。虽然这个领域非常多样化,但我们在本文后面将使用 Watson 系统作为与人工智能相关的示例。正如我们后面将看到的,尽管这个新的爆炸大部分是由学习驱动的,但它并不完全局限于学习。学习算法的这种繁荣得到了神经计算技术和概率技术的复兴的支持。

4.2 神经计算技术的复兴

(Charniak & McDermott 1985)的一个显著特点是:作者们说人工智能的核心原则是“大脑所做的事情可以被视为某种计算”(第 6 页)。然而,在这本书中,几乎没有讨论类似大脑计算的内容。实际上,你会徒劳地在索引中寻找“神经”及其变体的术语。请注意,作者们并不应对此负责。人工智能的很大一部分增长来自于某种意义上基于大脑而非逻辑的形式主义、工具和技术。一篇传达了神经计算的重要性和成熟性的论文是(Litt 等人,2006 年)。(增长也来自于概率技术的回归,这些技术在 70 年代中期和 80 年代曾经衰退。稍后在下一个“复苏”部分会详细讨论。)

一类非逻辑主义形式主义非常突出,它明确向大脑方向致敬:即人工神经网络(或者通常被称为神经网络,甚至只是神经网)。(神经网络的结构和最新发展在上面已经讨论过了)。因为 Minsky 和 Pappert(1969 年)的感知机使得许多人(包括具体来说,许多人工智能研究和开发的赞助者)得出结论,神经网络没有足够的信息处理能力来模拟人类认知,所以这种形式主义几乎被人工智能界普遍抛弃了。然而,Minsky 和 Pappert 只考虑了非常有限的神经网络。连接主义,即智能不在于符号处理,而是在某种程度上类似于大脑(至少在细胞水平上)的非符号处理,特别是通过人工神经网络近似实现,于 20 世纪 80 年代初因更复杂的这类网络形式的出现而强势回归,很快情况就变成了(用约翰·麦卡锡引入的一个隐喻来形容)两匹马在竞赛中建造真正智能的代理体。

如果必须选择一个复兴连接主义的年份,那肯定是 1986 年,《并行分布处理》(Rumelhart&McClelland 1986)出版的那一年。连接主义的复兴主要得益于神经网络上的反向传播算法,在 AIMA 的第 20 章中有很好的介绍。符号主义者和连接主义者之间的竞争引发了大量的文献争论(例如,Smolensky 1988,Bringsjord 1991),一些人工智能工程师明确支持一种拒绝知识表示和推理的方法论。例如,Rodney Brooks 就是这样一位工程师;他写了著名的《无需表示的智能》(1991),而他上面提到的 Cog 项目可以说是一种有意识地非逻辑主义方法的体现。然而,越来越多从事构建复杂系统的人发现,逻辑主义和更多的神经计算技术都是必需的(Wermter&Sun 2001)。此外,如今的神经计算范式将连接主义仅作为其中的一部分,因为一些致力于通过工程化脑部计算来构建智能系统的人,采用了与神经网络方法不同的方法(例如,Granger 2004a,2004b)。

在机器学习中,神经计算技术最近出现了另一次复苏。机器学习的工作方式是,在给定一个问题,比如识别手写数字{0,1,…,9}或人脸时,从表示数字或人脸图像的 2D 矩阵中,机器学习专家或领域专家会构建一个特征向量表示函数来完成任务。这个函数将输入转换为一种格式,试图丢弃输入中的无关信息,只保留对任务有用的信息。经过转换的输入被称为特征。对于识别人脸来说,无关信息可能是场景中的光照量,而相关信息可能是关于面部特征的信息。然后,机器会接收一系列由特征表示的输入以及这些输入的理想或真实输出值。这将学习挑战从必须从示例中学习函数 f 的挑战转变为必须从可能更容易的数据中学习的挑战。这里的函数 r 是计算输入的特征向量表示的函数。形式上,假设 f 是函数 g 和 r 的组合。也就是说,对于任何输入 x,f(x)=g(r(x))。这用 f=g∘r 表示。对于任何输入,首先计算特征,然后应用函数 g。如果特征表示 r 由领域专家提供,学习问题将变得更简单,特征表示的难度取决于任务的难度。在极端情况下,特征向量可能隐藏在输入中容易提取的答案形式,而在另一个极端情况下,特征表示可能只是纯粹的输入。

对于非平凡的问题,选择正确的表示方式至关重要。例如,人工智能领域的一个重大变革是由于明斯基和帕佩特(1969 年)的演示,感知机无法学习二进制的异或函数,但如果我们有正确的表示方式,感知机可以学习这个函数。特征工程已经成为机器学习中最费时的任务之一,以至于被认为是机器学习中的“黑魔法”之一。学习方法的另一个重要的黑魔法是选择正确的参数。这些黑魔法需要丰富的人类专业知识和经验,而这往往很难在没有充分学徒期的情况下获得(多明戈斯,2012 年)。另一个更大的问题是,特征工程的任务只是在新的外观下进行知识表示。

鉴于这种情况,最近出现了一种自动学习特征表示函数 r 的方法的复兴;这些方法有可能绕过传统上所需的大部分人力劳动。这些方法主要基于现在被称为深度神经网络的方法。这些网络只是具有两个或更多隐藏层的神经网络。这些网络允许我们使用一个或多个隐藏层来学习特征函数 r。从原始感官数据中学习而不需要太多基于手工特征工程的学习方式现在有了自己的术语:深度学习。一个通用而简洁的定义(Bengio 等人,2015 年)是:

深度学习可以被安全地视为涉及到比传统机器学习更多的学习函数或学习概念组合的模型的研究。(Bengio 等人,2015 年,第 1 章)

虽然这个想法已经存在了几十年,但最近的创新使得更高效的学习技术变得更加可行(Bengio 等人,2013 年)。深度学习方法最近在图像识别(给定包含各种对象的图像,从给定的标签集中标记对象)、语音识别(从音频输入生成文本表示)和粒子加速器数据分析(LeCun 等人,2015 年)方面取得了最先进的结果。尽管在这些任务中取得了令人印象深刻的结果,但仍存在一些未解决的次要和重大问题。一个次要问题是仍然需要重要的人类专业知识来选择架构并设置正确的参数;一个重大问题是所谓的对抗输入的存在,这些输入对人类来说与正常输入无法区分,但是通过特殊的方式计算,使得神经网络将它们视为与训练数据中的类似输入不同。这种对抗输入的存在,在训练数据中保持稳定,引发了对基准测试结果如何转化为具有感知噪声的真实系统性能的质疑(Szegedy 等人,2014 年)。

4.3 概率技术的复兴

人工智能爆炸性增长的第二个维度是概率方法的流行,这些方法并非神经计算性质,而是为了在面对不确定性时形式化和机械化一种非逻辑主义推理形式。有趣的是,尤金·查尼亚克本人可以被安全地认为是明确、预谋地从逻辑转向统计技术的主要倡导者之一。他的专业领域是自然语言处理,而他 1985 年的入门教材准确地反映了他当时的解析方法(正如我们所见,编写计算机程序,以英文文本作为输入,最终推断出用 FOL 表达的含义),但这种方法被纯粹的统计方法所取代(查尼亚克,1993 年)。在 AI@50 会议上,查尼亚克大胆宣称,在一个寓意深长的演讲中,题为“为什么自然语言处理现在是统计自然语言处理”,逻辑主义人工智能已经停滞不前,统计方法是唯一有前途的游戏-在接下来的 50 年里。[34]

会议上的主要能源和辩论源于查尼亚克的概率取向与约翰·麦卡锡等人在会议上坚持的原始逻辑主义取向之间的冲突。

人工智能对概率论的使用源于这一理论的标准形式,该形式直接源于技术哲学和逻辑学。这种形式对许多哲学家来说是熟悉的,但现在让我们快速回顾一下,以便为关于激发人工智能的新概率技术提出观点奠定坚实的基础。

正如在 FOL 的情况下一样,在概率论中,我们关注的是陈述性语句或命题,对其应用信念程度;因此我们可以说逻辑主义和概率主义方法都是符号性的。这两种方法也都认同陈述可以在世界中为真或为假。在构建代理程序时,简单的基于逻辑的方法要求代理程序了解所有可能陈述的真值。这是不现实的,因为代理程序可能由于无知、物理世界的非确定性或陈述的含义模糊而不知道某个命题 p 的真值。更具体地说,概率论中的基本命题是一个随机变量,可以被看作是代理程序最初不知道的世界的一个方面。我们通常将随机变量的名称大写,但我们也将 p、q、r 等作为这样的名称保留。例如,在一个关于 Barolo 先生是否犯罪的特定谋杀调查中,随机变量 Guilty 可能是关注的对象。侦探也可能对谋杀武器(假设是一把特定的刀)是否属于 Barolo 感兴趣。基于此,我们可以说如果武器属于 Barolo,则 Weapon=true;如果不属于,则 Weapon=false。作为一种符号约定,我们可以分别用 weapon 和 ¬weapon 来表示这两种情况;我们也可以将这种约定用于此类其他变量。

到目前为止,我们描述的变量类型是布尔型,因为它们的域只是{true,false}。但我们可以推广并允许离散型随机变量,其值来自任何可数域。例如,PriceTChina 可能是中国茶叶价格的变量,其域可能是{1,2,3,4,5},其中每个数字表示美元。第三种类型的变量是连续型,其域要么是实数,要么是其子集。

我们说,原子事件是将适当域中的特定值分配给构成(理想化的)世界的所有变量的一种赋值。例如,在刚刚介绍的简单谋杀调查世界中,我们有两个布尔变量,Guilty 和 Weapon,只有四个原子事件。请注意,原子事件具有一些明显的属性。例如,它们是互斥的、穷尽的,并且逻辑上蕴含每个命题的真实性或虚假性。对于初学者来说,通常不明显的是第四个属性,即任何命题在逻辑上等价于蕴含该命题的所有原子事件的析取。

先验概率对应于在完全没有其他信息的情况下赋予命题的信念程度。例如,如果 Barolo 的有罪先验概率为 0.2,我们写作 P(Guilty=true)=0.2 或简写为 P(guilty)=0.2。通常方便的是有一种符号允许经济地引用随机变量的所有可能值的概率。例如,我们可以写作 P(PriceTChina)

or simply P(guilty)=0.2. It is often convenient to have a notation allowing one to refer economically to the probabilities of all the possible values for a random variable. For example, we can writeP(PriceTChina)

作为中国茶叶所有可能价格的五个方程的缩写。我们还可以写成 P(中国茶叶价格)=⟨1,2,3,4,5⟩

此外,作为进一步方便的表示法,我们可以写成 P(有罪,武器)来表示相关随机变量的所有值组合的概率。这被称为有罪和武器的联合概率分布。完整的联合概率分布涵盖了用于描述一个世界的所有随机变量的分布。在我们简单的谋杀世界中,我们有 20 个原子事件总结在方程式 P(有罪,武器,中国茶叶价格)中。

概率论基本语言的最后一部分对应于条件概率。其中 p 和 q 是任意命题,相关表达式为 P(p∣q),可以解释为“在我们所知道的只有 q 的情况下,p 的概率”。例如,P(有罪 ∣∣ 武器)=0.7

说如果谋杀武器属于巴罗洛,并且没有其他信息可用,那么巴罗洛有罪的概率为 0.7。

安德烈·科尔莫戈洛夫展示了如何从现在引入的三个公理构建概率论,即

  1. 所有概率都介于 0 和 1 之间。即,∀p.0≤P(p)≤1。

  2. 有效(在传统逻辑学意义上)的命题概率为 1;不可满足(在传统逻辑学意义上)的命题概率为 0。

  3. P(p∨q)=P(p)+P(q)−P(p∧q)

这些公理显然是逻辑学的基础。概率论的其余部分可以建立在这个基础上(条件概率可以很容易地用先验概率来定义)。因此,我们可以说逻辑在某种根本意义上仍然被用来描述一个理性行为体可能拥有的信念集合。但是,在这种情况下,概率推理是如何进入这个图景的呢?因为传统的演绎推理在概率论中并不用于推理。

概率推理是从以概率论表示的观察证据中计算感兴趣命题的后验概率。很长一段时间以来,已经有算法来进行这种计算。这些算法在 1990 年代概率技术复兴之前就存在了。(AIMA 的第 13 章介绍了其中一些算法。)例如,给定科尔莫哥洛夫公理,可以通过使用给出所有原子事件概率的完全联合分布的直接方法来计算任何命题的概率。其中 p 是某个命题,α(p)是 p 成立的所有原子事件的析取。由于命题的概率(即 P(p))等于它成立的原子事件的概率之和,我们有一个方程提供了计算任何命题 p 的概率的方法,即,

P(p)=∑ei∈α(p)P(ei)

不幸的是,这种原始的概率方法存在两个严重的问题:一是所需处理的信息量巨大(需要对整个分布进行枚举),二是方法的表达能力仅限于命题。 (顺便提一下,哲学家希拉里·普特南(1963)指出,转向一阶层面是有代价的。这个问题在此不讨论。)一切都随着一个标志着概率论和图论结合的新形式主义的出现而改变:贝叶斯网络(也称为信念网络)。关键的文献是(Pearl 1988)。有关更详细的讨论,请参见

贝叶斯网络的补充。

在结束本节之前,值得注意的是,从哲学的角度来看,我们所利用的谋杀调查等情况通常会被分析为论证和强度因素,而不是纯粹的算术程序进行计算。例如,在罗德里克·奇斯霍姆的认识论中,正如他在《知识理论》(1966 年,1977 年)中所提出的,侦探福尔摩斯可能会将像巴罗洛犯下了谋杀这样的命题分类为抵消,如果他无法找到一个令人信服的论证,或者如果谋杀武器被证明属于巴罗洛,那么可能是概率的。这些类别无法在 0 到 1 的连续范围内找到,并且它们用于表达支持或反对巴罗洛有罪的论证。基于论证的不确定和可推翻性推理方法在人工智能中几乎不存在。波洛克的方法是一个例外,下面将对其进行介绍。这种方法与奇斯霍姆的性质相似。

还应该注意,已经有了处理概率推理作为基于逻辑推理的实例的成熟形式化方法。例如,当概率推理研究人员证明关于他们领域的定理 ϕ 时(例如,(Pearl 1988)中的任何定理),他们所进行的活动纯粹属于传统逻辑的范畴。对于对概率推理具有逻辑特色的方法感兴趣的读者可以参考(Adams 1996, Hailperin 1996 & 2010, Halpern 1998)。将概率论、归纳推理和演绎推理结合起来,使它们处于平等地位的形式化方法已经在不断增加,其中马尔可夫逻辑(Richardson and Domingos 2006)是其中突出的方法之一。

概率机器学习

机器学习,在上述意义上,与概率技术相关联。概率技术与函数学习(例如朴素贝叶斯分类)和学习算法的理论属性建模相关联。例如,监督学习的标准重构将其视为贝叶斯问题。假设我们正在识别给定图像中的数字 [0-9]。解决这个问题的一种方法是询问假设 Hx:“数字是 x”的概率在给定传感器图像 d 的情况下是否为真。贝叶斯定理给出:

P(Hx∣∣d)=P(d∣∣Hx)∗P(Hx)P(d)

从给定的训练数据集中可以估计出 P(d∣Hx)和 P(Hx)。然后,具有最高后验概率的假设被给定为答案,并由 argmaxxP(d∣∣Hx)∗P(Hx)给出。除了使用概率方法构建算法外,概率论还被用于分析可能没有明显概率或逻辑公式的算法。例如,学习中的一个中心类别的元定理,即可能近似正确(PAC)定理,是以概率下界的形式表达的,该概率表示诱导/学习的 fL 函数与真实函数 fT 之间的不匹配程度小于某个特定值,前提是学习的函数 fL 在某些情况下表现良好(见第 18 章,AIMA)。

5. 人工智能在野外

从其现代起源开始,人工智能一直与设备相连,通常是由公司生产的设备,如果我们不谈论这一现象,那将是不妥的。虽然在 AI 及其姊妹领域(如优化和决策)中有许多商业上的成功案例,但有些应用更加可见,并且在野外经过了充分的实战测试。2014 年,最显著的一个领域(在这个领域中,人工智能取得了显著的成功)是信息检索,以网络搜索的形式呈现。另一个最近的成功案例是模式识别。应用模式识别的最新技术(如指纹/面部验证、语音识别和手写识别)足够强大,可以在实验室之外进行“高风险”部署。截至 2018 年中,一些公司和研究实验室已经开始在公共道路上测试自动驾驶车辆,甚至有少数司法管辖区允许自动驾驶汽车合法运营。例如,谷歌的自动驾驶汽车在加利福尼亚州在非常复杂的条件下几乎没有人类的帮助下行驶了数十万英里(Guizzo 2011)。

电脑游戏为人工智能技术提供了一个强大的测试平台,因为它们可以捕捉到可能需要测试人工智能技术的重要部分,同时抽象或删除可能超出核心人工智能研究范围的细节,例如设计更好的硬件或处理法律问题(Laird 和 VanLent 2001)。在商业部署人工智能方面取得了相当成功的一类游戏是实时战略游戏。实时战略游戏是玩家在有限资源下管理军队的游戏。一个目标是不断与其他玩家战斗并削弱对手的力量。实时战略游戏与策略游戏的不同之处在于玩家实时同时计划行动,而不必轮流玩。这类游戏有许多令人心动的挑战,已经达到了最先进技术的范围。这使得这类游戏成为部署简单人工智能代理的有吸引力的场所。关于实时战略游戏中使用的人工智能的概述可以在(Robertson 和 Watson 2015)中找到。

尽管在人工智能领域取得了重大成功,但一些其他的尝试却只是缓慢而谦卑地进行着,默默无闻。例如,与人工智能相关的方法已经在解决数十年来一直没有解决的数学难题上取得了胜利。其中最值得注意的问题或许是“所有的罗宾斯代数都是布尔代数”的证明。这个问题在上世纪 30 年代被猜测出来,证明最终在 1996 年由 Otter 自动定理证明器发现,仅经过几个月的努力(Kolata 1996,Wos 2013)。类似的领域,如形式验证,也已经发展到了半自动验证重要硬件/软件组件的程度(Kaufmann 等人 2000 和 Chajed 等人 2017)。

其他相关领域,如(自然)语言翻译,仍有很长的路要走,但在受限条件下已足够好以供我们使用。关于机器翻译等任务,目前尚无定论,似乎需要统计方法(Lopez 2008)和符号方法(España-Bonet 2011)的结合。这两种方法现在在实际应用中取得了可比较但有限的成功。福特公司部署的翻译系统最初是为将制造过程指令从英语翻译成其他语言而开发的,最初是基于规则的系统,具有福特公司和领域特定的词汇和语言。随着该系统在翻译手册之外获得新的用途,例如福特内部的普通用户翻译自己的文件(Rychtyckyj 和 Plesco 2012),它逐渐发展为结合统计技术和基于规则的技术的系统。

人工智能在有限的狭窄领域取得了上述伟大成就。在无限制的一般情况下,缺乏任何成功导致一小部分研究人员分离出来,形成了现在所称的人工通用智能(Goertzel 和 Pennachin 2007)。该运动的声明目标包括再次将重点转向构建智能的艺术品,而不仅仅是在一个狭窄领域中具备能力。

6. 道德人工智能

计算机伦理学已经存在很长时间了。在这个子领域中,通常会考虑在涉及计算机技术的某类情况下,人们应该如何行动,这里的“人们”指的是人类(Moor 1985)。所谓的“机器人伦理学”则不同。在这个子领域中(也被称为“道德人工智能”、“伦理人工智能”、“机器伦理学”、“道德机器人”等),人们面临的问题是机器人能够做出自主且重要的决策,这些决策可能是道德上允许的,也可能不是(Wallach & Allen 2010)。如果有人试图设计一个具有复杂道德推理和决策能力的机器人,那么他也在进行哲学人工智能的研究,因为这个概念在本文中的其他部分有所描述。对于道德人工智能,可以有许多不同的方法。Wallach 和 Allen(2010)对不同方法进行了高层次的概述。在具有致命行动能力的机器人中,显然需要道德推理。Arkin(2009)介绍了如何控制和规范具有致命行为能力的机器。道德人工智能超越了显然致命的情况,我们可以拥有一系列道德机器。Moor(2006)提供了一种可能的道德行为代理的范例。非致命但具有伦理问题的机器的一个例子是说谎机器。Clark(2010)使用了一种关于心智的计算理论,即代表和推理其他行为体的能力,来构建一个成功说服人们相信谬误的说谎机器。Bello 和 Bringsjord(2013)概述了构建道德机器可能需要的一般要素,其中之一是心智理论。

构建能够进行伦理推理的机器的最一般框架是赋予机器一种道德准则。这要求机器用于推理的形式框架足够表达这些准则。目前,道德人工智能领域并不关注这些准则的来源或出处。这些准则可能来自人类,机器可以直接接收这些准则(通过明确编码)或间接接收(阅读)。另一种可能性是机器从更基本的法律集合中推断出这些准则。我们假设机器人可以访问某些这样的准则,然后我们试图设计机器人在所有情况下遵循该准则,同时确保道德准则及其表达不会导致意外后果。德意逻辑是一类被最多研究用于此目的的形式逻辑。抽象地说,这些逻辑主要关注给定道德准则的推论。然后,工程学研究给定德意逻辑与道德准则的匹配程度(即逻辑是否足够表达),这必须与自动化的便利性相平衡。Bringsjord 等人(2006)提供了使用德意逻辑构建能够根据道德准则执行行动的系统的蓝图。德意逻辑在 Bringsjord 等人提供的框架中所起的作用(可以认为是道德人工智能领域的代表)最好理解为追求莱布尼茨对于一种普遍道德计算的梦想:

当争议出现时,两位哲学家之间不再需要争论,就像两位会计师之间不需要争论一样。他们只需要拿起他们的笔,在他们的算盘前坐下,然后彼此说(可能召集了一个共同的朋友):“让我们计算一下。”

基于义务逻辑的框架也可以类比于道德自我反思的方式来使用。在这种模式下,机器人在进入现实世界之前可以通过基于逻辑的验证来验证其内部模块。Govindarajulu 和 Bringsjord(2015)提出了一种方法,借鉴了形式化程序验证的思想,其中基于义务逻辑的系统可以用来验证机器人在特定条件下以某种道德合规的方式行动。由于形式化验证方法可以用来断言关于无限数量的情境和条件的陈述,因此这种方法可能更受青睐,而不是让机器人在道德充满挑战的测试环境中四处漫游并做出一系列被判断道德正确与否的有限决策。最近,Govindarajulu 和 Bringsjord(2017)使用了义务逻辑来提出了一个计算模型,该模型描述了双重效果原则,这是一种道德困境的伦理原则,已经被哲学家们进行了实证研究和广泛分析。该原则通常通过使用有轨电车的困境来进行演示和解释,最早由 Foot(1967)以这种方式提出。

虽然在理论和哲学方面已经有了大量的工作,但机器伦理学领域仍处于初级阶段。在构建道德机器方面已经有了一些雏形性的工作。最近的一个例子是 Pereira 和 Saptawijaya(2016),他们使用逻辑编程,并将他们的工作基于 Scanlon(1982)提出的契约主义伦理理论。那么未来呢?由于人工智能代理将变得越来越聪明,拥有越来越多的自主性和责任性,机器人伦理学几乎肯定会变得越来越重要。这个努力可能不是对经典伦理学的直接应用。例如,实验结果表明,在类似条件下,人们对机器人的道德标准与他们对人类的期望不同(Malle 等人,2015)。

7. 哲学人工智能

注意,这个部分的标题不是“人工智能哲学”。我们马上会谈到那个类别。(目前可以将其视为回答以下问题的尝试:人工智能中创建的人工代理是否能够达到人类智能的完全高度。)哲学人工智能是人工智能,而不是哲学;但它是根植于哲学并从哲学中流出的人工智能。例如,一个人可以使用哲学的工具和技术来解决一个悖论,提出一个解决方案,然后进行一个对于哲学家来说肯定是可选的步骤:用可以转化为计算机程序的术语来表达解决方案,当执行时,允许一个人工代理克服原始悖论的具体实例。在我们通过一个特定的研究计划明确表征这种哲学人工智能之前,让我们首先考虑一个观点,即人工智能实际上只是哲学,或者是哲学的一部分。

丹尼尔·丹尼特(1979 年)声称,人工智能与哲学紧密相连,甚至可以说人工智能就是哲学(以及心理学,至少是认知类心理学)的一部分。他对人工生命也提出了类似的观点(丹尼特,1998 年)。这种观点最终被证明是错误的,但是为什么错了将会得到启示,我们的讨论将为哲学人工智能的讨论铺平道路。

丹尼特到底说了什么?就是这样:

我想要主张,人工智能更好地被视为与传统认识论共享一种最一般、最抽象的自上而下的问题:知识如何可能?(丹尼特,1979 年,60 页)

在其他地方,他说他的观点是,人工智能应该被视为对智能或知识可能性的最抽象的探究(Dennett 1979, 64)。

简而言之,丹尼特认为人工智能是试图解释智能的努力,不是通过研究大脑以期望找到可以将认知归纳为组成部分的元件,也不是通过从底层向上构建高级认知过程的小型信息处理单元,而是通过设计和实施捕捉认知的抽象算法。撇开至少从 1980 年代初开始,人工智能包括某种意义上的自下而上方法(参见上述非逻辑主义人工智能:摘要中讨论的神经计算范式;并且参见特定的反例,即文本上方立即链接的 Granger(2004a, 2004b)的工作),丹尼特的观点存在一个致命的缺陷。丹尼特看到了潜在的缺陷,如下所示:

一些哲学家认为,人工智能不能合理地被这样解释,因为它承担了额外的负担:它限制自己于机械解决方案,因此其领域不是康德的所有可能智能模式的领域,而只是所有可能在机械上实现的智能模式的领域。据称,这将对生命论者、二元论者和其他反机械主义者提出质疑。(Dennett 1979, 61)

Dennett 对这个反对意见有一个准备好的答案。他写道:

但是...人工智能的机制要求并不是任何时候的额外限制,因为如果心理学有可能,并且如果丘奇的论题是真实的,那么机制的限制就不会比心理学中的问题不成立的限制更严重,而谁又希望逃避这一点呢?(Dennett 1979, 61)

不幸的是,这是一个严重的问题;对这些问题的研究揭示了人工智能的性质。

首先,就哲学和心理学关于心灵本质的问题而言,它们并不受到思维等同于计算的前提的束缚。人工智能,至少是“强人工智能”(我们将在下文讨论“强人工智能”与“弱人工智能”之间的区别),确实是通过工程设计某些令人印象深刻的工具来证实智能本质上是计算的(在图灵机及其等价物,如寄存器机的层面上)。因此,这确实是一个哲学上的主张。但这并不意味着人工智能就是哲学,就像一些物理学家的一些更深入、更激进的主张(例如,宇宙本质上是数字化的)并不意味着他们的领域是哲学。物理学的哲学当然可以考虑到物理宇宙可以以数字化的方式完美建模(例如,一系列的元胞自动机),但当然不能将物理学的哲学等同于这个学说。

其次,我们现在很清楚(那些熟悉相关形式领域的人在丹尼特写作时就已经知道)信息处理可以超越标准计算,也就是说,可以超越图灵机能够完成的计算(我们称之为图灵计算)。(这种信息处理被称为超计算,是哲学家杰克·科普兰德造的一个词,他本人也定义了这样的机器(例如,科普兰德 1998 年)。第一批能够进行超计算的机器是试错机器,在同一期著名的《符号逻辑杂志》上介绍(戈尔德 1965 年;普特南 1965 年)。一种新的超级计算机是无限时间图灵机(哈金斯和刘易斯 2000 年)。)丹尼特对教堂论题的诉求与数学事实相悖:某些类型的信息处理超越了标准计算(或图灵计算)。教堂论题,或更准确地说,教堂-图灵论题,认为如果一个函数 f 是有效可计算的,那么当且仅当 f 是图灵可计算的(即,某个图灵机可以计算 f)。因此,这个论题对于超越图灵机能力的信息处理没有任何发言权。(换句话说,在能够完成超越图灵机能力的壮举的信息处理设备中,没有反例可以自动找到教堂-图灵论题。)就哲学和心理学所知,智能即使与信息处理相关,也超越了图灵计算或图灵机械。[38] 这尤其正确,因为哲学和心理学与人工智能不同,它们在根本上不负责工程制品,这使得超计算的物理实现对它们的观点来说是无关紧要的。 因此,与丹尼特相反,将人工智能视为心理学或哲学是犯了一个严重的错误,因为这样做将把这些领域局限于从自然数(包括其中的元组)到自然数的函数空间中的一小部分。(在这个空间中,只有很小一部分函数是图灵可计算的。)人工智能无疑比这一对领域要窄得多。当然,人工智能可能被一门专门致力于通过编写计算机程序并在具体的图灵机上运行它们来构建计算工件的领域所取代。但是,根据定义,这个新领域将不是人工智能。我们对 AIMA 和其他教材的探索直接证实了这一点。

第三,大多数人工智能研究人员和开发人员实际上只关心构建有用、有利可图的工件,并不花太多时间思考本条目中探讨的智能的抽象定义(例如,什么是人工智能?)。

虽然人工智能并非哲学,但确实有一些以实现为重点的高水平人工智能的方式与哲学密切相关。证明这一点的最好方法就是简单地展示这样的研究和开发,或者至少是一个代表性的例子。虽然有许多这样的工作例子,但在人工智能领域中最著名的例子是约翰·波洛克的 OSCAR 项目,该项目延续了他一生的相当长时间。有关详细介绍和进一步讨论,请参见

《OSCAR 项目补充说明》。

在这个关键时刻,需要注意的是,OSCAR 项目及其所依托的信息处理无疑是一种既涉及哲学又涉及技术人工智能的领域。鉴于相关工作已经发表在以人工智能为主题的一流期刊《人工智能》上,而非哲学期刊,这一点是不可否认的(参见,例如,Pollock 2001, 1992)。这一点很重要,因为虽然在当前场合强调人工智能与哲学之间的联系是合适的,但一些读者可能会怀疑这种强调是否是刻意为之:他们可能怀疑事实是人工智能期刊的一页页都充斥着与哲学相去甚远的狭隘技术内容。确实存在许多这样的论文。但我们必须区分旨在介绍人工智能的性质、核心方法和目标的著作,与旨在介绍特定技术问题进展的著作。

后一类著作往往非常狭窄,但正如 Pollock 的例子所示,有时这些特定问题与哲学密不可分。当然,Pollock 的工作是一个典型的例子(尽管是最实质性的一个)。我们也可以选择那些不仅从事纯粹哲学研究的人的作品。例如,对于一本完全在人工智能和计算机科学范围内撰写的书,但在很多方面都是认识逻辑的实践,适合在相关研讨会上使用,可以参考(Fagin et al. 2004)。(很难找到与哲学没有直接联系的技术性工作。例如,关于学习的人工智能研究都与归纳的哲学处理密切相关,即如何学习真正新的概念,而不仅仅是根据先前的概念定义。人工智能提供的一个可能的部分答案是归纳逻辑编程,详见 AIMA 第 19 章。)

前一类写作如何?虽然这类写作在人工智能领域,而非哲学领域,但仍然具有哲学性质。大多数教科书包含大量属于后一类的材料,因此它们包括对人工智能的哲学性质的讨论(例如,人工智能旨在构建人工智能,这也是为什么它被称为“人工智能”的原因)。

8. 人工智能哲学

8.1 “强人工智能”与“弱人工智能”

回想一下,我们之前讨论过对人工智能的提议性定义,并特别要记住这些提议是以该领域的目标为基础的。我们可以在这里遵循这个模式:我们可以通过注意到这两个版本的人工智能所追求的不同目标来区分“强人工智能”和“弱人工智能”。 “强人工智能”旨在创建人工人:拥有我们所有心智能力,包括现象意识的机器。另一方面,“弱人工智能”旨在构建信息处理机器,这些机器似乎具备人类的全部心智能力(Searle 1997)。 “弱人工智能”还可以定义为旨在通过不仅仅通过图灵测试(再次简称为 TT),而是通过完全图灵测试(Harnad 1991)的系统来实现的人工智能形式。在完全图灵测试中,机器必须不仅在语言上无法区分,还必须在所有行为上都能被认为是人类 - 比如投掷棒球、进食、教课等。

对于哲学家们来说,推翻“弱人工智能”似乎确实非常困难(Bringsjord and Xiao 2000)。毕竟,有什么哲学理由阻止人工智能制造出看起来像动物甚至人类的工艺品呢?然而,一些哲学家致力于推翻“强人工智能”,我们现在转向最突出的案例。

8.2 “强人工智能”的中文房间论证

毫无疑问,人工智能哲学中最著名的论证是约翰·西尔的(1980 年)中文房间论证(CRA),旨在推翻“强人工智能”。我们在这里简要概述,并介绍了人工智能从业者对该论证的看法。想进一步研究中文房间论证的读者可以在中文房间论证和(Bishop&Preston 2002)的条目中找到一个很好的下一步。

CRA 基于一个思想实验,西尔本人是其中的主角。他在一个房间里,房间外是不知道西尔在里面的中国本土人。像现实生活中的西尔一样,盒子里的西尔不懂任何中文,但擅长英语。中国人将卡片通过一个槽送入房间;这些卡片上写着中文问题。通过西尔秘密的工作,盒子将卡片作为输出返回给中国本土人。西尔的输出是通过查阅一本规则书来产生的:这本书是一本查找表,告诉他根据输入产生什么中文。对于西尔来说,中文只是一堆-用西尔的话说-蠕动符号。下面的示意图总结了这种情况。标签应该很明显。O 表示外部观察者,即中国人。输入用 i 表示,输出用 o 表示。如您所见,规则书有一个图标,西尔本人用 P 表示。

中文房间,示意图

现在,这个思想实验的论证是什么?即使你以前从未听说过 CRA,你无疑可以看出基本思想:Searle(在盒子里)被认为是计算机所能拥有的一切,因为他不懂中文,所以没有计算机能够理解中文。Searle 无意识地移动着波浪线,而(根据这个论证)这就是计算机的全部本质。[39]

CRA 现在处于什么地位?正如我们已经提到的,这个论证似乎仍然活跃且有力,见证者有(Bishop & Preston 2002)。然而,毫无疑问,至少在人工智能从业者中,CRA 被普遍拒绝。(这当然是毫不奇怪的。)在这些从业者中,AI 领域内提供了最有力回应的哲学家是 Rapaport(1988),他认为虽然 AI 系统确实是句法的,但正确的句法可以构成语义。应该说,“强人工智能”的支持者普遍认为 CRA 不仅不合理,而且愚蠢,因为它基于一个离 AI 实践相去甚远的幻想故事(CR),而 AI 实践正逐年不可避免地朝着将彻底消除 CRA 及其支持者的复杂机器人发展。例如,约翰·波洛克(正如我们所提到的,他是哲学家和 AI 从业者)写道:

一旦 [我的智能系统] 奥斯卡完全功能,类比论证将不可避免地使我们将思想和感情归因于奥斯卡,具有与我们将其归因于人类一样的资格。相反的哲学论证将过时。(波洛克 1995,第 6 页)

总结对 CRA 的讨论,我们提出两个要点,即:

  1. 尽管像波洛克这样的人对于 CRA 在面对最终达到人类水平的 OSCAR(以及任何其他不断改进的人工智能系统)时最终变得无关紧要充满信心,但事实是,深度语义自然语言处理(NLP)在当今很少被追求,因此 CRA 的支持者在当前人工智能的现状下肯定不会感到不适。简而言之,西尔将正确地指出包括我们讨论过的沃森系统在内的任何人工智能的成功案例,仍然宣称理解无处可寻-他在哲学上有权这样说。

  2. 由于某些思想家现在明确发出警告,即未来有意识的恶意机器可能会对我们的物种造成威胁,因此 CRA 似乎正在回到多年来未曾见到的参与水平。作为回应,西尔(2014)指出,由于 CRA 是正确的,所以不能有有意识的机器;如果不能有有意识的机器,就不可能有任何希望的恶意机器。我们在本条目末尾回到这一点;这里的主要观点是 CRA 仍然非常相关,而且我们确信西尔的无畏基础将被不仅是哲学家,而且是人工智能专家、未来学家、律师和决策者积极采纳。

读者可能会想知道人工智能研究人员在工作中是否会进行哲学辩论(与他们参加哲学会议时相反)。当然,人工智能研究人员之间会进行哲学讨论,对吗?

一般来说,人工智能研究人员确实会在他们之间讨论人工智能哲学的话题,而这些话题通常也是人工智能哲学家所关注的。然而,波洛克上面引用的态度远远是占主导地位的。也就是说,总的来说,人工智能研究人员的态度是,哲学思辨有时很有趣,但人工智能工程的进步是不可阻挡的,不会失败,并最终使这种哲学思辨变得无用。

我们将在本条目的最后一节讨论人工智能的未来问题。

8.3 Gödel 反对“强人工智能”的论证

四十年前,J.R. Lucas(1964)认为,哥德尔的第一不完备性定理意味着没有机器能够达到人类水平的智能。他的论证并没有被证明是令人信服的,但是 Lucas 引发了一场产生了更强有力论证的辩论。Lucas 的坚定捍卫者之一是物理学家罗杰·彭罗斯(Roger Penrose),他首次试图为 Lucas 辩护的方式是通过哥德尔式的攻击“强人工智能”,并在他的《皇帝的新脑》(The Emperor's New Mind)(1989)中表达出来。这个第一次尝试不够完善,彭罗斯发表了一个更详细、更严谨的哥德尔式案例,表达在他的《心灵的阴影》(Shadows of the Mind)(1994)的第 2 章和第 3 章中。

鉴于读者可以参考关于哥德尔不完备性定理的条目,这里不需要进行全面的回顾。相反,读者可以通过阅读一篇在线论文来对这个论证有一个良好的理解,彭罗斯在这篇论文中回应了他的《心灵的阴影》的批评者(例如哲学家大卫·查尔默斯、逻辑学家所罗门·费弗曼和计算机科学家德鲁·麦克德莫特),将论证浓缩成了几段话。[40] 事实上,在这篇论文中,彭罗斯给出了他认为是《心灵的阴影》中核心哥德尔式案例的完善版本。以下是这个版本的原文:

我们尝试假设,原则上人类可以接触到的(无懈可击的)数学推理方法的全部可以被封装在某个(不一定是计算机的)完备形式系统 F 中。如果一个人类数学家面对 F,可以如下论证(请记住,“我是 F”这个短语仅仅是“F 封装了所有人类可以接触到的数学证明方法”的简写):

(A)“虽然我不知道我是否一定是 F,但我得出结论,如果我是 F,那么系统 F 必须是完备的,更重要的是,F'必须是完备的,其中 F'是 F 加上进一步的断言“我是 F”。我认识到,从我是 F 的假设中可以推出哥德尔陈述 G(F')必须是真的,并且,它不是 F'的推论。但我刚刚认识到“如果我碰巧是 F,那么 G(F')必须是真的”,而这种认识正是 F'所要实现的。因此,我能够认识到 F'的能力之外的东西,我推断我毕竟不能是 F。此外,这适用于任何其他(哥德尔化的)系统,代替 F。”(彭罗斯 1996,3.2)

这个论证是否成功?对这个问题的确定答案不适合在本条目中寻求。鼓励感兴趣的读者参考四个全面的论述(LaForte 等,1998 年;Bringsjord 和 Xiao,2000 年;Shapiro,2003 年;Bowie,1982 年)。

8.4 人工智能哲学中的其他主题和阅读材料

除了上面简要介绍的哥德尔和西尔的论证之外,“强大”人工智能(符号学派)还遭受了第三次攻击,这一攻击被广泛讨论(尽管随着统计机器学习的兴起,对它的关注逐渐减少)。这一攻击由哲学家休伯特·德雷福斯(Hubert Dreyfus)提出(1972 年,1992 年),其中的某些版本与他的兄弟斯图尔特·德雷福斯(Stuart Dreyfus)(1987 年)一起提出,后者是一位计算机科学家。粗略地说,这一攻击的核心思想是,人类的专业知识不是基于显式的、脱离身体的、机械化的符号信息操作(比如某种逻辑中的公式,或者某种贝叶斯网络中的概率),而且如果基于符号学派范式来构建具有这种专业知识的机器,那么这些努力注定会失败。德雷福斯攻击的起源是一种信念,即可以从海德格尔和梅洛-庞蒂等思想家对(如果你愿意这样说)基于符号的哲学(例如基于逻辑的理性主义传统的哲学,而不是所谓的大陆传统)的批判中,对人工智能的理性主义传统进行批判。在进一步阅读和研究德雷福斯的著作之后,读者可以判断在一个越来越由进行符号推理的智能代理管理的信息驱动世界中,这种批判是否具有说服力(尽管远远不及人类水平)。

对于对人工智能哲学感兴趣的读者,除了吉姆·穆尔(在最近的一次演讲中 - “人工智能的未来五十年:未来的科学研究与过去的哲学批评” - 作为 2006 年巴尔维斯奖获得者在年度东部美国哲学协会会议上所称的“三大”人工智能批评之外,还有大量的额外材料,其中很多可以在网络上找到。《AIMA》的最后一章提供了一些针对“强人工智能”的额外论证的压缩概述,总体来说是一个不错的下一步。不用说,今天的人工智能哲学涉及的远不止上述三个众所周知的论证,而且不可避免地,明天的人工智能哲学将包括我们现在看不到的新的辩论和问题。因为无论机器变得多聪明,它们都将变得越来越聪明,纯粹而简单的人工智能哲学是一个增长的行业。随着机器与人类活动的匹敌,这些“重大”问题只会吸引更多的关注。

9. 未来

如果过去的预测是任何指标的话,我们今天对明天的科学和技术唯一知道的是,它将与我们预测的完全不同。可以说,在人工智能的情况下,我们今天也可能特别知道进展将比大多数人预期的要慢得多。毕竟,在 1956 年的启动会议上(在本文开头讨论过),赫伯特·西蒙预测,能够与人类思维相匹配的思考机器“就在拐角处”(有关相关引文和信息性讨论,请参见 AIMA 的第一章)。事实证明,新世纪到来时,没有一台机器能够达到甚至是幼儿水平的对话能力。(回想一下,当涉及到建造能够展示人类级智能的机器时,笛卡尔似乎比图灵更好地成为了先知。)尽管如此,令人惊讶的是,20 世纪末的严肃思想家们继续对人工智能的进展发表极其乐观的预测。例如,汉斯·莫拉维克(1999 年)在他的《机器人:从简单机器到超越思维》一书中告诉我们,由于计算机硬件的速度每 18 个月翻一番(根据过去的情况,这似乎符合摩尔定律),“第四代”机器人很快将在各个方面超越人类,从经营公司到写小说。据说,这些机器人将进化到如此高度的认知水平,以至于我们将对它们如同单细胞生物对待我们今天一样。[41]

Moravec 绝不是唯一一个乐观的人:人工智能领域的许多其他人预测,同样令人震惊的未来将以大致相同的快速进度展开。实际上,在前述的 AI@50 会议上,吉姆·穆尔向参加 1956 年原始会议的五位思想家提出了一个问题:“人类级别的人工智能是否会在未来 50 年内实现?”:约翰·麦卡锡、马文·明斯基、奥利弗·塞尔弗里奇、雷·所罗门诺夫和特伦查德·穆尔。麦卡锡和明斯基坚定而毫不犹豫地回答肯定,而所罗门诺夫似乎暗示,人工智能在我们这个物种似乎自毁的事实面前提供了一线希望。(塞尔弗里奇的回答有点神秘。穆尔回答坚定而明确地是否定,并宣称一旦他的计算机足够聪明,能够与他进行数学问题的对话,他可能会更认真地对待整个事业。)读者可以自行判断 Moravec、麦卡锡和明斯基所做的这些冒险预测的准确性。[42]

读者在这方面的判断应考虑到最近对所谓的“奇点”(我们简称为 S)的严肃思考的惊人复兴,即人工智能超过人类智能的未来点,随后(故事如此)机器迅速变得越来越聪明,达到超人类的智能水平,而我们被困在有限思维的泥潭中,无法理解。有关 S 的广泛而平衡的分析,请参阅 Eden 等人(2013)。

对于对 S 文献不熟悉的读者来说,他们可能会对这个假设事件不仅被认真对待,而且实际上已经成为广泛和频繁的哲学思考的目标感到惊讶 [有关这个问题最近的思考的尖刻之旅,请参阅 Floridi(2015)]。有哪些论据支持 S 将来会发生的信念?目前有两个主要论据:熟悉的基于硬件的论据 [由 Moravec 提出,如上所述,并且最近由 Kurzweil(2006)再次提出];以及数学家 I. J. Good(1965)提出的我们所知道的原始论据。此外,Bostrom(2014)提出了一个最近的相关末日论据,似乎预设 S 将会发生。Good 的论证由 Chalmers(2010)进行了很好的扩充和调整,他确认了论证的整理版本,论证如下:

  • 前提 1:将会有人工智能(由人类智能创造,并且人工智能=人类智能)。

  • 前提 2:如果有人工智能,将会有人工智能+(由人工智能创造)。

  • 前提 3:如果有人工智能+,就会有人工智能++(由人工智能+创建)。

  • 结论:将会有人工智能++(= S 将会发生)。

在这个论证中,“AI”是指人类个体创造的人工智能水平,“AI+”是指超越人类个体的人工智能,“AI++”是指构成 S 的超级智能。关键过程可能是一类机器由另一类机器创造。为了方便起见,我们添加了“HI”表示人类智能;核心思想是:HI 将创造 AI,后者与前者具有相同的智能水平;AI 将创造 AI+;AI+将创造 AI++;随着升级的进行,也许会永远进行下去,但无论如何,我们将像蚂蚁一样被神超越。

这个论点看起来确实是形式上有效的。它的三个前提是真实的吗?讨论这样一个问题将使我们远远超出本条目的范围。我们只指出,一个类别的机器创造另一个更强大的类别的机器的概念并不是一个透明的概念,Good 和 Chalmers 都没有对这个概念进行严格的解释,这个概念适合进行哲学分析。(当然,关于数学分析,一些存在。例如,众所周知,一个在 L 级别的计算机无法创造一个更高级别 L'的机器。例如,一个线性有界自动机无法创造一个图灵机。)

Good-Chalmers 的论点有一种相当临床的氛围;这个论点并没有说明 AI++类别的机器是善良的、恶意的还是慷慨的。许多人都乐意用黑暗的悲观主义来填补这个空白。这里毫无疑问的经典之作是比尔·乔伊(Bill Joy)2000 年发表的一篇广为阅读的论文:“为什么未来不需要我们。”乔伊认为,人类注定要灭亡,其中一个重要原因是它正忙于建造聪明的机器。他写道:

21 世纪的技术——基因、纳米技术和机器人技术(GNR)——是如此强大,以至于它们可以产生全新的事故和滥用。最危险的是,这些事故和滥用首次广泛地落入个人或小团体的手中。它们不需要大型设施或稀有原材料。仅凭知识就能使用它们。

因此,我们不仅有大规模杀伤性武器的可能性,还有知识驱动的大规模破坏(KMD)的可能性,这种破坏力通过自我复制的能力得到了极大的放大。

我认为毫不夸张地说,我们正处于极端邪恶进一步完善的边缘,这种邪恶的可能性远远超出了大规模杀伤性武器给予国家的范围,而是对极端个体产生了令人惊讶和可怕的赋权。[43]

哲学家们对这种观点的论证最感兴趣。乔伊的理由是什么?嗯,他的论文受到了极大的关注,其中一个重要原因是,就像雷蒙德·库兹韦尔(2000)一样,乔伊在很大程度上依赖于一个由无政府主义者(西奥多·卡辛斯基)提出的论证。这个想法是,假设我们成功地建造了智能机器,我们将让它们为我们做大部分(如果不是全部)的工作。如果我们进一步允许机器为我们做决策 - 即使我们保留对机器的监督 - 我们最终将依赖它们到必须简单接受它们的决策的程度。但即使我们不允许机器做决策,控制这些机器的可能是由一小部分精英掌握的,他们将认为其他人类是多余的 - 因为机器可以完成任何需要的工作(Joy 2000)。

这不是评估这个论点的地方。(话虽如此,不过,不折不扣无效的模式由不发表炸弹的人及其支持者推动。[44])事实上,许多读者无疑会觉得没有这样的地方存在或将存在,因为这里的推理是业余的。那么,专业哲学家在这个问题上的推理呢?

博斯特罗姆最近描绘了一个可能的黑暗未来。他指出,“第一个超级智能”可能具有塑造地球起源生命未来的能力,很容易具有非人类形象的最终目标,并且很可能有追求无限资源获取的工具性原因。如果我们现在反思人类由有用资源(如方便地点的原子)组成,并且我们依赖更多的本地资源,我们可以看到结果很容易是人类迅速灭绝。(博斯特罗姆 2014 年,第 416 页)

to shape the future of Earth-originating life, could easily have non-anthropomorphic final goals, and would likely have instrumental reasons to pursue open-ended resource acquisition. If we now reflect that human beings consist of useful resources (such as conveniently located atoms) and that we depend on many more local resources, we can see that the outcome could easily be one in which humanity quickly becomes extinct. (Bostrom 2014, p. 416)

显然,在这种论证中最脆弱的前提是“第一个超级智能”确实会出现。在这里,Good-Chalmers 的论证可能提供了一个基础。

Searle(2014)认为 Bostrom 的书是误导性的和基本错误的,我们不需要担心。他的理由非常简单:机器没有意识;Bostrom 对恶意机器的前景感到担忧;恶意机器在定义上是有意识的机器;因此,Bostrom 的论证不成立。Searle 写道:

如果计算机能够驾驶飞机、开车和下棋,那么它是否完全没有意识并不重要?但是,如果我们担心一个恶意动机的超级智能摧毁我们,那么恶意动机的真实性就很重要。没有意识,它就不可能是真实的。

这里最引人注目的事情是,西尔似乎没有意识到大多数人工智能工程师都很满意根据我们上面提出和解释的 AIMA 人工智能观点来构建机器:根据这个观点,机器只是简单地将感知映射到行动。在这个观点中,机器是否真的有欲望并不重要,重要的是它是否根据人工智能科学家工程化的欲望形式对行为做出适当反应。一个具有巨大破坏力的自主机器,即使在没有真正的、人类级别的、主观的欲望的情况下“决定”杀人,也不会仅仅成为一个麻烦。如果人工智能能够下国际象棋、参加“危险边缘”的游戏,那么它肯定也能参与战争的游戏。就像一个人类失败者指出在一场国际象棋比赛中胜利的机器没有意识一样,对于被机器杀害的人来说,指出这些机器没有意识也没有什么好处。(有趣的是,乔伊的论文起源于与约翰·西尔和雷蒙德·库兹韦尔的非正式对话。根据乔伊的说法,西尔认为没有什么可担心的,因为他对明天的机器人不能有意识非常有信心。[45])

关于明天,我们可以肯定地说一些事情。当然,除非发生一些灾难性事件(核战争、生物战争、全球经济萧条、陨石撞击地球等),我们现在知道人工智能将成功地制造出人工动物。由于甚至一些自然动物(例如骡子)都可以很容易地被训练为人类工作,所以可以推断,从头开始设计以满足我们目的的人工动物将被部署为我们工作。事实上,许多目前由人类完成的工作肯定会由适当编程的人工动物来完成。举个例子,很难相信未来商业司机不会是人工的。(事实上,戴姆勒已经在广告中宣传他们的汽车能够“自主驾驶”,使乘坐这些车辆的人类可以忽视道路并阅读。)其他例子包括:清洁工、邮递员、文员、军事侦察员、外科医生和飞行员。(至于清洁工,可能很多读者此刻家里都有 iRobot 的机器人在清洁地毯。)很难看出这些工作与通常被视为人性核心的属性是如此紧密相连,而这些属性对人工智能来说是最难复制的。[46]

安迪·克拉克(2003)提出了另一个预测:人类将逐渐成为至少在相当程度上的机械人,这要归功于人工肢体、感官和植入物。这一趋势的主要驱动力将是,虽然独立的人工智能通常是可取的,但当所需的智能水平较高时,很难进行工程设计。但是让人类“驾驶”智能较低的机器要容易得多,并且出于具体原因仍然非常有吸引力。另一个相关的预测是,人工智能将成为人类的认知假肢(福特等人,1997 年;霍夫曼等人,2001 年)。假肢观点认为,人工智能是一个“伟大的平等者”,将导致社会的分层减少,可能类似于印度-阿拉伯数字系统使算术对大众可用,以及古腾堡印刷术促进了读写能力的普及化。

即使这个论点在形式上是无效的,它也给我们留下了一个问题 - 关于人工智能和未来的基石性问题:人工智能是否会产生复制和超越人类认知的人工生物(正如库兹韦尔和乔伊所相信的)?还是这只是一个有趣的假设?

这不仅是科学家和工程师的问题,也是哲学家的问题。有两个原因。首先,为了验证肯定的答案,研究和开发必须包括哲学 - 这是基于本文前面部分的原因。(例如,哲学是用机器术语建模人类命题态度的强大形式主义的场所。)其次,哲学家可能能够提供明确回答基石问题的论证。如果上述提到的反对“强”人工智能的三个论证(西尔的中国房地产协会;哥德尔的攻击;德雷福斯的论证)中的任何一个版本是正确的,那么当然人工智能将无法制造具有人类心智能力的机器。毫无疑问,未来不仅会有越来越聪明的机器,还会有关于这个问题的赞成和反对的新论证,即是否能达到笛卡尔所宣称的无法达到的人类水平。

Bibliography

  • Adams, E. W., 1996, A Primer of Probability Logic, Stanford, CA: CSLI.

  • Almeida, J., Frade, M., Pinto, J. & de Sousa, S., 2011, Rigorous Software Development: An Introduction to Program Verification, New York, NY: Spinger.

  • Alpaydin, E., 2014, Introduction to Machine Learning, Cambridge, MA: MIT Press.

  • Amir, E. & Maynard-Reid, P., 1999, “Logic-Based Subsumption Architecture,” in Proceedings of the 16th International Joint Conference on Artificial Intelligence (IJCAI-1999), (San Francisco, CA: MIT Morgan Kaufmann), pp. 147–152.

  • Amir, E. & Maynard-Reid, P., 2000, “Logic-Based Subsumption Architecture: Empirical Evaluation,” in Proceedings of the AAAI Fall Symposium on Parallel Architectures for Cognition.

  • Amir, E. & Maynard-Reid, P., 2001, “LiSA: A Robot Driven by Logical Subsumption,” in Proceedings of the Fifth Symposium on the Logical Formalization of Commonsense Reasoning, (New York, NY).

  • Anderson, C. A., 1983, “The Paradox of the Knower,” The Journal of Philosophy, 80.6: 338–355.

  • Anderson, J. & Lebiere, C., 2003, “The Newell Test for a Theory of Cognition,” Behavioral and Brain Sciences, 26: 587–640.

  • Ashcraft, M., 1994, Human Memory and Cognition, New York, NY: HarperCollins.

  • Arkin, R., 2009, Governing Lethal Behavior in Autonomous Robots, London: Chapman and Hall/CRC Imprint, Taylor and Francis Group.

  • Arkoudas, K. & Bringsjord, S., 2005, “Vivid: A Framework for Heterogeneous Problem Solving,” Artificial Intelligence, 173.15: 1367–1405.

  • Arkoudas, K. & Bringsjord, S., 2005, “Metareasoning for Multi-agent Epistemic Logics,” in Fifth International Conference on Computational Logic In Multi-Agent Systems (CLIMA 2004), in the series Lecture Notes in Artificial Intelligence (LNAI), volume 3487, New York, NY: Springer-Verlag, pp. 111–125.

  • Arkoudas, K., 2000, Denotational Proof Languages, PhD dissertation, Massachusetts Institute of Technology (Computer Science).

  • Baader, F., Calvanese, D., McGuinness, D. L., Nardi, D., & Patel-Schneider, P. F., eds., 2003, The Description Logic Handbook: Theory, Implementation, and Applications, New York, NY: Cambridge University Press.

  • Smith, B., Ashburner, M., Rosse, C., Bard, J., Bug, W., Ceusters, W., Goldberg, L. J., Eilbeck, K., Ireland, A., Mungall, C. J., The OBI Consortium, Leontis, N., Rocca-Serra, P., Ruttenberg, A., Sansone, S., Scheuermann, R. H., Shah, N., Whetzel, P. L. & Lewis, S., 2007, “The OBO Foundry: Coordinated Evolution of Ontologies to Support Biomedical Data Integration,” Nature Biotechnology 25, 1251–1255.

  • Barwise, J. & Etchemendy, J., 1999, Language, Proof, and Logic, New York, NY: Seven Bridges Press.

  • Barwise, J. & Etchemendy, J., 1995, “Heterogeneous Logic,” in Diagrammatic Reasoning: Cognitive and Computational Perspectives, J. Glasgow, N.H. Narayanan, & B. Chandrasekaran, eds., Cambridge, MA: MIT Press, pp. 211–234.

  • Baldi, P., Sadowski P. & Whiteson D., 2014, “Searching for Exotic Particles in High-energy Physics with Deep Learning,” Nature Communications. [Available online]

  • Barwise, J. & Etchemendy, J., 1994, Hyperproof, Stanford, CA: CSLI.

  • Barwise, J. & Etchemendy, J., 1990, “Infons and Inference,” in Situation Theory and its Applications, (Vol 1), Cooper, Mukai, and Perry (eds), CSLI Lecture Notes #22, CSLI Press, pp. 33–78.

  • Bello, P. & Bringsjord S., 2013, “On How to Build a Moral Machine,” Topoi, 32.2: 251–266.

  • Bengio, Y., Goodfellow, I., & Courville, A., 2016, Deep Learning, Cambridge: MIT Press. [Available online]

  • Bengio, Y., Courville, A. & Vincent, P., 2013, “Representation Learning: A Review and New Perspectives,” Pattern Analysis and Machine Intelligence, IEEE Transactions, 35.8: 1798–1828.

  • Berners-Lee, T., Hendler, J. & Lassila, O., 2001, “The Semantic Web,” Scientific American, 284: 34–43.

  • Bishop, M. & Preston, J., 2002, Views into the Chinese Room: New Essays on Searle and Artificial Intelligence, Oxford, UK: Oxford University Press.

  • Boden, M., 1994, “Creativity and Computers,” in Artificial Intelligence and Computers, T. Dartnall, ed., Dordrecht, The Netherlands: Kluwer, pp. 3–26.

  • Boolos, G. S., Burgess, J.P., & Jeffrey., R.C., 2007, Computability and Logic 5th edition, Cambridge: Cambridge University Press.

  • Bostrom, N., 2014, Superintelligence: Paths, Dangers, Strategies, Oxford, UK: Oxford University Press.

  • Bowie, G.L., 1982, “Lucas’ Number is Finally Up,” Journal of Philosophical Logic, 11: 279–285.

  • Brachman, R. & Levesque, H., 2004, Knowledge Representation and Reasoning, San Francisco, CA: Morgan Kaufmann/Elsevier.

  • Bringsjord, S., Arkoudas K. & Bello P., 2006, “Toward a General Logicist Methodology for Engineering Ethically Correct Robots,” IEEE Intelligent Systems, 21.4: 38–44.

  • Bringsjord, S. & Ferrucci, D., 1998, “Logic and Artificial Intelligence: Divorced, Still Married, Separated…?” Minds and Machines, 8: 273–308.

  • Bringsjord, S. & Schimanski, B., 2003, “What is Artificial Intelligence? Psychometric AI as an Answer,” Proceedings of the 18th International Joint Conference on Artificial Intelligence (IJCAI-2003), (San Francisco, CA: MIT Morgan Kaufmann), pp. 887–893.

  • Bringsjord, S. & Ferrucci, D., 2000, Artificial Intelligence and Literary Creativity: Inside the Mind of Brutus, a Storytelling Machine, Mahwah, NJ: Lawrence Erlbaum.

  • Bringsjord, S. & van Heuveln, B., 2003, “The Mental Eye Defense of an Infinitized Version of Yablo’s Paradox,” Analysis 63.1: 61–70.

  • Bringsjord S. & Xiao, H., 2000, “A Refutation of Penrose’s Gödelian Case Against Artificial Intelligence,” Journal of Experimental and Theoretical Artificial Intelligence, 12: 307–329.

  • Bringsjord, S. & Zenzen, M., 2002, “Toward a Formal Philosophy of Hypercomputation,” Minds and Machines, 12: 241–258.

  • Bringsjord, S., 2000, “Animals, Zombanimals, and the Total Turing Test: The Essence of Artificial Intelligence,” Journal of Logic, Language, and Information, 9: 397–418.

  • Bringsjord, S., 1998, “Philosophy and ‘Super’ Computation,” The Digital Phoenix: How Computers are Changing Philosophy, J. Moor and T. Bynam, eds., Oxford, UK: Oxford University Press, pp. 231–252.

  • Bringsjord, S., 1991, “Is the Connectionist-Logicist Clash one of AI’s Wonderful Red Herrings?” Journal of Experimental & Theoretical AI, 3.4: 319–349.

  • Bringsjord, S., Govindarajulu N. S., Eberbach, E. & Yang, Y., 2012, “Perhaps the Rigorous Modeling of Economic Phenomena Requires Hypercomputation,” International Journal of Unconventional Computing, 8.1: 3–32. [Preprint available online]

  • Bringsjord, S., 2011, “Psychometric Artificial Intelligence,” Journal of Experimental and Theoretical Artificial Intelligence, 23.3: 271–277.

  • Bringsjord, S. & Govindarajulu N. S., 2012, “Given the Web, What is Intelligence, Really?” Metaphilosophy 43.12: 464–479.

  • Brooks, R. A., 1991, “Intelligence Without Representation,” Artificial Intelligence, 47: 139–159.

  • Browne, C. B., Powley, E. & Whitehouse, D., 2012, “A Survey of Monte Carlo Tree Search Methods,” A Survey of Monte Carlo Tree Search Methods, 4.1: 1–43.

  • Buchanan, B. G., 2005, “A (Very) Brief History of Artificial Intelligence,” AI Magazine, 26.4: 53–60.

  • Carroll, L., 1958, Symbolic Logic; Game of Logic, New York, NY: Dover.

  • Cassimatis, N., 2006, “Cognitive Substrate for Human-Level Intelligence,” AI Magazine, 27.2: 71–82.

  • Chajed, T., Chen, H., Chlipala, A., Kaashoek, F., Zeldovich, N., & Ziegler, D., 2017, “Research Highlight: Certifying a File System using Crash Hoare Logic: Correctness in the Presence of Crashes,” Communications of the ACM (CACM), 60.4: 75–84.

  • Chalmers, D., 2010, “The Singularity: A Philosophical Analysis,” Journal of Consciousness Studies, 17: 7–65.

  • Charniak, E., 1993, Statistical Language Learning, Cambridge: MIT Press.

  • Charniak, E. & McDermott, D., 1985, Introduction to Artificial Intelligence, Reading, MA: Addison Wesley.

  • Chellas, B., 1980, Modal Logic: An Introduction, Cambridge, UK: Cambridge University Press.

  • Chisholm, R., 1957, Perceiving, Ithaca, NY: Cornell University Press.

  • Chisholm, R., 1966, Theory of Knowledge, Englewood Cliffs, NJ: Prentice-Hall.

  • Chisholm, R., 1977, Theory of Knowledge 2nd ed, Englewood Cliffs, NJ: Prentice-Hall.

  • Clark, A., 2003, Natural-Born Cyborgs, Oxford, UK: Oxford University Press.

  • Clark, M. H., 2010, Cognitive Illusions and the Lying Machine: A Blueprint for Sophistic Mendacity, PhD dissertation, Rensselaer Polytechnic Institute (Cognitive Science).

  • Copeland, B. J., 1998, “Super Turing Machines,” Complexity, 4: 30–32.

  • Copi, I. & Cohen, C., 2004, Introduction to Logic, Saddle River, NJ: Prentice-Hall.

  • Dennett, D., 1998, “Artificial Life as Philosophy,” in his Brainchildren: Essays on Designing Minds, Cambridge, MA: MIT Press, pp. 261–263.

  • Dennett, D., 1994, “The Practical Requirements for Making a Conscious Robot,” Philosophical Transactions of the Royal Society of London, 349: 133–146.

  • Dennett, D., 1979, “Artificial Intelligence as Philosophy and as Psychology,” Philosophical Perspectives in Artificial Intelligence, M. Ringle, ed., Atlantic Highlands, NJ: Humanities Press, pp. 57–80.

  • Descartes, 1637, R., in Haldane, E. and Ross, G.R.T., translators, 1911, The Philosophical Works of Descartes, Volume 1, Cambridge, UK: Cambridge University Press.

  • Dick, P. K., 1968, Do Androids Dream of Electric Sheep?, New York, NY: Doubleday.

  • Domingos, P., 2012, “A Few Useful Things to Know about Machine Learning,” Communications of the ACM, 55.10: 78–87.

  • Dreyfus, H., 1972, What Computers Can’t Do, Cambridge, MA: MIT Press.

  • Dreyfus, H., 1992, What Computers Still Can’t Do, Cambridge, MA: MIT Press.

  • Dreyfus, H. & Dreyfus, S., 1987, Mind Over Machine: The Power of Human Intuition and Expertise in the Era of the Computer, New York, NY: Free Press.

  • Ebbinghaus, H., Flum, J. & Thomas, W., 1984, Mathematical Logic, New York, NY: Springer-Verlag.

  • Eden, A., Moor, J., Soraker, J. & Steinhart, E., 2013, Singularity Hypotheses: A Scientific and Philosophical Assessment, New York, NY: Springer.

  • España-Bonet, C., Enache, R., Slaski, A., Ranta, A., Màrquez L. & Gonzàlez, M., 2011, “Patent Translation within the MOLTO project,” in Proceedings of the 4th Workshop on Patent Translation, MT Summit XIII, pp. 70–78.

  • Evans, G., 1968, “A Program for the Solution of a Class of Geometric-Analogy Intelligence-Test Questions,” in M. Minsky, ed., Semantic Information Processing, Cambridge, MA: MIT Press, pp. 271–353.

  • Fagin, R., Halpern, J. Y., Moses, Y. & Vardi, M., 2004, Reasoning About Knowledge, Cambridge, MA: MIT Press.

  • Ferrucci, D. & Lally, A., 2004, “UIMA: An Architectural Approach to Unstructured Information Processing in the Corporate Research Environment,” Natural Language Engineering, 10.3–4: 327–348. Cambridge, UK: Cambridge University Press.

  • Ferrucci, D., Brown, E., Chu-Carroll, J., Fan, J., Gondek, D., Kalyanpur, A., Lally, A., Murdock, J., Nyberg, E., Prager, J., Schlaefer, N. & Welty, C., 2010, “Building Watson: An Overview of the DeepQA Project,” AI Magazine, 31.3: 59–79.

  • Finnsson, H., 2012, “Generalized Monte-Carlo Tree Search Extensions for General Game Playing,” in Proceedings of the Twenty-Sixth AAAI Conference on Artificial Intelligence (AAAI-2012), Toronto, Canda, pp. 1550–1556.

  • Fitelson, B., 2005, “Inductive Logic,” in Pfeifer, J. and Sarkar, S., eds., Philosophy of Science: An Encyclopedia, London, UK: Routledge, pp. 384–394.

  • Floridi, L., 2015, “Singularitarians, AItheists, and Why the Problem with Artificial Intelligence is H.A.L. (Humanity At Large), not HAL,” APA Newsletter: Philosophy and Computers, 14.2: 8–11.

  • Foot, P., 1967, “The Problem of Abortion and the Doctrine of the Double Effect,” Oxford Review, 5: 5–15.

  • Forbus, K. D. & Hinrichs, T. R., 2006, “Companion Cognitive Systems: A Step toward Human-Level AI,” AI Magazine, 27.2: 83.

  • Ford, K. M., Glymour C. & Hayes P., 1997, “On the Other Hand … Cognitive Prostheses,” AI Magazine, 18.3: 104.

  • Friedland, N., Allen, P., Matthews, G., Witbrock, M., Baxter, D., Curtis, J., Shepard, B., Miraglia, P., Angele, J., Staab, S., Moench, E., Oppermann, H., Wenke, D., Israel, D., Chaudhri, V., Porter, B., Barker, K., Fan, J., Yi Chaw, S., Yeh, P., Tecuci, D. & Clark, P., 2004, “Project Halo: Towards a Digital Aristotle,” AI Magazine, 25.4: 29–47.

  • Genesereth, M., Love, N. & Pell B., 2005, “General Game Playing: Overview of the AAAI Competition,” AI Magazine, 26.2: 62–72. [Available online]

  • Ginsberg, M., 1993, Essentials of Artificial Intelligence, New York, NY: Morgan Kaufmann.

  • Glymour, G., 1992, Thinking Things Through, Cambridge, MA: MIT Press.

  • Goertzel, B. & Pennachin, C., eds., 2007, Artificial General Intelligence, Berlin, Heidelberg: Springer-Verlag.

  • Gold, M., 1965, “Limiting Recursion,” Journal of Symbolic Logic, 30.1: 28–47.

  • Goldstine, H. & von Neumann, J., 1947, “Planning and Coding of Problems for an Electronic Computing Instrument,” IAS Reports Institute for Advanced Study, Princeton, NJ. [This remarkable work is available online from the Institute for Advanced Study. Please note that this paper is Part II of a three-volume set. The first volume was devoted to a preliminary discussion, and the first author on it was Arthur Burks, joining Goldstine and von Neumann.]

  • Good, I., 1965, “Speculations Concerning the First Ultraintelligent Machines,” in Advances in Computing (vol. 6), F. Alt and M. Rubinoff, eds., New York, NY: Academic Press, pp. 31–38.

  • Govindarajulu, N. S., Bringsjord, S. & Licato J., 2013, “On Deep Computational Formalization of Natural Language,” in Proceedings of the Workshop “Formalizing Mechanisms for Artificial General Intelligence and Cognition (Formal MAGiC),” Osnabrück, Germany: PICS.

  • Govindarajulu, N. S., & Bringsjord, S., 2015, “Ethical Regulation of Robots Must Be Embedded in Their Operating Systems” in Trappl, R., ed., A Construction Manual for Robot’s Ethical Systems: Requirements, Methods, Implementations, Berlin, DE: Springer.

  • Govindarajulu, N. S., & Bringsjord, S., 2017, “On Automating the Doctrine of Double Effect,” in Proceedings of the Twenty-Sixth International Joint Conference on Artificial Intelligence (IJCAI-17), pp. 4722–4730. doi:10.24963/ijcai.2017/658

  • Granger, R., 2004a, “Derivation and Analysis of Basic Computational Operations of Thalamocortical Circuits,” Journal of Cognitive Neuroscience 16: 856–877.

  • Granger, R., 2004b, “Brain Circuit Implementation: High-precision Computation from Low-Precision Components,” in Toward Replacement Parts for the Brain, T. Berger and D. Glanzman, eds., Cambridge, MA: MIT Press, pp. 277–294.

  • Griewank, A., 2000, Evaluating Derivatives: Principles and Techniques of Algorithmic Differentiation, Philadlphia, PA: Society for Industrial and Applied Mathematics (SIAM).

  • Guizzo, E., 2011, “How Google’s Self-driving Car Works,” IEEE Spectrum Online. [Available online]

  • Hailperin, T., 1996, Sentential Probability Logic: Origins, Development, Current Status, and Technical Applications, Bethlehem, United States: Lehigh University Press.

  • Hailperin, T., 2010, Logic with a Probability Semantics, Bethlehem, United States: Lehigh University Press.

  • Halpern, J. Y., 1990, “An Analysis of First-order Logics of Probability,” Artificial Intelligence, 46: 311–350.

  • Halpern, J., Harper, R., Immerman, N., Kolaitis, P. G., Vardi, M. & Vianu, V., 2001, “On the Unusual Effectiveness of Logic in Computer Science,” The Bulletin of Symbolic Logic, 7.2: 213–236.

  • Hamkins, J. & Lewis, A., 2000, “Infinite Time Turing Machines,” Journal of Symbolic Logic, 65.2: 567–604.

  • Harnad, S., 1991, “Other Bodies, Other Minds: A Machine Incarnation of an Old Philosophical Problem,” Minds and Machines, 1.1: 43–54.

  • Haugeland, J., 1985, Artificial Intelligence: The Very Idea, Cambridge, MA: MIT Press.

  • Hendler, J. & Jennifer G., 2008, “Metcalfe’s Law, Web 2.0, and the Semantic Web,” Web Semantics: Science, Services and Agents on the World Wide Web, 6.1: 14–20.

  • Hinton, G., Deng, L., Yu, D., Dahl, G.E., Mohamed, A. R., Jaitly, N., Senior, A., Vanhoucke, V., Nguyen, P., Sainath, T. & Kingsbury, B., 2012, “Deep Neural Networks for Acoustic Modeling in Speech Recognition: The Shared Views of Four Research Groups,” IEEE Signal Processing Magazine, 29.6: 82–97.

  • Hoffman, R. R., Hayes, P. J. & Ford, K. M., 2001, “Human-Centered Computing: Thinking In and Out of the Box,” IEEE Intelligent Systems, 16.5: 76–78.

  • Hoffman, R. R., Bradshaw J. M., Hayes P. J. & Ford K. M., 2003, “ The Borg Hypothesis,” IEEE Intelligent Systems, 18.5: 73–75.

  • Hofstadter, D. & McGraw, G., 1995, “Letter Spirit: Esthetic Perception and Creative Play in the Rich Microcosm of the Roman Alphabet,” in Hofstadter’s Fluid Concepts and Creative Analogies: Computer Models of the Fundamental Mechanisms of Thought, New York, NY: Basic Books, pp. 407–488.

  • Hornik, K., Stinchcombe, M. & White, H., 1989, “Multilayer Feedforward Networks are Universal Approximators,” Neural Networks, 2.5: 359–366.

  • Hutter, M., 2005, Universal Artificial Intelligence, Berlin: Springer.

  • Joy, W., 2000, “Why the Future Doesn’t Need Us,” Wired 8.4. [Available online]

  • Kahneman, D., 2013. Thinking, Fast and Slow, New York, NY: Farrar, Straus, and Giroux.

  • Kaufmann, M., Manolios, P. & Moore, J. S., 2000, Computer-Aided Reasoning: ACL2 Case Studies, Dordrecht, The Netherlands: Kluwer Academic Publishers.

  • Klenk, M., Forbus, K., Tomai, E., Kim,H. & Kyckelhahn, B., 2005, “Solving Everyday Physical Reasoning Problems by Analogy using Sketches,” in Proceedings of 20th National Conference on Artificial Intelligence (AAAI-05), Pittsburgh, PA.

  • Kolata, G., 1996, “Computer Math Proof Shows Reasoning Power,” in New York Times. [Availabe online]

  • Koller, D., Levy, A. & Pfeffer, A., 1997, “P-CLASSIC: A Tractable Probablistic Description Logic,” in Proceedings of the AAAI 1997 Meeting, 390–397.

  • Kurzweil, R., 2006, The Singularity Is Near: When Humans Transcend Biology, New York, NY: Penguin USA.

  • Kurzweil, R., 2000, The Age of Spiritual Machines: When Computers Exceed Human Intelligence, New York, NY: Penguin USA.

  • LaForte, G., Hayes P. & Ford, K., 1998, “Why Gödel’s Theorem Cannot Refute Computationslism,” Artificial Intelligence, 104: 265–286.

  • Laird, J. E., 2012, The Soar Cognitive Architecture, Cambridge, MA: MIT Press.

  • Laird, J. & VanLent M., 2001, “Human-level AI’s Killer Application: Interactive Computer Games,” AI Magazine 22.2:15–26.

  • LeCun, Y., Bengio, Y. & Hinton G., 2015, “Deep Learning,” Nature, 521: 436–444.

  • Lenat, D., 1983, “EURISKO: A Program that Learns New Heuristics and Domain Concepts,” Artificial Intelligence, 21(1-2): 61–98. doi:10.1016/s0004-3702(83)80005-8

  • Lenat, D., & Guha, R. V., 1990, Building Large Knowledge-Based Systems: Representation and Inference in the Cyc Project, Reading, MA: Addison Wesley.

  • Lenzen, W., 2004, “Leibniz’s Logic,” in Gabbay, D., Woods, J. and Kanamori, A., eds., Handbook of the History of Logic, Elsevier, Amsterdam, The Netherlands, pp. 1–83.

  • Lewis, H. & Papadimitriou, C., 1981, Elements of the Theory of Computation, Prentice Hall, Englewood Cliffs, NJ: Prentice Hall.

  • Litt, A., Eliasmith, C., Kroon, F., Weinstein, S. & Thagard, P., 2006, “Is the Brain a Quantum Computer?” Cognitive Science 30: 593–603.

  • Lucas, J. R., 1964, “Minds, Machines, and Gödel,” in Minds and Machines, A. R. Anderson, ed., Prentice-Hall, NJ: Prentice-Hall, pp. 43–59.

  • Luger, G., 2008, Artificial Intelligence: Structures and Strategies for Complex Problem Solving, New York, NY: Pearson.

  • Luger, G. & Stubblefield, W., 1993, Artificial Intelligence: Structures and Strategies for Complex Problem Solving, Redwood, CA: Benjamin Cummings.

  • Lopez, A., 2008, “Statistical Machine Translation,” ACM Computing Surveys, 40.3: 1–49.

  • Malle, B. F., Scheutz, M., Arnold, T., Voiklis, J. & Cusimano, C., 2015, “Sacrifice One For the Good of Many?: People Apply Different Moral Norms to Human and Robot Agents,” in Proceedings of the Tenth Annual ACM/IEEE International Conference on Human-Robot Interaction (HRI ’15) (New York, NY: ACM), pp. 117–124.

  • Manzano, M., 1996, Extensions of First Order Logic, Cambridge, UK: Cambridge University Press.

  • Marcus, G., 2013, “Why Can’t My Computer Understand Me?,” in The New Yorker, August 2013. [Available online]

  • McCarthy, J. & Hayes, P., 1969, “Some Philosophical Problems from the Standpoint of Artificial Intelligence,” in Machine Intelligence 4, B. Meltzer and D. Michie, eds., Edinburgh: Edinburgh University Press, 463–502.

  • Mueller, E., 2006, Commonsense Reasoning, San Francisco, CA: Morgan Kaufmann.

  • Murphy, K. P., 2012, Machine Learning: A Probabilistic Perspective, Cambridge, MA: MIT Press.

  • Minsky, M. & Pappert, S., 1969, Perceptrons: An Introduction to Computational Geometry, Cambridge, MA: MIT Press.

  • Montague, R., 1970, “Universal Grammar,” Theoria, 36, 373–398.

  • Moor, J., 2006, “The Nature, Importance, and Difficulty of Machine Ethics”, IEEE Intelligent Systems 21.4: 18–21.

  • Moor, J., 1985, “What is Computer Ethics?” Metaphilosophy 16.4: 266–274.

  • Moor, J., ed., 2003, The Turing Test: The Elusive Standard of Artificial Intelligence, Dordrecht, The Netherlands: Kluwer Academic Publishers.

  • Moravec, H., 1999, Robot: Mere Machine to Transcendant Mind, Oxford, UK: Oxford University Press,

  • Naumowicz, A. & Kornilowicz., A., 2009, “A Brief Overview of Mizar,” in Theorem Proving in Higher Order Logics, S. Berghofer, T. Nipkow, C. Urban & M. Wenzel, eds., Berlin: Springer, pp. 67–72.

  • Newell, N., 1973, “You Can’t Play 20 Questions with Nature and Win: Projective Comments on the Papers of this Symposium”, in Visual Information Processing, W. Chase, ed., New York, NY: Academic Press, pp. 283–308.

  • Nilsson, N., 1998, Artificial Intelligence: A New Synthesis, San Francisco, CA: Morgan Kaufmann.

  • Nilsson, N., 1987, Principles of Artificial Intelligence, New York, NY: Springer-Verlag.

  • Nilsson, N., 1991, “Logic and Artificial Intelligence,” Artificial Intelligence, 47: 31–56.

  • Nozick, R., 1970, “Newcomb’s Problem and Two Principles of Choice,” in Essays in Honor of Carl G. Hempel, N. Rescher, ed., Highlands, NJ: Humanities Press, pp. 114–146. This appears to be the very first published treatment of NP – though the paradox goes back to its creator: William Newcomb, a physicist.

  • Osherson, D., Stob, M. & Weinstein, S., 1986, Systems That Learn, Cambridge, MA: MIT Press.

  • Pearl, J., 1988, Probabilistic Reasoning in Intelligent Systems, San Mateo, CA: Morgan Kaufmann.

  • Pennington, J., Socher R., & Manning C. D., 2014, “GloVe: Global Vectors for Word Representation,” in Proceedings of the 2014 Conference on Empirical Methods in Natural Language Processing (EMNLP 2014), pp. 1532–1543. [Available online]

  • Penrose, R., 1989, The Emperor’s New Mind, Oxford, UK: Oxford University Press.

  • Penrose, R., 1994, Shadows of the Mind, Oxford, UK: Oxford University Press.

  • Penrose, R., 1996, “Beyond the Doubting of a Shadow: A Reply to Commentaries on Shadows of the Mind,” Psyche, 2.3. This paper is available online.

  • Pereira, L., & Saptawijaya A., 2016, Programming Machine Ethics, Berlin, Germany: Springer

  • Pinker, S., 1997, How the Mind Works, New York, NY: Norton.

  • Pollock, J., 2006, Thinking about Acting: Logical Foundations for Rational Decision Making, Oxford, UK: Oxford University Press.

  • Pollock, J., 2001, “Defeasible Reasoning with Variable Degrees of Justification,” Artificial Intelligence, 133, 233–282.

  • Pollock, J., 1995, Cognitive Carpentry: A Blueprint for How to Build a Person, Cambridge, MA: MIT Press.

  • Pollock, J., 1992, “How to Reason Defeasibly,” Artificial Intelligence, 57, 1–42.

  • Pollock, J., 1989, How to Build a Person: A Prolegomenon, Cambridge, MA: MIT Press.

  • Pollock, J., 1974, Knowledge and Justification, Princeton, NJ: Princeton University Press.

  • Pollock, J., 1967, “Criteria and our Knowledge of the Material World,” Philosophical Review, 76, 28–60.

  • Pollock, J., 1965, Analyticity and Implication, PhD dissertation, University of California at Berkeley (Philosophy).

  • Potter, M.D., 2004, Set Theory and its Philosophy, Oxford, UK: Oxford University Press

  • Preston, J. & Bishop, M., 2002, Views into the Chinese Room: New Essays on Searle and Artificial Intelligence, Oxford, UK: Oxford University Press.

  • Putnam, H., 1965, “Trial and Error Predicates and a Solution to a Problem of Mostowski,” Journal of Symbolic Logic, 30.1, 49–57.

  • Putnam, H., 1963, “Degree of Confirmation and Inductive Logic,” in The Philosophy of Rudolf Carnap, Schilipp, P., ed., Open Court, pp. 270–292.

  • Rajat, R., Anand, M. & Ng, A. Y., 2009, “Large-scale Deep Unsupervised Learning Using Graphics Processors,” in Proceedings of the 26th Annual International Conference on Machine Learning, ACM, pp. 873–880.

  • Rapaport, W., 1988, “Syntactic Semantics: Foundations of Computational Natural-Language Understanding,” in Aspects of Artificial Intelligence, J. H. Fetzer ed., Dordrecht, The Netherlands: Kluwer Academic Publishers, 81–131.

  • Rapaport, W. & Shapiro, S., 1999, “Cognition and Fiction: An Introduction,” Understanding Language Understanding: Computational Models of Reading, A. Ram & K. Moorman, eds., Cambridge, MA: MIT Press, 11–25. [Available online]

  • Reeke, G. & Edelman, G., 1988, “Real Brains and Artificial Intelligence,” in The Artificial Intelligence Debate: False Starts, Real Foundations, Cambridge, MA: MIT Press, pp. 143–173.

  • Richardson, M. & Domingos, P., 2006, “Markov Logic Networks,” Machine Learning, 62.1–2:107–136.

  • Robertson, G. & Watson, I., 2015, “A Review of Real-Time Strategy Game AI,” AI Magazine, 35.4: 75–104.

  • Rosenschein, S. & Kaelbling, L., 1986, “The Synthesis of Machines with Provable Epistemic Properties,” in Proceedings of the 1986 Conference on Theoretical Aspects of Reasoning About Knowledge, San Mateo, CA: Morgan Kaufmann, pp. 83–98.

  • Rumelhart, D. & McClelland, J., 1986, eds., Parallel Distributed Processing, Cambridge, MA: MIT Press.

  • Russell, S., 1997, “Rationality and Intelligence,” Artificial Intelligence, 94: 57–77. [Version available online from author]

  • Russell, S. & Norvig, P., 1995, Artificial Intelligence: A Modern Approach, Saddle River, NJ: Prentice Hall.

  • Russell, S. & Norvig, P., 2002, Artificial Intelligence: A Modern Approach 2nd edition, Saddle River, NJ: Prentice Hall.

  • Russell, S. & Norvig, P., 2009, Artificial Intelligence: A Modern Approach 3rd edition, Saddle River, NJ: Prentice Hall.

  • Rychtyckyj, N. & Plesco, C., 2012, “Applying Automated Language Translation at a Global Enterprise Level,” AI Magazine, 34.1: 43–54.

  • Scanlon, T. M., 1982, “Contractualism and Utilitarianism,” in A. Sen and B. Williams, eds., Utilitarianism and Beyond, Cambridge: Cambridge University Press, pp. 103–128.

  • Schank, R., 1972, “Conceptual Dependency: A Theory of Natural Language Understanding,” Cognitive Psychology, 3.4: 532–631.

  • Schaul, T. & Schmidhüber, J., 2010, “Metalearning,” Scholarpedia 5(6): 4650. URL: http://www.scholarpedia.org/article/Metalearning

  • Schmidhüber, J., 2009, “Ultimate Cognition à la Gödel,” Cognitive Computation 1.2: 177–193.

  • Searle, J., 1997, The Mystery of Consciousness, New York, NY: New York Review of Books.

  • Searle, J., 1980, “Minds, Brains and Programs,” Behavioral and Brain Sciences, 3: 417–424.

  • Searle, J., 1984, Minds, Brains and Science, Cambridge, MA: Harvard University Press. The Chinese Room Argument is covered in Chapter Two, “Can Computers Think?”.

  • Searle, J., 2014, “What Your Computer Can’t Know,” New York Review of Books, October 9.

  • Shapiro, S., 2000, “An Introduction to SNePS 3,” in Conceptual Structures: Logical, Linguistic, and Computational Issues. Lecture Notes in Artificial Intelligence 1867, B. Ganter & G. W. Mineau, eds., Springer-Verlag, 510–524.

  • Shapiro, S., 2003, “Mechanism, Truth, and Penrose’s New Argument,” Journal of Philosophical Logic, 32.1: 19–42.

  • Siegelmann, H., 1999, Neural Networks and Analog Computation: Beyond the Turing Limit, Boston, MA: Birkhauser.

  • Siegelmann, H. & and Sontag, E., 1994, “Analog Computation Via Neural Nets,” Theoretical Computer Science, 131: 331–360.

  • Silver, D., Huang, A., Maddison, C. J., Guez, A., Sifre, L., van den Driessche, G., Schrittwieser, J., Antonoglou, I., Panneershelvam, V., Lanctot, M., Dieleman, S., Grewe, D., Nham, J., Kalchbrenner, N., Sutskever, I., Lillicrap, T., Leach, M., Kavukcuoglu, K., Graepel T. & Hassabis D., 2016, “Mastering the Game of Go with Deep Neural Networks and Tree Search,” Nature, 529: 484–489.

  • Shin, S-J, 2002, The Iconic Logic of Peirce’s Graphs, Cambridge, MA: MIT Press.

  • Smolensky, P., 1988, “On the Proper Treatment of Connectionism,” Behavioral & Brain Sciences, 11: 1–22.

  • Somers, J., 2013, “The Man Who Would Teach Machines to Think,” in The Atlantic. [Available online]

  • Stanovich, K. & West, R., 2000, “Individual Differences in Reasoning: Implications for the Rationality Debate,” Behavioral and Brain Sciences, 23.5: 645–665.

  • Strzalkowski, T. & Harabagiu, M. S., 2006, eds., Advances in Open Domain Question Answering; in the series Text, Speech and Language Technology, volume 32, Dordrecht, The Netherlands: Springer-Verlag.

  • Sun, R., 2002, Duality of the Mind: A Bottom Up Approach Toward Cognition, Mahwah, NJ: Lawrence Erlbaum.

  • Sun, R., 1994, Integrating Rules and Connectionism for Robust Commonsense Reasoning, New York, NY: John Wiley and Sons.

  • Sutton R. S. & Barto A. G., 1998, Reinforcement Learning: An Introduction, Cambridge, MA: MIT Press.

  • Szegedy, C., Zaremba, W., Sutskever, I., Bruna, J., Erhan, D., Goodfellow, I. & Fergus, R., 2014, “Intriguing Properties of Neural Networks,” in Second International Conference on Learning Representations, Banff, Canada. [Available online]

  • Hastie, T., Tibshirani, R., & Jerome, F., 2009, The Elements of Statistical Learning, in the series Springer Series in Statistics, New York: Springer.

  • Turing, A., 1950, “Computing Machinery and Intelligence,” Mind, LIX: 433–460.

  • Turing, A., 1936, “On Computable Numbers with Applications to the Entscheidung-Problem,” Proceedings of the London Mathematical Society, 42: 230–265.

  • Vilalta, R. & Drissi, Y., 2002, “A Perspective View and Survey of Meta-learning,” Artificial Intelligence Review, 18.2:77–95.

  • Voronkov, A., 1995, “The Anatomy of Vampire: Implementing Bottom-Up Procedures with Code Trees,” Journal of Automated Reasoning, 15.2.

  • Wallach, W. & Allen, C., 2010, Moral Machines: Teaching Robots Right from Wrong, Oxford, UK: Oxford University Press.

  • Wermter, S. & Sun, R., 2001 (Spring), “The Present and the Future of Hybrid Neural Symbolic Systems: Some Reflections from the Neural Information Processing Systems Workshop,” AI Magazine, 22.1: 123–125.

  • Suppes, P., 1972, Axiomatic Set Theory, New York, NY: Dover.

  • Whiteson, S. & Whiteson, D., 2009, “Machine Learning for Event Selection in High Energy Physics,” Engineering Applications of Artificial Intelligence 22.8: 1203–1217.

  • Williams, D. E., Hinton G. E., & Williams R. J., 1986 “Learning Representations by Back-propagating Errors,” Nature, 323.10: 533–536.

  • Winston, P., 1992, Artificial Intelligence, Reading, MA: Addison-Wesley.

  • Wos, L., Overbeek, R., Lusk R. & Boyle, J., 1992, Automated Reasoning: Introduction and Applications (2nd edition), New York, NY: McGraw-Hill.

  • Wos, L., 2013, “The Legacy of a Great Researcher,” in Automated Reasoning and Mathematics: Essays in Memory of William McCune, Bonacina, M.P. & Stickel, M.E., eds., 1–14. Berlin: Springer.

  • Zalta, E., 1988, Intensional Logic and the Metaphysics of Intentionality, Cambridge, MA: Bradford Books.

Academic Tools

Other Internet Resources

Cited Resources

Online Courses on AI

  1. Artifical Intelligence (online course from Udacity).

  2. Artificial Intelligence (Columbia University).

  3. Artificial Intelligence MIT (Fall 2010).

  4. Artificial Intelligence for Robotics: Programming a Robotic Car (online course on AI formalisms that are used in mobile robots).

artificial intelligence: logic-based | causation: probabilistic | Chinese room argument | cognitive science | computability and complexity | computing: modern history of | connectionism | epistemology: Bayesian | frame problem | information technology: and moral values | language of thought hypothesis | learning theory, formal | linguistics: computational | mind: computational theory of | reasoning: automated | reasoning: defeasible | statistics, philosophy of | Turing test

Acknowledgments

Thanks are due to Peter Norvig and Prentice-Hall for allowing figures from AIMA to be used in this entry. Thanks are due as well to the many first-rate (human) minds who have read earlier drafts of this entry, and provided helpful feedback. Without the support of our AI research and development from both ONR and AFOSR, our knowledge of AI and ML would confessedly be acutely narrow, and we are grateful for the support. We are also very grateful to the anonymous referees who provided us with meticulous reviews in our reviewing round in late 2015 to early 2016. Special acknowledgements are due to the SEP editors and, in particular, Uri Nodelman for patiently working with us throughout and for providing technical and insightful editorial help.

Copyright © 2018 by Selmer Bringsjord <Selmer.Bringsjord@gmail.com> Naveen Sundar Govindarajulu <Naveen.Sundar.G@gmail.com>

最后更新于

Logo

道长哲学研讨会 2024