中文房间实验 Chinese room argument (David Cole)

首次发表于 2004 年 3 月 19 日星期五;实质性修订于 2020 年 2 月 20 日星期四

中国哲学中现在广为人知的论证和思想实验,最早发表在 1980 年美国哲学家约翰·西尔(1932 年– )的一篇文章中。它已成为近代哲学中最著名的论证之一。西尔想象自己独处一室,按照一个用于回应塞入门缝的中文字符的计算机程序操作。西尔对中文一无所知,然而,通过按照操纵符号和数字的程序,就像计算机一样,他将适当的中文字符串发送回门外,这让外面的人错误地认为房间里有一个会说中文的人。

该论证的狭义结论是,给数字计算机编程可能会使其看起来理解语言,但无法产生真正的理解。因此,“图灵测试”是不够的。西尔认为,这个思想实验强调了计算机仅仅使用句法规则来操纵符号串,但对意义或语义没有理解。该论证的更广泛结论是,人类思维类似于计算或信息处理系统的理论被驳斥。相反,思维必须源自生物过程;计算机最多只能模拟这些生物过程。因此,该论证对语义学、语言和思维哲学、意识理论、计算机科学和认知科学普遍具有重要影响。因此,对该论证已经有许多批评性回应。


1. 概览

人工智能(AI)的研究已经产生了可以击败世界国际象棋冠军、控制自动驾驶车辆、完成我们的电子邮件句子,并在电视问答节目《危险边缘》中击败最优秀的人类选手的计算机程序。AI 还产生了一些可以用自然语言交谈的程序,包括客户服务“虚拟代理人”,以及亚马逊的 Alexa 和苹果的 Siri。我们的经验表明,下棋或参加《危险边缘》这样的节目,并进行对话,都是需要理解和智能的活动。计算机在对话和挑战性游戏方面的能力是否表明计算机能够理解语言并具有智能?进一步的发展会导致数字计算机完全匹敌甚至超越人类智能吗?计算机领域的先驱理论家之一 Alan Turing(1950 年)相信这些问题的答案是“是”。图灵提出了现在被称为“图灵测试”的概念:如果一台计算机在在线聊天中能够通过人类检测,我们应该承认它是具有智能的。到了 20 世纪 70 年代末,一些人工智能研究人员声称计算机已经至少理解了一些自然语言。1980 年,加州大学伯克利分校的哲学家约翰·西尔提出了一个简短而广泛讨论的论点,旨在明确表明数字计算机不可能理解语言或思考。

塞尔认为,测试心灵理论的一个好方法是想象实际执行理论所说会产生理解的行为是什么样的。塞尔(1999)简洁总结了他的中国屋论证(以下简称 CRA):

想象一个不懂中文的以英文为母语的人被锁在一个充满中文符号盒子(一个数据库)和一本操作这些符号的指导书(程序)的房间里。想象房间外的人们发送进来其他中文符号,而房间里的人不知道这些符号实际上是中文问题(输入)。想象通过遵循程序中的指示,房间里的人能够传递出符合这些问题的正确答案的中文符号(输出)。该程序使房间里的人通过图灵测试来表现出理解中文的能力,但他并不懂一句中文。

塞尔继续说道:“论点在于:如果房间里的人不是基于执行适当的理解中文程序而理解中文的,那么也没有任何其他数字计算机仅基于这一点,因为没有任何计算机作为计算机拥有任何人所没有的东西。”

在引入 CRA 三十年后,塞尔 2010 年描述了关于意识和意向性的结论。

我多年前用所谓的中国屋论证证明,计算机程序的实施本身并不足以产生意识或指称性(Searle 1980)。计算被纯粹形式地或句法地定义,而心智具有实际的心理或语义内容,我们无法仅通过具有句法操作而无其他内容就从句法到语义。稍微更加技术化地表达这一点,“相同的实施程序”这一概念定义了一个等价类,独立于任何具体的物理实现而指定。但这样的规定必然遗漏了大脑的生物特定能力来引起认知过程。例如,一个系统,比如我,不会仅通过执行模拟中国人言行的计算机程序的步骤来获得对中文的理解(第 17 页)。

“指称性”是心理和某些其他事物的一个特征的技术术语,即关于某事物的特性。因此,对巧克力的渴望以及对真实曼哈顿或虚构哈利波特的思考都展示了指称性,这将在下文 5.2 节中更详细地讨论。

Searle 从机器理解转向意识和意向性,并没有直接得到 1980 年原始论证的支持。然而,对结论的重新描述表明了在 Searle 后来关于意义和意向性的论述中,理解和意识之间的密切联系。那些不接受 Searle 关联论述的人可能认为,运行程序可以产生理解,而不一定产生意识,反之,一个花哨的机器人可能具有狗一样的意识、欲望和信念,而不一定理解自然语言。

在转向讨论意向性时,Searle 试图发展他论证的更广泛含义。这旨在驳斥理解心智的功能主义方法,即认为心理状态是由其因果作用而不是扮演这些角色的实体(神经元、晶体管)来定义的方法。这个论点特别针对被称为计算心灵理论的那种功能主义形式,该理论将心智视为信息处理系统。由于其广泛性以及 Searle 清晰而有力的写作风格,中国屋论证可能是自图灵测试以来在认知科学中讨论最广泛的哲学论证。到 1991 年,计算机科学家帕特·海斯已经将认知科学定义为驳斥 Searle 论证的持续研究项目。认知心理学家史蒂文·平克(1997 年)指出,到了 1990 年代中期,已经发表了 100 多篇关于 Searle 思想实验的文章,对此的讨论在互联网上如此普遍,以至于平克认为这是一个令人信服的理由,他退出了所有互联网讨论列表。

这种兴趣并未减退,与这一论点的联系范围也在扩大。在谷歌学术上搜索“Searle Chinese Room”(中文房间)限定在 2010 年至 2019 年期间,产生了 2000 多个结果,其中包括与这一论点相关的论文,涉及的主题从具身认知到戏剧再到话语心理治疗再到后现代对真理和“我们的后人类未来”的看法,以及关于群体或集体思维以及哲学中直觉作用的讨论。2007 年,一家游戏公司以“中文房间”为名,以玩笑的方式向“……Searle 对人工智能的批评——即你可以创建一个系统,给人以智能的印象,而实际上内部并没有任何智能。”这种广泛讨论和涵义的范围是对这一论点简单明了和核心性的致敬。

2. 历史背景

2.1 莱布尼茨的磨盘

西尔的论点有四个重要的前提。其中第一个是由哲学家和数学家哥特弗里德·莱布尼茨(1646-1716)提出的论点。这个论点通常被称为“莱布尼茨的磨盘”,出现在莱布尼茨的《单子论》第 17 节中。与西尔的论点类似,莱布尼茨的论点采用了思想实验的形式。莱布尼茨要求我们想象一个物理系统,一台机器,它的行为表现得好像它在思考并且有经验(“感知”)。

此外,必须承认,知觉及其所依赖的东西在机械的基础上是无法解释的,也就是说,无法用图形和运动来解释。假设有一台机器,它被构造成能够思考、感受和感知,可以想象它的尺寸增大,但比例保持不变,这样一个人就可以像进入磨坊一样进入其中。即使如此,我们在检查它的内部时,只会发现彼此相互作用的部件,永远找不到任何可以解释知觉的东西。因此,知觉必须在简单的物质中寻找,而不是在复合物或机器中寻找。[罗伯特·拉塔(Robert Latta)译]

注意,莱布尼茨在这里的策略是对比机器的外在行为,这种行为可能看起来是有意识思考的产物,与机器内部运作方式。他指出,这些内部机械操作只是部件从一个点移动到另一个点,因此没有任何意识或可以解释思考、感受或感知的东西。对于莱布尼茨来说,物理状态不足以构成或解释心理状态。

2.2 图灵的纸带机

中国房间论的第二个前提是纸带机的概念,即由人类实现的计算机。这个概念可以在艾伦·图灵的作品中找到,例如在《智能机械》(1948)中。图灵在那里写道,他为一台“纸带机”编写了下棋程序。纸带机是一种程序,一系列简单的步骤,类似于计算机程序,但是用自然语言(例如英语)编写,并由人类实现。纸带下棋机的人类操作者不需要(另外)知道如何下棋。操作者所做的就是按照生成棋盘上移动的指令。实际上,操作者甚至不需要知道自己参与了下棋 - 输入和输出的字符串,例如“N-QB7”,对于纸带机的操作者来说可能毫无意义。

作为二战期间破译德国军事加密的项目的一部分,图灵编写了英语程序,供当时被称为“人类计算机”的专业工作者使用,这些人类计算机不需要知道他们实施的程序在做什么。

人类加纸张机器的概念之所以重要,是因为它已经引发了与 CRA 中类似的代理和理解问题。假设我独自一人在一个封闭的房间里,按照一本操作符号串的指导手册操作。我因此实施了一个生成符号串(如“N-KB3”)的纸张机器,我将这些符号串写在纸上,塞到房间外的门缝下。进一步假设在进入房间之前,我不知道如何下国际象棋,甚至不知道有这样的游戏。然而,未经我知晓,在房间里我正在运行图灵的国际象棋程序,我生成的符号串是国际象棋符号,并被房间外的人视为国际象棋着法。他们通过将自己着法的符号滑回房间里来回复。如果你所看到的只是在房间外的国际象棋棋盘上显示的着法序列,你可能会认为房间里的某人下国际象棋下得很好。那么我现在会下国际象棋吗?还是说这个系统(由我、手册和我操作符号串的纸张组成)在下国际象棋?如果我记住程序并在脑海中进行符号操作,那我是否会知道如何下国际象棋,尽管感觉有些奇怪?某人的意识状态是否影响他们是否知道如何下国际象棋?如果数字计算机实施相同的程序,那么计算机是否在下国际象棋,还是仅仅在模拟?

到了本世纪中叶,图灵对新开发出的电子计算机本身很乐观,认为它们很快就能展现出明显的智能行为,回答用英语提出的问题并进行对话。图灵(1950)提出了现在被称为图灵测试的概念:如果一台计算机在在线聊天中能通过认为是人类,那么它就应被视为具有智能。

西尔的论点的第三个前提是他在伯克利的同事休伯特·德雷福斯的研究。德雷福斯是人工智能研究者乐观主张的早期批评者。1965 年,当德雷福斯在麻省理工学院时,他发表了一份约一百页的报告,名为《炼金术与人工智能》。德雷福斯认为,人类心智生活的关键特征无法通过形式化的符号操作规则来捕捉。德雷福斯于 1968 年搬到伯克利,并于 1972 年发表了他的扩展批判作品《计算机做不到的事情》。德雷福斯的主要研究兴趣在于大陆哲学,侧重于意识、指向性以及直觉和言外背景在塑造我们理解方面的作用。德雷福斯指出人工智能中存在几个问题性假设,包括大脑类似于数字计算机,以及理解可以被编码为明确规则的假设。

然而,到了 20 世纪 70 年代末,随着计算机变得更快、更便宜,一些新兴人工智能领域的人开始声称,他们的程序可以理解英语句子,利用背景信息数据库。其中一位研究者耶鲁大学的罗杰·尚克(Schank & Abelson 1977)的工作引起了西尔的注意。尚克开发了一种称为“概念表示”的技术,使用“脚本”来表示概念关系(与概念角色语义有关)。西尔的论点最初是作为对人工智能程序(如尚克的)确实理解它们所回应的句子的主张的回应而提出的。

2.3 中国哲学

一个导致中国屋论证的第四个前提是涉及许多人类行为如同计算机的思维实验。1961 年,安纳托利·米切维奇(化名 A.德涅普罗夫)发表了《游戏》,这是一个故事,讲述了一个由 1400 名数学学生组成的体育场被安排成为一个数字计算机(参见德涅普罗夫 1961 年以及列在米切维奇 1961 年的英文翻译,其他互联网资源)。每个人每 4 小时重复进行一些二进制数字的计算,然后将二进制结果传递给附近的人。他们第二天得知,他们共同将一句葡萄牙语翻译成了他们的母语俄语。米切维奇的主人公得出结论:“我们证明了即使是对机器思维的最完美模拟也不是思维过程本身,而后者是生命物质更高形式的运动。” 显然,类似的考虑在早期功能主义心灵和认知理论的讨论中出现(请参见下文 5.3 节的进一步讨论),功能主义者认为,心理状态是由其在系统中发挥的因果作用来定义的(就像门挡是由其功能而不是由其材料组成来定义的)。功能主义的批评者迅速将其所宣称的多重实现优势转变为其弱点。虽然功能主义与唯物主义或生物学对心理状态的理解是一致的(可以说是一种优点),但它没有像“类型-类型同一理论”那样将心理状态的类型(例如经历疼痛或思考奥兹)与特定类型的神经生理状态相对应。与类型-类型同一理论相反,功能主义允许具有不同生理结构的有感知能力的生物拥有与人类相同类型的心理状态,例如疼痛。但有人指出,如果外星人用某种其他复杂系统代替大脑,能够实现构成心理状态的功能属性,那么甚至更不像人类大脑的系统也可能实现这一点。功能主义的计算形式认为,每种心理状态的定义角色是其在信息处理或计算中的作用,对此进行了特别的批判,因为具有简单组件的各种系统在计算上是等效的(例如,参见 Maudlin 1989 年关于用水桶构建的计算机的讨论)。批评者质疑这些无机系统是否真的可能具有心理状态或感受到疼痛。

丹尼尔·丹尼特(1978 年)报告说,在 1974 年,劳伦斯·戴维斯在麻省理工学院举行了一个学术讨论会,在会上他提出了一个这样的非正统实现。丹尼特总结了戴维斯的思维实验如下:

让疼痛的功能主义理论(无论其细节如何)由一个系统实例化,其子组件不是 C 纤维和网状系统之类的东西,而是电话线和由人员组成的办公室。也许这是一个由一群居住其中的人类控制的巨大机器人。当理论对疼痛的功能特征化条件得到满足时,如果理论是正确的,我们必须说这个机器人在感到疼痛。也就是说,真正的疼痛,和我们自己感受到的一样真实,将因这些官僚团队的也许冷漠和商业化的活动而存在,执行它们的适当功能。

在 1978 年发表的《功能主义的问题》中,Ned Block 设想整个中国人口实施大脑中神经元的功能。这种情景后来被称为“中国国家”或“中国健身房”。我们可以假设每个中国公民都会收到一个电话号码清单,并在实施日的预设时间,指定的“输入”公民将通过打电话给名单上的人来启动这个过程。当任何公民的电话响起时,他或她会打电话给自己名单上的人,然后这些人会再联系其他人。不需要交换任何电话信息;所需的只是打电话的模式。电话清单将被构建成这样一种方式,即通话模式实现与某人处于某种心理状态时大脑中神经元之间发生的激活模式相同的模式——例如疼痛。电话通话扮演的功能角色与神经元相互引发的作用相同。Block 主要关注感觉质和特别是,集体是否可能感到疼痛,而人口中没有任何个体成员感受到任何疼痛,但这个思维实验适用于任何心理状态和操作,包括理解语言。

因此,Block 的先驱思想实验,与 Davis 和 Dennett 的思想实验一样,是一个涉及许多人而不是一个人的系统。重点在于意识,但就塞尔的论点也涉及意识的程度而言,这个思想实验与塞尔的密切相关。Cole(1984)试图通过提出一个思想实验来反向引导直觉,其中他的每个神经元本身都是有意识的,并且充分意识到自己的行为,包括被神经递质浸泡,经历动作电位,并向邻近的神经元喷射神经递质。Cole 认为,他有意识的神经元会觉得难以置信,他们的集体活动产生了意识和其他认知能力,包括理解英语,而这些神经元本身却没有。Cole 暗示实施系统的直觉是不可信的。

3. 中国哲学论证

1980 年,约翰·西尔在《行为和大脑科学》杂志上发表了《心智、大脑和程序》。在这篇文章中,西尔提出了论点,然后回应了此前在各大学校园演讲时提出的六个主要反对意见(见下一节)。此外,西尔在《BBS》上的文章与 27 位认知科学研究人员的评论和批评一同发表。这 27 条评论后面是西尔对批评者的回应。

在发表后的几十年里,中国屋论证成为了许多讨论的话题。到 1984 年,西尔在《心智、大脑和科学》一书中提出了中国屋论证。1990 年 1 月,知名期刊《科学美国人》将这场辩论带到了普通科学读者面前。西尔在他的文章“大脑的心智是计算机程序吗?”中包含了中国屋论证,随后是一篇回应文章,“机器能思考吗?”,由哲学家保罗和帕特里夏·柯克兰撰写。不久之后,西尔与另一位知名哲学家杰瑞·福多尔(见罗森塔尔(编)1991)就中国屋问题进行了公开交流。

论点的核心是西尔想象自己遵循用英语编写的符号处理程序(这就是图灵所说的“纸带机”)。坐在房间里的英语使用者(西尔)遵循英语指令来操作汉字符号,而计算机则“遵循”(在某种意义上)用计算语言编写的程序。人类通过遵循符号操作指令产生了理解汉语的外观,但并不因此而理解汉语。由于计算机只是做人类所做的事情 - 仅仅根据它们的语法来操作符号 - 没有计算机仅仅通过遵循程序就真正理解汉语。

这个狭窄的论点,紧密基于中国屋情景,专门针对西尔所称的“强人工智能”立场。强人工智能是这样一种观点,即适当编程的计算机(或程序本身)可以理解自然语言,并且实际上具有类似于模仿他们行为的人类的其他心理能力。根据强人工智能,这些计算机确实能够智能地下棋,做出聪明的举动,或理解语言。相比之下,“弱人工智能”是一种更为谦逊的说法,即计算机在心理学、语言学和其他领域仅仅是有用的,部分原因是它们可以模拟心理能力。但弱人工智能并不声称计算机实际上理解或具有智能。中国屋论点并不针对弱人工智能,也不声称要表明没有机器能够思考 - 西尔说大脑是机器,大脑思考。这个论点是针对形式计算符号能够产生思维的观点。

我们可以将狭窄论证总结为对强人工智能的归谬论,如下所示。设 L 为一种自然语言,并且让我们说“L 的程序”是一个可以流利交谈的程序。计算系统是任何能够运行程序的系统,无论是人类还是其他系统。

  1. 如果强人工智能成立,那么存在一个中文程序,使得如果任何计算系统运行该程序,该系统因此就能理解中文。

  2. 我可以运行一个针对中国哲学的程序而不必理解中国哲学。

  3. 因此强人工智能是错误的。

第一个前提阐明了强人工智能的主张。第二个前提得到了中国屋思想实验的支持。这一狭窄论证的结论是,运行程序不能赋予系统语言理解能力。(关于理解论证结构的其他方式还有其他方法。理解某些主张为虚拟情况可能是相关的:例如,在前提 1 中,“存在一个程序”意味着可能存在一个程序,等等。在这种解释下,论证涉及模态逻辑,即可能性和必然性的逻辑(参见 Damper 2006 和 Shaffer 2009))。

值得注意的是,上述第一个前提将理解归因于“系统”。当程序运行时,强人工智能所假设的究竟是什么会获得理解,这对于中国屋论证的成功与否至关重要。Schank 1978 年有一个标题声称他们小组的计算机,一个物理设备,理解,但在论文的正文中,他声称程序[“SAM”]正在进行理解:Schank 说 SAM“...理解它具有知识的领域的故事”(第 133 页)。正如我们将在下一节(第 4 节)看到的那样,关于理解者的身份(cpu?程序?系统?其他什么?)的这些问题很快成为中国屋批评者关注的焦点。西尔的更广泛论点包括这样一种主张,即这个思想实验更普遍地表明人们不能从语法(形式符号操作)中获得语义(意义)。这些问题及相关问题在第 5 节中讨论:更大的哲学问题。

4. 对中国屋论的回应

对强人工智能的狭义中国屋论的批评通常沿袭三条主要路线,可以通过它们的让步程度来区分:

(1) 一些批评者承认房间里的人不懂中文,但仍然认为运行程序可能通过房间操作者之外的某种方式创造对中文的理解。这些批评者反对从房间里的人不理解中文这一说法推断出没有创造出任何理解的结论。可能存在着更大、更小或不同的实体的理解。这是系统回答和虚拟心灵回答的策略。这些回答认为房间的输出可能反映出对中文的真正理解,但这种理解不会是房间操作者的理解。因此,西尔的说法是在运行房间时他不理解中文被承认了,但他关于没有理解中文问题,以及计算主义是错误的这一说法被否定了。

(2) 其他批评者承认西尔的说法,即仅仅运行类似 CR 场景中描述的自然语言处理程序并不能创造出任何理解,无论是人类还是计算机系统。但这些批评者认为计算机系统的一个变体可能会理解。这种变体可能是嵌入到机器人身体中的计算机,通过传感器和电机与物理世界进行互动(“机器人回答”),或者可能是模拟整个人类大脑的详细操作,逐个神经元地模拟(“大脑模拟器回答”)。

(3) 最后,一些批评者甚至不认同针对人工智能的狭隘观点。这些批评者认为,在原始的中国屋情景中的人也许能够理解中文,尽管西尔否认了这一点,或者说这个情景是不可能的。例如,批评者争辩说,在这种情况下我们的直觉是不可靠的。其他批评者认为一切取决于“理解”一词的含义是什么——这些观点在“直觉回应”部分有所讨论。其他人(例如,斯普瑞瓦克 2007 年)反对这样一个假设,即任何系统(例如,屋里的西尔)都可以运行任何计算机程序。最后,一些人认为,如果根据中国屋展示的行为来归因于理解是不合理的,那么根据类似的行为证据来归因于人类的理解也是不合理的(西尔将这最后一个称为“其他心灵回应”)。反对意见是,我们应该愿意根据中国屋的外在行为来归因于理解,就像我们对待其他人类(和一些动物)以及外星异类(或燃烧的灌木或天使)说我们的语言一样。这个立场与图灵自己的立场非常接近,当他提出机器智能的行为测试时。

除了针对中国屋情景和本文讨论的狭隘论点的这些具体回应外,一些批评者还独立地反对西尔的更广泛主张,并认为人可以从句法符号操作中获得语义(即意义),包括发生在数字计算机内部的那种符号操作,这个问题在下面关于句法和语义的部分有所讨论。

4.1 系统回复

在原始的 BBS 文章中,西尔列(Searle)确定并讨论了他在各地演讲中遇到的几种对该论点的回应。因此,这些早期回应在随后的讨论中受到了最多的关注。西尔列 1980 年所称的“也许是最常见的回复”是系统回复。

系统回答(Searle 说最初与耶鲁大学相关联,是 Schank 的人工智能工作的所在地)承认房间里的人不懂中文。但是,回答继续说,这个人只是一个更大系统中的一部分,一个中央处理单元(CPU)。更大的系统包括庞大的数据库,包含中间状态的记忆(草稿本)和指令 - 这是回答中文问题所需的完整系统。因此,系统回答是,虽然运行程序的人不懂中文,但整个系统却懂。

Ned Block 是最早提出系统回答的人之一,还有许多其他人,包括 Jack Copeland,Daniel Dennett,Douglas Hofstadter,Jerry Fodor,John Haugeland,Ray Kurzweil 和 Georges Rey。Rey(1986)说房间里的人只是系统的 CPU。Kurzweil(2002)说人类只是一个实施者,并且毫无意义(可能意味着实施者的属性不一定是系统的属性)。Kurzweil 坚持图灵测试的精神,并认为如果系统显示出理解中文的表面能力,“它必须确实理解中文” - Searle 在实际上说:“机器说中文但不理解中文”时是在自相矛盾。

玛格丽特·博登(1988 年)提出了层次考虑。“计算心理学并不认为大脑能看到豆芽或理解英语:这些有意识的状态是人的属性,而不是大脑的属性”(244 页)。“简而言之,西尔的描述机器人的伪大脑(也就是西尔在机器人中)理解英语涉及一种类别错误,类似于将大脑视为智能的承担者,而不是因果基础”。博登(1988 年)指出,房间操作者是一个有意识的主体,而计算机中的中央处理器不是 - 中国屋情景要求我们从实施者的角度看问题,但并不奇怪地未能看到更大的画面。

西尔对系统回应的回答很简单:原则上,他可以内化整个系统,记住所有的指令和数据库,并在脑海中进行所有的计算。然后,他可以离开房间,到户外漫步,甚至用中文交谈。但他仍然无法为“任何形式符号附加任何意义”。这个人现在将_成为_整个系统,但他仍然不会理解中文。例如,他不会知道中文单词“汉堡包”的意思。他仍然无法从句法中获得语义。

在某种程度上,西尔的回应在某种程度上预示了后来的扩展心智观(例如克拉克和查尔默斯 1998 年):如果奥托(Otto),他失去了记忆,可以通过将一些信息外部化到他的笔记本中来恢复这些召回能力,那么西尔可以做相反的事情:通过内化指令和笔记本,他应该获得扩展系统具有的任何能力。因此,西尔实际上得出结论,由于他没有通过内化整个系统的外部组件(例如,他仍然不知道汉堡包的中文意思),他从未在原始中国屋的部分外部化系统中获得理解。

在他 2002 年的论文《从逻辑角度看中国屋》,杰克·科普兰(Jack Copeland)考虑了西尔对系统回应的回应,并认为西尔头脑中的一个小人可能会理解,尽管房间操作员本人不理解,就像头脑中的模块解决了使我们能够接住板球的张量方程一样。科普兰然后转而考虑中国体育馆,并再次似乎支持系统回应:“...个别球员[不]理解中文。但从这一点并不能推断出整体模拟不会理解中文。从部分到整体的推理错误在这里比在中国屋论证的原始版本中更加明显。”科普兰否认连接主义暗示着一个房间里的人可以模拟大脑。

约翰·豪格兰(2002)写道,西尔对系统回复的回应存在缺陷:“...他现在问的是,如果他自己在脑海中有意识地实施理论所说的足以实现另一个思维的基础形式结构和操作,那会是什么样子。”根据豪格兰的说法,他不理解中文是无关紧要的:他只是执行者。实施的更大系统会理解 - 这是一种描述层次的谬误。

沙弗(2009)研究了 CRA 逻辑的模态方面,并认为系统回复的常见版本是自圆其说的。但是,沙弗声称,系统回复的模态化版本成功了,因为在某些可能的世界中,理解是复杂语法操作的新兴属性。纽特(2011)是对沙弗的回应。

Stevan Harnad 在两篇论文中捍卫了 Searle 对系统回复批评者的论点。在他 1989 年的论文中,Harnad 写道:“Searle 阐述了问题如下:心智是计算机程序吗?更具体地说,如果计算机程序模拟或模仿我们需要理解的活动(比如用语言交流),那么程序本身在这样做的过程中是否可以被说成理解?”(注意具体主张:问题被认为是程序本身是否理解。)Harnad 得出结论:“乍一看,[CR 论证]似乎是有效的。它确实针对最常见的反驳,即‘系统回复’……”Harnad 似乎赞同 Searle 将理解和意识状态联系起来:Harnad 2012(其他互联网资源)认为 Searle 表明意识“感知”的核心问题需要与现实世界的感官联系在一起。(请参见下文的“机器人回复”和“意向性”部分进行讨论。)

最后,一些人认为,即使房间操作员记住规则并在脑海中执行所有操作,房间操作员也不会成为系统。Cole(1984 年)和 Block(1998 年)都认为,结果不会是 Searle 与系统的同一性,而更像是多重人格的情况——一个头脑中有不同的人。中国回复系统不会是 Searle,而是他的一个子部分。在 CR 案例中,一个人(Searle)是英语单一语种者,另一个是中文单一语种者。英语使用者对中文回复的含义毫无意识并不表明它们不被理解。这种不同人格的观点导致了虚拟心智回复。

4.1.1 虚拟心灵回复

虚拟心灵回复承认,正如系统回复一样,中国屋的操作者仅通过运行纸张机并不理解中文。然而,虚拟心灵回复认为重要的是是否创造了理解,而不是屋内操作者是否是理解的主体。与系统回复不同,虚拟心灵回复(VMR)认为,运行的系统可能会创造出与整个系统以及诸如 CPU 或操作者等子系统都不同的新的虚拟实体。特别是,运行的系统可能会创造出一个理解中文的独特主体。这个虚拟主体将与屋内操作者和整个系统都不同。由人工智能创造的任何心灵的心理特征,包括语言能力,将完全取决于程序和中文数据库,并不会与 CPU 或纸张机操作者(如西尔在中国屋情景中)的心理特征和能力相同。根据虚拟心灵回复,中国屋论证中的错误在于声称强人工智能是“计算机理解中文”或“系统理解中文”。人工智能所涉及的问题应该简单地是“运行的计算机是否创造了对中文的理解”。

一个熟悉的虚拟代理模型是计算机或视频游戏中的角色,以及个人数字助理,比如苹果的 Siri 和微软的 Cortana。这些角色具有各种能力和个性,而这些角色与创建它们的系统硬件或程序并不相同。一个运行中的系统可能同时控制两个不同的代理或物理机器人,其中一个只能用中文交谈,另一个只能用英文交谈,而且在其他方面表现出非常不同的个性、记忆和认知能力。因此,VM 回复要求我们区分心智和实现它们的系统。

Minsky(1980)和 Sloman 和 Croucher(1980)在中国屋论证首次出现时提出了一个虚拟心智回复。在他广泛阅读的 1989 年论文《计算与意识》中,蒂姆·莫德林考虑了可能实现运行程序的计算系统的最小物理系统。他的讨论围绕着他想象中的奥林匹亚机器,一个通过转移水来实现图灵机的系统桶。莫德林的主要目标是计算论者声称这样的机器可能具有显著意识。然而,在他的讨论过程中,莫德林考虑了中国屋论证。莫德林(引用明斯基和斯洛曼以及克劳彻)指出了一个虚拟心智回复,即理解的代理可能与物理系统不同(414 页)。因此,“西尔没有做任何事情来排除同时存在的不同心智的可能性”(414-5 页)。

Perlis(1992 年),Chalmers(1996 年)和 Block(2002 年)显然也支持了虚拟心灵回应的版本,Richard Hanley 在《星际迷航的形而上学》(1997 年)中也是如此。Penrose(2002 年)批评了这一策略,Stevan Harnad 则轻蔑地对形而上学的这种英雄式手段表示了不屑一顾。Harnad 在 1992 年的“虚拟心灵虚拟研讨会”中捍卫了 Searle 的立场,反驳了 Patrick Hayes 和 Don Perlis。Perlis 提出了一个据称源自莫德林的虚拟心灵论证。Chalmers(1996 年)指出,房间操作者只是一个因果促成者,“恶魔”,因此他的意识状态与系统的属性无关。像莫德林一样,Chalmers 提出了关于个人身份的问题 - 我们可以将中文房间视为“在同一物理空间内实现的两个心智系统。导致中文体验的组织与导致恶魔的体验的组织是完全不同的”(326)。

Cole(1991 年,1994 年)发展了这一回应,并提出了以下论点:Searle 的论点要求理解的主体是计算机本身,或者在中文房间的类比中,是房间里的人。然而,Searle 在房间里不理解中文并不意味着没有理解正在被创造。其中一个关键考虑因素是,在 Searle 的讨论中,与中文房间的实际对话总是严重不足。Searle 考虑的是只能回答关于餐厅发生了什么的几个问题的 Schank 程序,而这些问题都是第三人称的。但是 Searle 希望他的结论适用于任何人工智能产生的回答,包括那些能通过最严格的无限制图灵测试的回答,即它们将是真实人类之间进行的对话。如果我们在原始 CR 场景中详细阐述对话,包括用中文提出“你有多高?”,“你住在哪里?”,“你早餐吃了什么?”,“你对毛的态度是什么?”等问题,立即就会清楚地看到中文回答不是_Searle_的回答。Searle 不是这些答案的作者,他的信念和欲望,记忆和个性特征(除了他的勤奋!)并没有反映在这些答案中,总的来说,Searle 的特征在产生对中文问题的回答时是没有因果作用的。这表明以下条件是成立的:如果通过运行程序创造了对中文的理解,那么理解中文的心灵不会是计算机,无论计算机是人类还是电子设备。理解中文的人将是与房间操作者不同的一个人,其信念和欲望是由程序及其数据库赋予的。因此,Searle 在操作房间时不理解中文并不意味着没有理解正在被创造。

Cole (1991)提出了一个额外的论点,即进行理解的心智既不是房间操作者的心智,也不是由操作者和程序组成的系统:运行一个结构合适的计算机程序可能会产生用中文提交的答案,也会对用韩文提交的问题给出答案。然而,中文答案可能显示出完全不同的知识和记忆、信念和欲望,与对韩文问题的回答不同,同时否认中文回答者了解任何韩文,反之亦然。因此,行为证据表明存在两个非相同的心智(一个只理解中文,另一个只理解韩文)。由于这些可能具有互斥的属性,它们不能是相同的,因此也不能与房间实施者的心智相同。类似地,一个视频游戏可能包括一个具有一组认知能力(聪明,懂中文)的角色,以及另一个具有不兼容的一组认知能力(愚蠢,只会英语)的角色。这些不一致的认知特征不能是实现它们的 XBOX 系统的特征。Cole 认为,这暗示着心智通常比实现它们的系统更抽象(见哲学大问题部分的《心灵与身体》)。

简而言之,虚拟心灵论的论点是,由于 Searle 提供的证据表明在房间里没有理解中文的是_他_,因此《中国屋论证》无法反驳一个形式不同但同样强有力的人工智能主张,即声称可以利用编程的数字计算机创造理解。Maudlin (1989)表示 Searle 没有充分回应这一批评。

然而,也有其他人对 VMR 进行了回复,包括 Stevan Harnad 和数学物理学家 Roger Penrose。Penrose 通常对 Searle 提出的中国屋论点持同情态度,并反驳了虚拟心灵的回应。Penrose 认为,无论是基于中国屋论点,还是基于库尔特·哥德尔的不完备性定理揭示的形式系统的局限性,计算过程都无法解释意识。(Penrose 有两本关于心灵和意识的书;Chalmers 和其他人已经对 Penrose 对哥德尔的引用做出了回应。)在他 2002 年的文章《意识、计算和中国屋》中,专门讨论了中国屋论点,Penrose 认为中国体育馆变体——将一个房间扩展到印度的大小,由印度人进行处理——显示出认为“与人执行该算法相关联的某种非物质‘理解’,并且其存在方式不以任何方式影响他自己的意识”是非常不可信的(230-1)。Penrose 得出结论,中国屋论点驳倒了强人工智能。Christian Kaernbach(2005 年)报告说,他对虚拟心灵理论进行了实证测试,结果为负。

4.2 机器人回应

机器人回复承认西尔关于中国屋情景的观点是正确的:它表明被困在计算机屋里的计算机无法理解语言,也不知道单词的意思。机器人回复对于如何知道汉堡这个中文词的意思的问题作出了回应 - 西尔举的一个房间操作者不会知道的例子。认为我们大多数人知道汉堡是因为我们见过、也许甚至做过、或尝过,或至少听别人谈论过汉堡并通过将它们与我们通过看、做和尝试所知道的事物联系起来理解了它们。鉴于这是人们可能了解汉堡是什么的方式,机器人回复建议我们将数字计算机放入一个机器人体中,配备传感器,如摄像头和麦克风,并添加执行器,如轮子用于移动,以及手臂用于在世界中操作物体。这样一个机器人 - 一个有身体的计算机 - 可能会像孩子一样,通过看和做来学习。机器人回复认为,这样一个从房间中解放出来的机器人体中的数字计算机可以赋予符号意义,并实际理解自然语言。玛格丽特·博登(Margaret Boden)、蒂姆·克雷恩(Tim Crane)、丹尼尔·丹尼特(Daniel Dennett)、杰里·福多(Jerry Fodor)、史蒂文·哈纳德(Stevan Harnad)、汉斯·莫拉维克(Hans Moravec)和乔治·雷伊(Georges Rey)是那些曾经或另一时候支持这一回复版本的人。机器人回复实际上诉诸于“广义内容”或“外部主义语义”。这可以与西尔一致,即从世界中孤立出来的句法和内部联系对于语义是不够的,同时认为与世界适当的因果联系可以为内部符号提供内容。

在西尔提出中国屋反驳的同时,许多语言和心灵哲学领域的人士开始认识到与世界的因果联系对于单词和概念的意义或指称的重要性。希拉里·普特南(Hilary Putnam)在 1981 年提出,一个与世界隔绝的大脑容器可能会说或思考一种听起来像英语的语言,但它不会是英语 - 因此,一个大脑容器可能不会想知道自己是否是一个大脑容器(由于其感官隔离,它的“大脑”和“容器”这两个词并不指代大脑或容器)。意义是由与世界的联系决定的观点变得普遍。西尔抵制了这种向外转变,并继续将意义看作是主观的,并与意识联系在一起。

一个相关的观点是,自上世纪 90 年代以来,认为最好理解心智是作为体现在世界中的,与笛卡尔唯我主义直觉相对立的观点已经获得了许多支持者。生物体依赖环境特征来实现其行为的成功。因此,无论一个人将心智视为一个符号处理系统,其中符号从与世界的感觉连接中获取其内容,还是一个通过嵌入特定环境而取得成功的非符号系统,头脑外部的重要性已经凸显出来。因此,许多人对某种形式的机器人回应持有同情态度:计算系统可能会理解,前提是它在世界中行动。例如,2007 年卡特在一本关于哲学和人工智能的教科书中得出结论:“从中国屋思想实验中得出的教训是,体验的具体化对于语义的发展是必要的。”

然而,西尔并不认为机器人回应中国屋论证比系统回应更有力。所有传感器能做的就是为计算机提供额外的输入-而这只是句法输入。我们可以通过对中国屋情景进行类比性变化来看到这一点。假设中国屋中的人除了从门缝中塞进来的中文字符外,还收到一串二进制数字,这些数字出现在房间一角的打印纸带上。指导手册被修改,以使用纸带上的数字作为输入,连同中文字符一起。房间里的人并不知道,纸带上的符号是视频摄像头(可能还有其他传感器)的数字化输出。西尔认为,额外的句法输入不会使人能够将含义与中文字符联系起来。这只会增加房间里的人的工作量。

杰瑞·福多(Jerry Fodor)、希拉里·普特南(Hilary Putnam)和大卫·刘易斯(David Lewis)是计算心灵理论的主要建构者,西尔的更广泛论点正是针对这一理论。在他 1980 年对西尔的回应中,福多承认西尔的确是对的,即“仅仅实例化与大脑相同的程序本身并不足以拥有具有大脑特征的命题态度”。但福多认为西尔在关于机器人回应的问题上是错误的。如果计算机与世界有正确的因果关系,它可能会具有命题态度,但这些态度不是由坐在机器人头脑中的人中介的。我们不知道正确的因果关系是什么。西尔犯了一个逻辑谬误,从“小人不是正确的因果关系”推断出没有任何因果联系会成功。有相当多的经验证据表明,心理过程涉及“符号的操作”;西尔没有给出其他解释(有时被称为福多关于计算方法的“唯一选择”论证)。在 1980 年代和 1990 年代,福多广泛探讨了大脑状态与世界之间必须建立的联系,以使状态具有故意(表征)属性,同时强调计算主义的局限性,因为计算本质上是局部的,因此无法解释引导推理。

在后来的一篇文章《中国屋中的阴阳》(见罗森塔尔 1991 年第 524-525 页),福多大幅修订了他 1980 年的观点。他与早期版本的机器人回应保持距离,而是认为“实例化”应该被定义为符号必须是效果的直接原因 - 没有介入的人在房间里。因此,屋中的西尔并不是图灵机的实例化,“西尔的设置并不实例化大脑实例化的机器”。他得出结论:“…西尔的设置与声称与中国人的大脑强等同充分地讲中文无关。” 西尔对福多的转变说:“在所有对中国屋论点的批评中,福多的也许是最令人绝望的。他声称,正是因为中国屋中的人着手执行计算机程序中的步骤,他才没有执行计算机程序中的步骤。他对这一非凡主张没有提供任何论据。”(见罗森塔尔 1991 年,第 525 页)

在 1986 年的一篇论文中,乔治·雷(Georges Rey)提倡了系统和机器人回答的结合,之后指出原始的图灵测试不足以作为智能和理解的测试,塞尔描述的孤立系统绝对不等同于一个真正的中文说话者在世界中感知和行动。在 2002 年的第二次审视中,“塞尔对功能主义和强人工智能的误解”,雷再次捍卫了功能主义,反驳了塞尔,并且在特定形式上称之为“思维的计算-表征理论 - CRTT”。CRTT 并不认为只要通过图灵测试的系统就具有思维能力(就像中国屋中的情况)。它也不认同理解自然语言的对话手册模型。相反,CRTT 关注的是关于意向性的问题,无论是自然的还是人工的(系统中的表征在语义上是可评估的 - 它们是真实的或虚假的,因此具有关联性)。塞尔将功能主义与行为主义的“黑匣子”特征联系在一起,但功能主义关心的是事情是如何完成的。雷勾勒出“一个谦虚的心灵” - 一个具有知觉的 CRTT 系统,可以进行演绎和归纳推理,根据目标和对世界状况的表征做出决策,并且可以通过转换成和从其本地表征中处理自然语言。要解释这样一个系统的行为,我们需要使用与解释正常中文说话者行为所需的相同归因。

如果我们在机器人回答的背景下详细阐述中文对话,我们可能会再次看到证据表明理解的实体并不是房间内的操作者。假设我们问机器人系统“你看到了什么”的中文翻译,我们可能会得到回答“我的老朋友 Shakey”,或者“我看到了你!”。而如果我们给房间里的塞尔打电话,用英语问同样的问题,我们可能会得到“这些同样的四面墙”或者“这些该死的无尽指令书和笔记本。”再次证明我们在这里有不同的回答者,一个是英语说话者,一个是中文说话者,他们看到和做的事情完全不同。如果巨型机器人开始暴走,摧毁了东京的大部分地区,而毫不知情的塞尔只是在房间里照着笔记本执行程序,那么塞尔并不会因为犯下杀人和暴行罪而感到内疚,因为他并不是实施行为的主体。

Tim Crane 在他 1991 年的著作《机械心灵》中讨论了中国屋论证。他引用了柯克兰德夫妇的明亮房间类比,但随后认为,在操作这个房间的过程中,西尔会学会中文的含义:“...如果西尔不仅仅是记住了规则和数据,而且还开始在中国人的世界中行动,那么他很可能在不久之后意识到这些符号的含义。”(127 页)。 (Rapaport 2006 将海伦·凯勒与中国屋进行了类比。)Crane 似乎最终得出了机器人回应的结论:“西尔的论点本身是在(实际上)否定了人工智能的中心命题 - 思维是形式符号操作。但西尔的假设,尽管如此,我认为是正确的...对西尔的论点的适当回应是:当然,屋里的西尔,或者仅仅是房间本身,无法理解中文。但是,如果你让外部世界对房间产生一些影响,意义或‘语义’可能开始扎根。但当然,这也承认了思维不能简单地是符号操作。”(129 页)学习是理解的基础这一观念导致了发展机器人技术(又称表观遗传机器人)的研究。这一人工智能研究领域旨在复制关键的人类学习能力,比如向机器人展示一个物体的多个角度,并用自然语言告诉它物体的名称。

玛格丽特·博登(1988)也认为西尔错误地认为程序是纯语法。但程序会导致某些机器的活动:“任何计算机程序固有的程序性后果使其在语义上有了立足点,所涉及的语义不是指称性的,而是因果性的。”(250 页)因此,一个机器人可能具有因果能力,使其能够指代一个汉堡包。

Stevan Harnad 还发现我们的感知和运动能力很重要:“谁能说图灵测试,无论是用中文还是其他任何语言进行,都可以成功通过,而不需要利用我们的感知、运动和其他更高级的认知能力?理解中文的能力从何处开始,我们的其他心智能力又从何处结束?” Harnad 认为,符号功能必须建立在将系统与世界连接起来的“机器人”功能之上。他认为这对心智的符号化解释,比如 Jerry Fodor 的观点,以及可以怀疑的 Roger Schank 的方法(Searle 最初的目标),都是不利的。Harnad 2012(其他互联网资源)认为,CRA 表明,即使有一个具有符号基础的机器人与外部世界相连,仍然有一些东西是缺失的:感觉,比如理解的感觉。

然而,Ziemke 2016 认为,具有分层身体调节系统的机器人化身可能会奠定情感和意义的基础,而 Seligman 2019 认为,“感知基础”的自然语言处理(NLP)方法具有“展现有意识的潜力,因此终究可以促进一个真正有意义的语义,这在 Searle 和其他怀疑论者看来,本质上是超出计算机能力的。”

4.3 大脑模拟器回复

考虑一台以与通常的具有脚本和对符号串进行操作的人工智能程序完全不同方式运行的计算机。大脑模拟器回复要求我们假设该程序模拟了母语为中文的人理解中文时大脑中发生的神经元活动的实际序列 - 每根神经元,每次活动。由于计算机以与母语为中文的人的大脑完全相同的方式运行,以同样的方式处理信息,它将理解中文。保罗和帕特里夏·柯克兰德提出了一种沿着这些线路的回复,下文将讨论。

作为回应,西尔认为这没有任何区别。他提出了一个关于大脑模拟器情景的变体:假设在房间里,这个人有一套巨大的阀门和水管,排列方式与一个中国土著的大脑中的神经元相同。程序现在告诉这个人在接收输入时打开哪些阀门。西尔声称很明显这个人不会理解中文。(但请注意,这一主张的基础不再仅仅是西尔自己不理解中文 - 现在似乎很明显他只是促进系统的因果运作,因此我们依赖于我们的莱布尼茨直觉,即水力工程不理解(另请参见莫德林 1989 年)。)西尔得出结论,大脑活动的模拟并非真实的事物。

然而,根据皮利辛 1980 年,科尔和福尔伯 1984 年,查尔默斯 1996 年的观点,我们可能会对混合系统产生疑问。 皮利辛写道:

如果你大脑中的越来越多的细胞被集成电路芯片所取代,并且按照一种方式进行编程,使得每个单元的输入-输出功能与被替换的单元完全相同,那么很可能你会继续以完全相同的方式讲话,只是最终你会停止赋予任何意义。我们外部的观察者可能会认为是词语的东西对你来说只会成为某些电路导致你发出的噪音。

这些赛博格化思想实验可以与中国屋联系起来。假设奥托患有一种神经疾病,导致我的大脑中的一个神经元失效,但是外科医生安装了一个微型远程控制的人工神经元,一种 synron,与他残疾的神经元并排安装。奥托的神经元由约翰·西尔在中国屋中控制,而奥托和西尔都不知情。微小的导线将人工神经元连接到他残疾神经元的细胞体上的突触。当他的人工神经元受到突触在他残疾神经元上的刺激时,中国屋中的灯会亮起。然后西尔根据一个程序操作一些阀门和开关。通过无线电链接,导致奥托的人工神经元释放其微小人工囊泡中的神经递质。如果西尔的编程活动导致奥托的人工神经元表现得就像他残疾的自然神经元曾经那样,那么他的其他神经系统的行为将不会改变。遗憾的是,奥托的疾病在进展;更多的神经元被西尔控制的 synron 所取代。根据假设,世界的其他部分不会注意到区别;奥托会吗?如果会,那会是在什么时候?为什么?

在“组合回复”范畴下,西尔还考虑了一个具有前述三者特征的系统:一个机器人,其数字大脑在头骨内模拟计算机,使得整个系统的行为与人类无法区分。由于大脑的正常输入来自感觉器官,自然而然地认为,大多数支持“大脑模拟回复”的人心目中想象的是这种大脑模拟、机器人和系统回复的组合。一些人(例如雷伊 1986 年)认为,合理地将关于整个系统的意向性归因于这样一个系统。西尔同意,将理解归因于这样一个人工智能系统是合理的——但前提是你不知道它是如何工作的。一旦你知道了真相——它只是一台计算机,根据语法而不是意义无法理解地操纵符号——你就不会再将意向性归因于它。

(人们会认为,即使是自己的配偶,与其建立了一生的关系,也隐藏着硅秘密,这也是真实的。科幻故事,包括罗德·斯特林的电视系列《宵禁区》,就是基于这种可能性的;然而,史蒂文·平克(1997 年)提到了一集中,机器人的秘密从一开始就被揭示,但主人公还是与机器人发展了一段浪漫关系。)

在《科学美国人》杂志的第十周年纪念上,中国屋论证被提及。在那一期中,哲学家保罗和帕特里夷争辩针对西尔的主文。某些观点认为中国屋并不理解中文,但认为这一论证利用了我们对认知和语义现象的无知。他们提出了一个“明亮房间”的类比案例,在那里有人挥动磁铁,并认为由此产生的可见光的缺失表明麦克斯韦的电磁理论是错误的。某些观点主张大脑是一个联结系统、一个向量转换器,而不是一个根据结构敏感规则操纵符号的系统。中国屋中的系统使用了错误的计算策略。因此,他们赞同西尔反对传统人工智能的观点,但他们可能会支持西尔所说的“大脑模拟器回应”,认为,就像明亮房间一样,当考虑这样一个复杂系统时,我们的直觉会误导我们,从部分到整体是一种谬误:“...我的大脑中没有一个神经元理解英语,尽管我的整个大脑理解。”

在 1991 年的著作《微认知》中,安迪·克拉克认为西尔是正确的,即运行尚克程序的计算机并不了解有关餐馆的任何信息,“至少如果‘了解’的含义类似于‘理解’的话”。但西尔认为这适用于任何计算模型,而克拉克和某些观点认为西尔在联结主义模型方面是错误的。克拉克对大脑模拟器回应感兴趣。大脑思考是基于其物理特性的。大脑的哪些物理特性是重要的?克拉克回答说,大脑的重要之处在于“可变和灵活的次级结构”,而传统人工智能系统则缺乏这一点。但这并不意味着计算主义或功能主义是错误的。这取决于您认为功能单元的级别是什么。克拉克支持“微功能主义” - 应该寻找细粒度的功能描述,例如神经网络级别。克拉克赞同威廉·莱肯,反对布洛克的缺失感受异议 - 是的,如果功能单元变大,就可能会有缺失的感受。但这并不构成对功能主义的全面驳斥。因此,克拉克的观点与某些观点相似,承认西尔在尚克和符号级处理系统方面是正确的,但认为他在联结系统方面是错误的。

同样,雷·库兹韦尔(2002)认为,西尔的论点可以被反过来证明,即人类大脑无法理解 - 大脑成功是通过操纵神经递质浓度和其他本身毫无意义的机制来实现的。在批评西尔对大脑模拟器回复的回应时,库兹韦尔说:“因此,如果我们将西尔的中文房间扩展为它需要的相当庞大的‘房间’,谁又能说,模拟懂中文的中国大脑的一百万亿人的整个系统不是有意识的呢?当然,可以说这样的系统懂中文。我们不能说它没有意识,就像我们不能说其他任何过程没有意识一样。我们无法了解另一个实体的主观体验……。”

4.4 其他心灵回应

与前文相关的是“其他心灵回应”:“你怎么知道其他人理解中文或其他任何东西?只能通过他们的行为。现在计算机可以通过行为测试,就像他们一样(原则上),所以如果你要将认知归因于其他人,你也必须原则上将其归因于计算机。”

塞尔(1980)对此的回应非常简短:

这场讨论中的问题并不在于我如何知道其他人具有认知状态,而在于当我将认知状态归因于他们时,我所归因的是什么。论点的重点在于,这不仅仅是计算过程及其输出,因为计算过程及其输出可以在没有认知状态的情况下存在。假装麻醉并不能回答这个论点。在“认知科学”中,人们假定心理的现实性和可知性,就像在物理科学中人们不得不假定物理对象的现实性和可知性一样。

批评者认为,如果我们认为人类理解的证据与我们可能拥有的外星人或机器人理解的证据相同,那么我们在我们自己物种的情况下可能做出的假设就不相关了,因为有时假设是错误的。出于类似的原因,图灵在提出图灵测试时特别担心我们的假设和沙文主义。如果关于人类的假设的原因是实用主义的,因为它们使我们能够预测人类的行为并有效地与他们互动,也许这种假设同样适用于计算机(丹尼特在讨论他所称的“意向立场”时提出了类似的考虑)。

Searle 提出了一个问题,即在归因他人理解能力时,我们究竟在归因什么,他说这不仅仅是复杂的行为倾向。对于 Searle 来说,额外的似乎是某种意识状态,正如他在 2010 年对 CRA 结论的总结中所看到的那样。Terry Horgan(2013)支持这一观点:“Searle 的中国屋思想实验的真正道德是,真正的原始指向性需要具有固有的显著特征的内在状态的存在,这种特征本质上是有意向的……”但是,将理解与现象意识联系起来引发了一系列问题。

我们将有限的语言理解能力归因于幼儿、狗和其他动物,但我们是否正在自动归因看不见的主观意识状态——我们对异国他物的隐藏状态了解多少呢?路德维希·维特根斯坦(私语言论)及其追随者提出了类似观点。出现了类似于反转光谱的改变的可能性:假设我问“5 加 7 等于多少”,你回答“5 加 7 等于 12”,但当你听到我的问题时,你有意识地听到并理解了“10 加 14 等于多少”的经历,尽管你处于适合产生正确和的计算状态,所以说“12”。某些特定的意识状态是否适合于某些功能状态呢?维特根斯坦的考虑似乎是,如果语言使用者展示了适当的语言行为,那么主观状态是无关紧要的,最多是附带现象。毕竟,我们是根据我们的明显反应而不是我们的感觉来学习语言的。数学奇才丹尼尔·塔梅特报告说,当他将圆周率的小数部分扩展到数千位时,他会经历显示下一位数字的颜色,但即使在这种情况下,Tennant 的表现可能不是由他经历的颜色产生的,而是由无意识的神经计算产生的。主观状态的可能重要性在下面的关于指向性的部分进一步讨论。

自 CRA 以来的 30 年里,对僵尸产生了哲学兴趣 - 这些生物看起来和行为都像正常人类,包括语言行为,但却没有主观意识。声称主观意识状态对理解意义至关重要时会遇到一个困难,即在这些缺乏感知质性的情况下:我们无法区分僵尸和非僵尸,因此根据西尔的说法,我们无法区分真正理解英语的人和那些不理解的人。如果你和我无法区分那些理解语言的人和表现得像他们但实际上不理解的僵尸,那么在人类进化史上任何选择因素也无法区分 - 对于捕食者、猎物和配偶来说,表现得像理解者的僵尸和真正理解者,在“正确”的意识体验下,是无法区分的。但这似乎是一个没有实质区别的区分。无论如何,西尔对于其他心灵回应的简短回答可能太过简洁。

笛卡尔曾经著名地主张,言语足以用来归因他人的心智和意识,并且声名狼藉地主张这是必要的。图灵实际上是在支持笛卡尔的充分条件,至少对于智能而言,同时将书面语言行为替换为口头语言行为。由于我们大多数人使用对话作为归因理解的充分条件,西尔的论点认为言语是将理解归因于人类的充分条件,但不适用于不与我们分享生物学的任何事物,因此需要解释另外被归因的内容,以及什么可以证明这种额外的归因。此外,如果在西尔的观点中与同种是关键的话,一个自然的问题就会出现,即在什么情况下我们有理由将理解(或意识)归因于不与我们分享生物学的外星异类?在进行尸检之后才归因理解可能会冒险冒犯外星人。

汉斯·莫拉维克(Hans Moravec)是卡内基梅隆大学机器人实验室的主任,也是《机器人:从简单机器到超越心灵》一书的作者,他认为西尔的立场仅仅反映了传统心灵哲学的直觉,这与新认知科学格格不入。莫拉维克支持另一种心灵回应的观点。将机器的意向性归因于机器与将其归因于人类是有道理的;他的“解释立场”类似于丹尼尔·丹尼特(Daniel Dennett)的观点。莫拉维克接着指出,我们归因于他人的事物之一是做出意向性的归因的能力,然后我们将这种归因应用到自己身上。正是这种自我表征构成了意识的核心。这些能力似乎与实施无关,因此外星人和适当编程的计算机也可能具备这些能力。

正如我们所看到的,西尔认为我们可以忽略对机器人和计算机的证据的原因是因为我们知道它们的处理是句法的,这一事实胜过一切其他考虑。事实上,西尔认为这是《中国屋》仅仅是阐明的更大观点。这一更大观点在下面的句法和语义部分中进行了讨论。

4.5 直觉回应

对中国屋论证的许多回应指出,与莱布尼茨的磨坊一样,这个论证似乎是基于直觉的:即计算机(或房间里的人)不能思考或理解的直觉。例如,Ned Block(1980)在他最初的 BBS 评论中说:“西尔的论点在于依赖于某些实体不会思考的直觉。” 但是,Block 认为,(1)有时候直觉是可以被推翻的,也应该被推翻;(2)也许我们需要调整我们对理解的概念,使之符合某些计算机机器人与人类属于同一类自然种类的现实。同样,Margaret Boden(1988)指出,我们不能信任关于心智依赖于物质的我们的未经训练的直觉;科学的发展可能会改变我们的直觉。事实上,正是消除我们直觉中的偏见,激发了图灵(1950)提出图灵测试的动机,这是一项对回答问题的系统的物理特征视而不见的测试。西尔的一些批评者实际上认为,他只是把对直觉的依赖推回到了房间里。

例如,一个人可以坚持认为,尽管西尔认为他在房间里不会理解中文的直觉,也许他是错误的,实际上他是理解的,尽管是在无意识中。豪瑟(2002)指责西尔在从“我似乎很明显地理解不了任何东西”推断出我确实什么都不理解时存在笛卡尔偏见。通常,如果一个人理解英语或中文,他知道自己理解了 - 但不一定。西尔缺乏对理解的正常内省意识 - 但这种情况虽然不正常,但并非决定性。

对批评 CRA 的人指出,我们关于智力、理解和意义的直觉都可能是不可靠的。关于意义,韦克菲尔德 2003 年在追随布洛克 1998 年之后,为 CRA 辩护,捍卫了韦克菲尔德所称的“本质主义反对意见”,即意义的计算解释并不是对普通概念及其相关直觉的分析。相反,我们正在建立一个可能需要修订我们直觉的意义科学理论。作为一种理论,它从其解释力中获得证据,而不是从与理论前直觉的一致性(尽管韦克菲尔德本人认为意义的计算解释受到了一种有害的不确定性的影响(第 308 页及以下))。

其他批评家关注中国哲学中直觉在中国房间论中的作用,认为我们关于智力和理解的直觉可能也不可靠,甚至可能与当前的科学相矛盾。关于理解,史蒂文·平克(Steven Pinker)在《心智是如何运作的》(1997)中认为:“……西尔仅仅是在探讨关于英语单词_理解_的事实……人们不愿使用这个词,除非符合某些典型条件……” 但是,平克声称,从科学的角度来看,并不存在任何问题。平克反对西尔对“大脑的因果能力”的诉诸,指出因果能力的明显定位是“进行正确信息处理的互连模式”。平克最后引用了一个科幻故事来结束他的讨论,在那个故事中,外星人在发现我们的头脑里装满了肉时,无法相信人类会思考。外星人的直觉是不可靠的,我们的直觉可能也是如此。

显然,中国房间论的关键在于理解语言所需的条件。1978 年,沙克(Schank)澄清了他对自己的程序能做什么的主张:“通过‘理解’,我们的意思是 SAM(他的一个程序之一)可以创建一个链接的因果关系链,代表每个故事中发生的事情。” 这是对“理解”的微妙理解,而中国房间思想实验并不取决于对“理解”的技术理解,而是关于我们在理解“汉堡包”这样的词时的直觉。事实上,到 2015 年,沙克与“理解”的弱意义疏远,认为没有计算机能够“在你告诉它某事时理解”,IBM 的 WATSON“不知道自己在说什么”。沙克的程序可能会正确连接,但可以说并不知道这些连接的实体是什么。它是否知道取决于概念是什么,见第 5.1 节。此外,当涉及归因语言理解时,我们对不同事物可能有不同的标准——对狗和幼儿更宽松。有些事物“略懂一二”一门语言。西尔(1980)承认理解有不同程度,但表示重要的是存在明显的无理解案例,AI 程序就是一个例子:“计算机的理解不仅仅是(像我对德语的理解)部分或不完整;它是零。”

一些人工智能的捍卫者也关心我们对理解的理解如何影响中国屋论证。在他们的论文《理解的中国屋》中,人工智能研究员西蒙和艾森斯塔德(2002)认为,虽然西尔尔驳斥了“逻辑强人工智能”这一命题,即通过图灵测试的程序将_必然_理解,但西尔的论点并未影响“经验强人工智能”——即可以编程一个能够令人信服地满足普通理解标准的计算机的命题。然而,他们认为,要解决这些问题“就必须使用一个能够提供用于判断假设真假的‘理解’一词的定义”。他们引用 W.V.O.奎因的《词与物》一书,显示在将理解归因于人类时总会存在经验上的不确定性。中国屋是一个聪明的汉斯把戏(聪明的汉斯是一匹马,看起来好像能够踢出简单算术问题的答案,但后来发现汉斯能够察觉到训练者的无意识暗示)。同样,房间里的人不懂中文,并且可以通过密切观察来揭露他。 (西蒙和艾森斯塔德并未解释这将如何实现,或者这将如何影响论点。)西蒙和艾森斯塔德援引鲁道夫·卡尔纳普的作品,认为理解不仅仅是展示某种行为,而是使用决定外延的“内涵”,并且可以看到实际程序确实使用了适当的内涵。他们讨论了三个实际人工智能程序,并为它们辩护,包括理解在内的各种心智归因,并得出计算机理解的结论;它们通过将单词和其他语言结构与它们的指称相关联来学习“内涵,通过感官刺激检测到”。由于我们可以清楚地看到这些机器是如何工作的,“事实上,确立机器表现出理解要比确立人类表现出理解更容易……”因此,他们得出结论,支持经验强人工智能的证据是压倒性的。

同样,丹尼尔·丹尼特在他最初于 1980 年对西尔的论点的回应中称之为“直觉泵”,这个术语是他在与霍夫斯塔德讨论中国房间论时提出的。沙维(1983)也对此表示了抱怨。丹尼特的观点(2013 年)是,中国房间论“显然是一个谬误和误导性的论证……”(第 320 页)。保罗·萨加德(2013)提出,对于哲学中的每个思想实验,都有一个相等且相反的思想实验。萨加德认为直觉是不可靠的,中国房间论就是一个例子(事实上,中国房间论现在已经被自主机器人汽车的技术所推翻)。丹尼特对我们关于智能的直觉表示了担忧。丹尼特 1987 年(“快速思维”)对中国房间的运行速度缓慢表示了担忧,他得到了几位其他评论者的支持,包括蒂姆·莫德林、大卫·查尔默斯和史蒂文·平克。中国房间的操作者最终可能会对中国问题给出适当的答案。但是思维缓慢的人是愚蠢的,而不是聪明的——在野外,他们很可能最终会死去。丹尼特认为,“速度……对于智能来说是‘本质’。如果你不能够快速地弄清楚环境变化的相关部分以自给自足,那么无论你有多复杂,你都不是实际上的聪明”(第 326 页)。因此,丹尼特将智能相对化为相对于当前环境的处理速度。

蒂姆·莫德林(1989)持不同意见。莫德林考虑了其他作家指出的时间尺度问题,并得出结论,与丹尼特相反,计算系统的极度缓慢并不违反任何关于思维或意识的必要条件。此外,西尔的主要主张是关于理解,而不是智能或机智。如果我们遇到能够比我们快一千倍处理信息的外星人,似乎这并不能说明我们自己理解我们所说的语言的能力有任何问题。

史蒂芬·平克(1997)也认为西尔依赖于未经训练的直觉。平克支持柯奇兰德(1990)提出的类似思想实验的反例,即挥舞磁铁却不产生光,指出这一结果并不能证明光是由电磁波组成的麦克斯韦理论是错误的。平克认为关键问题在于速度:“这个思想实验将波速减慢到我们人类无法再将其视为光的范围。通过在思想实验中信任我们的直觉,我们错误地得出结论,即快速波也不能是光。同样,西尔已经将心智计算减慢到一个范围,我们人类不再认为它是理解(因为理解通常要快得多)”(94–95)。霍华德·加德纳,作为西尔结论的支持者,对理解提出了类似观点。加德纳在他的书《心智的新科学》(1985,171–177)中讨论了中国屋论证。加德纳考虑了所有针对中国屋论证的标准回应,并得出结论认为西尔关于这个屋子的观点是正确的:“……在中国屋的情况下,理解这个词被过分拉伸了……”(175)。

因此,这一批批评者中的一些人认为速度影响了我们愿意将智能和理解归因于一个慢系统,比如中国屋中的系统。结果可能只是我们对中国屋的直觉是不可靠的,因此房间里的人在执行程序时可能理解中文,尽管直觉相反(莫德林和平克)。或者可能是慢速标志着房间中模拟和快速计算机的关键区别,从而使得这个人不具备智能,而计算机系统具备(丹尼特)。

5. 中国哲学问题

5.1 语法和语义

Searle 认为中国屋论证支持一个更大的观点,解释了中国屋未能产生理解的失败。Searle 认为,计算机实现的程序只是句法的。计算机操作是“形式化的”,它们只对符号串的物理形式做出反应,而不是对符号的含义做出反应。另一方面,心智具有具有意义的状态,心理内容。我们将意义与语言中的词语或符号联系起来。我们对符号做出反应是因为它们的意义,而不仅仅是它们的物理外观。简而言之,我们理解。但是,根据 Searle 的观点,这是关键,“语法本身并不足以构成语义”。因此,尽管计算机可以操纵语法以对自然语言输入产生适当的响应,但它们不理解它们接收或输出的句子,因为它们无法将词语与意义联系起来。

Searle(1984)提出了一个三前提论证,即因为句法不足以构成语义,程序无法产生心智。

  1. 程序是纯粹形式的(句法的)。

  2. 人类心智具有心理内容(语义学)。

  3. 语法本身既不构成语义内容,也不足够。

  4. 因此,程序本身既不构成思维,也不足够。

中国房间思想实验本身是第三个前提的支持。声称符号操作不足以产生意义或思维是一个重要问题,涉及的影响远不止人工智能或理解的归因。主流的心灵理论认为,人类认知通常是计算的。在一种形式上,人们认为思维涉及对符号的操作,这是基于它们的物理属性。在另一种连接主义的观点中,计算是在“亚符号”状态上进行的。如果西尔尔是对的,那么不仅是强人工智能,而且对于理解人类认知的这些主要方法也是错误的。

正如我们所看到的,西尔尔认为中国房间情景表明人们不能仅从句法中获得语义。在符号逻辑系统中,一种人工语言,为句法规则制定了规则。如果有的话,语义是在后面提供的。逻辑学家指定了基本符号集合以及一些用于操作字符串以生成新字符串的规则。这些规则纯粹是句法的 - 它们仅仅基于符号的句法或形式而应用于符号字符串。如果符号系统需要语义,那么必须另外提供。如果有人希望表明句法操作和语义之间存在有趣的额外关系,比如符号操作保持真实性,那么必须提供有时复杂的元证明来表明这一点。因此,从表面上看,语义对于人工语言来说是相当独立于句法的,人们不能仅仅从句法中获得语义。“仅凭形式符号本身永远不足以构成心智内容,因为符号本身根据定义除非系统外的某人赋予意义(或解释,或语义),否则是没有意义的”(西尔尔 1989 年,45)。

Searle 在这段中将意义与解释等同起来的观点是重要的。Searle 的观点显然适用于逻辑学家那些在因果上无效的形式系统。逻辑学家必须对这些符号进行语义解释。当我们从形式系统转向计算系统时,情况变得更加复杂。正如 Searle 的许多批评者(例如 Cole 1984,Dennett 1987,Boden 1988 和 Chalmers 1996)所指出的,运行程序的计算机并不等同于“仅仅是语法”。计算机是一个极其复杂的电子因果系统。系统中的状态变化是物理的。人们可以将物理状态(例如电压)解释为语法中的 1 和 0,但固有的现实是电子的,而语法是“衍生的”,是解释的产物。这些状态是由程序员在语法上指定的,但在运行的机器中实现时,它们是嵌入在现实世界中的复杂因果系统的电子状态。这与逻辑学家研究的抽象形式系统大不相同。Dennett 指出,“单单是计算机程序”(Searle 的措辞)——例如放在架子上的程序——不能引起任何事情,甚至不能进行简单的加法,更不用说心理状态了。程序必须在运行。Chalmers(1996)提出了一个讽刺,其中推理认为食谱是语法的,语法并不足以导致易碎性,蛋糕是易碎的,因此实施食谱并不足以制作蛋糕。实施产生了巨大差异;一个抽象实体(食谱、程序)决定了嵌入在世界更大因果关系中的物理系统的因果能力。

Dennett(1987)总结了这个问题:“Searle 的观点可以概括为:拿一个(任何)没有引起心理现象能力的物质对象;你不能通过编程将其转变为具有产生心理现象能力的对象——重新组织其状态之间的条件依赖关系。” Dennett 的观点则相反:编程“恰恰是可以赋予某物心智的”。但 Dennett 声称,事实上“正确类型的程序能够在除了有机的人类大脑之外的任何东西上运行的可能性是很小的”(325-6)。

另一个相关的复杂性是,不清楚计算机是否以与人类完全相同的方式执行句法操作——不清楚计算机是否理解语法或句法操作。计算机不知道它正在处理的是 1 和 0。计算机不意识到它的二进制数据字符串具有某种形式,因此某些句法规则可能适用于它们,不像中国屋里的人。在计算机内部,没有文字地阅读输入数据的东西,也没有“知道”符号是什么的东西。相反,有数百万个改变状态的晶体管。一系列电压引起操作的执行。我们人类可以选择将这些电压解释为二进制数和电压变化为句法操作,但计算机不会将其操作解释为句法或其他方式。因此,也许计算机不需要像西尔勒反对的那样从句法到语义的转变;它需要从复杂的因果关系转向语义。此外,也许_任何_因果系统都可以被描述为执行句法操作——如果我们将浅色方块解释为逻辑“0”,将深色方块解释为逻辑“1”,那么一个厨房烤面包机_可能_被描述为一个将逻辑“0”重写为逻辑“1”的设备。但是,从句法到早餐并没有哲学问题。

在 1990 年代,西尔勒开始利用与此相关的考虑来论证计算观点不仅是错误的,而且缺乏明确意义。计算或句法是“观察者相关的”,而不是现实的固有特征:“……你可以将计算解释赋予任何事物”(西尔勒 2002b,第 17 页),甚至是墙上油漆中的分子。由于没有什么是固有的计算性质,一个科学理论不能将不是观察者相关的心智减少为计算,而计算是观察者相关的。“计算只存在于将计算解释赋予某种现象的某个代理人或观察者之间。这是一个显而易见的观点。十年前我应该已经看到这一点,但我没有。”(西尔勒 2002b,第 17 页,最初发表于 1993 年)。

评论家指出,墙不是计算机;与墙不同,计算机经历状态转换,这些状态转换可以由程序进行反事实描述(Chalmers 1996,Block 2002,Haugeland 2002)。在他 2002 年的论文中,Block 讨论了墙是否是计算机的问题(以回应 Searle 的指控,即任何映射到形式系统的东西都是形式系统,而心智则大不相同)。Block 否认了某物是否是计算机完全取决于我们的解释。Block 指出,Searle 忽略了必须对一个实施系统成立的反事实。Haugeland(2002)提出了类似的观点,即实施将是一个可靠地执行操作的因果过程 - 而且它们必须是正确的因果力。Block 得出结论称 Searle 的论点失败了,但他承认它们“确实成功地加深了我们对意向性的本质及其与计算和表征的关系的理解”(78)。

Rey(2002)还讨论了 Searle 的论点,即句法和符号是观察者相关的属性,而不是物理属性。Searle 从句法属性(例如,是逻辑“1”)不是在物理学中定义这一事实中推断出这一点;然而 Rey 认为这并不意味着它们是观察者相关的。Rey 认为 Searle 也误解了实现程序的含义。Rey 支持 Chalmers 对 Putnam 的回应:实现不仅仅是结构映射,而是涉及因果关系,支持反事实。“这一点经常被忽略,因此有必要重申:计算定义的句法可指定对象可以并且通常确实具有语义;只是这个语义并未涉及到规范。” 一个人的状态由于计算组织和它们与世界的因果关系而具有语义。Rey 得出结论:Searle“简单地没有考虑功能主义和强人工智能的实质资源”(222)。一个合理详细的故事将化解从中文房间系统的表面草图中得出的负面结论。

约翰·豪格兰(2002)认为,处理器必须在某种意义上内在地理解其运行的程序中的命令:它根据规范来执行它们。“我们能理解计算机执行程序的唯一方式是理解其处理器响应程序规定的含义”(385)。因此,操作符对系统具有意义。豪格兰继续区分狭义系统和广义系统。他认为,在包括由传感器产生的外部对象的表示在内的广义系统中,数据可以具有语义。豪格兰顺便提出了一个不同寻常的主张,这个主张在其他地方已经有论证,即真正的智能和语义预设“在生活方式上具有某种承诺的能力”,这种承诺是非命题性的——也就是爱(参见史蒂文·斯皮尔伯格 2001 年的电影《人工智能》)。

对塞尔的主张,即语法是观察者相关的,墙壁中的分子可能被解释为实施 Wordstar 程序(一种早期的文字处理程序),因为“分子运动中存在一些与 Wordstar 的形式结构同构的模式”(塞尔 1990b,第 27 页),豪格兰反驳称,“复杂语法标记的概念本身...预设了指定的写作和阅读过程...”这些标记必须能够系统地生成和检索。因此,任何随机的同构或某处(例如某面墙上)的模式都不会被计入,因此语法并非观察者相关。

关于是否可以从语法中获得语义的问题,William Rapaport 多年来一直主张“句法语义”,这一观点认为理解是一种特殊形式的句法结构,其中符号(如中国文字)与概念相连,这些概念本身以句法方式表示。其他人认为我们还没有达到那一步。人工智能未来主义者(《精神机器时代》)雷·库兹韦尔在 2002 年的后续著作中认为,把重点放在传统的符号操作计算机上是一个红鲱。库兹韦尔同意西尔尔的观点,即现有的计算机不理解语言——这一事实的证据是它们无法进行令人信服的对话。但这一失败并不影响基于不同技术的未来计算机的能力。库兹韦尔声称,西尔尔未能理解未来机器将使用“混沌的新兴方法,具有大规模并行性”。这一说法似乎与连接主义者(如安迪·克拉克)以及乔治·丘奇兰德在 1990 年《科学美国人》文章中所持的立场相似。

除了豪格兰德声称处理器理解程序指令外,西尔尔的批评者们可以同意计算机不理解句法,就像它们不理解语义一样,尽管像所有因果引擎一样,计算机具有句法描述。虽然程序员通常将机器视为执行句法操作的方式很有用,但并非总是如此:有时程序员使用的字符只是使机器执行某些操作的开关,例如使计算机显示器上的特定像素变红,或使汽车变速器换挡。因此,西尔尔所说的数字计算机只是“一个操纵符号的设备”并不清楚是否正确。计算机是复杂的因果引擎,句法描述有助于构建机器中的因果相互关系。人工智能程序员面临许多棘手问题,但可以认为他们不必从语法中获得语义。如果他们要获得语义,他们必须从因果关系中获得。

有两种主要方法已经发展出来,用于解释涉及因果关系的意义。内部主义方法,如 Schank 和 Rapaport 的概念表征方法,以及概念角色语义,认为物理系统的状态从与同一系统的其他状态的因果关系中获得其语义。因此,计算机的一个状态可能代表“猕猴桃”,因为它与“鸟”和“不会飞”节点相连,也可能与典型猕猴桃的图像相连。代表“不会飞”的状态可能从否定运算符修改“能够自主飞行”的表征中获得其内容,等等,形成一个庞大的相互连接的概念网络,一种心智词典。

外部主义 方法由 Dennis Stampe、Fred Dretske、Hilary Putnam、Jerry Fodor、Ruth Millikan 等人发展而来,认为物理系统的状态通过与其所代表的外部现实的因果关系获得其内容。因此,大致而言,具有 KIWI 概念的系统是具有一种用于代表外部环境中猕猴桃存在的状态。这个代表猕猴桃的状态可以是任何适当与猕猴桃存在有因果关系的状态。根据系统的不同,代表猕猴桃的状态可以是大脑的状态,或者是电子设备如计算机的状态,甚至是液压系统的状态。然后,内部代表状态可以进而在决定系统行为中发挥因果作用。例如,Rey(1986)支持类似于 Dennis Stampe(1977)和 Fodor 的_心理语义学_的指示语义。这些将内容或意义定位在与世界适当的因果关系中的语义理论与机器人回应很相符。一个身体是机器人的计算机可能具有使其内部句法状态具有代表其环境中事物状态的语义属性的因果关系。

因此,关于语义如何取决于因果关系,至少有两种理论流派(以及两者的结合,如 Block 1986)。这两种理论都试图提供与物质无关的解释:适当组织的因果系统的状态可以具有内容,无论这些系统由什么构成。根据这些理论,计算机可以具有具有意义的状态。计算机无需意识到自己的状态并知道它们具有意义,也无需任何外部人士欣赏这些状态的意义。在这两种理论中,意义取决于(可能复杂的)因果关系,数字计算机是设计为具有恰好这种复杂因果依赖关系的系统。值得注意的是,西尔并不赞同这些语义理论。相反,西尔对语言意义的讨论经常集中在“意向性”的概念上。

5.2 意向性

Intentionality 是关于某事物、具有内容的属性。在 19 世纪,心理学家弗朗茨·布伦塔诺重新引入了这个术语,他认为意向性是“心智的标志”。信念和欲望是有意向性的状态:它们具有命题内容(一个人相信_p_,一个人渴望_p_,其中代表命题的句子替换“p”)。西尔对意向性的观点是复杂的;在这里相关的是,他区分了真正心智状态的原始或内在意向性,以及语言的衍生意向性。书面或口头的句子只有在被某人解释时才具有衍生意向性。西尔认为,原始意向性至少在潜意识中是可能的。然后,西尔认为区分原始和衍生意向性也适用于计算机。我们可以解释计算机的状态具有内容,但这些状态本身并没有原始意向性。许多哲学家支持这种意向性二元论,包括塞尔(1986)甚至福多(2009),尽管福多与西尔有许多不同之处。

在她 1988 年的著作《心智的计算机模型》的一节中,玛格丽特·博登指出意向性并不被很好理解 - 这是不要过分依赖意向性的论点的原因。此外,就我们对大脑的理解而言,我们关注的是信息功能,而不是大脑的未指明的因果能力:“...从心理学的角度来看,重要的不是生物化学本身,而是基于其的信息传递功能。”(241)西尔将意向性视为大脑的一种因果能力,是生物过程独特产生的。戴尔·雅奎特在 1989 年反对了对意向性的简化 - 他说,意向性是一种“不可削减的、不可简化的原始概念”。然而,大多数人工智能支持者认为意向性、关于性与信息紧密相关,非生物状态也可以承载信息,就像大脑状态一样。因此,许多对西尔的回应者认为他表现出物质沙文主义,认为大脑能理解,但由硅制成且具有相当信息处理能力的系统在原则上不能。双方都发表了有关这个问题的论文,比如 J·马洛尼在 1987 年发表的支持西尔的论文《正确的东西》,以及 R·沙维在 1983 年的批判性论文《重要的不是肉,而是动作》。人工智能支持者如库尔茨韦尔(1999,另见理查兹 2002)继续认为人工智能系统有可能具有理解、智能、意识和意向性等心智属性,并且在这些领域将超越人类能力。

其他批评 Searle 立场的人比 Boden 更认真地对待意向性,但否认他在原始意向性和派生意向性之间的二元区别。 Dennett(1987 年)认为所有的意向性都是派生的,因为对意向性的归因 - 对动物、其他人,甚至是我们自己的归因 - 是一种工具性的,让我们能够预测行为,但它们并不是对内在属性的描述。正如我们所看到的,Dennett 关注于中国屋中事物的缓慢速度,但他认为一旦系统达到速度,它就具备了智能和派生意向性所需的一切 - 而根据 Dennett 的观点,派生意向性是唯一存在的意向性。机器可以是一个有意向性的系统,因为有意向性的解释可以预测机器的行为。 Dennett 还暗示 Searle 混淆了意向性和对意向性的意识。在他的句法-语义论证中,“Searle 显然混淆了关于语义无法从句法推导出来的说法,与关于意识无法从句法推导出语义的说法”(336 页)。对意识的强调迫使我们从第一人称的角度思考事物,但 Dennett 2017 继续强调,如果我们想要理解心智,这是一个基本错误。

其他人指出,西尔的讨论显示了从关于意向性和理解的问题转向意识问题的变化。西尔将意向性与意向性意识联系起来,认为有意向性的状态至少在潜在意识上。在他 1996 年的著作《意识的心灵》中,大卫·查尔默斯指出,尽管西尔最初是针对机器的意向性提出论点,但从后来的著作中可以明显看出,真正的问题是意识,西尔认为这是意向性的必要条件。数字计算机缺乏的是意识。查尔默斯使用思维实验来论证,如果可以想象将一个系统逐渐转化为另一个系统(逐渐用数字电路替换神经元,或者一次性地在肉体和硅之间来回切换),那么认为一个系统具有某种基本的心理属性(比如拥有感觉)而另一个系统缺乏这种属性是不合理的。

关于意向性归因的第二种策略是由批评者采取的,实际上他们认为,意向性是与世界以正确方式进行因果联系的物理系统状态的固有特征,独立于解释(参见前面的“语法和语义”部分)。福多的语义外部主义受到弗雷德·德雷兹克的影响,但他们在涉及计算机状态的语义方面得出了不同的结论。多年来,德雷兹克发展了一个关于意义或心理内容的历史解释,这将排除将信念和理解归因于大多数机器。德雷兹克(1985)同意西尔的看法,即添加机器并不会真正添加;_我们_才是添加者,使用这些机器。德雷兹克强调自然选择和学习在产生具有真正内容的状态方面的关键作用。人类建造的系统最多只能像沼泽人一样(这些生物是由沼泽中的闪电击中并偶然成为某个人的分子级复制,比如你)-它们似乎具有意向性或心理状态,但实际上并没有,因为这些状态需要正确的历史。人工智能状态通常会是真实心理状态的伪造品;就像伪造的货币一样,它们可能看起来完全相同,但缺乏正确的渊源。但德雷兹克对信念的描述似乎使其与信念或意向状态的有意识意识相区分开来(如果这需要一个更高阶的思维),因此似乎允许将意向性归因于通过学习获得正确历史的人工系统。

霍华德·加德纳(Howard Gardiner)支持泽农·皮利辛(Zenon Pylyshyn)对西尔(Searle)关于大脑和意向性关系的批评,认为意向性被认为是大脑“分泌出来的某种东西”,以及皮利辛自己的对抗性思想实验,其中一个人的神经元被集成电路替代(另请参见科尔(Cole)和福尔伯(Foelber)(1984 年)以及查尔默斯(Chalmers)(1996 年)探讨神经元替换情景)。加德纳认为,西尔欠我们一个比迄今为止所给出的更精确的意向性解释,直到那时,人工智能是否能够产生它,或者它是否超出了其范围,都是一个悬而未决的问题。加德纳最后得出结论,西尔和他的批评者之间的争论可能不是科学性的,而是(准)宗教性的。

5.3 心灵与身体

一些评论家指出,原始论点涉及到了形而上学问题。系统回应引起了人们对心灵与身体关系的形而上学问题的关注。它认为理解是整个系统的属性,而不是物理实施者。虚拟心灵回应认为,理解和意识的主体——心灵或人——比任何物理系统都更抽象,心灵和物理系统之间可能存在多对一的关系。(即使一切都是物理的,原则上一个身体可以被多个心灵共享,一个心灵可以随时间拥有一系列身体。)因此,在西尔和他的一些批评者之间的辩论中,有关个人身份和心灵与身体关系的更大问题也在起作用。

西尔的观点是,心灵与身体关系的问题“有一个相当简单的解决方案。在这里:意识状态是由大脑中较低级别的神经生物学过程引起的,它们本身是大脑的较高级别特征”(西尔 2002b,第 9 页)。在他早期对 CRA 的讨论中,西尔谈到了大脑的因果能力。因此,他的观点似乎是大脑状态引起意识和理解,“意识只是大脑的一个特征”(同上)。然而,正如我们所见,即使这是真的,这也引出了一个问题,即大脑创造了谁的意识。罗杰·斯佩里的分裂大脑实验表明,也许可以有两个意识中心,因此从某种意义上说,由一个大脑实施的两个心灵。虽然两者都至少显示出一定的语言理解能力,但只有一个(通常由左半球创建)控制语言产生。因此,目前许多理解大脑和意识关系的方法强调连接性和信息流(参见 Dehaene 2014)。

意识和理解是人的特征,因此西尔伯尔似乎接受了一种形而上学,即我,我的意识自我,与我的大脑相同 - 一种心智-大脑同一理论形式。这种非常具体的形而上学体现在西尔的 CR 论证的最初表述中,在那里他将强人工智能描述为“适当编程的计算机确实是一个心智”(西尔,1980 年)。这是一个同一性主张,并且具有奇怪的后果。如果 A 和 B 是相同的,那么 A 的任何属性也是 B 的属性。计算机是物理对象。一些计算机重 6 磅并带有立体声扬声器。因此,西尔称之为强人工智能的主张将意味着一些心灵重 6 磅并带有立体声扬声器。然而,很明显,虽然人类可能重 150 磅;人类的心灵并不重 150 磅。这表明身体和机器既不能成为心灵。这些考虑支持这样一种观点,即心灵比大脑更抽象,如果是这样,那么西尔称之为强人工智能的主张之一,即计算机确实是心灵的主张,从表面上看在形而上学上是站不住脚的,除了任何思想实验之外。

因此,西尔的 CR 论证是针对这样一种主张的,即计算机是一个心灵,一个适当编程的数字计算机理解语言,或者它的程序理解语言。西尔的思想实验依赖于我们强烈的直觉,即一个完全模仿计算机行为的人不会因此而开始理解中文。如上所述,许多批评者认为西尔在这一点上是完全正确的 - 无论如何编程计算机,计算机都不会成为一个真正的心灵,计算机也不会理解自然语言。但是,如果心灵不是物理对象,计算机无法成为心灵并不意味着运行 AI 程序不能_产生_对自然语言的理解,这种理解是由计算机以外的某种东西产生的(见上文 4.1 节)。

功能主义 是在西尔的 CRA 之前的二十年间发展起来的有关心灵与身体关系的理论。功能主义是对同一理论的一种替代,这种理论在西尔的讨论中是隐含的,也是对二十世纪中期主导的行为主义的一种替代。如果功能主义是正确的,似乎没有内在的理由说明为什么计算机不能拥有心理状态。因此,CRA 的结论认为计算机在内在上无法具有心理状态,这是对功能主义的一个重要考虑因素。朱利安·巴吉尼(2009 年,37 页)写道,西尔“提出了历史上也许是最著名的反例——中国屋论证——并且在一次智力打击中对当时主导的功能主义理论造成了如此严重的损害,以至于许多人会认为它从未恢复过来。”

功能主义者认为,一个心理状态_是_它所_做_的事情——状态所扮演的因果(或“功能”)角色决定了它是什么状态。功能主义者可能认为,例如,疼痛是一种通常由身体损伤引起的状态,位于身体形象中,并且是令人厌恶的。功能主义者既与行为主义者又与同一理论者保持距离。与前者相反,功能主义者认为_内部_因果过程对于拥有心理状态是重要的。因此,功能主义者可能同意西尔拒绝图灵测试过于行为主义的观点。与同一理论者相反(他们可能认为“疼痛与 C 纤维的激活是一致的”),功能主义者认为心理状态可能由各种物理系统(或非物理系统,如科尔和福尔伯 1984 年的观点,其中一个思维从物质到非物质实现,逐个神经元地变化)拥有。因此,虽然同一理论者会将疼痛与某些神经元的激活联系起来,功能主义者会将疼痛与更抽象和更高层次的东西联系起来,这是许多不同类型的基础系统可能拥有的功能角色。

功能主义者指责认同论者存在物质沙文主义。然而,功能主义仍然备受争议:功能主义容易受到上述中国国家类型异议的攻击,功能主义者以难以解释感知质性而著称,这一问题由倒置光谱的明显可能性突显出来,其中在功能角色相同的情况下可能存在质性不同的状态(例如 Block 1978,Maudlin 1989,Cole 1990)。

计算主义 是功能主义的一个亚种,认为大脑过程的重要因果作用是信息处理。Milkowski 2017 指出,计算方法在认知科学中取得了成果;他审视了针对计算主义的异议,并得出结论,大多数异议针对的是一个草人版本。然而,计算方法的早期倡导者 Jerry Fodor 在 2005 年的著作中认为,依赖于表示的非局部属性的关键心理过程(例如最佳解释推理)无法通过大脑中的计算模块来解释。如果 Fodor 是正确的,理解语言和解释似乎涉及全局考虑,如语言和非语言背景以及心灵理论,因此可能抵制计算解释。如果是这样,我们将根据不同的考虑得出塞尔的结论。

Searle 在 2010 年对 CRA 的结论表示,计算模型无法解释意识。自 1980 年以来,人们对于确定是什么解释了意识产生了相当大的兴趣,这已经成为跨学科领域中一个非常活跃的研究领域。人们对意识的神经相关性很感兴趣。这与 Searle 的观点直接相关,即意识本质上是生物的,而不是计算的或信息处理的。目前还没有明确的答案,尽管一些关于麻醉的最近研究表明,当皮层(和皮质丘脑)连接和信息流被中断时,意识会丧失(例如 Hudetz 2012,一篇综述文章)。

一般来说,如果确认意识的基础是相对抽象层次的信息流通过神经网络,那将有利于功能主义;如果最终发现意识的基础更低、更生物(或亚神经元级别),那将有利于 Searle 的观点。

这些备受争议的生物学和形而上学问题涉及中国屋论证中的核心推论。从在中国屋思想实验中的直觉出发,塞尔推断出通过运行程序他不会理解中文,因此推断出通过运行程序不会产生理解。显然,这一推论是否有效取决于关于人和心智身份的形而上学问题。如果理解的人与房间操作者不是同一人,则这一推论是站不住脚的。

5.4 模拟、复制和演化

在讨论 CRA 时,西尔认为模拟和复制之间有一个重要区别。没有人会把计算机模拟的天气误认为是真实的天气,或者把计算机模拟的消化误认为是真正的消化。西尔得出结论,把计算机模拟的理解混淆为理解同样是一个严重错误。

乍一看,模拟和真实物之间通常有一个重要区别。但是出现了两个问题。不清楚是否总是能够做出区分。心脏如果有的话,就是生物性的。人工心脏是心脏的模拟吗?还是心脏的功能复制品,用不同材料制成的心脏?行走通常是使用肢体进行的生物现象。那些使用人工肢体的人算是在行走吗?还是在模拟行走?机器人会行走吗?如果确定某种事物所需的属性是高层属性,那么任何共享这些属性的事物都将是那种事物,即使在其较低层属性上有所不同。查尔默斯(1996)提出了一个关于模拟何时等同于复制的原则。查尔默斯认为,与西尔和哈南德(1989)相反,X 的模拟可以是 X,即当作为 X 的属性是一种组织不变量时,这种属性仅取决于基础系统的功能组织,而不取决于任何其他细节。

Copeland (2002)认为,教会-图灵论题并不意味着大脑(或每台机器)可以被通用图灵机模拟,因为大脑(或其他机器)可能具有无法通过简单文书例程手动执行的原始操作。(一个例子可能是,人类大脑可能显示出真正的低级随机性,而计算机被精心设计为不这样做,因此在需要表现出随机性时,计算机会使用伪随机数。)Sprevak 2007 提出了一个相关观点。图灵的 1938 年普林斯顿论文描述了这样的机器(“O-机器”)。O-机器是包括自然数函数的机器,这些函数不是图灵机可计算的。如果大脑是这样一台机器,那么,Sprevak 说:“没有可能对塞尔的中文房间论证成功地用于反对功能主义假设,即大脑实例化了一个 O-机器……”(120)。

Copeland 讨论了与大脑模拟/复制区别有关的问题。他认为塞尔尔正确地指出,不能从_X_模拟_Y_,以及_Y_具有性质_P_,推断出因此_X_具有_Y_的性质_P_对于任意_P_。但 Copeland 声称,塞尔尔本人在将 CR 论证从传统人工智能扩展到针对计算主义时犯了模拟谬误。推理的逆否命题在逻辑上是等价的 - X_模拟_YX_没有_P,因此_Y_也没有 - 其中_P_是懂中文。错误的步骤是:CR 操作符_S_模拟神经网络_N_,并不是_S_懂中文,因此_N_也不懂中文。Copeland 还指出了 Siegelmann 和 Sontag(1994)的研究结果,显示一些连接主义网络无法被通用图灵机模拟(特别是连接权重为实数的情况)。

存在另一个关于模拟和复制区别的问题,源自进化过程。西尔希望将原始的意向性和真正的理解视为仅属于某些生物系统的特性,可能是进化的产物。计算机仅仅模拟这些特性。同时,在中国屋情景中,西尔认为一个系统可以展示与人类行为一样复杂的行为,模拟任何想象得到的智能和语言理解程度,并模拟处理世界的任何能力,但却一无所知。他还说,这种行为复杂的系统可以用非常普通的材料实现,例如水管和阀门。

这引发了一个生物问题,超越了早期批评中国屋论证的其他心灵问题。虽然_我们_可能预设其他人有心灵,但进化并不做出这样的假设。推动生物进化的选择力是基于行为的。进化可以选择具有创造性和智能地利用环境信息的能力,只要这在生物体的行为中表现出来。如果在任何情况下,在理解系统和非理解系统之间的任何情况下行为没有明显差异,进化就无法选择真正的理解。因此,在西尔的观点中,真正理解意义的心灵与仅仅处理信息的生物没有优势,仅使用纯计算过程。因此,一个暗示理解的模拟可以像真实事物一样具有生物适应性的立场,让我们对拥有“真正”理解的系统如何以及为什么会进化留下了一个谜团。原始的意向性和真正的理解变成了外在现象。

结论

正如我们所看到的,自 1980 年出现以来,中国哲学论证已经引发了跨学科的讨论。尽管有广泛的讨论,但对于这个论证是否成立仍然没有共识。一方面,朱利安·巴吉尼(2009 年)评价西尔:“他可能提出了历史上最著名的反例——中国房间论证——并且在一次智力打击中对当时占主导地位的功能主义理论造成了如此严重的破坏,以至于许多人会认为它从未恢复。”而哲学家丹尼尔·丹尼特(2013 年,第 320 页)得出结论称,中国房间论证“显然是一个谬误和误导性的论证”。因此,关于这个论证是否证明了人工智能或心智的计算解释的抱负受到了限制,目前尚无共识。

同时,人工智能和自然语言处理领域的工作仍在继续。CRA((CRA 不翻译))领导的 Stevan Harnad 和其他人正在追求人工智能中的“符号基础”。哲学界的许多人(Dretske,Fodor,Millikan)致力于自然主义的心智内容理论。关于意识的本质的猜测在许多学科中持续进行。计算机已经从实验室走向了口袋和手腕。

在西尔的论证构建时,个人计算机是非常有限的业余设备。Weizenbaum 的“Eliza”和一些文本“冒险”游戏是在 DEC 计算机上玩的;这些包括有限的解析器。更先进的语言解析仅限于 Schank 等计算机研究人员。在接下来的一个四分之一世纪里发生了许多变化;现在有数十亿人使用自然语言通过口袋中携带的计算机来询问和指挥虚拟代理。中国屋论证是否已经减弱了那些生产人工智能和自然语言系统的人的主张?一些将设备连接到“物联网”的制造商提出了谨慎的主张:家电制造商 LG 表示,21 世纪第二个十年带来了与主要家电“交谈”的“体验”。这可能与交谈是否相同无关。苹果在描述其名为“Siri”的“虚拟个人助理”应用程序的功能时比 LG 更不谨慎:苹果表示 Siri“理解您说的话。它知道您的意思。”IBM 迅速声称其规模更大的“沃森”系统在语言能力上优于 Siri。2011 年,沃森在电视游戏节目“危险边缘”上击败了人类冠军,这在很大程度上依赖于语言能力和推理。IBM 继续声称,区分沃森的是它“知道自己知道什么,也知道自己不知道什么。”这似乎在宣称 Watson 计算机系统具有一种反身的自我意识或意识。因此,现在强人工智能的主张几乎没有受到抑制,如果有的话,有些主张更加强烈和兴奋。与此同时,正如我们所看到的,许多人相信中国屋论证一劳永逸地表明,充其量计算机只能模拟人类认知。

虽然相隔三个世纪,莱布尼茨和西尔在各自的思想实验中对所考虑的系统有着类似的直觉,莱布尼茨的磨坊和中国屋。在这两种情况下,他们考虑到一个由相对简单的操作组成的复杂系统,并指出很难看出理解或意识如何产生。这些简单的论证帮助我们突出了我们在理解意义和心智方面所面临的严重问题。中国屋论证引发的许多问题可能要等到关于意义的本质、它与句法的关系以及意识的生物学基础达成共识之前才能得到解决。关于什么过程创造意义、理解和意识,以及什么可以通过先验思想实验得到证明,仍然存在着重大分歧。

Bibliography

  • Apple Inc., 2014, ‘IOS 7 Siri’, accessed 1/10/2014.

  • Baggini, J., 2009, ‘Painting the bigger picture’, The Philosopher’s Magazine, 8: 37–39.

  • Block, N., 1978, ‘Troubles with Functionalism’, in C. W. Savage (ed.), Perception and Cognition: Issues in the Foundations of Psychology, Minneapolis: University of Minnesota Press. (Reprinted in many anthologies on philosophy of mind and psychology.)

  • –––, 1986, ‘Advertisement for a Semantics for Psychology’, Midwest Studies in Philosophy (Volume X), P.A. French, et al. (eds.), Minneapolis: University of Minnesota Press, 615–678.

  • –––, 2002, ‘Searle’s Arguments Against Cognitive Science’, in Preston and Bishop (eds.) 2002.

  • Boden, M., 1988, Computer Models of the Mind, Cambridge: Cambridge University Press; pp. 238–251 were excerpted and published as ‘Escaping from the Chinese Room’, in The Philosophy of Artificial Intelligence, ed M. A. Boden, New York: Oxford University Press, 1990.

  • Cam, P., 1990, ‘Searle on Strong AI’, Australasian Journal of Philosophy, 68: 103–8.

  • Chalmers, D., 1992, ‘Subsymbolic Computation and the Chinese Room’, in J. Dinsmore (ed.), The Symbolic and Connectionist Paradigms: Closing the Gap, Hillsdale, NJ: Lawrence Erlbaum.

  • –––, 1996, The Conscious Mind, Oxford: Oxford University Press.

  • –––, 1996a, “Does a Rock Implement Every Finite-State Automaton’, Synthese 108: 309–33.

  • –––, 1996b, ‘Minds, machines, and mathematics’, Psyche, 2: 11–20.

  • Churchland, P., 1985, ‘Reductionism, Qualia, and the Direct Introspection of Brain States’, The Journal of Philosophy, LXXXII: 8–28.

  • Churchland, P. and Churchland, P., 1990, ‘Could a machine think?’, Scientific American, 262(1): 32–37.

  • Clark, A., 1991, Microcognition: Philosophy, Cognitive Science, and Parallel Distributed Processing, Cambridge, MA: MIT Press.

  • Cole, D., 1984, ‘Thought and Thought Experiments’, Philosophical Studies, 45: 431–44.

  • –––, 1990, ‘Functionalism and Inverted Spectra’, Synthese, 82: 202–222.

  • –––, 1991a, ‘Artificial Intelligence and Personal Identity’, Synthese, 88: 399–417.

  • –––, 1991b, ‘Artificial Minds: Cam on Searle’, Australasian Journal of Philosophy, 69: 329–33.

  • –––, 1994, ‘The Causal Powers of CPUs’, in E. Dietrich (ed.), Thinking Computers and Virtual Persons, New York: Academic Press

  • Cole, D. and Foelber, R., 1984, Contingent Materialism’, Pacific Philosophical Quarterly, 65(1): 74–85.

  • Copeland, J., 2002, ‘The Chinese Room from a Logical Point of View’, in Preston and Bishop (eds.) 2002, 104–122.

  • Crane, Tim., 1996, The Mechanical Mind: A Philosophical Introduction to Minds, Machines and Mental Representation, London: Penguin.

  • Davis, Lawrence, 2001, ‘Functionalism, the Brain, and Personal Identity’, Philosophical Studies, 102(3): 259–279.

  • Dehaene, S., 2014, Consciousness and the Brain: Deciphering How the Brain Codes Our Thoughts, New York: Viking Penquin.

  • Dennett, D., 1978, ‘Toward a Cognitive Theory of Consciousness’, in Brainstorms: Philosophical Essays on Mind and Psychology, Cambridge, MA: MIT Press.

  • –––, 1981, ‘Where am I?’ in Brainstorms: Philosophical Essays on Mind and Psychology, Cambridge, MA: MIT Press, pp. 310–323.

  • –––, 1987, ‘Fast Thinking’, in The Intentional Stance, Cambridge, MA: MIT Press, 324–337.

  • –––, 1997, ‘Consciousness in Humans and Robot Minds,’ in M. Ito, Y. Miyashita and E.T. Rolls (eds.), Cognition, computation, and consciousness, New York: Oxford University Press, pp. 17–29.

  • –––, 2013, Intuition Pumps and Other Tools for Thinking, New York: W.W. Norton and Co.

  • Dneprov, A., 1961, ‘Игра’ (‘The Game’), Знание-сила (Knowledge is Power), 5: 39–42; for a link to the translation, see Mickevich 1961, Other Internet Resources.

  • Double, R., 1983, ‘Searle, Programs and Functionalism’, Nature and System, 5: 107–14.

  • Dretske, F. 1985, ‘Presidential Address’ (Central Division Meetings of the American Philosophical Association), Proceedings and Addresses of the American Philosophical Association, 59(1): 23–33.

  • Dreyfus, H. 1965, ‘Alchemy and Artificial Intelligence’, Boston, MA: Rand Corporation.

  • –––, 1972, What Computers Can’t Do, New York: Harper & Row.

  • Fodor, J., 1987, Psychosemantics, Cambridge, MA: MIT Press.

  • –––, 1991, ‘Yin and Yang in the Chinese Room’, in D. Rosenthal (ed.), The Nature of Mind, New York: Oxford University Press.

  • –––, 1992, A Theory of Content and other essays, Cambridge, MA: MIT Press.

  • –––, 2009, ‘Where is my Mind?’, London Review of Books, (31)3: 13–15.

  • Ford, J., 2010, ‘Helen Keller was never in a Chinese Room’, Minds and Machines, VOLUME: PAGES.

  • Gardiner, H., 1987, The Mind’s New Science: A History of the Cognitive Revolution, New York: Basic Books.

  • Hanley, R., 1997, The Metaphysics of Star Trek, New York: Basic Books.

  • Harnad, S., 1989, ‘Minds, Machines and Searle’, Journal of Experimental and Theoretical Artificial Intelligence, 1: 5–25.

  • –––, 2002, ‘Minds, Machines, and Searle2: What’s Right and Wrong about the Chinese Room Argument’, in Preston and Bishop (eds.) 2002, 294–307.

  • Haugeland, J., 2002, ‘Syntax, Semantics, Physics’, in Preston and Bishop (eds.) 2002, 379–392.

  • Hauser, L., 1997, ‘Searle’s Chinese Box: Debunking the Chinese Room Argument’, Minds and Machines, 7: 199–226.

  • –––, 2002, ‘Nixin’ Goes to China’, in Preston and Bishop (eds.) 2002, 123–143.

  • Hayes, P., Harnad, S., Perlis, D. & Block, N., 1992, ‘Virtual Symposium on Virtual Mind’, Minds and Machines, 2(3): 217–238.

  • Hofstadter, D., 1981, ‘Reflections on Searle’, in Hofstadter and Dennett (eds.), The Mind’s I, New York: Basic Books, pp. 373–382.

  • Horgan, T., 2013, ‘Original Intentionality is Phenomenal Intentionality’, The Monist 96: 232–251.

  • Hudetz, A., 2012, ‘General Anesthesia and Human Brain Connectivity’, Brain Connect, 2(6): 291–302.

  • Jackson, F., 1986, ‘What Mary Didn’t Know’, Journal of Philosophy, LXXXIII: 291–5.

  • Kaernbach, C., 2005, ‘No Virtual Mind in the Chinese Room’, Journal of Consciousness Studies, 12(11): 31–42.

  • Kim, J., 2010, The Philosophy of Mind, (3rd edition), Boulder, CO: Westview Press.

  • Kurzweil, R., 2000, The Age of Spiritual Machines: When Computers Exceed Human Intelligence, New York: Penguin.

  • –––, 2002, ‘Locked in his Chinese Room’, in Richards 2002, 128–171.

  • Maloney, J., 1987, ‘The Right Stuff’, Synthese, 70: 349–72.

  • Maudlin, T., 1989, ‘Computation and Consciousness’, Journal of Philosophy, LXXXVI: 407–432.

  • Milkowski, M. 2017, ‘Why think that the brain is not a computer?’, APA Newsletter on Philosophy and Computers, 16(2), 22–28.

  • Millikan, R., 1984, Language, Thought, and other Biological Categories, Cambridge, MA: MIT Press.

  • Moravec, H., 1999, Robot: Mere Machine to Transcendent Mind, New York: Oxford University Press.

  • Nute, D., 2011, ‘A Logical Hole the Chinese Room Avoids’, Minds and Machines, 21: 431–3; this is a reply to Shaffer 2009.

  • Penrose, R., 2002, ‘Consciousness, Computation, and the Chinese Room’ in Preston and Bishop (eds.) 2002, 226–249.

  • Pinker, S., 1997, How the Mind Works, New York: Norton.

  • Preston, J. and M. Bishop (eds.), 2002, Views into the Chinese Room: New Essays on Searle and Artificial Intelligence, New York: Oxford University Press.

  • Pylyshyn, Z., 1980, Reply to Searle,Behavioral and Brain Sciences, 3.

  • Rapaport, W., 1984, ‘Searle’s Experiments with Thought’, Philosophy of Science, 53: 271–9.

  • ––– 2006, ‘How Helen Keller Used Syntactic Semantics to Escape from a Chinese Room’, Minds and Machines, 16(4): 381–436.

  • Rey, G., 1986, ‘What’s Really Going on in Searle’s “Chinese Room” ’, Philosophical Studies, 50: 169–85.

  • –––, 2002, ‘Searle’s Misunderstandings of Functionalism and Strong AI’, in Preston and Bishop (eds.) 2002, 201–225.

  • Richards, J. W. (ed.), 2002, Are We Spiritual Machines: Ray Kurzweil vs. the Critics of Strong AI, Seattle: Discovery Institute.

  • Rosenthal, D. (ed), 1991, The Nature of Mind, Oxford and NY: Oxford University Press.

  • Schank, R., 2015, ‘Machines that Think are in the Movies’, in Brockman, J. (ed.), What to Think About Machines that Think, New York: Harper Collins

  • Schank, R. and Abelson, R., 1977, Scripts, Plans, Goals, and Understanding, Hillsdale, NJ: Lawrence Erlbaum.

  • Schank, R. and P. Childers, 1985, The Cognitive Computer: On Language, Learning, and Artificial Intelligence, New York: Addison-Wesley.

  • Schweizer, P., 2012, ‘The Externalist Foundations of a Truly Total Turing Test’, Minds and Machines, 22: 191–212.

  • Searle, J., 1980, ‘Minds, Brains and Programs’, Behavioral and Brain Sciences, 3: 417–57 [Preprint available online]

  • –––, 1984, Minds, Brains and Science, Cambridge, MA: Harvard University Press.

  • –––, 1989, ‘Artificial Intelligence and the Chinese Room: An Exchange’, New York Review of Books, 36: 2 (February 16, 1989).

  • –––, 1990a, ‘Is the Brain’s Mind a Computer Program?’, Scientific American, 262(1): 26–31.

  • –––, 1990b, ‘Presidential Address’, Proceedings and Addresses of the American Philosophical Association, 64: 21–37.

  • –––, 1998, ‘Do We Understand Consciousness?’ (Interview with Walter Freeman), Journal of Consciousness Studies, 6: 5–6.

  • –––, 1999, ‘The Chinese Room’, in R.A. Wilson and F. Keil (eds.), The MIT Encyclopedia of the Cognitive Sciences, Cambridge, MA: MIT Press.

  • –––, 2002a, ‘Twenty-one Years in the Chinese Room’, in Preston and Bishop (eds.) 2002, 51–69.

  • –––, 2002b, ‘The Problem of Consciousness’, in Consciousness and Language, Cambridge: Cambridge University Press, 7–17.

  • –––, 2004, Mind: a Brief Introduction, Oxford: Oxford University Press.

  • –––, 2010, ‘Why Dualism (and Materialism) Fail to Account for Consciousness’, in Richard E. Lee (ed.), Questioning Nineteenth Century Assumptions about Knowledge (III: Dualism), New York: SUNY Press.

  • Seligman, M., 2019, ‘The Evolving Treatment of Semantics in Machine Translation’, in M. Ji and M. Oakes (eds.), Advances in Empirical Translation Studies: Developing Translation Resources and Technologies, Cambridge: Cambridge University Press.

  • Shaffer, M., 2009, ‘A Logical Hole in the Chinese Room’, Minds and Machines, 19(2): 229–235.

  • Sharvy, R., 1983, ‘It Ain’t the Meat It’s the Motion’, Inquiry, 26: 125–134.

  • Simon, H. and Eisenstadt, S., 2002, ‘A Chinese Room that Understands’, in Preston and Bishop (eds.) 2002, 95–108.

  • Sloman, A. and Croucher, M., 1980, ‘How to turn an information processor into an understanding’, Brain and Behavioral Sciences, 3: 447–8.

  • Sprevak, M., 2007, ‘Chinese Rooms and Program Portability’, British Journal for the Philosophy of Science, 58(4): 755–776.

  • Stampe, Dennis, 1977, ‘Towards a Causal Theory of Linguistic Representation’, in P. French, T. Uehling, H. Wettstein, (eds.) Contemporary Perspectives in the Philosophy of Language, (Midwest Studies in Philosophy, Volume 2), Minneapolis: University of Minnesota Press, pp. 42–63.

  • Thagard, P., 1986, ‘The Emergence of Meaning: An Escape from Searle’s Chinese Room’, Behaviorism, 14: 139–46.

  • –––, 2013, ‘Thought Experiments Considered Harmful‘, Perspectives on Science, 21: 122–139.

  • Turing, A., 1948, ‘Intelligent Machinery: A Report’, London: National Physical Laboratory.

  • –––, 1950, ‘Computing Machinery and Intelligence’, Mind, 59: 433–460.

  • Weiss, T., 1990, ‘Closing the Chinese Room’, Ratio, 3: 165–81.

  • Ziemke, T., 2016, ‘The Body of Knowledge: on the role of the living body in grounding embodied cognition’, Biosystems, 148: 4–11.

Academic Tools

Other Internet Resources

computation: in physical systems | consciousness: and intentionality | consciousness: representational theories of | emergent properties | epiphenomenalism | externalism about the mind | functionalism | information: biological | information: semantic conceptions of | intentionality | mental content: causal theories of | mental content: teleological theories of | mental representation | mind: computational theory of | multiple realizability | neuroscience, philosophy of | other minds | thought experiments | Turing, Alan | Turing test | zombies

Copyright © 2020 by David Cole <dcole@d.umn.edu>

最后更新于

Logo

道长哲学研讨会 2024