心灵计算理论 computational theory of (Michael Rescorla)

首次发表于 2015 年 10 月 16 日,实质性修订于 2020 年 2 月 21 日。

机器能思考吗?心灵本身能成为一台思考的机器吗?计算机革命改变了对这些问题的讨论,为模拟推理、决策、问题解决、感知、语言理解和其他心理过程提供了迄今为止最好的机会。计算机技术的进步使得心灵本身成为一个计算系统的可能性增加了,这一立场被称为计算理论心灵(CTM)。计算论者是指那些至少在某些重要心理过程上支持 CTM 的研究者。在 20 世纪 60 年代和 70 年代,CTM 在认知科学中起着核心作用。多年来,它一直享有正统地位。最近,它受到了各种竞争范式的压力。计算论者面临的一个关键任务是解释当人们说心灵“计算”时是什么意思。第二个任务是论证心灵在相关意义上“计算”。第三个任务是阐明计算描述与其他常见描述类型的关系,特别是神经生理学描述(引用有关生物体大脑或身体的神经生理学属性)和意向描述(引用心理状态的表征属性)。


1. 图灵机

计算和算法的直观概念对数学至关重要。粗略地说,算法是一种明确的、逐步的过程,用于回答某个问题或解决某个问题。算法提供了例行的机械指令,指导每一步的操作。遵循这些指令不需要特殊的机智或创造力。例如,熟悉的小学算法描述了如何进行加法、乘法和除法运算。直到 20 世纪初,数学家们仍然依赖非正式的计算和算法概念,而没有尝试进行类似的形式分析。数学基础的发展最终促使逻辑学家进行更系统的处理。艾伦·图灵的里程碑式论文《论可计算数及其在判定问题上的应用》(Turing 1936)提供了最有影响力的分析。

图灵机是一种理想化的计算设备的抽象模型,它具有无限的时间和存储空间。该设备操作符号,就像人类计算代理在算术计算过程中操作纸上的铅笔标记一样。图灵对符号的性质几乎没有提及。他假设原始符号来自有限的字母表。他还假设符号可以被刻写或擦除在“内存位置”上。图灵的模型工作如下:

  • 有无限多个内存位置,排列成线性结构。比喻地说,这些内存位置是无限长的“纸带”上的“单元格”。更确切地说,内存位置可以在各种媒介(例如硅芯片)中实现。

  • 有一个中央处理器,每次只能访问一个内存位置。比喻地说,中央处理器是一个“扫描器”,一次移动一个“单元格”沿着纸带移动。

  • 中央处理器可以进入有限多个机器状态。

  • 中央处理器可以执行四个基本操作:在内存位置写入符号;从内存位置擦除符号;访问线性数组中的下一个内存位置(“向右移动磁带”);访问线性数组中的上一个内存位置(“向左移动磁带”)。

  • 中央处理器执行的基本操作完全取决于两个事实:当前内存位置上的符号是什么;扫描器自身的当前机器状态。

  • 机器表根据其当前的机器状态和当前访问的符号来决定中央处理器执行哪个基本操作。机器表还根据相同的因素来决定中央处理器的机器状态如何变化。因此,机器表确立了一组有限的例行机械指令来管理计算。

图灵将这个非正式描述转化为严格的数学模型。更多细节请参见图灵机的条目。

图灵通过反思理想化的人类计算代理来推动他的方法。他引用我们感知和认知装置的有限性,他认为任何由人类执行的符号算法都可以由适当的图灵机复制。他得出结论,尽管图灵机形式主义非常简单,但足以捕捉所有人类可执行的符号配置的机械程序。随后的讨论者几乎一致同意。

图灵计算通常被描述为数字而不是模拟。这意味着什么并不总是那么清楚,但基本思想通常是计算在离散配置上运作。相比之下,许多历史上重要的算法在连续可变的配置上运作。例如,欧几里得几何学赋予尺规作图以重要角色,它操纵几何形状。对于任何形状,都可以找到另一个与之在任意小的程度上不同的形状。图灵机操纵的符号配置不会在任意小的程度上不同。图灵机在有限字母表中绘制的离散元素(数字)的字符串上运作。一个经常争议的问题是数字范式是否适合模拟心灵活动,或者模拟心灵活动是否更适合采用模拟范式(MacLennan 2012; Piccinini and Bahar 2013)。

除了引入图灵机,图灵(1936)还证明了涉及图灵机的几个重要数学结果。特别地,他证明了通用图灵机(UTM)的存在。粗略地说,UTM 是一台可以模仿任何其他图灵机的图灵机。人们向 UTM 提供一个符号输入,该输入对图灵机 M 的机器表进行编码。UTM 复制 M 的行为,执行 M 的机器表所规定的指令。从这个意义上说,UTM 是一台可编程的通用计算机。初步估计,所有个人计算机也都是通用计算机:当适当编程时,它们可以模仿任何图灵机。主要的限制是物理计算机具有有限的内存,而图灵机具有无限的内存。更准确地说,个人计算机可以模仿任何图灵机,直到耗尽其有限的内存供应为止。

图灵的讨论有助于奠定计算机科学的基础,计算机科学旨在设计、构建和理解计算系统。众所周知,计算机科学家现在可以构建非常复杂的计算机。所有这些计算机都实现了类似于图灵计算的东西,尽管细节与图灵的简化模型有所不同。

2. 人工智能

计算机科学的快速进展促使许多人,包括图灵在内,思考我们是否能够构建一台能够思考的计算机。人工智能(AI)旨在构建“思考的机器”。更准确地说,它旨在构建能够执行核心心理任务(如推理、决策、问题解决等)的计算机。在 20 世纪 50 年代和 60 年代,这个目标变得越来越现实(Haugeland 1985)。

早期的人工智能研究强调逻辑。研究人员试图“机械化”演绎推理。一个著名的例子是逻辑理论家计算机程序(Newell 和 Simon 1956),它证明了《数学原理》(Whitehead 和 Russell 1925)的前 52 个定理中的 38 个。在某种情况下,它发现了比《数学原理》更简单的证明。

这种早期的成功在学术界内外引起了巨大的兴趣。许多研究人员预测智能机器只有几年的时间。显然,这些预测并没有实现。智能机器人还没有在我们中间行走。即使是相对低级的心理过程,如感知,也远远超过了当前计算机程序的能力。当对思考机器的自信预测过于乐观时,许多观察者失去了兴趣,或者得出结论认为人工智能是一项愚蠢的任务。然而,几十年来取得了渐进的进展。一个引人注目的成功是 IBM 的深蓝(Deep Blue),它在 1997 年击败了国际象棋冠军加里·卡斯帕罗夫(Gary Kasparov)。另一个重大的成功是无人驾驶汽车斯坦利(Thrun,Montemerlo,Dahlkamp 等,2006),它在莫哈维沙漠完成了 132 英里的路程,赢得了 2005 年国防高级研究计划局(DARPA)大挑战赛。一个不那么引人注目的成功故事是语音识别算法的巨大改进。

早期人工智能研究中困扰着的一个问题是不确定性。几乎所有的推理和决策都在不确定的条件下进行。例如,你可能需要在不确定是否会下雨的情况下决定是否去野餐。贝叶斯决策理论是不确定性推理和决策的标准数学模型。通过概率来编码不确定性。精确的规则规定了如何根据新证据更新概率以及如何根据概率和效用选择行动。(详见贝叶斯定理和规范理性选择理论的条目以获取详细信息。)在 20 世纪 80 年代和 90 年代,技术和概念的发展使得能够在现实场景中实现或近似贝叶斯推理的高效计算机程序成为可能。贝叶斯人工智能的爆发随之而来(Thrun、Burgard 和 Fox 2006),包括前述的语音识别和无人驾驶车辆的进展。处理不确定性的可行算法是当代人工智能的重大成就(Murphy 2012),也可能是更令人印象深刻的未来进展的先兆。

一些哲学家坚持认为,无论计算机变得多么复杂,最多只能模拟而不是复制思维。计算机模拟天气并不真的下雨。计算机模拟飞行并不真的飞行。即使计算系统能够模拟心理活动,为什么要怀疑它会构成真正的事物呢?

图灵(1950 年)预见到了这些担忧并试图化解它们。他提出了一个场景,现在被称为图灵测试,其中一个评估一个看不见的对话者是计算机还是人类。如果无法确定一个计算机是计算机,那么计算机通过了图灵测试。图灵建议我们放弃“计算机能思考吗?”这个毫无希望的模糊问题,取而代之的是“计算机能通过图灵测试吗?”的问题。图灵的讨论引起了相当大的关注,在人工智能领域尤其有影响力。Ned Block(1981 年)提出了一个有影响力的批评。他认为,某些可能的机器虽然无法接近真正的思考或智能,但却通过了图灵测试。有关 Block 的反对意见和图灵测试周围其他问题的讨论,请参见图灵测试的条目。

有关人工智能的更多信息,请参见逻辑和人工智能的条目。有关更详细的信息,请参见 Russell 和 Norvig(2010 年)。

3. 心灵的经典计算理论

沃伦·麦卡洛奇(Warren McCulloch)和沃尔特·皮茨(Walter Pitts)(1943 年)首次提出,类似于图灵机的东西可能为心灵提供一个良好的模型。在 20 世纪 60 年代,图灵计算成为新兴的跨学科认知科学的核心,该学科通过借鉴心理学、计算机科学(尤其是人工智能)、语言学、哲学、经济学(尤其是博弈论和行为经济学)、人类学和神经科学来研究心灵。经典计算理论(我们将其缩写为 CCTM)这个标签现在已经相当标准。根据 CCTM,心灵是一个与图灵机在重要方面相似的计算系统,核心心理过程(例如推理、决策和问题解决)是与图灵机执行的计算在重要方面相似的计算。这些表述不够精确。CCTM 最好被看作是一系列观点,而不是一个单一明确定义的观点。[1]

将 CCTM 描述为体现“计算机隐喻”是很常见的。这种描述是具有误导性的。

首先,更好地描述 CCTM 是将心灵描述为“计算系统”而不是“计算机”。正如大卫·查尔默斯(David Chalmers)(2011 年)所指出的,将一个系统描述为“计算机”强烈暗示该系统是可编程的。正如查尔默斯还指出的,仅仅因为将心灵视为图灵式计算系统,并不意味着必须声称心灵是可编程的。(大多数图灵机并不可编程。)因此,“计算机隐喻”这个短语强烈暗示了对 CCTM 并非必要的理论承诺。这里的重点不仅仅是术语问题。CCTM 的批评者经常反对心灵不是一个可编程的通用计算机(Churchland、Koch 和 Sejnowski 1990)。由于经典计算论者不需要声称(通常也不声称)心灵是一个可编程的通用计算机,这个反对是错误的。

其次,CCTM 并非以隐喻的方式来理解。CCTM 并不仅仅认为心灵就像一个计算系统。CCTM 认为心灵本质上就是一个计算系统。当然,最熟悉的人工计算系统是由硅芯片或类似材料制成的,而人体是由肉体组成的。但是 CCTM 认为这种差异掩盖了更基本的相似之处,我们可以通过图灵式的计算模型来捕捉这种相似之处。在提供这样的模型时,我们忽略了物理细节。我们得到了一个抽象的计算描述,可以通过不同的方式进行物理实现(例如,通过硅芯片、神经元或滑轮和杠杆)。CCTM 认为一个合适的抽象计算模型提供了对核心心理过程的真实描述。

通常用口号“心灵是图灵机”来概括 CCTM 是很常见的。然而,这个口号有些误导,因为没有人认为图灵的精确形式化是心理活动的可信模型。这个形式化在几个方面似乎过于限制:

  • 图灵机执行纯符号计算。输入和输出是刻在内存位置上的符号。相比之下,心灵接收感官输入(例如视网膜的刺激)并产生运动输出(例如肌肉的激活)。一个完整的理论必须描述心理计算如何与感官输入和运动输出进行接口。

  • 图灵机具有无限离散的存储容量。普通生物系统具有有限的存储容量。一个合理的心理模型必须用一个大但有限的存储器替代无限存储器

  • 现代计算机具有随机访问存储器:中央处理器可以直接访问的可寻址存储位置。图灵机的存储器是不可寻址的。中央处理器只能通过顺序访问中间位置来访问一个位置。没有可寻址存储器的计算是无望地低效的。因此,C.R. Gallistel 和 Adam King(2009)认为,可寻址存储器比不可寻址存储器更好地模拟了心灵。

  • 图灵机具有一个按顺序操作的中央处理器,一次执行一条指令。其他计算形式放宽了这个假设,允许多个并行操作的处理单元。经典计算论者可以允许并行计算(Fodor 和 Pylyshyn 1988; Gallistel 和 King 2009: 174)。参见 Gandy(1980)和 Sieg(2009)的一般数学处理,涵盖了串行和并行计算。

  • 图灵计算是确定性的:总的计算状态决定了后续的计算状态。人们可能会允许随机计算。在随机模型中,当前状态并不决定唯一的下一个状态。相反,机器从一个状态转换到另一个状态的概率是一定的。

计算机认知模型(CCTM)声称心理活动是“图灵式计算”,允许这些和其他与图灵自己的形式主义不同的特点。

3.1 机器功能主义

希拉里·普特南(1967 年)将 CCTM 引入哲学。他将自己的立场与逻辑行为主义和类型同一论对比。每个立场都试图揭示心灵状态的本质,包括命题态度(例如,信念),感觉(例如,疼痛)和情绪(例如,恐惧)。根据逻辑行为主义,心灵状态是行为倾向。根据类型同一论,心灵状态是脑状态。普特南提出了一种相反的功能主义观点,即心灵状态是功能状态。根据功能主义,当系统具有适当的功能组织时,系统具有心灵。心灵状态是在系统的功能组织中扮演适当角色的状态。每个心灵状态通过与感官输入、运动输出和其他心灵状态的相互作用来个体化。

功能主义相对于逻辑行为主义和类型同一论具有显着优势:

  • 行为主义者希望将每个心灵状态与特定的行为模式关联起来,这是一项无望的任务,因为个体心灵状态通常没有特定的行为效果。行为几乎总是由不同的心灵状态共同作用产生的(例如,信念和欲望)。功能主义通过将心灵状态与感官输入、行为以及彼此之间的特定关系个体化来避免这种困难。

  • 类型一致性理论家希望将每个心灵状态与特定的物理或神经生理状态相关联。普特南通过论证心灵状态是多重实现的来对这个项目提出了质疑:相同的心灵状态可以由不同的物理系统实现,包括地球上的生物和假设中的生物(例如,基于硅的火星人)。功能主义是为适应多重实现而量身定制的。根据功能主义,对于心灵来说重要的是一种组织模式,这种模式可以以许多不同的方式在物理上实现。有关这个论证的进一步讨论,请参见多重实现的条目。

普特南捍卫了一种现在被称为机器功能主义的功能主义品牌。他强调概率自动机,这些自动机类似于图灵机,只是计算状态之间的转换是随机的。他提出心灵活动实现了一个概率自动机,并且特定的心灵状态是自动机中央处理器的机器状态。机器表格指定了适当的功能组织,并且还指定了个体心灵状态在该功能组织中所扮演的角色。这样,普特南将功能主义与计算机理论的心灵结合起来。

机器功能主义面临着几个问题。其中一个问题,由 Ned Block 和 Jerry Fodor(1972)强调,涉及思维的生产力。一个正常的人可以思考无限多的命题。机器功能主义将心理状态与概率自动机的机器状态相对应。由于机器状态只有有限多个,所以没有足够的机器状态与正常人的可能心理状态一一对应。当然,一个实际的人只会思考有限多个命题。然而,Block 和 Fodor 认为,这种限制反映了寿命和记忆的限制,而不是(比如说)限制人类可思考命题类别的心理定律。概率自动机具有无限的时间和记忆容量,但仍然只有有限多个机器状态。因此,机器功能主义错误地将有限性限制在人类认知上。

机器功能主义面临的另一个问题,也是由 Block 和 Fodor(1972)强调的,涉及思维的系统性。能够思考一个命题的能力与能够思考其他命题的能力相关。例如,能够思考约翰爱玛丽的人也能够思考玛丽爱约翰的命题。因此,心理状态之间似乎存在系统性关系。一个好的理论应该反映这些系统性关系。然而,机器功能主义将心理状态与无结构的机器状态相对应,缺乏必要的系统性关系。因此,机器功能主义无法解释系统性。对于这个反对意见,机器功能主义者可能会否认他们有义务解释系统性。然而,这个反对意见表明机器功能主义忽视了人类心智的基本特征。一个更好的理论应该以有原则的方式解释这些特征。

虽然对机器功能主义的生产力和系统性的反对可能并不决定性,但它们为追求改进的计算理论提供了强大的动力。有关机器功能主义和功能主义面临的其他问题,请参阅 Block(1978)。

3.2 心灵的表征理论

Fodor(1975,1981,1987,1990,1994,2008)提倡一种更令人满意地适应系统性和生产力的计算理论版本。他将注意力转向图灵式计算过程中操作的符号。

一个古老的观点,至少可以追溯到奥卡姆的《逻辑总纲》(Summa Logicae),认为思维发生在一种思维语言中(有时被称为心灵语言)。福多尔重新提出了这个观点。他假设了一种心理表征系统,包括原始表征和由原始表征形成的复杂表征。例如,原始的心灵语言词汇 JOHN、MARY 和 LOVES 可以组合成心灵语言句子 JOHN LOVES MARY。心灵语言是组合性的:复杂心灵语言表达式的意义是其部分的意义和这些部分组合方式的函数。命题态度是与心灵语言符号的关系。福多尔将这个观点称为心灵表征理论(RTM)。将 RTM 与 CCTM 结合起来,他认为心理活动涉及对思维语言进行图灵式计算。心理计算将心灵语言符号存储在内存位置中,并根据机械规则对这些符号进行操作。

RTM 的一个主要优点是它如何容易地适应生产力和系统性:

生产力:RTM 假设了一组有限的原始心灵语言表达式,可以组合成潜在无限的复杂心灵语言表达式。一个具有原始心灵语言词汇和心灵语言复合设备的思考者有潜力接受无限多的心灵语言表达式。因此,她有潜力实例化无限多的命题态度(忽略时间和记忆的限制)。

系统性:根据 RTM,思想家可以拥有的命题态度之间存在系统性关系。例如,假设我可以思考约翰爱玛丽。根据 RTM,我这样做涉及到我与一个由 Mentalese 词汇约翰、爱和玛丽以正确方式组合而成的 Mentalese 句子 JOHN LOVES MARY 之间的某种关系 R。如果我具备这种能力,那么我也具备与不同的 Mentalese 句子 MARY LOVES JOHN 之间的关系 R,从而思考玛丽爱约翰。因此,思考约翰爱玛丽的能力与思考玛丽爱约翰的能力存在系统性关系。

通过将命题态度视为与复杂的心理符号之间的关系,RTM 解释了生产力和系统性。

CCTM+RTM 在几个方面与机器功能主义不同。首先,机器功能主义是关于一般心理状态的理论,而 RTM 只是关于命题态度的理论。其次,CCTM+RTM 的支持者不必说命题态度是功能性个体化的。正如 Fodor(2000: 105,脚注 4)所指出的,我们必须区分计算主义(心理过程是计算的)和功能主义(心理状态是功能状态)。机器功能主义支持这两个原则。CCTM+RTM 只支持第一个原则。不幸的是,许多哲学家仍然错误地认为计算主义意味着对命题态度采取功能主义方法(有关讨论,请参见 Piccinini 2004)。

对于 RTM 的哲学讨论往往主要集中在高级人类思维,尤其是信念和欲望。然而,CCTM+RTM 适用于更广泛的心理状态和过程。许多认知科学家将其应用于非人类动物。例如,Gallistel 和 King(2009)将其应用于某些无脊椎动物现象(例如,蜜蜂导航)。即使限制在人类范围内,人们也可以将 CCTM+RTM 应用于个人之下的处理。Fodor(1983)认为,知觉涉及一个将视网膜输入转换为心理语言符号,然后对这些符号进行计算的个人之下的“模块”。因此,谈论思维语言可能是误导性的,因为它暗示了对高级心理活动的不存在的限制。

描述心理语言为一种语言也可能是误导性的,这暗示了所有心理语言符号都类似于自然语言中的表达。包括 Fodor 在内的许多哲学家有时似乎支持这个观点。然而,心理语言符号可能有非命题的格式。CCTM+RTM 的支持者可以采取一种多元化的观点,允许心理计算在类似图像、地图、图表或其他非命题表示(Johnson-Laird 2004: 187; McDermott 2001: 69; Pinker 2005: 7; Sloman 1978: 144–176)上进行操作。多元化的观点似乎尤其适用于个人之下的过程(如知觉)和非人类动物。Michael Rescorla(2009a,b)对认知地图的研究进行了调查(Tolman 1948; O’Keefe and Nadel 1978; Gallistel 1990),表明一些动物可能通过计算更类似于地图而不是句子的心理表征来导航。Elisabeth Camp(2009)引用对狒狒社会互动的研究(Cheney and Seyfarth 2007),认为狒狒可能通过非句子的树状表示来编码社会优势关系。

CCTM+RTM 是一种概要性的理论。要填写这个概要,必须提供具体心理过程的详细计算模型。一个完整的模型将会:

  • 描述被该过程操作的心理符号;

  • 隔离操作这些符号的基本操作(例如,在内存位置上刻写一个符号);并且

  • 描述规定基本操作应用的机械规则。

通过提供详细的计算模型,我们将复杂的心理过程分解为一系列由精确、常规指令控制的基本操作。

计算理论与心灵机制论之间的传统争论中保持中立。图灵式模型在非常抽象的层面上进行,不论心理计算是由物质实现还是由笛卡尔的灵魂物质实现(Block 1983: 522)。实际上,所有计算理论与心灵机制论的支持者都持有广义物理主义的观点。他们认为心理计算不是由灵魂物质实现,而是由大脑实现。在这种观点下,心理语言符号由神经状态实现,对心理语言符号的计算操作由神经过程实现。最终,计算理论与心灵机制论的物理主义支持者必须提出经验上得到充分证实的理论,解释神经活动如何准确地实现图灵式计算。正如 Gallistel 和 King(2009)强调的那样,我们目前还没有这样的理论,尽管 Zylberberg、Dehaene、Roelfsema 和 Sigman(2011)提出了一些猜测。

Fodor(1975)将 CCTM+RTM 作为认知科学的基础。他讨论了决策、感知和语言处理等心理现象。在每种情况下,他坚持认为,我们最好的科学理论假设心理表征上的图灵式计算。实际上,他认为我们唯一可行的理论都具有这种形式。他得出结论,CCTM+RTM 是“唯一的游戏”。许多认知科学家也以类似的观点进行论证。C.R. Gallistel 和 Adam King(2009),Philip Johnson-Laird(1988),Allen Newell 和 Herbert Simon(1976)以及 Zenon Pylyshyn(1984)都推荐将图灵式计算作为关于心灵的科学理论化的最佳基础。

4. 神经网络

在 20 世纪 80 年代,连接主义作为经典计算主义的一个重要对手出现。连接主义者从神经生理学而非逻辑和计算机科学中汲取灵感。他们使用计算模型,即神经网络,与图灵式模型有很大的不同。神经网络是一组相互连接的节点。节点分为三类:输入节点、输出节点和隐藏节点(用于在输入和输出节点之间进行中介)。节点具有由实数给出的激活值。一个节点可以与另一个节点之间有一个加权连接,该连接也由实数给出。输入节点的激活是外生确定的:这些是计算的输入。隐藏节点或输出节点的总输入激活是输入到它的节点的激活的加权和。隐藏节点或输出节点的激活是其总输入激活的函数;具体的函数因网络而异。在神经网络计算过程中,激活的波动从输入节点传播到输出节点,由节点之间的加权连接决定。

在前馈网络中,加权连接只在一个方向上流动。循环网络具有反馈回路,其中从隐藏单元发出的连接返回到隐藏单元。循环网络比前馈网络在数学上更难处理。然而,它们在心理建模中起着至关重要的作用,例如涉及某种记忆的现象(Elman 1990)。

神经网络中的权重通常是可变的,根据学习算法逐渐演变。文献提供了各种学习算法,但基本思想通常是调整权重,使实际输出逐渐接近预期的目标输出。反向传播算法是一种广泛使用的这种算法(Rumelhart,Hinton 和 Williams 1986)。

连接主义可以追溯到 McCulloch 和 Pitts(1943),他们研究了互连逻辑门(例如 AND 门和 OR 门)的网络。人们可以将逻辑门网络视为神经网络,其激活限制在两个值(0 和 1),激活函数由常规真值函数给出。McCulloch 和 Pitts 将逻辑门推进为个体神经元的理想化模型。他们的讨论对计算机科学产生了深远影响(von Neumann 1945)。现代数字计算机只是逻辑门网络。然而,在认知科学中,研究人员通常关注的是元素比逻辑门更“类似神经元”的网络。特别是,现代连接主义者通常强调模拟神经网络,其节点采用连续而不是离散的激活值。一些作者甚至使用“神经网络”一词来专指这种网络。

在 20 世纪 60 年代和 70 年代,神经网络在认知科学家中受到相对较少的关注,当时图灵式模型占主导地位。20 世纪 80 年代,神经网络,尤其是模拟神经网络,经历了一次巨大的复兴,其中两卷本的《并行分布处理》(Rumelhart,McClelland 和 PDP 研究小组,1986 年; McClelland,Rumelhart 和 PDP 研究小组,1987 年)作为宣言。研究人员构建了各种现象的连接主义模型:物体识别,语音知觉,句子理解,认知发展等等。许多研究人员对连接主义印象深刻,得出结论 CCTM + RTM 不再是“唯一的游戏”。

在 2010 年代,一类被称为深度神经网络的计算模型变得非常流行(Krizhevsky,Sutskever 和 Hinton 2012; LeCun,Bengio 和 Hinton 2015)。这些模型是具有多层隐藏节点的神经网络(有时有数百个这样的层)。通过一种或另一种学习算法(通常是反向传播)在大型数据集上训练的深度神经网络在人工智能的许多领域取得了巨大成功,包括物体识别和战略游戏。深度神经网络现在广泛应用于商业应用,并且它们是学术界和工业界广泛进行的深入研究的焦点。研究人员还开始使用它们来建模心灵(例如 Marblestone,Wayne 和 Kording 2016; Kriegeskorte 2015)。

有关神经网络的详细概述,请参阅 Haykin(2008)。有关用户友好的介绍,重点是心理学应用,请参阅 Marcus(2001)。有关深度神经网络的面向哲学的介绍,请参阅 Buckner(2019)。

4.1 神经网络与经典计算之间的关系

神经网络与经典(即图灵式)模型有着非常不同的“感觉”。然而,经典计算和神经网络计算并不是互斥的:

  • 一个人可以在经典模型中实现神经网络。事实上,每一个实际构建的神经网络都是在数字计算机上实现的。

  • 人们可以在神经网络中实现经典模型。现代数字计算机在逻辑门网络中实现图灵式计算。或者,人们可以使用连续激活值的模拟循环神经网络来实现图灵式计算(Graves,Wayne 和 Danihelka 2014,其他互联网资源; Siegelmann 和 Sontag 1991; Siegelmann 和 Sontag 1995)。

尽管一些研究人员认为经典计算和神经网络计算之间存在根本对立,但更准确的是将它们视为在某些情况下重叠而在其他情况下不重叠的两种建模传统(参见 Boden 1991; Piccinini 2008b)。在这方面,值得注意的是,经典计算主义和连接主义计算主义在 McCulloch 和 Pitts 的工作中有共同的起源。

哲学家们经常说经典计算涉及“规则驱动的符号操作”,而神经网络计算是非符号的。直观的观点是神经网络中的“信息”在权重和激活中全局分布,而不是集中在局部符号中。然而,“符号”本身的概念需要解释,因此通常不清楚理论家们通过描述计算为符号性还是非符号性时指的是什么。正如在第 1 节中提到的,图灵形式主义对“符号”几乎没有任何限制。关于原始符号,图灵只假设它们有限且可以被刻在读/写内存位置中。神经网络也可以操作满足这两个条件的符号:正如刚才提到的,人们可以在神经网络中实现图灵式模型。

许多关于符号/非符号二分法的讨论采用了更强大的“符号”概念。在更强大的方法中,符号是代表主题的东西。因此,只有具有语义或表征属性的东西才是符号。如果我们采用这种更强大的符号概念,那么符号/非符号的区别横跨了图灵式计算和神经网络计算之间的区别。图灵机不需要以更强大的意义使用符号。就图灵形式主义而言,在图灵计算过程中操作的符号不需要具有表征属性(Chalmers 2011)。相反,神经网络可以操作具有表征属性的符号。事实上,模拟神经网络可以操作具有组合语法和语义的符号(Horgan 和 Tienson 1996;Marcus 2001)。

在史蒂文·平克和艾伦·普林斯(1988)的观点下,我们可以区分淘汰性连接主义和实施主义连接主义。

淘汰性连接主义者将连接主义视为古典计算主义的竞争对手。他们认为图灵形式主义对心理解释无关紧要。尽管并非总是如此,他们通常试图恢复心理学中的联想主义传统,这是 CCTM 曾经有力挑战的传统。尽管并非总是如此,他们攻击了诺姆·乔姆斯基(1965)开创的心理学家、先驱性的本质主义语言学。尽管并非总是如此,他们对心理表征的概念表现出明显的敌意。但淘汰性连接主义的定义特征是它使用神经网络来替代图灵式模型。淘汰性连接主义者将心灵视为一种与图灵机截然不同的计算系统。一些作者明确支持淘汰性连接主义(Churchland 1989;Rumelhart 和 McClelland 1986;Horgan 和 Tienson 1996),而其他许多人则倾向于这种观点。

实施主义连接主义是一个更加普遍的立场。它允许图灵式模型和神经网络在不同层次的描述中和谐地运作,从而发挥潜在的有价值的作用(Marcus 2001; Smolensky 1988)。图灵式模型是高层次的,而神经网络模型是低层次的。神经网络阐明了大脑如何实现图灵式模型,就像用逻辑门的描述阐明了个人计算机如何在高级编程语言中执行程序一样。

4.2 连接主义的论证

连接主义激发了许多研究人员的兴趣,因为神经网络和大脑之间存在类比。节点类似于神经元,而节点之间的连接类似于突触。因此,连接主义建模似乎比经典建模更具有“生物学上的可行性”。心理现象的连接主义模型显然以理想化的方式捕捉了相互连接的神经元如何产生这一现象。

在评估生物可信度的论证时,人们应该认识到神经网络在与实际脑活动的匹配程度上存在很大差异。许多在连接主义著作中占据重要地位的网络并不具备生物可信性(Bechtel 和 Abrahamsen 2002: 341–343; Bermúdez 2010: 237–239; Clark 2014: 87–89; Harnish 2002: 359–362)。以下是几个例子:

  • 真实的神经元比典型的连接主义网络中的可互换节点更加异质。

  • 真实的神经元以离散的脉冲(动作电位)作为输出。但是许多知名神经网络(包括最著名的深度神经网络)中的节点却具有连续的输出。

  • 反向传播算法要求节点之间的权重可以在兴奋和抑制之间变化,但实际的突触不能这样变化(Crick 和 Asanuma 1986)。此外,该算法假设目标输出由模型师提供,他们知道所需的答案。从这个意义上说,学习是受监督的。实际生物系统中很少有类似于受监督训练的学习。

另一方面,一些神经网络更具生物学的现实性(Buckner 和 Garson 2019; Illing,Gerstner 和 Brea 2019)。例如,有些神经网络用更现实的学习算法替代了反向传播算法,例如强化学习算法(Pozzi,Bohté 和 Roelfsema 2019,其他互联网资源)或无监督学习算法(Krotov 和 Hopfield 2019)。还有一些神经网络的节点输出离散的脉冲,与大脑中真实神经元发出的脉冲大致相似(Maass 1996; Buesing,Bill,Nessler 和 Maass 2011)。

即使神经网络不具备生物学的可行性,它仍然可能比经典模型更具生物学的可行性。神经网络在细节和精神上似乎更接近神经生理学的描述,比起图灵式模型更接近。许多认知科学家担心 CCTM 反映了一种试图将数字计算机的架构强加于大脑的错误尝试。有人怀疑大脑是否实现了类似于数字配置的离散计算,即对数字离散配置的计算(Piccinini 和 Bahar 2013)。还有人怀疑大脑是否显示出清晰的图灵式中央处理器和读/写内存之间的分离(Dayan 2009)。神经网络在这两个方面表现更好:它们不需要对数字离散配置进行计算,并且它们不假设中央处理器和读/写内存之间有清晰的分离。

经典计算论者通常回应说,基于生物可信性得出坚定结论还为时过早,因为我们对神经、计算和认知层面之间的关系了解甚少(Gallistel 和 King 2009; Marcus 2001)。通过细胞记录和功能性磁共振成像(fMRI)等测量技术,并借鉴物理学、生物学、人工智能、信息论、统计学、图论和动力系统理论等学科,神经科学家已经积累了关于大脑在不同粒度层面上的大量知识(Zednik 2019)。我们现在对个体神经元、神经群体内神经元之间的相互作用、大脑皮层区域(如视觉皮层)中的心理活动定位以及皮层区域之间的相互作用有了相当多的了解。然而,关于神经组织如何完成肯定会完成的任务:感知、推理、决策、语言习得等,我们仍然有很多需要学习的地方。鉴于我们目前相对无知的状态,坚持认为大脑不实现任何类似图灵计算的观点是轻率的。

连接主义者提出了许多进一步的论证,认为我们应该使用连接主义模型,而不是或者除了经典模型。有关概述,请参阅连接主义条目。对于本条目,我们提到两个额外的论证。

第一个论点强调学习(Bechtel 和 Abrahamsen 2002: 51)。广泛的认知现象涉及从经验中学习。许多连接主义模型明确设计用于模拟学习,通过反向传播或其他修改节点之间权重的算法。相比之下,连接主义者经常抱怨没有好的经典学习模型。经典计算论者可以通过引用连接主义学习算法的缺陷(例如,反向传播对监督训练的严重依赖)来回应。经典计算论者还可以引用贝叶斯决策理论,将学习建模为概率更新。更具体地说,经典计算论者可以引用贝叶斯认知科学的成就,利用贝叶斯决策理论构建心理活动的数学模型(Ma 2019)。在过去几十年中,贝叶斯认知科学取得了许多解释性的成功。这个令人印象深刻的成绩单表明,一些心理过程是贝叶斯的或近似贝叶斯的(Rescorla 2020)。此外,第 2 节提到的进展展示了经典计算系统如何在各种现实场景中执行或至少近似执行贝叶斯更新。这些发展为经典计算提供了模拟许多重要学习案例的希望。

第二个论点强调计算速度。神经元比数字计算机的硅基组件慢得多。因此,神经元无法以足够快的速度执行串行计算,以匹配人类在知觉、语言理解、决策等方面的快速表现。连接主义者认为,唯一可行的解决方案是用“大规模并行”的计算架构取代串行计算,这正是神经网络所提供的(Feldman 和 Ballard 1982;Rumelhart 1989)。然而,这个论点只对坚持串行处理的经典计算论者有效。如第 3 节所述,一些图灵式模型涉及并行处理。许多经典计算论者乐于允许“大规模并行”的心理计算,这个论点对这些研究人员没有影响。话虽如此,这个论点突出了一个重要问题,任何计算论者(无论是经典的、连接主义的还是其他类型的)都必须回答:一个由相对缓慢的神经元构建的大脑如何如此快速地执行复杂的计算?无论是经典计算论者还是连接主义计算论者都没有令人满意地回答这个问题(Gallistel 和 King 2009:174 和 265)。

4.3 系统性和生产力

Fodor 和 Pylyshyn(1988)对淘汰主义连接主义提出了广泛讨论的批评。他们认为,在连接主义模型中,系统性和生产力都失败了,除非连接主义模型实现了一个经典模型。因此,连接主义不能提供 CCTM 的可行替代方案。最多,它提供了一个低层次的描述,有助于弥合图灵式计算和神经科学描述之间的差距。

这个论点引发了许多回复和反驳。有人认为神经网络可以展示系统性,而无需实现任何类似经典计算架构的东西(Horgan 和 Tienson 1996; Chalmers 1990; Smolensky 1991; van Gelder 1990)。有人认为 Fodor 和 Pylyshyn 极度夸大了系统性(Johnson 2004)或生产力(Rumelhart 和 McClelland 1986),尤其是对于非人类动物(Dennett 1991)。这些问题以及 Fodor 和 Pylyshyn 的论点引发的许多其他问题在文献中得到了深入研究。有关进一步讨论,请参见 Bechtel 和 Abrahamsen(2002: 156–199),Bermúdez(2005: 244–278),Chalmers(1993),Clark(2014: 84–86),以及关于思维语言假设和连接主义的百科全书条目。

Gallistel 和 King(2009)提出了一个相关但独立的生产力论证。他们强调心理计算的生产力,而不是心理状态的生产力。通过详细的实证案例研究,他们认为许多非人类动物可以提取、存储和检索周围环境的详细记录。例如,西部刷地鸟记录了它在哪里储存食物,每个位置储存了什么类型的食物,何时储存了食物,以及是否已经耗尽了给定的储存(Clayton,Emery 和 Dickinson 2006)。这只鸟可以访问这些记录并在各种计算中利用它们:计算某个储存中的食物是否可能已经腐烂;计算从一个位置到另一个位置的路线等等。这只鸟可以执行的计算数量在实际上是无限的。

计算理论通过假设一个中央处理器,该处理器在可寻址的读/写内存中存储和检索符号,从而解释了心灵计算的生产力。当需要时,中央处理器可以从内存中检索任意的、不可预测的符号组合。相比之下,Gallistel 和 King 认为,连接主义难以适应心灵计算的生产力。尽管 Gallistel 和 King 没有仔细区分消除主义连接主义和实现主义连接主义,但我们可以总结他们的论点如下:

  • 消除主义连接主义无法解释有机体如何将存储的记忆(例如缓存位置)组合起来进行计算目的(例如计算从一个缓存到另一个缓存的路径)。可能有无限多种可能的组合可能是有用的,事先无法预测哪些信息片段必须在未来的计算中组合。唯一可计算的解决方案是在易于访问的读/写内存位置中存储符号-这是消除主义连接主义者拒绝的解决方案。

  • 实现主义连接主义可以假设神经网络实现的读/写内存中的符号存储。然而,连接主义者通常提出的实现记忆的机制是不可信的。现有的提议主要是一个想法的变体:一个允许回响活动在循环中传播的递归神经网络(Elman 1990)。有很多原因说明回响循环模型作为长期记忆理论是无望的。例如,神经系统中的噪声确保信号会在几分钟内迅速退化。迄今为止,实现主义连接主义者还没有提出可信的读/写内存模型。[2]

Gallistel 和 King 得出结论,CCTM 比消除论者或实施论者的连接主义更适合解释广泛的认知现象。

批评者从各个角度攻击这个新的生产力论证,主要关注 Gallistel 和 King 提出的实证案例研究。Peter Dayan(2009 年),John Donahoe(2010 年)和 Christopher Mole(2014 年)认为,符合生物学可行性的神经网络模型可以容纳至少一些案例研究。Dayan 和 Donahoe 认为,实证充分的神经网络模型可以摒弃任何类似于读/写内存的东西。Mole 认为,在某些情况下,实证充分的神经网络模型可以实现 Gallistel 和 King 所假设的读/写内存机制。关于这些基本问题的辩论似乎将继续下去。

4.4 计算神经科学

计算神经科学通过计算模型描述神经系统。虽然这个研究项目基于对个体神经元的数学建模,但计算神经科学的独特关注点是相互连接的神经元系统。计算神经科学通常将这些系统建模为神经网络。从这个意义上说,它是连接主义的一种变体、分支或后裔。然而,大多数计算神经科学家并不自认为是连接主义者。连接主义和计算神经科学之间存在几个区别:

  • 计算神经科学家使用的神经网络比连接主义者使用的神经网络更具生物学的现实性。计算神经科学的文献中充满了关于发放率、动作电位、调谐曲线等的讨论。这些概念在连接主义研究中起到的作用非常有限,比如在《Rogers and McClelland 2014》中涵盖的大部分研究中。

  • 计算神经科学在很大程度上受到对大脑的了解的驱动,并且它赋予神经生理学数据(如细胞记录)极大的重要性。连接主义者对这类数据的重视要少得多。他们的研究主要是基于行为数据驱动的(尽管最近的连接主义著作引用神经生理学数据的频率略有增加)。

  • 计算神经科学家通常将神经网络中的个别节点视为对实际神经元的理想化描述。而连接主义者通常将节点视为类似神经元的处理单元(Rogers 和 McClelland 2014),同时对这些单元如何准确映射到实际神经生理实体保持中立。

可以说计算神经科学主要关注神经计算(由神经元系统进行的计算),而连接主义主要关注受神经计算启发的抽象计算模型。但连接主义和计算神经科学之间的界限确实有些模糊。有关计算神经科学的概述,请参阅 Trappenberg(2010)或 Miller(2018)。

对神经科学的严肃哲学参与至少可以追溯到 Patricia Churchland 的《神经哲学》(1986)。随着计算神经科学的发展,Churchland 成为其主要的哲学拥护者之一(Churchland,Koch 和 Sejnowski 1990;Churchland 和 Sejnowski 1992)。Paul Churchland(1995,2007)和其他人(Eliasmith 2013;Eliasmith 和 Anderson 2003;Piccinini 和 Bahar 2013;Piccinini 和 Shagrir 2014)也加入了他们的行列。所有这些作者都认为,关于心理计算的理论化应该从大脑开始,而不是从图灵机或其他不适当的逻辑和计算机科学工具开始。他们还认为,神经网络建模应该追求比连接主义模型通常达到的更高生物学的现实性。Chris Eliasmith(2013)通过神经工程框架发展了这种神经计算观点,该框架补充了计算神经科学与控制理论(Brogan 1990)的工具。他的目标是“逆向工程”大脑,构建大规模、生物可行的神经网络模型来解释认知现象。

计算神经科学在一个关键的方面与计算机与心灵理论(CCTM)和连接主义不同:它放弃了多重实现性。计算神经科学家引用特定的神经生理特性和过程,因此他们的模型不同程度地适用于(比如说)一个足够不同的基于硅的生物。因此,计算神经科学牺牲了最初吸引哲学家们对计算理论的一个关键特征。计算神经科学家会回应说,这种牺牲是值得的,因为它带来了对神经生理基础的深入洞察。但是许多计算论者担心,过于关注神经基础会使我们失去对认知森林的视野,只看到了神经元树。神经生理学的细节很重要,但是我们是否还需要一个额外的抽象层次的计算描述,超越这些细节呢?Gallistel 和 King(2009)认为,对我们目前对大脑的了解过于狭隘的固定观念导致计算神经科学忽视了核心的认知现象,如导航、空间和时间学习等。同样,Edelman(2014)抱怨神经工程框架用大量的神经生理学细节替代了令人满意的心理解释。

部分是为了回应这些担忧,一些研究人员提出了一种将心理理论与神经实现机制相连接的综合认知计算神经科学(Naselaris 等人,2018 年;Kriegeskorte 和 Douglas,2018 年)。基本思想是使用神经网络模型来阐明心理过程如何在大脑中实现,从而将多重可实现的认知描述基于神经生理学。一个很好的例子是最近关于贝叶斯推理的神经实现工作(例如,Pouget 等人,2013 年;Orhan 和 Ma,2017 年;Aitchison 和 Lengyel,2016 年)。研究人员阐述了各种心理过程的(多重可实现的)贝叶斯模型;他们构建了生物学上可行的神经网络,执行或近似执行所假设的贝叶斯计算;并评估这些神经网络模型与神经生理学数据的拟合程度。

尽管连接主义和计算神经科学之间存在差异,但这两个运动引发了许多类似的问题。特别是,第 4.4 节中关于系统性和生产力的辩证法以类似的形式出现。

5. 计算和表示

哲学家和认知科学家以各种方式使用“表征”一词。在哲学中,最主要的用法将表征与意向性联系起来,即心理状态的“关于性”。当代哲学家通常通过引用表征内容来阐明意向性。表征心理状态具有代表世界某种方式的内容,因此我们可以询问世界是否确实如此。因此,具有表征内容的心理状态在语义上可以评估其真实性、准确性、实现等属性。举个例子:

  • 信念是可以是真或假的东西。如果埃马纽埃尔·马克龙是法国人,那么我相信他是法国人是真的,如果他不是法国人,则是假的。

  • 感知状态是可以准确或不准确的东西。如果我感知到一个红色的球体,只有当我面前确实有一个红色的球体时,我的感知经验才是准确的。

  • 欲望是可以实现或挫败的事物。如果我吃巧克力,我的吃巧克力的欲望就得到了满足,如果我不吃巧克力,就被挫败了。

信念具有真实条件(使其成为真实的条件),感知状态具有准确条件(使其准确的条件),欲望具有实现条件(使其得到满足的条件)。

在日常生活中,我们经常通过引用信念、欲望和其他具有表征性内容的心理状态来预测和解释行为。我们通过它们的表征性属性来识别这些状态。当我们说“弗兰克相信埃马纽埃尔·马克龙是法国人”时,我们指定了弗兰克的信念成立的条件(即埃马纽埃尔·马克龙是法国人)。当我们说“弗兰克想吃巧克力”时,我们指定了弗兰克的欲望得到满足的条件(即弗兰克吃巧克力)。因此,民间心理学赋予了有意识描述的核心角色,即通过它们的表征性属性来识别心理状态的描述。科学心理学是否应该同样使用有意识描述是当代心灵哲学中一个有争议的问题。

有意识的现实主义是关于表征的现实主义。至少,这个立场认为表征属性是心灵的真实方面。通常,它还被认为是科学心理学在适当时应该自由地使用有意识描述的立场。有意识的现实主义是一个流行的立场,由泰勒·伯吉(2010a)、杰里·福多(1987)、克里斯托弗·皮科克(1992 年,1994 年)和其他许多人提倡。有意识的现实主义的一个重要论证引用了认知科学的实践。该论证认为,有意识描述在认知科学的许多核心领域中起着核心作用,如知觉心理学和语言学。例如,知觉心理学描述了感知活动如何将感官输入(例如,视网膜刺激)转化为对远离环境的表征(例如,对远离形状、大小和颜色的感知表征)。科学通过引用表征属性(例如,与特定远离形状、大小、颜色的表征关系)来确定感知状态。在广义科学现实主义的视角下,知觉心理学的解释成就支持对有意识性的现实主义立场。

消除论是关于有意识性的反现实主义的一种强烈形式。消除论者认为有意识描述模糊、依赖于语境、与兴趣相关、解释上肤浅或存在其他问题。他们建议科学心理学放弃表征内容。早期的例子是 W.V.奎因的《词语与物体》(1960 年),该书试图用行为主义的刺激-反应心理学取代有意识心理学。另一位著名的消除论者保罗·丘奇兰(1981 年)希望用神经科学取代有意识心理学。

在有意识的现实主义和消除主义之间存在各种中间立场。丹尼尔·丹尼特(1971 年,1987 年)承认有意识的话语在预测上是有用的,但他质疑心灵状态是否真的具有表征性质。根据丹尼特的观点,使用有意识描述的理论家并不是在字面上断言心灵状态具有表征性质。他们只是采取了“有意识立场”。唐纳德·戴维森(1980 年)持有邻近的解释主义立场。他强调有意识归因在普通解释实践中的核心作用,即我们解释彼此的心灵状态和言语行为的实践。与此同时,他质疑有意识心理学是否能在成熟的科学理论中找到位置。戴维森和丹尼特都坚持有意识心理状态的现实主义。然而,这两位哲学家通常被视为有意识反现实主义者。这种习惯性阅读的一个原因涉及解释的不确定性。假设行为证据允许对思考者的心灵状态进行两种相互冲突的解释。戴维森和丹尼特都像奎恩一样说,那么关于哪种解释是正确的“没有事实”。这种诊断表明了对意向性不完全现实主义的态度。

有关意向性的辩论在计算理论的哲学讨论中占据重要地位。让我们来看一些亮点。

5.1 计算作为形式化

经典计算论者通常假设一种可以称之为形式-句法计算观念(FSC)的观点。直观的想法是,计算是通过符号的形式句法属性而不是语义属性来操作符号。

FSC 源于 19 世纪末 20 世纪初数学逻辑的创新,特别是乔治·布尔和戈特洛布·弗雷格的重要贡献。在他的《概念符号》(1879/1967)中,弗雷格对演绎推理进行了彻底的形式化。为了形式化,我们规定了一个形式语言,其组成的语言表达式是非语义化的(例如,通过它们的几何形状进行个体化)。我们可能有一些预期的解释,但形式语言的元素纯粹是句法实体,我们可以在不涉及语义属性(如指称或真值条件)的情况下讨论它们。特别是,我们可以用形式句法术语规定推理规则。如果我们明智地选择推理规则,那么它们将与我们预期的解释相一致:它们将真实的前提推导到真实的结论。通过形式化,弗雷格为逻辑学注入了前所未有的严谨性。他从而为随后的许多数学和哲学发展奠定了基础。

形式化在计算机科学中起着重要的基础性作用。我们可以编写一个图灵式计算机,它可以操作来自形式语言的语言表达式。如果我们明智地编写计算机程序,那么它的句法操作将与我们预期的语义解释相一致。例如,我们可以编写计算机程序,使其只将真实的前提推导到真实的结论,或者根据贝叶斯决策理论的要求更新概率。

FSC 认为所有计算都是操作形式句法项目,而不考虑这些项目可能具有的语义属性。FSC 的具体表述有所不同。计算被认为对句法敏感而不对语义敏感,或者只能访问句法属性,或者是在句法而不是语义属性的“作用”下进行,或者只有通过句法属性“介导”语义属性时才受到影响。这些表述的含义并不总是很清楚,也不清楚它们是否彼此等价。但直观上来说,句法属性在推动计算向前发展方面具有因果/解释的首要性。

Fodor 在他的文章《认知心理学中作为研究策略的方法论唯我论》(1980)中提出了一个早期的陈述。Fodor 将 FSC 与 CCTM+RTM 相结合。他将 Mentalese 类比于逻辑学家研究的形式语言:它包含非语义个体化的简单和复杂项目,就像典型的形式语言包含通过形状个体化的简单和复杂表达式一样。Mentalese 符号具有语义解释,但这种解释不会(直接)影响心理计算。一个符号的形式属性,而不是其语义属性,决定了计算如何操作该符号。在这个意义上,心灵是一个“句法引擎”。几乎所有经典计算论者都追随 Fodor 支持 FSC。

连接主义者经常否认神经网络操作句法结构化项目。因此,许多连接主义者会犹豫接受 FSC。尽管如此,大多数连接主义者支持广义形式性论:计算对语义属性不敏感。广义形式性论引发了与 FSC 引发的许多相同的哲学问题。我们在这里重点讨论 FSC,因为它接受了最多的哲学讨论。

Fodor 将 CCTM+RTM+FSC 与意向现实主义相结合。他认为 CCTM+RTM+FSC 通过帮助我们将常识意向话语转化为严谨的科学来证明民间心理学的正确性。他用一个著名的 CCTM+RTM+FSC 的诱因性论证来支持自己的立场(1987: 18-20)。引人注目的是,心理活动以一种连贯的方式跟踪语义属性。例如,演绎推理将前提推导到结论,如果前提为真,则结论也为真。我们如何解释心理活动的这个关键方面?形式化表明,语法操作可以跟踪语义属性,计算机科学则展示了如何构建执行所需语法操作的物理机器。如果我们将心灵视为一个语法驱动的机器,那么我们就可以解释为什么心理活动以一种连贯的方式跟踪语义属性。此外,我们的解释并不假设与物理科学中假设的因果机制根本不同。因此,我们回答了一个关键问题:理性如何在机械上成为可能?

Stephen Stich(1983 年)和 Hartry Field(2001 年)将 CCTM+FSC 与消除论相结合。他们建议认知科学以形式语法术语对心灵进行建模,完全避免意向性。他们承认心理状态具有表征属性,但他们问科学心理学通过调用这些属性获得了什么解释价值。为什么要用意向性描述来补充形式语法描述?如果心灵是一个语法驱动的机器,那么表征内容是否在解释上变得无关紧要?

在他的职业生涯中的某个时刻,普特南(1983: 139–154)将 CCTM+FSC 与戴维森式的解释主义相结合。认知科学应该沿着斯蒂奇和菲尔德所建议的方向前进,勾勒出纯粹形式的句法计算模型。形式句法建模与普通的解释实践共存,我们在其中将有意识的内容归因于彼此的心理状态和言语行为。解释实践受到整体性和启发性约束的支配,这些约束阻碍了将有意识的话语转化为严格科学的尝试。对于普特南、菲尔德和斯蒂奇来说,科学行动发生在形式句法层面而不是有意识层面。

计算理论+心灵在各个方向受到攻击。其中一项批评针对表示内容的因果相关性(Block 1990; Figdor 2009; Kazez 1995)。直观地说,心理状态的内容对心理活动和行为具有因果相关性。例如,我渴望喝水而不是橙汁会导致我走向水槽而不是冰箱。我的渴望的内容(我要喝水)似乎在塑造我的行为中起着重要的因果作用。根据 Fodor(1990: 137–159)的说法,计算理论+表示理论+心灵可以适应这种直觉。形式句法活动实现有意识的心理活动,从而确保有意识的心理状态根据其内容在因果上相互作用。然而,这种分析是否确保了内容的因果相关性并不那么清楚。表示理论+心灵说计算对句法“敏感”,但对语义不敏感。根据对关键词“敏感”的解释方式,表示内容似乎是因果无关的,形式句法承担了所有的因果工作。这里有一个类比来说明这个担忧。当一辆汽车沿着道路行驶时,车的影子会形成稳定的模式。然而,一个时间点上的影子位置不会影响以后的影子位置。类似地,计算理论+表示理论+心灵可以解释心理活动如何实现以有意识术语描述的稳定模式,但这并不足以确保内容的因果相关性。如果心灵是一个句法驱动的机器,那么因果效力似乎存在于句法层面而不是语义层面。语义只是“顺带而来”。因此,计算理论+表示理论+心灵鼓励得出表示属性在因果上是无效的结论。这个结论可能不会困扰消除论者,但有意识的现实主义者通常希望避免这种结论。

第二个批评将形式-句法图像视为在科学实践中没有根据的推测而予以驳斥。泰勒·伯吉(Tyler Burge)(2010a,b,2013:479-480)认为,在包括理论推理、实践推理和知觉研究在内的认知科学的大部分领域中,心理活动的形式句法描述并不起重要作用。伯吉争论说,在每种情况下,科学采用的是意向描述而不是形式句法描述。例如,感知心理学通过与远距离形状、大小、颜色等的表征关系来区分感知状态,而不是通过形式句法属性。要理解这个批评,我们必须区分形式句法描述和神经生理学描述。每个人都同意,完整的科学心理学将赋予神经生理学描述最重要的地位。然而,神经生理学描述与形式句法描述是不同的,因为形式句法描述被认为在神经生理学中可以多重实现。这里的问题是科学心理学是否应该补充意向描述和神经生理学描述,以及多重可实现的非意向形式句法描述。

5.2 关于心理内容的外在主义

普特南(Putnam)的里程碑式文章《“意义”的意义》(1975: 215–271)引入了双子地球思想实验,该实验假设存在一个与我们的世界完全相同,只是 H2O 被一种化学成分不同但质地相似的物质 XYZ 所取代的世界。普特南认为 XYZ 不是水,而双子地球上的说话者使用“水”一词来指代 XYZ 而不是水。伯奇(Burge)(1982)将这个结论从语言参照扩展到了心理内容。他认为双子地球人具有不同内容的心理状态。例如,如果地球上的奥斯卡认为水能解渴,那么他在双子地球上的复制品则会产生一个不同内容的思想,我们可以将其概括为“twater 能解渴”。伯奇得出结论,心理内容并不仅仅依赖于内部神经生理学。心理内容的个体化部分取决于思考者皮肤之外的因素,包括与环境的因果关系。这个立场被称为心理内容的外在主义。

心理状态的形式句法特性被广泛认为是依赖于内部神经生理学的。例如,奥斯卡和双子奥斯卡具有相同的形式句法操作。在假设内容外在主义的情况下,普通的意向描述和形式句法描述之间存在着巨大的鸿沟。

内容外在主义对于代表性内容在科学心理学中的解释效用提出了严重的问题:

因果论证(Fodor 1987, 1991):除非在内部神经生理学中表现出来,否则心灵内容如何施加任何因果影响?不存在“远程心理行动”。物理环境的差异只通过引起局部脑状态的差异来影响行为。因此,唯一具有因果关系的因素是那些随附于内部神经生理学的因素。外部个体化的内容在因果上是无关的。

解释论证(Stich 1983):严谨的科学解释不应考虑主体皮肤外的因素。民间心理学可以通过与外部环境的关系对心理状态进行分类,但科学心理学应完全通过随附于内部神经生理学的因素对心理状态进行分类。它应将奥斯卡和双胞胎奥斯卡视为心理上的重复物。[3]

一些作者将这两个论证结合在一起进行研究。这两个论证都得出了同样的结论:在科学心理学提供的因果解释中,外部个体化的心灵内容找不到合法的位置。Stich(1983)以这些观点来推动他的形式-句法消除论。

许多哲学家通过提倡内容内在主义来回应这些担忧。而内容外在主义者支持广义内容(即不依赖于内部神经生理学的内容),内容内在主义者支持狭义内容(即依赖于内部神经生理学的内容)。狭义内容是在排除所有外部因素后剩下的心理内容。在他的职业生涯的某个时候,福多尔(1981 年,1987 年)追求内在主义作为将有意识心理学与计算机与思维科学、认知科学和功能主义结合的策略。虽然承认广义内容不应在科学心理学中发挥作用,但他坚持狭义内容应起到中心解释作用。

激进的内在主义者坚持认为所有内容都是狭义的。一个典型的分析认为奥斯卡思考的不是水,而是一些更一般的物质类别,这些类别包含了 XYZ,因此奥斯卡和双胞胎奥斯卡持有相同内容的心理状态。蒂姆·克雷恩(1991 年)和加布里埃尔·塞加尔(2000 年)支持这样的分析。他们认为民间心理学总是狭义地区分命题态度。较不激进的内在主义建议我们除了广义内容外还要承认狭义内容。民间心理学有时可能会广义地区分命题态度,但我们也可以界定一个可行的狭义内容概念,以推进重要的哲学或科学目标。内在主义者提出了各种候选的狭义内容概念(布洛克 1986 年;查尔默斯 2002 年;卡明斯 1989 年;福多尔 1987 年;刘易斯 1994 年;洛尔 1988 年;门多拉 2008 年)。请参阅“狭义心理内容”条目,了解主要候选人的概述。

外在主义者抱怨现有的狭义内容理论不完整、不可信、对心理解释无用或存在其他问题(伯奇 2007 年;索耶 2000 年;斯塔尔内克 1999 年)。外在主义者还质疑内在主义的论证,即科学心理学需要狭义内容:

因果论论证:外在主义者坚持宽内容可以在因果关系中起作用。外在主义者之间的细节各不相同,讨论经常与围绕因果关系、反事实和心灵形而上学的复杂问题交织在一起。请参阅入门概述 mental causation,以及代表性外在主义讨论的 Burge (2007),Rescorla (2014a) 和 Yablo (1997, 2003)。

解释论论证:外在主义者声称心理解释可以通过超越内部神经生理学的因素对心灵状态进行合法分类(Peacocke 1993;Shea, 2018)。Burge 观察到,非心理学科学通常通过与外部因素的关系来个体化解释性种类。例如,一个实体是否被视为心脏(大致上)取决于其在正常环境中的生物功能是否是泵血。因此,生理学通过关系个体化器官种类。为什么心理学不能以类似的方式个体化心灵状态呢?关于这些问题的一个值得注意的交流,请参阅 Burge (1986, 1989, 1995) 和 Fodor (1987, 1991)。

外在主义者怀疑我们是否有任何充分的理由用窄内容替代或补充宽内容。他们认为寻找窄内容是一场徒劳的追逐。

Burge (2007, 2010a)通过分析当前的认知科学来捍卫外在主义。他认为,许多科学心理学的分支(尤其是感知心理学)通过与外部环境的因果关系来确定心理内容。他得出结论,科学实践体现了一种外在主义的观点。相比之下,他认为,狭义内容是一种在当前科学中没有根据的哲学幻想。

假设我们放弃对狭义内容的追求。将计算理论与外在主义的意向心理学相结合的前景如何?最有希望的选择强调解释的层次。我们可以说意向心理学占据了一个解释层次,而形式-句法计算心理学占据了另一个层次。弗多尔在他的后期作品中提倡这种方法(1994 年,2008 年)。他开始拒绝狭义内容是无用的。他提出形式句法机制实施外在主义心理定律。心理计算根据形式句法属性操纵心理语言表达式,并且这些形式句法操作确保心理活动实现了在广义内容上定义的适当类似法则的模式。

鉴于内在主义/外在主义的区别,让我们重新审视第 5.1 节中提出的废除主义挑战:意向性描述对形式-句法描述有什么解释价值?内在主义者可以回应说,适当的形式句法操作确定甚至构成狭义内容,因此内在主义的意向性描述已经隐含在适当的形式句法描述中(参见 Field 2001: 75)。也许这种回应可以证明意向性现实主义,也许不行。然而,对于外在主义者来说,没有这样的回应可用。外在主义的意向性描述并不隐含在形式句法描述中,因为在保持形式句法不变的同时可以改变广义内容。因此,拥护 CTM+FSC 的外在主义者必须说明通过补充形式-句法解释与意向性解释我们获得了什么。一旦我们接受心理计算对句法敏感但对语义不敏感,就很难确定广义内容是否还有任何有用的解释工作。Fodor 在不同的地方都回应了这一挑战,在《榆树和专家》(1994)中提供了他最系统的论述。有关批评,请参见 Arjo(1996)、Aydede(1998)、Aydede 和 Robbins(2001)、Wakefield(2002);Perry(1998)和 Wakefield(2002)。Rupert(2008)和 Schneider(2005)的立场接近 Fodor 的立场。Dretske(1993)和 Shea(2018,第 197-226 页)追求证明广义内容的解释相关性的替代策略。

5.3 涉及内容的计算

计算描述和意向描述之间的感知鸿沟激发了关于计算理论的许多著作。一些哲学家试图通过以表征性术语个体化计算状态的计算描述来弥合这个鸿沟。这些描述涉及内容,使用克里斯托弗·皮科克(1994 年)的术语。在涉及内容的方法中,计算和意向描述之间没有严格的界限。特别是,某些在科学上有价值的心理活动的描述既是计算的也是意向的。将这个立场称为涉及内容的计算主义。

涉及内容的计算主义者不必说所有的计算描述都是意向的。举个例子,假设我们描述一个简单的图灵机,它通过其几何形状个体化符号。那么得到的计算描述不可能是涉及内容的。因此,涉及内容的计算主义者通常不将涉及内容的计算作为计算的一般理论。他们只声称一些重要的计算描述是涉及内容的。

人们可以将涉及内容的计算主义发展为内在主义或外在主义。内在主义的涉及内容的计算主义者认为,一些计算描述通过其狭义内容部分地确定心理状态。穆拉特·艾德德(2005 年)推荐了这方面的立场。外在主义的涉及内容的计算主义认为,某些计算描述通过其广义内容部分地确定心理状态。泰勒·伯吉(2010a: 95–101)、克里斯托弗·皮科克(1994 年,1999 年)、迈克尔·雷斯科拉(2012 年)和马克·斯普雷瓦克(2010 年)支持这个立场。奥伦·沙格里尔(2001 年,即将出版)提倡一种在内在主义和外在主义之间中立的涉及内容的计算主义。

外在主义涉及内容的计算论者通常引用认知科学实践作为动机因素。例如,感知心理学将感知系统描述为从视网膜刺激和对物体深度的估计计算出某个物体大小的估计值。感知的“估计”在表征上被认定为特定远距离大小和深度的表征。可以合理地认为,与特定远距离大小和深度的表征关系不依赖于内部神经生理学。因此,感知心理学通过广义内容对感知计算进行类型识别。因此,外在主义涉及内容的计算论似乎与当前的认知科学相协调。

外在主义涉及内容的计算论面临的一个重大挑战是与标准计算论形式主义(如图灵机)的接口。内容涉及描述与逻辑和计算机科学中的计算模型如何相关?哲学家通常假设这些模型提供非意向性的描述。如果是这样,那将对外在主义涉及内容的计算论构成重大而可能是决定性的打击。

可以说,许多熟悉的计算形式允许涉及内容而非形式句法的解释。以图灵机为例,我们可以通过类似几何形状的因素来非语义地确定图灵机字母表中的“符号”。但是,图灵的形式主义是否需要非语义的确定方案呢?可以说,这种形式主义允许我们通过符号的内容来部分确定符号。当然,图灵机的机器表并没有明确引用符号的语义属性(例如指称或真值条件)。然而,机器表可以编码描述如何操作符号的机械规则,其中这些符号以涉及内容的术语进行类型识别。通过这种方式,机器表在不明确提及语义属性的情况下,指导涉及内容的状态之间的转换。Aydede(2005)提出了这种观点的内在主义版本,符号通过其狭义内容进行类型识别。Rescorla(2017a)将这种观点发展为外在主义方向,符号通过其广义内容进行类型识别。他认为,一些类似图灵的模型描述了对外在确定的心灵符号进行的计算操作。

原则上,一个人可以同时接受涉及内容的外在主义计算描述和形式句法描述。可以说,这两种描述占据了不同的解释层次。皮科克提出了这样的观点。其他涉及内容的计算论者对心灵的形式句法描述持更为怀疑的态度。例如,伯奇质疑形式句法描述对科学心理学的某些领域(如知觉心理学)的解释价值。从这个观点来看,第 5.1 节中提出的消除主义挑战是颠倒的。我们不应该假设形式句法描述具有解释价值,然后问意向描述有什么价值。相反,我们应该接受当前认知科学提供的外在主义意向描述,然后问形式句法描述有什么价值。

形式句法描述的支持者通过引用实施机制来回应。心理活动的外在主义描述假设心灵与外部物理环境之间存在适当的因果历史关系。但是我们肯定希望有一个“局部”的描述,忽略外部的因果历史关系,揭示潜在的因果机制。福多(1987 年,1994 年)以此方式论证形式句法图像的动机。关于对实施机制论证的可能外在主义回应,请参见伯奇(2010b),雷斯科拉(2017b),谢(2013)和斯普雷瓦克(2010)。关于这个论证以及计算与表示之间关系的辩论,似乎将继续进行到无限的未来。

6. 计算的替代观念

文献提供了几种替代观念,通常被提出作为 CTM 的基础。在许多情况下,这些观念与彼此重叠,或与上述观念重叠。

6.1 信息处理

认知科学家通常将计算描述为“信息处理”。支持者很少澄清他们所指的“信息”或“处理”。缺乏澄清,这种描述只不过是一个空洞的口号。

克劳德·香农在他 1948 年的文章《通信的数学理论》中引入了一个科学上重要的“信息”概念。直观的想法是信息度量了不确定性的减少,减少的不确定性表现为可能状态的概率分布的改变。香农在一个严格的数学框架内对这个想法进行了编码,为信息论奠定了基础(Cover 和 Thomas 2006)。香农信息对现代工程学至关重要。它在认知科学中,特别是认知神经科学中有着丰富的应用。它是否支持将计算解释为“信息处理”?考虑一个记录通过无线电接收的消息的老式磁带机。使用香农的框架,可以测量某个记录消息所携带的信息量。在我们重放记录的消息时,磁带机在某种意义上“处理”香农信息。然而,这台机器似乎并没有实现一个非平凡的计算模型 [6]。可以肯定的是,无论是图灵机形式化还是神经网络形式化都不能很好地解释机器的操作。因此,可以说一个系统可以在没有以任何有趣的意义执行计算的情况下处理香农信息。

面对这样的例子,人们可能会尝试确定一个更苛刻的“处理”概念,以便磁带机不“处理”香农信息。或者,人们可能会坚持认为磁带机执行了非平凡的计算。Piccinini 和 Scarantino(2010)提出了一个高度通用的计算概念,他们称之为通用计算,从而得出这个结论。

信息的第二个重要概念源自保罗·格赖斯(1989 年)对自然意义的影响深远的讨论。自然意义涉及可靠的、支持反事实的相关性。例如,树木年轮与树的年龄相关,痘病与水痘相关。我们通俗地描述树木年轮携带有关树龄的信息,痘病携带有关水痘的信息,等等。这样的描述暗示了一种将信息与可靠的、支持反事实的相关性联系起来的概念。弗雷德·德雷茨克(1981 年)将这一概念发展成为一个系统的理论,后来的一些哲学家也做了类似的工作。德雷茨克式的信息是否能够提供对“信息处理”作为计算的合理分析?考虑一个老式的双金属带温控器。两种金属被连接成一条带子。金属的差异膨胀导致带子弯曲,从而激活或停止加热装置。带子的状态可靠地与当前环境温度相关,当激活或停止加热器时,温控器“处理”这个携带信息的状态。然而,温控器似乎没有实现任何非平凡的计算模型。人们通常不会将温控器视为计算。因此,可以说,一个系统可以处理德雷茨克式的信息,而不以任何有趣的方式执行计算。当然,人们可能会尝试通过与前一段类似的策略来处理这些例子。

信息的第三个突出概念是语义信息,即表示性内容。[7] 一些哲学家认为,只有当系统的状态具有表示性属性时,物理系统才能进行计算(Dietrich 1989; Fodor 1998: 10; Ladyman 2009; Shagrir 2006; Sprevak 2010)。从这个意义上说,信息处理对于计算是必要的。正如 Fodor 所说,“没有表示就没有计算”(1975: 34)。然而,这个观点是有争议的。Chalmers(2011)和 Piccinini(2008a)认为,即使机器所操作的符号没有语义解释,图灵机也可能执行计算。机器的计算纯粹是句法性质的,缺乏类似语义属性的东西。根据这个观点,表示性内容对于一个物理系统来说并非计算的必要条件。

“计算是信息处理”这个口号是否提供了很多见解仍然不清楚。然而,这个口号似乎不太可能在文献中消失。有关计算和信息之间可能的联系的进一步讨论,请参阅 Gallistel 和 King(2009: 1–26),Lizier,Flecker 和 Williams(2013),Milkowski(2013),Piccinini 和 Scarantino(2010)以及 Sprevak(即将出版)。

6.2 函数评估

在一段广为引用的文字中,感知心理学家大卫·马尔(1982)区分了描述“信息处理设备”的三个层次:

计算理论:“设备被描述为从一种信息到另一种信息的映射,这个映射的抽象属性被精确定义,并且其适用性和对手头任务的充分性得到了证明”(第 24 页)。

表示和算法:“输入和输出的表示选择以及用于将一个转换为另一个的算法”(第 24-25 页)。

硬件实现:“算法和表示如何在物理上实现的细节”(第 25 页)。

Marr 的三个层次引起了激烈的哲学审视。对于我们来说,关键点在于 Marr 的“计算层次”描述了从输入到输出的映射,而不描述中间步骤。Marr 通过提供各种感知过程(如边缘检测)的“计算层次”理论来说明他的方法。

Marr 的讨论表明了对计算的功能概念,即计算是将输入转化为适当输出的过程。Frances Egan 在一系列文章中详细阐述了功能概念(1991 年,1992 年,1999 年,2003 年,2010 年,2014 年,2019 年)。与 Marr 一样,她将计算描述视为输入输出关系的描述。她还声称计算模型表征了纯粹的数学函数:即从数学输入到数学输出的映射。她通过考虑一个从视网膜差异计算物体深度的视觉机制(称为“Visua”)来进行说明。她想象了一个在物理环境中嵌入得如此不同以至于不表示深度的神经生理学复制品(“Twin Visua”)。Visua 和 Twin Visua 具有不同的表征属性,但 Egan 表示,视觉科学将 Visua 和 Twin Visua 视为计算上的重复。Visua 和 Twin Visua 计算相同的数学函数,尽管在两种情况下的计算具有不同的表征意义。Egan 得出结论,心灵的计算建模产生了与许多可能的替代表征描述一致的“抽象数学描述”。有意归因只是对基础计算描述的一种启发性解释。

Chalmers (2012)认为功能概念忽视了计算的重要特征。正如他所指出的,计算模型通常描述的不仅仅是输入输出关系。它们描述了将输入转化为输出的中间步骤。这些中间步骤,在马尔的“算法”层面上被赋予了重要地位,在逻辑学家和计算机科学家提供的计算模型中占据重要地位。将“计算”一词限制为输入输出描述并不能捕捉到标准的计算实践。

功能理论面临着额外的担忧,比如 Egan 的理论,它专门强调数学的输入和输出。批评者抱怨 Egan 错误地提升了数学函数的地位,而忽视了认知科学常常提供的有意义的解释(Burge 2005; Rescorla 2015; Silverberg 2006; Sprevak 2010)。举个例子,假设感知心理学将感知系统描述为估计某个物体的深度为 5 米。感知的深度估计具有表征内容:只有当物体的深度为 5 米时,它才是准确的。我们引用数字 5 来标识深度估计。但是我们选择这个数字取决于我们对测量单位的任意选择。批评者认为,深度估计的内容,而不是我们理论家通过任意选择的数字来指定该内容的方式,才是心理解释所关心的。Egan 的理论将数字而不是内容置于解释的中心舞台。根据 Egan 的理论,计算解释应该描述视觉系统如何计算一个特定的数学函数,将特定的数学输入转化为特定的数学输出。这些特定的数学输入和输出取决于我们对测量单位的任意选择,因此可以说它们缺乏 Egan 赋予它们的解释意义。

我们应该区分功能方法,如 Marr 和 Egan 所追求的,与计算机科学中的功能编程范式。功能编程范式将复杂函数的评估建模为简单函数的连续评估。以一个简单的例子来说,可以通过先评估平方函数,然后评估加法函数来评估 f(x,y)=(x2+y)。功能编程与 Marr 强调的“计算层面”描述不同,因为它指定了中间的计算阶段。功能编程范式可以追溯到 Alonzo Church 的(1936)lambda 演算,继续使用诸如 PCF 和 LISP 的编程语言。它在人工智能和理论计算机科学中起着重要作用。一些作者认为它对心理计算提供了特殊的洞察力(Klein 2012; Piantadosi, Tenenbaum, and Goodman 2012)。然而,许多计算形式不符合功能范式:图灵机;命令式编程语言,如 C;逻辑编程语言,如 Prolog;等等。尽管功能范式描述了许多重要的计算(可能包括心理计算),但它不可能捕捉到一般的计算。

6.3 结构主义

许多哲学讨论体现了计算的结构主义观念:计算模型描述了一个抽象的因果结构,而不考虑实例化该结构的特定物理状态。这个观念至少可以追溯到普特南的原始论述(1967 年)。查尔默斯(1995 年,1996a,2011 年,2012 年)对此进行了详细阐述。他引入了组合状态自动机(CSA)形式主义,它包含了大多数熟悉的计算模型(包括图灵机和神经网络)。CSA 提供了对物理系统因果拓扑的抽象描述:系统部分之间的因果相互作用模式,独立于这些部分的性质或它们相互作用的因果机制的性质。计算描述指定了一个因果拓扑。

查尔默斯运用结构主义来勾勒出计算理论的一个非常普遍的版本。他假设功能主义观点,即心理状态是通过它们在因果组织模式中的角色来个体化的。心理描述指定了因果角色,抽象出了实现这些角色的物理状态。因此,心理属性在组织上是不变的,因为它们随附于因果拓扑。由于计算描述表征了一个因果拓扑,满足适当的计算描述就足以实例化适当的心理属性。这也意味着心理描述是计算描述的一种,因此计算描述应在心理解释中起到核心作用。因此,结构主义计算为认知科学提供了坚实的基础。心灵扎根于因果模式,而这正是计算模型所表达的。

结构主义随附着一个有吸引力的解释,描述了抽象计算模型与物理系统之间的实现关系。在什么条件下,一个物理系统可以实现一个计算模型?结构主义者认为,一个物理系统实现一个模型,只有当该模型的因果结构与该模型的形式结构“同构”时。计算模型通过描述与某些相关因果拓扑相似的形式结构来描述一个物理系统。查尔默斯详细阐述了这个直观的想法,提供了计算机科学与自动化的物理实现的详细必要和充分条件。几乎没有其他计算观念能够提供如此实质性的实现关系解释。

我们可以有益地将结构主义计算论与上述一些其他理论进行比较:

机器功能主义。结构主义计算论接受了机器功能主义背后的核心思想:心灵状态是通过适当的计算形式描述的功能状态。普特南将计算理论机器(CTM)作为一种经验假设,并以此为基础辩护功能主义。相比之下,查尔默斯遵循大卫·刘易斯(1972 年)的观点,将功能主义基于心理学话语的概念分析。普特南通过辩护计算论来辩护功能主义,而查尔默斯则通过假设功能主义来辩护计算论。

古典计算论、连接主义和计算神经科学。结构主义计算论强调组织不变的描述,这些描述可以多重实现。在这方面,它与计算神经科学不同。结构主义与古典计算论和连接主义计算论都是兼容的,但在精神上与这些观点不同。古典主义者和连接主义者将他们的对立立场作为大胆而实质性的假设。查尔默斯将结构主义计算论作为一种相对简约的立场,不太可能被证伪。

故意实在论和消除论。结构主义计算论与这两种立场都是兼容的。CSA 描述并未明确提及语义属性,如指称、真值条件、表征内容等。结构主义计算论者不必在科学心理学中赋予表征内容重要角色。另一方面,结构主义计算论并不排除表征内容在其中扮演重要角色。

计算的形式-句法观念。广义内容取决于与外部环境的因果历史关系,这些关系超出了因果拓扑。因此,CSA 描述使广义内容不确定。狭义内容可能依赖于因果拓扑,但 CSA 描述并未明确提及狭义内容。总的来说,结构主义计算论优先考虑形式上的、非语义的计算描述水平。在这方面,它类似于 FSC。另一方面,结构主义计算论者不必说计算对语义属性“不敏感”,因此他们不必支持 FSC 的所有方面。

尽管结构主义计算论与 CTM+FSC 有所不同,但它引发了一些类似的问题。例如,Rescorla(2012)否认因果拓扑在认知科学中起到结构主义计算论所规定的中心解释作用。他建议,外在主义的意向描述而不是组织不变描述享有解释优先权。从不同的方向来看,计算神经科学家会建议我们放弃组织不变描述,而是采用更具神经特异性的计算模型。对于这样的反对意见,Chalmers(2012)认为,组织不变的计算描述产生了既不是意向描述也不是神经生理描述所能复制的解释优势:它揭示了认知的基本机制(不同于意向描述);并且它抽象出与许多解释目的无关的神经实现细节。

6.4 机械论理论

计算的机械性质是逻辑、哲学和认知科学中的一个重要主题。Gualtiero Piccinini(2007、2012、2015)和 Marcin Milkowski(2013)将这一主题发展为一种计算系统的机械理论。功能机制是一个由相互连接的组件组成的系统,其中每个组件在整个系统中执行某些功能。机械解释通过将系统分解为部分,描述部分如何组织成更大的系统,并隔离每个部分执行的功能来进行。计算系统是一种特定类型的功能机制。根据 Piccinini 的观点,计算系统是一种机制,其组件在功能上组织起来以根据规则处理载体。Piccinini 回应了 Putnam 关于多重实现的讨论,要求规则是介质无关的,即它们抽象出载体的具体物理实现。计算解释将系统分解为部分,并描述每个部分如何帮助系统处理相关的载体。如果系统处理离散结构的载体,则计算是数字的。如果系统处理连续的载体,则计算是模拟的。Milkowski 的机械方法版本类似。他与 Piccinini 的不同之处在于追求“信息处理”注释,使得计算机制可以处理信息状态。Milkowski 和 Piccinini 使用各自的机械理论来捍卫计算主义。

机械计算论者通常以非语义方式确定计算状态的个体性。因此,他们会遇到关于表征内容的解释作用的担忧,类似于 FSC 和结构主义所遇到的担忧。在这种精神下,Shagrir(2014)抱怨机械计算论不能容纳同时是计算和表征的认知科学解释。这种批评的力量取决于一个人对涉及内容的计算论的同情程度。

6.5 多元主义

我们已经调查了各种对比和有时重叠的计算概念:经典计算、连接主义计算、神经计算、形式-句法计算、涉及内容的计算、信息处理计算、功能计算、结构主义计算和机械计算。每个概念都产生了不同形式的计算论。每个概念都有其自身的优点和缺点。一个人可以采取多元主义立场,承认不同的合法概念。多元主义者不会把一个概念提升到其他概念之上,他们会愉快地在给定的解释背景下使用任何看起来有用的概念。Edelman(2008)采取了多元主义的立场,Chalmers(2012)在他最近的讨论中也是如此。

多元主义观点引发了一些自然问题。我们能否提供一个包含所有或大多数计算类型的普遍分析?所有计算是否共享某些特征标志?它们也许是通过类似家族相似性的东西而联合在一起的吗?更深入地理解计算需要我们应对这些问题。

7. 反对计算主义的论证

计算理论吸引了许多反对意见。在许多情况下,这些反对意见仅适用于计算理论的特定版本(如经典计算主义或连接主义计算主义)。以下是一些著名的反对意见。另请参阅约翰·西尔(1980)提出的对经典计算主义的广泛讨论的“中文房间”论证。

7.1 平凡性论证

一个经常出现的担忧是计算理论可能是平凡的,因为我们可以将几乎任何物理系统描述为执行计算。塞尔(1990)声称一堵墙可以实现任何计算机程序,因为我们可以辨别出墙上的一些分子运动模式与程序的形式结构同构。普特南(1988: 121–125)在同样的思路上辩护了一个不那么极端但仍然非常强的平凡性论点。平凡性论证在哲学文献中起着重要作用。反计算论者使用平凡性论证反对计算主义,而计算主义者则试图避免平凡性。

计算主义者通常通过坚持论证忽视了计算实现的约束来反驳平凡性论证,这些约束阻止了平凡化的实现。这些约束可能是反事实的、因果的、语义的或其他的,这取决于一个人对计算理论的偏爱。例如,大卫·查尔默斯(1995, 1996a)和 B·杰克·科普兰(1996)认为普特南的平凡性论证忽视了物理系统必须满足的反事实条件。其他哲学家认为,一个物理系统必须具有表征性质才能实现计算模型(福多尔 1998: 11–12; Ladyman 2009; Sprevak 2010),或者至少要实现一个涉及内容的计算模型(Rescorla 2013, 2014b)。这里的细节差异很大,计算主义者们就哪种类型的计算可以避免哪种平凡性论证进行辩论。但大多数计算主义者都同意,通过一个足够强大的计算模型与物理系统之间的实现关系的理论,我们可以避免任何毁灭性的平凡性担忧。

泛计算论认为每个物理系统都实现了一个计算模型。这个论点是合理的,因为任何物理系统都可以被认为实现了一个足够简单的计算模型(例如,一个一状态有限状态自动机)。正如查尔默斯(2011)所指出的,泛计算论对计算论来说并不令人担忧。令人担忧的是更强的平凡论,即几乎每个物理系统都实现了几乎每个计算模型。

关于平凡论论证和计算实现的进一步讨论,请参见斯普雷瓦克(2019)和物理系统中的计算条目。

7.2 哥德尔的不完备性定理

根据一些作者的观点,哥德尔的不完备定理表明人类的数学能力超过了任何图灵机的能力(纳格尔和纽曼 1958 年)。J.R.卢卡斯(1961 年)将这个观点发展成了对 CCTM 的著名批评。罗杰·彭罗斯在《皇帝的新思维》(1989 年)和后续著作中继续批评。各种哲学家和逻辑学家对这个批评进行了回应,认为现有的表述存在谬误、假设问题,甚至明显的数学错误(鲍伊 1982 年;查尔默斯 1996b;费弗曼 1996 年;刘易斯 1969 年,1979 年;普特南 1975 年:365-366,1994 年;夏皮罗 2003 年)。广泛的共识是,这种对 CCTM 的批评没有任何力量。也许某些人类的心智能力超过了图灵可计算性,但哥德尔的不完备定理并没有提供任何理由预期这种结果。

7.3 计算建模的限制

一台计算机能否创作《英雄交响曲》?或者发现广义相对论?甚至复制一个孩子轻松感知环境、系鞋带和辨别他人情感的能力?直觉、创造力或技能型的人类活动似乎抵抗计算机程序的形式化(德雷福斯 1972 年,1992 年)。更一般地说,人类认知的关键方面可能逃避了计算建模,尤其是经典计算建模。

具有讽刺意味的是,福多尔宣扬了这一批评的有力版本。即使在他最早的 CCTM 陈述中,福多尔(1975: 197–205)对 CCTM 能够处理所有重要的认知现象表示相当怀疑。这种悲观情绪在他后来的著作(1983 年,2000 年)中变得更加明显,这些著作特别关注作为一种潜在逃避计算建模的心理现象的演绎推理。他的核心论点可以概括如下:

(1)

图灵式计算只对心理表征的“局部”属性敏感,这些属性由表征的成分的身份和排列耗尽。

(2)

许多心理过程,典型的是演绎推理,对“非局部”属性敏感,如相关性、简单性和保守性。

(3)

因此,我们可能不得不放弃图灵式对相关过程的建模。

(4)

不幸的是,我们目前对于可能作为合适替代的其他理论没有任何想法。

一些批评者否认(1),认为合适的图灵式计算可以对“非局部”属性敏感(Schneider 2011;Wilson 2005)。一些人质疑(2),认为典型的归纳推理只对“局部”属性敏感(Carruthers 2003;Ludwig and Schneider 2008;Sperber 2002)。一些人承认步骤(3),但质疑步骤(4),坚称我们有有希望的非图灵式模型来解释相关的心理过程(Pinker 2005)。受到这些批评的部分推动,Fodor 详细阐述了他的论点。为了捍卫(2),他批评了通过使用“局部”启发式算法(2005:41-46;2008:115-126)或通过假设大量领域特定的认知模块(2005:56-100)来建模归纳的理论。为了捍卫(4),他批评了通过非图灵式模型(2000:46-53;2008)处理归纳的各种理论,如连接主义网络。

计算建模的范围和限制仍然存在争议。我们可以预期这个话题将继续成为一个积极的研究重点,与人工智能一起进行。

7.4 时间论证

心灵活动在时间中展开。此外,心灵能够快速完成复杂的任务(例如,感知估计)。许多批评者担心,计算主义,尤其是经典计算主义,不足以适应认知的时间方面。图灵式模型没有明确提及计算发生的时间尺度。可以用基于硅的设备,或者更慢的真空管设备,或者更慢的滑轮杠杆设备来物理实现相同的抽象图灵机。批评者建议我们拒绝 CCTM,而采用一些更直接地纳入时间考虑的替代框架。van Gelder 和 Port(1995)使用这个论证来推动一种非计算的动力系统框架来建模心灵活动。Eliasmith(2003,2013:12-13)使用它来支持他的神经工程框架。

计算论者回应说,我们可以通过时间考虑来补充一个抽象的计算模型(Piccinini 2010; Weiskopf 2004)。例如,图灵机模型假设离散的“计算阶段”,但没有描述这些阶段与物理时间的关系。但我们可以通过描述每个阶段持续的时间来补充我们的模型,从而将我们的非时间性图灵机模型转化为能够产生详细时间预测的理论。许多计算理论的支持者使用这种补充方法来研究认知的时间属性(Newell 1990)。类似的补充方法在计算机科学中也占据重要地位,该领域的从业者非常关注构建具有适当时间属性的机器。计算论者得出结论,适当补充的计算理论版本可以充分捕捉认知如何随时间展开。

第二个时间上的反对意见强调了离散和连续时间演化之间的对比(van Gelder and Port 1995)。图灵机的计算是在离散的阶段中展开的,而心理活动是在连续的时间中展开的。因此,图灵式计算的时间属性与实际心理活动的时间属性之间存在根本不匹配。我们需要一个描述连续时间演化的心理理论。

计算论者回应说,这个反驳假设了需要证明的东西:认知活动并不分为解释性显著的离散阶段(Weiskopf 2004)。假设物理时间是连续的,那么心灵活动就会在连续的时间中展开。但这并不意味着认知模型必须具有连续的时间结构。个人电脑在连续的时间中运行,其物理状态也在连续地演变。完整的物理理论将反映所有这些物理变化。但我们的计算模型并不反映计算机的每一个物理变化。我们的计算模型具有离散的时间结构。为什么要假设一个良好的心灵层面模型必须反映大脑的每一个物理变化呢?即使存在一系列不断演变的物理状态,为什么要假设存在一系列不断演变的认知状态呢?连续时间演化的事实本身并不排斥具有离散时间结构的计算模型。

7.5 具身认知

具身认知是一个研究项目,从大陆哲学家梅洛-庞蒂、感知心理学家吉布森和其他各种影响中汲取灵感。它是一个相当异质的运动,但基本策略是强调认知、身体行动和周围环境之间的联系。请参阅瓦雷拉、汤普森和罗施(1991 年)的有影响力的早期声明。在许多情况下,支持者使用动力系统理论的工具。支持者通常将他们的方法呈现为对计算主义的激进替代(Chemero 2009; Kelso 1995; Thelen and Smith 1994)。他们抱怨说,计算理论将心理活动视为与嵌入环境分离的静态符号操作。它忽视了环境以因果或构成方式塑造心理活动的无数复杂方式。我们应该用一种强调心灵、身体和环境之间持续联系的新图景来取代计算理论。代理-环境动力学,而不是内部心理计算,是理解认知的关键。通常,对关于意向性的广泛消除主义态度推动了这一批评。

计算主义者回应说,计算理论允许对认知的具身性给予应有的认可。计算模型可以考虑到心灵、身体和环境的持续互动。毕竟,计算模型可以纳入感觉输入和运动输出。没有明显的理由认为对代理-环境动力学的强调排斥了对内部心理计算的双重强调(Clark 2014: 140–165; Rupert 2009)。计算主义者坚持认为计算理论可以纳入具身认知运动提供的任何合法见解。他们还坚持认为计算理论仍然是我们解释众多核心心理现象的最佳框架。

Bibliography

  • Aitchison, L. and Lengyel, M., 2016, “The Hamiltonian Brain: Efficient Probabilistic Inference with Excitatory-Inhibitory Neural Circuit Dynamics”, PloS Computational Biology, 12: e1005186.

  • Arjo, D., 1996, “Sticking Up for Oedipus: Fodor on Intentional Generalizations and Broad Content”, Mind and Language, 11: 231–245.

  • Aydede, M., 1998, “Fodor on Concepts and Frege Puzzles”, Pacific Philosophical Quarterly, 79: 289–294.

  • –––, 2005, “Computationalism and Functionalism: Syntactic Theory of Mind Revisited”, in Turkish Studies in the History and Philosophy of Science, G. Irzik and G. Güzeldere (eds), Dordrecht: Springer.

  • Aydede, M. and P. Robbins, 2001, “Are Frege Cases Exceptions to Intentional Generalizations?”, Canadian Journal of Philosophy, 31: 1–22.

  • Bechtel, W. and A. Abrahamsen, 2002, Connectionism and the Mind, Malden: Blackwell.

  • Bermúdez, J.L., 2005, Philosophy of Psychology: A Contemporary Introduction, New York: Routledge.

  • –––, 2010, Cognitive Science: An Introduction to the Science of the Mind, Cambridge: Cambridge University Press.

  • Block, N., 1978, “Troubles With Functionalism”, Minnesota Studies in the Philosophy of Science, 9: 261–325.

  • –––, 1981, “Psychologism and Behaviorism”, Philosophical Review, 90: 5–43.

  • –––, 1983, “Mental Pictures and Cognitive Science”, Philosophical Review, 92: 499–539.

  • –––, 1986, “Advertisement for a Semantics for Psychology”, Midwest Studies in Philosophy, 10: 615–678.

  • –––, 1990, “Can the Mind Change the World?”, in Meaning and Method: Essays in Honor of Hilary Putnam, G. Boolos (ed.), Cambridge: Cambridge University Press.

  • –––, 1995, The Mind as the Software of the Brain, in Invitation to Cognitive Science, vol. 3: Thinking, E. Smith and B. Osherson (eds), Cambridge, MA: MIT Press.

  • Block, N. and J. Fodor, 1972, “What Psychological States Are Not”, The Philosophical Review, 81: 159–181.

  • Boden, M., 1991, “Horses of a Different Color?”, in Ramsey et al. 1991: 3–19.

  • Bontly, T., 1998, “Individualism and the Nature of Syntactic States”, The British Journal for the Philosophy of Science, 49: 557–574.

  • Bowie, G.L., 1982, “Lucas’s Number is Finally Up”, Journal of Philosophical Logic, 11: 79–285.

  • Brogan, W., 1990, Modern Control Theory, 3rd edition. Englewood Cliffs: Prentice Hall.

  • Buckner, C., 2019, “Deep Learning: A Philosophical Introduction”, Philosophy Compass, 14: e12625.

  • Buckner, C., and J. Garson, 2019, “Connectionism and Post-Connectionist Models”, in Sprevak and Colombo 2019: 175–191.

  • Buesing, L., J. Bill, B. Nessler, and W. Maass, W., 2011, “Neural Dynamics of Sampling: A Model for Stochastic Computation in Recurring Networks of Spiking Neurons”, PLOS Computational Biology, 7: e1002211.

  • Burge, T., 1982, “Other Bodies”, in Thought and Object, A. Woodfield (ed.), Oxford: Oxford University Press. Reprinted in Burge 2007: 82–99.

  • –––, 1986, “Individualism and Psychology”, The Philosophical Review, 95: 3–45. Reprinted in Burge 2007: 221–253.

  • –––, 1989, “Individuation and Causation in Psychology”, Pacific Philosophical Quarterly, 70: 303–322. Reprinted in Burge 2007: 316–333.

  • –––, 1995, “Intentional Properties and Causation”, in Philosophy of Psychology, C. MacDonald and G. MacDonald (eds), Oxford: Blackwell. Reprinted in Burge 2007: 334–343.

  • –––, 2005, “Disjunctivism and Perceptual Psychology”, Philosophical Topics, 33: 1–78.

  • –––, 2007, Foundations of Mind, Oxford: Oxford University Press.

  • –––, 2010a, Origins of Objectivity, Oxford: Oxford University Press.

  • –––, 2010b, “Origins of Perception”, Disputatio, 4: 1–38.

  • –––, 2010c, “Steps Towards Origins of Propositional Thought”, Disputatio, 4: 39–67.

  • –––, 2013, Cognition through Understanding, Oxford: Oxford University Press.

  • Camp, E., 2009, “A Language of Baboon Thought?”, in The Philosophy of Animal Minds, R. Lurz (ed.), Cambridge: Cambridge University Press.

  • Carruthers, P., 2003, “On Fodor’s Problem”, Mind and Language, 18: 508–523.

  • Chalmers, D., 1990, “Syntactic Transformations on Distributed Representations”, Connection Science, 2: 53–62.

  • –––, 1993, “Why Fodor and Pylyshyn Were Wrong: The Simplest Refutation”, Philosophical Psychology, 63: 305–319.

  • –––, 1995, “On Implementing a Computation”, Minds and Machines, 4: 391–402.

  • –––, 1996a, “Does a Rock Implement Every Finite State Automaton?”, Synthese, 108: 309–333.

  • –––, 1996b, “Minds, Machines, and Mathematics”, Psyche, 2: 11–20.

  • –––, 2002, “The Components of Content”, in Philosophy of Mind: Classical and Contemporary Readings, D. Chalmers (ed.), Oxford: Oxford University Press.

  • –––, 2011, “A Computational Foundation for the Study of Cognition”, The Journal of Cognitive Science, 12: 323–357.

  • –––, 2012, “The Varieties of Computation: A Reply”, The Journal of Cognitive Science, 13: 213–248.

  • Chemero, A., 2009, Radical Embodied Cognitive Science, Cambridge, MA: MIT Press.

  • Cheney, D. and R. Seyfarth, 2007, Baboon Metaphysics: The Evolution of a Social Mind, Chicago: University of Chicago Press.

  • Chomsky, N., 1965, Aspects of the Theory of Syntax, Cambridge, MA: MIT Press.

  • Church, A., 1936, “An Unsolvable Problem of Elementary Number Theory”, American Journal of Mathematics, 58: 345–363.

  • Churchland, P.M., 1981, “Eliminative Materialism and the Propositional Attitudes”, Journal of Philosophy, 78: 67–90.

  • –––, 1989, A Neurocomputational Perspective: The Nature of Mind and the Structure of Science, Cambridge, MA: MIT Press.

  • –––, 1995, The Engine of Reason, the Seat of the Soul, Cambridge, MA: MIT Press.

  • –––, 2007, Neurophilosophy At Work, Cambridge: Cambridge University Press.

  • Churchland, P.S., 1986, Neurophilosophy, Cambridge, MA: MIT Press.

  • Churchland, P.S., C. Koch, and T. Sejnowski, 1990, “What Is Computational Neuroscience?”, in Computational Neuroscience, E. Schwartz (ed.), Cambridge, MA: MIT Press.

  • Churchland, P.S. and T. Sejnowski, 1992, The Computational Brain, Cambridge, MA: MIT Press.

  • Clark, A., 2014, Mindware: An Introduction to the Philosophy of Cognitive Science, Oxford: Oxford University Press.

  • Clayton, N., N. Emery, and A. Dickinson, 2006, “The Rationality of Animal Memory: Complex Caching Strategies of Western Scrub Jays”, in Rational Animals?, M. Nudds and S. Hurley (eds), Oxford: Oxford University Press.

  • Copeland, J., 1996, “What is Computation?”, Synthese, 108: 335–359.

  • Cover, T. and J. Thomas, 2006, Elements of Information Theory, Hoboken: Wiley.

  • Crane, T., 1991, “All the Difference in the World”, Philosophical Quarterly, 41: 1–25.

  • Crick, F. and C. Asanuma, 1986, “Certain Aspects of the Anatomy and Physiology of the Cerebral Cortex”, in McClelland et al. 1987: 333–371.

  • Cummins, R., 1989, Meaning and Mental Representation, Cambridge, MA: MIT Press.

  • Davidson, D., 1980, Essays on Actions and Events, Oxford: Clarendon Press.

  • Dayan, P., 2009, “A Neurocomputational Jeremiad”, Nature Neuroscience, 12: 1207.

  • Dennett, D., 1971, “Intentional Systems”, Journal of Philosophy, 68: 87–106.

  • –––, 1987, The Intentional Stance, Cambridge, MA: MIT Press.

  • –––, 1991, “Mother Nature versus the Walking Encyclopedia”, in Ramsey, et al. 1991: 21–30.

  • Dietrich, E., 1989, “Semantics and the Computational Paradigm in Cognitive Psychology”, Synthese, 79: 119–141.

  • Donahoe, J., 2010, “Man as Machine: A Review of Memory and Computational Brain, by C.R. Gallistel and A.P. King”, Behavior and Philosophy, 38: 83–101.

  • Dreyfus, H., 1972, What Computers Can’t Do, Cambridge, MA: MIT Press.

  • –––, 1992, What Computers Still Can’t Do, Cambridge, MA: MIT Press.

  • Dretske, F., 1981, Knowledge and the Flow of Information, Oxford: Blackwell.

  • –––, 1993, “Mental Events as Structuring Causes of Behavior”, in Mental Causation, J. Heil and A. Mele (eds), Oxford: Clarendon Press.

  • Edelman, S., 2008, Computing the Mind, Oxford: Oxford University Press.

  • –––, 2014, “How to Write a ‘How a Build a Brain’ Book”, Trends in Cognitive Science, 18: 118–119.

  • Egan, F., 1991, “Must Psychology be Individualistic?”, Philosophical Review, 100: 179–203.

  • –––, 1992, “Individualism, Computation, and Perceptual Content”, Mind, 101: 443–459.

  • –––, 1999, “In Defense of Narrow Mindedness”, Mind and Language, 14: 177–194.

  • –––, 2003, “Naturalistic Inquiry: Where Does Mental Representation Fit In?”, in Chomsky and His Critics, L. Antony and N. Hornstein (eds), Malden: Blackwell.

  • –––, 2010, “A Modest Role for Content”, Studies in History and Philosophy of Science, 41: 253–259.

  • –––, 2014, “How to Think About Mental Content”, Philosophical Studies, 170: 115–135.

  • –––, 2019, “The Nature and Function of Content in Computational Models”, in Sprevak and Colombo 2019: 247–258.

  • Eliasmith, C., 2003, “Moving Beyond Metaphors: Understanding the Mind for What It Is”, Journal of Philosophy, 100: 493–520.

  • –––, 2013, How to Build a Brain, Oxford: Oxford: University Press.

  • Eliasmith, C. and C.H. Anderson, 2003, Neural Engineering: Computation, Representation and Dynamics in Neurobiological Systems, Cambridge, MA: MIT Press.

  • Elman, J., 1990, “Finding Structure in Time”, Cognitive Science, 14: 179–211.

  • Feferman, S., 1996, “Penrose’s Gödelian Argument”, Psyche, 2: 21–32.

  • Feldman, J. and D. Ballard, 1982, “Connectionist Models and their Properties”, Cognitive Science, 6: 205–254.

  • Field, H., 2001, Truth and the Absence of Fact, Oxford: Clarendon Press.

  • Figdor, C., 2009, “Semantic Externalism and the Mechanics of Thought”, Minds and Machines, 19: 1–24.

  • Fodor, J., 1975, The Language of Thought, New York: Thomas Y. Crowell.

  • –––, 1980, “Methodological Solipsism Considered as a Research Strategy in Cognitive Psychology”, Behavioral and Brain Science, 3: 63–73. Reprinted in Fodor 1981: 225–253.

  • –––, 1981, Representations, Cambridge: MIT Press.

  • –––, 1983, The Modularity of Mind, Cambridge, MA: MIT Press.

  • –––, 1987, Psychosemantics, Cambridge: MIT Press.

  • –––, 1990, A Theory of Content and Other Essays, Cambridge, MA: MIT Press.

  • –––, 1991, “A Modal Argument for Narrow Content”, Journal of Philosophy, 88: 5–26.

  • –––, 1994, The Elm and the Expert, Cambridge, MA: MIT Press.

  • –––, 1998, Concepts, Oxford: Clarendon Press.

  • –––, 2000, The Mind Doesn’t Work That Way, Cambridge, MA: MIT Press.

  • –––, 2005, “Reply to Steven Pinker ‘So How Does the Mind Work?’”, Mind and Language, 20: 25–32.

  • –––, 2008, LOT2, Oxford: Clarendon Press.

  • Fodor, J. and Z. Pylyshyn, 1988, “Connectionism and Cognitive Architecture: A Critical Analysis”, Cognition, 28: 3–71.

  • Frege, G., 1879/1967, Begriffsschrift, eine der Arithmetischen Nachgebildete Formelsprache des Reinen Denkens. Reprinted as Concept Script, a Formal Language of Pure Thought Modeled upon that of Arithmetic, in From Frege to Gödel: A Source Book in Mathematical Logic, 1879–1931, J. van Heijenoort (ed.), S. Bauer-Mengelberg (trans.), Cambridge: Harvard University Press.

  • Gallistel, C.R., 1990, The Organization of Learning, Cambridge, MA: MIT Press.

  • Gallistel, C.R. and King, A., 2009, Memory and the Computational Brain, Malden: Wiley-Blackwell.

  • Gandy, R., 1980, “Church’s Thesis and Principles for Mechanism”, in The Kleene Symposium, J. Barwise, H. Keisler, and K. Kunen (eds). Amsterdam: North Holland.

  • Gödel, K., 1936/65. “On Formally Undecidable Propositions of Principia Mathematica and Related Systems”, Reprinted with a new Postscript in The Undecidable, M. Davis (ed.), New York: Raven Press Books.

  • Grice, P., 1989, Studies in the Ways of Words, Cambridge: Harvard University Press.

  • Hadley, R., 2000, “Cognition and the Computational Power of Connectionist Networks”, Connection Science, 12: 95–110.

  • Harnish, R., 2002, Minds, Brains, Computers, Malden: Blackwell.

  • Haykin, S., 2008, Neural Networks: A Comprehensive Foundation, New York: Prentice Hall.

  • Haugeland, J., 1985, Artificial Intelligence: The Very Idea, Cambridge, MA: MIT Press.

  • Horgan, T. and J. Tienson, 1996, Connectionism and the Philosophy of Psychology, Cambridge, MA: MIT Press.

  • Horowitz, A., 2007, “Computation, External Factors, and Cognitive Explanations”, Philosophical Psychology, 20: 65–80.

  • Johnson, K., 2004, “On the Systematicity of Language and Thought”, Journal of Philosophy, 101: 111–139.

  • Johnson-Laird, P., 1988, The Computer and the Mind, Cambridge: Harvard University Press.

  • –––, 2004, “The History of Mental Models”, in Psychology of Reasoning: Theoretical and Historical Perspectives, K. Manktelow and M.C. Chung (eds), New York: Psychology Press.

  • Kazez, J., 1995, “Computationalism and the Causal Role of Content”, Philosophical Studies, 75: 231–260.

  • Kelso, J., 1995, Dynamic Patterns, Cambridge, MA: MIT Press.

  • Klein, C., 2012, “Two Paradigms for Individuating Implementations”, Journal of Cognitive Science, 13: 167–179.

  • Kriegesgorte, K., 2015, “Deep Neural Networks: A New Framework for Modeling Biological Vision and Brain Information Processing”, Annual Review of Vision Science, 1: 417–446.

  • Kriegesgorte, K. and P. Douglas, 2018, “Cognitive Computational Neuroscience”, Nature Neuroscience, 21: 1148–1160.

  • Krishevsky, A., I. Sutskever, and G. Hinton, 2012, “ImageNet Classification with Deep Convolutional Neural Networks”, Advances in Neural Information Processing Systems, 25: 1097–1105.

  • Krotov, D., and J. Hopfield, 2019, “Unsupervised Learning by Competing Hidden Units”, Proceedings of the National Academy of Sciences, 116: 7723–7731.

  • Ladyman, J., 2009, “What Does it Mean to Say that a Physical System Implements a Computation?”, Theoretical Computer Science, 410: 376–383.

  • LeCun, Y., Y. Bengio, and G. Hinton, 2015, “Deep Learning”, Nature, 521: 436–444.

  • Lewis, D., 1969, “Lucas against Mechanism”, Philosophy, 44: 231–3.

  • –––, 1972, “Psychophysical and Theoretical Identifications”, Australasian Journal of Philosophy, 50: 249–58.

  • –––, 1979, “Lucas Against Mechanism II”, Canadian Journal of Philosophy, 9: 373–376.

  • –––, 1994, “Reduction of Mind”, in A Companion to the Philosophy of Mind, S. Guttenplan (ed.), Oxford: Blackwell.

  • Lizier, J., B. Flecker, and P. Williams, 2013, “Towards a Synergy-based Account of Measuring Information Modification”, Proceedings of the 2013 IEEE Symposium on Artificial Life (ALIFE), Singapore: 43–51.

  • Ludwig, K. and S. Schneider, 2008, “Fodor’s Critique of the Classical Computational Theory of Mind”, Mind and Language, 23: 123–143.

  • Lucas, J.R., 1961, “Minds, Machines, and Gödel”, Philosophy, 36: 112–137.

  • Ma, W. J., 2019, “Bayesian Decision Models: A Primer”, Neuron, 104: 164–175.

  • Maass, W., 1997, “Networks of Spiking Neurons: The Next Generation of Neural Network Models”, Neural Networks, 10: 1659–1671.

  • MacLennan, B., 2012, “Analog Computation”, Computational Complexity, R. Meyers (ed.), New York: Springer.

  • Marblestone, A., G. Wayne, and K. Kording, 2016, “Toward an Integration of Deep Learning and Neuroscience”, Frontiers in Computational Neuroscience, 10: 1–41.

  • Marcus, G., 2001, The Algebraic Mind, Cambridge, MA: MIT Press.

  • Marr, D., 1982, Vision, San Francisco: W.H. Freeman.

  • McClelland, J., D. Rumelhart, and G. Hinton, 1986, “The Appeal of Parallel Distributed Processing”, in Rumelhart et al. 1986: 3–44.

  • McClelland, J., D. Rumelhart, and the PDP Research Group, 1987, Parallel Distributed Processing, vol. 2. Cambridge, MA: MIT Press.

  • McCulloch, W. and W. Pitts, 1943, “A Logical Calculus of the Ideas Immanent in Nervous Activity”, Bulletin of Mathematical Biophysics, 7: 115–133.

  • McDermott, D., 2001, Mind and Mechanism, Cambridge, MA: MIT Press.

  • Mendola, J., 2008, Anti-Externalism, Oxford: Oxford University Press.

  • Milkowski, M., 2013, Explaining the Computational Mind, Cambridge, MA: MIT Press.

  • Miller, P., 2018, An Introductory Course in Computational Neuroscience, Cambridge, MA: MIT Press.

  • Mole, C., 2014, “Dead Reckoning in the Desert Ant: A Defense of Connectionist Models”, Review of Philosophy and Psychology, 5: 277–290.

  • Murphy, K., 2012, Machine Learning: A Probabilistic Perspective, Cambridge, MA: MIT Press.

  • Naselaris, T., Bassett, D., Fletcher, A., Körding, K., Kriegeskorte, N., Nienborg, H., Poldrack, R., Shohamy, D., and Kay, K., 2018, “Cognitive Computational Neuroscience: A New Conference for an Emerging Discipline”, Trends in Cognitive Science, 22: 365–367.

  • Nagel, E. and J.R. Newman, 1958, Gödel’s Proof, New York: New York University Press.

  • Newell, A., 1990, Unified Theories of Cognition, Cambridge: Harvard University Press.

  • Newell, A. and H. Simon, 1956, “The Logic Theory Machine: A Complex Information Processing System”, IRE Transactions on Information Theory, IT-2, 3: 61–79.

  • –––, 1976, “Computer Science as Empirical Inquiry: Symbols and Search”, Communications of the ACM, 19: 113–126.

  • O’Keefe, J. and L. Nadel, 1978, The Hippocampus as a Cognitive Map, Oxford: Clarendon University Press.

  • Ockham, W., 1957, Summa Logicae, in his Philosophical Writings, A Selection, P. Boehner (ed. and trans.), London: Nelson.

  • Orhan, A. E. and Ma, W. J., 2017, “Efficient Probabilistic Inference in Generic Neural Networks Trained with Non-probabilistic Feedback ”, Nature Communications, 8: 1–14.

  • Peacocke, C., 1992, A Study of Concepts, Cambridge, MA: MIT Press.

  • –––, 1993, “Externalist Explanation”, Proceedings of the Aristotelian Society, 67: 203–230.

  • –––, 1994, “Content, Computation, and Externalism”, Mind and Language, 9: 303–335.

  • –––, 1999, “Computation as Involving Content: A Response to Egan”, Mind and Language, 14: 195–202.

  • Penrose, R., 1989, The Emperor’s New Mind: Concerning Computers, Minds, and the Laws of Physics, Oxford: Oxford University Press.

  • Perry, J., 1998, “Broadening the Mind”, Philosophy and Phenomenological Research, 58: 223–231.

  • Piantadosi, S., J. Tenenbaum, and N. Goodman, 2012, “Bootstrapping in a Language of Thought”, Cognition, 123: 199–217.

  • Piccinini, G., 2004, “Functionalism, Computationalism, and Mental States”, Studies in History and Philosophy of Science, 35: 811–833.

  • –––, 2007, “Computing Mechanisms”, Philosophy of Science, 74: 501–526.

  • –––, 2008a, “Computation Without Representation”, Philosophical Studies, 137: 205–241.

  • –––, 2008b, “Some Neural Networks Compute, Others Don’t”, Neural Networks, 21: 311–321.

  • –––, 2010, “The Resilience of Computationalism”, Philosophy of Science, 77: 852–861.

  • –––, 2012, “Computationalism”, in The Oxford Handbook of Philosophy and Cognitive Science, E. Margolis, R. Samuels, and S. Stich (eds), Oxford: Oxford University Press.

  • –––, 2015, Physical Computation: A Mechanistic Account, Oxford: Oxford University Press.

  • Piccinini, G. and A. Scarantino, 2010, “Computation vs. Information processing: Why their Difference Matters to Cognitive Science”, Studies in History and Philosophy of Science, 41: 237–246.

  • Piccinini, G. and S. Bahar, 2013, “Neural Computation and the Computational Theory of Cognition”, Cognitive Science, 37: 453–488.

  • Piccinini, G. and O. Shagrir, 2014, “Foundations of Computational Neuroscience”, Current Opinion in Neurobiology, 25: 25–30.

  • Pinker, S., 2005, “So How Does the Mind Work?”, Mind and Language, 20: 1–24.

  • Pinker, S. and A. Prince, 1988, “On Language and Connectionism”, Cognition, 28: 73–193.

  • Pouget, A., Beck, J., Ma., W. J., and Latham, P., 2013, “Probabilistic Brains: Knowns and Unknowns”, Nature Neuroscience, 16: 1170–1178.

  • Putnam, H., 1967, “Psychophysical Predicates”, in Art, Mind, and Religion, W. Capitan and D. Merrill (eds), Pittsburgh: University of Pittsburgh Press. Reprinted in Putnam 1975 as “The Nature of Mental States”: 429–440.

  • –––, 1975, Mind, Language, and Reality: Philosophical Papers, vol. 2, Cambridge: Cambridge University Press.

  • –––, 1983, Realism and Reason: Philosophical Papers, vol. 3. Cambridge: Cambridge University Press.

  • –––, 1988, Representation and Reality, Cambridge, MA: MIT Press.

  • –––, 1994, “The Best of All Possible Brains?”, The New York Times, November 20, 1994: 7.

  • Pylyshyn, Z., 1984, Computation and Cognition, Cambridge, MA: MIT Press.

  • Quine, W.V.O., 1960, Word and Object, Cambridge, MA: MIT Press.

  • Ramsey, W., S. Stich, and D. Rumelhart (eds), 1991, Philosophy and Connectionist Theory, Hillsdale: Lawrence Erlbaum Associates.

  • Rescorla, M., 2009a, “Chrysippus’s Dog as a Case Study in Non-Linguistic Cognition”, in The Philosophy of Animal Minds, R. Lurz (ed.), Cambridge: Cambridge University Press.

  • –––, 2009b, “Cognitive Maps and the Language of Thought”, The British Journal for the Philosophy of Science, 60: 377–407.

  • –––, 2012, “How to Integrate Representation into Computational Modeling, and Why We Should”, Journal of Cognitive Science, 13: 1–38.

  • –––, 2013, “Against Structuralist Theories of Computational Implementation”, British Journal for the Philosophy of Science, 64: 681–707.

  • –––, 2014a, “The Causal Relevance of Content to Computation”, Philosophy and Phenomenological Research, 88: 173–208.

  • –––, 2014b, “A Theory of Computational Implementation”, Synthese, 191: 1277–1307.

  • –––, 2015, “Bayesian Perceptual Psychology”, in The Oxford Handbook of the Philosophy of Perception, M. Matthen (ed.), Oxford: Oxford University Press.

  • –––, 2017a, “From Ockham to Turing—and Back Again”, in Turing 100: Philosophical Explorations of the Legacy of Alan Turing, (Boston Studies in the Philosophy and History), A. Bokulich and J. Floyd (eds), Springer.

  • –––, 2017b, “Levels of Computational Explanation”, in Philosophy and Computing: Essays in Epistemology, Philosophy of Mind, Logic, and Ethics, T. Powers (ed.), Cham: Springer.

  • –––, 2020, “A Realist Perspective on Bayesian Cognitive Science”, in Inference and Consciousness, A. Nes and T. Chan (eds.), New York: Routledge.

  • Rogers, T. and J. McClelland, 2014, “Parallel Distributed Processing at 25: Further Explorations of the Microstructure of Cognition”, Cognitive Science, 38: 1024–1077.

  • Rumelhart, D., 1989, “The Architecture of Mind: A Connectionist Approach”, in Foundations of Cognitive Science, M. Posner (ed.), Cambridge, MA: MIT Press.

  • Rumelhart, D., G. Hinton, and R. Williams, 1986, “Learning Representations by Back-propagating Errors”, Nature, 323: 533–536.

  • Rumelhart, D. and J. McClelland, 1986, “PDP Models and General Issues in Cognitive Science”, in Rumelhart et al. 1986: 110–146.

  • Rumelhart, D., J. McClelland, and the PDP Research Group, 1986, Parallel Distributed Processing, vol. 1. Cambridge: MIT Press.

  • Rupert, R., 2008, “Frege’s Puzzle and Frege Cases: Defending a Quasi-Syntactic Solution”, Cognitive Systems Research, 9: 76–91.

  • –––, 2009, Cognitive Systems and the Extended Mind, Oxford: Oxford University Press.

  • Russell, S. and P. Norvig, 2010, Artificial Intelligence: A Modern Approach, 3rd ed., New York: Prentice Hall.

  • Sawyer, S., 2000, “There Is No Viable Notion of Narrow Content”, in Contemporary Debates in Philosophy of Mind, B. McLaughlin and J. Cohen (eds), Malden: Blackwell.

  • Schneider, S., 2005, “Direct Reference, Psychological Explanation, and Frege Cases”, Mind and Language, 20: 423–447.

  • –––, 2011, The Language of Thought: A New Philosophical Direction, Cambridge, MA: MIT Press.

  • Searle, J., 1980, “Minds, Brains, and Programs”, Behavioral and Brain Sciences, 3: 417–457.

  • –––, 1990, “Is the Brain a Digital Computer?”, Proceedings and Addresses of the American Philosophical Association, 64: 21–37.

  • Segal, G., 2000, A Slim Book About Narrow Content, Cambridge, MA: MIT Press.

  • Shagrir, O., 2001, “Content, Computation, and Externalism”, Mind, 110: 369–400.

  • –––, 2006, “Why We View the Brain as a Computer”, Synthese, 153: 393–416.

  • –––, 2014, “Review of Explaining the Computational Theory of Mind, by Marcin Milkowski”, Notre Dame Review of Philosophy, January 2014.

  • –––, forthcoming, “In Defense of the Semantic View of Computation”, Synthese, first online 11 October 2018; doi:10.1007/s11229-018-01921-z

  • Shannon, C., 1948, “A Mathematical Theory of Communication”, Bell System Technical Journal 27: 379–423, 623–656.

  • Shapiro, S., 2003, “Truth, Mechanism, and Penrose’s New Argument”, Journal of Philosophical Logic, 32: 19–42.

  • Shea, N., 2013, “Naturalizing Representational Content”, Philosophy Compass, 8: 496–509.

  • –––, 2018, Representation in Cognitive Science, Oxford: Oxford University Press.

  • Sieg, W., 2009, “On Computability”, in Philosophy of Mathematics, A. Irvine (ed.), Burlington: Elsevier.

  • Siegelmann, H. and E. Sontag, 1991, “Turing Computability with Neural Nets”, Applied Mathematics Letters, 4: 77–80.

  • Siegelmann, H. and E. Sontag, 1995, “On the Computational Power of Neural Nets”, Journal of Computer and Science Systems, 50: 132–150.

  • Silverberg, A., 2006, “Chomsky and Egan on Computational Theories of Vision”, Minds and Machines, 16: 495–524.

  • Sloman, A., 1978, The Computer Revolution in Philosophy, Hassocks: The Harvester Press.

  • Smolensky, P., 1988, “On the Proper Treatment of Connectionism”, Behavioral and Brain Sciences, 11: 1–74.

  • –––, 1991, “Connectionism, Constituency, and the Language of Thought”, in Meaning in Mind: Fodor and His Critics, B. Loewer and G. Rey (eds), Cambridge: Blackwell.

  • Sperber, D., 2002, “In Defense of Massive Modularity”, in Language, Brain, and Cognitive Development: Essays in Honor of Jacques Mehler, E. Dupoux (ed.), Cambridge, MA: MIT Press.

  • Sprevak, M., 2010, “Computation, Individuation, and the Received View on Representation”, Studies in History and Philosophy of Science, 41: 260–270.

  • –––, 2019, “Triviality Arguments About Computational Implementation”, in Sprevak and Colombo 2019: 175–191.

  • –––, forthcoming, “Two Kinds of Information Processing in Cognition”, Review of Philosophy and Psychology.

  • Sprevak, M. and Colombo, M., 2019, The Routledge Handbook of the Computational Mind, New York: Routledge.

  • Stalnaker, R., 1999, Context and Content, Oxford: Oxford University Press.

  • Stich, S., 1983, From Folk Psychology to Cognitive Science, Cambridge, MA: MIT Press.

  • Thelen, E. and L. Smith, 1994, A Dynamical Systems Approach to the Development of Cognition and Action, Cambridge, MA: MIT Press.

  • Thrun, S., W. Burgard, and D. Fox, 2006, Probabilistic Robotics, Cambridge, MA: MIT Press.

  • Thrun, S., M. Montemerlo, and H. Dahlkamp, et al., 2006, “Stanley: The Robot That Won the DARPA Grand Challenge”, Journal of Field Robotics, 23: 661–692.

  • Tolman, E., 1948, “Cognitive Maps in Rats and Men”, Psychological Review, 55: 189–208.

  • Trappenberg, T., 2010, Fundamentals of Computational Neuroscience, Oxford: Oxford University Press.

  • Turing, A., 1936, “On Computable Numbers, with an Application to the Entscheidungsproblem”, Proceedings of the London Mathematical Society, 42: 230–265.

  • –––, 1950, “Computing Machinery and Intelligence”, Mind, 49: 433–460.

  • van Gelder, T., 1990, “Compositionality: A Connectionist Variation on a Classical Theme”,Cognitive Science, 14: 355–384.

  • van Gelder, T. and R. Port, 1995, “It’s About Time: An Overview of the Dynamical Approach to Cognition”, in Mind as Motion: Explorations in the Dynamics of Cognition, R. Port and T. van Gelder (eds), Cambridge, MA: MIT Press.

  • Varela, F., Thompson, E. and Rosch, E., 1991, The Embodied Mind: Cognitive Science and Human Experience, Cambridge, MA: MIT Press.

  • von Neumann, J., 1945, “First Draft of a Report on the EDVAC”, Moore School of Electrical Engineering, University of Pennsylvania. Philadelphia, PA.

  • Wakefield, J., 2002, “Broad versus Narrow Content in the Explanation of Action: Fodor on Frege Cases”, Philosophical Psychology, 15: 119–133.

  • Weiskopf, D., 2004, “The Place of Time in Cognition”, British Journal for the Philosophy of Science, 55: 87–105.

  • Whitehead, A.N. and B. Russell, 1925, Principia Mathematica, vol. 1, 2nd ed., Cambridge: Cambridge University Press.

  • Wilson, R., 2005, “What Computers (Still, Still) Can’t Do”, in New Essays in Philosophy of Language and Mind, R. Stainton, M. Ezcurdia, and C.D. Viger (eds). Canadian Journal of Philosophy, supplementary issue 30: 407–425.

  • Yablo, S., 1997, “Wide Causation”, Philosophical Perspectives, 11: 251–281.

  • –––, 2003, “Causal Relevance”, Philosophical Issues, 13: 316–327.

  • Zednik, C., 2019, “Computational Cognitive Neuroscience”, in Sprevak and Colombo 2019: 357–369.

  • Zylberberg, A., S. Dehaene, P. Roelfsema, and M. Sigman, 2011, “The Human Turing Machine”, Trends in Cognitive Science, 15: 293–300.

Academic Tools

Other Internet Resources

analogy and analogical reasoning | anomalous monism | causation: the metaphysics of | Chinese room argument | Church-Turing Thesis | cognitive science | computability and complexity | computation: in physical systems | computer science, philosophy of | computing: modern history of | connectionism | culture: and cognitive science | externalism about the mind | folk psychology: as mental simulation | frame problem | functionalism | Gödel, Kurt | Gödel, Kurt: incompleteness theorems | Hilbert, David: program in the foundations of mathematics | language of thought hypothesis | mental causation | mental content: causal theories of | mental content: narrow | mental content: teleological theories of | mental imagery | mental representation | mental representation: in medieval philosophy | mind/brain identity theory | models in science | multiple realizability | other minds | reasoning: automated | reasoning: defeasible | reduction, scientific | simulations in science | Turing, Alan | Turing machines | Turing test | zombies

Copyright © 2020 by Michael Rescorla <rescorla@ucla.edu>

最后更新于

Logo

道长哲学研讨会 2024