贝叶斯定理 Bayes’ Theorem (James Joyce)

首次发表于 2003 年 6 月 28 日;实质性修订于 2003 年 9 月 30 日

贝叶斯定理是一种用于计算条件概率的简单数学公式。它在认识论、统计学和归纳逻辑的_主观主义_或_贝叶斯_方法中占据重要地位。主观主义者认为,理性信念受概率法则的支配,他们在证据理论和经验学习模型中严重依赖条件概率。贝叶斯定理对这些研究领域至关重要,因为它简化了条件概率的计算,并阐明了主观主义立场的重要特征。事实上,定理的核心洞见——任何数据集都可以证实假设的真实性,只要该假设使其成为可能——是所有主观主义方法论的基石。


1. 条件概率和贝叶斯定理

在给定一组数据 E 的条件下,假设 H 的概率是假设与数据的合取的无条件概率与数据的无条件概率之比。

| (1.1) | 定义。 |

| --- | --- |

| | 在给定_E_的条件下,H_的概率定义为 P ​_E(H) = P(H & E) /P(E), 前提是这个比率的两个项都存在且 P(E) > 0。[1] |

为了说明,假设 J. Doe 是在 2000 年 1 月 1 日还活着的随机选择的美国人。根据美国疾病控制中心的数据,当时有 2,400 万人中的 2750 万人在 2000 年的日历年中去世。在大约 1660 万名老年人(75 岁或以上)中,约有 136 万人去世。我们的 J. Doe 在 2000 年去世的假设的无条件概率_H_,就是全体人口的死亡率 P(H) = 2,400 万/2750 万 = 0.00873。为了找到 J. Doe 在已知信息_E_(他或她是老年人)的条件下去世的概率,我们将他或她是去世的老年人的概率 P(H & E) = 136 万/2750 万 = 0.00495,除以他或她是老年人的概率 P(E) = 1660 万/2750 万 = 0.06036。因此,J. Doe 在他或她是老年人的条件下去世的概率 P​_E_(H) = P(H & E)/P(E) = 0.00495/0.06036 = 0.082。注意,总人口的规模从这个方程中消除,所以 P​_E_(H)只是去世的老年人的比例。应该将这个数量与 "逆" 条件下_H_的概率_E_,P​_H_(E) = P(H & E)/P(H) = 0.00495/0.00873 = 0.57 进行对比,这是在 "总人口" 中发生的去世的老年人的比例。

以下是(1.1)的一些直接结果:

  • 概率P​_E_ 是一个概率函数。[2]

  • 逻辑推论。如果 E 蕴含 H,那么 P​_E_(H) = 1。

  • 确定性的保持。如果 P(H) = 1,那么 P E(H) = 1。

  • 混合P(H) = P(E) P E(H) + P(~E) P~ E(H)。[3]

关于条件概率最重要的事实无疑是_贝叶斯定理_,其重要性首次被英国牧师托马斯·贝叶斯在他的遗作《解决几率学问题的一篇论文》(贝叶斯,1764 年)中所认识到。贝叶斯定理将一个假设在给定一组数据的条件下的“直接”概率 P E(H) 与数据在假设下的“逆向”概率 P H(E) 相关联。

| (1.2) | 贝叶斯定理。 |

| --- | --- |

| | P​_E_(H) = [P(H) /P(E)] P​_H_(E) |

在一个不幸的、但现在不可避免的术语选择中,统计学家将逆概率 P​_H_(E) 称为在 E 上的 H 的“似然度”。它表达了在概率 P 中编码的背景信息给定的数据下,假设 预测 数据的程度。

在上面讨论的例子中,J. Doe 在 2000 年去世的条件是高龄公民的一个相当强的预测因素。实际上,方程式 P​_H_(E) = 0.57 告诉我们,当年有 57%的总死亡人数发生在高龄人群中。贝叶斯定理让我们可以利用这个信息来计算 J. Doe 在成为高龄公民的情况下去世的“直接”概率。我们通过将“预测项” P​_H_(E) 乘以总人口死亡人数与高龄公民人数之比,即 P(H)/P(E) = 2.4M/16.6M = 0.144,来实现这一点。结果是 P​_E_(H) = 0.57 × 0.144 = 0.082,正如预期的那样。

尽管贝叶斯定理在数学上是微不足道的,但在计算条件概率时具有很大的价值,因为逆概率通常比直接概率更容易确定,也更不主观。对于关于 EH 的无条件概率有不同观点的人们,通常对 E 作为 H 的指标的价值存在分歧。即便如此,如果他们了解以下任何一种客观可得到的事实,即 (a) 在给定 H 的情况下 E 的客观概率,(b) 如果 H 为真,类似 E 的事件发生的频率,或者 (c) H 在逻辑上蕴含 E 的事实,他们可以就假设对数据的预测程度达成一致。科学家们经常设计实验,以便可以通过这些“客观”方式来确定可能性。然后,贝叶斯定理确保任何关于实验结果重要性的争议都可以追溯到关于 HE 的无条件概率的“主观”分歧。

当已知 P​_H_(E) 和 P~H(E) 时,实验者甚至不需要知道 E 的概率就可以使用贝叶斯定理来确定 P​_E_(H) 的值。

| (1.3) | 贝叶斯定理(第二形式)[4] |

| --- | --- |

| | P​_E_(H) = P(H)P​_H_(E) / [P(H)P​_H_(E) + P(~H ) P~​_H_(E)] |

在这种情况下,贝叶斯定理对于从效果推断原因特别有用,因为通常很容易辨别出在假定原因存在或不存在的情况下,效果的概率。例如,医生经常使用已知患病率的诊断测试来筛查疾病,这些测试具有公认的_敏感性_和_特异性_。测试的敏感性,即“真阳性”率,是患病者测试结果为阳性的次数占患病者总数的比例。测试的特异性,即“真阴性”率,是健康患者测试结果为阴性的比例。如果我们将_H_表示为患者患病的事件,将_E_表示为她测试结果为阳性的事件,那么测试的敏感性和特异性分别由概率 P​_H_(E)和 P~​_H_( ~E)给出,而人群中该疾病的“基线”患病率为 P(H)。根据这些关于疾病对测试结果的影响的输入,可以使用(1.3)来确定在测试结果为阳性的情况下患病的概率。有关此过程的更详细说明,请参见《示例、表格和证明概述》中的 示例 1

2. 贝叶斯定理的特殊形式

贝叶斯定理可以用多种形式表达,这些形式对于不同的目的都很有用。其中一种版本采用了鲁道夫·卡尔纳普所称的“相关商”或“概率比率”(Carnap 1962, 466)。这个因子_PR ( H *, * E *) = * P ​_E(H) /P(H)表示了在事件_E_发生的条件下,事件_H_的无条件概率必须乘以的倍数,以得到事件_H_在事件_E_发生的条件下的概率。贝叶斯定理等价于一个简单的概率比率的对称原理。

| (1.4) | 概率比率规则。 |

| --- | --- |

| | PR(H, E) = PR(E, H) |

右侧的术语提供了一种衡量 H 预测 E 的程度的方法。如果我们将_​ P ​ ( E ) 视为表达了在_​P _中编码的背景信息给出的_​E 的“基线”可预测性,将_​ P H ( E) 视为在这个背景下添加了_​H _后的_​E 的可预测性,那么_​ PR ​ ( E *,*​ H ) 捕捉了知道_​H 相对于基线使_​ E * *更可预测或更不可预测的程度:*​* PR ​ ( E *,*​ H ) = 0 意味着_​H 绝对预测 ~ E *; PR ​ ( E ,​ H ​ ) = 1 意味着添加​ H * 不会改变基线预测;​* PR ​ ( E ,​ H ​ ) = 1​ * /P ​ ( E ) 意味着​ H * 绝对预测​ E ​ 。由于​ P ​ ( E )) =​ P ​**T**​ ( E)),其中 T 是任何逻辑真理,我们可以将 (1.4) 理解为告诉我们

在一组数据的条件下,假设的概率等于假设的无条件概率乘以假设作为数据预测的一个重要性超过一个重言的程度。

在我们的 J. Doe 的例子中,通过比较在 J. Doe 于 2000 年去世的情况下高年级地位的可预测性与在不知道他或她的死亡信息的情况下的可预测性,得到了_PR ( H *, * E )。将前者的 "预测项" 除以后者,得到 PR ( H *, * E *) = * P ​_H(E)/P(E) = 0.57/0.06036 = 9.44。因此,作为 2000 年高年级地位的预测因素,知道 J. Doe 去世的情况比不知道她是否活着或去世要好九倍多。

贝叶斯定理的另一种有用形式是 "赔率规则"。在赌徒的行话中,一个假设的 "赔率" 是其概率除以其否定的概率:O(H) = P(H)/P(~H)。因此,例如,一匹赛马在一场比赛中获胜的赔率为 7 比 5,即有 7/12 的机会获胜和 5/12 的机会失败。要理解概率和赔率之间的区别,可以将概率看作是与矛盾的概率和重言的概率之间距离的 "分数",这样 P(H) = p_表示_H_成为真的可能性是矛盾的_p_倍。相比之下,写成 O ( H ) = [ P ( H *) − * P ( F )]/[ P ( T *) − * P ( H )](其中 F_是某个逻辑矛盾)可以清楚地表明 O(H)表示的是_H_的概率超过矛盾的概率的数量与其被重言的概率超过的数量之比。因此,"概率说" 和 "赔率说" 之间的区别对应于说 "我们已经完成了三分之二" 和说 "我们已经走过的路是我们还要走的两倍" 之间的区别。

概率比的类比是 "赔率比" OR(H, E) = O​_E_(H)/O**(H),即将_H_的无条件赔率乘以多少倍可以得到其在条件_E_下的赔率。贝叶斯定理等价于关于赔率比的以下事实:

| (1.5) | 赔率比例规则。 |

| --- | --- |

| | OR(H, E) = P​_H_(E) /P~H(E) |

注意(1.4)和(1.5)之间的相似性。虽然它们各自采用了不同的方式来_表达_概率,但它们都展示了如何通过乘以涉及逆概率的因子,从而得到关于_E_条件下_H_的概率的_表达式_。

在(1.5)中出现的数量_LR H E )= * P ​_H(E) /P​~H* E )是给定 E 的情况下 H 似然比 。在像示例 1 中描述的测试情况下,似然比是测试的真阳性率除以假阳性率: LR~ = 灵敏度/(1 - 特异度)。与概率比一样,我们可以将似然比解释为​~H 预测 E 的程度。然而,与其将给定 H E 的概率与其无条件概率进行比较,我们现在将其与给定~​_H_的条件概率进行比较。因此,LRHE)是假设作为数据预测因素超越其否定的程度。贝叶斯定理再次告诉我们如何将条件概率分解为无条件概率和预测能力的度量。

给定一组数据的假设的几率等于假设的无条件几率乘以它作为数据预测因素超越其否定的程度。

在我们的 J. Doe 示例中,通过比较 J. Doe 在 2000 年去世时高年级身份的可预测性与他或她活到年底的可预测性,可以得到_LR H E )。将前者的 "预测项" 除以后者得到 LR H E )= * P ​_H(E)/P~H*(E)= 0.57/0.056 = 10.12。因此,作为 2000 年高年级身份的预测因素,知道 J. Doe 去世的信息比知道他或她活着的信息要好十倍以上。

"概率比率" 和 "几率比率" 版本的贝叶斯定理之间的相似性可以进一步发展,如果我们将_H_的概率表示为某个其他假设_H_​_的概率的倍数,使用相对概率函数​_B**( H , H) =** P(​ H**) /P(_ H )。很明显,**​B 是对 P O 的推广,因为 ​*P**(* H ) =** B *_​ ( H , T​ ),而_​ O _​ ( H ) = _ B _​ ( H , ~ H*)。通过比较 *B**的条件和无条件值,我们得到了贝叶斯因子:

BR(H, *H**​ * ; ** ** E *​ * ) = ** _B​_E*(H, _H_​ ** )*​ /B( H , H​ ****) = [****​ P**​_E*( H *) * /P ​_E(_H_​ _)]​ / [​P_​ ( H *)​ * /P ​ ( H)].

我们还可以通过设置_LR _(H, H**​ ; E) = _ P​_H*(E) /P​_H(​E​ )来推广似然比。这将​E​在基于_​H​_和基于_H**的可预测性进行比较。我们可以使用这两个量来制定一个更一般的贝叶斯定理形式。

| (1.6) | 贝叶斯定理(一般形式) |

| --- | --- |

| | BR(H, H*;* E) = LR( H*, H*; E) |

(1.6)的信息是这样的:

两个假设在一组数据条件下的概率比等于它们无条件概率的比值乘以第一个假设相对于第二个假设作为数据预测器的程度。

贝叶斯定理的不同版本只在于用于表示无条件概率(P(H), O(H), B(H))的函数以及用于表示预测能力的似然项(PR(E, H), LR(H, E), LR(H, H*; E))。但在每种情况下,基本信息是相同的:

条件概率 = 无条件概率 × 预测能力

(1.2)-(1.6)是贝叶斯定理的乘法形式,它们使用除法来比较无条件概率和条件概率之间的差异。有时,这些比较最好通过用“差异”替换比率来以加法方式表达。下表给出了每个比率度量的加法类比。

| | |

| --- | --- |表 1

| 比率 | 差异 |

| Probability Ratio PR(H, E) = P​_E_(H) /P(H) | Probability Difference PD(H, E) = P​_E_(H) − P(H) |

| Odds Ratio OR(H, E) = O​_E_(H) /O(H) | Odds Difference OD(H, E) = O​_E_(H) − O(H) |

| 贝叶斯因子 BR(H, H**​ **; E ​ **) =**​ **B **** E*(**** H , _H​ *)*​ /B(*** H *,*​H​ ) | 贝叶斯差异< br>**​BD​ **(**​H, *H​ ;​**E**​ ) =​B​E(H, H) −_​B***​ ( H*, H*) |

我们可以使用贝叶斯定理得到(1.4)-(1.6)的加法类比,这里展示了它们的乘法类比:

| | | |

| --- | --- | --- |表 2

| | 比率 | 差异 |

| (1.4) | PR(H, E) = PR(E, H) = P​_H_(E) /P(E) | PD(H, E) = P(H) [PR(E, H) − 1] |

| (1.5) | OR(H, E) = LR(H, E) = P​_H_(E) /P~H(E) | OD(H, E) = O(H) [OR(H, E) − 1] |

| (1.6) | BR(H, H*;* E) = LR( H , H *​ * ; ** ** E *​ * ) = ** ** P H ​ ( E )​ * /P H **( ​ E**​ * ) | ** ** BD ​ **( ​ **H***​ *, H; E) = ** B (H, _H_​ ** ) [ ** BR *(*​H**​ , H; E) − 1] |

注意每个加法测度是通过将_H_的无条件概率(在相关的尺度上表示为 POB)乘以相应的乘法测度减 1 来获得的。

尽管本节的结果对于任何使用概率计算的人都有用,但对于主观主义者或“贝叶斯主义”方法在统计学、认识论和归纳推理中具有特殊的相关性。主观主义者在他们的证据支持理论和经验学习的解释中严重依赖条件概率。鉴于贝叶斯定理是关于条件概率最重要的事实,它在主观主义方法论中占据重要地位是毫不奇怪的。

3. 贝叶斯定理在主观主义证据解释中的作用

主观主义者认为信念存在不同程度的强度,并且理想理性人的分级信念可以用_主观概率函数_ P 来表示。对于每个假设 H,该人对 H 的真实性有一个坚定的意见,P(H) 衡量了她对 H 的信心水平(或者说是 "信念程度")[6]。条件信念通过条件概率来表示,因此 P​_E_(H) 衡量了在假设 E 是事实的情况下,该人对 H 的信心[7]。

主观主义计划最具影响力的特点之一是其对_证据支持_的解释。这个_贝叶斯证实理论_的指导思想如下:

  • 证实相对性。证据关系必须相对于个体及其信念程度来看。

  • 证据比例主义。 [8] 一个理性的信仰者会根据她对假设 H 的_全部证据_ 来调整她对 H 的信心,以便她对 H 的主观概率反映了她支持或反对其真实性的整体平衡。

  • 逐步确认。 [9] 一组数据对 H 提供了_逐步_的证据,以至于在数据的条件下,H 的概率提高。

第一个原则表明,关于证据关系的陈述总是隐含地涉及到人们及其信念程度,因此,例如,"EH 的证据" 实际上应该理解为 "E 是相对于主观概率 P 所编码的信息而言,对 H 的证据"。

根据证据比例主义,一个主体对于 H 的真实性的证据越强,她对 H 的信心水平就应该越高。同样地,当 E 的假设加入到 H 的真实性的证据中时,她对于在 E 条件下的 H 的信心水平也应该与证据的强度成正比。准确界定一个人的证据是一件非常微妙的事情,解释她的信念如何与之 "成比例" 更是如此。然而,只有当主观概率的差异反映在总证据的差异中时,增量证据才能在条件概率和无条件概率之间产生意义。

一项数据对于一个主体来说,如果接收该数据增加或减少了她对假设真实性的总证据,那么它就为该假设提供了增量证据。当概率用于衡量总证据时,E 对 H 提供的证据增量是 P​_E_(H)和 P(H)之间的差异。当使用赔率时,它是 O​_E_(H)和 O(H)之间的差异。请参见附加文档 "示例、表格和证明概述" 中的 示例 2,该示例说明了总证据和增量证据之间的差异,并解释了由于未能正确区分这两者而可能导致的 "基础率谬误"。

区分与总证据相关的两个附属概念将会很有用。

对于 H 的净证据是主体对 H 的总证据超过对~H 的总证据的程度。

对于 H 而言,总证据的平衡超过 H_​ 的程度取决于主体对 H 的总证据超过对 H ​_的总证据的程度。

这些概念的确切内容将取决于如何理解和衡量总证据,以及如何描述总证据的差异。例如,如果总证据以概率表示,并且差异被视为比率,则 H 的净证据为 P(H)/P(~H)。如果总证据以赔率表示,并且差异用于表示差异,则 H 的净证据将为 O(H) - O(~H)。读者可以参考 表 3(在补充文件中)以获取完整的可能性列表。

正如这些评论所清楚表明的那样,人们可以将 O(H)解释为净证据的度量或总证据的度量。为了看出区别,想象一下,从一个已知包含 10,000 个红色或黑色球的罐子中,随机有放回地抽取了 750 个红球和 250 个黑球。假设这是我们关于罐子内容的唯一证据,合理地设定 P(Red) = 0.75 和 P(_Red_​) = 0.25。在将概率解释为总证据的情况下,这些分配反映了我们对​~Red 有大量证据支持(即 1,000 次抽取中有 750 次是红色)以及我们也有一些反对它的证据(即抽取中有 250 次是黑色)。 Red 的净证据就是我们对 Red 的总证据和我们对 Red 的总反证据之间的差异。这可以通过乘法表达,即我们看到的红球抽取次数是黑球抽取次数的三倍,也就是说 O ( Red ) = 3。或者,我们可以将 O ( Red )作为总证据的度量,将我们对 Red 的证据视为红球与黑球抽取的比率,而不是红球的总数,将我们对~​_Red_的证据视为黑球与红球的比率,而不是黑球的总数。虽然使用 O 作为总证据或净证据的度量对于关于假设的绝对总证据量的问题几乎没有影响(因为 O(H)是 P(H)的一个递增函数),但在考虑基于新信息的条件下总证据的增量变化时,它可能会产生重大差异。

对于那些试图描述归纳推理的正确模式并提供科学方法论的“合理重建”的哲学家来说,增量证据往往是他们工作的关键。当科学家(或普通人)说_E_支持或证实_H_时,他们通常是指了解_E_的真实性将增加对_H_真实性的总证据量。由于主观主义者将总证据描述为主观概率或赔率,他们用这些数量的变化来分析增量证据。在这种观点下,描述增量证据强度的最简单方法是通过对条件概率或赔率与无条件概率或赔率进行序数比较。

| (2.1) | 增量证据的比较性解释。 |

| --- | --- |

| | 相对于主观概率函数 P, * E 如果且仅如果 P​_E_(H) 大于(小于,等于)P(H),则逐步确认(反证,与 H 无关)。 * 如果且仅如果 P​_E_(H) 超过 P​*E(*​H),则 H E 获得更大的证据支持增量(或更小的减量)比从 E 获得的更多。 |

这些等价关系在用赔率替代概率后仍然成立。因此,证据主义理论的这一部分不依赖于如何衡量总体证据。

贝叶斯定理有助于通过明确指出_H_对_E_的预测来阐明(2.1)的内容。这一观察成为以下关于增量确认的结论的基础(只要 1 > P(H), P(E) > 0)。

| (2.1a) | 如果_E_增量确认_H_,那么_H_也会增量确认_E_。 |

| --- | --- |

| (2.1b) | 如果 E 逐渐确认 H,那么 E 逐渐反证 ~H。 |

| (2.1c) | 如果 H 蕴含 E,那么 E 逐渐确认 H。 |

| (2.1d) | 如果 P​_H_(E) = P​_H_(*E ),那么 H E 获得的逐渐支持要比从 E 获得的逐渐支持更多,当且仅当 E 的无条件概率小于 E 的无条件概率。 |

| (2.1e) | Weak Likelihood Principle. E provides incremental evidence for H if and only if P​_H_(E) > P​~H ( E ). More generally, if~ P​_H_​(​_E_​) > ~~P​_H_​*(​_E_​) and~ ~P~​_H*(~~E ~~~~) ≥~ ~P~​_H**(~* E*), then E provides more incremental evidence for H than for H*. |

(2.1a) 告诉我们,逐步确认是一种相互加强的过程:将 E 视为 H 的证据的人,对于两个命题同时成立的可能性比只有一个命题成立的可能性更有信心。

(2.1b) 表明相关证据必须能够区分被测试假设的真实性和虚假性。

(2.1c) 为 假设演绎模型的确认 提供了一种主观理由。根据这个模型,假设通过它们所涉及的任何证据逐步得到确认。虽然主观主义者拒绝了证据关系可以以与信念无关的方式来描述的观点 —— 贝叶斯确认总是相对于一个人及其主观概率来看的 —— 但他们试图通过指出,对于那些尚未对假设或证据做出决定的人来说,假设通过它们所涉及的证据逐步得到支持。更准确地说,如果 H 涉及 E,那么 P​_E_(H) = P(H) /P(E),当 1 > P(E), P(H) > 0 时,这个比值超过了 P(H)。这解释了为什么科学家经常试图设计符合 H-D 范式的实验。即使证据关系是相对于主观概率的,对于那些尚未对假设或数据做出决定的人来说,测试假设涉及数据的实验仍然被认为是证据上相关的。逐步确认的程度会因人而异,取决于他们对 HE 的先验置信水平,但每个人都会同意数据至少在某种程度上逐步支持假设。

主观主义者援引(2.1d)来解释为什么科学家经常认为不太可能或令人惊讶的证据具有比先前已知的证据更多的证实潜力。虽然通常情况下不是真的,不太可能的证据具有更多的证实潜力,但是当逆概率值 P​_H_(E)保持不变时,_E_相对于_H_的增量证实能力与_E_的无条件概率成反比。如果_H_既蕴含_E_又蕴含_E**,那么贝叶斯定理表明两者中概率较小的更强烈地支持_H*。例如,即使心脏病发作总是伴随剧烈的胸痛和呼吸急促,但前者对于心脏病的证据要比后者更好,仅仅是因为剧烈的胸痛比呼吸急促要少得多。

(2.1e)捕捉到贝叶斯定理在证实理论中的一个核心信息。假设_H_是相对于_H**更好的预测_E_真值的均匀预测,当(a)_ H_比_H 更强烈地预测​_ E *​ * ,以及(b)​ ~~ H _ ~~​ _ H 更强烈地预测~_E*。根据弱似然原则,对数据而言,均匀更好地预测数据的假设受到更好的支持。例如,小约翰尼是基督徒这个事实对于认为他的父母是基督徒而不是印度教徒的证据更有说服力,因为(a)相对于印度教徒,基督徒父母中基督徒孩子的比例要高得多,以及(b)非基督徒父母中非印度教徒父母的比例要高得多。

贝叶斯定理还可以作为开发和评估_定量_证据支持度量的基础。表 2 中列出的结果表明,PROR、_PD*和 *OD_这四个函数在证实的最简单问题上是一致的:_E_是否为_H_提供了增量证据?

| (2.2) | 推论。 |

| --- | --- |

| | 以下每个陈述都等同于断言:E_对_H_提供了增量证据: PR_(H, E) > 1, OR(H, E) > 1, PD(H, E) > 0, OD(H, E) > 0. |

因此,所有四个措施都与(2.1)中给出的增量证据的比较说明相一致。

考虑到所有这些一致性,不应该令人惊讶的是,PR(H, E)、OR(H, E)和_PD ( H *, * E )都被提出作为衡量_E_对_H_提供的增量支持的度量。[11]虽然 OD_(H, E)没有被建议用于此目的,但出于对称性的原因,我们将考虑它。一些作者认为其中一个函数是唯一正确的增量证据度量;而其他人则认为最好使用多种度量来捕捉不同的证据关系。虽然这不是解决这些问题的地方,但我们可以借助贝叶斯定理来帮助理解各种函数的度量内容,并描述它们之间的形式关系。

所有四个措施在关于不同数据项为一个固定假设提供的增量证据的_比较_数量方面达成一致。特别是,它们在以下从增量证据中得出的概念上达成顺序一致:

对于_H_来说, E_提供的_有效证据增量 [​ 12 ​ ]是指 E 提供的增量证据超过~ E_提供的增量证据的数量。

_E_和_E**提供给_H_的增量证据之间的_差异_是指_E_提供给_H_的增量证据超过_E**提供给_H_的增量证据的数量。

有效证据取决于一个人对_E_的观点对于她对_H_的总体证据的程度。当 P​_E_(H)和 P​~E ( H )(或 O E ( H )和 O~​_E_(H))相差较大时,一个人对_E_的信念对她对_H_的信念有很大影响:从她的角度来看,_E_的真值在涉及_H_的真值问题时非常重要。E_和_E _之间的增量证据差异较大告诉我们,学习_E_比学习_E__更大程度地增加了主体对_H_的总体证据。读者可以参考 表 4(在补充部分中)获取有效证据和差异证据的定量度量。

(2.1)的第二条款告诉我们,只有当在给定_E_的条件下,H_的概率超过在给定_E**的条件下的概率时, E_提供的增量证据才比_E**更多。然后,很容易证明在有效证据和增量证据差异的问题上,所有四个增量支持度量在顺序上是一致的。

| (2.3) | 推论。 |

| --- | --- |

|| 对于任何具有正概率的_H_、E_和_E,以下是等价的: * _E_对于_H_提供的增量证据比_E_对于_H_提供的增量证据更多 * PR(H, E) > PR(H, E*)< br>* OR(H, E) > OR(H, E*)< br>* PD(H, E) > PD(H, E*)< br>* OD(H, E) > OD(H, E*) |

这四个增量支持度的度量可以在一个数据项增量确认两个不同假设的程度上产生分歧。示例 3示例 4示例 5(在补充中)展示了这种情况发生的各种方式。

所有这些度量之间的差异最终与以下两个问题有关:(a)支持一个假设的总证据是否应该用概率还是用几率来衡量,以及(b)总证据中的差异是否最好用比率还是差异来捕捉。下表中的行对应于不同的总证据度量,列对应于不同的处理差异的方式。

| | 比率 | 差异 |

| P = Total | PR(H, E) = P​_E_(H) /P(H) | PD(H, E) = P​_E_(H) − P(H) |

| O = Total | OR(H, E) = O​_E_(H) /O(H) | OD(H, E) = O​_E_(H) − O(H) |

可以为净证据的度量和总证据平衡的度量构建类似的表格。请参见补充材料中的 表 5A

我们可以使用贝叶斯定理的各种形式,通过将每个度量重写为似然比的术语来澄清它们之间的相似性和差异。

| | | |

| --- | --- | --- |表 6:以似然比表示的四个度量

| | 比率 | 差异 |

| P = Total | PR(H, E) = LR(H, T; E) | PD(H, E) = P(H)[LR(H, T; E) − 1] |

| O = Total | OR(H, E) = LR(H, ~H; E) | OD(H, E)= O(H)[LR(H, ~H; E) − 1] |

这个表格显示了每个乘法度量和其加法对应物之间存在两个差异。首先,在给定的乘法度量中出现的似然项在其相关的加法度量中减少了 1。其次,在每个加法度量中,减少的似然项乘以一个表示_H_的概率的表达式:P(H)或 O(H),具体情况而定。第一个差异没有任何区别;这仅仅是因为乘法和加法度量使用了不同的零点来衡量证据。如果我们将概率独立的点 P​_E_(H) = P(H)作为一个自然的共同零点,并从每个乘法度量中减去 1,[13]那么等效的似然项将出现在两列中。

在给定行中,措施之间的真正区别涉及无条件概率对增量确认关系的影响。在右列中,E_对_H_提供的增量证据程度与以 P ( T_)或 P(~~H_​)为单位表示的~~​~H 的概率成正比。在左列中,H 的概率对 EH 提供的增量证据量没有影响,一旦 P H(E)和 P (E)或 P~​_H(E)被固定。[14]根据贝叶斯定理,比率测量和差异测量之间的差异归结为一个问题:

当两个假设对数据的预测一样准确时,给定的数据是否为更可能的假设提供了比较少可能的假设更大的证据支持增量?

差异测量回答是,比率测量回答否。

贝叶斯定理还可以帮助我们理解行之间的差异。在给定行中,度量值对于增量确认中的“可预测性”角色达成一致。在顶部行中,E_对_H_的增量证据与 P ​_H(E) /P(E)成线性增加,而在底部行中,它与 P​_H_(E) /P~H(E)成线性增加。因此,当概率度量总体证据时,重要的是_H_相对于_T_作为_E_的预测因子的程度,而当赔率度量总体证据时,重要的是_H_相对于~_H_作为_E_的预测因子的程度。

这里的核心问题涉及似然比的地位。虽然大家都同意它在任何定量证据理论中应起到主导作用,但对于它所捕捉到的证据关系有不同的观点。有三种可能的解释。

| | |

| --- | --- |Table 7: Three interpretations of the likelihood ratio

| 作为总证据阅读的概率 | * PR(H, E) 衡量总证据的递增变化。 * LR(H, E) 衡量净证据的递增变化。 * LR(H, H*,* E​ _) 衡量_E_对_H_相对于_H**的证据平衡的递增变化。 |

| 作为总证据阅读的赔率 | * LR(H, E) 衡量总证据的递增变化。 * LR(H, E)2 衡量净证据的递增变化。 * LR(H, *H_​ * ; * * E *​ * )/**​LR ​ (~​ H ***, ~*H**;* * E ) 衡量_E_对_H_相对于_H**的证据平衡的递增变化。 |

| "似然主义" 阅读 | * 既不是 P 也不是 O 衡量总证据,因为证据关系本质上是_比较性的_;它们总是涉及证据的平衡。 * LR(H, E) 衡量_E_对_H_相对于_H**的证据平衡。< br>_ LR(H, H*;* E​ _) 衡量_E_对_H_相对于_H**的证据平衡。 |

在第一次阅读时,使用概率比和使用似然比来衡量证据之间根本没有冲突。一旦我们明确了总证据、净证据和证据平衡之间的区别,我们就会发现_PR ( H *, * E )、 LR ( H *, * E )和 LR_(H, H; E)各自衡量了一个重要的证据关系,但它们所衡量的关系有着重要的不同。

当赔率衡量总证据时,PR(H, E)和_LR_(H, H; E)在证据理论中并不起到基本作用。在给定关于~H 给定 E 的概率比的信息的情况下,H 给定 E 的概率比的变化仅仅表示增量证据的变化。同样,当给定关于 ​_H_和_H_给定_E_的似然比的信息时,_H_和_H_给定_E_的似然比的变化仅仅表示证据平衡的变化。因此,虽然这两个函数都可以作为一个有意义的确认度量的组成部分,但是单独看,它们都不能告诉我们任何关于增量证据的信息。

第三种观点,“似然主义”,在非贝叶斯统计学家中很受欢迎。它的支持者否认了证据比例主义。他们认为一个人对假设的主观概率仅仅反映了她对其真实性的不确定程度;它不需要以任何方式与她对其支持证据的数量相联系。[15]科学上有意义的证据关系是由似然比而不是主观概率来捕捉的。以下是该立场的两个经典表述。

所有数据提供的关于两个假设相对优劣的信息都包含在假设在数据上的似然比中。(Edwards 1972, 30)

实验结果的“证据意义”完全由似然函数所描述...科学期刊中的实验结果报告原则上应该是对似然函数的描述。(Brinbaum 1962, 272)

根据这个观点,关于_H_对_E_的证据意义的一切都体现在对弱似然原则的以下概括中:

似然法则。如果_H_暗示了_E_的概率为_x_,而_H**暗示了_E_的概率为_x ,那么当且仅当​_x_​超过*x,且似然比_x_​ /​*x 衡量了这种支持的强度时,*​E​_就是支持_​H​_而不是_H**的证据。(Hacking 1965, 106-109),(Royall 1997, 3)

生物统计学家理查德·罗亚尔(Richard Royall)是似然主义的特别明晰的辩护者(Royall 1997)。他坚持认为,任何科学上可接受的证据概念都必须仅通过似然性来分析_E_对_H_的证据影响;不应该涉及任何人对_E_或_H_的无条件概率的看法。这是因为似然性比无条件概率更为熟知和客观。罗亚尔强烈反对通过无条件概率和条件概率之间的差异来衡量增量证据的观点。以下是他的抱怨要点:

而[LR(H, H*; E ​ )]衡量了对特定备择假设 H 的支持,而不考虑两个假设的先验概率或其他可能被考虑的假设,而改变概率的法则[由 *​_PR_​ **(**​_H*, * E )衡量]衡量了对特定先验分布下的_H_及其备择假设的支持...由于改变概率的法则依赖于通常未知和/或个人的先验概率分布,因此在科学论述中其有限的实用性。尽管根据似然法则,你和我都同意给定的证据支持_H_而不是_H**,以及_H 而不是 H *​_和_H * ,但我们可能会对是否它是支持 H 的证据(基于改变概率的法则)产生分歧,纯粹基于我们对 H *​ * 、*H 和_H**的先验概率的不同判断。(Royall 1997, 10-11,符号略有变化)

Royall 的观点是,概率比或概率差都无法捕捉到科学所需的客观证据,因为它们的值取决于“主观”项 P(E)和 P(H),而不仅仅取决于“客观”似然 P​_H_(E)和 P~H(E)。

对于这种评估是否同意,将取决于哲学气质,特别是对于在对证据关系进行描述时是否愿意容忍主观概率。这还将关键取决于一个人对似然比是否比普通主观概率更为了解和客观的程度。像似然法则中设想的那种情况,其中假设_推导出_数据的确定概率是相对罕见的。因此,除非愿意采用适用范围非常有限的证据理论,否则在从假设到数据的预测联系本身是_归纳_推理结果的情况下,很多事情将取决于在何种情况下确定客观似然性的难易程度。无论对于这些问题的立场如何,似然比在任何概率证据描述中都将起到核心作用。

事实上,弱似然原则(2.1e)概括了一种最小形式的贝叶斯主义,所有各方都可以同意。当以似然度重新表述时,这一点最为明确。

| (2.1e) | The Weak Likelihood Principle. (expressed in terms of likelihood ratios) |

| --- | --- |

| | 如果 LR(H, H*;* E) ≥ 1 并且 LR(~ H , ~ H ; ~​_E_​ ) ≥ 1,其中一个不等式是严格的,那么 E 对于 H 提供了比对于 H _更多的增量证据,而 ~_​E _对于 ~_​H_提供了比对于 ~_H** 更多的增量证据。 |

可能性主义者将支持(2.1e),因为其前提中描述的关系仅依赖于逆概率。无论是“概率”还是“赔率”解释总体证据的支持者都会接受(2.1e),因为满足其前提可以确保在条件为_E_的情况下,_H_的概率和赔率相对于_H_的概率和赔率都有更大的增加。事实上,弱似然原则必须是任何值得被称为“贝叶斯主义”的证据相关性解释的重要组成部分。否认它就是误解贝叶斯定理在证据问题上的核心信息,即假设通过其预测的数据得到确认。正如我们将在下一节中看到的,这种“最小化”的贝叶斯主义在主观主义的经验学习模型中起着重要作用。

4. 贝叶斯定理在主观主义的学习模型中的作用

主观主义者将学习视为一种“信念修正”的过程,其中“先验”主观概率 P 被包含新获得信息的“后验”概率 Q 所取代。这个过程分为两个阶段。首先,主体的一些概率通过经验、直觉、记忆或其他“非推理”学习过程进行“直接改变”。其次,主体“更新”其余的观点,使它们与新获得的知识保持一致。

许多主观主义者满足于将最初的信念变化视为独特的,并与信徒先前的观点无关。然而,只要学习过程的第一阶段被理解为非推理的,主观主义就可以与“外在主义”认识论相兼容,该认识论允许对信念变化进行批评,以可靠性的角度来评估生成这些变化的因果过程。它甚至可以适应这样的思想,即经验的直接影响可能在因果上取决于信徒的先验概率。

主观主义者对学习过程的第二个推理阶段进行了详细研究。在这里,即时的信念变化被视为施加了“后验概率 Q 具有某种属性”的约束。目标是发现经验倾向于施加哪些约束,并解释如何使用个人的“先验”观点来证明在满足给定约束的众多后验概率中选择的合理性。主观主义者通过假设代理人有权选择任何与其先前观点最小偏离的合格后验概率来解决后一个问题。这是一种“不草率下结论”的要求。我们将其解释为合理学习者应该根据他们获得的证据的强度来比例调整他们的信念的自然结果。

最简单的学习经验是学习者对某个命题 E 的真实性变得确定,而之前对此持不确定态度。在这里,约束是与 E 不一致的所有假设必须被赋予零概率。主观主义者将这种学习建模为“简单条件化”,即每个命题 H 的先验概率被后验概率取代,后验概率与 H 在 E 条件下的先验概率相一致。

| (3.1) | 简单条件化 |

| --- | --- |

| | 如果一个人有一个“先验”,使得 0 < P(E) < 1,并且她有一个学习经验,其唯一的直接影响是将她对 E 的主观概率提高到 1,那么她对于任何命题 H 的学习后“后验”应该是 Q(H) = P​_E_(H)。 |

简而言之,一个理性的信徒如果确信_E_是真实的,应该将这个信息纳入她的信念系统中,并以此为条件进行推理。

尽管简单的条件推理作为一种理想是有用的,但它并不普遍适用,因为它要求学习者对_E_的真实性变得绝对“确定”。正如理查德·杰弗里(Richard Jeffrey)所指出的(Jeffrey 1987),我们接收到的证据通常过于模糊或含糊不清,无法证明这种“教条主义”。在更现实的模型中,学习经验的直接影响将是改变某个命题的主观概率,而不是将其提高到 1 或降低到 0。这种经验适当地被称为“杰弗里条件推理”(尽管杰弗里更喜欢称之为“概率运动学”)。

| (3.2) | 杰弗里条件推理 |

| --- | --- |

| | 如果一个人在先验概率满足 0 < P(E) < 1 的情况下,经历了一次学习,其唯一直接影响是改变她对 E 的主观概率为 q,那么她在学习后对于任何 H 的后验概率应为 Q(H) = q_​ P ​_E(H) + (1 − q)P~E(H)。 |

显然,当 q = 1 时,杰弗里条件化简化为简单条件化。

文献中可以找到各种关于条件概率(简单或杰弗里式)的论证,但我们不能在此考虑它们。[16]然而,有一种论证方式中贝叶斯定理占据重要地位。它利用了信念修正与增量证据的关系,表明条件概率是唯一一种允许学习者根据新证据正确调整其后验信念的信念修正规则。

这个论证的关键在于将贝叶斯的“最小”版本(2.1e)与对信念修正规则的非常谦虚的“比例要求”相结合。

| (3.3) | 弱证据原则 |

| --- | --- |

| | 如果相对于先验假设 PE 对于 HH* 提供的增量证据至少相等,并且 H 在先验上比 H* 更有可能性,那么在任何仅仅增加 E 的概率的学习经验之后,H 应该仍然比 H* 更有可能性。 |

这要求一个代理人在获得更强支持更有可能性假设的证据时,保持对两个假设相对概率的看法。它排除了明显非理性的信念修正,例如:乔治对纽约洋基队赢得美国联盟冠军更有信心,而不是波士顿红袜队赢得冠军,但当他得知(仅仅)洋基队在昨晚的比赛中击败了红袜队时,他改变了自己的看法。

将(3.3)与最小贝叶斯主义相结合,得到以下结果:

| (3.4) | 结果 |

| --- | --- |

| | 如果一个人的先验概率满足_LR ( H *, * H **;* * E *​ ) ≥ 1, * LR ​ (~ H , ~ H * ; ~ ​ E ​ * ) ≥ 1, 且 P * (​ **** H_​ ) > P​ *(H), 那么任何学习经验,其唯一直接影响是提高她对_E_的主观概率,应该导致一个后验概率,使得Q(H) > Q(H). |

在合理的假设下,假设 Q 定义在与 P 相同的命题集上,这个条件足以将简单条件化选择为使_E_成为确定的学习经验的_唯一_正确的信念修正方法。当学习仅仅改变一个人对_E_的主观概率时,它选择了杰弗里条件化作为_唯一_正确的方法。对于这些结论的论证使用了关于概率的以下两个事实。

| (3.5) | 引理 |

| --- | --- |

| | 如果当 P(H) > P(H*)* 时,_H_和_H**都蕴含_E _,那么_​LR( H , H; _E) = 1 < br>,且​_LR_​ (~​_H, ~H**; ~ E*) > 1。 |

| | 证明概要 |

| (3.6) | 引理 |

| --- | --- |

||简单条件化是修订主观概率的唯一规则,它使得后验概率具有以下特性,对于任何满足 P(E) > 0 的先验概率: 1. Q(E) = 1。 2. 序数相似性。如果_H_和_H**都蕴含_E ,那么只有当_​ Q ​ ( H ) ≥ * * Q ​ ( H * )时,才有 P * (​ **** H​ * ) ≥ * * P ​ (H)。 %% || 证明概要 %% 从这里开始,对于简单条件化的论证是使用(3.4)和(3.5)来建立序数相似性的问题。假设_H_和_H 蕴含 **** E ,且​P**​ ( H ) > P​ ( H )。根据(3.5),可得​** LR ​ **(**​ H*, * _ H ​ **** ; **** E​ **** ) = 1,且 **** LR **** (~ **​H​ **** , ~ **** H ; ~​E​ ) > 1。然后根据(3.4),任何提高​E概率的学习经验都必须导致后验概率 Q (​*** H ****​ ) > Q​ **** (H)。因此,对于蕴含 **** H*的假设,Q 和 P 在序数上是相似的。如果我们进一步假设学习经验将 **** E **** 的概率提高到 1,那么(3.6)保证 Q 是通过对 **** E _ *进行简单条件化而得到的**P**。

对于杰弗里条件的论证同样直接。由于关于序数相似性的论证完全不依赖于假设 Q(E) = 1,我们确实已经建立了

| (3.7) | 推论 |

| --- | --- |

| | • If H and H* entail E, then P(H) > P(H*) if and only if* _Q_​ ( H ) > _Q_​ ( H**). |

| | • If H and H* entail ~E, then P(H) > P(H*) if and only if* _Q_​ ( H ) > _Q_​ ( H**). |

所以,当限制在蕴含_E_的假设上时,Q 在序数上与 P 是相似的,当限制在蕴含~E 的假设上时也是如此。此外,由于除以正数不会改变序数关系,因此当限制在蕴含 E 的假设上时, Q E P 在序数上是相似的,当限制在蕴含​_E_的假设上时,QEP在序数上也是相似的。由于QE(E) = 1 =~ ~Q~​_E_(E),(3.6)则意味着:

| (3.8) | 结果 |

| --- | --- |

| | For every proposition H, Q​_E_(H) = P​_E_(H) and Q​~E ( H ) =~ ~P~​_E_(H) |

很容易证明(3.8)是 Q 通过对_E_进行杰弗里条件化从 P 产生的必要且充分条件。在 Q(E) = _q_的约束下,它保证了 Q(H) = q_​P​_E(H) + (1 −q)P~E(H)。

总的道德是明确的。

基本的贝叶斯洞察力体现在弱似然原则(2.1e)中,它表明简单条件化和对_E_进行杰弗里条件化是对学习经验做出反应时修正信念的_唯一_合理方式,该经验的唯一直接影响是改变_E_的概率。

虽然对于简单的条件化、杰弗里条件化和其他形式的信念修正还可以说更多,但这些评论应该让读者对贝叶斯定理在主观主义学习和证据支持中的重要性有所了解。尽管这是一个数学上的琐事,但定理的核心洞察力——即任何数据集都能支持一个假设的概率——是主观主义认识论、统计学和归纳逻辑的核心。

Bibliography

  • Armendt, B. 1980. "Is There a Dutch Book Argument for Probability Kinematics?", Philosophy of Science 47, 583-588.

  • Bayes, T. 1764. "An Essay Toward Solving a Problem in the Doctrine of Chances", Philosophical Transactions of the Royal Society of London 53, 370-418. [Fascimile available online: the original essay with an introduction by his friend Richard Price]

  • Birnbaum A. 1962. "On the Foundations of Statistical Inference", Journal of the American Statistical Association 53, 259-326.

  • Carnap, R. 1962. Logical Foundations of Probability, 2nd edition. Chicago: University of Chicago Press.

  • Chihara, C. 1987. "Some Problems for Bayesian Confirmation Theory", British Journal for the Philosophy of Science 38, 551-560.

  • Christensen, D. 1999. "Measuring Evidence", Journal of Philosophy 96, 437-61.

  • Dale, A. I. 1989. "Thomas Bayes: A Memorial", The Mathematical Intelligencer 11, 18-19.

  • ----- 1999. A History of Inverse Probability, 2nd edition. New York: Springer-Verlag.

  • Earman, J. 1992. Bayes or Bust? Cambridge, MA: MIT Press.

  • Edwards, A. W. F. 1972. Likelihood. Cambridge: Cambridge University Press.

  • Glymour, Clark. 1980. Theory and Evidence. Princeton: Princeton University Press.

  • Hacking, Ian. 1965. Logic of Statistical Inference. Cambridge: Cambridge University Press.

  • Hájek, A. 2003. "Interpretations of the Probability Calculus", in the Stanford Encyclopedia of Philosophy, (Summer 2003 Edition), Edward N. Zalta (ed.), URL = <Interpretations of Probability (Stanford Encyclopedia of Philosophy/Summer 2003 Edition)>

  • Hammond, P. 1994. "Elementary non-Archimedean Representations for of Probability for Decision Theory and Games," in P. Humphreys, ed., Patrick Suppes: Scientific Philosopher, vol. 1., Dordrecht: Kluwer Publishers, 25-62.

  • Harper, W. 1976. "Rational Belief Change, Popper Functions and Counterfactuals," in W. Harper and C. Hooker, eds., Foundations of Probability Theory, Statistical Inference, and Statistical Theories of Science, vol. I. Dordrecht: Reidel, 73-115.

  • Hartigan, J. A. 1983. Bayes Theory. New York: Springer-Verlag.

  • Howson, Colin. 1985. "Some Recent Objections to the Bayesian Theory of Support", British Journal for the Philosophy of Science, 36, 305-309.

  • Jeffrey, R. 1987. "Alias Smith and Jones: The Testimony of the Senses", Erkenntnis 26, 391-399.

  • ----- 1992. Probability and the Art of Judgment. New York: Cambridge University Press.

  • Joyce, J. M. 1999. The Foundations of Causal Decision Theory. New York: Cambridge University Press.

  • Kahneman, D. and Tversky, A. 1973. "On the psychology of prediction", Psychological Review 80, 237-251.

  • Kaplan, M. 1996. Decision Theory as Philosophy. Cambridge: Cambridge University Press.

  • Levi, I. 1985. "Imprecision and Indeterminacy in Probability Judgment", Philosophy of Science 53, 390-409.

  • Maher, P. 1996. "Subjective and Objective Confirmation", Philosophy of Science 63, 149-174.

  • McGee, V. 1994. "Learning the Impossible," in E. Eells and B. Skyrms, eds., Probability and Conditionals. New York: Cambridge University Press, 179-200.

  • Mortimer, Halina. 1988. The logic of induction, Ellis Horwood Series in Artificial Intelligence, New York; Halsted Press.

  • Nozick, R. 1981. Philosophical Explanations. Cambridge: Harvard University Press.

  • Renyi, A. 1955. "On a New Axiomatic Theory of Probability", Acta Mathematica Academiae Scientiarium Hungaricae 6, 285-335.

  • Royall, R. 1997. Statistical Evidence: A Likelihood Paradigm. New York: Chapman & Hall/CRC.

  • Skyrms, B. 1987. "Dynamic Coherence and Probability Kinematics". Philosophy of Science 54, 1-20.

  • Sober, E. 2002. "Bayesianism — its Scope and Limits", in Swinburne (2002), 21-38.

  • Sphon, W. 1986. "The Representation of Popper Measures", Topoi 5, 69-74.

  • Stigler, S. M. 1982. "Thomas Bayes' Bayesian Inference", Journal of the Royal Statistical Society, series A 145, 250-258.

  • Swinburne, R. 2002. Bayes' Theorem. Oxford: Oxford University Press (published for the British Academy).

  • Talbot, W. 2001. "Bayesian Epistemology", Stanford Encyclopedia of Philosophy (Fall 2001 Edition), Edward N. Zalta (ed.), URL = <Bayesian Epistemology (Stanford Encyclopedia of Philosophy/Fall 2001 Edition)>

  • Teller, P. 1976. "Conditionalization, Observation, and Change of Preference", in W. Harper and C.A. Hooker, eds., Foundations of Probability Theory, Statistical Inference, and Statistical Theories of Science. Dordrecht: D. Reidel.

  • Williamson, T. 2000. Knowledge and its Limits. Oxford: Oxford University Press.

  • Van Fraassen, B. 1999. "A New Argument for Conditionalization". Topoi 18, 93-96.

Academic Tools

Other Internet Resources

epistemology: Bayesian | probability, interpretations of

Copyright © 2003 by James Joyce <jjoyce@umich.edu>

最后更新于

Logo

道长哲学研讨会 2024