神经伦理学 neuroethics (Adina Roskies)

首次发表于 2016 年 2 月 10 日星期三;实质性修订于 2021 年 3 月 3 日星期三。

神经伦理学是一个跨学科领域,专注于我们对大脑的增加和不断改进的理解以及我们监测和影响大脑的能力所引发的伦理问题。


1. 神经伦理学的兴起和范围

神经伦理学关注我们对大脑的不断改进的理解所引发的伦理问题,以及由此带来的我们监测和影响大脑功能能力的改进。对神经伦理学的重视可以追溯到 2002 年,当时 Dana 基金会组织了一次神经科学家、伦理学家和其他思想家的会议,题为《神经伦理学:领域的绘制》。会议的参与者之一,专栏作家和词汇专家威廉·萨菲尔,常被认为是引入和确立“神经伦理学”这个术语的人,他将其定义为“对人类大脑的治疗、完善、不受欢迎的侵犯和令人担忧的操纵的正确与错误、善与恶的审查”(Marcus,2002,第 5 页)。其他人认为,“神经伦理学”一词在此之前就已经在使用(Illes,2003;Racine,2010),尽管大家都同意这些早期的使用并没有以学科的意义使用,也没有涵盖神经科学引发的全部伦理问题。

在那次初次会议上的另一位与会者,阿迪娜·罗斯基斯(Adina Roskies),针对对神经伦理学潜在创新性的认可不足,撰写了《新千年的神经伦理学》(Roskies, 2002)一文,提出了将神经伦理学分为“神经科学伦理学”和“伦理学的神经科学”两个部分的观点。前者涵盖了萨菲尔提出的那些伦理问题,而后者则扩展了神经伦理学的范围,包括了我们对伦理思维和行为的生物学基础的日益增长的理解,以及这种理解如何影响和指导我们的伦理思考。这种扩大神经伦理学范围的做法突显了我们对自己道德思维的理解可能如何影响我们的道德观点,这是神经伦理学与传统生物伦理学的一个区别。另一种描述该领域的方式是研究由我们对大脑所能做的事情(例如,使用神经技术)和我们对大脑的了解(包括理解道德行为的基础)所引发的伦理问题。

尽管 Roskies 的定义仍然有影响力,但它已经受到了各种挑战。有人认为,神经伦理学不应仅限于伦理学的神经科学,而应该扩展到伦理学的认知科学(Levy,个人交流),因为让我们理解大脑的许多工作发生在严格定义的神经科学之外的学科中。事实上,这实际上是原始提议的精神,因为人们广泛认识到脑科学涵盖了各种学科、方法和问题。然而,最持久的批评来自那些质疑神经伦理学是否应被视为神经伦理学的一部分的人:他们认为理解我们的伦理能力是一个科学问题,而不是一个伦理问题,因此不应该是神经伦理学的一部分。这个论点通常会被否认神经伦理学与传统生物伦理学足够不同,以至于不能称之为一门独立的学科。

对这些批评的回应是不同的:这些不同的研究领域是否构成一种自然类别,或者它们本身是否是伦理分析的焦点,这些都不是关键。神经伦理学是多孔性的。在没有理解科学的情况下,无法成功地涉及许多伦理问题。此外,学术或知识学科至少在某种程度上(如果不是完全)是社会构建的。在这种情况下,事情已经无法挽回:很明显,关于伦理思维和行为的大脑基础的有趣而重要的研究正在进行,并且这种理论理解已经影响并有潜力影响我们对伦理学和伦理实践的思考。神经伦理学的存在是不可否认的:在过去的 10-15 年里,神经伦理学的研究已经取得了有趣的成果;神经伦理学现在被国内外广泛认可为一门研究领域;许多大学开设了神经伦理学课程;神经伦理学的培训项目、专业学会和研究中心已经建立起来。美国国立卫生研究院的脑计划已经投入了大量资源来鼓励将神经伦理学项目和分析纳入神经科学项目中。神经伦理学是一门独立的学科,部分原因是因为我们已经以一种承认它的方式来构建我们的实践。神经伦理学最重要的不是伦理学和神经科学是否被赋予相同的学科名称,而是有人在从事这两个努力,并且他们之间存在对话(有时,同一个人同时从事这两个领域)。

当然,就神经伦理学家提出的关于疾病、治疗等问题而言,这些问题看起来很熟悉,他们可以并且应该借鉴传统生物伦理学的现有工作来寻找答案,以免重复造轮子。但是,最终,法拉是正确的,他说“随着神经科学为我们提供了理解人类思维、预测、影响甚至控制它的前所未有的方式,新的伦理问题正在出现。这些问题将我们带到了生物伦理学的边界之外,涉及到心灵哲学、心理学、神学、法律和神经科学本身。正是这一更大范围的问题使得它有了自己的名字”(法拉,2010 年,第 2 页)。

2. 神经科学的伦理学

神经伦理学受到神经技术的推动:它关注的是与新型神经技术的发展和影响相关的伦理问题,以及从我们对大脑如何产生我们所是以及我们所居住和创造的社会结构的日益增长的理解中产生的其他伦理和哲学问题。这些问题与科学问题密切相关,即关于特定技术可以获得什么样的知识的科学问题:一种技术能告诉我们什么?技术的范围和限制是什么?对于许多新技术,这些问题的答案不仅对一般公众来说是模糊的,而且对科学家们自己来说也是如此。对于这些技术的影响范围的不确定性增加了应对伦理问题的挑战。

许多新的神经技术使我们能够监测大脑过程,并且越来越能够理解大脑如何产生某些行为;其他技术使我们能够干预这些过程,改变甚至控制行为、特质或能力。虽然完全涵盖神经伦理学迄今所思考的问题范围是不可能的,但对一些神经技术引发的问题进行讨论可以让我说明神经伦理学所涉及的问题范围。以下是神经伦理学一般范畴下的一些主题,这个列表并不详尽。

2.1 增强的伦理学

尽管医学传统上通过开发药物和其他治疗方法来对抗疾病或损伤的有害影响来追求治疗疾病的目标,但用于治疗疾病的相同类型的化合物和方法也可能增强正常的认知功能。我们已经具备了提高某些认知方面超过基准线的能力,并且肯定会开发其他方法来实现这一点。因此,神经伦理学中一个重要的主题是神经增强的伦理学:使用神经技术增强大脑能力和功能的论点是什么?对此有哪些赞成和反对的观点?

增强的支持者有时被称为“超人主义者”,而反对者被称为“生物保守派”。这些充满价值观的称谓可能会不必要地使辩论极端化,而实际上并不需要将极端观点对立起来,而是提供了许多细致入微的中间立场,这些立场承认共同的价值观(Parens,2005),并为接受增强的好处提供了空间,同时也认识到需要某种形式的监管(例如 Lin 和 Alhoff,2008)。这场辩论本身的相关性在一定程度上取决于传统生物伦理学家熟悉的一个哲学问题:确定疾病和正常功能之间的界线以及相应的治疗和增强之间的区别的困难。然而,尽管在确定这条界线时存在困难,但已经有明确的例子,即使用药物等技术旨在改善某种能力或行为,而这种能力或行为绝非临床功能障碍,或者旨在提高能力超出正常功能范围。一个常见的例子是甲基苯丙胺的使用,这是一种通常用于治疗注意力缺陷多动障碍的兴奋剂。甲基苯丙胺以商品名利他林(Ritalin)而闻名,已被证明可以提高工作记忆、情节记忆和抑制控制任务的表现。许多学生将其用作学习辅助工具,而这种非标签使用的伦理地位是神经伦理学家辩论的焦点(Sahakian,2007;Greely 等,2008)。

正如上面的例子所示,神经伦理学家们最常讨论的增强是认知增强:这些技术使得正常人在认知上能够达到比没有使用这些技术时更高的水平(Knafo 和 Venero,2015)。神经伦理学面临的一个理论问题是要仔细而准确地阐明认知增强是否具有与其他任何形式的增强(如使用类固醇增强身体能力)不同的哲学地位,以及是否具有不同的方式和原因(Dresler,2019)。

通常被忽视的是其他有趣的潜在神经增强。这些增强的讨论比认知增强少,但同样值得考虑。它们包括社会/道德增强,如使用催产素增强亲社会行为,以及其他非认知但生物学增强,如由脑机接口(BCIs)控制的潜在身体性能增强剂(参见,例如 Savulescu 和 Persson,2012;Douglas,2008;Dubljevíc 和 Racine,2017;Annals of NYAC,2004)。在许多方面,关于这些增强的讨论实际上重新概括了认知增强的辩论,但在某些方面,它们引发了不同的关注和不同的论点。

2.1.1 增强的论证

自然性:虽然认知增强的目标可能起初看起来在伦理上是可疑的,但人类自然地从事许多形式的增强,包括认知增强,这是合理的。事实上,我们通常赞赏和重视这些努力。毕竟,教育的目的是对学生进行认知增强(我们现在理解到这是通过改变他们的大脑来实现的),我们对那些贬低这种特定增强的人持怀疑态度,而不是对那些接受它的人持怀疑态度。因此,某些形式的认知增强是例行公事和平凡的。神经增强的支持者将主张,我们通常从事的增强与使用药物或其他神经技术进行增强之间没有原则上的区别。事实上,许多人认为,我们是一种天生发展和使用技术来增强我们能力的物种,并且不断追求增强是人类的标志。

认知自由:那些认为“认知自由”(见下文 2.2 节)是一项基本权利的人认为,在认知自由中所涉及的自主权的一个重要要素是自由决定我们如何处理我们的思想和思维,包括认知增强,如果我们选择这样做。尽管许多支持“认知自由”的人在激进的政治自由主义背景下这样做(例如 Boire,2001),但我们可以承认认知自由的价值,而不必接受整个政治议程。因此,例如,即使我们认为我们有权决定自己的认知状态,这种权利可能是有限的。还需要进一步的工作来确定我们应该保护的认知自由的界限。

功利主义论证:许多认同认知增强的支持者指出增强的积极效果,并主张其利益超过成本。在这些功利主义论证中,重要的是要考虑到积极和消极效果,不仅对个人而言,也对社会更广泛地产生影响(参见 Selgelid,2007)。

义务论证:有时认为增强是为了实现公平和公正而平衡竞争的一种途径。这样的论证得到了这样的发现的支持,即至少对于某些干预措施,增强效果对于那些起点较低的人来说比起点较高的人更大(总统生物伦理委员会,2015)。

实践论证:这些论证通常指出现有技术监管的难度,或者试图这样做的不利影响。它们往往不是真正支持增强的论证,而是不反对其使用的原因。

2.1.2 反对增强的论点

有各种各样的反对增强的论点。大多数可以归为以下几类:

危害:反对增强的最简单也是最有力的论点是,大脑干预会带来危害的风险,这些风险使得使用这些干预手段是不可接受的。对于可接受风险的门槛较低是增强背景下的一个影响:在治疗缺陷或疾病并有恢复正常功能的潜在益处时,被认为是合理承担的风险,在提高正常基线以上的性能时,这些风险可能被认为是不合理的。有人认为,为了增强目的,任何风险都不应被证明是合理的。在评估基于危害的反对增强的论证的力量时,应考虑以下几点:1)给定增强的实际和潜在危害和益处(医学和社会)是什么?2)谁应该对适当的权衡做出判断?不同的个体可能会在何时达到风险/益处门槛上有不同的判断,并且他们的判断可能取决于风险和益处的具体性质。还要注意,危害论点对于不带任何风险的增强是无效的。

不自然性:一些思想家以一种形式或另一种形式主张,使用药物或技术来增强我们的能力是不自然的,而暗示是不自然的意味着不道德。当然,要成为一个好的论证,必须提供更多的理由,既要解释为什么它是不自然的(参见上文关于自然性的论证),也要解释为什么自然性和道德是一致的。一些论点表明,操纵我们的认知机制等于对“上帝赋予”的能力进行修补,并且篡夺上帝作为创造者的角色可以在宗教道德框架中很容易地被理解为越轨行为。尽管它吸引了宗教保守派的兴趣,但神经伦理学家可能希望提供一种更普遍或自然主义的论证来支持不自然和不道德之间的联系,并且必须反驳上述主张,即人类增强自己是自然的。

减弱人类代理能力:另一个论点表明,增强的效果将通过削弱对真正努力的需求,以及允许通过道德上毫无意义的捷径取得成功,从而减弱人类的代理能力。人类生活将失去通过为目标而努力的过程所实现的价值,并因此而被贬低(参见,例如,Schermer,2008; Kass,2003)。尽管这是一种有前途的论证形式,但还需要更多的工作来支持努力本质上有价值的主张。最近的研究表明,没有普遍的论证能够证明这一点(Douglas,2019)。毕竟,很少有人认为我们应该放弃使用汽车进行交通,而选择马匹、步行或骑自行车,因为这些方式需要更多的努力,因此具有更多的道德价值。

傲慢反对:这个有趣的论点认为,似乎潜在于追求此类干预的态度在某种程度上是道德上有缺陷的,或者表明了一种道德上有缺陷的性格特征。例如,迈克尔·桑德尔(Michael Sandel)认为,潜在于试图增强自己的态度是一种“普罗米修斯式”的掌控态度,忽视或低估了“人类生命的天赋”。桑德尔主要反对的是对生命的统治态度的表达和放纵:“增强的道德问题不在于它所追求的完美,而在于它所表达和推广的人类性格”(桑德尔,2002 年)。其他人则对这种观点提出了反驳,认为反对增强的傲慢观点基本上是宗教观点,或者基本上误解了它所依赖的概念(卡哈内,2011 年)。

平等与分配正义:新技术进步常常引发一个问题:“谁能从中受益?”与其他技术一样,神经增强并非免费。然而,在神经增强的情况下,对获取的担忧更加严重(与其他学习技术可能也是如此)。随着增强技术提升使用者的能力,它们很可能进一步扩大已经不可接受的富者与穷者之间的差距:我们可以预见,那些已经足够富裕以负担得起增强技术的人将利用它们来增加与他人的竞争优势,进一步拉大那些无法负担的人与他们之间的差距。并非所有这类论点都反对增强。例如,上述提到的发现——至少对于某些认知增强技术来说,那些起点功能较低的人比起点功能较高的人获得的改善更大——可以为增强公平和公正的论点提供基础,以实现公平竞争的环境(总统生物伦理委员会,2015 年)。随着公众对种族和经济差距的意识增强,我们应该预期在这个问题上会有更多的神经伦理学研究。虽然我们可以想象一些解决分配正义问题的政策方案,比如让健康保险覆盖增强技术,让国家将其分发给那些无法负担的人等等,但神经增强的广泛可得性必然会引发关于强制性的问题。

强制:强制的前景以几种方式提出。显然,如果国家决定强制进行增强,将其有益效果视为公共卫生问题,这实际上是强制。我们目前在疫苗接种的反弹中看到了这一点:它们是强制性的,旨在促进公共卫生,但在一些人心中,强制令引发了对个人自由的担忧。我认为疫苗接种案例表明,至少在某些场合,强制是合理的。问题是,强制是否可以为增强而合理,而不是为了预防伤害。尽管一些强制性的想法,比如建议我们在供水中加入普罗赛克或其他增强剂,不太可能被认真视为政策问题(但请参见 Appel 2010 [2011]),但更隐蔽的强制形式更为现实。例如,如果身处明天竞争激烈的环境中,周围的人都在从认知增强中获益,他们可能会感到被迫使用相同的技术,以保持竞争力,尽管他们宁愿不使用增强剂。危险在于,尊重一些人的自主权可能会对其他人的自主权施加压力。

神经伦理学的伦理增强辩论不太可能有任何范畴性的解决方案。一项技术的细节将与确定该技术是否应该用于增强目的相关:我们应该将一种不会造成伤害的高度增强技术与一种以明显成本提供一些好处的技术区别对待。此外,一些与平等相关的问题的重要性将取决于技术的经验事实。神经技术对每个人是否同样有效?正如前面提到的,有证据表明一些已知的增强剂(如精神刺激剂)对于有缺陷的人比对于无缺陷的人更有效:研究表明这些药物的益处与能力受损的程度成比例(Hussain 等,2011 年)。其他报告声称,正常受试者的能力实际上并没有被这些药物增强,而且某些功能可能实际上受到损害(Mattay 等,2000 年;Ileva 等,2013 年)。如果这是一个普遍的模式,那么这可能会减轻一些关于分配正义和对社会经济分层的贡献的担忧,因为有缺陷的人将比那些使用药物进行增强目的的人获得更多的好处。然而,请记住,生物学很少是如此公平,如果这种模式被证明是常态,那将是令人惊讶的。由于可能提供增强的技术极其多样,从药物到植入物到基因操作,对风险和利益以及这些技术对我们对人类的理解的影响的评估必须以经验为基础。

2.2 认知自由

自由是自由民主国家的基石价值观,而其中最珍视的自由之一就是思想自由。思想自由的主要要素,有时被称为“认知自由”(Sententia,2013),包括隐私和自主权。这两者都可能受到神经科学的新发展的挑战。价值观、潜在威胁以及保护这些自由方面的方法是神经伦理学关注的问题。最近的几篇论文提出了这个领域的新权利,例如认知自由权、心理隐私权、心理完整性权和心理连续性权(Ienca 和 Andorno,2017),或者心理完整性和心理自决权(Bublitz,2020)。

2.2.1 隐私

正如我们宪法的起草者所知,自由与隐私密切相关:即使被监视也被认为可能“冷漠”我们社会旨在保护的自由。在美国法学中,一种自由被提倡,即“被放任的权利”(Warren 和 Brandeis,1890),即免受政府或其他侵犯我们私人生活的干扰。

过去,精神隐私是理所当然的:意识内容的第一人称可访问性确保了一个人的思想内容对外界保持隐藏,直到他们自愿披露。相反,思想自由的战斗是在思想与外界相遇的边界上进行的——在表达中——并且通过第一修正案对这些自由的保护获得了胜利(请注意,这些保护仅针对政府侵犯)。在过去的半个世纪里,技术进步侵蚀或侵犯了许多传统的世俗隐私领域。大多数表达途径可以(并且越来越多地)被第三方监控。人们很容易认为思想的内心圣殿仍然是真正隐私的最后堡垒。

这可能在很大程度上仍然是真实的,但即使是思想的隐私也不再能够被视为理所当然。我们的神经科学成就已经在通过神经技术让他人辨别我们的一些心理内容方面取得了重大进展。无创脑成像方法已经彻底改变了人类认知研究的方式,并且极大地改变了我们对人们及其思想的了解。威胁思想隐私的问题既不像天真的说法那样简单,即神经成像可以读取我们的思想,也不是成像能力如此无害和直接,以至于我们不需要担心这种可能性。神经伦理学的重点是确定对思想隐私的真正威胁的本质,并评估其伦理学意义,其中许多与法律、医学和其他社会问题相关(神经伦理学,2013 年)。例如,在一个思想堡垒可能降低护城河的世界中,我们是否需要额外的保护?要有效地做到这一点,既需要对神经科学技术和思维的神经基础有扎实的理解,也需要对我们日益增长的知识和越来越强大的神经技术引发的伦理问题有敏感性。这两个必要条件说明了为什么神经伦理学家必须接受神经科学和伦理学的双重培训。接下来,我将简要讨论最相关的神经技术及其局限性,并探讨一些可能侵犯隐私的方式。

2.2.1.2 一个例子:功能性磁共振成像对隐私的潜在威胁

神经科技中最突出的之一,对隐私构成威胁的是磁共振成像(MRI)。MRI 可以提供关于一个人大脑的结构和功能信息,风险和不便最小化。一般来说,MRI 是一种工具,允许研究人员非侵入性地检查或监测大脑结构和活动,并将该结构或功能与行为相关联。结构或解剖学 MRI 提供了大脑的高分辨率结构图像。虽然生物科学中的结构成像并不新鲜,但 MRI 提供了比之前的技术(如 X 射线或 CT 扫描)更高的分辨率和更好的组织区分能力。

然而,真正改变了人类认知研究的不是结构性 MRI,而是功能性 MRI(fMRI)。fMRI 提供了关于神经元活动相关性的信息,从中可以推断出神经活动。近年来,神经影像数据分析方法的进展,如多体素模式分析和相关技术,现在可以相对精细地“解码”大脑活动。解码涉及使用机器学习对观察到的大脑激活模式与实验确定的活动模式和某种功能变量(如任务、行为或内容)之间的相关性进行概率匹配。功能成像提供的信息类型有助于实现三个目标:解码心理内容、诊断和预测。在所有这些领域,都会出现神经伦理学问题。

在讨论这些问题之前,重要的是记住,神经影像是一种受到许多重要限制的技术,这些技术问题限制了推断的精确程度。例如:

  • fMRI 信号与神经活动之间的相关性是粗略的:信号在时间上延迟于神经活动,并且在空间上扩散,从而限制了可以推断的信息的空间和时间精度。

  • 许多动态因素与 fMRI 信号相关,而精确的基础模型尚未被充分理解。

  • 信号与噪声之比相对较低,需要在试验和通常在人群之间进行平均。

  • 个体的大脑在结构和功能上都存在差异。这种变异性使得确定差异何时在临床或科学上具有相关性变得困难,并导致数据噪音。由于结构和功能上的自然个体差异以及大脑可塑性(尤其是在发育过程中),即使在结构上存在较大差异或偏离正常状态,也可能不表示任何功能缺陷。认知策略也会影响数据的变异性。这些变异性的来源可能会使数据分析变得复杂,并为差异的存在提供更多的余地,而不意味着功能失调。

  • 大脑区域的活动并不意味着该区域对任务的执行是必要的。

  • 功能性磁共振成像(fMRI)对运动非常敏感,几乎不可能从一个不合作的受试者那里获取信息。这使得从不愿意的思维中读取内容的前景几乎不可能。

没有理解这些技术问题和由此产生的从 fMRI 中可以合理推断出的限制,人们很可能会高估或错误描述它所带来的潜在威胁。事实上,非科学出版物中表达的对读心术的恐惧很大程度上源于对科学的不了解(Racine,2015)。例如,担心成像技术能够在我们不知情的情况下读取心理内容的担忧没有科学依据。因此,担心政府能够远程或秘密监视公民的思想是没有根据的。

2.2.1.1 心理内容的解码

非侵入性的推断神经活动的方法使许多人担心读心术的可能性,不仅在理论上,甚至现在也是如此。例如,使用解码技术,可以通过观察者观察场景时视觉皮层的活动来重建视觉刺激,或者确定观察者是否正在看熟悉的面孔或听到特定的声音。如果心理内容随着我们的大脑的物理结构和功能而随之而来,正如大多数哲学家和神经科学家所认为的那样,那么原则上通过读取大脑应该可以读取思想。由于识别心理内容的潜力,解码引发了有关心理隐私的问题。

尽管大脑成像技术取得了显著进展,但在心理内容方面,我们目前的“心灵阅读”能力相对有限,但不断改进(Roskies,2015 年,2020 年)。虽然可以从神经数据中解码出一些内容的方面,但这些内容往往是相当普遍和非命题性的。从思维或视觉刺激中推断语义意义的能力在可能内容的领域受到相当限制时效果最好。我们目前的能力使我们能够推断出一些语义原子,例如表示预先指定的一组具体对象之一的表示,但不能推断出无约束的内容或整个命题。当然,未来的进展可能会使对心灵阅读的担忧更加紧迫。例如,如果我们开发出解码组合意义的强大手段,我们可能有一天能够解码命题思维。

尽管如此,一些担忧是有根据的。即使神经影像技术还没有达到可以进行心灵阅读的阶段,它仍然可能以一种应该使我们停下来的方式威胁到隐私的某些方面。可以根据他们的脑部扫描来识别个体(Valizadeh 等,2018 年)。此外,神经影像技术可以提供一些关于人们属性的见解,而这些属性他们可能不希望被知道或公开。在某些情况下,受试者甚至可能不知道正在探测这些属性,认为他们正在进行其他目的的扫描。一个愿意的受试者可能不希望某些事情被监测到。接下来,我将考虑其中一些更现实的担忧。

隐性偏见:尽管明确承认的种族偏见正在减少,但这可能是由于报告偏见的偏差,归因于对种族偏见的负面社会评价的增加。现代许多研究现在都集中在研究隐性种族偏见,这是种族偏见的自动或无意识反映。通过 fMRI 和 EEG,可以询问隐性偏见,有时受试者可能没有意识到正在被测量的是什么(Checkroud,2014)[3]。虽然对如何最好地解释隐性偏见结果存在分歧(例如,作为感知威胁的一种衡量,作为内外群体区别等),以及它们对行为的相关性,但隐性偏见可以被隐蔽或公开地测量的可能性引发了科学和伦理问题(Molenberghs 和 Louis,2018)。这些信息应该在何时收集?受试者合法同意隐性测量需要遵循哪些程序?对偏见证据应该给予什么样的重视?对持有这些偏见的人应该负什么样的责任?它们可能具有什么样的预测能力?它们应该用于实际目的吗?人们可以想象到明显但有争议的潜在用途,例如在法律情境中使用隐性偏见测量,在就业环境中使用,在教育中使用,在警务中使用,所有这些领域都涉及到社会正义的关切。

Lie detection: 有几种神经技术被用于在实验环境中检测欺骗或隐藏信息的神经相关性。例如,实验室中使用了 fMRI 测量和依赖于 P300 信号的 EEG 分析技术来检测欺骗,但其成功率各不相同。这些方法受到各种批评(Farah 等,2014)。例如,几乎所有实验研究都未能研究真实的撒谎或欺骗,而是研究了某种指导性误导的版本。真实的撒谎情境、任务和动机与这些实验类比之间存在很大差异,这对这些实验技术的生态效度提出了质疑。此外,准确性虽然明显高于随机,但远非完美,由于无法确定撒谎的基础率,无法有效评估错误率。因此,我们无法确定它们在现实世界中的可靠性。最后,无论是身体上的还是心理上的对策都会降低这些方法的准确性(Hsu 等,2019)。尽管存在这些限制,但有几家公司已经将神经技术用于此目的进行市场推广。

特征:神经技术在识别或预测个性或特征方面显示出一些潜力。在一项有趣的研究中,格林和同事们通过给参与者在功能磁共振成像仪中进行一个可以轻易作弊的机会游戏的预测任务,来确定神经成像技术能够多好地检测谎言。通过使用统计分析,研究人员能够确定一组明显作弊的参与者和另一组没有作弊的参与者(格林和帕克斯顿,2009)。虽然他们无法通过神经成像确定参与者在哪些试验中作弊,但作弊者和公平参与并且预测准确率相同的人之间的大脑激活模式存在整体差异。此外,格林和同事们在几个月后重复了这项研究,并发现诚实或不诚实的个性特征随时间稳定:第一次作弊的人很可能会再次作弊(事实上,第二次作弊的次数更多),而诚实的参与者在第二次游戏中仍然保持诚实。有趣的是,大脑模式表明作弊者在决定不作弊时,不仅在作弊时需要更多地激活他们的执行控制系统。虽然这些差异激活不能具体与作弊倾向而不是作弊行为联系起来,但这项研究表明这些与任务相关的激活模式可能反映了可信度的相关因素。

使用这些方法来检测现实世界中的这些特征或行为的前景引发了一系列棘手的问题。对于它们的使用应该要求多高的可靠性?在什么情况下它们可以作为证据在法庭上被接受?在其他情况下呢?在法律背景下使用来自神经科学的谎言检测或解码技术可能引发宪法上的担忧:脑成像是否属于受到第四修正案保护的搜查或扣押?它的强制使用是否会受到第五修正案权利的限制?尽管这些问题令人不安,但可能并不是立即紧迫的:在一起具有里程碑意义的案例(美国诉 Semrau 案,2012 年),法院裁定 fMRI 谎言检测是不可接受的,鉴于其目前的发展状态。然而,该意见对未来可能被接受的可能性保持开放,如果方法得到改进的话。最后,如果相关激活模式被发现与其他任务上的激活模式或默认网络活动等无任务测量显著相关,这就引发了一个可能性,即仅通过扫描他们做一些无害的事情,而不需要他们知道所寻求的信息的种类,就可以推断出有关个性的信息。因此,成像技术对隐私的威胁具有多个维度。

2.2.1.2 诊断

越来越多的神经影像学信息可以对疾病的诊断产生影响,并且在某些情况下可能在症状发作之前提供预测信息。关于默认网络的研究对于改善某些疾病的诊断是有希望的,而不需要受试者在扫描仪中执行特定任务(Buckner 等,2008 年)。对于一些疾病,例如阿尔茨海默病,MRI 承诺提供以前只能在尸检中确定的诊断信息(Liu 等,2018 年)。fMRI 的特征还与各种精神疾病有关,尽管尚未具备临床诊断所需的可靠性(Aydin 等,2019 年)。关于如何处理偶然发现的神经伦理问题也会出现,即在为非医学目的扫描研究对象的过程中出现无症状肿瘤或潜在良性异常的证据(Illes 等,2006 年;Illes 和 Sahakian,2011 年)。

预测未来的功能缺陷引发了一系列问题,其中许多问题以前已经由遗传伦理学(遗传学的伦理学)解决过,因为两者都提供有关未来疾病风险的信息。不同的是,神经技术在诊断上有用的疾病是那些影响大脑的疾病,因此可能影响到心理能力、情绪、个性或自我意识。因此,它们可能引发特殊的神经伦理问题(见下文)。

2.2.1.3 预测

如前所述,解码方法使人们能够将观察到的脑活动与先前观察到的脑/行为相关性联系起来。此外,这些方法还可以用于预测未来的行为,只要这些行为与脑活动模式的观察相关。一些研究已经报告了对即将做出的决策具有预测能力(Soon 等,2008 年)。我们将越来越多地看到神经科学或神经影像数据,这些数据将使我们能够对更长期的未来行为具有一定的预测能力。例如,脑成像可能使我们能够预测精神病性症状(如精神病或抑郁发作)的发作。在这种行为表明精神功能障碍的情况下,这引发了对社会污名的问题,但也可能使干预更加有效。

关于神经预测的一个困惑应该立即澄清:当说神经影像“预测”未来活动时,这意味着它们提供了一些关于可能性的统计信息。在这个意义上的预测并不意味着预测的行为一定会发生;它并不意味着一个人的未来是命中注定或决定的。尽管科学家在讨论他们的结果时偶尔会犯这个错误,但脑功能或结构可能给我们一些关于未来行为的信息这一事实不应被解释为对自由意志的强有力挑战。哲学家和科学家中普遍存在这种错误再次说明了神经伦理学家在神经科学和哲学方面的精通的重要性。

也许最具影响力和伦理难题的潜在预测信息应用是在刑事司法系统中。例如,有证据表明结构性脑差异可以预测 PCL-R 的得分,该工具用于诊断精神病态。同时,众所周知,精神病态者在暴力犯罪方面有很高的累犯率。因此,原则上,神经影像学可以用于提供个体累犯可能性的信息。事实上,当与其他因素结合时,脑部信息似乎具有一定的预测价值(Poldrack 等,2019 年; Delfin 等,2019 年)。一个警示性的例子来自最近文献中的一次交流:一份报告指出,认知任务中的脑活动可以预测累犯(Aharoni 等,2013 年),但对数据的关键重新分析表明,方法论问题导致了对神经数据预测价值的高估(Poldrack 等,2019 年; Aharoni 等,2014 年),凸显了技术专长在评估研究结果和将科学实验结果转化为实际目的和伦理分析方面的重要性。

神经伦理学分析在这里是必不可少的。神经数据是否可以用于确定判决或假释决定?这是否等同于因为他们没有犯罪而惩罚某人?还是说这只是对目前使用的精算信息(如年龄、性别和收入水平)的中立扩展?在极端情况下,人们可以想象使用预测信息来拘留尚未犯罪的人,即在他们犯罪之前逮捕他们。这种反乌托邦的情景在电影《少数派报告》(斯皮尔伯格,2002)中有所描绘,也说明了当我们的预测能力与对自由意志和自主权的直觉和价值观发生冲突时,我们如何提出困难的伦理和政策问题。更一般地说,神经伦理学的研究对法律可能具有重要的实际用途,事实上通常被称为“神经法学”(见第 2.7 节)。

总之,神经影像技术引发了许多神经伦理问题。上述讨论的问题涉及到目前仍然是昂贵且繁琐的 fMRI 技术的使用。但是还存在其他成像方法,可能更加普及。例如,如果汽车公司安装成像方法,例如使用近红外光谱学(NIRS)的成像方法,这是一种可以在距离之外且不需要受试者知情的成像方法,或者其他形式的脑监测(https://www.jaguarlandrover.com/news/2015/06/jaguar-land-rover-road-safety-research-includes-brain-wave-monitoring-improve-driver)以监测注意力水平,以便提醒开始打瞌睡的驾驶员,那么在事故发生时,这些数据能否在法庭上使用?尽管这些方法提供的信息种类非常粗糙,通常不适合解码心理内容,但在即将出现的日常情况中,可能会出现有关心理隐私和神经技术的问题。

2.2.2 自主权和真实性

神经伦理学可能影响认知自由的第二种方式是限制个人的自主权。自主权是成为自己想成为的人,追求自己的目标而不受不合理的阻碍或干扰,自我管理的自由。尽管对自主权的定义存在差异,但广泛认为它是人格的一个有价值的方面。心理自主权可以通过多种方式受到影响。以下是几种方式:

直接干预:直接操纵我们的大脑以控制我们的思维或行为是对我们自主权的明显威胁(Gilbert,2015;Walker 和 Mackenzie,2020)。我们的一些神经技术提供了这种潜力,尽管这些神经技术是侵入性的,只在医学上有正当理由的情况下使用。其他类型的干预,例如给精神病患者服用药物以镇静,也可能影响自主权。

我们知道刺激动物的某些脑区会导致重复且常常是刻板的行为。科学家们已经在老鼠体内植入电极,并能通过刺激它们的皮层来控制它们的觅食行为。理论上,我们可以通过在相关的皮层区域植入电极来控制一个人的行为。实际上,我们有一些方法可以做到这一点,但只能在有限的程度上。例如,对运动皮层施加经颅磁刺激(TMS)可以引发被受影响的皮层区域控制的身体部位的不自主运动,或者在重复施用时可以抑制活动一段时间,起到临时性的损伤作用。效果将取决于刺激的脑区域;高级认知功能也可能受到影响。相对侵入性的方法,如深部脑刺激(DBS,下文将讨论)和电皮层图(ECOG),这两种需要脑部手术的技术表明,直接干预可以以非常特定和可预测的方式影响认知、行动和情绪。

无论这些方法在理论上对自主权构成多大威胁,它们很少被用来损害自主权。相反,直接的脑干预在使用时主要是为了增强或恢复自主权,而不是绕过或减弱自主权(Roskies,2015;Brown,2015)。例如,神经假体和脑机接口是神经科学中一个快速发展的领域(Jebari,2013;Klein 等,2015)。神经假体是人工系统,用于替代通常是感觉系统的有缺陷的神经系统。其中一些更先进和广为人知的是人工耳蜗。还开发了其他系统,允许类似视觉的信息传递到特定触觉感受器,使盲人能够在视觉世界中导航。另一方面,脑机接口是读取脑活动并将其用于指导肢体上的机器假体,或者在视频屏幕上移动光标的系统。由神经信号引导的假肢已经恢复了截瘫和四肢瘫痪患者的运动能力,其他脑机接口已被用于与“锁定”无法移动身体的人进行交流(Abbott 和 Peck,2017)。咨询和预测性植入物使用神经信息警告患者有关即将发作的风险,使他们能够预防性地自我治疗(Brown,2015;Lazaro-Munoz 等,2017)。因此,尽管原则上脑干预可以用来控制人们并减弱他们的自主权,但总体上,直接的干预是为了恢复和增强自主权而开发的(Lavazza,2018)。

神经经济学和神经营销学:影响自主性的方式不仅限于直接的脑部操控,还有更微妙的方法,而这些方法已经在我们的掌握之中:我们的思想可以通过间接的方式被操控:旧的担忧在神经经济学和神经营销学的出现后,由宣传和潜意识广告引发的担忧重新变得重要起来(Spence,2020)。通过更好地理解我们如何处理奖励,如何做出决策,以及如何偏向或影响这个过程,我们为更有效的外部间接操控打开了大门。事实上,社会心理学已经表明,对我们外部环境的微妙改变可以影响信念、情绪和行为。对于理解决策制定的神经机制可能带来的确切威胁尚未完全明确(Stanton 等,2017)。神经营销仅仅被用于设计更满足我们欲望的产品,还是被用于操控我们?根据你的看法,它可以被解释为善或恶。理解选择和奖励的神经基础是否为广告商提供了比仅仅使用行为数据更有效的工具,或者只是更昂贵的工具?因此,消费者是否失去了自主性?我们如何补偿或抵消这些措施?这些问题尚未得到充分解答。

规定:影响自主权的另一种方式是限制一个人对自己的思维进行的事情。例如,禁止改变意识状态的药物是对人们选择意识状态能力的外部限制(Biore,2001)。一个人应该被阻止对自己的身体或思维做任何他希望的事情的程度,是一个伦理问题,人们对此有不同的意见。有人声称这种规定是对自主权的问题性侵犯,但这种类型的某些规定在我们的社会中已经被广泛接受。药物的规定确实影响了我们的自主权,但可以说它避免了潜在的巨大危害。只允许认知增强技术用于治疗而不是增强目的,也是对心理自主权的另一种限制。我们是否要支持这种限制仍然有待讨论。无论如何,正如冠状病毒大流行已经明确表明的那样,在一个一个人的行为影响他人福祉的世界中,完全的自主权在实践上是不可能的。

相信自由意志:神经科学的进展经常被认为与我们是否拥有自由意志以及我们是否能对自己的行为负真正的道德责任的问题有关。尽管自由意志的哲学问题通常被认为是一个形而上学问题,但明显的缺乏自由将产生重大的伦理后果。一些神经科学家和心理学家暗示或断言神经科学可以显示或已经显示自由意志是一种幻觉(Brembs,2010;Libet,1983;Soon,2010;Harris,2012)。其他人则以这样一种论证反驳,即这种证明在原则上是不可能的(Roskies 2006)。无论科学实际上对自由意志的本质显示了什么,人们相信神经科学的证据支持或削弱了自由意志已被证明具有实际后果。例如,仅仅支持我们的思想是我们大脑的功能这一前提的证据,正如大多数神经科学所做的那样,被一些人认为是对自由意志的挑战。在几项研究中,操纵对自由意志的信念会影响作弊的可能性(例如 Vohs 和 Schooler 2008)。关于自由意志的本质和存在的神经科学内部的辩论将在神经伦理学中保持相关性,部分原因是它对我们在道德、法律和人际实践中责备和惩罚人们的有害行为产生了影响。

2.3 个人身份

神经伦理学的一个方面使其与传统生物伦理学有着明显的区别,这是因为我们认识到大脑在某种尚未明确表达的意义上是我们的核心所在。例如,我们现在有技术可以通过减弱、加强或选择性编辑来改变记忆。我们有影响性欲的药物,也有影响情绪的药物。在这里,神经伦理学与哲学中一些最具挑战性和有争议的问题相交:自我是什么?我们可以经历哪些变化而仍然保持自我?是什么使我们随时间变化而保持相同的人?这种时间持久性有什么价值?改变人性会带来什么代价?

因为神经科学干预技术可以影响记忆、欲望、个性、情绪、冲动性和其他我们认为构成个人或自我的事物,它们所引起的变化(以及对抗这些变化)具有独特的潜力,可以影响我们生活中最亲密方面的意义和质量。尽管在这方面,神经伦理学与传统的生物伦理学有很大不同,但它与基因伦理学并没有那么不同。很长一段时间以来,人们认为“你就是你的基因”,因此能够审查我们的基因组、改变它们或在其中选择被视为一种有前途但潜在问题的能力,使我们能够在很大程度上理解和操纵人类本性,超出了我们此前所享有的任何能力。但正如我们所发现的,我们不仅仅是我们的基因。我们测序人类基因组的能力并没有揭示癌症的原因、智力的遗传基础或精神疾病的原因,正如许多人预期的那样。其中一个原因是我们的基因组是我们成为现在的人的远因:在这个过程中,许多复杂的和介入的因素都很重要。另一方面,我们的大脑是我们是谁以及我们做什么的更直接的原因。我们每时每刻的行为和我们的长期计划直接受我们的大脑控制,而不是直接受我们的基因组控制。如果“你就是你的基因”似乎是一个合理的格言,那么“你就是你的大脑”则更加合理。

尽管它的合理性,但很难明确表达我们是我们的大脑的方式:我们的大脑的哪些方面使我们成为我们自己?大脑功能的哪些方面塑造了我们的记忆、个性和性格?哪些方面是无关紧要或非必要的?是什么使得一个连贯的自我感觉成为可能?对于这些深层的神经哲学问题,我们缺乏答案,这对于神经科学引发的实用性担忧几乎没有帮助,因为我们干预大脑的能力超过了我们对自己所做的事情的理解,并且可以影响我们存在的所有这些方面。

在哲学中,关于人的工作可能会使用不同的构建来解决各种不同的问题。哲学家可能对人的本质感兴趣,对自我的本质感兴趣,对赋予经历的生活连贯性或真实性的特征和心理状态或过程的种类感兴趣,或者对繁荣生活的成分感兴趣。每个问题都需要进行独立的分析。在哲学之外,许多这些问题被混在一起,经常导致混淆。神经伦理学在利用这些问题并以富有成果的方式应用它们方面处于独特的位置,但往往未能充分利用哲学家在这一领域所做的概念性工作。例如,神经伦理学的论文经常混淆了许多这些不同的概念,将它们统称为“个人身份”。这种混淆进一步使本已困难的问题更加混乱,并减少了神经伦理学工作的潜在价值。下面我试图给出神经伦理学家关注的各个方面的简要路线图。

哲学家对个人身份的概念涉及一个问题,即是什么使一个人在不同时间点上与另一个人在另一个时间点上数值上相同。这个形而上学问题已经被各种哲学理论所探讨。例如,一些理论家认为,时间上数值相同的含义是指成为同一个人类有机体(Olson,1999),而成为同一个有机体是由生命的相同决定的。如果拥有相同的生命是相关标准,那么可以认为脑干维持生命的区域对个人身份至关重要(Olson,1999)。对于那些相信身体完整性是至关重要的人来说,神经科学改变大脑的能力可能对个人身份几乎没有影响。许多其他哲学家认为,同一个人的根源在于某种心理连续性(例如洛克)。如果这个标准是正确的,那么这个标准的严格性可能是至关重要的:激进的大脑操作可能会导致记忆和其他心理状态发生足够剧烈的变化,以至于大脑干预后的人不再是之前的同一个人。标准越严格,神经疗法对个人身份的潜在威胁就越大(Jecker 和 Ko,2017;Pascalev 等,2016)。另一方面,如果心理连续性或联系的标准足够高,即使没有神经疗法,个人身份的变化实际上可能是常见的。认识到这一点可能促使我们质疑标准和/或个人身份的重要性或价值。例如,帕菲特认为,使我们在时间上成为同一个人的因素以及我们所重视的(心理连续性和联系)是不同的(Parfit,1984)。

对于一些人来说,人格的问题与身份的问题是分开的。即使神经技术和脑功能障碍不会对个人(即数值)身份提出质疑,重要的神经伦理学问题仍然可能被提出。对于那些不太关心关于数值身份的形而上学问题的哲学家来说,他们更关注自我,以及真实性和自我认同的概念,强调了被讨论人的心理视角在创造一个连贯的自我中的重要性(Mackenzie 和 Walker,2015;Erler,2011;Pugh 等,2017)。在这方面,Schectman 提出了重要的是能够创造一个连贯的叙述,或者说是“叙述自我”(Schectman,2014)。有证据表明,在我们是主角并与之产生认同的连贯叙述的能力是心理健康的一个衡量标准(Waters 等,2014)。另一方面,一些哲学家否认他们有一个叙述自我,并将自我定位在一种同步属性中(Strawson,2004)。为了进一步复杂化问题,有人提出了叙述人和叙述自我的区别,这些区别可以通过适应程度来区分。关于叙述自我的本质和连贯性,以及真实性和自主性的担忧往往是与神经伦理学最相关的问题,因为即使是轻微的脑变化也显然会影响到这些构建。例如,我们如何评估与人格剧变或关键记忆修改相关的成本和伦理问题?什么是真实或不真实的标准,真实性的价值是什么?如果神经干预承诺会导致一个人的价值观和承诺发生巨大变化,那么如果必须偏袒一个人,原始人还是结果人,应该优先考虑谁的利益? 人格、自我、代理、身份和认同的相关性需要进一步阐述神经伦理学。接下来我们将讨论一种神经技术如何涉及其中一些问题。

2.3.1 例子:深部脑刺激

深部脑刺激(Deep Brain Stimulation,简称 DBS)涉及对植入在大脑深处的电极进行刺激,已经获得 FDA 批准用于治疗帕金森病,这是一种影响纹状体多巴胺神经元的神经退行性疾病。通过 DBS 进行神经调节通常可以恢复这些患者的运动功能,使他们的生活得到很大改善。它还被探索用于治疗难治性抑郁症、强迫症、成瘾和其他神经系统和精神疾病。尽管 DBS 显然对许多患有神经系统疾病的人有益,但其采用引发了一些令人困惑的问题。首先,它是一种高度侵入性的治疗方法,需要进行脑部手术和永久植入刺激器,因此存在真正的伤害可能性,并引发成本效益权衡的问题。这还与科学家对治疗如何起作用的机制理解很少,治疗方案和电极位置往往是症状性的。偶尔 DBS 会引发异常的副作用,如情绪变化、轻躁狂或躁狂、成瘾行为或过度性行为。有一例患者对各种音乐都有广泛的兴趣,但在刺激停止之前一直对约翰尼·卡什(Johnny Cash)的音乐着迷(Mantione 等,2014)。其他报道的案例涉及人格变化。这一领域的伦理问题围绕着干预方式对情绪和/或人格进行改变的伦理学展开讨论,通常涉及个人身份或“改变人的本质”的问题,以及自主权和疏离感的问题(Klaming 等,2013;Kraemer,2013a)。

文献中的一个令人痛心的例子讲述了一位患有帕金森病的患者,如果没有干预,他将卧床不起并需要住院治疗(Leentjens 等,2003 年)。深部脑刺激(DBS)使他的运动症状显著改善,但也导致他无法治疗的躁狂症状,需要住院治疗。因此,这个不幸的人不得不在卧床和痴呆之间,或者在躁狂和住院之间做出选择。他在未受刺激的状态下选择继续接受刺激(文献没有提到在受刺激的状态下他是否同意,因为在那种状态下他被认为没有心智能力)(Kraemer,2013b)。虽然在这个案例中没有发生这种情况,但可以想象一种情况,即患者在未受刺激的情况下选择接受长期刺激,但在受刺激的情况下会做出不同的选择(或反之亦然)。当我们试图确定两个可能的结果的价值时,可能会出现困境或悖论,因为这些结果对可能存在的人们有不同的价值。我们应该优先考虑哪个人(或处于哪种状态的人)?或者更令人困惑的是:如果治疗确实改变了人的“身份”(叙事或数字),我们是否应该让一个人有权同意一项程序或选择一个实际上影响不同人的结果?像这样的 DBS 案例将为神经伦理学家提供多年的研究素材(Skorburg 和 Sinnott-Armstrong,2020 年)。

许多其他用于治疗脑功能障碍的神经技术具有影响我们所认为与人类行为相关的某些方面的主要或副作用(Zuk 等,2018)。与这些神经技术相关的伦理问题包括确定:1)它们以何种方式影响我们的自我或行为;2)我们应该如何评价这种影响(或对行为的影响能力)的价值,是积极的还是消极的;以及 3)如何权衡积极的收益与消极的影响。一个被提出的问题是,我们是否拥有足够清晰的代理要素概念,以有效地进行这种分析(Roskies,2015)。此外,考虑到在这些要素的权衡中可能不存在客观标准的可能性,以及不同的人可能以不同的方式评价自己的不同方面,权衡过程可能必须是主观相对化的。

最后,深脑刺激(DBS)以及神经假肢和脑机接口(BCIs)引发了另一个神经伦理问题:我们对人性以及与机器的关系的概念。有人认为,这些技术有效地将一个人变成了一个半机械人,使他或她成为了非人类。虽然有些人认为这是我们物种特有的发明和改进自我的特点的伦理上无问题的自然延伸(Clark,2004),但其他人担心创造一个生物-控制系统的有机体会引发关于人性的本质或价值、关于自我的界限或关于普罗米修斯冲动的令人不安的问题。这些问题也完全属于神经伦理学的范畴。

2.4 意识、生命和死亡

意识的难题(查尔默斯,1995 年)对神经科学的探索几乎没有取得什么进展,目前也不清楚是否会有所突破。然而,在过去的十年里,意识研究的其他领域取得了令人瞩目的进展。最引人注目的是在脑成像技术中检测意识水平改变方面的改进。诊断行为无反应的患者长期以来一直是神经学的难题,尽管早在 20 年前,神经学家就已经认识到持续植物状态(PVS)、轻度意识状态(MCS)和锁定综合征(一种患者意识正常但无法活动的综合征)之间存在系统性差异和预后差异。功能性脑成像技术从根本上改变了照顾这些患者所面临的问题。欧文和他的同事们已经证明,通过展示这些被误诊为 PVS 的患者能够理解指令并遵循指示,可以确定他们实际上并不处于 PVS 状态(欧文,2006 年)。在这些研究中,正常受试者和脑损伤患者被要求在功能性磁共振成像仪中想象进行两种不同的活动。在正常受试者中,这两个任务激活了大脑皮层的不同部分。欧文发现,一个被诊断为 PVS 的患者显示了这种正常的模式,而其他 PVS 患者在接受这些指令时没有显示出差异激活。这些数据表明,一些被诊断为 PVS 的受试者实际上能够处理和理解指令,并且具有持续注意力和自愿的心理行为能力。这些结果在其他类似患者中得到了复制,并根据小规模队列的估计,大约有 20%的 PVS 患者被误诊。在后续研究中,同一研究小组使用这些想象技术,从一些严重脑损伤的患者那里得到了对是/否问题的回答(蒙蒂等人,2010 年)。 近期的研究旨在将这些方法应用于便宜且更便携的神经技术 EEG(Bai 等,2019)。神经影像学为评估和诊断意识障碍患者提供了新的工具(Owen,2013;Campbell,2020)。

这些研究有可能彻底改变对意识状态改变患者的诊断和护理方式,可能对终止生命支持的时间产生影响,并提出了让患者对其护理和生命终结决策有一定控制权的可能性(Peterson 等,2020;Braddock,2017)。然而,这最后一种可能性,在某种程度上减轻了如何治疗严重脑损伤个体的一些担忧,却引发了其他棘手的伦理问题。其中最紧迫的问题之一是如何处理能力和知情同意的问题:这些人患有严重的脑损伤,即使他们偶尔似乎能够理解和回答问题,仍然存在关于他们的能力是否稳定、多么复杂以及他们是否能够胜任对这些重大问题做出决策的问题,以及他们是否真的有利于继续依靠生命支持(Kahane 和 Savalescu,2009;Fischer 和 Truog,2017)。尽管如此,这些方法为诊断和治疗开辟了新的可能性,并为严重脑损伤患者恢复一定程度的自主权和自决权提供了希望。

2.5 实用的神经伦理学

医学实践和神经科学研究引发了许多神经伦理学问题,其中许多问题与生物伦理学相同。例如,同意问题、偶然发现问题、能力问题和信息隐私问题在这里引起。此外,实践神经学家、心理学家和精神科医生可能经常遇到某些脑部疾病、残疾或心理功能障碍,这些问题引发了他们在实践中必须解决的神经伦理学问题。(有关从实用角度讨论这些更具体问题的更详细讨论,请参见例如 Racine,2010;Martineau 和 Racine,2020)。

2.6 神经科学的公众认知

神经科学的进展已成为大众媒体的常见话题,色彩丰富的脑部图像成为新闻报道中的普遍插图。虽然没有人怀疑推广神经科学是一种积极的好事,但神经伦理学家对于错误信息的可能性确实感到担忧。这些担忧包括对神经科学的“诱人魅力”的担忧,以及对复杂科学问题的误导和过度简化的媒体报道。

2.6.1 迷人的诱惑

有记录显示,普通人往往认为涉及大脑、神经科学或神经学的信息比涉及心灵或心理学的信息更具特权、更客观、更可信。例如,Weisberg 等人报告称,几乎没有接受过神经科学培训的受试者在评价糟糕的解释时,如果解释涉及大脑或包含神经科学术语,他们会认为这些解释更好(Weisberg 等,2008 年)。这种“神经科学的迷人诱惑”类似于对权威的不合理认同。这种差异性评估也延伸到现实世界的环境中,神经科学家或神经学家的证词被认为比心理学家的证词更可信。人们倾向于将神经科学视为一门硬科学,与侧重于功能或行为的“软”研究方法形成对比。然而,这种观点对神经科学信息的起源和意义存在深刻的误解。人们没有意识到,神经影像学信息是通过其与功能的联系进行分类和解释的,因此(除非有特殊情况),它不能比其所依赖的心理学更可靠或“更硬”。

大脑图像特别引发了人们的担忧,认为伴随媒体报道的大脑“热点”图像本身可能具有误导性。如果人们直观地将大脑图像视为大脑活动的照片,这可能会误导他们认为这些图像是客观的现实表达,导致他们忽视了创造所见图像的许多推理步骤和非证明性决策(Roskies,2007)。担心的是,大脑图像的强大吸引力会使研究具有更多的认识权重,这是不合理的,并且会阻止人们提出许多复杂的问题,以便了解图像所表示的意义以及可以从数据中推断出什么。然而,进一步的研究表明,一旦考虑到神经科学相对于心理学的特权,图像本身并不会进一步误导(Schweitzer 等,2011)。

2.6.2 媒体炒作

在这个无可置疑的大脑研究进展的时代,存在着一种部分合理但也存在危险的“脑狂热”。科学文化使得科学家们常常以最夸张的方式描述他们的工作,以获得资金和/或名声。虽然这种夸大可以被了解科学的读者所忽略,但对科学了解较少的人可能会将其当作真实价值。研究表明,媒体很少对他们报道的科学发现进行批判,也不倾向于提出替代解释(Racine,2006,2015)。结果是,大众媒体传播了有时极不准确的合法科学发现的图片,这可能助长过于乐观的热情和恐惧。无论是基础研究还是临床治疗,神经伦理学的一个明确的实用目标是敦促和教育科学家和媒体更好地传达科学研究的承诺和复杂性。这两个群体的工作是教育公众足够了解科学,特别是大脑科学,以使其被视为值得尊重的,并且也需要进行与科学家自己对待自己的工作一样的批判性评估。

诚然,将复杂的科学发现准确地翻译给普通公众是困难的,但却是必要的。在某些情况下,结果的重要性被夸大可能会给人们带来不必要的希望,而在其他情况下则会引发恐惧,进而导致厌倦和怀疑。为科学否定者提供素材具有超越神经科学范围的政策影响。对科学的不信任是一种需要通过谨慎、早期和持续的公众教育来预防的流行病。这对于基础科学的未来地位和资金,以及我们已经看到的民主和地球的健康来说是至关重要的。

2.7 神经科学与正义

社会正义是伦理学和神经伦理学的关注点。许多伦理问题并非新问题,但有些具有新颖的方面。生物伦理学传统上也关注患者自主权和自决权的问题。如上所述,当涉及的器官是患者的大脑,并且涉及到能力的问题时,这些问题变得更加重要。

在进行非人类神经科学研究时,也存在伦理问题。与传统的生物伦理学一样,神经伦理学必须解决关于在神经科学实验中道德使用动物的问题。此外,它还应考虑关于将动物作为模型系统来理解人类大脑和人类认知的问题(Johnson 等,2020 年)。动物研究为我们提供了大部分关于神经生理学和解剖学的理解,并为我们对保守的生物能力的功能提供了重要的见解。然而,随着我们进一步探索关于更高认知功能的未知领域,我们将不得不关注人类和其他物种之间的相似性和差异性,并评估模型系统可能涉及相当多的哲学工作。在某些情况下,这些差异可能不足以支持动物实验。

神经伦理学还必须关注其他问题,包括社会公正。随着神经科学承诺提供治疗和增强手段,它必须关注分配公正的问题,并在确保神经科学研究成果不仅仅只惠及那些享受我们社会最好条件的人方面发挥作用。此外,对贫困和社会经济地位普遍具有长期认知影响的日益增长的认识,引发了关于社会政策和我们社会结构以及富人与穷人之间日益增长的差距的道德问题(Farah,2017)。社会和神经科学的现实似乎揭示了美国梦在很大程度上是空洞的,这些发现可能削弱一些流行的政治意识形态。还有一些全球性问题需要考虑(Stein 和 Singh,2020)。公正可能要求神经伦理学家在政策决策中发挥更多作用。

最后,神经伦理学与法律密不可分(参见,例如,Vincent,2013;Morse 和 Roskies,2013;Jones 等,2014)。神经伦理学问题出现在刑法中,特别是在刑事责任问题上(参见,例如,Birks&Douglas,2018)。例如,认识到大部分监狱囚犯有头部创伤或其他异常历史,引发了在坏人和疯子之间划定界限的问题。神经伦理学涉及成瘾和未成年人责任问题,以及法律的其他领域,如侵权法、劳动法和医疗法。

3. 伦理学的神经科学

神经科学,或更广泛地说是认知和神经科学,已经在理解道德思维和社会行为的神经基础方面取得了重要进展。在过去几十年中,这些领域已经开始揭示人类道德判断、利他行为和道德情感的神经机制(Liao,2016)。社会神经科学这个二十年前还不存在的领域正在蓬勃发展,我们对于一些最复杂和微妙的人际行为的电路、神经化学和调节影响的理解正在迅速增长。神经伦理学认识到对社会和道德行为的生物学基础的加深理解本身可能会对我们将自己概念化为社会和道德主体的方式产生影响,并预见到我们科学对自身的概念与我们的道德观和理论之间的相互作用的重要性(Roskies,2002)。这种相互作用及其影响使我们有理由将伦理学的神经科学(或更广泛地说,社会性的神经科学)视为神经伦理学领域的一部分。

也许最著名且具争议的例子是这种相互作用的开始。2001 年,乔舒亚·格林(Joshua Greene)在人们做出一系列道德和非道德决策的不同情境中进行了扫描,包括在哲学“道路车辆问题”(Thomson,1985)上建模的困境。他注意到与道德处理相关的脑区在“个人”和“非个人”道德困境中的参与存在系统性差异,并假设情绪干扰是导致在过桥案例中判断是否允许的反应时间差异的原因。在后续的研究中,他提出了一个道德判断的双过程模型,其中相对自动的基于情绪的反应和高级认知控制共同决定对道德困境的反应,并将他的发现与哲学道德理论联系起来。最具争议的是,他认为我们对于义务论判断有理由持怀疑态度,并解释他的工作为支持功利主义理论(Greene,2013)。因此,格林的工作是神经科学如何影响我们的伦理理论的明显例子。关于神经科学研究对哲学问题的重要性的主张在哲学界和其他领域引发了激烈的辩论,并引发了哲学内外学者的批评和回应(参见,例如,Berker,2009;Kahane,2011;Christensen,2014)。这些交流的一个影响是突显科学家和一些哲学家倾向于认为他们可以从纯粹的描述性数据中得出规范性结论的问题;另一个影响是阐明描述性数据本身可能伪装成规范性数据的方式(Roskies,即将出版)。

格林的早期研究表明,神经科学可以用于研究极高水平的行为和能力,并且已经成为许多其他实验的灵感,这些实验研究社会和道德行为以及能力的神经基础(May 等,即将发表)。神经伦理学已经开始关注诸如利他主义、共情、幸福感和心灵理论等现象,以及自闭症和精神病等疾病。相关研究范围从使用各种成像技术的成像研究,到激素和神经化学物质的操纵,到纯行为研究和虚拟现实的使用。此外,对道德和社会神经科学的兴趣与神经经济学的增长产生了协同效应,后者在很大程度上独立发展。最近的一份参考文献收集了自 2002 年以来有关伦理神经科学的近 400 个作品(Darragh 等,2015)。我们可以有把握地认为,在未来的几年里将会取得更多的进展,并且神经伦理学家将被要求推进、评估、阐述或削弱我们新知识所声称的伦理影响。

4. 展望未来:新的神经技术

上述讨论的例子包括已经获得批准使用的药物、现有的脑成像技术和侵入性神经治疗。但实际的神经伦理关注和一些理论关注高度依赖于技术的细节。例如,自适应深脑刺激(adaptive DBS)或 aDBS 通过同时刺激和记录神经组织,并根据大脑状态自动调节刺激,引发了比常规深脑刺激(regular DBS)更紧迫和略有不同的有关代理和自主性的关注(参见 Goering 等人,2017 年)。已经有几种即将问世的技术必然会引发一些新的神经伦理问题,或以新的形式提出旧问题。研究神经科学家工具中最强大的新工具之一是“光遗传学”,一种通过基因工程蛋白质转染脑细胞,使细胞对特定波长的光敏感的方法(Diesseroth,2011 年)。然后可以通过照射光线来激活或沉默这些细胞,实现对细胞特异性的外部控制。光遗传学已成功应用于许多模式生物中,包括大鼠,并正在进行将光遗传学应用于猴子的研究。可以预见,它只是时间问题,它将被开发用于人类。该方法承诺提供对特定神经群体的精确控制和相对非侵入性的针对性疾病治疗。它承诺引发许多干预脑功能的机制所引发的神经伦理问题:伤害问题、真实性问题以及大脑细胞被他人控制的前景(Gilbert,2014 年;Adamczyk&Zawadzki,2020 年)。第二种技术 CRISPR 允许有力的靶向基因编辑。虽然不是严格的神经科学技术,但它可以用于神经细胞,以在基因水平上影响大脑变化(Canli,2015 年)。 通过基因工程,可能实现神经基因疗法和设计婴儿,使得基因革命的真实后果远远超出我们迄今为止所能想象的。

这些以及其他技术在几十年前甚至无法想象,很可能会出现我们目前无法预料的其他未来技术。如果许多神经伦理问题与神经技术的能力密切相关,正如我所主张的那样,那么我们很可能无法详细预测未来技术可能引发的神经伦理问题的组合。神经伦理学将随着神经科学的发展而发展,适应新的伦理和技术挑战。

Bibliography

  • Abbott, M., and S. Peck, 2017, “Emerging Ethical Issues Related to the Use of Brain-Computer Interfaces for Patients with Total Locked-in Syndrome,” Neuroethics, 10(2): 235–242. doi:10.1007/s12152-016-9296-1

  • Adamczyk, A. and P. Zawadzki, 2020, “The Memory-Modifying Potential of Optogenetics and the Need for Neuroethics,” NanoEthics. doi:10.1007/s11569-020-00377-1

  • Aharoni, Eyal, Joshua Mallett, Gina M. Vincent, Carla L. Harenski, Vince D. Calhoun, Walter Sinnott-Armstrong, Michael S. Gazzaniga, and Kent A. Kiehl, 2014, “Predictive Accuracy in the Neuroprediction of Rearrest,” Social Neuroscience, 9(4): 332–36. doi:10.1080/17470919.2014.907201

  • Aharoni, E., G.Vincent, C. Harenski, V. Calhoun, W. Sinnott-Armstrong, M. Gazzaniga, and K. Kiehl, 2013, “Neuroprediction of Future Rearrest,” Proceedings of the National Academy of Sciences, 110(15): 6223–28. doi:10.1073/pnas.1219302110

  • Appel, J., 2010 [2011], “Beyond Fluoride: Pharmaceuticals, Drinking Water and the Public Health,” The Huffington Post, 18 March 2010, updated 25 May 2011; available online.

  • Aydin, O., P. Aydin, and A. Arslan, 2019, “Development of Neuroimaging-Based Biomarkers in Psychiatry,” Advances in Experimental Medicine and Biology, 1192: 159–95. doi:10.1007/978-981-32-9721-0_9

  • Bai, Y., Y. Lin, and U. Ziemann, 2020, “Managing Disorders of Consciousness: The Role of Electroencephalography,” Journal of Neurology, doi:10.1007/s00415-020-10095-z

  • Berker, S., 2009, “The Normative Insignificance of Neuroscience,” Philosophy & Public Affairs, 37(4): 293–329.

  • Birks, D. and T. Douglas (eds.), 2018, Treatment for Crime: Philosophical Essays on Neurointerventions in Criminal Justice, Oxford: Oxford University Press.

  • Boire, Richard G., 2001, “On Cognitive Liberty”, The Journal of Cognitive Liberties, 2(1): 7–22

  • Braddock, Matthew, 2017, “‘Should We Treat Vegetative and Minimally Conscious Patients as Persons?’” Neuroethics, 10(2): 267–80. doi:10.1007/s12152-017-9309-8

  • Brembs, Björn, 2010, “Towards a Scientific Concept of Free Will as a Biological Trait: Spontaneous Actions and Decision-Making in Invertebrates,” Proceedings of the Royal Society of London B: Biological Sciences, doi:10.1098/rspb.2010.2325

  • Brown, Timothy, 2015, “A Relational Take on Advisory Brain Implant Systems,” AJOB Neuroscience, 6(4): 46–47. doi:10.1080/21507740.2015.1094559

  • Bublitz, J., 2020, The Nascent Right to Psychological Integrity and Mental Self-Determination. In A. Von Arnauld, K. Von der Decken, and M. Susi (eds.), The Cambridge Handbook of New Human Rights: Recognition, Novelty, Rhetoric, pp. 387–403. Cambridge: Cambridge University Press. doi:10.1017/9781108676106.031

  • Buckner, Randy L., Jessica R. Andrews-Hanna, and Daniel L. Schacter, 2008, “The Brain’s Default Network,” Annals of the New York Academy of Sciences, 1124(1): 1–38. doi:10.1196/annals.1440.011

  • Campbell, J., Z. Huang, J. Zhang, X. Wu, P. Qin, G. Northoff, G. Mashour, and A. Hudetz, 2020, “Pharmacologically Informed Machine Learning Approach for Identifying Pathological States of Unconsciousness via Resting-State FMRI,” NeuroImage, 206: 116316. doi:10.1016/j.neuroimage.2019.116316

  • Canli, Turhan, 2015, “Neurogenethics: An Emerging Discipline at the Intersection of Ethics, Neuroscience, and Genomics,” Applied & Translational Genomics, Neurogenomics: Coming of Age, 5: 18–22. doi:10.1016/j.atg.2015.05.002

  • Chalmers, D. J, 1995, “Facing up to the Problem of Consciousness,” Journal of Consciousness Studies, 2(3): 200–219.

  • Chekroud, Adam Mourad, Jim AC Everett, Holly Bridge, and Miles Hewstone, 2014, “A Review of Neuroimaging Studies of Race-Related Prejudice: Does Amygdala Response Reflect Threat?” Frontiers in Human Neuroscience, 8: 179. doi:10.3389/fnhum.2014.00179

  • Clark, Andy, 2004, Natural-Born Cyborgs: Minds, Technologies, and the Future of Human Intelligence, first edition, New York: Oxford University Press.

  • Darragh, Martina, Liana Buniak, and James Giordano, 2015, “A Four-Part Working Bibliography of Neuroethics: Part 2 – Neuroscientific Studies of Morality and Ethics,” Philosophy, Ethics, and Humanities in Medicine (PEHM), 10. doi:10.1186/s13010-015-0022-0

  • Deisseroth, K, 2010, “Optogenetics,” Nature Methods, 8: 26–29. doi: 10.1038/nmeth.f.324

  • Delfin, Carl, Hedvig Krona, Peter Andiné, Erik Ryding, Märta Wallinius, and Björn Hofvander, 2019, “Prediction of Recidivism in a Long-Term Follow-up of Forensic Psychiatric Patients: Incremental Effects of Neuroimaging Data,” PLoS ONE, 14(5). doi:10.1371/journal.pone.0217127

  • Douglas, Thomas, 2019, “Enhancement and Desert,” Politics, Philosophy & Economics, 18(1): 3–22. doi:10.1177/1470594X18810439

  • –––, 2008,“Moral Enhancement,” Journal of Applied Philosophy, 25(3): 228–45. doi:10.1111/j.1468-5930.2008.00412.x

  • Dresler, Martin, Anders Sandberg, Christoph Bublitz, Kathrin Ohla, Carlos Trenado, Aleksandra Mroczko-Wąsowicz, Simone Kühn, and Dimitris Repantis, 2019, “Hacking the Brain: Dimensions of Cognitive Enhancement,” ACS Chemical Neuroscience 10(3): 1137–48. doi:10.1021/acschemneuro.8b00571

  • Dubljević, Veljko, and Eric Racine, 2017, “Moral Enhancement Meets Normative and Empirical Reality: Assessing the Practical Feasibility of Moral Enhancement Neurotechnologies,” Bioethics, 31(5): 338–48. doi:10.1111/bioe.12355

  • Erler, Alexandre, 2011,“Does Memory Modification Threaten Our Authenticity?” Neuroethics, 4(3): 235–49. doi:10.1007/s12152-010-9090-4

  • Farah, Martha J. (ed.), 2010, Neuroethics: An Introduction with Readings, first Edition, Cambridge, MA: The MIT Press.

  • Farah, Martha J., 2017, “The Neuroscience of Socioeconomic Status: Correlates, Causes, and Consequences,” Neuron, 96(1): 56–71. doi:10.1016/j.neuron.2017.08.034

  • Farah, Martha J., J. Benjamin Hutchinson, Elizabeth A. Phelps, and Anthony D. Wagner, 2014, “Functional MRI-Based Lie Detection: Scientific and Societal Challenges,” Nature Reviews Neuroscience, 15(2): 123–31. doi:10.1038/nrn3665

  • Fischer, David, and Robert D. Truog, 2017, “The Problems with Fixating on Consciousness in Disorders of Consciousness,” American Journal of Bioethics: Neuroscience, 8(3): 135–40.

  • Gilbert, Frederic, 2015, “A Threat to Autonomy? The Intrusion of Predictive Brain Implants,” AJOB Neuroscience, 6(4): 4–11. doi:10.1080/21507740.2015.1076087

  • Goering, Sara, Eran Klein, Darin D. Dougherty, and Alik S. Widge, 2017, “Staying in the Loop: Relational Agency and Identity in Next-Generation DBS for Psychiatry,” AJOB Neuroscience, 8(2): 59–70. doi:10.1080/21507740.2017.1320320

  • Greely, Henry, Barbara Sahakian, John Harris, Ronald C. Kessler, Michael Gazzaniga, Philip Campbell, and Martha J. Farah, 2008,“Towards Responsible Use of Cognitive-Enhancing Drugs by the Healthy,” Nature, 456(7223): 702–5. doi:10.1038/456702a

  • Greene, Joshua D., and Joseph M. Paxton, 2009, “Patterns of Neural Activity Associated with Honest and Dishonest Moral Decisions,” Proceedings of the National Academy of Sciences, 106(30): 12506–11. doi:10.1073/pnas.0900152106

  • Greene, Joshua D., Leigh E. Nystrom, Andrew D. Engell, John M. Darley, and Jonathan D. Cohen, 2004, “The Neural Bases of Cognitive Conflict and Control in Moral Judgment,” Neuron, 44(2): 389–400. doi:10.1016/j.neuron.2004.09.027

  • Greene, Joshua D., R. Brian Sommerville, Leigh E. Nystrom, John M. Darley, and Jonathan D. Cohen, 2001, “An fMRI Investigation of Emotional Engagement in Moral Judgment,” Science, 293(5537): 2105–8. doi:10.1126/science.1062872

  • Greene, Joshua D., Sylvia A. Morelli, Kelly Lowenberg, Leigh E. Nystrom, and Jonathan D. Cohen, 2008, “Cognitive Load Selectively Interferes with Utilitarian Moral Judgment,” Cognition, 107(3): 1144–54. doi:10.1016/j.cognition.2007.11.004

  • Greene, Joshua, 2013, Moral Tribes: Emotion, Reason, and the Gap Between Us and Them, New York: Penguin Press.

  • Hsu, Chun-Wei, Chiara Begliomini, Tommaso Dall’Acqua, and Giorgio Ganis, 2019, “The Effect of Mental Countermeasures on Neuroimaging-Based Concealed Information Tests,” Human Brain Mapping, 40(10): 2899–2916. doi:10.1002/hbm.24567

  • Husain, Masud, and Mitul A. Mehta, 2011, “Cognitive Enhancement by Drugs in Health and Disease,” Trends in Cognitive Sciences, 15(1): 28–36. doi:10.1016/j.tics.2010.11.002

  • Ienca, Marcello, and Roberto Andorno, 2017, “Towards New Human Rights in the Age of Neuroscience and Neurotechnology,” Life Sciences, Society and Policy, 13(1): 5. doi:10.1186/s40504-017-0050-1

  • Ilieva, Irena, Joseph Boland, and Martha J. Farah, 2013, “Objective and Subjective Cognitive Enhancing Effects of Mixed Amphetamine Salts in Healthy People,” Neuropharmacology, Cognitive Enhancers: molecules, mechanisms and minds 22nd Neuropharmacology Conference: Cognitive Enhancers, 64 (January): 496–505. doi:10.1016/j.neuropharm.2012.07.021

  • Illes, Judy, and Barbara J. Sahakian, 2011, Oxford Handbook of Neuroethics, Oxford: Oxford University Press.

  • Illes, Judy, Matthew P. Kirschen, and John D. E. Gabrieli, 2003, “From Neuroimaging to Neuroethics,” Nature Neuroscience, 6(3): 205–205. doi:10.1038/nn0303–205

  • Illes, Judy, Matthew P. Kirschen, Emmeline Edwards, L R. Stanford, Peter Bandettini, Mildred K. Cho, Paul J. Ford, et al., 2006, “Incidental Findings in Brain Imaging Research,” Science, 311(5762): 783–84. doi:10.1126/science.1124665

  • Illes, Judy, 2006, Neuroethics: Defining the Issues in Theory, Practice, and Policy, Oxford: Oxford University Press.

  • Jebari, Karim, 2013, “Brain Machine Interface and Human Enhancement – An Ethical Review,” Neuroethics, 6(3): 617–25. doi:10.1007/s12152-012-9176-2

  • Jecker, Nancy S., and Andrew L. Ko, 2017, “Is That the Same Person? Case Studies in Neurosurgery,” AJOB Neuroscience, 8(3): 160–70. doi:10.1080/21507740.2017.1366578

  • Johnson, L. Syd M., Andrew Fenton, and Adam Shriver (eds.), 2020, Neuroethics and Nonhuman Animals: Advances in Neuroethics, Springer International Publishing. doi:10.1007/978-3-030-31011-0

  • Jones, Owen D., Jeffrey D. Schall, and Francis X. Shen, 2014, Law & Neuroscience, 1st edition. New York: Wolters Kluwer Law & Business.

  • Jones, Owen D., Joshua Buckholtz, Jeffrey D. Schall, and Rene Marois, 2009, Brain Imaging for Legal Thinkers: A Guide for the Perplexed, SSRN Scholarly Paper ID 1563612. Rochester, NY: Social Science Research Network.

  • Kahane, Guy and Julian Savulescu, 2009, “Brain damage and the moral significance of consciousness,” The Journal of Medicine and Philosophy: A Forum for Bioethics and Philosophy of Medicine, 34(1):6–26.

  • Kahane, Guy, Katja Wiech, Nicholas Shackel, Miguel Farias, Julian Savulescu, and Irene Tracey, 2011, “The Neural Basis of Intuitive and Counterintuitive Moral Judgment,” Social Cognitive and Affective Neuroscience, March, nsr005. doi:10.1093/scan/nsr005

  • Kahane, Guy, 2011, “Mastery Without Mystery: Why There Is No Promethean Sin in Enhancement,” Journal of Applied Philosophy, 28(4): 355–68. doi:10.1111/j.1468-5930.2011.00543.x

  • Kass, Leon, 2003, “Beyond Therapy: Biotechnology and the Pursuit of Human Improvement,” President’s Council on Bioethics, Washington, DC, 16.

  • Klaming, Larry and Pim Haselager, 2013, “Did My Brain Implant Make Me Do It? Questions Raised by DBS Regarding Psychological Continuity, Responsibility for Action and Mental Competence,” Neuroethics, 6: 527–39.

  • Klein, Eran, Tim Brown, Matthew Sample, Anjali R. Truitt, and Sara Goering, 2015, “Engineering the Brain: Ethical Issues and the Introduction of Neural Devices,” The Hastings Center Report, 45(6): 26–35. doi:10.1002/hast.515

  • Kraemer, Felicitas, 2013, “Me, Myself and My Brain Implant: Deep Brain Stimulation Raises Questions of Personal Authenticity and Alienation,” Neuroethics, 6: 483–97.

  • Kraemer, Felicitas, 2013, “Authenticity or Autonomy? When Deep Brain Stimulation Causes a Dilemma,” Journal of Medical Ethics, 39(12): 757–60. doi:10.1136/medethics-2011-100427

  • Lavazza, Andrea, 2018, “Freedom of Thought and Mental Integrity: The Moral Requirements for Any Neural Prosthesis,” Frontiers in Neuroscience, 12, doi:10.3389/fnins.2018.00082

  • Lázaro-Muñoz, Gabriel, Amy L. McGuire, and Wayne K. Goodman, 2017, “Should We Be Concerned About Preserving Agency and Personal Identity in Patients With Adaptive Deep Brain Stimulation Systems?” AJOB Neuroscience, 8 (2): 73–75. doi:10.1080/21507740.2017.1320337

  • Leentjens A.F., Visser-Vandewalle V., Temel Y., Verhey F.R., 2004, “Manipulation of mental competence: An ethical problem in case of electrical stimulation of the subthalamic nucleus for severe Parkinson’s disease,” Nederlands Tijdschrift voor Geneeskunde, 148(28): 1394 – 98.

  • Liao, S. Matthew. Moral Brains: The Neuroscience of Morality, first edition, New York, NY: Oxford University Press, 2016.

  • Libet, Benjamin, Curtis A. Gleason, Elwood W. Wright, and Dennis K. Pearl, 1983, “Time of Conscious Intention to Act in Relation to Onset of Cerebral Activity (readiness-Potential),” Brain, 106(3): 623–42. doi:10.1093/brain/106.3.623

  • Lin, Patrick, and Fritz Allhoff, 2008, “Against Unrestricted Human Enhancement,” Journal of Evolution & Technology, 18(1): 35–41.

  • Liu, Xiaonan, Kewei Chen, Teresa Wu, David Weidman, Fleming Lure, and Jing Li, 2018, “Use of Multimodality Imaging and Artificial Intelligence for Diagnosis and Prognosis of Early Stages of Alzheimer’s Disease,” Translational Research: The Journal of Laboratory and Clinical Medicine, 194: 56–67. doi:10.1016/j.trsl.2018.01.001

  • Mackenzie, Catriona, and Mary Walker, 2015, “Neurotechnologies, Personal Identity, and the Ethics of Authenticity,” in Handbook of Neuroethics, edited by Jens Clausen and Neil Levy, Dordrecht: Springer Netherlands, pp. 373–92, doi:10.1007/978-94-007-4707-4_10

  • Mantione, Mariska, Martijn Figee, and Damiaan Denys, 2014, “A case of musical preference for Johnny Cash following deep brain stimulation of the nucleus accumbens,” Frontiers in Behavioral Neuroscience, 8: 152.

  • Marcus, Steven J. (ed.), 2002, Neuroethics: Mapping the Field, first edition, New York: Dana Press.

  • Mattay, Venkata S., Joseph H. Callicott, Alessandro Bertolino, Ian Heaton, Joseph A. Frank, Richard Coppola, Karen F. Berman, Terry E. Goldberg, and Daniel R. Weinberger, 2000, “Effects of Dextroamphetamine on Cognitive Performance and Cortical Activation,” NeuroImage, 12(3): 268–75. doi:10.1006/nimg.2000.0610

  • May, Joshua, Clifford Ian Workman, Hyemin Han, and Julia Haas, (forthcoming), “The Neuroscience of Moral Judgment: Empirical and Philosophical Developments,” Preprint. PsyArXiv, May 1, 2020. doi:10.31234/osf.io/89jcx

  • Molenberghs, Pascal, and Winnifred R. Louis, 2018, “Insights From FMRI Studies Into Ingroup Bias,” Frontiers in Psychology, 9, doi:10.3389/fpsyg.2018.01868

  • Monti, Martin M., Audrey Vanhaudenhuyse, Martin R. Coleman, Melanie Boly, John D. Pickard, Luaba Tshibanda, Adrian M. Owen, and Steven Laureys, 2010, “Willful Modulation of Brain Activity in Disorders of Consciousness,” New England Journal of Medicine, 362(7): 579–89. doi:10.1056/NEJMoa0905370

  • Morse, Stephen J., and Adina L. Roskies (eds.), 2013, A Primer on Criminal Law and Neuroscience, Oxford, New York: Oxford University Press.

  • Olson, Eric T., 1999, The Human Animal: Personal Identity without Psychology, New York: Oxford University Press.

  • Owen. Adrian M., 2013, “Detecting Consciousness: A Unique Role for Neuroimaging,” Annual Review of Psychology, 64(1): 109–33. doi.org/10.1146/annurev-psych-113011-143729

  • Owen, Adrian M., Martin R. Coleman, Melanie Boly, Matthew H. Davis, Steven Laureys, and John D. Pickard, 2006, “Detecting Awareness in the Vegetative State,” Science, 313(5792): 1402–1402. doi:10.1126/science.1130197

  • Parens, Erik, 2005, “Authenticity and Ambivalence: Toward Understanding the Enhancement Debate,” The Hastings Center Report, 35(3): 34–41. doi:10.2307/3528804

  • Parfit, Derek, 1984, Reasons and Persons, Oxford: Oxford University Press.

  • Pascalev, Assya, Mario Pascalev, and James Giordano, 2016, “Head Transplants, Personal Identity and Neuroethics,” Neuroethics, 9(1) : 15–22. doi:10.1007/s12152-015-9245-4

  • Peterson, Andrew, Adrian M. Owen, and Jason Karlawish, 2020, “Alive Inside,” Bioethics, 34(3): 295–305. doi:10.1111/bioe.12678

  • Poldrack, Russell A., John Monahan, Peter B. Imrey, Valerie Reyna, Marcus Raichle, David Faigman, and Joshua W. Buckholtz, 2018, “Predicting Violent Behavior: What Can Neuroscience Add?” Trends in Cognitive Sciences, 22(2): 111–23. doi:10.1016/j.tics.2017.11.003

  • Presidential Commission for the Study of Bioethical Issues. “Gray Matters, Vol. 2” https://bioethicsarchive.georgetown.edu/pcsbi/node/4716.html.

  • Pugh, Jonathan, Hannah Maslen, and Julian Savalescu, 2017, “Deep Brain Stimulation, Authenticity and Value,” Cambridge Quarterly of Healthcare Ethics, 26(4): 640–57. doi:10.1017/S0963180117000147

  • Racine, Eric, Ofek Bar-Ilan, and Judy Illes, 2006, “Brain Imaging: A decade of coverage in the print media,” Science Communication, 28(1): 122–42. doi:10.1177/1075547006291990

  • Racine, Eric, 2015, “Neuroscience, Neuroethics, and the Media,” in Handbook of Neuroethics, Jens Clausen and Neil Levy (eds.), Dordrecht: Springer Netherlands, pp. 1465–71, doi:10.1007/978-94-007-4707-4_82

  • Racine, Eric, 2010, Pragmatic Neuroethics: Improving Treatment and Understanding of the Mind-Brain, Cambridge, MA: The MIT Press.

  • Roskies, Adina, 2002, “Neuroethics for the New Millenium,” Neuron, 35(1): 21–23. doi:10.1016/S0896-6273(02)00763-8

  • –––, 2007, “Are Neuroimages like Photographs of the Brain?” Philosophy of Science, 74: 860–72.

  • –––, 2006, “Neuroscientific Challenges to Free Will and Responsibility,” Trends in Cognitive Sciences, 10(9): 419–23. doi:10.1016/j.tics.2006.07.011

  • –––, 2015, “Agency and intervention,” Phil. Trans, R. Soc. B, 370(1677): 20140215. doi:10.1098/rstb.2014.0215

  • –––, 2015. “Mind Reading, Lie Detection, and Privacy,” in Handbook of Neuroethics, Jens Clausen and Neil Levy (eds.), Springer Netherlands, pp. 679–95

  • –––, 2020, “Mindreading and Privacy,” The New Cognitive Neurosciences, 6th Edition, Poeppel, D., Mangun, G.R. and Gazzaniga, M.S. (eds.). Cambridge, CA: MIT Press, pp. 1049–57.

  • –––, forthcoming. “The limits of neuroscience for ethics,” in The Oxford Handbook of Moral Psychology, Vargas and Doris (eds.).

  • Sahakian, Barbara, and Sharon Morein-Zamir, 2007, “Professor’s Little Helper,” Nature, 450(7173): 1157–59. doi:10.1038/4501157a

  • Sandel, Michael, 2002,“What’s Wrong with Enhancement,” President’s Council on Bioethics, Washington, DC, 12.

  • Savulescu, Julian, and Ingmar Persson, 2012, “Moral Enhancement, Freedom and the God Machine,” The Monist , 95(3): 399–421.

  • Schechtman, Marya, 2014, Staying Alive: Personal Identity, Practical Concerns, and the Unity of a Life, Oxford: Oxford University Press.

  • Schermer, Maartje, 2008, “Enhancements, Easy Shortcuts, and the Richness of Human Activities,” Bioethics, 22(7): 355–63. doi:10.1111/j.1467-8519.2008.00657.x

  • Schweitzer, N. J., Michael J. Saks, Emily R. Murphy, Adina L. Roskies, Walter Sinnott-Armstrong, and Lyn M. Gaudet, 2011, “Neuroimages as Evidence in a Mens Rea Defense: No Impact,” Psychology, Public Policy, and Law, 17(3): 357–93. doi:http://dx.doi.org/10.1037/a0023581

  • Selgelid, Michael J., 2007. “An Argument Against Arguments for Enhancement,” Studies in Ethics, Law, and Technology, 1(1).

  • Sententia, Wrye, 2013, “Freedom by Design”, In The Transhumanist Reader, x More and Natasha Vita-More (eds.), John Wiley & Sons, pp. 355–60. doi:10.1002/9781118555927.ch34

  • Shen, Francis, 2013, “Neuroscience, Mental Privacy, and the Law,,” Harvard Journal of Law & Public Policy, 36.

  • Shira Knafo and César Venero, (eds.), 2015, Cognitive Enhancement , San Diego: Academic Press, doi:10.1016/B978-0-12-417042-1.00001-2

  • Skorburg, Joshua August, and Walter Sinnott Armstrong, 2020 “Some Ethics of Deep Brain Stimulation,” in Global Mental Health and Neuroethics, Dan Stein and Ilina Singh (eds.), Academic Press, pp. 117–32.

  • Soon, Chun Siong, Marcel Brass, Hans-Jochen Heinze, and John-Dylan Haynes, 2008, “Unconscious Determinants of Free Decisions in the Human Brain,” Nature Neuroscience, 11(5): 543–45. doi:10.1038/nn.2112

  • Spence, Charles, 2020, “On the Ethics of Neuromarketing and Sensory Marketing,” In Organizational Neuroethics: Reflections on the Contributions of Neuroscience to Management Theories and Business Practices, Joé T. Martineau and Eric Racine (eds.), Cham: Springer International Publishing, pp. 9–29. doi:10.1007/978-3-030-27177-0_3

  • Spielberg, Steven (director), 2002, Film: Minority Report.

  • Stanton, Steven J., Walter Sinnott-Armstrong, and Scott A. Huettel, 2017, “Neuromarketing: Ethical Implications of Its Use and Potential Misuse,” Journal of Business Ethics, 144(4): 799–81. doi:10.1007/s10551-016-3059-0

  • Stein, Dan, and Ilina Singh (eds.), 2020, Global Mental Health and Neuroethics, London: Academic Press.

  • Strawson, Galen, 2004, “Against Narrativity,” Ratio, 17(4): 428–52. doi:10.1111/j.1467-9329.2004.00264.x

  • Thomson, Judith Jarvis, 1985, “The Trolley Problem,” The Yale Law Journal, 94(6): 1395–1415. doi:10.2307/796133

  • United States v. Semrau, No. 11–5396 (6th Cir. 2012).

  • Urban, Kimberly R., and Wen-Jun Gao, 2014, “Performance Enhancement at the Cost of Potential Brain Plasticity: Neural Ramifications of Nootropic Drugs in the Healthy Developing Brain,” Frontiers in Systems Neuroscience, 8 May: 38. doi:10.3389/fnsys.2014.00038

  • Valizadeh, Seyed Abolfazl, Franziskus Liem, Susan Mérillat, Jürgen Hänggi, and Lutz Jäncke, 2018, “Identification of Individual Subjects on the Basis of Their Brain Anatomical Features,” Scientific Reports , 8(1): 5611. doi:10.1038/s41598-018-23696-6

  • Vincent, Nicole A. (ed.), 2013, Neuroscience and Legal Responsibility, first edition, New York: Oxford University Press.

  • Vohs, Kathleen D., and Jonathan W. Schooler, 2008, “The Value of Believing in Free Will Encouraging a Belief in Determinism Increases Cheating,” Psychological Science, 19(1): 49–54. doi:10.1111/j.1467-9280.2008.02045.x

  • Walker, Mary Jean, and Catriona Mackenzie, 2020, “Neurotechnologies, Relational Autonomy, and Authenticity,” IJFAB: International Journal of Feminist Approaches to Bioethics. doi:10.3138/ijfab.13.1.06

  • Warren, Samuel D., and Louis D. Brandeis, 1890, “Right to Privacy,” Harvard Law Review, 4: 193.

  • Waters, Theodore E. A., and Robyn Fivush, 2014, “Relations Between Narrative Coherence, Identity, and Psychological Well-Being in Emerging Adulthood,” Journal of Personality, 83(4): 441–451. doi:10.1111/jopy.12120

  • Weisberg, Deena Skolnick, Frank C. Keil, Joshua Goodstein, Elizabeth Rawson, and Jeremy R. Gray, 2008, “The Seductive Allure of Neuroscience Explanations,” Journal of Cognitive Neuroscience, 20(3): 470–77. doi:10.1162/jocn.2008.20040

  • Zuk, Peter, Laura Torgerson, Demetrio Sierra-Mercado, and Gabriel Lázaro-Muñoz, 2018, “Neuroethics of Neuromodulation: An Update,” Current Opinion in Biomedical Engineering, 8: 45–50. doi:10.1016/j.cobme.2018.10.003

Academic Tools

Other Internet Resources

autonomy: in moral and political philosophy | autonomy: personal | bias, implicit | decision-making capacity | ethics, biomedical: clinical research | ethics, biomedical: justice, inequality, and health | ethics, biomedical: privacy and medicine | free will | health | human enhancement | informed consent | moral responsibility | personal identity | personal identity: and ethics

Acknowledgments

The author would like to acknowledge the research assistance of Yaning Chen for this project.

Copyright © 2021 by Adina Roskies <adina.roskies@dartmouth.edu>

最后更新于

Logo

道长哲学研讨会 2024