计算机与道德责任 and moral responsibility (Merel Noorman)

首次发表于 2012 年 7 月 18 日星期三;实质性修订于 2023 年 2 月 2 日星期四

传统上,关于道德责任的哲学讨论主要集中在道德行为的人类组成部分上。通常描述如何归因道德责任的解释会描述人类代理执行具有明确定义、直接后果的行动。然而,在当今日益技术化的社会中,人类活动无法适当理解而不涉及技术工具,这使得道德责任的归因变得复杂(Jonas 1984;Doorn & van de Poel 2012)。当我们与这些工具互动并通过它们进行互动时,它们会影响我们做出的决策以及我们做出决策的方式(Latour 1992,Verbeek 2021)。它们说服、促进和使特定的人类认知过程、行动或态度成为可能,同时限制、阻碍和抑制其他方面。例如,互联网搜索引擎会优先考虑并以特定顺序呈现信息,从而影响互联网用户所看到的内容。正如 Verbeek 所指出的,这些技术工具是“积极中介者”,它们“积极地共同塑造人们在世界中的存在:他们的感知和行动、经历和存在”(2006 年,第 364 页)。作为积极中介者,它们是人类行动的关键部分,因此挑战了不考虑技术积极作用的传统道德责任观念(Jonas 1984;Johnson 2001;Swierstra 和 Waelbers 2012)。

计算机科学呈现了一个特殊案例,用于理解技术在道德责任中的作用。随着计算机技术成为日常活动中更为重要的一部分,自动化更多决策过程,并继续改变人们之间的沟通和关系方式,它们进一步复杂化了已经存在的归因道德责任的任务。计算机技术在日常生活中的普及程度不断增加,这些技术的复杂性不断增加,以及它们提供的新可能性引发了新类型的问题:谁对互联网上发布的信息负责?开发计算机技术的人在多大程度上以及多长时间内对其产品的不良后果负有责任?随着计算机技术变得越来越复杂并表现出越来越自主的行为,人类是否仍然能够或应该对这些技术的行为负责?

本文首先将探讨计算机对传统道德责任观念提出的挑战。然后讨论各种作者如何应对这些挑战的两种不同方式:1)重新考虑道德代理的概念,2)重新思考道德责任本身的概念。


对道德责任的挑战

道德责任涉及人类行为及其意图和后果(Fisher 1999,Eshleman 2016,Talbert 2022)。一般来说,当一个人或一群人的自愿行为产生了具有道德意义的结果,使得责备或赞扬他们是合适的时候,他们就具有道德责任。因此,当一个人看到另一个人在淹死时,我们可能认为跳入水中并试图营救另一个人是一个人的道德责任。如果她成功地把这个人从水中拉出来,我们很可能会赞扬她,而如果她拒绝帮助,我们可能会责备她。归因道德责任建立了一个人或一群人与受到这个人或团体行为影响的人或事物之间的联系。执行行动并导致某事发生的人或团体通常被称为行动者。受到行动影响的人、团体或事物被称为受事者。在道德责任方面建立行动者与受事者之间的联系可以在回顾性和前瞻性两方面进行。也就是说,有时责任的归因涉及解释谁应对事故负责并应受惩罚。它也可以是关于前瞻性地确定一个人未来必须履行的义务和责任以及她应该做什么。

然而,适当归因道德责任的情况并不总是清晰明了。一方面,这个概念有着不同的含义,关于道德责任与其他责任的区别仍在争论中(Hart 1968,Talbert 2022,Tigard 2021a)。这个概念与责任、责任、有罪性、角色责任和因果关系有时交织在一起,有时又重叠。人们对于何种条件应当导致道德责任的归因也存在分歧;是否需要一个具有自由意志的行动者,以及是否只有人类才能被归因道德责任(参见道德责任条目)。

另一方面,由于人类活动的复杂性,特别是在当今的技术社会中,往往很难建立起代理人与受害者之间的直接联系。个人和机构通常在社会技术系统中行动,其中任务分布在人类和技术组件之间,彼此以不同方式相互影响,取决于上下文(Bijker, Hughes 和 Pinch,1987 年;Felt 等人,2016 年)。日益复杂的技术可能加剧了确定“责任”的困难。当出现问题时,人们期望对发生的事情进行事后分析,而系统越复杂,归因责任的任务就越具挑战性(Johnson 和 Powers,2005 年)。事实上,Matthias 认为存在日益扩大的“责任鸿沟”:计算机技术变得越来越复杂,人类越来越无法直接控制或干预这些技术的行为,我们就越难以合理地追究人类对这些技术的责任(Matthias,2004 年)。

计算机技术日益普及给确定道德责任的内涵以及如何正确归因道德责任带来了各种挑战。要解释计算机如何使责任的归因变得复杂,我们必须考虑在何种条件下责任的归因是有意义的。尽管在这个问题上存在着持续的哲学辩论,但大多数对道德责任的分析至少共享以下三个条件(Eshleman 2016; Jonas 1984):

  1. 人与行为结果之间应该存在因果关系。通常只有当一个人对事件结果有一定控制时,才会被追究责任。

  2. 主体必须具备知识并能够考虑其行为可能造成的后果。如果某人无法预料到自己的行为会导致有害事件,我们往往会原谅他们。

  3. 主体必须能够自由选择以某种方式行动。也就是说,如果某人的行为完全由外部力量决定,那么责任追究对于有害事件就没有意义。

对这三个条件的进一步审视显示,计算机科学可以使每个条件的适用变得更加复杂。

1.1 因果贡献

为了让一个人对特定事件负起道德责任,她必须能够对该事件施加某种影响。如果一个人无法通过采取不同的行动来避免事故,或者她无法控制导致事故发生的事件,责怪她是没有意义的。

然而,计算机技术可能会掩盖一个人的行为与最终后果之间的因果关系。追踪导致与计算机相关的灾难性事件(如飞机失事)的事件序列通常会引向多个方向,因为这类事件很少是单一错误或意外的结果。技术事故通常是各种参与计算机系统开发、使用和维护的个人的错误、误解或疏忽行为的积累产物,包括设计师、工程师、技术人员、监管者、管理者、用户、制造商、销售商、转售商甚至政策制定者。

多个参与者在技术的开发和部署中的参与引发了所谓的“众手问题”:当多个个体共同促成事件结果时,很难确定谁对什么负责(Jonas 1984; Friedman 1990; Nissenbaum 1994; van de Poel 等人 2015 年)。计算机领域中“众手问题”的一个经典例子是辐射治疗机 Therac-25 发生故障的案例(Leveson 和 Turner 1993; Leveson 1995)。这台计算机控制的机器旨在用于癌症患者的放射治疗以及 X 射线。在 20 世纪 80 年代的两年时间里,这台机器对六名患者进行了大量过量放射治疗,导致其中三人最终死亡。这些事件是多种因素的结合结果,包括软件错误、不足的测试和质量保证、对可靠性的夸大宣称、糟糕的界面设计、对软件设计的过度自信以及对事故报告的不足调查或跟进。然而,在他们对事件的分析中,Leveson 和 Turner 得出结论,很难归咎于单个人。所有参与者的行为或疏忽如果没有其他促成事件,可能不会导致致命后果。最近的一个“众手问题”例子是 2018 年底和 2019 年初两架 737 MAX 客机的坠毁。这些坠机导致了多次调查,强调了导致悲剧结果的各种因素,包括设计和人为错误以及组织文化和缺乏培训(Heckert 等人 2020 年)。这并不是说在这些情况下没有道德责任(Nissenbaum 1994; Gotterbarn 2001; Coeckelbergh 2012; Floridi 2013, Santonio De Sio 等人 2021 年),因为许多参与者本可以采取不同的行动,但这使得事后确定适当的人员以回答并弥补结果变得更加困难。

增加“许多手”的问题是计算所创造的时间和物理距离,这种距离可能会模糊行为和事件之间的因果关系(Friedman,1990)。计算技术通过时间和空间延伸了人类活动的范围。借助社交媒体和通信技术,人们可以与世界另一端的人互动。卫星和先进的通信技术使飞行员可以从地面控制站遥控飞行无人机,飞行距离遥远。这些技术使人们能够在更大的距离上行动,但这种遥远可能会使最初的行动与最终结果之间产生脱节(Waelbers,2009;Polder-Verkiel,2012;Coeckelbergh,2013)。当一个人使用技术工具在数千英里之外执行某项行动时,这个人可能不知道将会受到影响的人,她可能无法直接或只能部分地体验后果。这可能会减少人们感到的责任感,并可能干扰其充分理解行动的重要性。同样,自动决策系统的设计者事先确定决策应该如何进行,但他们很少会看到这些决策将如何影响受影响的个人。他们在编程系统时的最初行动可能会在多年后对人们产生影响。

许多手的问题和技术使用的疏远效应展示了技术工具在道德责任混乱中的中介作用。技术工具汇集了其创造者和使用者的各种不同意图。人们创造和部署技术的目的是在世界上产生某种影响。软件开发人员开发自动内容审核工具,通常是应其经理或客户的要求,目的是屏蔽特定内容,影响用户可以或不可以阅读的内容。该软件的设计中蕴含了开发人员、经理和客户的各种意图;根据他们对哪些信息适合的想法,它准备根据特定输入来行事(Friedman 1997,Gorwa、Binns 和 Katzenbach 2020)。因此,道德责任不能单纯归因于这些技术工具的因果效力,还需考察它们如何限制和促进特定的人类活动。

然而,尽管技术工具可能会影响和塑造人类行为,但并不决定它。它们不是孤立的工具,无论为何目的、由谁使用以及在什么背景下使用,它们的意义和功能都是相同的;它们具有解释灵活性(Bijker 等人,1987 年)或多稳定性(Ihde,1990 年)。尽管技术的设计为行动提供了一组条件,但这些行动的形式和意义是人类代理人选择在特定背景下如何使用这些技术的结果。人们经常以设计者未曾预料的方式使用技术。这种解释灵活性使得设计者难以预料他们的技术使用可能产生的所有可能结果。计算机技术的中介作用使得回溯行动和结果之间的因果关系变得复杂,但也使得前瞻性责任变得复杂。

1.2 考虑后果

随着计算机技术塑造人们感知和体验世界的方式,它们影响了归因道德责任的第二个条件。为了做出适当的决定,一个人必须能够考虑和深思其行为的后果。他们必须意识到他们的行为可能造成的潜在风险或伤害。如果一个人无法合理地知道他们的行为可能导致伤害,那么责任追究是不公平的。

一方面,计算机技术可以帮助用户思考他们的行动或选择可能导致的结果。它们帮助用户捕获、存储、组织和分析数据和信息(Zuboff,1982)。例如,武装部队或救援人员使用的遥控机器人经常被提及的优势之一是,它们使操作人员能够获取否则无法获得的信息。它们使操作人员能够“越过下一个山丘”或“转过下一个拐角”,从而帮助操作人员反思特定战术决策的后果(美国国防部,2009)。同样,数据分析工具可以在大量数据中找到人类数据分析师无法手动处理的模式(Boyd 和 Crawford,2012)。

另一方面,计算机的使用可能限制用户理解或考虑其行为结果的能力。这些复杂的技术永远不会完全免于错误,越来越多地隐藏在界面背后的自动化过程(Van den Hoven,2002)。一个例子说明了计算机技术如何限制对结果的理解,是美国几个州法官在假释决定和判决中使用的具有争议的风险评估工具。2016 年,一个民间社会组织根据对一个特定算法产生的 7000 名被告的风险评分进行分析发现,这些评分很少反映实际累犯率,并且似乎存在种族偏见(Angwin 等,2016)。无论其调查结果是否正确,这里特别相关的是,调查还显示法官们并不完全了解概率是如何计算的,部分原因是该算法是专有的。法官们基于他们并不完全理解的算法建议进行判决。这是当今大多数计算机技术的情况。用户只能看到计算机执行的许多计算的一部分,并且大多数时候不知道它是如何执行这些计算的;他们通常只对计算机屏幕上的信息基于的假设、模型和理论有部分理解。计算机系统日益复杂,依赖于不透明的机器学习算法,使得理解界面背后发生的事情变得更加困难(Pasquale,2015 年,Diakopoulos,2020 年)。

许多计算机系统的不透明性可能妨碍对信息的有效性和相关性进行评估,并可能阻止用户做出适当的决策。人们往往要么过分依赖自动化系统的准确性,要么不够依赖(Cummings 2004; Parasuraman & Riley 1997)。这种倾向被称为自动化偏见。例如,当一个人因为高误报率而不信任自动化系统时,她的负责任行为能力可能会受到影响。在 Therac 25 案例中,一名机器操作员作证称,她已经习惯了机器发出的许多神秘错误信息,大多数并不涉及患者安全(Leveson 和 Turner 1993, p.24)。她倾向于忽视这些信息,因此未能注意到机器被设置为给患者过量用药。过分依赖自动化系统可能会带来同样灾难性的后果。1988 年,美国海军导弹巡洋舰 Vincennes 号击落了一架伊朗民用客机,造成机上全部 290 名乘客丧生,因为它错误地将这架客机识别为进攻的军用飞机(Gray 1997)。该巡洋舰配备了一个可以自动跟踪和瞄准来袭导弹和敌方飞机的宙斯盾防御系统。对事件发生前的分析显示,对宙斯盾系统能力的过度自信阻止了其他人在可以干预时进行干预。附近的另外两艘军舰正确地将飞机识别为民用飞机。然而,他们没有质疑 Vincennes 号将飞机识别为军用飞机。在后来的解释中,附近一艘船的理查德·托马斯中尉表示:“我们称她为机器巡洋舰…她似乎总是有一个画面…她似乎总是在告诉每个人上下船,好像她的画面更好”(引自 Gray 1997, p. 34)。两艘船的船长认为,先进的宙斯盾系统为 Vincennes 号的船员提供了他们所没有的信息。

考虑一个人行为可能带来的后果变得更加复杂,因为计算机技术使人类能够做以前无法做到的事情。几十年前,哲学家拉德指出:“计算机技术创造了新的行为方式和新的社会制度,新的恶习和新的美德,新的帮助方式和新的滥用他人方式”(Ladd 1989, p. 210–11)。如今的计算机技术也产生了类似的影响。规范我们如何使用这些技术的社会或法律惯例需要一些时间才能形成,最初缺乏这些惯例会导致对责任的混淆(Taddeo 和 Floridi 2015)。例如,用户能够在互联网上公开上传和分享文本、视频和图像引发了一系列关于谁对上传材料内容负责的问题。这些问题是关于三名谷歌高管因违反数据保护法在意大利被定罪的辩论的核心(Sartor 和 Viola de Azevedo Cunha 2010)。该案件涉及 YouTube 上四名学生殴打残疾人的视频。在意大利邮政警察的要求下,作为 YouTube 所有者的谷歌在学生上传视频两个月后将视频删除。然而,法官裁定谷歌在未采取足够预防措施避免侵犯隐私的情况下处理视频时构成刑事责任。法官还认为谷歌未能充分告知上传视频的学生他们的数据保护义务(p. 367)。在关于裁决的辩论中,批评这一裁决的人坚称这威胁了互联网上的言论自由,并且树立了一个可以被专制政权用来为网络审查辩护的危险先例(另见 Singel 2010)。此外,他们声称平台提供商不能对用户的行为负责,因为他们不可能实际批准每个上传,也不是他们的职责审查。然而,其他人则认为,谷歌免责对因谷歌盈利商业活动而遭受损害的他人不道德。像这样的案例表明,在对新技术的可能性和限制的混淆中,确定一个人对他人的道德义务可能是困难的。

对新技术创新缺乏经验也会影响对技术的疏忽使用的认定。为了操作新的计算机系统,用户通常需要经过培训和熟悉系统的过程。理解和想象系统的行为需要技能和经验(Coeckelbergh 和 Wackers,2007)。Friedman 描述了一个程序员发明并正在实验一个“计算机蠕虫”的案例,这是一个可以自我复制的代码片段。当时,这是一个相对较新的计算实体(1990 年)。程序员将蠕虫释放到互联网上,但当代码复制得比他预期的更快时,实验很快失控了(另见 Denning,1989)。如今,我们不会认为这是一个令人满意的借口,因为我们已经熟悉计算机蠕虫、病毒和其他形式的恶意软件。然而,Friedman 提出了一个问题,即如果后果真的是意外的,那么程序员是否真的是以疏忽的方式行事。计算机社区对某种特定类型的计算实体缺乏经验是否会影响我们判断为疏忽行为?

1.3 自由行动

行动自由可能是归因道德责任的最重要条件之一,也是最具争议的条件之一(Talbert 2022)。如果一个人别无选择,只能按照自己的方式行动,我们往往会为其辩解,豁免其道德责任。通常情况下,如果一个人被胁迫或被迫采取特定行动,我们不会追究其责任。在道德哲学中,行动自由也可以意味着一个人拥有自由意志或自主权(Fisher 1999)。一个人可以因为根据自己真实的想法和动机行动,并且有能力控制自己的行为而被追究道德责任(Johnson 2001)。需要注意的是,这种自主权的概念与计算机科学中“自主权”一词的使用方式不同,后者通常指的是机器人或计算机系统在不可预测的环境中独立执行(即没有“人在其中”)复杂任务长时间的能力(Noorman 2009,Zerilli 等人 2021)。

然而,关于人类拥有哪些能力,其他实体没有的共识很少,使他们能够自由行动(参见有关自由意志、道德和政治哲学中的自主权、个人自主权和相容主义的条目)。这是否需要理性、情感、意图或认知?事实上,道德哲学中的一个重要争论集中在人类是否真正拥有自主权或自由意志的问题上?如果没有,道德责任是否仍然可以归因于他们(Talbert,2022)?

在实践中,基于一系列条件的满足来归因于人类的自主性或自由意志,结果证明这是一项并不直接的努力。我们按程度将自主性归因于个体。成年人通常被认为比儿童更具自主性。作为社会中的个体,我们的自主性被认为会有所不同,因为我们受到外部力量的操纵、控制或影响,比如父母或同龄人的压力。此外,内在的生理或心理影响,比如成瘾或心理问题,被认为进一步限制了个人的自主性。

计算机科学,像其他技术一样,为确定某人是否自由行事增加了一层复杂性,因为它影响了人类的选择以及他们如何做出选择。 计算机科学最大的应用领域之一是决策过程和控制的自动化。 自动化可以帮助集中和增加负责人对多个过程的控制,同时限制决策链底端的人类操作者的自由裁量权。 一个例子是公共管理决策的自动化(Bovens 和 Zouridis,2002 年)。 在过去几十年里,大型公共部门组织逐渐标准化和形式化了他们的生产过程。 在一些国家,关于(学生)贷款、社会福利、超速罚单或税务申报的决定过程在很大程度上由计算机系统执行。 这减少了许多官员(如税务稽查员、福利工作者和政策官员)在决定如何在个案中应用正式政策规则方面的行政裁量权的范围(Eubanks,2018 年)。 在某些情况下,公民不再与负有重要责任的官员互动,这些官员要应用他们对规则和法规的知识来决定什么是适当的(例如,是最好放过某人还是需要开出一张超速罚单?)。 相反,决策被预先编程在算法中,这些算法无论是对于个人还是背景都应用相同的措施和规则(例如,超速摄像头不关心背景或个人情况),而公民互动的人类几乎没有机会质疑或改变决定(Dignum,2020 年)。 在这些情况下做出的决定的责任已经从“街头级别的官僚”转移到“系统级别的官僚”,例如经理和计算机专家,他们决定如何将政策和法律框架转化为算法和决策树(Bovens 和 Zouridis,2002 年)。

官僚流程的自动化表明,一些计算机技术被有意设计为限制某些人的自由裁量权。一个例子是防酒精锁,已经在包括美国、加拿大、瑞典和英国在内的许多国家中使用。它要求驾驶员在启动汽车之前通过呼吸测试。这项技术强制执行一种特定的行为,几乎不给驾驶员任何选择。其他技术可能以更微妙的方式引导行为,通过说服或者劝导用户(Verbeek 2016)。例如,一些汽车上的车载电脑设备实时显示有关燃油消耗的信息,可以鼓励驾驶员优化燃油效率。这些技术旨在通过限制人类的选择或说服他们以某种方式选择,使人类表现出负责任的行为。

并非所有这些技术都旨在激发道德良好的行为。杨指出,这些决策指导技术已成为当今大数据分析技术的关键要素,应用于社交媒体和广告中。她认为,这些“超级助推”是极其强大的技术,可以操纵互联网用户和物联网设备用户的行为,因为它们具有网络化、持续更新、动态和无处不在的特性。它们从各种来源收集关于用户的数据,不断实时预测用户的习惯和偏好,可以针对这些用户进行广告、信息和价格激励,轻柔地、不显眼地引导这些用户朝着算法控制者所偏好的方向前进(杨,2017)。当这些助推几乎不易察觉且具有强大影响力时,人们会怀疑这些用户的决策是否具有自主性。例如,这种情况出现在黑暗模式中,黑暗模式利用网站或应用程序上的界面设计来欺骗用户做他们原本不打算做的事情,比如购买额外昂贵的保险(雷文斯克拉夫特,2020)。

Verbeek 指出,反对有意开发技术来强制实现道德行为的想法的批评者认为,这种做法抛弃了我们社会的民主原则,并威胁了人类尊严。他们认为,这种做法剥夺了人类做出审慎决定和自愿行动的能力和权利。此外,批评者声称,如果人类不是自由行动的,他们的行为就不能被视为道德的。正如 Verbeek 所主张的那样,这些反对意见可以通过指出已经为人类的行为设定条件的规则、规范、法规和大量技术工具来加以反驳。此外,他指出,作为积极中介的技术工具影响人类的行动和体验,但并不决定它们。一些人通过在汽车上安装空气泵巧妙地规避了早期版本的酒精锁的严格道德标准(Vidal 2004)。然而,这些批评强调了自动化决策过程中所涉及的问题:计算可以对一个人的行动自由设置限制,从而影响她能够承担道德责任的程度。

计算机技术在归因责任条件方面提出的挑战显示了传统伦理框架在处理道德责任问题上的局限性。传统的道德责任模型似乎是为个体直接可见后果的行为而发展的。然而,在当今社会,对个人或一组个人的责任归因与他们互动的工具、以及这些工具中介的其他人类代理的意图和行为交织在一起。使用计算机技术可能需要对谁可以被追究责任以及什么是道德责任的不同分析。下面我将讨论学者们如何应对这一挑战的两种方式:1)重新考虑什么是道德行为者,2)重新考虑道德责任的概念。

2. 计算机可以成为道德主体吗?

道德责任通常被归因于道德主体,在西方哲学传统中,道德代理人一直是一个专门为人类保留的概念(Johnson 2001; Doorn 和 van de Poel 2012)。与动物或自然灾害不同,在这些传统中,人类可以是道德上重要行为的发起者,因为他们可以自由选择以一种方式而不是另一种方式行动,并对这种选择的后果进行深思熟虑。尽管一些人倾向于拟人化计算机并将它们视为道德代理人(Reeves 和 Nass 1996; Nass 和 Moon 2000; Rosenthal-von der Pütten 2013),大多数哲学家都认为目前的计算机技术不应被称为道德代理人,如果这意味着它们可以被追究道德责任。然而,在思考计算的道德维度时,传统伦理词汇的局限性导致一些作者重新思考道德代理人的概念。值得注意的是,一些作者还主张重新考虑西方哲学中关于道德被动性的人类中心主义概念,特别是关于人工代理人或机器人的道德地位问题(Floridi 2016,Gunkel 2020,Coeckelbergh 2020)。以下内容将重点关注道德代理人,因为这些关于道德被动性的思考往往没有解决道德责任的挑战。

2.1 计算机作为道德负责任的代理者

计算机技术的日益复杂和人工智能(AI)的进步挑战了人类是唯一应该或可以被归责道德责任的实体的观念(Bechtel 1985; Kroes 和 Verbeek 2014)。例如,Dennett 提出,如果涉及到一个高阶有意识的计算机系统,那么将计算机视为道德上负有责任是可能的(1997)。根据他的说法,一个有意识的系统是一个可以通过归因于其信念和欲望以及理性来预测和解释的系统。换句话说,可以假定系统具有心理状态,并且它的行为可以通过假定系统具有心理状态并根据其信念和欲望行事来描述。当时,Dennett 指出,许多计算机已经是有意识的系统,但它们缺乏高阶能力来反思和推理其心理状态。它们没有关于自己信念的信念或关于欲望的想法。Dennett 提出,在电影《2001 太空漫游》中出现的虚构的 HAL 9000 可以被视为一个可以被道德上负有责任的高阶有意识系统。尽管人工智能的进步可能不会导致 HAL,但他确实看到了具有高阶意图性的计算机系统的发展是一个真正的可能性。

Sullins 在与 Dennett 一致的观点中提出,道德代理并不仅限于人类(2006 年)。他提出,当计算机系统或更具体地说,机器人具有显著水平的自主性,并且可以在适当的抽象水平上被视为展示有意识行为时,它们就是道德代理。根据 Sullins 的观点,机器人将具有显著的自主性,如果它在执行任务时不受其他代理的直接控制。需要注意的是,与道德哲学中人类自主性的概念相比,Sullins 将自主性解释为狭义。他补充说,第三个条件是机器人还必须处于一种责任的位置才能成为道德代理。也就是说,机器人执行某种社会角色,这个角色伴随着一些责任,在执行这个角色时,机器人似乎对其他道德代理有着“信念”和对其责任的理解(第 28 页)。为了说明“完全道德代理”需要哪些能力,他通过与人类护士的类比来阐述。他认为,如果一个机器人足够自主,能够执行与人类护士相同的职责,并且对其在医疗系统中的角色和责任有所了解,那么它就是一个“完全道德代理”。Sullins 认为,在拥有这种能力的机器出现之前 会有一段时间,但“即使是今天的一般机器人在某些抽象水平下也可以被视为某种程度的道德代理,并且值得受到道德考虑”(第 29 页)。

响应对早期(强)人工智能项目的反对意见(Sack 1997),对于丹尼特和萨林斯提出的分析的批评者,他们反对计算机技术可能具有使人类成为道德行为者的能力,比如心理状态、故意性、常识、情感或同理心(Johnson 2006; Kuflik 1999; Nyholm 2018)。例如,他们指出,将计算机系统视为可以承担责任的道德行为者是毫无意义的,因为它们无法受苦,因此也无法受到惩罚(Sparrow 2007; Asaro 2011)。Veliz 认为计算机可能会像道德行为者一样行事,但它们缺乏感知能力,因此是“道德僵尸”(2021)。Hakli 和 Makela 认为,计算机无法具备道德行为所需的自主性,因为它们的能力是工程和编程的结果,这削弱了机器人的自主性,使它们不适合作为道德行为者(2019)。或者像 Stahl 所说的那样,他们认为计算机无法进行道德推理,因为它们没有理解所处理信息的含义的能力(2006)。为了理解道德陈述的含义,一个行为者必须是使该陈述有意义的生活形式的一部分;它必须能够参与道德话语。与人工智能的争论类似,批评者继续通过指出计算机不具备、也无法具备的各种能力来区分人类和计算机,这些能力将证明道德行为的归因是合理的。

一些批评家并不否认人类可能能够构建具有道德代理能力所需的计算机系统,但质疑这样做是否在伦理上合适。例如,Bryson 认为,即使可能创造具有这种能力的工具——她认为这很可能是可能的——人类在这个问题上有选择权(2018 年)。她将道德代理定义为“被社会认为对其行为负责的东西”(第 16 页)。因此,社会可以在某个时候认为将某些计算机系统视为道德代理是合适的,例如,因为这将为确定责任分配提供捷径。然而,她认为,这些技术在我们社会中的位置并非必然或预定的。这是因为,她指出,计算机技术的伦理框架是“我们社会的产物,因此受人类控制”(第 15 页)。我们可以选择为这些工具装备什么样的能力,她认为没有任何一致的理由去创造人类必须在道德代理或耐心方面与之竞争的人工代理。

2.2 创造自主道德代理人

在没有明确支持或反对未来计算机系统可能具有道德责任的论据的情况下,机器伦理学领域的研究人员旨在通过专注于创建能够表现得像道德主体一样的计算机系统来进一步发展讨论(Moor 2006 年,Cervantes 等 2019 年,Zoshak 和 Dew 2021 年)。该领域的研究关注设计和开发能够独立确定在特定情况下应该做什么是正确的计算机系统。根据 Allen 和 Wallach 的说法,这样的自主道德代理人(AMAs)必须能够推理其行为的道德和社会意义,并利用他们对其行为对有感知能力的生物的影响的评估来做出适当的选择(2012 年;另请参见 Wallach 和 Allen 2009 年以及 Allen 等人 2000 年)。他们认为,这些能力是必要的,因为计算机变得越来越复杂,并且能够在不同的上下文和环境中在没有直接人类控制的情况下运行。已经在开发中的逐渐自主的技术,如军事机器人、无人驾驶汽车或火车以及家庭和医疗保健领域的服务机器人,将涉及直接影响人类安全和福祉的道德情况。未来,一个自主的拆弹机器人可能面临决定首先应该拆除哪颗炸弹,以最小化伤亡。同样,无人驾驶汽车可能需要做出的一个道德决定是是否为了避免对后面的驾驶员造成伤害而刹车或避让横穿马路的狗。这些决定需要判断。目前,操作员做出这样的道德决定,或者决定已经融入计算机系统的设计中。Wallach 和 Allen 认为,机器伦理学进一步超越了让工程师意识到他们在产品设计中构建的价值观,因为它旨在将道德决策纳入机器中。

为了进一步明确计算机做出道德决策或将“道德置于机器中”意味着什么,Moor(2006)区分了三种不同类型的道德代理:隐性道德代理、显性道德代理和完全道德代理。第一种代理是指将开发者的道德准则融入设计中的计算机。这些代理被构建为遵守它们被开发或将被使用的环境中的规范和价值观。因此,ATM 取款机被设计为具有高水平的安全性,以防止未经授权的人从解释中取款。显性道德代理是指能够“做道德决策”的计算机。换句话说,它可以基于道德模型确定在特定输入情况下应该做什么是正确的。道德模型可以基于伦理传统,如康德主义、儒家思想、Ubuntu 或功利主义伦理学,取决于其创作者的偏好。这些代理将代表其人类用户(和开发者)“做出道德决策”。这些代理类似于 Allen 和 Wallach 描述的自主道德代理。最后,Moor 将完全道德代理定义为能够做出道德判断并能够为其辩护的实体,就像人类一样。他声称,尽管在他撰写时还没有可以称之为完全道德的计算机技术,但未来是否可能是一个经验问题。今天很少有哲学家会主张这个问题已经得到肯定回答。

努力构建自主道德代理(AMAs)引发了一个问题,即这种努力如何影响道德责任的归属。由于人类将设计这些人工代理以在预先规定的形式化伦理框架内行为,因此很可能仍然会将责任归于这些人类行为者以及部署这些技术的人。然而,正如艾伦(Allen)和沃拉奇(Wallach)所承认的,专注于为机器人配备道德决策能力而不看向这些机器人嵌入的社会技术系统的危险在于,这可能会进一步混淆责任的分配(2012 年)。具有道德决策能力的机器人可能会带来类似于其他技术的责任归属挑战,当它们引入新的复杂性时,进一步混淆导致责任归属于其创造者和使用者的因果关系。

2.3 扩展道德代理的概念

Floridi 和 Sanders (2004) 认为,随着越来越自主和智能的计算机技术的前景以及寻找负责任的人类代理的困难日益增加,他们采取了一种不同的方法。他们建议将道德代理的类别扩展到包括人工代理,同时将道德代理和道德问责与道德责任的概念分开。他们认为,“传统的、现在已经相当过时的观点,即人类可以为某些软件甚至硬件负责,存在着不可逾越的困难”,这要求采取一种不同的方法(第 372 页)。相反,他们建议应该承认人工代理作为道德代理,可以被追究责任,但不负责。为了说明这一点,他们将人工代理与狗作为道德行为的源泉进行了比较。狗可以是道德行为的原因,比如损坏财产或帮助挽救人的生命,就像搜救犬的情况一样。根据 Floridi 和 Sanders 的观点,我们可以将它们识别为道德代理,即使我们通常不会将它们道德上负责:它们是道德行为的源泉,可以通过纠正或惩罚来对其进行道德追究。

Floridi 和 Sanders 认为,就像动物一样,人工智能代理可以被视为道德行为的源头,因此当它们被构想为像道德代理一样行事时,就可以对其进行道德追究。抽象级别的概念指的是一个人对实体的态度,以预测和解释其行为。在低层次的抽象中,我们会用机械或生物过程来解释系统的行为。在更高层次的抽象中,可以用信念、欲望和思想来描述系统的行为。如果在足够高的层次上,一个计算系统可以有效地被描述为具有互动性、自主性和适应性,那么根据 Floridi 和 Sanders 的说法(第 352 页),它就可以被追究责任。因此,一个代理被追究道德责任并不需要人格或自由意志;相反,代理必须表现得好像有意图并能够做出选择。

根据弗洛里迪(Floridi)和桑德斯(Sanders)的观点,将问责与责任分开的优势在于将焦点放在道德代理性、问责和谴责上,而不是在于弄清哪些人类代理是负责任的。“我们不太可能不惜一切代价分配责任,被迫要识别一个人类道德代理。我们可以解放 AAs(人工代理)的技术发展,使其不受标准限制性观点的约束”(第 376 页)。当人工代理“行为不端”时,可以直接处理,当其自主行为和复杂性使得在人类代理之间分配责任变得太困难时。不道德的代理可以被修改或删除。因此,即使无法确定道德责任,也可以归因于道德问责。

对 Floridi 和 Sanders 关于问责和道德代理的观点持批评态度的人认为,将分析重点放在将计算工件视为道德代理上会使注意力从部署和开发它们的人类身上转移。例如,Johnson 提出,计算机技术仍然与其创造者和用户的意图相关联。她认为,尽管计算工件是道德世界的一部分,应该被视为具有道德相关性的实体,但它们不是道德代理,因为它们没有意图。它们没有意图,因为它们没有心理状态或来自行动自由的目的。她强调,尽管这些工件没有意图,但它们具有意向性,但它们的意向性与其功能相关。它们是人造工件,其设计和使用反映了设计者和用户的意图。人类用户反过来利用他们的意向性与软件进行互动。通过与工件互动,他们激活了设计者和开发者所铭刻的意图。正是通过人类活动,计算机技术才被设计、开发、测试、安装、启动并提供输入和指令来执行指定的任务。没有这种人类活动,计算机将无法做任何事情。Johnson 声称,将独立的道德代理归因于计算机会使它们脱离创造、部署和使用它们的人类行为。这将使注意力从塑造技术发展的力量转移,并限制了干预的可能性。例如,它将问题留给谁来负责处理故障或不道德的人工代理,或者谁应该为它们可能引起的有害事件负责。它推迟了谁必须为人工代理被允许运行的条件负责的问题。

然而,技术仍然可以成为道德行为的一部分,而不必成为道德行为者。一些哲学家强调,要正确理解道德责任,就必须认识到技术在塑造人类行为中的积极作用(Jonas 1984; Verbeek 2006; Johnson and Powers 2005; Nyholm 2018)。例如,Johnson 认为,尽管计算机不是道德行为者,但工件设计者、工件本身和工件使用者都应成为道德评估的焦点,因为它们都参与了一项行动(Johnson 2006)。人类创造这些工件,并在其中铭刻他们特定的价值观和意图,以实现世界中特定的影响,反过来,这些技术工件影响着人类能够做什么和不能做什么,影响他们如何感知和解释世界。

同样,Verbeek 认为,技术工件本身并没有道德代理,但道德代理很少是“纯粹”人类的。道德代理通常涉及一个中介工件,塑造人类行为的方式往往出乎设计者的意料(2008 年)。道德决策和行动是由技术工件共同塑造的。他提出,在所有形式的人类行为中,有三种代理在起作用:1)执行行动的人的代理;2)帮助塑造工件中介作用的设计者的代理;3)中介人类行动的工件。工件的代理与其设计者和使用者的代理密不可分,但不能简化为其中任何一个。对他来说,因此,行动或做出道德决定的主体是由人类和技术组成的。道德代理不仅仅存在于人类之中,而是存在于人类和技术的复杂融合中。

在后续的论文中,Floridi 探讨了分布式道德行为的概念(2013 年,2016 年)。他认为,一些道德上重要的结果不能简化为某些个体的道德上重要的行为。几个个体的道德中立行为仍然可能导致道德上重要的事件发生。个体可能并没有打算造成伤害,但是他们的联合行为仍然可能导致对某人或某物的道德伤害。为了解决随后为这种分布式道德行为分配道德责任的问题,他认为分析的焦点应该从行动者转移到道德行为的受害者身上。然后,可以根据对受害者造成的伤害来评估道德行为,而不考虑涉及的行动者的意图。责任的分配则关注于行动者是否在因果上对结果负责,并调整他们的行为以防止伤害。如果因果负责的行动者(无论是人工的还是生物的)是自主的,能够相互交互作用并与其环境互动,并能够从互动中学习,那么根据 Floridi(2016 年)的观点,他们可以对分布式道德行为负责。

重新思考道德责任的概念

鉴于在归因道德责任方面存在的困难,一些作者批评了与计算机相关的概念在使用和解释上的方式。他们声称传统的处理道德责任的模型或框架存在不足,并提出了不同的观点或解释来解决一些困难。本节将讨论其中一些观点。

3.1 分配责任

一种方法是重新思考道德责任的分配(Gotterbarn,2001 年;Waelbers,2009 年)。在涉及计算从业者时,Gotterbarn 确定了一种通过寻找他人来推卸或避免责任的潜在可能性。他将这种潜在可能性归因于两种关于责任的普遍误解。第一个误解是计算是一种道德中立的实践。也就是说,根据 Gotterbarn 的说法,对技术制品和构建它们的实践是道德中立的错误信念经常被用来证明对计算机系统开发的狭隘以技术为中心的关注,而不考虑这些技术运作的更广泛背景。这种狭窄的关注可能会产生不利后果。Gotterbarn 举了一个悲剧性的案例,即由于一个有问题的 X 射线设备导致患者死亡。一个程序员被分配写一个程序,可以在 X 射线技术人员设置所需高度后,降低或提高 X 射线设备在杆上的高度。程序员专注于解决给定的难题,但未考虑设备将被使用的环境和可能发生的意外情况。因此,他没有考虑到患者可能会不小心处于设备上下移动的杆的路线上的可能性。这个疏忽最终导致了一起悲剧事故。当技术人员将设备设置为桌面高度时,不知道患者仍在设备下面时,患者被设备压扁。根据 Gotterbarn 的说法,计算从业者有道德责任考虑这种意外情况,即使他们可能没有法律要求这样做。技术制品的设计和使用是一种道德活动,选择一个特定的设计解决方案而不是另一个会产生真实和实质性的后果。

第二个误解是,责任仅仅是在出现问题时确定责任。根据戈特班(Gotterbarn)的说法,计算机从业者传统上采用了一个关注确定对有害事件负责的逆行为模型(2001 年)。这种逆行为模型导致各种借口来逃避责任。特别是,计算机技术引入的复杂性使得计算机从业者可以规避责任。例如,开发人员与他们创建的技术使用效果之间的距离可以被用来声称没有直接和即时的因果关系将开发人员与故障联系起来。开发人员可以辩称他们在事件链中的贡献微不足道,因为他们是团队或更大组织的一部分,他们几乎没有机会做出其他选择。根据戈特班的说法,逆行为模型诱使计算机从业者远离责任和指责。

这两种误解基于一种特定的对责任的回顾性看法,将焦点放在那些使人免于责备和责任的事物上。在引用拉德(Ladd)时,戈特班(Gotterbarn)将其称为负责任,并将其与正责任区分开来(另见拉德(Ladd)1989 年)。正责任强调“具有或被迫具有关心其行为对他人产生后果的美德”(Gotterbarn 2001 年,第 227 页)。正责任意味着计算机专家的专业性的一部分是他们努力减少可预见的不良事件。它侧重于应该做什么,而不是责备或惩罚他人的不负责任行为。戈特班认为,计算机专业应该采纳一种积极的责任概念,因为它强调计算机从业者有责任和义务关心自己行为的后果,并尽量减少造成伤害的可能性。根据他的观点,计算机从业者有道德责任避免伤害,并交付一个正常工作的产品,无论事情是否会有不同的结果。

对计算机从业者积极道德责任的强调引发了一个问题,即这种责任的范围有多大,特别是考虑到许多人共同参与创建系统以及预测可能导致系统故障的意外事件的困难(Stieb,2008 年;Miller,2008 年)。开发人员和制造商能够预料或防止他们的技术使用所带来的后果或可能存在的代码“错误”到什么程度?如今的计算机系统通常无法被任何单个程序员理解,复杂的计算机系统似乎不太可能完全没有错误。Martin 在这方面认为,决定将计算机技术销售到特定背景的开发人员和公司对于这些技术在该背景中的道德含义负有责任(2019 年)。他们对这些含义负责,因为他们了解设计决策,并且处于独特的位置,可以在技术中表达特定的想法(和偏见),关于技术应该做什么以及如何做。因此,一个将风险评估系统销售到司法决策背景的公司对于由其使用和不透明性导致的偏见的道德含义负有责任。该公司自愿“承担了理解决策价值的义务,以确保算法的道德含义与背景一致”(第 10 页)。然而,这也引发了一个问题,即在该背景之外他们的责任是什么。手机制造商是否应该预料到他们的产品会被用于路边炸弹?制造商及其设计师和工程师无法预见其产品最终将在哪些可能的条件下运行。此外,一个人应该拥有多少控制权才能或感到对事件结果负责?这些问题涉及 Santonio de Sio 和 Meccaci(2020 年)所称的“积极责任差距”。他们将积极责任描述为与积极责任相同,即与人们确保他们设计、控制或使用的系统的行为最大程度减少伤害的道德义务有关。根据他们的说法,这种责任的差距是由于这些人不够意识到、能力不足和动力不足,无法看到并根据这些义务行事(第 1059 页)。

为了解决主动责任中的差距(以及责任方面的向后看差距),Santonio de Sio 和 Meccaci 提出了一种方法,强调需要审视人类代理人和技术的更广泛社会技术系统。分配责任需要从社会、技术和组织的角度审视设计、开发和使用的整个链条。这种变化中的每个元素都可以进行调整,以努力解决责任差距,包括计算机系统的设计以及使用它的组织。他们的方法基于 Santonio de Sio 和 van den Hoven(2018)提出的为了有意义的人类控制而设计社会技术系统的理念。有意义的人类控制是一个概念,最初在自主致命武器的背景下流行起来,作为解决责任差距的一种方法。在武器系统被委托执行涉及目标选择和参与的任务的情况下,控制技术系统意味着什么的问题变得尤为重要(Ekelhof,2019)。Santoni di Sio 和 van den Hoven(2018)发展了他们对有意义的人类控制的概念,以获得更多关于控制的可操作分析,这有助于工程师、计算机专业人员、决策者和设计师思考如何设计考虑责任的社会技术系统。

Santonio de Sio 和 van den Hoven 假设技术是人类代理人在世界中执行行动的决策机制的一部分,这些机制应该对代理人控制的道德理由做出响应。因此,有意义的人类控制取决于结果能够与人类代理人的决策机制相连接的程度。为了阐明这些联系,他们制定了两个有意义控制的必要条件,称为跟踪和追踪。

跟踪要求整个技术、人类和组织要素的社会技术系统应对相关代理人的道德理由和相关情况的事实做出响应。也就是说,系统的行为应反映这些行为者在特定情况下的理由、价值观和意图。例如,如果一个机器学习系统被训练来区分哈士奇和狼,那么系统应根据执行此操作的相关理由行事(例如,向农民发出狼的存在的警报)。一个被训练来做出这种区分的机器学习系统,但只被展示过狼在雪地中的图片和哈士奇在更城市化环境中的图片,它可能会推断出相关的区分特征是雪。当展示一张狼在城市环境中的图片时,它可能随后将狼错误地分类为哈士奇。在这种情况下,系统没有正确跟踪相关人类代理人的理由和环境的事实。请注意,这种跟踪关系可以涉及多个人类代理人。也就是说,道德理由不一定要来自操作员或用户,它们也可以来自政策制定者、设计师或程序员。

追溯要求结果可以追溯到由人类代理人做出的早期决定,这些决定使他们处于导致结果的位置。作者举例说明的一个情况是醉酒驾驶者造成严重事故。即使驾驶者在事故发生时不符合责任条件 - 因为精神失常 - 但驾驶者确实做出了过量饮酒的早期决定。正如 Santoni di Sio 和 van den Hoven 所阐述的,追溯条件假定可能有不止一个人类代理人参与导致结果的行动,并且他们的行动受非人类系统的调节。根据他们的说法,追溯条件要求整个社会技术系统被设计成至少有一个人类代理人可以拥有足够的知识和道德意识,以便成为系统行为的合法回应的潜在目标。

Santonio de Sio 和 van den Hoven 对有意义的人类控制的理解不仅对计算机系统的设计有影响,还对环境、社会和制度实践的设计有影响。在所有这些设计层面上都发生了相关人类道德理由的跟踪和追踪。

3.2 责任作为实践

Santonio de Sio 和 van den Hoven 对有意义的人类控制的分析引起了对道德责任的社会功能的关注,这为这个问题提供了另一个视角(Stahl 2006; Tigard 2021b)。无论是前瞻性还是后瞻性,责任都起着组织人与人之间以及人与机构之间社会关系的作用。它为人们之间对某些义务和责任的履行设定了期望,并提供了纠正或鼓励某种行为的手段。例如,人们期望一个机器人公司建立防护措施,以防止机器人伤害人类。如果公司未能达到这一期望,它将被追究责任,在某些情况下将不得不承担损害赔偿或接受其他形式的惩罚。惩罚或惩罚的前景可以鼓励公司更加重视系统安全、可靠性、良好设计以及他们生产机器人所涉及的风险。这可能会促使公司采取行动来防止未来的事故。然而,这也可能鼓励公司寻找转嫁责任的方法。责任是关于人际关系和对责任和义务的期望的观念,将焦点放在了对某人负责的实践上(Strawson 1962,Talbert 2022)。

特定的实践和社会结构,用于归责和追究责任,对我们与技术的关系产生影响。世纪之交前,尼森鲍姆(Nissenbaum)已经指出,归因道德责任的困难在很大程度上可以追溯到计算机技术所嵌入的组织和文化背景的特定特征。她认为,我们如何构想计算的本质、能力和局限性对开发和使用计算机技术的人的问责有影响(1997 年)。当时,她观察到我们日益计算机化的社会中问责制度的系统性侵蚀,她将问责视为一种强调预防伤害和风险的价值观和实践。问责意味着会有某人,或者几个人,不仅要对生命关键系统中导致或冒险造成严重伤害和造成基础设施和大额财务损失的故障负责,甚至要对导致个人时间、便利和满足度损失的故障负责(1994 年,第 74 页)。它可以被用作“激励更好实践的有力工具,从而创造更可靠和值得信赖的系统”(1997 年,第 43 页)。追究计算机系统造成的伤害或风险的责任,为最小化这些伤害提供了强有力的动力,并可以为分配公正惩罚提供一个起点。

文化和组织实践在当时似乎恰恰相反,这是由于“计算机技术通常开发和部署的条件,以及人们对计算机的性质、能力和局限性的普遍看法”(第 43 页)。尼森鲍姆确定了社会中四个责任追究的障碍:(1)众多参与者的问题,(2)将计算机错误视为大型软件系统固有的元素,(3)将计算机作为替罪羊,以及(4)拥有但无责任。根据尼森鲍姆的观点,人们在事故发生时往往倾向于推卸责任并将责任归咎于他人。众多参与者的问题以及软件错误是复杂计算机系统不可避免的副产品的观念往往被轻易接受为不必为有害结果负责的借口。人们也倾向于将责任归咎于计算机的复杂性,并辩称“是计算机的错”当事情出错时。最后,她认为公司有一种倾向,即声称拥有他们开发的软件,但却否认随之而来的责任。为了说明这一点,她指出了延长的许可协议,声称制造商拥有软件的所有权,但否认对产品的质量或性能承担任何责任。

这四个障碍,尼森鲍姆(Nissenbaum)认为,阻碍了旨在保持明确问责线的“问责文化”。这种文化培养了责任感作为一种被鼓励的美德,与特定行动结果相关的每个人都要对其负责。根据尼森鲍姆的观点,问责与责任不同。责任是在事件发生后寻找责任人并赔偿所遭受的损失。一旦找到该责任人,其他人就可以“摆脱责任”,这可能会鼓励人们寻找借口,比如责怪计算机。然而,问责适用于所有涉及的人。它需要一种特定类型的组织背景,其中可问责性有助于吸引人们更加关注系统的安全性、可靠性和良好设计,以建立一种问责文化(另见 Martin 2019,Herkert 等,2020 年)。一个不重视问责的组织,对组织生产过程中的责任不太关心,更有可能让他们的技术产品变得难以理解。尼森鲍姆的分析说明了我们对某人负责的实践——对人们追究责任和传达职责和义务期望的既定方式——正在不断变化和协商,部分是对引入新技术的回应(另见 Noorman 2012)。

缺乏这种问责文化可能导致责任被归咎于错误的人。这些人成为了玛德琳·克莱尔·伊丽丝(Madeleine Clare Elish)所称的“道德挤压区”(2019)。这些人类行为者承担责任,尽管他们对他们所使用的系统几乎没有或根本没有控制权。伊丽丝认为,鉴于技术系统的复杂性,媒体和公众往往将事故归咎于人为错误,并错误地将责任归因于最近的人类操作者,如飞行员或维护人员,而不是技术系统或决策者链条上层的人。

Nissenbaum 认为,技术被开发和使用的背景对道德责任的归因有着重要影响,但一些作者强调,要正确理解道德责任,就必须认识到技术在塑造人类行为中的积极作用(Jonas 1984; Verbeek 2006; Johnson 和 Powers 2005; Waelbers 2009)。根据 Johnson 和 Powers 的观点,仅仅关注人类的意图和行为是不够的。“将更多责任归于使用技术的人需要深入了解技术的行为”(2005 年,第 107 页)。人们必须考虑技术工具在中介人类行为方面的各种方式。因此,道德责任不仅关乎一个人或一群人的行为如何以道德上重要的方式影响他人;它还关乎他们的行为如何受到技术的塑造。从这个角度来看,道德责任并不仅仅存在于个人或人际关系中,而是分布在人类和技术之间。

4. 结论

计算机技术挑战了传统的道德责任观念,并引发了如何适当分配责任的问题。人类是否仍然可以对他们几乎无法控制或理解的复杂计算机技术的行为负责?人类是唯一可以承担道德责任的主体,还是道德主体的概念可以扩展到包括人工计算实体?针对这些问题,哲学家们重新审视了道德代理和道德责任的概念。尽管在日益数字化的社会中,对这些概念应该包含什么内容尚无明确共识,但从讨论中清楚的是,任何对这些概念的思考都需要考虑这些技术如何影响人类行为以及行为的责任从何开始和结束。

Bibliography

  • Allen, C. & W. Wallach, 2012. “Moral Machines. Contradiction in Terms or Abdication of Human Responsibility?” in P. Lin, K. Abney, and G. Bekey (eds.), Robot ethics. The ethics and social implications of robotics. Cambridge, Massachusetts: MIT Press.

  • Allen, C., G. Varner & J. Zinser, 2000. “Prolegomena to any Future Artificial Moral Agent,” Journal of Experimental and Theoretical Artificial Intelligence, 12: 251–261.

  • Allen, C. W. Wallach & I. Smit, 2006. “Why Machine Ethics?” Intelligent Systems, IEEE , 21(4):12–17.

  • Angwin, J., J. Larson, S. Mattu & L. Kirchner, 2016. “Machine Bias. There is software that is used across the county to predict future criminals. And it is biased against blacks”, ProPublica, May 23, 2016,Angwin et al. 2016 available online

  • Asaro, P., 2011. “A Body to Kick, But Still No Soul to Damn: Legal Perspectives on Robotics,” in P. Lin, K. Abney, and G. Bekey (eds.) Robot Ethics: The Ethical and Social Implications of Robotics, Cambridge, MA: MIT Press.

  • Bechtel, W., 1985. “Attributing Responsibility to Computer Systems,” Metaphilosophy, 16(4): 296–306

  • Bijker, W. E., T. P. Hughes, & T. Pinch, 1987. The Social Construction of Technological Systems: New Directions in the Sociology and History of Technology, London, UK: The MIT Press.

  • Bovens, M. & S. Zouridis, 2002. “From street-level to system-level bureaucracies: how information and communication technology is transforming administrative discretion and constitutional control,” Public Administration Review, 62(2):174–184.

  • Boyd, D. & K. Crawford, 2012. “Critical Questions for Big Data: Provocations for a Cultural, Technological, and Scholarly Phenomenon,” Information, Communication, & Society 15(5): 662–679.

  • Bryson, J.J., 2018. “Patiency is not a virtue: the design of intelligent systems and systems of ethics,” Ethics and Information Technology, 20(1): 15-26.

  • Cervantes, J.A., López, S., Rodríguez, L.F., Cervantes, S., Cervantes, F. and Ramos, F., 2020.“Artificial moral agents: A survey of the current status,” Science and Engineering Ethics, 26(2): 501-532.

  • Coeckelbergh, M., 2009. “Virtual moral agency, virtual moral responsibility: on the moral significance of the appearance, perception, and performance of artificial agents,” AI & Society, 24: 181–189.

  • –––, 2012. “Moral responsibility, technology, and experiences of the tragic: From Kierkegaard to offshore engineering,” Science and Engineering Ethics, 18(1): 35-48.

  • –––, 2013. “Drones, information technology, and distance: mapping the moral epistemology of remote fighting,” Ethics and Information Technology, 15(2): 87-98.

  • Coeckelbergh, M., 2020. “Artificial intelligence, responsibility attribution, and a relational justification of explainability,” Science and Engineering Ethics, 26(4): 2051-2068.

  • Coeckelbergh, M. & R. Wackers, 2007. “Imagination, Distributed Responsibility and Vulnerable Technological Systems: the Case of Snorre A,” Science and Engineering Ethics, 13(2): 235–248.

  • Cummings, M. L., 2004. “Automation Bias in Intelligent Time Critical Decision Support Systems,” published online: 19 Jun 2012, American Institute of Aeronautics and Astronautics. doi:10.2514/6.2004-6313

  • Diakopoulos, N., 2020. “Transparency”. In M. Dubber, F. Pasquale, & S. Das (Eds.), Oxford handbook of ethics and AI (pp. 197–214). Oxford University Press.

  • Dennett, D. C., 1997. “When HAL Kills, Who’s to Blame? Computer Ethics,” in HAL’s Legacy: 2001’s Computer as Dream and Reality, D. G. Stork (ed.), Cambridge, MA: MIT Press.

  • Denning, P. J., 1989. “The Science of Computing: The Internet Worm,” American Scientist, 77(2): 126–128.

  • Dignum, V., 2020. “Responsibility and artificial intelligence,” The Oxford Handbook of Ethics of AI, Markus D. Drubber et al. (eds.), Oxford: Oxford University Press, pp. 214-231.

  • Doorn, N. & van de Poel, I., 2012. “Editors Overview: Moral Responsibility in Technology and Engineering,” Science and Engineering Ethics, 18: 1–11.

  • Ekelhof, M., 2019. “Moving beyond semantics on autonomous weapons: Meaningful human control in operation,” Global Policy, 10(3): 343-348.

  • Elish, M.C., 2019. “Moral crumple zones: Cautionary tales in human-robot interaction,” Engaging Science, Technology, and Society, 5: 40-60.

  • Eshleman, A., 2016. “Moral Responsibility,” in The Stanford Encyclopedia of Philosophy (Winter 2016 Edition), E. N. Zalta (ed.), URL = https://plato.stanford.edu/archives/win2016/entries/moral-responsibility/

  • Eubanks, V., 2018. “Automating inequality: How high-tech tools profile, police, and punish the poor,” New York: St. Martin’s Press.

  • Felt, U., Fouché, R., Miller, C. A., & Smith-Doerr, L., 2016. The Handbook of Science and Technology Studies, Cambridge, MA: MIT Press.

  • Fisher, J. M., 1999. “Recent work on moral responsibility,” Ethics, 110(1): 93–139.>

  • Floridi, L., & J. Sanders, 2004. “On the Morality of Artificial Agents,” Minds and Machines, 14(3): 349–379.

  • Floridi, L., 2013. “Distributed morality in an information society,” Science and Engineering Ethics, 19(3): 727–743.

  • –––, 2016. “Faultless responsibility: on the nature and allocation of moral responsibility for distributed moral actions,” Philosophical Transactions of the Royal Society A (Mathematical Physical and Engineering Sciences), 374(2083); doi: 10.1098/rsta.2016.0112

  • Friedman, B., 1990. “Moral Responsibility and Computer Technology,” Institute of Education Sciences ERIC Number ED321737, [Friedman 1990 available online].

  • ––– (ed.), 1997. Human Values and the Design of Computer Technology, Stanford: CSLI Publications; New York: Cambridge University Press.

  • Gorwa, R., Binns, R., & Katzenbach, C., 2020. “Algorithmic content moderation: Technical and political challenges in the automation of platform governance,” Big Data & Society, 7(1); first online 28 February 2020. doi:10.1177/2053951719897945

  • Gotterbarn D., 2001. “Informatics and professional responsibility,” Science and Engineering Ethics, 7(2): 221–230.

  • Graubard, S. R., 1988. The Artificial Intelligence Debate: False Starts, Real Foundations, Cambridge, MA: MIT Press.

  • Gray, C. H., 1997. “AI at War: The Aegis System in Combat,” Directions and Implications of Advanced Computing, D. Schuler, (ed.), New York: Ablex, pp. 62–79.

  • Gunkel, D. J., 2020. “A vindication of the rights of machines,” in Machine Ethics and Robot Ethics, W. Wallach and P. Asaro (eds.), London: Routledge, pp. 511-530.

  • Hakli, R. and Mäkelä, P., 2019. “Moral responsibility of robots and hybrid agents,” The Monist, 102(2): 259-275.

  • Hart, H. L. A., 1968. Punishment and Responsibility, Oxford: Oxford University Press.

  • Herkert, J., Borenstein, J., & Miller, K., 2020. “The Boeing 737 MAX: Lessons for engineering ethics”. Science and engineering ethics, 26, 2957-2974.

  • Hughes, T.P., 1987. “The evolution of Large Technological System,” in W. E. Bijker, T. P. Hughes, & T. Pinch (eds.), The Social Construction of Technological Systems, Cambridge, MA: The MIT Press, pp. 51–82.

  • IJsselsteijn, W., Y. de Korte, C. Midden, B. Eggen, & E. Hoven (eds.), 2006. Persuasive Technology, Berlin: Springer-Verlag.

  • Johnson, D. G., 2001. Computer Ethics, 3rd edition, Upper Saddle River, New Jersey: Prentice Hall.

  • –––, 2006. “Computer Systems: Moral Entities but not Moral Agents,” Ethics and Information Technology, 8: 195–204.

  • Johnson, D. G. & T. M. Power, 2005. “Computer systems and responsibility: A normative look at technological complexity,” Ethics and Information Technology, 7: 99–107.

  • Jonas, H., 1984. The Imperative of Responsibility. In search of an Ethics for the Technological Age, Chicago: The Chicago University Press.

  • Kroes, P.& P.P. Verbeek (eds.), 2014. The Moral Status of Technical Artefacts, Dordrecht: Springer

  • Kuflik, A., 1999. “Computers in Control: Rational Transfer of Authority or Irresponsible Abdication of Authority?” Ethics and Information Technology, 1: 173–184.

  • Ladd. J., 1989. “Computers and Moral Responsibility. A Framework for an Ethical Analysis,” in C.C. Gould (ed.), The Information Web. Ethical and Social Implications of Computer Networking, Boulder, Colorado: Westview Press, pp. 207–228.

  • Latour, B., 1992. “Where are the Missing Masses? The Sociology of a Few Mundane Artefacts,” in W. Bijker & J. Law (eds.), Shaping Technology/Building Society: Studies in Socio-Technical Change, Cambridge, Massachusetts: The MIT press, pp. 225–258.

  • Leveson, N. G. & C. S. Turner, 1993. “An Investigation of the Therac-25 Accidents,” Computer, 26(7): 18–41.

  • Leveson, N., 1995. “Medical Devices: The Therac-25,” in N. Leveson, Safeware. System, Safety and Computers, Boston: Addison-Wesley.

  • Martin, K., 2019. “Ethical implications and accountability of algorithms,” Journal of Business Ethics, 160(4): 835-850.

  • Matthias, A., 2004. “The responsibility gap: Ascribing responsibility for the actions of learning automata,” Ethics and Information Technology, 6: 175–183.

  • McCorduck, P., 1979. Machines Who Think, San Francisco: W.H. Freeman and Company.

  • Miller, K. W., 2008. “Critiquing a critique,” Science and Engineering Ethics, 14(2): 245–249.

  • Moor, J.H., 2006. “The Nature, Importance, and Difficulty of Machine Ethics,” Intelligent Systems (IEEE), 21(4): 18–21.

  • Nissenbaum, H., 1994. “Computing and Accountability,” Communications of the Association for Computing Machinery, 37(1): 72–80.

  • –––, 1997. “Accountability in a Computerized Society,” in B. Friedman (ed.), Human Values and the Design of Computer Technology, Cambridge: Cambridge University Press, pp. 41–64.

  • Nass, C. & Y. Moon, 2000. “Machines and mindlessness: Social responses to computers,” Journal of Social Issues, 56(1): 81–103.

  • Noorman, M., 2009. Mind the Gap: A Critique of Human/Technology Analogies in Artificial Agents Discourse, Maastricht: Universitaire Pers Maastricht.

  • –––, 2012. “Responsibility Practices and Unmanned Military Technologies,” Science and Engineering Ethics, 20(3): 809–826.

  • Nihlén Fahlquist, J., Doorn, N., &Van de Poel, I., 2015. “Design for the value of responsibility,” in Handbook of ethics, values and technological design  : Sources, Theory, Values and Application Domains, Jeroen van den Hoven, Ibo van de Poel and Pieter Vermaas (eds.), Dordrecht: Springer.

  • Nyholm, S., 2018. “Attributing agency to automated systems: Reflections on human-robot collaborations and responsibility-loci,” Science and engineering ethics, 24(4): 1201-1219.

  • Parasuraman, R. & V. Riley, 1997. “Humans and Automation: Use, Misuse, Disuse, Abuse,” Human Factors: the Journal of the Human Factors Society, 39(2): 230–253.

  • Pasquale, F., 2015. The black box society: The secret algorithms that control money and information. Cambridge, MA: Harvard University Press.

  • Polder-Verkiel, S. E., 2012. “Online responsibility: Bad samaritanism and the influence of internet mediation,” Science and engineering ethics, 18(1): 117-141.

  • Ravenscraft, E., (2020). “How to Spot—and Avoid—Dark Patterns on the Web”, Wired, July 29, Ravenscraft 2020 available online.

  • Reeves, B. & C. Nass, 1996. The Media Equation: How People Treat Computers, Television, and New Media Like Real People and Places, Cambridge: Cambridge University Press.

  • Rosenthal-von der Pütten, A. M., Krämer, N. C., Hoffmann, L., Sobieraj, S., & Eimler, S. C., 2013. “An experimental study on emotional reactions towards a robot,” International Journal of Social Robotics, 5(1): 17–34.

  • Sack, W., 1997. “Artificial Human Nature,” Design Issues, 13: 55–64.

  • Santoni de Sio, F. and Van den Hoven, J., 2018. “Meaningful human control over autonomous systems: A philosophical account,” Frontiers in Robotics and AI, 5, first online 28 February 2018. doi:10.3389/frobt.2018.00015

  • Santoni de Sio, F., & Mecacci, G., 2021. “Four responsibility gaps with artificial intelligence: Why they matter and how to address them,” Philosophy & Technology, 34: 1057–1084.

  • Sartor, G. and M. Viola de Azevedo Cunha, 2010. “The Italian Google-Case: Privacy, Freedom of Speech and Responsibility of Providers for User-Generated Contents,” International Journal of Law and Information Technology, 18(4): 356–378.

  • Searle, J. R., 1980. “Minds, brains, and programs” Behavioral and Brain Sciences, 3(3): 417–457.

  • Singel, R., 2010. “Does Italy’s Google Conviction Portend More Censorship?” Wired (February 24th, 2010), Singel 2010 available online.

  • Sparrow, R., 2007. “Killer Robots,” Journal of Applied Philosophy, 24(1): 62–77.

  • Stahl, B. C., 2004. “Information, Ethics, and Computers: The Problem of Autonomous Moral Agents,” Minds and Machines, 14: 67–83.

  • –––, 2006. “Responsible Computers? A Case for Ascribing Quasi-Responsibility to Computers Independent of Personhood or Agency,” Ethics and Information Technology, 8: 205–213.

  • Stieb, J. A., 2008. “A Critique of Positive Responsibility in Computing,” Science and Engineering Ethics, 14(2): 219–233.

  • Strawson, P., 1962. “Freedom and Resentment,” in Proceedings of the British Academy, 48: 1-25.

  • Suchman, L., 1998. “Human/machine reconsidered,” Cognitive Studies, 5(1): 5–13.

  • Sullins, J. P., 2006. “When is a Robot a Moral Agent?” International Review of Information Ethics, 6(12): 23–29.

  • Swierstra, T., Waelbers, K., 2012. “Designing a Good Life: A Matrix for the Technological Mediation of Morality,” Science and Engineering Ethics, 18: 157–172. doi:10.1007/s11948-010-9251-1

  • Taddeo, M. and L. Floridi, 2015. “The Debate on the Moral Responsibilities of Online Service Providers,” Science and Engineering Ethics, 22(6): 1575–1603.

  • Talbert, Matthew, 2022. “Moral Responsibility,” The Stanford Encyclopedia of Philosophy (Fall 2022 Edition), Edward N. Zalta & Uri Nodelman (eds.) URL = < href=“https://plato.stanford.edu/archives/win2016/entries/moral-responsibility/”>https://plato.stanford.edu/archives/win2016/entries/moral-responsibility/>.

  • Tigard, D. W., 2021a. “Responsible AI and moral responsibility: a common appreciation,” AI and Ethics, 1(2): 113-117.

  • –––, 2021b. “Artificial moral responsibility: How we can and cannot hold machines responsible,” Cambridge Quarterly of Healthcare Ethics, 30(3): 435-447.

  • U.S. Department of Defense, 2009. “FY2009–2034 Unmanned Systems Integrated Roadmap,” available online .

  • Van den Hoven, J., 2002. “Wadlopen bij Opkomend Tij: Denken over Ethiek en Informatiemaatschappij,” in J. de Mul (ed.), Filosofie in Cyberspace, Kampen: Uitgeverij Klement, pp. 47–65.

  • Véliz, C., 2021. “Moral zombies: why algorithms are not moral agents,” AI & Society, 36: 487–497. doi:10.1007/s00146-021-01189-x

  • Verbeek, P. P., 2006. “Materializing Morality: Design Ethics and Technological Mediation,” Science, Technology and Human Values, 31(3): 361–380.

  • Verbeek, P. P., 2021. What Things Do, University Park, PA: Pennsylvania State University Press.

  • Vidal, J., 2004. “The alco-lock is claimed to foil drink-drivers. Then the man from the Guardian had a go …,” The Guardian, August 5th, 2004.

  • Waelbers, K., 2009. “Technological Delegation: Responsibility for the Unintended,” Science & Engineering Ethics, 15(1): 51–68.

  • Wallach, W. and C. Allen, 2009. Moral Machines. Teaching Robots Right from Wrong, Oxford: Oxford University Press.

  • Whitby, B., 2008. “Sometimes it’s hard to be a robot. A call for action on the ethics of abusing artificial agents,” Interacting with Computers, 20(3): 326–333.

  • John Zerilli; John Danaher; James Maclaurin; Colin Gavaghan; Alistair Knott; Joy Liddicoat; Merel Noorman, 2021. “7 Autonomy,” in A Citizens Guide to Artificial Intelligence, Cambridge, MA: MIT Press, pp. 107-126.

  • Zuboff, S., 1982. “Automate/Informate: The Two Faces of Intelligent Technology,” Organizational Dynamics, 14(2):5–18

Academic Tools

Other Internet Resources

Journals On-line

  • Ethics and Information Technology: A peer-reviewed journal dedicated to advancing the dialogue between moral philosophy and the field of information and communication technology (ICT).

  • Science and Engineering Ethics: Science and Engineering Ethics is a multi-disciplinary journal that explores ethical issues of direct concern to scientists and engineers.

  • Philosophy and Technology: A journal that addresses the expanding scope and unprecedented impact of technologies, in order to improve the critical understanding of the conceptual nature and practical consequences, and hence provide the conceptual foundations for their fruitful and sustainable developments.

  • Big Data and Society: A peer-reviewed scholarly journal that publishes interdisciplinary work principally in the social sciences, humanities and computing and their intersections with the arts and natural sciences about the implications of Big Data for societies.

Centers

Organizations

  • IACAP: International Association for Computing and Philosophy: concerned with computing and philosophy broadly construed, including the use of computers to teach philosophy, the use of computers to model philosophical theory, as well as philosophical concerns raised by computing.

  • Responsible Robotics : Organization to promote the responsible design, development, implementation, and policy of robots embedded in society.

  • Moral Machine : A platform for gathering a human perspective on moral decisions made by machine intelligence, such as self-driving cars.

Blogs

  • Moral machines: blog on the theory and development of artificial moral agents and computational ethics.

information technology: and moral values | information technology: phenomenological approaches to ethics and | moral responsibility | technology, philosophy of

Acknowledgments

This material is based upon work supported by the National Science Foundation under Grant No. SES 1058457.

Copyright © 2023 by Merel Noorman <merelnoorman@gmail.com>

最后更新于

Logo

道长哲学研讨会 2024