信息技术与道德价值 and moral values (John Sullins)

首次发表于 2012 年 6 月 12 日;实质性修订于 2018 年 11 月 9 日

我们采取的每一个行动都会留下一串信息的踪迹,原则上可以被记录和储存以备将来使用。例如,一个人可以使用旧式的信息技术,如纸和笔,记录并详细列出自己一天内所做和所想的事情。以这种方式记录所有信息可能是一项艰巨的任务,但现在有越来越多的技术和软件应用可以帮助我们收集各种数据,这些数据原则上和实际上可以被汇总在一起,用于构建关于你的数据档案,一个拥有数百万条目的数字日记。其中一些例子可能包括:你所有经济交易的详细列表;你旅行的 GPS 生成的轨迹;你访问的所有网址以及你在线发起的每一次搜索的详细信息;你的血压和心率等所有生命体征;你一天的饮食摄入量;以及任何其他可以测量的数据。当你进行这个思想实验时,你开始看到你每天产生的复杂数据踪迹,以及通过信息技术的使用如何高效地收集和储存这些数据。在这里,我们可以开始看到信息技术如何影响道德价值观。随着这种数据收集变得越来越自动化和无处不在,我们必须问的是,谁控制着收集这些数据,一旦收集和储存起来,又会如何处理?哪些信息应该公开,哪些应该保密,哪些应该成为像公司这样的第三方的财产?信息的生产、获取和控制的问题将成为围绕信息技术使用的道德挑战的核心。

有人可能会争辩说,刚才描述的情况与围绕生活的任何基本需求的生产、获取和控制相关的道德问题没有什么不同。如果一方拥有独家生产、获取和/或控制某种自然资源的特权,那么这必然会禁止其他人在没有独家所有者的同意下使用这种资源。但数字信息并非如此。数字信息是非排他性的,这意味着我们至少在理论上都可以拥有相同的数字信息,而不会排除其他人的使用。这是因为将数字信息从一个源复制到另一个源不需要消除先前的副本。与物理对象不同,理论上我们都可以拥有相同的数字对象,因为它可以无限制地复制而不会失去保真度。由于制作这些副本通常非常廉价,几乎没有成本,只要有人愿意复制和分发,就没有技术上的障碍阻止所有信息的传播。只有对道德或经济公正的呼吁可能会阻止某些形式的信息分发。例如,数字娱乐媒体,如歌曲或视频,一直是一个争论不休的战场,用户和数字媒体的制作者争论是限制还是扩大这些材料的免费分发。因此,了解道德价值在信息技术中的作用对于这些技术的设计和使用至关重要(Johnson,1985 年,Moore,1985 年,Nissenbaum,1998 年,Spinello,2001 年)。值得注意的是,本条目不会直接涉及信息技术伦理学的现象学方法,因为有关这一主题的详细条目可供参考(请参阅有关现象学方法与信息技术的条目)。


1. 介绍

信息技术在全球人们的生活中无处不在。这些技术以个人电脑、智能手机、互联网技术以及人工智能和机器人等多种形式存在。事实上,这个列表不断增长,这些技术的新形式正在渗透到日常生活的方方面面。它们都以某种形式的计算为核心,人类用户主要通过应用程序和其他软件操作系统与它们进行交互。在某些情况下,比如大型多人在线游戏(见下面的 3.1.1 节),这些技术甚至为人类开辟了新的相互交流方式。信息技术用于通过计算机技术记录、传达、综合或组织信息。信息本身可以理解为任何有用的数据、指令或有意义的消息内容。这个词的字面意思是“赋予形式”或塑造思想。一个基本类型的信息技术可能是用来提醒或告知某人他们当天有一些具体任务要完成的谚语式的绑在手指上的绳子。在这里,绳子代表了一个更复杂的命题,比如“在回家之前买些杂货”。绳子本身并不是信息,它只是象征着信息,因此必须正确解释这个符号才能发挥其作用。这就引出了一个问题,什么是信息本身?

不幸的是,目前还没有一个完全令人满意且哲学上严谨的定义,尽管至少有两个非常好的起点。对于那些对信息本体论问题感到困惑的人,我们可能只想简单地关注符号,并将信息定义为任何有意义的有序符号集。数学家和工程师更喜欢关注信息的这个方面,称为“语法”,而将信息的意义或“语义”留给其他人去解决。克劳德·E·香农在四十年代在贝尔实验室工作时,提出了一种具有里程碑意义的通信数学理论(1948 年)。在这项工作中,他利用自己在密码学和电话技术方面的经验,制定了一个数学公式,描述了如何将语法信息转化为信号,并以这种方式传输,以减轻噪音或其他杂散信号,然后由所需的消息接收者解码(Shannon 1948;Shannon and Weaver 1949)。香农描述的概念(以及其他许多人的重要创新),解释了信息技术的工作方式,但如果我们想全面追踪信息技术对道德价值的影响,我们仍然需要解决更深层次的问题。一些哲学家注意到信息技术突显了语法和语义之间的区别,并且对技术无法弥合这两个概念之间差距的能力进行了批评。这意味着虽然信息技术可能擅长处理语法,但它们无法理解它们所处理的信息的语义或意义。

一个著名的例子可以在“中文房间论证”(Searle 1980)中找到,哲学家约翰·西尔尔(John Searle)在其中争论道,即使建造了一台能够将中文故事作为输入并输出关于这些故事的连贯答案的机器,也不能证明机器本身实际上理解自己在做什么。这个论证基于这样一个观点:如果你用一个不是中国人的母语人士来替换机器的工作,然后这个人会费力地按照一套规则将输入的一组中文表意文字转换为其他输出符号。论证的观点是,这个人既不理解输入,也不知道系统的输出在说什么,对他们来说,这都是毫无意义的符号操作。结论是,尽管这个确实奇怪的系统可以熟练地使用语言和故事的句法,但内部的人却无法理解故事的语义或含义(Searle 1980)。将人替换为电子设备,可以得出结论,电子设备也无法理解它们正在处理的符号。这个论证虽然引人思考,但并不被普遍接受,并引发了数十年的争论和反驳(请参阅关于中文房间论证的条目)。

信息技术也对逻辑和信息的哲学研究产生了持久的影响。在这个领域,逻辑被用作理解信息的一种方式,同时使用信息科学作为构建逻辑基础的一种方式(请参阅逻辑和信息的条目)。

刚刚讨论的问题很有趣,但它们是独立的论点,并不一定要在我们讨论信息技术和道德价值之前解决。即使是纯粹的句法机器,即使它们对计算的语义含义完全无视,仍然会对许多重要的伦理问题产生影响。

第二个起点是探索信息在哲学中可能发挥的更形而上学的角色。如果我们从信息要么构成我们的存在,要么与构成我们周围一切存在密切相关的观点开始,那么这个观点意味着信息在宇宙运作方式中扮演着重要的本体论角色。采取这个立场将信息置于哲学的核心关注,并引发了信息哲学和信息伦理学领域的出现。在本文中,我们不仅限于探讨信息理论,而是更仔细地研究信息技术已经对我们的社会产生的实际道德和伦理影响。信息伦理学的详细内容不在此处详述,但感兴趣的读者可以从 Floridi (2010b, 2011b)开始阅读介绍。下面将详细概述信息伦理学的一些最重要的方面。

2. 信息技术的道德挑战

从一种主导信息技术到另一种主导信息技术的转变总是在道德上具有争议性的。苏格拉底生活在从主要是口头传统到新的信息技术(包括将文字和信息写下来,并将这些文字收集到卷轴和书籍中)的漫长过渡时期。众所周知,苏格拉底对写作持有一定的敌意,学者们声称他从未亲自写过任何东西。具有讽刺意味的是,我们只知道苏格拉底反对写作的论点,因为他的学生柏拉图无视了他的老师,并将这些论点写下来,收录在一篇名为《斐德鲁斯》的对话中(柏拉图)。在这篇对话的末尾,苏格拉底与他的朋友斐德鲁斯讨论了“使写作合适或不合适的条件”(第 274b–479c 节)。苏格拉底讲述了一个他称之为 Theuth 的埃及神的寓言,他将写作的礼物赠给了一个名叫 Thamus 的国王。Thamus 对这个礼物并不满意,并回答道,

如果人们学会了这个,它将在他们的灵魂中植入遗忘;他们将不再运用记忆,因为他们依赖于所写下的东西,不再通过内在的方式来回忆事物,而是通过外部标记的方式。(斐德鲁斯,第 275a 节)

苏格拉底擅长引用诗歌和史诗中的句子,并将它们融入他的对话中,他担心那些依赖写作的人永远无法真正理解和遵循这些文字。对于苏格拉底来说,写作有一种不道德或虚假的成分。书籍可以提供信息,但它们本身不能给你使用或深刻理解这些信息所需的智慧。相反,在口头传统中,你不仅仅是查阅图书馆,你就是图书馆,是你心中所知信息的活生生体现。对于苏格拉底来说,阅读一本书远不如与书的作者交谈那样有洞察力。书面文字,

…似乎与你交谈时像是聪明人,但如果你询问他们关于他们所说的任何事情,出于求教的愿望,他们会永远告诉你同样的事情。(《斐德鲁斯篇》,第 275d 节)。

乍一看,他对写作的批评似乎是幽默的,但在现代信息技术中,使用回忆并称之为记忆的诱惑越来越普遍。当信息只需通过互联网搜索即可获得时,为什么还要学习任何东西呢?为了避免苏格拉底的担忧,信息技术应该做得更多,不仅提供信息访问,还应该帮助培养智慧和理解。

2.1 信息技术的基本特征

信息技术革命初期,理查德·梅森(Richard Mason)提出,信息技术的即将发生的变革,如其在教育和经济方面的作用,将需要重新思考社会契约(Mason 1986)。他担心这些变革将对隐私、准确性、财产和可访问性(PAPA)构成挑战,并为了保护我们的社会,我们“...必须制定一项新的社会契约,确保每个人都有权利实现自己的人类潜能”(Mason 1986 P. 11)。他当时无法预料到的是,随着这些技术的快速变化,我们将不得不频繁更新社会契约。信息技术变化迅速,以令人困惑的速度进出流行。这使得试图列出所有这些技术并对每个技术的道德影响进行分类变得困难。这种变化如此迅速和重大,以至于一些人认为我们需要深入质疑发展新兴技术的伦理过程(Moor 2008)。也有人认为,信息技术的不断变化正在改变我们理解道德价值的能力。洛伦佐·马尼尼(Lorenzo Magnani)认为,了解这种变化如何使我们的道德推理变得困惑“...已经成为我们技术世界的一种责任”(Magnani 2007, 93)。法律理论家拉里·莱西格(Larry Lessig)警告说,信息技术的变化速度如此之快,以至于它使得法律和政策制定的缓慢和审慎过程变得落后,实际上这些技术变得无法无天,或者超越法律。这是因为当一项法律被制定出来以限制某种特定的文件共享技术所促成的某种形式的版权侵权时,这项技术已经过时,用户已经转向其他更容易侵犯版权的技术(Lessig 1999)。 但即使在这种快速变化的情况下,信息技术或应用仍然可以被归类为至少三种不同类型 - 我们将在下面逐一讨论。

所有信息技术都记录(存储)、传输(通信)、组织和/或综合信息。例如,书是信息的记录,电话用于传递信息,杜威十进制系统组织信息。许多信息技术可以完成以上多种功能,尤其是计算机可以完成所有这些功能,因为它可以被描述为通用机器(参见可计算性和复杂性的条目),所以它可以被编程模拟任何形式的信息技术。在第 2 节中,我们将从上述三种信息技术类型中的每一种中查看一些具体的示例技术和应用,并追踪由使用和设计这些特定技术而产生的道德挑战。除了上述内容,我们还需要关注信息环境的日益使用,例如大型多人在线游戏,这些环境完全由信息组成,人们可以在其中发展充满各种社交活动的替代生活(参见第 3.3 节)。最后,我们将不仅研究信息技术如何影响我们的道德直觉,还将研究它如何改变道德推理的本质。在第 4 节中,我们将研究信息作为一种道德技术以及如何编程应用程序和机器人以更具道德可接受性的方式与我们互动。

2.1.1 信息记录中的道德价值观

信息的控制就是权力,在我们今天所处的信息经济中,它可能是政治权力的终极形式。我们生活在一个数据丰富的世界,能够快速开发出生产、记录和存储大量数据的技术。这里的主要道德关切是,当我们收集、存储和/或访问信息时,必须以公正的方式进行,可以合理地被视为公平,并符合所有相关方的最佳利益。正如上面提到的,我们每个人每天都会产生大量的信息,这些信息可以被记录和存储为有用的数据,在需要时进行访问。但是,当第三方在我们不知情的情况下收集、存储和使用我们的信息,或者只是在我们默认同意的情况下这样做时,道德困境就会出现。传统上行使这种权力的社会机构包括宗教组织、大学、图书馆、医疗官员、政府机构、银行和公司。这些实体可以访问存储的信息,从而对他们的客户和选民拥有一定的权力。如今,每个公民都可以访问越来越多的存储信息,而无需利用传统的信息中介,因此拥有更大的个人社会权力(参见 Lessig 1999)。

现代信息技术的一个重要价值之一是使信息记录变得简单且几乎自动化。如今,越来越多的人将生物特征数据(如血压、卡路里摄入量、运动模式等)输入到旨在帮助他们实现更健康生活方式的应用程序中。这种数据收集在不久的将来可能几乎完全自动化。通过使用智能手表或诸如“Fitbit”之类的技术,或通过用户的智能手机收集,例如使用 GPS 跟踪来追踪用户步行或跑步的长度和持续时间。多久之后,智能手机能够全天收集您的血压运行数据流,可能还带有特别高或低读数的地理位置标记?从某种意义上说,这可能是非常有力的数据,可以帮助人们做出更健康的生活选择。但如果信息落入错误的手中,这也可能是严重的隐私侵犯,而这很容易实现,因为第三方可以访问智能手机和在线应用程序收集的信息。在接下来的部分(2.1.2)中,我们将探讨一些关于如何在道德上传达这些记录信息以保护隐私的理论。但在这里,我们必须解决一个更微妙的隐私侵犯问题-在用户不知情或未经同意的情况下收集和记录有关用户的数据。在互联网上搜索时,浏览器软件记录了我们访问各种网站的各种数据,这些数据可以使网页在您下次访问时加载得更快。甚至网站本身也会使用各种手段记录您的计算机访问它们时的信息,并且它们可能会在您的计算机上留下一些信息,以便在您下次访问时使用。一些网站能够检测您访问过哪些其他网站或您在网站上花费最多时间的页面。 如果有人跟着你在图书馆记录这种信息,你可能会感到不舒服或敌对,但在线上这种行为在幕后进行,对于普通用户几乎不会注意到。

根据一些专业人士的说法,信息技术几乎消除了私人领域,并且已经持续了几十年。Sun Microsystems 的 Scott McNealy 在 1999 年曾经著名地宣称:“你已经没有隐私了。接受这个事实吧”(Sprenger, 1999)。Helen Nissenbaum 观察到,

在过去,物理障碍和不便可能会阻止除了最顽强的人之外的其他人搜集信息,而技术使得这些信息可以通过点击按钮或花费几美元获得(Nissenbaum 1997)

自从她写下这些话以来,个人数据的收集变得更加自动化和廉价。显然,早期关于隐私的理论假设了物理墙壁的不可侵犯性,但正如尼森鲍姆(Nissenbaum 1997)所争论的那样,个人自主权和亲密关系仍然要求我们保护隐私。

本节的最后一个关注点是信息技术现在将用户数据存储在“云端”,这意味着数据存储在远离用户的设备上,而不是由用户拥有或操作,但数据可以从用户所在的任何地方、使用的任何设备上访问。这种便捷的访问方式也使得用户对自己数据的关系变得更加脆弱,因为对数据的物理位置存在不确定性。由于个人数据至关重要,提供“云”服务的第三方需要理解用户对他们所寄予的信任的责任。如果你将自己一生的照片都加载到像 Flickr 这样的服务中,而他们却不慎丢失或删除了这些照片,这将是一个无法修复的悲剧性错误。

2.1.2 在传播和获取信息中的道德价值

信息技术迫使我们重新思考以印刷技术为基础的隐私早期概念,如信件、笔记、书籍、小册子、报纸等。围绕这些早期技术形成的道德价值观已经被信息可以轻松共享和修改的数字信息技术所严重挑战,这要求迅速发展新的道德理论,既承认使用现代信息技术传播各种信息的好处和风险。这些变化似乎对隐私、保密、所有权、信任以及以这些新方式传播的信息的真实性产生了压力。

谁有权决定是否传达有关用户的某些信息?谁有权出售您的医疗记录、财务记录、电子邮件、浏览器历史等?如果您无法控制这个过程,那么您如何执行自己对隐私的道德权利?例如,艾伦·韦斯汀在数字信息技术发展的早期几十年中认为,控制个人信息的访问是维护隐私的关键(韦斯汀,1967 年)。由此可见,如果我们关心隐私,那么我们应该将所有对个人信息的访问控制权交给个人。大多数企业实体都反对这个观点,原因很简单,用户信息已成为数字世界中的主要商品,推动了谷歌或 Facebook 等公司的巨额财富。事实上,我们每个人都从谷歌等互联网搜索公司和 Facebook 等社交网络提供的服务中获得了很多效益。可以说,我们实际上是在进行一种公平交换,因为它们提供免费的搜索结果和其他应用程序,并通过收集个人用户行为数据来抵消创建这些有价值服务的成本,这些数据可以以各种有利可图的方式进行货币化。这些公司的利润模式的一个重要组成部分是定向广告,即利用收集到的用户信息根据其搜索历史和其他在线行为来帮助确定对特定用户最有效的广告。仅仅通过使用提供的免费应用程序,每个用户都默认同意放弃一定程度的隐私,这个程度因使用的应用程序而异。即使我们同意这种交换中用户获得了一些效益,这种安排仍然存在许多潜在的道德问题。 如果我们遵循韦斯汀先前提出的隐私等同于信息控制的论点(见上文),那么我们似乎正在逐渐放弃我们的隐私,因为我们几乎无法控制或理解关于我们的大量数字信息。

对此有一个反驳。赫尔曼·塔瓦尼和詹姆斯·穆尔(2004)认为,在某些情况下,给用户更多对其信息的控制可能实际上会导致更大的隐私损失。他们的主要论点是,没有人能够真正控制我们每天通过活动产生的所有关于自己的信息。如果我们只关注我们能够控制的一小部分,我们就会忽视那些我们无法控制的大量数据(塔瓦尼和穆尔,2004)。塔瓦尼和穆尔认为,隐私必须由控制您信息的第三方承认,只有这些方才有保护用户隐私的承诺,我们才能真正获得有价值的隐私。为此,他们建议我们从限制信息访问的角度来思考,而不是严格控制个人信息(上文)。

信息安全是另一个重要的道德价值观,它影响着用户信息的通信和访问。如果我们将我们的信息控制权交给第三方以换取他们提供的服务,那么这些实体也必须负责限制其他可能利用这些信息来伤害我们的人对该信息的访问(参见 Epstein 2007;Magnani 2007;Tavani 2007)。凭借足够的信息,一个人的整个身份可以被盗用并用于实施欺诈和盗窃。自数字信息技术问世以来,这种犯罪类型迅速增长。这些犯罪的受害者可能会因为试图重建信用评级和银行解释等事物而生活陷入困境。这导致了更难以访问的计算机系统的设计,并促使了一个致力于保护计算机系统的新兴行业的发展。即使有了这些努力,网络犯罪的经济和社会影响仍以惊人的速度增长。2018 年 2 月,网络安全公司麦卡菲发布了一份报告,估计全球网络犯罪的成本从 2018 年的 6080 亿美元增加到全球 GDP 的 0.8%,而这还不包括为打击网络犯罪而增加的摩擦和生产力损失的隐藏成本(麦卡菲 2018 年)。

获得完整数字安全的困难在于安全的道德价值可能与分享和开放的道德价值相冲突,正是这些后者的价值观指导了许多早期的信息技术建设者。史蒂文·莱维(1984)在他的书《黑客:计算机革命的英雄》中描述了一种“黑客伦理”,其中包括计算机应该自由可访问和分散化,以促进“世界改善”和进一步的社会正义(莱维 1984 年;另见马科夫 2005 年)。因此,似乎信息技术在安全和开放的竞争价值观之间产生了强烈的不和谐,这一切都基于设计这些技术的各种人所持有的竞争道德价值观。

这种价值观上的冲突已经成为哲学家们争论的焦点。尽管莱维采访的许多黑客认为黑客行为并不像看起来那么危险,而且主要是为了获取有关信息技术系统如何工作的隐藏知识,但尤金·斯帕福德反驳说,没有任何计算机入侵是完全无害的,而且这种伤害排除了道德黑客行为的可能性,除非在极端情况下(斯帕福德 2007 年)。肯尼斯·希玛基本上同意计算机黑客行为是不道德的,但政治动机驱使的黑客行为或“黑客行动主义”可能具有一些道德正当性,尽管由于黑客行动主义抗议的言论往往是匿名的,他对这种实践的完全支持持保留态度(希玛 2007b)。马克·马尼恩和艾比·古德鲁姆认为黑客行动主义可能是道德黑客行为的特例,但警告称它应该按照标志着二十世纪的公民不服从行为的道德规范进行,否则将被归类为网络恐怖主义(马尼恩和古德鲁姆 2007 年)。

在其他领域中也存在非常相似的价值分歧,特别是在知识产权(参见知识产权条目)和色情与审查(参见色情与审查条目)领域。信息技术为这些长期存在的道德辩论增添了一种几乎毫不费力的获取他人可能想要控制的信息的方式,例如知识产权、危险信息和色情(Floridi 1999),同时为用户和提供相关信息访问的人提供了技术上的匿名性(Nissenbaum 1999;Sullins 2010)。例如,虽然欺凌和跟踪的案例经常发生,但网络欺凌和网络跟踪的匿名和远程行为使得这些行为更加容易,而且施害者更不容易被抓获。鉴于信息技术可能增加这些不道德行为的发生几率,可以认为网络空间的设计本身默认地促进了不道德行为(Adams 2002;Grodzinsky and Tavani 2002)。由于信息技术的设计能力影响着用户的生活,这些技术的设计者的道德承诺可能决定社会的发展方向,我们对某些道德价值的承诺将由技术人员来决定(Brey 2010;Bynum 2000;Ess 2009;Johnson 1985;Magnani 2007;Moor 1985;Spinello 2001;Sullins 2010)。

假设我们有正当理由允许访问我们可以控制的某些信息存储,那么我们有责任确保这些信息是真实、准确和有用的。一个简单的实验将显示出信息技术在这方面可能存在一些深层次的问题。加载多个不同的搜索引擎,然后在每个搜索引擎中输入相同的搜索词,每个搜索引擎都会呈现不同的结果,其中一些搜索结果会有很大的差异。这表明每个服务都使用不同的专有算法来向用户呈现搜索结果。因此,不是所有的搜索都是相等的,搜索结果的真实性、准确性和有用性将大大取决于您使用的搜索提供商以及与该提供商共享了多少用户信息。为了确保搜索提供商认为对用户最重要的信息首先列出,所有搜索都经过各种算法的过滤。由于这些算法不公开,并且是严格保密的商业秘密,用户在这个过滤过程中放置了很大的信任。希望这些过滤决策在道德上是合理的,但很难知道。一个简单的例子是“点击劫持”。如果我们被告知一个链接将带我们到网络上的某个位置,但当我们点击它时,我们被带到了其他地方,用户可能会觉得这是一种信任的破坏。这通常被称为“点击劫持”,恶意软件可以通过将用户带到预期之外的其他网站来点击劫持浏览器;通常这些网站上会有其他链接,点击劫持者会因为给它们带来流量而得到报酬(Hansen 和 Grossman,2008)。再次强调,信息技术提供的匿名性和易用性可以促进诸如点击劫持之类的欺骗行为。 Pettit (2009)建议我们重新评估道德价值观,如信任和依赖在信息技术世界中所扮演的角色。匿名性和在线新闻报道作者的隐藏能力导致了各种伪装成合法新闻的“假新闻”或宣传的兴起。这是一个重大问题,将在第 2.2 节中讨论。下面是第 3 节。

最后,在本节中,我们必须讨论信息获取对社会公正的影响。信息技术在 20 世纪主要在西方工业社会中发展起来。但即使在今天,这项技术的好处并没有平均分布到全世界和所有社会经济人口中。某些社会和社会阶层几乎没有获得易于获得的信息,而那些有些许访问权限的人则受到自己政府的严格审查。这种情况被称为“数字鸿沟”,尽管已经努力解决这一差距,但它可能正在扩大。值得注意的是,随着智能手机成本的降低,这些技术为以前被排除在外的社区提供了一些接入全球互联网的机会(Poushter 2016)。虽然这种差距很大程度上是由经济因素驱动的(参见 Warschauer 2003),但 Charles Ess 指出,新型网络使能殖民主义和以民族为中心主义的力量也存在问题,这可能限制了工业西方以外的人们参与这个新的“全球大都市”的愿望(Ess 2009)。John Weckert 还指出,文化差异在设计更加平等的信息技术方面起到了作用(Weckert 2007)。还有人认为,亚洲文化对于隐私等基本道德问题的权衡方式不同(Hongladarom 2008; Lü 2005)。

2.1.3 在组织和综合信息中的道德价值

除了存储和传递信息外,许多信息技术还自动化了信息的组织和综合,或者机械地创作或处理新信息。Norbert Wiener 首先提出了一种自动化信息综合的理论,他称之为控制论(Wiener 1961 [1948])。Wiener 意识到可以设计一台机器来收集关于世界的信息,从而推导出关于该信息的逻辑结论,这将暗示着某些行动,机器可以在没有任何人类输入的情况下实施这些行动。Wiener 很快意识到,如果他对控制论的愿景实现,这样的机器将引发巨大的道德关切,并在他的著作《人类使用人类》中概述了其中一些问题(Wiener 1950)。Wiener 认为,虽然这种技术可能具有重大的道德影响,但仍然有可能积极主动地引导技术,以增加人类和机器的道德推理能力(Bynum 2008)。

机器做出具有道德影响的决策。温德尔·沃拉奇(Wendell Wallach)和科林·艾伦(Colin Allen)在他们的书《道德机器》(2008 年)中讲述了一个轶事。其中一位作者去度假,当他到达海外时,他的信用卡停止工作了,他感到困惑,于是打电话给银行,得知一个自动反盗刷程序决定他试图进行的交易很有可能是有人盗用他的卡,为了保护他,机器拒绝了他的信用卡交易。在这里,我们有一个情况,一个信息技术设备在决定可能发生的恶意活动的概率时,给正在试图帮助的人造成了一些伤害。越来越多的机器在没有太多人类监督的情况下,对人们的重要的、改变生活的金融决策做出了决定。无论你是否能获得信用卡、抵押贷款,以及你需要支付的保险费等,很大程度上都是由机器决定的。例如,如果你申请信用卡,机器会寻找一些数据点,比如你的工资、信用记录、你所居住地区的经济状况等,然后计算你违约信用卡的概率。这个概率要么达到接受的阈值,要么不达到,从而决定是否给你发卡。机器通常可以通过之前做出的决策结果来学习做出更好的判断。这种机器学习和预测是基于复杂的逻辑和数学(例如,参见 Russell 和 Norvig 2010),这种复杂性可能导致上述轶事中的错误预测的稍微幽默的例子,或者可能更加戏剧性。 例如,该程序可能解释有关一个人朋友和熟人身份、他或她最近的购买以及其他易得的社交数据的数据,这可能导致错误地将该人分类为潜在的恐怖分子,从而以极其负面的方式改变该人的生活(Sullins 2010)。这完全取决于学习和预测算法的设计,这通常是保密的,因此很难证明预测的准确性。

2.2 信息技术的道德悖论

上述提出的几个问题都源于信息技术的道德悖论。许多用户希望信息能够快速获取和使用,并且希望以尽可能低的成本,最好是免费。但用户也希望重要和敏感的信息能够安全、稳定和可靠。最大化我们对快速和低成本的价值会减少我们提供安全和高质量信息的能力,反之亦然。因此,信息技术的设计者经常面临着不舒服的妥协。早期的网络先驱斯图尔特·布兰德在他著名的名言中很好地总结了这一点:

在 1984 年秋季的第一次黑客大会上,我在一个讨论会上说:“一方面,信息想要昂贵,因为它非常有价值。正确的信息放在正确的地方会改变你的生活。另一方面,信息想要自由,因为将其传播出去的成本一直在降低。所以你有这两个相互对抗的因素”(Clarke 2000—见其他互联网资源)[1]

由于这些相互竞争的道德价值观本质上是不可能调和的,它们很可能在可预见的未来继续成为信息技术的使用和设计中道德辩论的核心。

3.文化层面上的具体道德挑战

在上面的部分中,重点是信息技术对个体用户的道德影响。在本节中,重点将放在这些技术如何塑造社会层面的道德格局上。在二十世纪之交,“Web 2.0”这个术语开始出现,它指的是全球网络作为信息共享和协作的媒介的新方式,以及网络设计师在网站上包含更多互操作性和以用户为中心的体验的心态变化。这个术语也与“社交媒体”和“社交网络”联系在一起。虽然 1989 年由其创造者蒂姆·伯纳斯-李设计的万维网始终包含与他人会面和在线协作的概念,但直到 2004 年 O'Reilly Media 举办了第一次 Web 2.0 会议时,用户才准备好充分利用这些功能(O'Reilly 2007 [2005])。这种变化意味着越来越多的人开始在网上与其他用户一起度过他们生活的重要部分,体验一种前所未有的新生活方式。社交网络是全球许多人生活的重要组成部分。大量的人聚集在像 Facebook 这样的网站上,与真实和虚拟的新老朋友互动。互联网提供了与他人在虚拟世界中互动的沉浸式体验,其中环境完全由信息构建而成。现在,正在兴起的技术将允许我们将现实与虚拟融合在一起。 这种新形式的“增强现实”得益于许多人现在携带带有 GPS 功能的智能手机和其他便携式计算机,他们可以在上面运行应用程序,让他们同时与周围环境和计算机进行交互,也许通过设备中的摄像头查看物品,并且“应用程序”调用有关该实体的信息,并在物品上方显示一个气泡。每种技术都带来了一系列新的道德挑战,其中一些将在下面讨论。

3.1 社交媒体和网络

社交网络是指那些促进在线社交互动的网站和应用程序,通常侧重于与其他用户(称为“朋友”)共享信息。如今最著名的这些网站是 Facebook,但还有许多其他网站,比如 Instagram、Twitter、Snapchat 等等。这些网站涉及到一些道德价值观的问题。Shannon Vallor(2011 年,2016 年)反思了 Facebook 等网站如何改变甚至挑战我们对友谊的理解。她的分析基于亚里士多德的友谊理论(请参见亚里士多德伦理学条目)。亚里士多德认为,人们通过美德友谊实现良好而真实的生活。Vallor 指出,亚里士多德的“美德友谊”有四个关键维度,即互惠、共情、自我认知和共同生活,前三个维度在在线社交媒体中有时可以加强友谊(Vallor 2011 年,2016 年)。然而,她认为社交媒体还不能完全促进亚里士多德所称的“共同生活”。这意味着社交媒体可以给我们带来共同的活动,但不能给予我们共同日常生活所能带来的亲密友谊。(这里有一个更完整的亚里士多德友谊讨论)。因此,这些媒体本身无法完全支持亚里士多德关于完整和美德友谊的观念(Vallor 2011 年)。Vallor 还对其他亚里士多德美德,如耐心、诚实和共情以及它们在社交媒体中的问题应用进行了类似的分析(Vallor 2010 年)。Vallor 进一步主张,信息技术的用户和设计者都需要培养一种她称之为“技术道德智慧”的新美德,这可以帮助我们培养更好的在线社区和友谊(Vallor,2016 年)。

Johnny Hartz Søraker(2012 年)主张对虚拟朋友的美德进行细致的理解,而不是匆忙做出规范性判断。

在使用社交媒体时,隐私问题层出不穷。詹姆斯·帕里什(James Parrish)在追随梅森(Mason,1986 年)之后,推荐社交媒体用户应遵循四项政策,以确保对他人隐私的适当道德关注:

  1. 在分享 SNS(社交网络网站)上的信息时,不仅需要考虑个人信息的隐私,还需要考虑与所分享信息相关的其他人的隐私。

  2. 在分享 SNS 上的信息时,有分享信息的责任者需要在分享之前验证信息的准确性。

  3. SNS 的用户不应该发布自己认为将来可能想要撤回的信息。此外,SNS 的用户不应该发布另一个个体的思想产品,除非得到该个体的同意。在这两种情况下,一旦信息被分享,就可能无法撤回。

  4. 在允许某人或程序访问共享信息之前,SNS 用户有责任确定该人或程序的真实性。(Parrish 2010)

这些系统通常并不是为了明确侵犯个人隐私而设计的,但由于这些服务通常是免费的,服务提供商有强烈的经济动力来收集关于用户在网站上的活动的一些信息,以便将这些信息出售给广告商进行定向营销。这种营销可以通过提供商仅销售已经匿名化的用户数据来进行,以便广告商知道用户可能会购买一条牛仔裤,但他们不会得到该人的确切身份。通过这种方式,社交网络提供商可以尝试在为用户提供隐私的道德价值的同时,仍然从与广告商的联系中获利。

3.1.1 网络游戏和虚拟世界

当思考在线游戏时,人们首先遇到的道德影响是这些游戏倾向于描绘暴力、性别歧视和性暴力。有很多新闻报道声称电脑游戏中的暴力与现实暴力之间存在因果关系。社会科学家克里斯托弗·J·弗格森(Ferguson 2007)对电子游戏中的暴力与实际暴力之间的因果关系提出了强烈批评。然而,马克·库克尔伯格(Mark Coeckelbergh)认为,由于这种关系最多是牵强附会,真正的问题在于这些游戏对个人道德品质的影响(Coeckelbergh 2007)。但库克尔伯格继续声称,计算机游戏可以被设计成促进像同理心和世界主义道德发展这样的美德,因此他并不反对所有游戏,只是那些暴力抑制道德成长的游戏(Coeckelbergh 2007)。一个很好的例子可能是计划生育组织在 2017 年设计的虚拟现实体验,“……该体验侧重于了解在美国进行堕胎的经历,积极影响观众对许多患者、提供者和卫生中心工作人员在安全、合法堕胎方面遭受的骚扰的看法”(计划生育组织,2017 年)。

Marcus Schulzke(2010 年)为视频游戏中的暴力描绘辩护。 Schulzke 的主要观点是虚拟世界中的行为与现实世界中的行为非常不同。虽然玩家在虚拟世界中可能会“杀死”另一个玩家,但被冒犯的玩家会立即回到游戏中,而且两者几乎肯定会在现实世界中保持朋友关系。因此,虚拟暴力与真实暴力非常不同,这是游戏玩家所能接受的区别(Schulzke 2010)。虽然虚拟暴力对某些人来说可能是可以接受的,但 Morgan Luck(2009 年)寻求一种可能能够接受虚拟谋杀的道德理论,但不会延伸到其他不道德行为,如恋童癖。Christopher Bartel(2011 年)对 Luck 试图划分的区别不太担心;Bartel 认为虚拟恋童癖是真实的儿童色情,这已经在全球范围内是道德上可憎和非法的。

在在线游戏中,暴力行为很容易被看到,但其中存在着更为重要的道德价值,那就是虚拟世界的政治。彼得·拉德洛和马克·华莱士在他们的书《第二人生先驱报:见证元宇宙黎明的虚拟小报》(2007 年)中描述了在线政治文化的初步发展。拉德洛和华莱士记录了大型在线世界中的玩家如何开始组建团体和公会,这些团体和公会经常使游戏设计师感到困惑,并且有时与制作游戏的人发生冲突。他们认为,设计师很少意识到他们正在创造一个人们打算在其中度过大部分生活并从事真实经济和社会活动的空间,因此设计师在道德上有着与起草政治宪法的人相当的责任(拉德洛和华莱士,2007 年)。根据普塞尔(2008 年)的说法,那些创建和拥有在线游戏的人对民主或平等主义几乎没有承诺,如果我们越来越多地在这些虚拟社会中度过时间,这个问题需要讨论。

3.1.2 游戏世界中虚拟的诱惑

对于使用计算机,尤其是电脑游戏的持续担忧是,这可能导致反社会行为和孤立。然而,研究可能不支持这些假设(Gibba 等,1983 年)。随着大型多人在线游戏和面向家庭的视频游戏的出现,社交孤立假设甚至更难以置信。然而,这些游戏确实引发了性别平等的问题。詹姆斯·艾沃利(James Ivory)使用游戏的在线评论完成了一项研究,显示男性角色在游戏中超过女性角色,并且游戏中的女性形象往往过于性感化(Ivory,2006 年)。Soukup(2007 年)认为,这些虚拟世界中的游戏玩法往往基于男性玩法的风格,因此可能使女性玩家感到疏离。而那些在游戏中扮演最高级别角色的女性,在游戏文化中的角色与主要是异性恋的白人男性玩家非常不同,通常利用自己的性别来获得认可(Taylor 等,2009 年)。此外,琼·M·麦克马洪(Joan M. McMahon)和罗尼·科恩(Ronnie Cohen)研究了性别在虚拟在线世界中道德决策制定中的作用,发现女性更有可能将可疑行为判断为不道德(2009 年)。马库斯·约翰松(Marcus Johansson)认为,我们可以通过对虚拟犯罪进行虚拟惩罚来减轻虚拟不道德,以促进更具道德的虚拟社区(Johansson,2009 年)。

媒体对信息技术对儿童成长方式的改变提出了道德关切(例如参见 Jones 2011)。现在有许多应用专门为婴儿和幼儿设计,具有教育应用或仅供娱乐,以帮助孩子在父母忙碌时保持忙碌。这鼓励儿童尽早与计算机互动。由于儿童可能容易受到媒体操纵,如广告,我们必须问这种做法是否道德可接受。根据使用的特定应用程序,它可能鼓励孤独游戏,可能导致孤立,但其他应用程序则更具吸引力,父母和孩子都可以参与其中(Siraj-Blatchford 2010)。还应注意,儿科医生建议,对于幼儿早期媒体使用没有已知的益处,但存在潜在风险(Christakis 2009)。研究表明,从 1998 年到 2008 年,英国儿童的久坐生活方式导致了自二战以来首次测量到的力量下降(Cohen 等,2011)。目前尚不清楚这种下降是否直接归因于信息技术的使用,但它可能是一个促成因素。2018 年,美国儿科学会发布了一些简单的指南,供希望对这种活动设定现实限制的父母参考(来自美国儿科学会的提示)。

3.1.3 技术透明度悖论

有人可能会想为什么社交媒体服务往往是免费使用的,但尽管如此,却经常为提供这些服务的私营公司带来巨大的利润。这些公司盈利的方式并不是什么秘密,而是通过出售用户在与系统互动时上传到系统的信息。用户越多,提供的信息越多,聚合这些信息的价值就越大。马克·扎克伯格在 2012 年 2 月 1 日致股东的信中表达了他对这种社会价值的哲学承诺:

在 Facebook,我们构建工具来帮助人们与他们想要联系的人建立联系并分享他们想要分享的内容,通过这样做,我们扩展了人们建立和维护关系的能力。人们分享更多的东西-即使只是与他们的亲密朋友或家人分享-创造了一种更开放的文化,并且导致对他人生活和观点的更好理解。我们相信,这会在人与人之间建立更多更强的关系,并且帮助人们接触到更多不同的观点。通过帮助人们建立这些联系,我们希望改变人们传播和消费信息的方式。我们认为世界的信息基础设施应该类似于社交图谱,即“从下而上或点对点构建的网络”,而不是迄今为止存在的单一的自上而下的结构。我们还相信,让人们对分享的内容有控制权是这种改变的基本原则(Facebook, Inc., 2012)。

追求这一点的社会价值有争议,但经济价值是不可否认的。在撰写本文时,马克·扎克伯格一直被福布斯杂志列为全球前十大富豪之一,通常位居前五。这一成就是建立在为全世界提供免费服务的基础上的。像 Facebook 这样的公司所收费的是一些服务,比如定向广告,允许第三方公司访问用户在社交媒体应用程序中提供的信息。结果是,在 Facebook 等应用程序上购买的广告更有可能被视为对观众有用的广告,而这些观众更有可能点击这些广告并购买所推广的产品。分享的信息越详细和个人化,对于与之分享的公司来说就越有价值。鼓励与 Facebook 等公司分享深层次个人信息的这种激进透明度。使用社交网络技术的人确实会获得价值,这一点可以从这项技术的快速增长中得到证明。Statista 报告称,2019 年全球社交媒体用户将达到 27.7 亿,到 2021 年将增长到 30.2 亿(Statista,2018)。问题是,为了获得这种“免费”服务,我们放弃了什么?早在社交媒体用户还不到十亿的 2011 年,技术评论家安德鲁·基恩就警告说,“分享是一个陷阱”,并且有一种激进透明度的崇拜正在发展,这使我们无法对我们给予这些公司的权力进行批判性思考(基恩,2011)。甚至在像 Facebook 这样的公司获得巨额利润之前,就有人警告透明度崇拜的危险,例如:

…并不奇怪,公众的不信任在追求开放和透明的这些年里不断增长。透明度破坏了秘密,但它可能无法限制破坏信任关系的欺骗和蓄意误导。如果我们想要恢复信任,我们需要减少欺骗和谎言,而不是保密。(奥尼尔,2002)

就 Facebook 而言,我们可以看到一些批评者的警告是准确的。2018 年 4 月,马克·扎克伯格被召到国会作证,他为他的公司在一起丑闻中的行为道歉,该丑闻涉及向独立研究人员披露关于用户的大量信息,然后将其出售给剑桥分析公司,该公司从事政治数据分析。然后,这些数据被用于将政治广告定向投放给 Facebook 的用户,其中许多广告都是俄罗斯情报机构制造的虚假广告,旨在干扰 2016 年的美国选举(Au-Yeung,2018)。

哲学家 Shannon Vallor 批评透明崇拜,称其为“技术透明悖论”(Vallor,2016)。她指出,那些支持开发促进极度透明社会的技术的人,是基于这样的前提,即这种开放性将增加问责和民主理念。但悖论在于,透明崇拜往往实现了相反的效果,大型不负责任的组织持有可以削弱民主社会的信息,而这些组织并非经过民主选举产生。这是由于用户与公司之间的不对称关系,用户对公司来说是完全开放和透明的,但用于挖掘数据的算法和与之共享数据的第三方却是不透明且不受问责的。我们作为这些技术的用户,被迫保持透明,但从我们的信息中获利的公司并不需要同样透明。

3.3 恶意软件、间谍软件和信息战争

恶意软件和计算机病毒威胁以惊人的速度不断增长。安全行业专业人士报告称,尽管某些类型的恶意软件攻击,如垃圾邮件,正在逐渐淡出,但新型攻击,如勒索软件和其他针对移动计算设备、加密货币和云计算基础设施的攻击方法,正在上升,超过了旧形式攻击减缓所带来的一点点缓解(思科系统 2018 年;卡巴斯基实验室 2017 年,麦克菲 2018 年,赛门铁克 2018 年)。清楚的是,这种活动在可预见的未来将与我们同在。除了恶意软件生产的主要犯罪活动外,我们还必须考虑到与之相关但更具道德模糊性的黑客攻击、黑客行动主义、商业间谍软件和信息战的活动。每个主题都有自己微妙的道德模糊性。我们现在将在这里探讨其中一些。

虽然人们普遍认为有意传播恶意软件的行为在道德上是值得质疑的,但对于恶意软件保护和反病毒软件的道德性却存在一个有趣的问题。随着恶意软件的增加,安全行业也呈现出了多亿美元的市场规模。即使在安全软件上花费了大量资金,病毒的产生似乎并没有减缓,事实上相反的情况发生了。这引发了一个有趣的商业道德问题:客户从安全行业获得了什么价值?恶意软件的大规模传播已被证明在很大程度上超出了反病毒软件完全缓解的能力。安全社区发现新的恶意软件与最终发布安全补丁和恶意软件清除工具之间存在重要的时间滞后。

接收样本、分析样本、为样本添加检测、执行质量保证、创建更新,最后将更新发送给用户的反病毒操作方式为对手留下了巨大的机会窗口……即使假设反病毒用户定期更新。(Aycock 和 Sullins 2010)

恶意软件制造商不断利用这种滞后现象,在这种模式下存在一个无法填补的安全漏洞。因此,安全专业人员不应夸大他们保护系统的能力,当发现并修补新的恶意程序时,它已经造成了重大损害,目前没有办法阻止这种情况。(Aycock 和 Sullins 2010)

过去,大多数恶意软件的制造是由爱好者和业余爱好者驱动的,但现在这种活动的很大一部分是犯罪性质的(Cisco Systems 2018;Kaspersky Lab 2017;McAfee 2018;Symantec 2018)。Aycock 和 Sullins(2010)认为,仅依靠强大的防御是不够的,情况需要采取反攻措施,他们提出了一个以道德为动机的恶意软件研究和制造计划。这并不是一个全新的想法,最初是由计算机科学家 George Ledin 在他为 ACM 通信杂志撰写的社论“不教授病毒和蠕虫是有害的”(2005)中提出的。这个想法与关于学习和部署恶意软件的伦理观点相悖。许多计算机科学家和信息伦理研究人员都认为所有恶意软件都是不道德的(Edgar 2003;Himma 2007a;Neumann 2004;Spafford 1992;Spinello 2001)。根据 Aycock 和 Sullins 的说法,通过开放研究来了解恶意软件的创建过程,以更好地对抗这一威胁,可以缓解这些担忧(2010)。

当恶意软件和间谍软件由国家行为者创建时,我们进入了信息战的世界,面临一系列新的道德关切。世界上每个发达国家每天都遭受网络攻击,其中主要目标是美国,据称在 2010 年每月遭受了 18 亿次攻击(Lovely 2010),2017 年全球范围内进行了 800 亿次恶意扫描(McAfee 2018)。这些攻击中的大部分似乎只是在探测弱点,但它们可以对一个国家的互联网造成毁灭性的影响,比如 2007 年对爱沙尼亚的网络攻击和 2008 年对格鲁吉亚的攻击。尽管爱沙尼亚和格鲁吉亚的攻击主要是为了混淆目标国内部的通信,但最近信息战已被用于促进远程破坏。著名的 Stuxnet 病毒被用来攻击伊朗的核离心机,可能是第一个能够远程破坏物理设施的武器化软件的例子(Cisco Systems 2018)。未来几十年可能会看到更多国家行为者部署的网络武器,沿着众所周知的政治分歧线,如以色列-美国-西欧对伊朗,以及美国-西欧对中国(Kaspersky Lab 2018)。在这里的道德挑战是确定这些攻击何时被视为对一个国家主权的严重挑战,以便为军事反应提供正当理由,并以合理和道德的方式对其做出反应(Arquilla 2010;Denning 2008,Kaspersky Lab 2018)。

信息战的主要道德挑战是确定如何以尊重公正和合法战争的承诺的方式使用武器化信息技术。由于战争本身已经是一个道德上可疑的事业,如果信息技术能够被利用来减少暴力战斗将是更可取的。例如,有人可能会认为 Stuxnet 病毒在 2005 年至 2010 年间的使用对伊朗核武器计划造成了损害,在以前的几代中,可能只能通过空袭或其他动能军事行动来实现,这将导致大量平民伤亡,而迄今为止,没有报道 Stuxnet 导致的人员伤亡。因此,恶意软件可能会减少冲突中的平民伤亡。被称为“Flame”的恶意软件是一个有趣的案例,证据表明它被设计用于间谍活动。有人可能会认为,在战时向决策者提供更准确的信息应该有助于他们在战场上做出更好的决策。另一方面,这些新的信息战能力可能会使国家在持续的低级冲突中参与,回避需要政治妥协的和平努力。

3.4 未来的关注点

正如上面介绍的,信息技术处于不断变化和创新的状态。带来如此多社会变革的互联网技术在几十年前几乎无法想象。即使我们可能无法预见所有可能的未来信息技术,但重要的是要尝试想象我们可能会在新兴技术中看到的变化。詹姆斯·穆尔(James Moor)认为,道德哲学家需要特别关注新兴技术,并在早期影响这些技术的设计,以促进有益的道德结果(Moor 2005)。以下各节包含一些潜在的技术关注点。

3.4.1 变革的加速

自从信息技术行业成立以来,人们观察到了一种有趣的增长模式。英特尔工程师戈登·E·摩尔注意到,可以安装在集成电路上的元件数量每年翻倍,而经济成本却很小。他认为这种情况可能会在他在 1965 年注意到它的时候继续下去,大约还会持续十年左右(摩尔,1965 年)。历史证明他的预测相当保守。自 1965 年以来,速度和功能的翻倍以及生产成本的减半大致每隔十八个月就会继续。这种现象不仅限于计算机芯片,还可以在许多不同形式的信息技术中找到。这种加速变化的潜在力量引起了著名发明家和未来学家雷·库兹韦尔的想象。他曾预测,如果这种能力的翻倍继续下去,越来越多的技术变成信息技术,那么将会有一个时间点,从一代信息技术到下一代的变化将变得如此巨大,以至于它将彻底改变人类的一切。库兹韦尔将这个潜在事件称为“奇点”,他预测我们的技术将使我们成为一个新的后人类物种(2006 年)。如果这是正确的,那么对我们的道德价值来说,可能没有更深刻的改变了。科技界对这一假设的支持有一些,例如加速研究基金会、人类未来研究所和 H+。[2] 哲学家对这一假设的反应是褒贬不一的,但主要是批评的。例如,玛丽·米奇利(1992 年)认为,相信科学和技术将给我们带来不朽和身体超越是基于伪科学信仰和对死亡的深深恐惧。 在类似的思路中,Sullins(2000)认为,接受超人类主义往往具有一种准宗教的特质,致力于实现某些结果,例如将人类意识上传到计算机中以实现永生,并且超人类主义假设的接受影响了嵌入在计算机技术中的价值观,这可能对人体持有轻视或敌对的态度。

这个论点还有其他有力的批评,但没有一个像意识到这样简单:

…毕竟,事物变得越来越小是有限度的,否则它们就会融化。摩尔定律不再适用。仅仅因为某物在一段时间内呈指数增长,并不意味着它将永远如此…(Floridi,2016)。

尽管许多伦理体系将道德价值放在保护和保护自然和自然赋予的世界上,但超人类主义者并不认为定义什么是自然的和什么不是自然的具有内在价值,并认为保留人体某种被认为是自然状态的论点是对进步的不可证明的障碍。并非所有哲学家都对超人类主义持批评态度,例如牛津大学未来人类研究所的尼克·博斯特罗姆(2008)认为,撇开可行性论证不谈,我们必须得出结论,存在着一些后人类主义形式,这些形式将导致长寿而有价值的生活,并且如果可能的话,人类成为后人类总体上将是一件非常好的事情(博斯特罗姆,2008)。

3.4.2 人工智能和人工生命

人工智能(AI)是指许多长期研究项目,旨在构建展示人类水平智能和问题解决的信息技术。人工生命(ALife)是一个不如 AI 历史悠久的项目,其重点是开发展示生物实体中通常仅存在的生命功能的信息技术和/或合成生物技术。关于逻辑和人工智能的更完整描述可以在逻辑和人工智能条目中找到。ALife 基本上将生物学视为一种自然发生的信息技术,可以在其他类型的技术中进行逆向工程和合成。AI 和 ALife 都是庞大的研究项目,无法简单解释。因此,这里的重点是这些技术影响的道德价值观以及其中一些技术被编程以影响情感和道德关注的方式。

3.4.2.1 人工智能

艾伦·图灵被认为是定义了被称为人工智能的研究项目的人,他在他的 1950 年的重要论文《计算机与智能》中描述了“模仿游戏”,其中计算机试图欺骗人类对话者,使其相信它不是计算机而是另一个人类(图灵 1948 年,1950 年)。在 1950 年,他提出了现在著名的观点:

我相信大约五十年后……人们将能够谈论机器思考而不会被反驳。

在道德价值之外,可以在这里找到有关测试及其对哲学的影响的描述(参见图灵测试的条目)。图灵的预测可能过于雄心勃勃,事实上,一些人认为我们离图灵的梦想完成还差得远。例如,卢西亚诺·弗洛里迪(2011a)认为,虽然人工智能在增强我们自身智能方面非常成功,但作为一个对智能产生感兴趣的认知科学分支,人工智能却是一个令人沮丧的失望。也有人持相反观点,声称图灵测试已经通过,或者至少程序员们即将通过。例如,BBC 在 2014 年报道称,一款程序已经通过了图灵测试,能够让评委相信它是一个 13 岁的乌克兰男孩,但即便如此,许多专家仍然持怀疑态度(BBC 2014)。

为了论证的目的,假设图灵是正确的,即使他对人工智能何时成功地创造出一台能与你交谈的机器的估计有误。耶鲁大学教授大卫·盖勒特担心这将引发某些令人不舒服的道德问题。“你没有理由将其视为你有道德责任的存在,而不是作为你喜欢使用的工具”(Gelernter 2007)。盖勒特认为,意识是道德代理的要求,我们可以任意对待没有意识的任何事物,而不受道德关注。Sullins(2006)通过指出意识对于道德代理并非必需来反驳这一观点。例如,非人类动物和我们环境中的其他生物和非生物事物必须被赋予某些道德权利,而且,任何具备图灵能力的人工智能无论其作为有意识存在的身份如何,都将具有道德责任和权利(Sullins 2006)。

AI 肯定能够创建能够有效与人类进行简单对话的机器,正如苹果 Siri、亚马逊 Alexa、OK Goolge 等所证明的那样,还有许多企业用于自动化客户服务的系统,但这些机器与人类之间进行的自然无脚本对话仍然有一段距离。但是,当评估这些技术的道德影响时,这可能并不重要。此外,还有许多其他应用使用了 AI 技术。我们上面讨论的几乎所有信息技术,如搜索、电脑游戏、数据挖掘、恶意软件过滤、机器人技术等,都利用了 AI 编程技术。因此,AI 将成为信息技术道德影响的主要领域。许多政府和专业协会正在制定道德准则和标准,以帮助塑造这一重要技术,一个很好的例子是全球智能和自主系统伦理倡议(IEEE 2018)。

3.4.2.2 人工生命

人工生命(ALife)是人工智能的延伸,指的是利用信息技术来模拟或合成生命功能。定义生命的问题自其创立以来一直是哲学的研究兴趣。请参阅有关生命的条目,了解生命概念及其哲学影响。如果科学家和技术人员能够成功发现生命的必要和充分条件,并通过机器或合成生物学成功合成生命,那么我们将进入具有重大道德影响的领域。马克·贝道(Mark Bedau)一直在追踪 ALife 的哲学意义,并认为 ALife 有两种不同的形式,如果我们成功实现这些独立的研究议程,每种形式都将产生不同的道德影响(Bedau 2004; Bedau and Parke 2009)。一种形式的 ALife 完全是计算机模拟的,实际上是最早研究的 ALife 形式。ALife 受到数学家约翰·冯·诺伊曼(John von Neumann)关于自复制细胞自动机的工作的启发,冯·诺伊曼认为这将导致对生物学和生命科学的计算机理解(1966)。计算机科学家克里斯托弗·朗顿(Christopher Langton)大大简化了冯·诺伊曼的模型,并在 80 年代初开发了一个名为“Loops”的简单细胞自动机,通过组织最早几次人工生命会议推动了该领域的发展(1989)。人工生命程序与人工智能程序非常不同。人工智能致力于创建或增强智能,而人工生命则满足于展示生命功能而非智能的非常简单的程序。这里的主要道德关注点是这些程序被设计为自我复制,从而类似于计算机病毒,事实上成功的人工生命程序可能成为恶意软件的传播途径。第二种形式的人工生命具有更多的道德问题。 这种人工生命形式是基于操纵实际的生物和生化过程,以产生在自然界中看不到的新生命形式。

2010 年 5 月,J. Craig Venter 研究所的科学家成功合成了一种名为 JCVI-syn1.0 的人工细菌。媒体对这一突破进行了关注,但他们往往集中关注人工细菌创造可能带来的伦理和社会影响。克雷格·文特本人发起了一场公关活动,试图引导有关创造生命的问题的讨论。这一合成生命的第一步让我们领略到当更多可行且强大的人工原细胞被合成时,将会产生的兴奋和争议。这种被称为湿润人工生命的研究所引发的伦理关切更适合由生物伦理学来管辖(参见有关理论和生物伦理学的条目)。但是,对于我们来说,湿润人工生命是将生命科学理论转化为信息技术过程的一部分,这将导致生物伦理学和信息伦理学之间的界限变得模糊。就像软件人工生命可能导致危险的恶意软件一样,湿润人工生命也可能导致危险的细菌或其他疾病传播媒介。批评者认为,追求这项技术存在强有力的道德论据,并且我们应该在这里应用预防原则,即如果某项技术有可能造成灾难性危害,并且没有科学共识表明不会发生危害,那么那些希望开发该技术或进行该研究的人必须首先证明它是无害的(参见 Epstein 1980)。马克·贝道和马克·特兰特反对过于强调预防原则,他们建议我们应该选择在追求人类对生命的理解这一重要步骤中表现出道德勇气(2009)。他们呼吁采用亚里士多德的勇气观念,即不是头脑发热和鲁莽地冲入未知领域,而是坚定而谨慎地向这项研究所提供的可能性迈进。

3.4.3 机器人技术与道德价值

信息技术并不满足于仅限于虚拟世界和软件实现。这些技术也通过机器人应用直接与我们互动。机器人技术是一种新兴技术,但已经产生了许多具有重要道德意义的应用。军事机器人技术、医疗机器人技术、个人机器人技术以及性机器人领域只是一些已经存在的机器人技术应用,它们对我们的道德承诺产生影响并表达出来(参见 Anderson 和 Anderson 2011;Capurro 和 Nagenborg 2009;Lin 等 2012 年,2017 年)。

在机器道德和机器人伦理学(机器伦理学)领域已经有了许多有价值的贡献。例如,在 Wallach 和 Allen 的书《道德机器:教导机器人对错》(2010)中,作者提出了设计和编程能够在道德问题上进行功能性推理的机器的思路,以及来自机器人领域的例子,工程师们正在努力创造能够以道德可辩护方式行事的机器。将半自主和全自主机器(即几乎没有人类干预的机器)引入公共生活并不简单。为此,Wallach(2011)还为关于如何利用哲学来设计机器人使用和监管的公共政策的讨论做出了贡献。

军事机器人已被证明是最具道德价值的机器人应用之一(Lin 等,2008 年,2013 年,Lin 2010 年; Strawser,2013 年)。如今,这些机器主要是远程操作(远程机器人)或半自主的,但随着现代战争的需要,这些机器很可能会变得越来越自主(Singer 2009 年)。在 21 世纪的战争的最初几十年中,机器人武器已经参与了许多士兵和非战斗人员的杀戮(Plaw 2013 年),这一事实本身就引起了深刻的道德关注。Gerhard Dabringer 对伦理学家和技术人员进行了大量采访,探讨了自动化战争的影响(Dabringer 2010 年)。许多伦理学家对自动化战争持谨慎态度,前提是该技术用于增强战争中的道德行为,例如减少平民和军事人员的伤亡,或帮助战斗人员遵守国际人道法和其他法律和道德准则(参见 Lin 等,2008 年,2013 年; Sullins 2009b),但其他人对道德自主战争的前景持高度怀疑态度,原因包括对平民的风险以及机器人将承担大部分风险,战争可能会很容易宣布(Asaro 2008 年; Sharkey 2011 年)。

4. 道德信息技术

在信息技术领域的一个重要发展是,它们不仅是道德思考的对象,而且开始被用作道德思考本身的工具。由于人工智能技术和应用是一种自动化问题解决者,而道德思考是一种问题,自动化道德推理技术的出现只是时间问题。这仍然只是一种新兴技术,但它具有一些非常有趣的道德意义,将在下面概述。未来几十年可能会在这个领域看到许多进展,伦理学家需要密切关注这些发展。苏珊和迈克尔·安德森在他们的书《机器伦理学》(2011 年)中收集了许多关于这个主题的文章,罗奇·卢皮奇尼在《技术伦理学研究手册》(2009 年)中专门讨论了这个主题。

4.1 信息技术作为道德发现的模型

Patrick Grim 长期以来一直主张哲学应该利用信息技术来自动化和说明哲学思想实验(Grim 等,1998 年;Grim,2004 年)。彼得·丹尼尔森(1998 年)也在这个主题上进行了广泛的写作,从他的书《建模理性、道德和进化》开始,早期的道德计算理论研究主要集中在使用计算机模型阐明简单软件 AI 或 ALife 代理之间合作的出现(Sullins,2005 年)。

Luciano Floridi 和 J.W. Sanders 认为,在计算理论中使用的信息可以作为一个强大的思想,可以帮助解决哲学中一些著名的道德困境,比如邪恶的本质(1999 年,2001 年)。他们提出,除了道德邪恶和自然邪恶,这两个概念在哲学中很熟悉(参见邪恶问题条目);我们还可以添加一个他们称之为人工邪恶的第三个概念(2001 年)。Floridi 和 Sanders 认为,如果我们这样做,我们就可以看到人工代理的行为是否是道德善恶,即使在没有生物感知参与者的情况下,从而使人工代理不仅能够犯下邪恶(以及善行),而且可以相反地“接受”或“遭受”邪恶(Floridi 和 Sanders,2001 年)。

...即使在没有生物感知参与者的情况下,也可以确定是道德善恶,从而使人工代理不仅能够犯下邪恶(以及善行),而且可以相反地“接受”或“遭受”邪恶(Floridi 和 Sanders,2001 年)。

邪恶可以被等同于类似信息溶解的东西,其中不可恢复的信息丧失是坏的,而信息的保留是好的(Floridi 和 Sanders,2001 年)。这个想法可以使我们更接近在信息环境中衡量任何给定行为的道德影响的方法。

4.2 信息技术作为道德系统

二十世纪初,美国哲学家约翰·杜威(见约翰·杜威条目)提出了一种基于技术工具的仪器使用的探究理论。杜威对技术有广泛的定义,不仅包括常见的工具和机器,还包括逻辑、法律甚至语言等信息系统(Hickman 1990)。杜威认为,我们与所有这些技术之间存在着一种“交易”关系,在这种关系中,我们发现并构建我们的世界(Hickman 1990)。这是一个有帮助的立场,因为它使我们能够推进这样一个想法:道德和伦理的信息技术并非不可能。它还使我们能够认真对待人类主体之间以及人类与其工艺品之间存在的关系和交易具有重要的本体论相似性。虽然杜威只能模糊地察觉到信息技术革命的到来,但他的理论对我们仍然有用,因为他提出伦理学不仅是一种理论,而且是一种实践,解决伦理问题就像解决代数问题一样(Hickman 1990)。如果他是正确的,那么一个有趣的可能性就出现了,即伦理和道德是可计算的问题,因此应该有可能创建一种能够体现道德思维系统的信息技术。

1974 年,哲学家马里奥·邦格提出我们应该认真对待“技术伦理”的概念,认为道德哲学家应该效仿工程师解决问题的方式。工程师不是以范畴命令的推理方式进行论证,而是使用:

…如果 A 产生 B 的形式,而你重视 B,选择做 A;如果 A 产生 B,C 产生 D,而你更喜欢 B 而不是 D,选择 A 而不是 C。简而言之,他提出的规则是基于事实和价值的,我认为这是道德规则应该形成的方式,即作为从科学陈述和价值判断中得出的行为规则。简而言之,伦理学可以被看作是技术的一个分支。(邦格 1977 年,103 页)

认真对待这个观点意味着建立信息技术的行为本身也是在创造特定的道德体系,人类和人工智能代理人将在其中进行道德交易,至少偶尔会发生互动。信息技术专家可能因此而从事创造道德体系的工作,无论他们是否知道,无论他们是否愿意承担这个责任。

4.3 信息有机体作为道德行为者

最全面的文献是 Luciano Floridi(1999 年,2002 年,2003 年,2010b 年,2011b 年)和 Floridi 与 Jeff W. Sanders(1999 年,2001 年,2004 年)提出的,支持使用信息技术创建人工道德代理的前景。Floridi(1999 年)认识到信息技术的伦理影响引发了我们传统道德理论的问题。为了缓解这种摩擦,他认为需要一种更广泛的信息哲学(2002 年)。在这一步之后,Floridi(2003 年)声称信息是一个合法的独立环境,并且具有自己的内在价值,这在某些方面类似于自然环境,在其他方面则完全不同,但无论如何,结果是信息本身是值得关注的事物。Floridi(2003 年)利用这些思想,使用面向对象编程的逻辑创建了一个道德行为的理论模型。

他的模型有七个组成部分:1)道德行为者 a,2)道德患者 p(或更恰当地说,试剂),3)这些行为者之间的相互作用,4)行为者的信息框架,5)行为者对其试图导航的情况的可用事实信息,6)交互发生的环境,以及 7)交互发生的情况(Floridi 2003,3)。请注意,在建模的道德关系中,并没有对所涉及的代理的本体论假设,这些代理可以是任何混合或人工或自然的(Sullins 2009a)。

还有其他文献批评了像 Floridi 这样的论点,希望扩展自动道德推理的概念,以便可以谈论许多不同类型的自动道德技术,从简单的应用程序到具有类似于人类的权利和责任的完整道德代理(Adam 2008; Anderson and Anderson 2011; Johnson and Powers 2008; Schmidt 2007; Wallach and Allen 2010)。

尽管学者们承认我们离创造被公认为人工道德代理的信息技术还有一段时间,但有强有力的理论论证表明自动化道德推理是一个可能的发展方向,因此对于那些对信息技术的道德影响感兴趣的人来说,这是一个适当的研究领域。

Bibliography

  • Adam, A., 2002, “Cyberstalking and Internet pornography: Gender and the gaze,” Ethics and Information Technology, 4(2): 133–142.

  • –––, 2008, “Ethics for things,” Ethics and Information technology, 10(2–3): 149–154.

  • American Academy of Pediatrics, 2018, “Tips from the American Academy of Pediatrics to Help Families Manage the Ever Changing Digital Landscape,” May 1, available online.

  • Anderson, M. and S. L. Anderson (eds.), 2011, Machine Ethics, Cambridge: Cambridge University Press.

  • Arkin, R., 2009, Governing Lethal Behavior in Autonomous Robots, New York: Chapman and Hall/CRC.

  • Arquilla, J., 2010, “Conflict, Security and Computer Ethics,” in Floridi 2010a.

  • Asaro, P., 2008. “How Just Could a Robot War Be?” in Philip Brey, Adam Briggle and Katinka Waelbers (eds.), Current Issues in Computing And Philosophy, Amsterdam, The Netherlands: IOS Press, pp. 50–64.

  • –––, 2009. “Modeling the Moral User: Designing Ethical Interfaces for Tele-Operation,” IEEE Technology & Society, 28(1): 20–24.

  • Au-Yeung A., 2018. “Why Investors Remain Bullish On Facebook in Day Two Of Zuckerberg’s Congressional Hearnings,”Forbes, April 11, available online.

  • Aycock, J. and J. Sullins, 2010, “Ethical Proactive Threat Research,” Workshop on Ethics in Computer Security Research (LNCS 6054), New York: Springer, pp. 231–239.

  • Bartell, C., 2011, “Resolving the gamer’s dilemma,” Ethics and Information Technology, 14(1):11–16.

  • Baase, S., 2008, A Gift of Fire: Social, Legal, and Ethical Issues for Computing and the Internet, Englewood Cliffs, NJ: Prentice Hall.

  • BBC, 2014, “Computer AI passes Turing test in ‘world first’,” BBC Technology [available online]

  • Bedau, M., 2004, “Artificial Life,” in Floridi 2004.

  • Bedau, M. and E. Parke (eds.), 2009, The Ethics of Protocells: Moral and Social Implications of Creating Life in the Laboratory, Cambridge: MIT Press.

  • Bedau, M. and M. Traint, 2009, “Social and Ethical Implications of Creating Artificial Cells,” in Bedau and Parke 2009.

  • Bostrom, N., 2008, “Why I Want to be a Posthuman When I Grow Up,” in Medical Enhancement and Posthumanity, G. Gordijn and R. Chadwick (eds), Berlin: Springer, pp. 107–137.

  • Brey, P., 2008, “Virtual Reality and Computer Simulation,” in Himma and Tavanni 2008

  • –––, 2010, “Values in Technology and Disclosive Computer Ethics,” in Floridi 2010a.

  • Bunge, M. 1977, “Towards a Technoethics,” The Monist, 60(1): 96–107.

  • Bynum, T., 2000, “Ethics and the Information Revolution,” Ethics in the Age of Information Technology, pp. 32–55, Linköping, Sweden: Center for Applied Ethics at Linköping University.

  • –––, 2008, “Norbert Wiener and the Rise of Information Ethics,” in van den Hoven and Weckert 2008.

  • Capurro, R., Nagenborg, M., 2009, Ethics and Robotics, [CITY]: IOS Press

  • Christakis, D. A., 2009, “The effects of infant media usage: what do we know and what should we learn?” Acta Pædiatrica, 98 (1): 8–16.

  • Cisco Systems, Inc., 2018, Cisco 2018 Annual Security Report: Small and Mighty: How Small and Midmarket Businesses Can Fortify Their Defenses Against Today’s Threats, San Jose, CA: Cisco Systems Inc. [available online]

  • Coeckelbergh, M., 2007, “Violent Computer Games, Empathy, and Cosmopolitanism,” Ethics and Information Technology, 9(3): 219–231

  • Cohen, D. D., C. Voss, M. J. D. Taylor, A. Delextrat, A. A. Ogunleye, and G. R. H. Sandercock, 2011, “Ten-year secular changes in muscular fitness in English children,” Acta Paediatrica, 100(10): e175–e177.

  • Danielson, P., 1998, Modeling Rationality, Morality, and Evolution, Oxford: Oxford University Press.

  • Dabringer, G., (ed.) 2010, Ethica Themen: Ethical and Legal Aspects of Unmanned Systems, Interviews, Vienna, Austria: Austrian Ministry of Defence and Sports. [available online]

  • Denning, D., 2008, “The Ethics of Cyber Conflict,” In Himma and Tavanni 2008.

  • Dodig-Crnkovic, G., Hofkirchner, W., 2011, “Floridi’s ‘Open Problems in Philosophy of Information’, Ten Years Later,” Information, (2): 327–359. [available online]

  • Edgar, S.L., 2003, Morality and Machines, Sudbury Massachusetts: Jones and Bartlett.

  • Epstein, R., 2007, “The Impact of Computer Security Concerns on Software Development,” in Himma 2007a, pp. 171–202.

  • Epstein, L.S. 1980. “Decision-making and the temporal resolution of uncertainty”. International Economic Review 21 (2): 269–283.

  • Ess, C., 2009, Digital Media Ethics, Massachusetts: Polity Press.

  • Facebook, Inc., 2012, Form S-1: Registration Statement, filed with the United States Securities and Exchange Commission, Washington, DC, available online.

  • Floridi, L., 1999, “Information Ethics: On the Theoretical Foundations of Computer Ethics”, Ethics and Information Technology, 1(1): 37–56.

  • –––, 2002, “What is the Philosophy of Information?” in Metaphilosophy, 33(1/2): 123–145.

  • –––, 2003, “On the Intrinsic Value of Information Objects and the Infosphere,” Ethics and Information Technology, 4(4): 287–304.

  • –––, 2004, The Blackwell Guide to the Philosophy of Computing and Information, Blackwell Publishing.

  • ––– (ed.), 2010a, The Cambridge Handbook of Information and Computer Ethics, Cambridge: Cambridge University Press.

  • –––, 2010b, Information: A Very Short Introduction, Oxford: Oxford University Press.

  • –––, 2011a, “Enveloping the World for AI,” The Philosopher’s Magazine, 54: 20–21

  • –––, 2011b, The Philosophy of Information, Oxford: Oxford University Press.

  • –––, 2016, “Should We be Afraid of AI?”, Neigel Warburton (ed.), Aeon, 09 May 2016, available online.

  • Floridi, L. and J. W. Sanders, 1999, “Entropy as Evil in Information Ethics,” Etica & Politica, special issue on Computer Ethics, I(2). [available online]

  • –––, 2001, “Artificial evil and the foundation of computer ethics,” in Ethics and Information Technology, 3(1): 55–66. doi:10.1023/A:1011440125207

  • –––, 2004, “On the Morality of Artificial Agents,” in Minds and Machines, 14(3): 349–379 [available online]

  • Furguson, C. J., 2007, “The Good The Bad and the Ugly: A Meta-analytic Review of Positive and Negative Effects of Violent Video Games,” Psychiatric Quarterly, 78(4): 309–316.

  • Gelernter, D., 2007, “Artificial Intelligence Is Lost in the Woods,” Technology Review, July/August, pp. 62–70. [available online]

  • Gibba, G. D., J. R. Baileya, T. T. Lambirtha, and W. Wilsona, 1983, “Personality Differences Between High and Low Electronic Video Game Users,” The Journal of Psychology, 114(2): 159–165.

  • Grim, P., 2004, “Computational Modeling as a Philosophical Methodology,” In Floridi 2004.

  • Grim, P., G. Mar, and P. St. Denis, 1998, The Philosophical Computer: Exploratory Essays in Philosophical Computer Modeling, MIT Press.

  • Grodzinsky, F. S. and H. T. Tavani, 2002, “Ethical Reflections on Cyberstalking,” Computers and Society, 32(1): 22–32.

  • Hansen, R. and J. Grossman, 2008, “Clickjacking,” SecTheory: Internet Security. [available online]

  • Hickman, L. A. 1990, John Dewey’s Pragmatic Technology, Bloomington, Indiana: Indiana University Press.

  • Himma, K. E. (ed.), 2007a, Internet Security, Hacking, Counterhacking, and Society, Sudbury Massachusetts: Jones and Bartlett Publishers.

  • Himma, K. E., 2007b, “Hacking as Politically Motivated Digital Civil Disobedience: Is Hacktivisim Morally Justified?” In Himma 2007a, pp. 73–98.

  • Himma, K. E., and H. T. Tavanni (eds.), 2008, The Handbook of Information and Computer Ethics, Wiley-Interscience; 1st edition

  • Hongladarom, S., 2008, “Privacy, Contingency, Identity and the Group,”Handbook of Research on Technoethics. Vol. II, R. Luppicini and Rebecca Adell Eds. Hershey, PA: IGI Global, pp. 496–511.

  • IEEE 2018, “Ethically Aligned Design: The IEEE Global Initiative on Ethics of Autonomous and Intelligent Systems”, IEEE [available online ]

  • Ivory, J. D., 2006, “Still a Man’s Game: Gender Representation in Online Reviews of Video Games,” Mass Communication and Society, 9(1): 103–114.

  • Johansson, M., 2009, “Why unreal punishments in response to unreal crimes might actually be a really good thing,” Ethics and Information Technology, 11(1): 71–79

  • Johnson, D.G., 1985, Computer Ethics, Englewood Cliffs, New Jersey: Prentice Hall. (2nd ed., 1994; 3rd ed., 2001; 4th ed., 2009).

  • Johnson D. G., and T. Powers, 2008, “Computers and Surrogate Agents,” In van den Hoven and Weckert 2008.

  • Jones, T., 2011, “Techno-toddlers: A is for Apple,” The Guardian, Friday November 18. [available online ]

  • Kaspersky Lab, 2017, Kaspersky Security Bulletin: KASPERSKY LAB THREAT PREDICTIONS FOR 2018,Moscow, Russia: Kaspersky Lab ZAO. [available online]

  • Keen, A., 2011, “Your Life Torn Open, Essay 1: Sharing is a trap,” Wired, 03 Feb 2011, available online.

  • Kurzweil, R., 2006, The Singularity is Near, New York: Penguin Press.

  • Langton, C. G., (ed.), 1989, Artificial Life: the Proceedings of an Interdisciplinary Workshop on the Synthesis and Simulation of Living Systems, Redwood City: Addison-Wesley.

  • Ledin G., 2005, “Not Teaching Viruses and Worms is Harmful” Communications of the ACM , 48(1): 144.

  • Lessig, L., 1999, Code and Other Values of Cyberspace, New York: Basic Books.

  • Levy, S., 1984, Hackers: Heroes of the Computer Revolution, New York: Anchor Press.

  • Lin P., 2010, “Ethical Blowback from Emerging Technologies”, Journal of Military Ethics, 9(4): 313–331.

  • Lin, P., K. Abney, and R. Jenkins, 2017, Robot Ethics 2.0: From Autonomous Cars to Artificial Intelligence, Oxford: Oxford University Press.

  • Lin, P., K. Abney, and G. Bekey, 2012, Robot Ethics: The Ethical and Social Implications of Robotics, Cambridge, MA: MIT Press.

  • –––2013, “Ethics, War, and Robots”, Ethics and Emerging Technologies, London: Palgrave–Macmillan.

  • Lin, P., G. Bekey, and K. Abney, 2008, Autonomous Military Robotics: Risk, Ethics, and Design, Washington, DC: U.S. Department of the Navy, Office of Naval Research. [available online]

  • Lovely, E., 2010, “Cyberattacks explode in Congress,” Politico, March 5, 2010. [available online]

  • Lü, Yao-Hui, 2005, “Privacy and Data Privacy Issues in Contemporary China,” Ethics and Information Technology, 7(1): 7–15

  • Ludlow, P. and M. Wallace, 2007, The Second Life Herald: The Virtual Tabloid that Witnessed the Dawn of the Metaverse, Cambridge, MA: MIT Press.

  • Luck, M., 2009, “The gamer’s dilemma: An analysis of the arguments for the moral distinction between virtual murder and virtual paedophilia,” Ethics and Information Technology, 11(1): 31–36.

  • Luppicini, R. and R. Adell (eds.), 2009, Handbook of Research on Technoethics, Idea Group Inc. (IGI).

  • Magnani, L., 2007, Morality in a Technological World: Knowledge as Duty, Cambridge, Cambridge University Press.

  • Mason, R. O., 1986, Four ethical issues of the information age. MIS Quarterly, 10(1): 5–12.

  • Markoff, J., 2005, What the Dormouse Said: How the 60s Counterculture Shaped the Personal Computer Industry, New York: Penguin.

  • Manion, M. and A. Goodrum, 2007, “Terrorism or Civil Disobedience: Toward a Hacktivist Ethic,” in Himma 2007a, pp. 49–59.

  • McAfee, 2018, Economic Impact of Cybercrime: No Slowing Down, Report [available online]

  • McMahon, J. M. and R. Cohen, 2009, “Lost in cyberspace: ethical decision making in the online environment,” Ethics and Information technology, 11(1): 1–17.

  • Midgley, M., 1992, Science as Salvation: a modern myth and its meaning, London: Routledge.

  • Moor, J. H., 1985, “What is Computer Ethics?” Metaphilosophy, 16(4): 266–275.

  • –––, 2005, “Why We Need Better Ethics for Emerging Technologies,” Ethics and Information Technology, 7(3): 111–119. Reprinted in van den Hoven and Weckert 2008, pp. 26–39.

  • Moore, Gordon E. 1965. “Cramming more components onto integrated circuits”. Electronics, 38(8): 114–117. [available online]

  • Neumann, P. G., 2004, “Computer security and human values,” Computer Ethics and Professional Responsibility, Malden, MA: Blackwell

  • Nissenbaum, H., 1997. “Toward an Approach to Privacy in Public: Challenges of Information Technology,” Ethics and Behavior, 7(3): 207–219. [available online]

  • –––, 1998. “Values in the Design of Computer Systems,” Computers and Society, March: pp. 38–39. [available online]

  • –––, 1999, “The Meaning of Anonymity in an Information Age,” The Information Society, 15: 141–144.

  • –––, 2009, Privacy in Context: Technology, Policy, and the Integrity of Social Life, Stanford Law Books: Stanford University Press.

  • Northcutt, S. and C. Madden, 2004, IT Ethics Handbook: Right and Wrong for IT Professionals, Syngress.

  • O’Neil, O., 2002, “Trust is the first casualty of the cult of transparency,” The Telegraph, 24 April, available online.

  • O’Reilly, T., 2007 [2005], “What is Web 2.0: Design Patterns and Business Models for the Next Generation of Software,” Communications & Strategies, 65(1): 17–37; available online. [The earlier, 2005 version, is linked into the Other Internet Resources section below.]

  • Parrish, J., 2010, “PAPA knows best: Principles for the ethical sharing of information on social networking sites,” Ethics and Information Technology, 12(2): 187–193.

  • Pettit, P., 2009, “Trust, Reliance, and the Internet,” In van den Hoven and Weckert 2008.

  • Plaw, A. 2013, “Counting the Dead: The Proportionality of Predation in Pakistan,” In Strawser 2013.

  • Planned Parenthood, 2017, “New Study Shows Virtual Reality Can Move People’s Views on Abortion and Clinic Harassment,” [available online]

  • Plato, “Phaederus,” in Plato: The Collected Dialogues, E. Hamilton and H. Cairns (eds.), Princeton: Princeton University Press, pp. 475–525.

  • Poushter J., 2016, “Smartphone Ownership and Internet Usage Continues to Climb in Emerging Economies: But advanced economies still have higher rates of technology use,” Pew Research Center, 22 February 2018 [available online]

  • Powers, T., 2011, “Prospects for a Kantian Machine,” in Anderson and Anderson 2011.

  • Purcell, M., 2008, “Pernicious virtual communities: Identity, polarisation and the Web 2.0,” Ethics and Information Technology, 10(1): 41–56.

  • Reynolds, G., 2009, Ethics in Information Technology, (3rd ed.), Course Technology.

  • Russell, S. and P. Norvig, 2010, Artificial Intelligence: A Modern Approach, (3rd ed.), Massachusetts: Prentice Hall.

  • Schmidt, C. T. A., 2007, “Children, Robots and… the Parental Role,” 17(3): 273–286.

  • Schulzke, M., 2010, “Defending the Morality of Violent Video Games,” Ethics and Information Technology, 12(2): 127–138.

  • Searle, J., 1980, “Minds, Brains, and Programs,” Behavioral and Brain Sciences, 3: 417–57.

  • Shannon, C.E., 1948, “A Mathematical Theory of Communication”, Bell System Technical Journal, 27(July, October): 379–423, 623–656. [available online]

  • Shannon, C. E. and W. Weaver, 1949, The Mathematical Theory of Communication, University of Illinois Press.

  • Sharkey, N.E. 2011, “The automation and proliferation of military drones and the protection of civilians,” Journal of Law, Innovation and Technology, 3(2): 229–240.

  • Singer, P. W., 2009, Wired for War:The Robotics Revolution and Conflict in the 21st Century, Penguin (Non-Classics); Reprint edition.

  • Siraj-Blatchford, J., 2010, “Analysis: ‘Computers Benefit Children’,” Nursery World, October 6. [available online]

  • Soukup, C., 2007, “Mastering the Game: Gender and the Entelechial Motivational System of Video Games,” Women’s Studies in Communication, 30(2): 157–178.

  • Søraker, Johnny Hartz, 2012, “How Shall I Compare Thee? Comparing the Prudential Value of Actual Virtual Friendship,” Ethics and Information technology, 14(3): 209–219. doi:10.1007/s10676-012-9294-x [available online]

  • Spafford, E.H., 1992, “Are computer hacker break-ins ethical?” Journal of Systems and Software 17(1):41–47.

  • –––, 2007, “Are Computer Hacker Break-ins Ethical?” in Himma 2007a, pp. 49–59.

  • Spinello, R. A., 2001, Cyberethics, Sudbury, MA: Jones and Bartlett Publishers. (2nd ed., 2003; 3rd ed., 2006; 4th ed., 2010).

  • –––, 2002, Case Studies in Information Technology Ethics, Prentice Hall. (2nd ed.).

  • Sprenger P., 1999, “Sun on Privacy: ‘Get Over It’,” Wired, January 26, 1999. [available online]

  • Statista, 2018, “Number of social media users worldwide from 2010 to 2021 (in billions)”, [available online].

  • Strawser, B.J., 2013, Killing by Remorte Control: The Ethics of an Unmanned Military, Oxford: Oxford University Press.

  • Sullins, J. P., 2000, “Transcending the meat: immersive technologies and computer mediated bodies,” Journal of Experimental and Theoretical Artificial Intelligence, 12(1): 13–22.

  • –––, 2005, “Ethics and Artificial life: From Modeling to Moral Agents,” Ethics and Information technology, 7(3): 139–148. [available online]

  • –––, 2006, “When Is a Robot a Moral Agent?” International Review of Information Ethics, 6(12): 23–30. [available online]

  • –––, 2009a, “Artificial Moral Agency in Technoethics,” in Luppicini and Adell 2009.

  • –––, 2009b, “Telerobotic weapons systems and the ethical conduct of war,” APA Newsletter on Philosophy and Computers, P. Boltuc (ed.) 8(2): 21.

  • –––, 2010, “Rights and Computer Ethics,” in Floridi 2010a.

  • –––, forthcoming, “Deception and Virtue in Robotic and Cyber Warfare,” Presentation for the Workshop on The Ethics of Informational Warfare, at University of Hertfordhire, UK, July 1–2 2011

  • Symantec, 2018, Internet Security Threat Report (ISTR), Symantec Security Response, [available online]

  • Tavani, H. T., 2007, “The Conceptual and Moral Landscape of Computer Security,” in Himma 2007a, pp. 29–45.

  • –––, 2010, Ethics and Technology: Controversies, Questions, and Strategies for Ethical Computing, (3rd ed.), Wiley.

  • Tavani, H. and J. Moor, 2004, “Privacy Protection, Control of Information, and Privacy-Enhancing Technologies,” in Readings in Cyberethics, second edition, Spinello, R. and Tavani, H. (eds.), Sudsbury: Jones and Bartlett.

  • Taylor, N., J. Jensona, and S. de Castellb, 2009. “Cheerleaders/booth babes/ Halo hoes: pro-gaming, gender and jobs for the boys,” Digital Creativity, 20(4): 239–252.

  • Turing, A. M., 1948, “Machine Intelligence”, in B. Jack Copeland, The Essential Turing: The ideas that gave birth to the computer age, Oxford: Oxford University Press.

  • –––, 1950, “Computing Machinery and Intelligence”, Mind, 59(236): 433–460. doi:10.1093/mind/LIX.236.433

  • Vallor, S., 2010, “Social Networking Technology and the Virtues,” Ethics and Information Technology, 12(2, Jan. 6): 157–170.

  • –––, 2011, “Flourishing on Facebook: Virtue Friendship and New Social Media,” Ethics and Information technology, 1388–1957, pp. 1–15, Netherlands: Springer.

  • –––, 2016, Technology and the Virtues: A Philosophical Guide to a Future worth Wanting, Oxford: Oxford University Press.

  • Van den Hoven, J. and J. Weckert (eds), 2008, Information Technology and Moral Philosophy, Cambridge: Cambridge University Press.

  • Von Neumann, J., 1966, Theory of Self Reproducing Automata, edited and completed by A. Burks, Urbana-Champaign: University of Illinois Press.

  • Wallach, W., 2011. From Robots to Techno Sapiens: Ethics, Law and Public Policy in the Development of Robotics and Neurotechnologies, Law, Innovation and Technology, 3(2): 185–207.

  • Wallach, W. and C. Allen, 2010, Moral Machines: Teaching Robots Right from Wrong, Oxford: Oxford University Press.

  • Warschauer, M., 2003, Technology and Social Inclusion: Rethinking the Digital Divide, Cambridge: MIT Press.

  • Weckert, John, 2007, “Giving and Taking Offence in a Global Context,” International Journal of Technology and Human Interaction, 3(3): 25–35.

  • Westin, A., 1967, Privacy and Freedom, New York: Atheneum.

  • Wiener, N., 1950,The Human Use of Human Beings, Cambridge, MA: The Riverside Press (Houghton Mifflin Co.).

  • –––, 1961, Cybernetics: Or Control and Communication in the Animal and the Machine, 2nd revised ed., Cambridge: MIT Press. First edition, 1948.

  • Woodbury, M. C., 2010, Computer and Information Ethics, 2nd edition; 1st edition, 2003, Champaign, IL: Stipes Publishing LLC.

Academic Tools

Other Internet Resources

Aristotle, General Topics: ethics | artificial intelligence: logic-based | computing: and moral responsibility | Dewey, John: political philosophy | ethics, biomedical: theory | evil: problem of | information technology: phenomenological approaches to ethics and | life | pornography: and censorship | property: intellectual | Turing test

Copyright © 2018 by John Sullins <john.sullins@sonoma.edu>

最后更新于

Logo

道长哲学研讨会 2024