互联网研究伦理 internet research (Elizabeth A. Buchanan and Michael Zimmer)

首次发表于 2012 年 6 月 22 日星期五;实质性修订于 2021 年 1 月 12 日星期二

很少有研究不受互联网的影响。作为一个领域、工具和场所,互联网具有特定且广泛的伦理问题。互联网研究伦理是一个跨越许多学科的子学科,包括社会科学、艺术与人文学科、医学/生物医学学科和自然科学。现有的伦理框架,包括后果主义、义务论、德性伦理和女性主义伦理,对互联网研究中的伦理问题的考虑和评估做出了贡献。

从概念上和历史上看,互联网研究伦理与计算机和信息伦理最相关,包括参与者知情和同意、数据隐私、安全性、匿名性和保密性、数据完整性、知识产权问题以及社区、学科和专业标准或规范等伦理问题。在互联网的发展过程中,人们一直在争论是否出现了新的伦理困境,或者现有的困境是否与其他研究领域的困境类似(Elgesem 2002;Walther 2002;Ess & AoIR 2002;Marhkam & Buchanan 2012)。这些争论类似于计算机和信息伦理的哲学争论。例如,许多年前,詹姆斯·穆尔(James Moor)提出了“计算机有什么特别之处”的问题,以便理解在伦理上是否存在独特之处。然而,van Heerden 等人(2020)和 Sloan 等人(2020)强调,无论技术干预如何,研究本身必须受到伦理原则的指导,社会研究的基本伦理原则保持不变(Ess & AoIR 2002;King 1996;Samuel and Buchanan, 2020)。

然而,随着互联网逐渐演变成为更具社交和交流功能的工具和场所,伦理问题已经从纯粹的数据驱动转变为更加以人为中心。然而,“现实世界”或面对面的类比可能不适用于在线研究。例如,公园的概念被用作研究人员可以在其中观察他人而几乎没有伦理争议的场所,但在线上,公共与私人的概念要复杂得多(SACHRP 2013)。因此,一些学者认为,互联网研究伦理的特殊性需要新的监管和/或专业和学科指导。出于这些原因,人体研究政策和规定的概念在这篇文章中起到了指导作用,将继续讨论伦理和方法论的复杂性,包括个人可识别性、声誉风险和伤害、公共空间和公共文本的概念、数据的所有权和持久性,以及与互联网研究相关的各种期望和隐私形式的保护。具体而言,社交网络的出现引发了一系列问题,涉及受试者或参与者招募实践、分层知情同意模型以及在不断扩散和普及的技术世界中保护各种隐私期望和形式的问题。其他伦理关注点集中在匿名性和数据保密性的问题上,在这些场所中,研究人员及其受试者可能无法完全理解这些场所或工具的条款和条件,数据完整性的挑战,因为研究项目可以外包或众包到在线劳动力市场,以及司法管辖权的问题,因为越来越多的研究通过云计算或远程服务器地点进行处理、存储和传播,鉴于数据法律的司法管辖权差异,这带来了众多的法律复杂性。此外,大数据研究的主导地位在各个研究领域持续存在,"真实世界数据" 和普适计算的概念被广泛接受和应用于所有学科。 众多方式中使用大数据集的便利性和可用性使得人工智能(AI)和机器学习(ML)成为研究人员的标准工具。

因此,将互联网作为研究工具和/或研究空间的研究人员以及他们的研究伦理委员会(REBs,也称为美国的机构审查委员会(IRBs)或其他国家(如澳大利亚)的人类研究伦理委员会(HRECs))面临一系列新的伦理问题:研究人员对于保护在“公共”互联网空间中从事活动的受试者的隐私有哪些伦理义务?这样的公共空间是什么?在普遍和无处不在的监视和数据追踪时代,是否存在合理的隐私期望?在线上如何确保机密性或匿名性?在线上如何获得和应该获得知情同意?如何进行未成年人的研究,以及如何证明受试者不是未成年人?欺骗(假扮成别人,隐瞒可识别信息等)是否是可以接受的在线规范或伤害?在在线空间中,对于存在的人来说,“伤害”是如何可能的?在大数据集中个人的可识别性有多高?人类受试者保护是否适用于大数据?随着越来越多的行业赞助研究的进行,当前监管结构之外还存在哪些伦理保护措施?随着诸如欧盟的《通用数据保护条例》(GDPR 2016)的法律的颁布,对于数据隐私和个人权利的全球影响是什么?

越来越多的学者探索了这些相关问题(例如,Bromseth 2002; Bruckman 2006; Buchanan 2004; Buchanan & Ess 2008; Johns, Chen & Hall 2003; Kitchin 2003, 2008; King 1996; Mann 2003; Markham & Baym 2008; McKee & Porter 2009; Thorseth 2003; Ess 2016; Zimmer & Kinder-Kurlanda (eds.) 2017; Samuel & Buchanan, 2020),学术协会起草了互联网研究的伦理指南(Ess & Association of Internet Researchers 2002; Markham, Buchanan, and AoIR 2012; franzke et al., 2020; Kraut et al. 2004),非营利学术和科学机构如 AAAS(Frankel & Siang 1999)正面临互联网研究对研究人员和研究伦理委员会(REBs)提出的众多伦理问题。

鉴于全球超过 50%的人口使用互联网,全球 97%的人口现在可以接收到移动蜂窝信号,93%的人口可以接收到 3G(或更高)网络(国际电信联盟,2019 年),对于在这个高度媒介化环境中进行研究的伦理问题的持续探索至关重要。


1. 定义

伦理研究伦理(IRE)的普遍接受的定义已被 Buchanan 和 Ess(2008 年,2009 年),Buchanan(2011 年)和 Ess&Association of Internet Researchers(AoIR)(2002 年)使用:

IRE 被定义为分析伦理问题并应用研究伦理原则,因为它们与在互联网上进行的研究相关。广义上定义的基于互联网的研究是利用互联网通过在线工具(如在线调查)收集信息的研究;关于人们如何使用互联网的研究,例如通过收集数据和/或研究任何在线环境中的活动;以及/或使用在线数据集,数据库或存储库。

这些示例在 2013 年由美国卫生研究保护办公室秘书咨询委员会(SACHRP 2013)扩大,并包括在互联网研究的总称下:

  • 研究已经在互联网上或通过互联网获得的信息,而无需与人类对象进行直接互动(收集、挖掘、分析、抓取、观察或记录已存在的数据集、聊天室互动、博客、社交媒体帖子等)

  • 使用互联网作为招募或与对象直接或间接互动的工具的研究(自测网站、调查工具、亚马逊机械土耳其等)

  • 关于互联网本身及其影响的研究(社交媒体、搜索引擎、电子邮件等的使用模式或影响;隐私问题的演变;信息传播等)

  • 研究互联网用户:他们做什么,以及互联网如何影响个人和他们的行为。利用互联网作为干预工具的研究,例如影响受试者行为的干预。

  • 其他(新兴和跨平台的研究和方法,包括移动研究(手机))。

  • 通过互联网地点或工具进行招募,例如社交媒体、推送技术

在定义互联网研究伦理的过程中,一个关键的区别是将互联网作为研究工具与研究场所之间的区别。工具和场所之间的区别在学科和方法论取向上有所体现。作为一个工具,互联网研究依赖于搜索引擎、数据聚合器、数字档案、应用程序编程接口(API)、在线调查平台和众包平台。基于互联网的研究场所包括对话应用程序(即时通讯和讨论论坛等)、在线多人游戏、博客和互动网站以及社交网络平台等空间。

另一种概念化工具和场所之间区别的方式来自 Kitchin(2008),他提到了互联网研究中“参与式网络研究”与“非侵入式网络研究”的概念:

非侵入式分析是指不干扰站点或网络社区的自然状态,也不干扰预先制作的文本的数据收集技术。相反,参与式分析涉及到站点或社区,并与网络资源的参与者进行互动(2008 年:15)。

这两个构造为研究人员提供了一种识别何时需要考虑人类受试者保护的方式。麦基和波特(2009 年)以及班克斯和埃布尔(2007 年)对人类受试者研究的连续性提供了指导,指出了基于人的与基于文本的区别。例如,麦基和波特提供了一系列研究变量(公共/私人、话题敏感性、互动程度和受试者脆弱性),这些变量有助于确定研究在基于文本与基于人的连续性上处于何种位置,以及受试者是否需要同意参与研究(2009 年:87-88)。

尽管在确定人类受试者参与方面在概念上很有用,但在社交媒体及其第三方应用程序面前,工具与场所或参与与非侵入性的基于网络的研究之间的区别越来越模糊。布坎南(2016 年)构想了互联网研究的三个阶段或阶段,社交媒体的出现标志着第二阶段,大约在 2006 年至 2014 年之间。社交媒体的概念包括

一组基于互联网的应用程序,建立在 Web 2.0 的意识形态和技术基础上,允许用户生成内容的创建和交流(Kaplan&Haenlein 2010 年:61)。

"社交网络网站" 是一类具有个人资料、半持久性公开评论以及与个人资料相关的可遍历的公开社交网络的网站类别。

工具和场所的崩溃主要可以追溯到第三方网站和应用程序的增加使用,例如 Facebook、Twitter 或任何其他各种在线研究工具,其中主题或参与者招募、数据收集、数据分析和数据传播都可以在同一空间中进行。随着这些边界的崩溃,"跨辖区协调" 的条件(Gilbert 2009: 3)本质上具有挑战性;Gilbert 特别反对虚拟世界中的使用条款或最终用户许可协议规定,指出这些协议通常是 "有缺陷" 的,因为它们依赖于特定地区的法律法规,并试图在非基于地点的环境中强制执行它们。尽管如此,研究人员现在经常使用数据聚合工具,从用户资料或交易日志中抓取数据,从 Twitter 流中收集数据,或者仅在同意与这些网站相关的服务条款后将数据存储在云服务器(如 Dropbox)上。使用这些第三方应用程序或工具改变了研究的基本方面,往往使研究人员或研究团队不再是其数据的唯一所有者。这些独特的特征涉及隐私、同意、所有权和辖区边界的概念和实际问题。

一个典型的关键时刻,引起了许多这些关注的问题,是在 2014 年 Facebook 的情绪传染研究中出现的(Booth,2014)。通过同意 Facebook 的服务条款,用户是否同意参与研究活动?实验后是否应该进行解释说明?大学研究伦理委员会对这项研究进行了多么彻底的审查?行业赞助的研究是否需要进行内部伦理审查?作为对传染研究的抗议,Ok Cupid 的 Christian Rudder(2014 [ OIR])为这类实验进行了辩护,指出

我们最近注意到,人们不喜欢 Facebook 对他们的新闻订阅进行“实验”。甚至 FTC 也参与其中。但是,大家猜猜怎么样:如果你使用互联网,你就是每个网站上每时每刻都在进行数百次实验的对象。这就是网站的工作方式。

社交网络现象迫使研究人员与数据来源之间进行持续的协商,正如 Facebook 传染研究及其随后的反应所示。此外,随着移动设备的日益普及和集中使用,互联网研究的概念正在扩大,从“基于地点”的互联网转向分散的现实。移动设备的数据收集呈指数增长。例如,移动设备可以实现同步数据收集和传播,而不受地点限制。使用云应用的研究人员可以与参与者同步发送和接收数据。这种研究可能性对流行病学研究的科学潜力具有巨大影响,同时也对伦理挑战提出了要求,正如我们在基于移动设备的 COVID-19 研究(Drew 等,2020)和实时采样受试者当前行为和经历(Hubach 等,即将发表)中所看到的那样。随着互联网研究从一种小众方法学发展为一种几乎无处不在且常常隐形的实践,传统的人类受试者研究概念需要仔细考虑。

2. 人类受试者研究

人类受试者保护的实际、专业和理论意义在学术文献中得到了广泛讨论,涵盖了医学/生物医学、社会科学、计算和技术学科(参见 Beauchamp&Childress 2008;Emanual 等,2003;PRIM&R 等,2021;Sieber 1992;Wright 2006)。在研究伦理违规行为面前,相关的保护和规定仍然受到广泛关注(例如,Skloot 2010 关于 Henrietta Lacks;美国政府就 1940 年代在危地马拉进行的性病测试向危地马拉政府承认并道歉(BBC 2011);以及 Gaw&Burns 2011 关于过去的经验如何指导当前的研究伦理和行为)。

人类受试者保护的历史(Sparks 2002 [见其他互联网资源,即 OIR])起源于二战期间纳粹人体实验等暴行,导致了纽伦堡宪章(1947 年)的出台;随后是涉及人类受试者的医学研究伦理原则宣言(世界医学协会 1964/2008)。部分原因是为了回应图斯基吉梅实验,这是一项由美国公共卫生局在 1932 年至 1972 年间进行的臭名昭著的临床研究,研究对象是阿拉巴马州农村非裔美国男性未经治疗梅毒的自然进展,以获得政府提供的免费医疗保健,美国卫生与人类服务部提出了一套基本规定,以保护人类受试者(45 C.F.R. § 46)(请参阅其他互联网资源部分的链接,法律和政府文件)。随后,由国家生物医学和行为研究人类受试者保护委员会发布了《人类研究受试者保护的伦理原则和指南》,即贝尔蒙特报告(NCPHSBBR 1979)。贝尔蒙特报告确定了所有人类受试者研究的三个基本伦理原则:尊重人的原则、善行原则和公正原则。

为了确保美国联邦机构在人体试验保护方面的一致性,1991 年,制定了《人体试验保护联邦政策》,也被称为“共同规则”;修订后的共同规则于 2017 年 1 月 19 日在《联邦公报》上发布,并于 2018 年 7 月 19 日生效。世界各地也存在类似的人体试验保护的监管框架,例如加拿大三议会、澳大利亚研究委员会、欧洲委员会、挪威研究委员会及其社会科学和人文学科国家研究伦理委员会(NESH 2006;NESH 2019),以及英国的 NHS 国家研究伦理服务和 ESRC(经济和社会研究委员会)的研究伦理框架(REF)的总体指南,以及亚洲和西太平洋地区的伦理审查委员会论坛(FERCAP)。

在美国,签署了共同规则(45 C.F.R. 46 Subpart A)的各个监管机构尚未就互联网研究发布正式指导(请参阅“其他互联网资源”部分中的链接,有关法律和政府文件)。修订规则的序言提到了研究环境的重大变化,认识到需要扩大规则的范围。然而,在最广泛的互联网研究背景下,实际规则的重大变化是有限的。

例如,序言中提到:

这项最终规则认识到在过去的二十年中,研究的进行方式发生了范式转变。不断发展的技术,包括成像技术、移动技术和计算能力的增长,已经改变了许多学科中收集信息的规模和性质。计算机科学家、工程师和社会科学家正在开发技术,以整合不同类型的数据,使其能够被组合、挖掘、分析和共享。先进的计算机软件程序、互联网和移动技术的出现,特别是在社会和行为科学领域,创造了新的研究活动领域(Federal Register 2017 和 HHS 2017)。

对人体研究对象定义的微小变化包括将“数据”改为“信息”和“生物样本”;现在的定义如下:

(e)

  • (1) 人体研究对象是指一个调查者(无论是专业人员还是学生)在进行研究时,通过干预或与个体互动获得信息或生物样本,并使用、研究或分析该信息或生物样本;

    • (i) 或者通过获取、使用、研究、分析或生成可识别的私人信息或可识别的生物样本;

    • (ii) 或者通过获取、使用、研究、分析或生成可识别的私人信息或可识别的生物样本。

  • (2) 干预包括通过收集信息或生物样本的物理程序(例如静脉穿刺)以及为研究目的对受试者或受试者环境进行的操作。

  • (3) 互动包括调查员与受试者之间的沟通或人际接触。

  • (4) 私人信息包括在个人可以合理地期望没有观察或记录正在进行的情况下发生的行为信息,以及个人为特定目的提供的并且个人可以合理地期望不会公开的信息(例如医疗记录)。

  • (5) 可识别的私人信息是指调查员可以或可能很容易确定受试者身份或将其与信息相关联的私人信息。

  • (6) 可识别的生物样本是指调查员可以或可能很容易确定受试者身份或将其与生物样本相关联的生物样本(45 C.F.R. § 46.102 (2018))。

然而,修订规则在互联网研究方面有一项重要规定;该规则要求实施部门或机构,

[(e)(7)]

  • (i) 在与适当的专家(包括数据匹配和重新识别专家)协商后,重新审查“可识别的个人信息”(如本节第(e)(5)段所定义)和“可识别的生物样本”(如本节第(e)(6)段所定义)的含义。此重新审查将在 1 年内进行,并定期进行(至少每 4 年一次)。此过程将由实施该政策的联邦部门和机构之间的合作进行。如果适用且符合法律规定,这些联邦部门和机构可以通过使用指导文件来改变对这些术语的解释。

  • (ii) 在与适当的专家协商后,评估是否存在应由调查人员考虑的分析技术或技巧,以生成“可识别的个人信息”(如本节第(e)(5)段所定义)或“可识别的生物样本”(如本节第(e)(6)段所定义)。此评估将在 1 年内进行,并定期进行(至少每 4 年一次)。此过程将由实施该政策的联邦部门和机构之间的合作进行。任何此类技术或技巧将被列入生成可识别的个人信息或可识别的生物样本的技术或技巧清单。此清单将在公告和公众评论机会后在《联邦公报》上公布。HHS 部长将在公开可访问的网站上维护该清单(45 C.F.R. § 46.102(2018 年))。

截至目前为止,尚未对“可识别的个人信息”或“可识别的生物样本”的概念进行重新审查。然而,随着数据分析、人工智能和机器学习在人类主体研究中继续暴露出伦理问题,我们预计将在联邦层面和研究社区中看到积极的讨论(PRIM&R 2021)。这些讨论可能会涉及 Carpenter 和 Dittrich(2012)以及 Aycock 等人(2012)之前的概念性工作,这些工作关注风险和可识别性。例如,可识别的私人数据的二次使用可能会造成下游伤害或无意风险,导致声誉或信息上的伤害。重新审查“可识别的个人信息”必须在认真考虑风险和“对人类造成伤害的研究”之前进行。Carpenter 和 Dittrich(2012)鼓励

“审查委员会应该从以知情同意为驱动的审查转变为以风险分析为基础的审查,以解决研究中可能产生的伤害问题,其中研究人员与处于风险中的个体没有直接互动”(第 4 页),因为“研究人员与受影响个体之间的距离表明,在研究领域需要进行范式转变。我们必须将我们对研究保护的理念从‘人类主体研究’转变为‘对人类造成伤害的研究’”(第 14 页)[1]。

同样,Aycock 等人(2012)断言

研究人员和委员会必须在呈现与特定研究相关的风险与使用的技术相关的风险之间取得平衡。在计算机安全研究中,涉及风险的重大问题尤为突出,尤其是对整个社会而言。对于个体来说,风险可能并不明显,但在安全研究的范围内,更多的人口可能会受到威胁。在传统的研究伦理学意义上,量化风险和利益存在显著困难...由机器人收集的冲浪行为的聚合比在虚拟世界中的角色扮演者之间进行的访谈更加疏远研究人员和被调查者之间的距离。这种距离使我们建议计算机安全研究更少关注传统意义上的人类主体研究,更多关注对人类造成伤害的研究(第 3 页,原文斜体)。

这两个概念性概念与考虑新兴身份形式或个人可识别信息(PII)(如角色扮演者、虚拟存在、机器人、文本和图形信息)相关。根据《联邦法规》(45 C.F.R. § 46.102(f) 2009):如果研究人员获取有关活着的个人的 PII,则将考虑新形式的表征为人类主体。研究人员可以通过抓取数据源、个人资料或角色扮演者或平台提供的其他数据来获取 PII。Fairfield 也同意:“例如,角色扮演者不仅仅代表一组像素,它代表用户的身份”(2012: 701)。

已经长期从事人类主体研究的多个学科(医学、社会学、人类学、心理学、传播学)已经建立了伦理准则,旨在帮助研究人员和负责确保人类主体研究遵循法律要求和伦理实践的人员。但是,在涉及互联网的研究中,个人越来越多地在具有渗透性和不断变化的平台上共享个人信息,数据从不同来源的传播和聚合已成为常态,网络服务及其隐私政策和服务条款也在迅速变化和演变,传统上研究人员和伦理审查委员会使用的伦理框架和假设经常受到挑战。

伦理研究委员会自身面临着基于互联网的研究协议所具有的独特伦理维度的挑战。在 2008 年对美国伦理审查委员会的调查中,不到一半的伦理审查委员会认为基于互联网的研究是当时的“关注或重要领域”,只有 6%的委员会制定了针对基于互联网的研究协议的指南或检查清单(Buchanan&Ess 2009)。到 2015 年,93%的伦理审查委员会承认使用“在线数据”进行研究存在独特的伦理问题,但只有 55%的委员会表示他们对在线数据收集的技术方面非常熟悉,只有 57%的委员会同意他们的委员会具备跟上在线技术变化的专业知识。伦理审查委员会现在面临着大数据研究的进一步挑战(见下文的 §4.5),这种研究越来越依赖于通过社交媒体、数字设备或其他方式生成的大量个人信息数据集,这些数据通常对用户隐藏。一项 2019 年对伦理审查委员会的研究显示,只有 25%的委员会准备好评估依赖大数据的协议,只有 6%的委员会拥有足够的工具来考虑这个新兴的互联网研究领域(Zimmer&Chapman 2020)。此外,在被提出各种使用大数据的假设性研究场景并被问及他们的伦理审查委员会可能如何审查此类协议后,许多观点在许多情况下存在明显差异。请考虑以下情景:

研究人员计划从在线报纸页面上抓取公共评论以预测选举结果。他们将汇总分析结果以确定公众情绪。研究人员不打算通知评论者,并计划收集可能可识别的用户名。抓取评论违反了报纸的服务条款。

18% 的受访者表示他们的伦理委员会将视此为豁免,21% 表示加速审查,33% 表示需要全体委员会审查,而 28% 认为这甚至不是属于他们伦理委员会职权范围内的人类研究(Zimmer & Chapman 2020)。这表明了伦理委员会在审查大数据研究方案的伦理影响时存在潜在的差距和不一致性。

3. 作为一门学科的伦理研究的历史和发展

自 1990 年代以来,围绕互联网用于研究的大量文献已经涌现出来(S. Jones 1999; Hunsinger, Klastrup, & Allen (eds.) 2010; Consalvo & Ess (eds.) 2011; Zimmer & Kinder-Kurlanda (eds.) 2017),并越来越强调互联网研究的伦理维度。

一系列的互联网研究以及对其中伦理问题的明确关注始于 1990 年代中期。1996 年,斯托姆·金(Storm King)意识到互联网作为研究场所的日益增长的使用。他的工作探讨了美国心理学协会关于新兴形式的电子邮件、聊天、列表和虚拟社区的人类研究指南。金对互联网受试者的风险和利益给予了谨慎的关注,并发出了警告:

当一个研究领域是新的时候,其中涉及的伦理考虑的细节是未定义的。随着该领域的发展和结果的编制,研究人员经常回顾早期的研究,并因为对涉及的人类受试者的明显漠视而感到担忧(1996 年:119)。

1996 年《信息社会》杂志专门致力于互联网研究,被认为是一个重要的时刻,并包括许多至今仍具有影响力和相关性的开创性研究(Allen 1996; Boehlefeld 1996; Reid 1996)。

1997 年,谢丽·特克尔(Sherry Turkle)的《屏幕上的生活:互联网时代的身份》(Life on the Screen: Identity in the Age of the Internet)直接关注了在线游戏环境中的人类因素。特克尔将研究重点从以文本为基础转向以人为基础,推动研究人员考虑互联网研究的人类主体影响。同样,马克汉姆(Markham)在 1998 年的《在线生活:虚拟空间中的真实体验研究》(Life Online: Researching Real Experience in Virtual Space)中强调了在线民族志研究的方法论复杂性,雅各布森(Jacobson)在 1999 年的互联网研究方法论处理中也提到了这一点。研究的“领域”改变了研究者与被研究者的角色、身份和参与者在虚拟空间中的表现。马克汉姆在定性在线研究方面的工作对各学科产生了影响,护理学、心理学和医学的研究发现了这一范式在在线研究中的潜力(Flicker 等,2004 年;Eysenbach 和 Till,2001 年;Seaboldt 和 Kupier,1997 年;Sharf,1997 年)。

然后,在 1999 年,美国科学促进会(AAAS)在美国研究风险保护办公室(现称为人类研究保护办公室)的合同下召开了一次研讨会,旨在评估传统研究伦理概念与互联网研究的一致性。该研讨会承认了互联网上潜在可用的大量社会和行为信息,使其成为希望研究人类互动动态及其在这个虚拟媒介中的后果的研究人员的主要目标。研究人员可以以相对较低的成本和较短的时间从广泛分散的人群中收集数据,而类似的努力在现实世界中需要更多的时间。因此,互联网研究的数量增加了,从调查到自然观察都有(Frankel 和 Siang,1999 年:1)。

伦理学对互联网研究的保护的重要性已经得到了广泛的认可。互联网上潜在可用的大量社会和行为信息使其成为希望研究人类互动动态及其在这个虚拟媒介中的后果的研究人员的主要目标。研究人员可以以相对较低的成本和较短的时间从广泛分散的人群中收集数据,而类似的努力在现实世界中需要更多的时间。因此,互联网研究的数量增加了,从调查到自然观察都有(Frankel 和 Siang,1999 年:1)。

在医学/生物医学领域,互联网研究迅速发展。1999 年,冈瑟·艾森巴赫(Gunther Eysenbach)撰写了新成立的《医学互联网研究杂志》的第一篇社论。这本杂志成立的背后有三个推动力,艾森巴赫指出了互联网日益增长的社交和人际交往方面的重要性:

首先,互联网协议被用于临床信息和沟通。未来,互联网技术将成为许多远程医疗应用的平台。其次,互联网改变了医学非临床信息的收集、获取和传播方式:通过图形用户界面,现在可以全球范围内访问文献和事实数据库,可以使用互联网收集流行病学和公共卫生信息,互联网越来越多地用于互动医学教育应用。第三,互联网在消费者健康教育、健康促进和远程预防中发挥重要作用。(顺便提一下,应强调“互联网上的健康教育”超越了传统的健康教育模式,即医务人员教导患者的模式:在互联网上,很多“健康教育”是通过患者自我支持团体在虚拟空间中组织的“消费者对消费者”方式进行的。这种患者之间的交流已成为医疗保健的重要组成部分,并重新定义了传统的预防医学和健康促进模式)。

随着学术关注的增长和 1999 年 AAAS 报告(Frankel&Siang 1999)的呼吁行动,其他专业协会开始注意并开始起草声明或指南,或对其现有专业标准进行补充。例如,美国心理学协会的科学事务委员会(BSA)于 2001 年成立了一个关于在互联网上进行研究的咨询小组;美国咨询协会在 2005 年对其道德准则进行了修订;互联网研究协会(AoIR)伦理工作组指南;挪威社会科学和人文科学研究伦理委员会(NESH Norway)等等,已经引导研究人员和审查委员会关注互联网研究的伦理问题,特别关注最常见的伦理关切领域(有关链接请参见 OIR)。

尽管许多研究人员关注传统的研究伦理原则,但对互联网研究伦理的概念化取决于学科的观点。一些学科,尤其是艺术和人文学科,认为互联网研究更多关注的是背景和表达,而不是“人类对象”,这表明在进行有关实际人物的研究时没有意图,因此也没有或只有最小的伤害。这场辩论自 2000 年代初以来一直在持续。White(2002)反对现有的法规,这些法规偏袒或优先考虑特定的意识形态、学科和文化特权,限制了艺术和人文学科研究的自由和创造力。例如,她指出 AAAS 报告“混淆了物理个体与构建材料,将人类对象与复合文化作品混为一谈”,再次引起了人与文本之间的分歧,这一分歧已经渗透到互联网研究伦理的辩论中。另一个学科差异的例子来自口述历史协会,该协会承认互联网作为研究场所的不断增长:

简单来说,口述历史通过记录的采访收集具有历史意义的记忆和个人评论。口述历史采访通常由一位准备充分的采访者对被采访者进行提问,并以音频或视频格式记录他们的交流。采访的录音会被转录、总结或编目,然后放置在图书馆或档案馆中。这些采访可以用于研究,或者在出版物、广播或视频纪录片、博物馆展览、戏剧化或其他形式的公开展示中摘录。录音、转录、目录、照片和相关文献资料也可以发布在互联网上(Ritchie 2003: 19)。

尽管美国历史协会(A. Jones 2008)主张这类研究应“明确豁免”伦理审查委员会的监管,但如果这些数据在公共场所或“下游”可用,并且可能对声誉、经济地位或心理造成无法预见的风险,那么使用互联网可能会使这种立场变得复杂。

在以文本而非人类对象的概念下,互联网研究依赖于出版和版权的论据;考虑博客这样的场所,它不符合 45 C.F.R. § 46.102f(2009)中对人类对象的定义,这一点被大多数伦理审查委员会所解释。研究人员无需获得使用博客文本的同意,因为它通常被认为是公开可用的、文本化的、已发表的材料。这种“公园”类比的论证已经被研究人员普遍接受,适用于一些互联网场所和工具,但并非所有场所和工具都适用:2004 年,Sveninngsson 确定了互联网研究伦理考虑中的上下文、意图、数据的敏感性和互联网参与者的期望等关键标志。

到了 21 世纪中期,随着三部重要的选集出版以及日益增长的文献基础,有大量学术文献记录了跨学科和方法论的伦理研究,随之而来的是从审查委员会评估此类研究中出现的个别数据。为了寻找关于互联网研究的实际审查委员会流程的经验数据,从人类受试者的角度出发,布坎南和艾斯对 700 多个美国伦理审查委员会进行了调查,发现委员会主要关注隐私、数据安全和保密性,以及确保适当的知情同意和招募程序(布坎南和艾斯,2009 年;布坎南和赫维达克,2009 年)。

2008 年,加拿大三大委员会的社会科学和人文研究伦理特别工作委员会:研究伦理咨询机构的工作委员会成立(布莱克斯通等,2008 年);2010 年,卫生研究保护办公室秘书咨询委员会的一次会议突出了互联网研究(SACHRP,2010 年)。公共责任医学和研究(PRIM&R)和美国教育研究协会(AERA)等知名专业组织已经开始定期在他们的会议和相关出版物中介绍互联网研究伦理。

最近,传统上不涉及人类主体研究的学科开始进行自己的 IRE 探索。例如,计算机安全领域的研究人员积极研究 CS 和 ICT 中的研究伦理原则(Aycock 等,2012 年; Dittrich,Bailey 和 Dietrich,2011 年; Carpenter 和 Dittrich,2012 年; Buchanan 等,2011 年)。值得注意的是,美国联邦注册要求在 2011 年 12 月对《门洛报告》进行评论,该报告呼吁计算机科学研究人员致力于尊重人的三个原则:尊重人、善行和公正,同时增加了关于尊重法律和公共利益的第四个原则(国土安全局,2011 年)。SIGCHI 是一个国际性的专业学会,致力于人与技术以及人机交互(HCI)的专业人士、学者和学生,他们越来越关注 IRE 如何适用于他们领域的工作(Frauenberger 等,2017 年; Fiesler 等,2018 年)。

4. 互联网研究中的关键伦理问题

4.1 隐私

伦理研究原则规定研究人员必须确保有足够的措施来保护受试者的隐私并保持任何收集到的数据的机密性。侵犯隐私或泄露机密可能给参与者带来严重的伤害风险,包括个人或敏感信息的曝光、尴尬或非法行为的泄露,或者违反法律保护的数据的发布。

研究伦理关注个人隐私的问题通常表现为数据与个人的关联程度以及信息披露可能带来的潜在危害。随着互联网研究的复杂性和计算能力的提高,伦理关注点已经转向数据的当前和未来用途,以及可能发生的下游危害。保护研究参与者的隐私和机密通常通过一系列研究策略和实践来实现,包括在受控或匿名环境下进行数据收集,清除数据中的个人身份信息(PII),或使用访问限制和相关的数据安全方法。此外,数据的具体性和特征通常会决定是否存在监管考虑,除了隐私和机密性方面的方法论考虑。例如,个人身份信息(PII)通常需要最严格的保护。例如,美国国立卫生研究院(NIH)将 PII 定义为:

由机构维护的有关个人的任何信息,包括但不限于教育、财务交易、医疗历史、犯罪或就业历史以及可用于区分或追踪个人身份的信息,如姓名、社会安全号码、出生日期和地点、母亲的婚前姓氏、生物识别记录等,包括与个人相关或可关联的任何其他个人信息(NIH 2010)。

通常,识别个人信息的示例包括个人特征(如出生日期、出生地点、母亲的婚前姓氏、性别、性取向和其他特征以及生物识别信息,如身高、体重、外貌、指纹、DNA 和视网膜扫描)、分配给个人的唯一编号或标识符(如姓名、地址、电话号码、社会安全号码、驾驶执照号码、金融账号号码)以及物理位置的描述(GIS/GPS 日志数据、电子手环监测信息)。

2018 年欧盟《通用数据保护条例》规定了欧盟范围内数据使用的法律和监管要求。Mondschein 和 Monda(2018)对 GDPR 中考虑的不同类型的数据进行了详细讨论:个人数据,如姓名、身份证号码、位置数据等;特殊类别的个人数据,如种族或民族起源、政治观点或宗教信仰;伪匿名数据,指已经更改以使主体无法直接识别而需要进一步信息的数据;匿名数据,即与可识别的自然人或已经以使数据主体不再可识别的个人数据无关的信息。他们还建议研究人员考虑

在使用个人数据的大规模研究项目中,早期阶段的数据保护问题非常重要(2018 年:56)。

互联网研究给旨在保护个体隐私的长期定义和监管框架带来了新的复杂性。例如,研究人员越来越能够从 Facebook、Twitter、博客或公共电子邮件档案等来源收集有关个人的详细数据,这些丰富的数据集可以更容易地进行处理、比较和与其他在线可用的数据(和数据集)相结合。在许多情况下,研究人员和普通公众都能够通过分析和比较这些数据集来重新识别个体,使用的数据字段可能只是邮政编码(Sweeny 2002)、随机网络搜索查询(Barbaro&Zeller 2006)或电影评分(Narayanan&Shmatikov 2008)等看似无害的信息作为重新识别假定匿名用户的关键。在广泛基于互联网的数据收集和处理之前,很少有人会将电影评分或邮政编码视为可以识别个人身份的信息。然而,这些案例揭示了仅仅剥离传统的“可识别”信息,如主体的姓名、地址或社会安全号码,已不再足以确保数据保持匿名(Ohm 2010),并需要重新考虑什么被认为是“个人可识别信息”(Schwartz&Solove 2011)。这指出了保持数据机密与真正匿名数据之间的关键区别。随着研究人员经常证明他们可以轻松地重新识别“匿名化”数据集中隐藏的个体(Ohm 2010),数据很少完全匿名。这一现实对确保数据至少通过物理和计算安全措施得到适当保密施加了新的压力。这些措施还可能包括要求在“无污染室”或非网络环境中存储数据,以控制数据传输。

同样,互联网研究中经常收集的新类型数据也可能被用于在先前假定的匿名数据集中识别主体。例如,互联网研究人员在进行在线调查或分析交易日志时可能会收集到 Internet 协议(IP)地址。IP 地址是分配给连接到互联网的每个设备的唯一标识符;在大多数情况下,个人计算机被分配一个唯一的 IP 地址,而在某些情况下,该地址被分配给一组计算机的较大节点或互联网网关。几乎所有的网站和互联网服务提供商都会存储将活动与 IP 地址关联起来的活动日志,在许多情况下,最终与特定的计算机或用户相关联。目前,美国法律不认为 IP 地址是可以识别个人的信息,而其他国家和监管机构则认为是可以识别个人的信息。例如,欧洲数据隐私法第 29 条规定,IP 地址构成个人身份信息。然而,Buchanan 等人(2011)指出,在美国民权法案下,根据 HIPAA 法案的目的,IP 地址被视为一种个人身份信息(45 C.F.R. § 164.514 2002)。其他联邦监管机构对 IP 地址作为个人身份信息的认定可能会重新考虑,研究人员和委员会在发生这种变化时需要保持警惕。

在考虑互联网研究背景下的“私人信息”含义时,也出现了类似的复杂情况。美国联邦法规将“私人信息”定义为:

[A] 在个人可以合理预期没有观察或记录正在进行的情况下发生的行为信息,以及个人提供的并且个人可以合理预期不会公开的特定目的的信息(例如,医疗记录)(45 C.F.R. § 46.102(f) 2009)。

“私人信息”的标准定义包含两个关键要素。首先,私人信息是指主体合理地期望不会被常规监控或收集的信息。其次,私人信息是指主体合理地期望不会通常公开的信息。相反,该定义也暗示了相反的情况:如果用户不能合理地期望数据不被观察或记录,或者他们不能期望数据不公开,那么这些数据就不符合需要特定隐私保护的“私人信息”的标准。研究人员和伦理审查委员会通常使用这个“私人信息”的定义来确保个人隐私的保护。

然而,当考虑到与基于互联网的研究常见的数据环境和收集实践时,这些区别变得更加重要。对于有兴趣收集或分析受试者的在线行为的研究人员,他们可能会通过挖掘在线服务器日志、使用跟踪 cookie 或抓取社交媒体个人资料和动态来主张受试者没有合理的期望,即这些在线活动不会被例行监测,因为几乎所有在线交易和互动都会被网站和服务提供商例行记录。因此,在线数据轨迹可能不会达到“私人信息”的程度。然而,许多研究表明,普通互联网用户对于他们的活动如何被例行跟踪以及他们访问的网站的相关隐私实践和政策有不完全的了解(Hoofnagle & King 2008 [OIR];Milne & Culnan 2004;Tsai et al. 2006)。Hudson 和 Bruckman(2005)对用户对隐私的期望和理解进行了实证研究,发现参与者对于公共聊天室内的隐私期望与实际上是一个非常公开的在线空间相冲突。Rosenberg(2010)在虚拟世界领域研究了公共/私人区分,指出研究人员必须确定在线空间中主导的社会规范和关系类型,然后再对所分享信息的“公开性”做出假设。因此,目前尚不清楚互联网用户是否真正了解他们的在线活动是否经常被监测和跟踪,以及真正存在哪种合理的期望。这种不确定性为研究人员和伦理审查委员会在试图将“私人信息”的定义应用于确保受试者隐私得到妥善处理时带来了新的挑战(Zimmer 2010)。

在互联网研究中处理主体隐私的复杂性进一步加剧了社交网络的兴起,成为信息共享和研究的场所。用户在 Facebook 或 Twitter 等平台上越来越多地分享个人信息。对于研究人员来说,社交媒体平台提供了丰富的研究资源,大部分内容可以轻松查看和下载。由于社交媒体网站上发布的大部分信息是公开可见的,因此未能满足“私人信息”的标准监管定义。因此,试图收集和分析社交媒体帖子的研究人员可能不会将数据视为需要特别考虑隐私的数据。然而,社交媒体平台代表了一个复杂的社交互动环境,在这个环境中,用户通常需要将朋友、恋人、同事和稍微熟悉的人放在同一个“朋友”类别中,而隐私政策和服务条款并没有被完全理解(Madejski 等,2011 年),技术基础设施也未能真正支持隐私保护(Bonneau&Preibush,2010 年)并且经常在没有提前通知的情况下进行更改(Stone,2009 年 [ OIR];Zimmer,2009 年 [ OIR])。因此,很难确定用户在将项目发布到社交媒体平台时的意图(Acquisti&Gross,2006 年)。用户可能打算将帖子发布给一个私人群组,但未能完全理解如何相应地调整隐私设置。或者,信息可能之前仅限于某些朋友,但技术平台的变化突然使数据对所有人更加可见。

Ohm(2010 年)警告说

数据的效用和隐私是相互关联的,只要数据有用,即使是微不足道的,它也有可能被重新识别(2010 年:1751)。

随着基于互联网的研究的快速增长,欧姆的担忧变得更加严重。传统的定义和方法来理解隐私、匿名性以及哪种信息值得保护的性质变得紧张,迫使研究人员和伦理审查委员会考虑更加细致入微的隐私理论(Nissenbaum 2009)和尊重和保护受试者隐私的方法(Markham 2012;Zimmer 2010)。

4.2 招募

根据进行的互联网研究类型的不同,可以通过多种方式招募参与者。与任何形式的研究一样,研究人群或参与者是为特定目的而选择的(例如,对在线游戏玩家特定群体进行民族志研究),或者可以从一系列抽样技术中选择(例如,从亚马逊的 Mechanical Turk 众包平台用户中方便地获取样本 [4])。在美国的背景下,招募计划被视为知情同意过程的一部分,因此,任何招募脚本或发布必须在发布或开始征求意见之前由伦理审查委员会审查和批准(如果项目涉及人体研究)。此外,参与者的选择必须公正和无偏,任何风险和利益必须公平分配。在互联网环境中应用这一概念具有挑战性,因为人群通常是自我选择的,并且可以根据会员资格和访问状态以及基于经济和社会变量的在线访问的常见差异而具有排他性。研究人员还面临招募挑战,因为在线受试者可能具有潜在的匿名性,特别是与在线使用假名、在线具有多个或替代身份以及验证受试者年龄和人口统计信息的一般挑战相关。此外,接触和招募参与者的基本伦理原则包括保护他们的隐私和保密性。互联网研究既可以最大程度地保护这些权益,因为个人可能永远不会超出屏幕名称或虚拟形象的存在;或者,IP 地址的使用、cookie 的放置、提供和访问超出研究目的所需的更多信息等,可能会减少隐私和保密性的保护。

很多招聘活动都是通过社交媒体进行的;例如,推送技术是一种同步方法,研究人员根据个人资料数据、平台活动或地理位置向潜在参与者发送短信或推文。拉取技术招聘的其他方法包括直接发送电子邮件、专用网页、YouTube 视频,通过在论坛或网站上发布“便利贴”引导参与者访问研究网站,或者通过数据聚合或抓取潜在招募数据。无论使用何种方式,研究人员必须遵守网站的条款,包括特定规范和细微差别,以及服务协议方面的法律问题。例如,早期的亚洲瘦网站(参见 Overbeke 2008)通常被视为需要特别考虑的敏感空间,研究人员被要求尊重参与者的隐私并不进行研究(Walstrom 2004)。在游戏环境中,Reynolds 和 de Zwart(2010)提出以下问题:

研究人员是否披露了自己从事研究并观察/与其他玩家互动以收集研究数据的事实?研究项目对社区和一般游戏玩法有何影响?研究项目是否符合服务条款?

Colvin 和 Lanigan(2005: 38)建议研究人员

在发布招聘公告之前,应征得网站所有者和群组管理员的许可,并在招聘公告中附上已获得的许可的声明,包括联系人和接收日期。确定研究项目的截止日期,并尽力删除招聘帖子,这些帖子通常会嵌入在网站帖子中。

Barratt 和 Lenton 等人都同意:

因此,与在线社区管理员建立合作伙伴关系至关重要,不仅要征求他们的许可来发布请求,还要征求他们的反馈和支持(2010 年:71)。

Mendelson (2007)和 Smith and Leigh (1997)指出,招募通知需要包含比报纸广告常用的传单或广告更多的信息。提及主持人的批准对于建立真实性很重要,提供关于研究以及如何联系研究人员和适当的研究伦理委员会的详细信息也很重要。

鉴于招募可能采用的各种技术,需要注意“研究垃圾邮件”的概念。美国调查研究委员会警告

研究机构应采取措施限制通过电子邮件邀请或其他互联网方法向目标受访者发送的调查邀请数量,以避免由于给定数据对象(CASRO 2011:I.B.3)的重复招募和参与而引起的骚扰和响应偏差。

最终,使用互联网招募措施的研究人员必须确保潜在参与者在招募材料和任何后续同意文件中获得足够的信息。研究人员必须确保招募方法不会在未经其许可的情况下导致个人被识别出来,如果可能进行这种识别,是否存在重大风险?

4.3 知情同意

作为人类受试者保护的基石,知情同意意味着参与者自愿参与研究,并具有有关风险和利益的充分知识。提供知情同意通常包括研究人员解释研究目的、使用的方法、研究可能的结果,以及参与者可能面临的相关风险或伤害。该过程涉及以简明扼要的方式向接受者提供清晰易懂的解释,提供足够的机会考虑并询问研究的任何方面,然后才能授予同意,并确保受试者没有被迫参与。在传统研究中,获得同意通常是口头或书面形式,可以通过面对面的会议,在会议中研究人员审查文件,通过电话脚本,通过邮寄文件,传真或视频进行,并且在弱势群体的情况下可以在倡导者的协助下获得。最重要的是,知情同意是建立在“过程”和理解的验证的理想基础上的,因此需要研究人员与参与者之间的持续沟通关系。互联网作为研究工具和场所的出现对这种传统的知情同意方法提出了挑战。

在大多数监管框架中,如果经研究伦理委员会批准,知情同意可能会被豁免,或者获取知情同意的标准流程可能会被修改。不同形式的互联网研究需要不同的同意过程。一些标准已经出现,这取决于场所(例如,在线调查平台与私人 Facebook 群组)。然而,鼓励研究人员考虑使用现有法规的灵活性,如果合适的话,豁免同意和/或文件记录。

在需要同意但伦理审查委员会已经豁免文件记录的情况下,可以使用“门户”来提供同意信息。例如,研究人员可以向参与者发送一封电子邮件,其中包含一个链接到一个单独的门户或网站信息页面,其中包含有关项目的信息。参与者可以阅读文件记录并点击“我同意”提交。Rosser 等人(2010)建议使用“分块”同意文件,个人可以阅读特定部分,同意,然后继续完成同意表格,直到到达研究网站。

除了门户,研究人员通常会使用同意卡或令牌;这减轻了未经通知的研究人员存在是不可接受的担忧,或者研究人员的存在对给定地点的自然流动和移动是侵入性的。Hudson 和 Bruckman(2004, 2005)强调了在聊天室中获得同意的独特挑战,而 Lawson(2004)提供了一系列同步计算机中介通信的同意可能性。在互联网研究中,由于互联网空间的流动性和时间性质,同意过程存在不同的实际挑战。

如果需要同意书的文档,一些研究人员已经采用了替代方案,例如电子签名,它可以从简单的电子复选框到使用加密数字签名进行更强大的验证方式,尽管电子签名的有效性因司法管辖区而异。

无论场所如何,知情同意文件正在改变向研究参与者提供的信息。尽管同意的基本要素保持不变,但研究人员现在必须以较少的确定性承认其数据的长期性、对隐私、保密性和匿名性的风险(见上文第 4.1 节隐私),以及对数据的访问或所有权。研究参与者必须理解,他们的服务条款或最终用户许可协议的同意与他们参与研究的同意是不同的。而且,研究人员必须就数据被公开或在原始研究范围之外可用时可能存在的数据入侵或数据挪用的潜在风险向参与者/受试者进行解释和告知。陈述应该根据云存储(见下文第 4.4 节)和数据共享等现实进行修订。

例如,Aycock 等人(2012 年:141)描述了知情同意文件中使用的安全性和访问性陈述的连续性。

  • “没有其他人将能够访问数据”

  • “在所有数据收集和分析过程中将使用匿名标识符,并且与受试者标识符的链接将以安全的方式存储”

  • “包含图表审查和调查摘要的数据文件只会有研究编号,而没有用于识别受试者的数据。将保留将受试者姓名与这些研究标识符关联的密钥,并将其保存在锁定的文件中”

  • “电子数据将存储在一个密码保护和安全的计算机上,该计算机将放置在一个上锁的办公室中。软件“文件保险库”将用于保护加载到便携式笔记本电脑、闪存驱动器或其他存储介质的所有研究数据。这将使用 128 位密钥的高级加密标准(AES-128)对所有数据进行编码。”

最后一句中使用的加密可能在涉及敏感数据的研究中是必要的,例如医疗、性别、健康、财务等。Barratt 和 Lenton(2010)在他们对非法药物使用和在线论坛行为的研究中,也提供了关于使用安全传输和加密作为同意过程的一部分的指导。

除了告知参与者潜在风险并采用技术保护措施外,NIH 资助的研究人员在其工作中涉及可识别的敏感信息的项目将自动获得一份保密证书:

伦理准则通过禁止向与研究无关的任何人披露可识别的、敏感的研究信息,来保护研究对象的隐私,除非研究对象同意或在其他特定情况下(NIH 2021 [OIR])。

然而,这些准则并不能防止数据在美国以外的地方被泄露。鉴于互联网研究本身跨越国界,新的模式可能需要确保数据的机密性和保护。传统国际研究的知情同意模式由于文化特异性和规范的存在而面临根本性的挑战(Annas 2009;Boga 等,2011;Krogstad 等,2010);在互联网研究中,研究人员可能不知道个体的具体位置,同意的要求就更高了。尽管目前的实践标准显示同意模式源自研究人员和资助研究机构的管辖权,但在年龄验证、法定年龄/同意、报告不良反应或对研究过程的投诉以及身份验证等方面会出现复杂情况。各个司法管辖区的隐私法律与同意过程相关;Forrester 的数据隐私热图是一个有用的工具,它依靠对世界各国数据隐私相关法律和文化的深入分析,帮助研究人员根据特定背景设计适当的隐私和数据保护方法(参见 OIR)。

此外,随着全球范围内越来越多的联邦机构和资助机构鼓励公开研究数据(例如 NSF、NIH、Wellcome Trust、Research Councils U.K.),同意文件中使用的语言将相应改变,以代表数据的预期长期性和未来的、意想不到的使用机会。由于互联网数据在互联网场所之间可以自由流动,数据的整体可访问性可能会发生变化(当谷歌收购 DejaNews 时,早期的“私人”新闻组对话变为“公开可搜索”),并且通过共享数据集,其他人越来越有可能重复使用和访问。当前的数据共享要求必须在同意过程中加以考虑。数据共享政策与知情同意文件之间的一致性至关重要。两者都应包括适当保护隐私、保密、安全和知识产权的条款。

在美国,普遍认为研究人员使用公开可用数据(例如公共 Twitter 信息流)不需要个人同意。2002 年,国家人体研究保护咨询委员会(NHRPAC)提出了关于公开可用数据集的建议(参见 OIR)。数据使用或数据限制协议通常被使用,并为研究人员设定使用参数。

英国数据档案馆(2011 [OIR])提供了关于同意和数据共享的指导:

当研究涉及从人们那里获取数据时,研究人员应该保持高度的伦理标准,如专业机构、机构和资助组织所推荐的标准,无论是在研究过程中还是在数据共享时。研究数据,即使是敏感和机密的数据,如果研究人员从研究开始就注意到以下三个重要方面,可以在伦理和法律上进行共享: • 在获得知情同意时,包括数据共享的条款 • 在需要时,通过对数据进行匿名化来保护人们的身份 • 考虑控制对数据的访问 这些措施应该共同考虑。即使没有考虑数据共享,这些措施也是良好研究实践和数据管理的一部分。从人们身上和关于人们的数据可能包含个人、敏感或机密信息。这并不意味着所有通过与参与者进行研究获得的数据都是个人或机密的。

2016 年,丹麦一位研究人员发布了一个数据集,其中包含了从 OkCupid 在线约会网站的近 7 万名用户中抓取的数据。该数据集具有高度可识别性,并包括潜在敏感信息,包括用户名、年龄、性别、地理位置、感兴趣的关系(或性别)、个性特征以及该网站使用的数千个个人资料问题的答案。该研究人员声称这些数据是公开的,因此,这种共享和使用是没有问题的。Zimmer(2016)是许多隐私和伦理学者对这种立场的批评者之一。

丹麦的研究人员在收集和使用数据时没有寻求任何形式的同意或解释说明,也没有进行任何伦理监督。然而,许多研究人员和伦理委员会正在尝试通过在同意过程中包含一般性声明来减轻其中一些伦理关切,以指示对研究参与者采取的预防措施。例如,

我理解在线通信可能面临更大的黑客攻击、侵入和其他违规行为的风险。尽管存在这些可能性,我同意参与。

一个更具体的例子来自加拿大的背景,当研究人员提议使用托管在美国的特定在线调查工具时,伦理委员会通常建议在知情同意文件中使用以下类型的语言:

请注意,该在线调查由位于美国的 ABC 公司托管,该公司是一家网络调查公司。所有对调查的回应将存储和访问于美国。该公司受美国法律的约束,特别是美国爱国者法案/国内安全增强法案,该法案允许当局访问您对问题的回应记录,这些记录将存储和访问于美国。ABC 公司的安全和隐私政策可在 http://.../上查看。[6]

研究人员还被鼓励审查正在使用的应用程序的使用条款和服务条款,向伦理委员会展示其细节,并在知情同意书或脚本中通知参与者有关这些细节。研究人员还被鼓励在权衡可能违反平台服务条款时考虑数据来源和研究目标的更广泛背景因素(Fiesler、Beard 和 Keegan 2020)。

4.3.1 未成年人和同意

互联网研究对年龄验证、同意和同意程序以及与未成年人相关的适当方法论方法提出了特殊挑战。同意年龄在各个国家、州、社区和各种地方各不相同。对于由美国联邦机构进行或支持的受《共同规则》约束的研究,儿童的同意年龄

未达到法定同意年龄(在美国为 18 岁)参与研究中涉及的治疗或程序的人,根据将进行研究的司法管辖区的适用法律(45 C.F.R. § 46.402(a) 2009)。

Goldfarb(2008)对美国各州的成年年龄进行了详尽的讨论,特别关注临床研究,指出儿童必须年满七岁才能同意参与(参见 45 C.F.R. § 46 Subpart D 2009)。

Spriggs(2010)在澳大利亚的背景下指出,虽然在《国家声明》中没有关于互联网研究和未成年人的正式指导,但她建议:

  • 当信息可能被识别时,可能需要父母同意。可识别的信息会增加个人的风险,并可能意味着父母同意的安全网更可取。

  • 还需要考虑是否寻求父母同意会使情况变得更糟,例如,将一个来自功能失调家庭的年轻人置于风险之中,或者导致向研究人员披露有关年轻人身份和位置的其他识别信息。当父母同意无法提供保护或使情况变得更糟时,父母同意可能“不符合儿童或年轻人的最佳利益”(2010 年:30)。

为了协助同意过程,可以使用年龄验证措施。这些措施可以从更技术性的软件应用到嵌入在信息表或同意文件中的较不正式的知识检查。对于研究人员来说,多个确认点(询问年龄,随后询问出生年份等)是实用的措施。根据数据类型、数据的敏感性、数据的使用情况,研究人员和委员会将仔细构建适当的同意选项,包括同意豁免、文件豁免和/或父母同意豁免。

4.4 云计算与研究伦理

云计算平台的最新发展为研究人员带来了独特的机遇和伦理挑战。云计算是通过互联网部署计算资源,提供按需、灵活和可扩展的计算服务,可以从远程位置进行。例如,谷歌或雅虎提供的基于 Web 的电子邮件和日历服务,谷歌文档或 Microsoft Office 365 等在线生产力平台,Dropbox 或 Box.net 等在线文件存储和共享平台,以及谷歌应用、Facebook 开发者平台和亚马逊 Web 服务等大规模应用开发和数据处理平台。

除了企业和消费者,研究人员也开始利用云计算平台和服务来协助各种任务,包括受试者招募、数据收集和存储、大规模数据处理,以及沟通和协作(Allan 2011 [OIR];X. Chen 等人 2010 [OIR];Simmhan 等人 2008;Simmhan 等人 2009)。

随着研究人员对云计算的依赖增加,伦理问题也随之增加。其中最大的关注点之一是确保使用基于云的服务时的数据隐私和安全性。对于在线共享数据集进行协作处理和分析的研究人员来说,必须采取措施确保只有授权人员可以访问可能包含个人身份信息(PII)的在线数据,同时还必须使用适当的加密方式进行数据传输和存储,并确保云服务提供商维护足够的安全性以防止数据泄露。此外,一旦研究数据上传到第三方云提供商,还必须注意合同提供商的服务条款,以确定广告商、执法机构或其他外部代理人是否被允许访问数据,以及允许访问的级别。

除了隐私和安全问题,研究人员还有数据管理的伦理责任,当研究数据存储或处理放在云中时,这一责任变得更加复杂。云提供商可能利用遍布全球的数据中心,这意味着研究数据可能位于美国以外的地方和其法律管辖区域之外。服务条款可能授予云提供商访问和使用研究数据的许可,用于最初未经主体批准或预期的目的。数据管理可能要求及时完全销毁研究数据,如果云提供商已将数据分布和备份到多个位置,这一措施就变得复杂了。

云计算在研究中的一个更独特的应用是通过众包数据分析和处理功能,即利用各种在线产品和服务的数千名用户远程完成与研究相关的任务。例如,利用分布式网络的视频游戏玩家来帮助解决蛋白质折叠问题(Markoff 2010),以及利用亚马逊的 Mechanical Turk 众包市场平台来协助大规模数据处理和编码功能,这些功能无法自动化(Conley&Tosti-Kharas 2014; J. Chen 等人 2011)。使用基于云的平台可能引发各种重要的伦理和方法论问题。

首先,当研究任务广泛分布在全球用户网络中时,数据隐私和安全性的新关注点出现。研究人员必须非常小心,确保包含个人或敏感信息的研究数据不可被外包劳动力访问,或者没有提供众包劳动力的用户能够聚合和存储自己的研究数据集副本。其次,众包提出了关于研究过程本身的信任和有效性的伦理问题。与通常在主要研究员监督和控制下的本地研究助理团队不同,众包往往分布在研究人员的直接管理或控制之外,提供了较少的机会来确保对所需任务进行足够的培训。因此,研究人员需要创建额外的手段来验证数据结果,以确认任务是否被正确地完成。

众包存在两个额外的伦理关注点,涉及劳动管理和作者身份。机械土耳其用户最初并不是研究对象的首要目标。然而,使用机械土耳其的研究人员必须确保云端关系的另一端的劳动者没有被剥削,他们在法律上有资格从事雇佣工作,并且提供的激励是真实、有意义和适当的(Scholz 2008;Williams 2010 [OIR])。

最后,在利用众包进行成功的研究项目结束时,研究人员可能面临如何正确承认(通常是匿名的)劳动者所做贡献的伦理挑战。伦理研究要求公正准确地描述作者身份。不同学科在报告合作者和研究助手的相对贡献方面存在差异,当利用众包协助研究项目时,这个困境会增加。

4.5 大数据考虑

算法处理是大数据研究的必然结果,并出现了新的伦理考虑。从“算法伤害”到“预测分析”,当今算法的力量超越了长期以来的隐私信仰和规范。具体而言,国家科学技术委员会指出:

“分析算法”是用于优先排序、分类、过滤和预测的算法。当算法使用的信息不当或不准确时,使用可能会引发隐私问题;当出现错误决策时;当没有合理的救济手段时;当个人的自主权与算法评分直接相关时;或当使用预测算法抑制理想行为或鼓励其他隐私伤害时,都可能会产生隐私问题。(NSTC 2016: 18)。

尽管大数据的概念并不新鲜,这个术语自上世纪 90 年代以来一直存在于技术讨论中,但公众对大数据研究的认识和反应要远远晚于现在。随着基于社交媒体的研究的兴起,布坎南(2016)描述了从 2012 年至今“大数据”研究的出现,而且没有终点的迹象。

大数据研究对研究伦理委员会来说是具有挑战性的,常常出现计算机伦理学家詹姆斯·穆尔所称的“概念混乱”:无法正确概念化新技术背景下的伦理价值和困境。例如,主题隐私通常通过一系列策略和实践来保护研究伦理的背景,包括在受控或匿名环境下进行数据收集、限制收集的个人信息、清除数据以删除或模糊个人身份信息、使用访问限制和相关数据安全方法来防止未经授权的访问和使用研究数据本身。然而,在大数据研究的背景下,隐私的性质和理解变得混乱,因此,在这个新领域确保隐私得到尊重和保护变得具有挑战性。

例如,在大数据研究的背景下,确定何为“私人信息”——从而引发特定的隐私关注——变得困难。在监管定义的“私人信息”内部的区别——即,它仅适用于受试者合理预期通常不会被监测或收集且通常不会公开的信息——在考虑到大数据研究的数据环境和收集实践时变得不太适用,例如对 Facebook 新闻订阅内容或公开的 OKCupid 解释进行全面抓取。

当从“私人信息”的监管定义的角度来考虑时,社交媒体的帖子通常被认为是公开的,尤其是当用户没有采取明显的积极步骤来限制访问时。因此,大数据研究人员可能会得出结论,受试者不值得特别考虑隐私。然而,用于大数据研究目的的社交媒体平台代表了一个复杂的社会技术互动环境,在这里,用户经常无法完全理解他们的社交活动可能如何被定期监控、收集和与第三方共享,在这里,隐私政策和服务条款并不完全被理解并且经常变化,在这里,技术基础设施和界面的设计使得限制信息流动和保护个人隐私变得困难。

如上所述,在第 4.1 节中,确认用户在社交媒体平台上分享信息的意图变得困难,以及用户是否意识到在社交环境中提供信息也会使其广泛被研究人员收集和使用。社交媒体和基于互联网的平台用户的意图和期望的不确定性——往往是由平台设计本身引起的——在我们正确缓解大数据研究中潜在隐私问题的能力方面造成了许多概念上的混乱。

在大数据研究背景下,关于隐私和个人身份信息定义的概念差距不可避免地导致了关于何时需要知情同意的类似差距。例如,挖掘 Facebook 个人资料信息或公共 Twitter 信息流的研究人员通常认为不需要特定的同意,因为这些信息是公开可得的。目前尚不清楚用户是否真正理解了他们在这些社交媒体平台上公开信息的技术条件,或者他们是否预料到自己的数据会被用于研究目的,而不仅仅是在朋友和关注者的屏幕上短暂地出现(Fiesler 和 Proferes,2018 年)。在 Facebook 情绪传染实验(Kramer,Guillory 和 Hancock 2014 年)的案例中,最初没有获得同意的缺失最初是通过研究似乎是在 Facebook 广泛的服务条款下进行的这一观念来合理化的,而这些服务条款的数据使用政策虽然长达 9000 多个字,但确实提到了“研究”。然而,后来揭示出,实验进行时的数据使用政策根本没有提到“研究”(Hill 2014 年)。

关于机器学习和人工智能发展所涉及的大规模数据收集实践,引发了额外的伦理关注。例如,针对从照片中推断性取向的算法和基于变性人视频训练的人脸识别算法,都受到了负面的公众关注。在这两种情况下,人们对这些算法的目的以及训练它们的数据(分别是约会资料照片和 YouTube 视频)是“公开”的,但是这些数据是从潜在的弱势群体中收集而来的,且没有得到同意,引发了伦理关注(Metcalf 2017; Keyes 2019)。虽然构建人工智能系统的人无法始终控制所使用数据的收集条件,但他们对社交媒体或相关来源捕获的大型数据集的增加使用引发了一系列关注,超出了通常被视为人工智能伦理关注的范畴:只有在数据收集以公平、伦理和公正的方式完成时,人工智能中的公平性、问责性和透明度才能得到充分实现(Stahl & Wright 2018; Kerry 2020)。

4.6 互联网研究和行业伦理

上述讨论的 Facebook 情绪传染实验只是大数据研究的一个例子,这种研究往往在传统大学研究伦理监管机制之外进行。几乎所有在线公司和平台都会分析数据并测试理论,这些理论往往依赖于个体用户的数据。基于行业的数据研究曾经仅限于面向市场的界面设计或企业通信信息的良性变化的“A/B 测试”,现在已经涵盖了关于用户在线行为、点击和阅读的信息,以及他们的移动、饮食和睡眠情况,他们在线消费的内容,甚至他们在家中的活动方式。这样的研究推断出个人的品味和偏好、社交关系、沟通方式、活动方式和工作习惯。它意味着对产品和服务进行广泛测试,这些产品和服务是日常生活中密切相关的一部分,从智能家居产品到社交网络再到智能汽车。除非与学术机构合作,否则公司通常不会将内部研究活动提交正式的伦理审查程序,因为研究结果通常不会公开分享,对用户的影响也很小。

工业大数据研究的增长,然而,一方面对个人隐私构成了新的风险,另一方面对组织的合法合规性、声誉和品牌构成了新的风险。当组织在原始上下文之外处理个人数据时,个人在某些情况下可能会获得很大的好处,但在其他情况下可能会感到惊讶、愤怒甚至受到伤害。从受影响的个人那里征求同意可能是不切实际的:组织可能会间接收集数据,或者基于与个人联系方式不直接匹配的标识符收集数据。此外,根据定义,一些非上下文使用(包括为了新兴用途而保留数据的时间超过预期)可能在收集时是无法预见的。正如 Crawford 和 Schultz(2014)所指出的,

如何对可能产生“个人数据”的无数甚至尚未确定的查询提供通知并获得同意?(2014 年:108)

随着企业开发大规模的“活体实验室”进行大数据研究,研究伦理已成为这些活动的设计和监督的关键组成部分。例如,针对情感传染实验引发的争议,Facebook 开发了一个内部伦理审查流程,根据其促进者的说法,

利用公司的组织结构,在现有的组织流程中创建多个培训机会和研究审查检查点(Jackman&Kanerva 2016:444)。

尽管这些努力是重要和值得赞赏的,但仍有改进的空间。例如,Hoffmann(2016)批评 Facebook 推出了一个伦理审查流程,这在流程上进行了创新,但对于他们产品开发中的伦理价值告诉我们很少。

伦理审查流程对于创新流程非常重要,但对于告诉我们有关他们产品开发中的伦理价值的信息很少。

此外,在他们对众多硅谷公司内从事伦理工作的员工进行研究时,Metcalf 和他的同事发现,在解决组织数据实践中出现的棘手伦理困境与主导内部决策的更广泛的商业模式和企业逻辑之间存在相当大的紧张关系(Metcalf,Moss 和 boyd 2019)。

5. Research Ethics Boards Guidelines

While many researchers and review boards across the world work without formal guidance, many research ethics boards have developed guidelines for Internet research. While many such guidelines exist, the following provides examples for researchers preparing for an REB review, or for boards developing their own policies.

Additional resources are found in Other Internet Resources below.

Bibliography

  • Acquisti, Alessandro and Ralph Gross, 2006, “Imagined Communities: Awareness, Information Sharing, and Privacy on the Facebook”, in Privacy Enhancing Technologies: PET 2006, George Danezis and Philippe Golle (eds.), (Lecture Notes in Computer Science 4258), Berlin, Heidelberg: Springer Berlin Heidelberg, pp. 36–58. doi:10.1007/11957454_3

  • Allen, Christina, 1996, “What’s Wrong with the ‘Golden Rule’? Conundrums of Conducting Ethical Research in Cyberspace”, The Information Society, 12(2): 175–188. doi:10.1080/713856146

  • Annas, George J., 2009, “Globalized Clinical Trials and Informed Consent”, New England Journal of Medicine, 360(20): 2050–2053. doi:10.1056/NEJMp0901474

  • Aycock, John, Elizabeth Buchanan, Scott Dexter, and David Dittrich, 2012, “Human Subjects, Agents, or Bots: Current Issues in Ethics and Computer Security Research”, in Financial Cryptography and Data Security, George Danezis, Sven Dietrich, and Kazue Sako (eds.), (Lecture Notes in Computer Science 7126), Berlin, Heidelberg: Springer Berlin Heidelberg, pp. 138–145. doi:10.1007/978-3-642-29889-9_12

  • Banks, Will and Michelle Eble, 2007, “Digital Spaces, Online Environments, and Human Participant Research: Interfacing with Institutional Review Boards”, in Digital Writing Research: Technologies, Methodologies, and Ethical Issues, Heidi A. McKee and Dànielle Nicole DeVoss (eds.), Cresskill, NJ: Hampton Press, pp. 27–47.

  • Barbaro, Michael and Tom Zeller Jr., 2006, “A Face Is Exposed for AOL Searcher No. 4417749”, The New York Times, 9 August 2006, pp. A1.

  • Barratt, Monica Jane and Simon Lenton, 2010, “Beyond Recruitment? Participatory Online Research with People Who Use Drugs”, International Journal of Internet Research Ethics, 3(1): 69–86. [Barratt and Lenton 2010 available online]

  • BBC, 2011, “US Scientists ‘Knew Guatemala Syphilis Tests Unethical’”, BBC News, 30 August 2011, sec. Latin America & Caribbean. [BBC 2011 available online]

  • Beauchamp, Tom L. and James F. Childress, 2008, Principles of Biomedical Ethics, Oxford: Oxford University Press.

  • Blackstone, Mary, Lisa Given, Joseph Levy, Michelle McGinn, Patrick O’Neill, Ted Palys, and Will van den Hoonaard, 2008, Extending the Spectrum: The TCPS and Ethical Issues Involving Internet-Based Research, Interagency Advisory Panel and Secretariat on Research Ethics, Ottawa, Canada. [Blackstone et al. 2008 available online]

  • Boehlefeld, Sharon Polancic, 1996, “Doing the Right Thing: Ethical Cyberspace Research”, The Information Society, 12(2): 141–152. doi:10.1080/713856136

  • Boga, Mwanamvua, Alun Davies, Dorcas Kamuya, Samson M. Kinyanjui, Ester Kivaya, Francis Kombe, Trudie Lang, Vicki Marsh, Bibi Mbete, Albert Mlamba, et al., 2011, “Strengthening the Informed Consent Process in International Health Research through Community Engagement: The KEMRI-Wellcome Trust Research Programme Experience”, PLoS Medicine, 8(9): e1001089. doi:10.1371/journal.pmed.1001089

  • Bonneau, Joseph and Sören Preibusch, 2010, “The Privacy Jungle: On the Market for Data Protection in Social Networks”, in Economics of Information Security and Privacy, Tyler Moore, David Pym, and Christos Ioannidis (eds.), Boston: Springer US, pp. 121–167. doi:10.1007/978-1-4419-6967-5_8

  • Booth, Robert, 2014, “Facebook reveals news feed experiment to control emotions”, The Guardian, 29 June 2014. [Booth 2014 available online]

  • Bromseth, Janne C. H., 2002, “Public Places: Public Activities? Methodological Approaches and Ethical Dilemmas in Research on Computer-mediated Communication Contexts”, in Researching ICTs in Context, Andrew Morrison (ed.), InterMedia Report 3/2002, Oslo: University of Oslo, pp. 33–61. [Bromseth 2002 available online]

  • Brothers, Kyle Bertram and Ellen Wright Clayton, 2010, “‘Human Non-Subjects Research’: Privacy and Compliance”, The American Journal of Bioethics, 10(9): 15–17. doi:10.1080/15265161.2010.492891

  • Bruckman, Amy, 2006, “Teaching Students to Study Online Communities Ethically”, Journal of Information Ethics, 15(2): 82–98. doi:10.3172/JIE.15.2.82

  • Buchanan, Elizabeth A. (ed.), 2004, Readings in Virtual Research Ethics: Issues and Controversies, Hershey, PA: Information Science Publishing.

  • –––, 2006, “Introduction: Internet Research Ethics at a Critical Juncture”, Journal of Information Ethics, 15(2): 14–17. doi:10.3172/JIE.15.2.14

  • –––, 2011, “Internet Research Ethics: Past, Present, and Future”, in Consalvo and Ess 2011: 83–108. doi:10.1002/9781444314861.ch5

  • –––, 2016, “Ethics in Digital Research”, in Handbuch Soziale Praktiken und Digitale Alltagswelten, Heidrun Friese, Gala Rebane, Marcus Nolden, and Miriam Schreiter (eds.), Wiesbaden: Springer Fachmedien Wiesbaden, pp. 1–9. doi:10.1007/978-3-658-08460-8_47-1

  • Buchanan, Elizabeth A. and Charles M. Ess, 2008, “Internet Research Ethics: The Field and Its Critical Issues”, in The Handbook of Information and Computer Ethics, Kenneth Einar Himma and Herman T. Tavani (eds.), Hoboken, NJ: John Wiley & Sons, Inc., pp. 273–292. doi:10.1002/9780470281819.ch11

  • –––, 2009, “Internet Research Ethics and the Institutional Review Board: Current Practices and Issues”, ACM SIGCAS Computers and Society, 39(3): 43–49. doi:10.1145/1713066.1713069

  • Buchanan, Elizabeth A. and Erin E. Hvizdak, 2009, “Online Survey Tools: Ethical and Methodological Concerns of Human Research Ethics Committees”, Journal of Empirical Research on Human Research Ethics, 4(2): 37–48. doi:10.1525/jer.2009.4.2.37

  • Buchanan, Elizabeth, John Aycock, Scott Dexter, David Dittrich, and Erin Hvizdak, 2011, “Computer Science Security Research and Human Subjects: Emerging Considerations for Research Ethics Boards”, Journal of Empirical Research on Human Research Ethics, 6(2): 71–83. doi:10.1525/jer.2011.6.2.71

  • Carpenter, Katherine J. and David Dittrich, 2012, “Bridging the Distance: Removing the Technology Buffer and Seeking Consistent Ethical Analysis in Computer Security Research”, in Digital Ethics: Research & Practice (Digital Formations 85), Don Heider and Adrienne Massanari (eds.), New York: Peter Lang, pp. 1–29.

  • [CASRO] Council of American Survey Research, 2011, “CASRO Code of Standards and Ethics for Survey Research”, First adopted 1977 and revised since. [CASRO code available online]

  • Chen, Jenny J., Natala J. Menezes, and Adam D. Bradley, 2011, “Opportunities for Crowdsourcing Research on Amazon Mechanical Turk”, Interfaces, 5(3). [J. Chen, Menezes, and Bradley 2011 available online]

  • Colvin, Jan and Jane Lanigan, 2005, “Ethical Issues and Best Practice Considerations for Internet Research”, Journal of Family and Consumer Sciences, 97(3): 34–39.

  • Conley, Caryn and Jennifer Tosti-Kharas, 2014, “Crowdsourcing Content Analysis for Managerial Research”, Management Decision, 52(4): 675–688. doi:10.1108/MD-03-2012-0156

  • Consalvo, Mia and Charles Ess (eds.), 2011, The Handbook of Internet Studies, Oxford: Wiley-Blackwell. doi:10.1002/9781444314861

  • Crawford, Kate and Jason Schultz, 2014, “Big Data and Due Process: Toward a Framework to Redress Predictive Privacy Harms”, Boston College Law Review, 55(1): 93–128.

  • Dittrich, David, Michael Bailey, and Sven Dietrich, 2011, “Building an Active Computer Security Ethics Community”, IEEE Security & Privacy Magazine, 9(4): 32–40. doi:10.1109/MSP.2010.199

  • Drew, David A., Long H. Nguyen, Claire J. Steves, Cristina Menni, Maxim Freydin, Thomas Varsavsky, Carole H. Sudre, M. Jorge Cardoso, Sebastien Ourselin, Jonathan Wolf, et al., 2020, “Rapid Implementation of Mobile Technology for Real-Time Epidemiology of COVID-19”, Science, 368(6497): 1362–1367. doi:10.1126/science.abc0473

  • Elgesem, Dag, 2002, “What Is Special about the Ethical Issues in Online Research?”, Ethics and Information Technology, 4(3): 195–203. doi:10.1023/A:1021320510186

  • Emanuel, Ezekiel J., Robert A. Crouch, John D. Arras, Jonathan D. Moreno, and Christine Grady (eds.), 2003, Ethical and Regulatory Aspects of Clinical Research: Readings and Commentary, Baltimore: Johns Hopkins University Press.

  • Ess, Charles, 2016, “Phronesis for machine ethics? Can robots perform ethical judgments?”, Frontiers in Artificial Intelligence and Applications, 290: 386–389. doi:10.3233/978-1-61499-708-5-386

  • Ess, Charles and the Association of Internet Researchers (AoIR) Ethics Working committee, 2002, “Ethical Decision-Making and Internet Research: Recommendations from the AoIR Ethics Working Committee”, Approved by the AoIR, 27 November 2002. [Ess and AoIR 2002 available online]

  • Eysenbach, Gunther, 1999, “Welcome to the Journal of Medical Internet Research”, Journal of Medical Internet Research, 1(1): e5. doi:10.2196/jmir.1.1.e5

  • Eysenbach, Gunther and James E. Till, 2001, “Ethical Issues in Qualitative Research on Internet Communities”, BMJ, 323(7321): 1103–1105. doi:10.1136/bmj.323.7321.1103

  • Fairfield, Joshua A., 2012, “Avatar Experimentation: Human Subjects Research in Virtual Worlds”, U.C. Irvine Law Review, 2: 695–772.

  • Federal Register, 2011, “Submission for Review and Comment: ‘The Menlo Report: Ethical Principles Guiding Information and Communication Technology Research’” (“Menlo Report”) for the Department of Homeland Security (DHS), Science and Technology, Cyber Security Division (CSD), Protected Repository for the Defense of Infrastructure Against Cyber Threats (PREDICT)”, 28 December 2011, Volume 76, Number 249, Docket No. DHS-2011-0074. [Federal Register 2011 available online]

  • –––, 2017, “Federal Policy for the Protection of Human Subjects”, 19 January 2017, Volume 82, Number 12 [Federal Register 2017 available online]

  • Fiesler, Casey, Nathan Beard, and Brian C. Keegan, 2020, “No Robots, Spiders, or Scrapers: Legal and Ethical Regulation of Data Collection Methods in Social Media Terms of Service”, Proceedings of the International AAAI Conference on Web and Social Media, 14: 187–196. [Fiesler, Beard, and Keegan 2020 available online]

  • Fiesler, Casey, Jeff Hancock, Amy Bruckman, Michael Muller, Cosmin Munteanu, and Melissa Densmore, 2018, “Research Ethics for HCI: A Roundtable Discussion”, in Extended Abstracts of the 2018 CHI Conference on Human Factors in Computing Systems, , Montreal QC Canada: ACM, 1–5. doi:10.1145/3170427.3186321

  • Fiesler, Casey and Nicholas Proferes, 2018, “‘Participant’ Perceptions of Twitter Research Ethics”, Social Media + Society, 4(1), first online 10 March 2018. doi:10.1177/2056305118763366

  • Flicker, Sarah, Dave Haans, and Harvey Skinner, 2004, “Ethical Dilemmas in Research on Internet Communities”, Qualitative Health Research, 14(1): 124–134. doi:10.1177/1049732303259842

  • Fossheim, Hallvard and Helene Ingierd (eds.), 2016, Internet Research Ethics:, Oslo: Cappelen Damm Akademisk/NOASP. doi:10.17585/noasp.3.1

  • Frankel, Mark S. and Sanyin Siang, 1999, “Ethical and Legal Aspects of Human Subjects Research in Cyberspace”, A Report of a Workshop, 10–11 June 1999, Washington, DC: American Association for the Advancement of Science. [Frankel and Siang 1999 available online]

  • Franzke, Aline Shakti, Anja Bechmann, Michael Zimmer, Charles M. Ess, and the Association of Internet Researchers (AoIR), 2020, Internet Research: Ethical Guidelines 3.0, AoIR. [Franzke et al. available online (pdf)]

  • Frauenberger, Christopher, Amy S. Bruckman, Cosmin Munteanu, Melissa Densmore, and Jenny Waycott, 2017, “Research Ethics in HCI: A Town Hall Meeting”, in Proceedings of the 2017 CHI Conference Extended Abstracts on Human Factors in Computing Systems – CHI EA ’17, Denver: ACM Press, pp. 1295–1299. doi:10.1145/3027063.3051135

  • Gaw, Allan and Michael H. J. Burns, 2011, On Moral Grounds: Lessons from the History of Research Ethics, Westerwood, Glasgow: SA Press.

  • [GDPR] General Data Protection Regulation (GDPR), 2016, “Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing Directive 95/46”. [available online]

  • Gilbert, Brendan James, 2009, “Getting to Conscionable: Negotiating Virtual Worlds’ End User License Agreements without Getting Externally Regulated”, Journal of International Commercial Law and Technology, 4(4): 238–251. [Gilbert 2009 available online]

  • Glickman, Seth W., Sam Galhenage, Lindsay McNair, Zachry Barber, Keyur Patel, Kevin A. Schulman, and John G. McHutchison, 2012, “The Potential Influence of Internet-Based Social Networking on the Conduct of Clinical Research Studies”, Journal of Empirical Research on Human Research Ethics, 7(1): 71–80. doi:10.1525/jer.2012.7.1.71

  • Goldfarb, Norman M., 2008, “Age of Consent for Clinical Research”, Journal of Clinical Research Best Practices, 4(6). [Goldfarb 2008 available online]

  • [HHS] Health and Human Services, 2017, “Excerpts from the January 19, 2017 Revised Common Rule Preamble”. [HHS 2017 available online]

  • Hill, Kashmir, 2014, “Facebook Added ‘Research’ To User Agreement 4 Months After Emotion Manipulation Study”, Forbes.com., 30 June 2014. [Hill 2014 available online]

  • Hoffmann, Anna Lauren, 2016, “Facebook has a New Process for Discussing Ethics. But is It Ethical?” The Guardian, 17 June 2016. [Hoffmann 2016 available online]

  • Homeland Security Department, 2011, “Submission for Review and Comment: ‘The Menlo Report: Ethical Principles Guiding Information and Communication Technology Research’”, Federal Register: The Daily Journal of the United States Government, FR Doc. 2011-3323, 28 December 2011. [Homeland Security Department 2011 available online].

  • Hubach, Randolph D., Andrew O’Neil, Mollie Stowe, Zachary Giano, Brenda Curtis, and Celia B. Fisher, forthcoming, “Perceived Confidentiality Risks of Mobile Technology-Based Ecologic Momentary Assessment to Assess High-Risk Behaviors Among Rural Men Who Have Sex with Men”, Archives of Sexual Behavior, first online: 20 February 2020. doi:10.1007/s10508-019-01612-x

  • Hudson, James M. and Amy Bruckman, 2004, “‘Go Away’: Participant Objections to Being Studied and the Ethics of Chatroom Research”, The Information Society, 20(2): 127–139. doi:10.1080/01972240490423030

  • –––, 2005, “Using Empirical Data to Reason about Internet Research Ethics”, in ECSCW 2005: Proceedings of the Ninth European Conference on Computer-Supported Cooperative Work, 18–22 September 2005, Paris, France, Hans Gellersen, Kjeld Schmidt, Michel Beaudouin-Lafon, and Wendy Mackay (eds.), Berlin/Heidelberg: Springer-Verlag, pp. 287–306. doi:10.1007/1-4020-4023-7_15

  • Hunsinger, Jeremy, Lisbeth Klastrup, and Matthew Allen (eds.), 2010, International Handbook of Internet Research, Dordrecht: Springer Netherlands. doi:10.1007/978-1-4020-9789-8

  • Illingworth, Nicola, 2001, “The Internet Matters: Exploring the Use of the Internet as a Research Tool”, Sociological Research Online, 6(2): 79–90. doi:10.5153/sro.600 [Illingworth 2001 available online]

  • International Telecommunications Union, 2019, “New ITU Data Reveal Growing Internet Uptake but a Widening Digital Gender Divide”, ITU Media Centre, [ITU 2019 available online]

  • Jackman, Molly and Lauri Kanerva, 2016, “Evolving the IRB: Building Robust Review for Industry Research”, Washington and Lee Law Review Online, 72(3): 442–457.

  • Jacobson, David, 1999, “Doing Research in Cyberspace”, Field Methods, 11(2): 127–145. doi:10.1177/1525822X9901100204

  • Johns, Mark D., Shing-Ling Sarina Chen, and G. Jon Hall (eds.), 2003, Online Social Research: Methods, Issues, and Ethics, New York: Peter Lang.

  • Jones, Arnita, 2008, “AHA Statement on IRB’s and Oral History Research”, American Historical Association Activities, 1 February 2008. [A. Jones 2008 available online]

  • Jones, Steve (ed.), 1999, Doing Internet Research: Critical Issues and Methods for Examining the Net, Thousand Oaks, CA: Sage.

  • Kaplan, Andreas M. and Michael Haenlein, 2010, “Users of the World, Unite! The Challenges and Opportunities of Social Media”, Business Horizons, 53(1): 59–68. doi:10.1016/j.bushor.2009.09.003

  • Kerry, Cameron F., 2020, “Protecting privacy in an AI-driven world” (AI Governance), 10 February 2020, Center for Technology Innovation, Brookings Institute. [Kerry 2020 available online]

  • Keyes, Os, 2019, “Counting the Countless: Why data science is a profound threat for queer people”, Real Life, 8 April 2019. [Keyes 2019 available online]

  • King, Storm A., 1996, “Researching Internet Communities: Proposed Ethical Guidelines for the Reporting of Results”, The Information Society, 12(2): 119–128. doi:10.1080/713856145

  • Kitchin, Heather A., 2003, “The Tri-Council Policy Statement and Research in Cyberspace: Research Ethics, the Internet, and Revising a ‘Living Document’”, Journal of Academic Ethics, 1(4): 397–418. doi:10.1023/B:JAET.0000025671.83557.fa

  • –––, 2008, Research Ethics and the Internet: Negotiating Canada’s Tri-Council’s Policy, Winnipeg, Manitoba: Fernwood Publishing

  • Kramer, Adam D. I., James E. Guillory, and Jeffrey T. Hancock, 2014, “Experimental Evidence of Massive-Scale Emotional Contagion through Social Networks”, Proceedings of the National Academy of Sciences, 111(24): 8788–8790. doi:10.1073/pnas.1320040111

  • Kraut, Robert, Judith Olson, Mahzarin Banaji, Amy Bruckman, Jeffrey Cohen, and Mick Couper, 2004, “Psychological Research Online: Report of Board of Scientific Affairs’ Advisory Group on the Conduct of Research on the Internet.”, American Psychologist, 59(2): 105–117. doi:10.1037/0003-066X.59.2.105

  • Krogstad, Donald J., Samba Diop, Amadou Diallo, Fawaz Mzayek, Joseph Keating, Ousmane A. Koita, and Yéya T. Touré, 2010, “Informed Consent in International Research: The Rationale for Different Approaches”, The American Journal of Tropical Medicine and Hygiene, 83(4): 743–747. doi:10.4269/ajtmh.2010.10-0014

  • Lawson, Danielle, 2004, “Blurring the Boundaries: Ethical Considerations for Online Research Using Synchronous CMC Forums”, in Buchanan 2004: 80–100.

  • Leibovici, Didier G., Suchith Anand, Jerry Swan, James Goulding, Gobe Hobona, Lucy Bastin, Sergiusz Pawlowicz, Mike Jackson, and Richard James, 2010, “Workflow Issues for Health Mapping ‘Mashups’ of OGC”, University of Nottingham, CGS Technical Report, 2010 DL1. [Leibovici et al. 2010 available online]

  • Madejski, Michelle, Maritza Lupe Johnson, and Steven Michael Bellovin, 2011, “The Failure of Online Social Network Privacy Settings”. Columbia Research Report CUCS-010-11, Columbia University. doi:10.7916/D8NG4ZJ1

  • Mann, Chris, 2003, “Generating Data Online: Ethical Concerns and Challenges for the C21 Researcher”, in Thorseth 2003: 31–49.

  • Markham, Annette N., 1998, Life Online: Researching Real Experience in Virtual Space, Walnut Creek, CA: Altamira Press.

  • –––, 2012, “Fabrication as Ethical Practice: Qualitative Inquiry in Ambiguous Internet Contexts”, Information, Communication & Society, 15(3): 334–353. doi:10.1080/1369118X.2011.641993

  • Markham, Annette N. and Nancy K. Baym (eds.), 2008, Internet Inquiry: Conversations about Method, Thousand Oaks, CA: Sage Publications.

  • Markham, Annette, N. and Elizabeth Buchanan, 2012. : Ethical decision-making and internet research: Version 2.0. recommendations from the AoIR ethics working committee Association of Internet Researchers. [Markham and Buchanan 2012 available online]

  • Markoff, John, 2010, “In a Video Game, Tackling the Complexities of Protein Folding”, New York Times, 4 August 2010. [Markoff 2010 available online]

  • McKee, Heidi A. and James E. Porter, 2009, The Ethics of Internet Research: A Rhetorical, Case-based Process, New York: Peter Lang Publishing.

  • Mendelson, Cindy, 2007, “Recruiting Participants for Research From Online Communities”, CIN: Computers, Informatics, Nursing, 25(6): 317–323. doi:10.1097/01.NCN.0000299653.13777.51

  • Metcalf, Jacob, 2017, “‘The Study Has Been Approved by the IRB’: Gayface AI, Research Hype and the Pervasive Data Ethics Gap”. PERVADE Team: Pervasive Data Ethics for Computational Research, Report. [Metcalf 2017 available online]

  • Metcalf, Jacob, Emanuel Moss, and danah boyd, 2019, “Owning Ethics: Corporate Logics, Silicon Valley, and the Institutionalization of Ethics”, Social Research: An International Quarterly, 86(2): 449–476.

  • Milne, George R. and Mary J. Culnan, 2004, “Strategies for Reducing Online Privacy Risks: Why Consumers Read (or Don’t Read) Online Privacy Notices”, Journal of Interactive Marketing, 18(3): 15–29. doi:10.1002/dir.20009

  • Mondschein, Christopher F. and Cosimo Monda, 2018, “The EU’s General Data Protection Regulation (GDPR) in a Research Context”, in Fundamentals of Clinical Data Science, Pieter Kubben, Michel Dumontier, and Andre Dekker (eds.), Cham: Springer International Publishing, pp. 55–71. doi:10.1007/978-3-319-99713-1_5

  • Moor, James H., 1985, “What Is Computer Ethics?”, Metaphilosophy, 16(4): 266–275. doi:10.1111/j.1467-9973.1985.tb00173.x

  • Alexander, Larry and Michael Moore, 2007, “Deontological Ethics”, The Stanford Encyclopedia of Philosophy (Winter 2007 Edition), Edward N. Zalta (ed.). URL = <Deontological Ethics (Stanford Encyclopedia of Philosophy/Winter 2007 Edition)>

  • Narayanan, Arvind and Vitaly Shmatikov, 2008, “Robust de-anonymization of Large Sparse Datasets”, Proceedings of the 29th IEEE Symposium on Security and Privacy, Oakland, CA, May 2008, IEEE, pp. 111–125. doi:10.1109/SP.2008.33 [Narayanan and Shmatikov 2008 available online (pdf)]

  • [NCPHSBBR] The National Commission for the Protection of Human Subjects of Biomedical and Behavioral Research, 1979, “The Belmont Report: Ethical Principles and Guidelines for the Protection of Human Subjects of Research”, Office for Human Research Protections, Department of Health and Human Services, United States. [NCPHSBBR 1979 available online]

  • [NESH] The National Committee for Research Ethics in the Social Sciences and the Humanities [Norway], 2006, “Guidelines for Research Ethics in the Social Sciences, Law, and Humanities”, Published September 2006. [NESH 2006 available online].

  • –––, 2019, “A Guide to Internet Research Ethics”. [NESH 2019 available online].

  • Nissenbaum, Helen, 2009, Privacy in Context: Technology, Policy, and the Integrity of Social Life, Stanford, CA: Stanford University Press.

  • [NSTC] National Science and Technology Council, 2016, “National Privacy Research Strategy”, Office of the President of the United States, June 2016. [NSTC 2016 available online]

  • Nuremberg Code, 1947 (1996), “The Nuremberg Code”, BMJ, 313. doi:https://doi.org/10.1136/bmj.313.7070.1448

  • Ohm, Paul, 2010, “Broken Promises of Privacy: Responding to the Surprising Failure of Anonymization”, UCLA Law Review, 57: 1701–1777.

  • Overbeke, Grace, 2008, “Pro-Anorexia Websites: Content, Impact, and Explanations of Popularity”, Mind Matters: The Wesleyan Journal of Psychology, 3: 49–62. [Overbeke 2008 available online]

  • [PRIM&R] Public Responsibility in Medicine and Research, Bankert, E., Gordon, B., Hurley, E., and Shriver, S. (eds), 2021, Institutional Review Board: Management and Function (third edition). Burlington, MA: Jones and Bartlett.

  • Reid, Elizabeth, 1996, “Informed Consent in the Study of On-Line Communities: A Reflection on the Effects of Computer-Mediated Social Research”, The Information Society, 12(2): 169–174. doi:10.1080/713856138

  • Reynolds, Ren, and Melissa de Zwart, 2010, “The Duty to ‘Play’: Ethics, EULAs and MMOs”, International Journal of Internet Research Ethics, 3(1): 48–68. [Reynolds & de Zwart 2010 available online]

  • Ritchie, Donald A., 2003, Doing Oral History: A Practical Guide, New York: Oxford University Press.

  • Rosenberg, Åsa, 2010, “Virtual World Research Ethics and the Private/Public Distinction”, International Journal of Internet Research Ethics, 3(1): 23–37.

  • Rosser, B. R. Simon, J. Michael Oakes, Joseph Konstan, Simon Hooper, Keith J. Horvath, Gene P. Danilenko, Katherine E. Nygaard, and Derek J. Smolenski, 2010, “Reducing HIV Risk Behavior of Men Who Have Sex with Men through Persuasive Computing: Results of the Menʼs INTernet Study-II”, AIDS, 24(13): 2099–2107. doi:10.1097/QAD.0b013e32833c4ac7

  • [SACHRP] Secretary’s Advisory Committee to the Office for Human Research Protections, Unitd States Department of Health & Human Services, 2010, “SACHRP July 20–21, 2010 Meeting Presentations”.

  • –––, 2013, “Considerations and Recommendations Concerning Internet Research and Human Subjects Research Regulations, with Revisions”. [SACHRP 2013 available online]

  • Samuel, Gabrielle and Elizabeth Buchanan, 2020, “Guest Editorial: Ethical Issues in Social Media Research”, Journal of Empirical Research on Human Research Ethics, 15(1–2): 3–11. doi:10.1177/1556264619901215

  • Scholz, Trebor, 2008, “Market Ideology and the Myths of Web 2.0”, First Monday, 13(3): 3 March 2008. [Scholz 2008 available online]

  • Schwartz, Paul M. and Daniel J. Solove, 2011, “The PII Problem: Privacy and a New Concept of Personally Identifiable Information”, New York University Law Review, 86(6): 1814–1893.

  • Seaboldt, James A. and Randy Kuiper, 1997, “Comparison of Information Obtained from a Usenet Newsgroup and from Drug Information Centers”, American Journal of Health-System Pharmacy, 54(15): 1732–1735. doi:10.1093/ajhp/54.15.1732

  • Sharf, Barbara F., 1997, “Communicating Breast Cancer On-Line: Support and Empowerment on the Internet”, Women & Health, 26(1): 65–84. doi:10.1300/J013v26n01_05

  • Sieber, Joan E., 1992, Planning Ethically Responsible Research: A Guide for Students and Internal Review Boards, Thousand Oaks, CA: Sage.

  • –––, 2015, Planning Ethically Responsible Research: A Guide for Students and Internal Review Boards, second edition, Thousand Oaks, CA: Sage.

  • Simmhan, Yogesh, Roger Barga, Catharine van Ingen, Ed Lazowska, and Alex Szalay, 2008, “On Building Scientific Workflow Systems for Data Management in the Cloud”, in 2008 IEEE Fourth International Conference on EScience, Indianapolis, IN: IEEE, pp. 434–435. doi:10.1109/eScience.2008.150

  • Simmhan, Yogesh, Catharine van Ingen, Girish Subramanian, and Jie Li, 2009, “Bridging the Gap between the Cloud and an EScience Application Platform”. Microsoft Research Tech Report MSR-TR-2009-2021. [Simmhan et al. 2009 available online]

  • Skloot, Rebecca, 2010, The Immortal Life of Henrietta Lacks, New York: Crown Publishers.

  • Sloan, Luke, Curtis Jessop, Tarek Al Baghal, and Matthew Williams, 2020, “Linking Survey and Twitter Data: Informed Consent, Disclosure, Security, and Archiving”, Journal of Empirical Research on Human Research Ethics, 15(1–2): 63–76.

  • Smith, Michael A. and Brant Leigh, 1997, “Virtual Subjects: Using the Internet as an Alternative Source of Subjects and Research Environment”, Behavior Research Methods, Instruments, & Computers, 29(4): 496–505. doi:10.3758/BF03210601

  • Spriggs, Merle, 2010, A Handbook for Human Research Ethics Committees and Researchers: Understanding Consent in Research Involving Children: The Ethical Issues, Melbourne: The University of Melbourne/Murdoch Childrens Research Institute/The Royal Children’s Hospital Melbourne, version 4. Spriggs 2010 available online]

  • Stahl, Bernd Carsten and David Wright, 2018, “Ethics and Privacy in AI and Big Data: Implementing Responsible Research and Innovation”, IEEE Security & Privacy, 16(3): 26–33. doi:10.1109/MSP.2018.2701164

  • Sveningsson, Malin, 2004, “Ethics in Internet Ethnography” in Buchanan 2004: 45–61.

  • Sweeney, Latanya, 2002, “K-Anonymity: A Model for Protecting Privacy”, International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems, 10(5): 557–570. doi:10.1142/S0218488502001648

  • Thomas, Jim, 2004, “Reexamining the Ethics of Internet research: Facing the Challenge of Overzealous Oversight”, in Johns, Chen, and Hall 2004: 187–201.

  • Thorseth, May (ed.), 2003, Applied Ethics in Internet Research (Programme for Applied Ethics Publication Series No. 1), Trondheim, Norway: NTNU University Press.

  • Tsai, Janice, Lorrie Faith Cranor, Alessandro Acquisti, and Christina M. Fong, 2006, “What’s It To You? A Survey of Online Privacy Concerns and Risks”. NET Institute Working Paper No. 06–29. doi:10.2139/ssrn.941708

  • Turkle, Sherry,1997, Life on the Screen: Identity in the Age of the Internet, New York: Touchstone.

  • Van Heerden, Alastair, Doug Wassenaar, Zaynab Essack, Khanya Vilakazi, and Brandon A. Kohrt, 2020, “In-Home Passive Sensor Data Collection and Its Implications for Social Media Research: Perspectives of Community Women in Rural South Africa”, Journal of Empirical Research on Human Research Ethics, 15(1–2): 97–107. doi:10.1177/1556264619881334

  • Vitak, Jessica, Nicholas Proferes, Katie Shilton, and Zahra Ashktorab, 2017, “Ethics Regulation in Social Computing Research: Examining the Role of Institutional Review Boards”, Journal of Empirical Research on Human Research Ethics, 12(5): 372–382. doi:10.1177/1556264617725200

  • Walstrom, Mary K., 2004, “Ethics and Engagement in Communication Scholarship: Analyzing Public, Online Support Groups as Researcher/Participant-Experiencer”, in Buchanan 2004: 174–202.

  • Walther, Joseph B., 2002, “Research Ethics in Internet-Enabled Research: Human Subjects Issues and Methodological Myopia”, Ethics and Information Technology, 4(3): 205–216. doi:10.1023/A:1021368426115

  • White, Michele, 2002, “Representations or People?”, Ethics and Information Technology, 4(3): 249–266. doi:10.1023/A:1021376727933

  • World Medical Association, 1964/2008, “Declaration of Helsinki: Ethical Principles for Medical Research Involving Human Subjects”. Adopted by the 18th World Medical Assembly. Amended 1975, 1983, 1989, 1996, 2000, 2002, 2004, 2008. [Declaration of Helsinki available online]

  • Wright, David R., 2006, “Research Ethics and Computer Science: An Unconsummated Marriage”, in Proceedings of the 24th Annual Conference on Design of Communication: SIGDOC ’06, Myrtle Beach, SC: ACM Press, pp. 196–201. doi:10.1145/1166324.1166369

  • Zimmer, Michael T., 2010, “‘But the Data Is Already Public’: On the Ethics of Research in Facebook”, Ethics and Information Technology, 12(4): 313–325. doi:10.1007/s10676-010-9227-5

  • –––, 2016, “OkCupid Study Reveals the Perils of Big-Data Science”, Wired.com, 14 May 2016. [Zimmer 2016 available online]

  • Zimmer, Michael and Edward Chapman, 2020, “Ethical Review Boards and Pervasive Data Research: Gaps and Opportunities”, Paper presented at AoIR 2020: The 21st Annual Conference of the Association of Internet Researchers. [Zimmer and Chapman 2020 extended abstract available online (pdf)]

  • Zimmer, Michael T. and Katharina Kinder-Kurlanda (eds.), 2017, Internet Research Ethics for the Social Age: New Challenges, Cases, and Contexts, New York: Peter Lang Publishing.

Academic Tools

Other Internet Resources

Cited in Entry

Laws and Government Documents

United States

Elsewhere

Professional Standards

Journals, Forums, and Blogs

Other Resources

ethics, biomedical: clinical research | ethics: deontological | informed consent | privacy

Copyright © 2021 by Elizabeth A. Buchanan <buchanane@uwstout.edu> Michael Zimmer <michael.zimmer@marquette.edu>

最后更新于

Logo

道长哲学研讨会 2024