搜索引擎伦理 search engines and (Herman Tavani and Michael Zimmer)

首次发表于 2012 年 6 月 22 日星期五;实质性修订于 2021 年 1 月 12 日星期二

互联网对于研究的影响几乎无所不在。作为一个领域、工具和场所,互联网涉及特定且深远的伦理问题。互联网研究伦理是一个跨学科的子学科,涵盖社会科学、艺术与人文、医学/生物医学和自然科学等多个学科领域。现存的伦理框架,包括后果主义、义务论、德性伦理和女性主义伦理,已经为考虑和评估互联网研究中的伦理问题提供了贡献。

在概念上和历史上,互联网研究伦理与计算机和信息伦理最相关,包括参与者知情和同意、数据隐私、安全性、匿名性和保密性、数据完整性、知识产权问题以及社区、学科和专业标准或规范等伦理问题。在互联网的发展过程中,一直存在着关于是否出现了新的伦理困境,或者现有的困境是否类似于其他研究领域的困境的持续辩论(Elgesem 2002;Walther 2002;Ess & AoIR 2002;Marhkam & Buchanan 2012)。这些辩论类似于计算机和信息伦理中的哲学辩论。例如,许多年前,James Moor(1985)提出了“计算机有什么特别之处”这个问题,以便了解在伦理上是否有什么独特之处。然而,van Heerden 等人(2020)和 Sloan 等人(2020)强调,“进行伦理社会研究的基本原则仍然相同”(Ess & AoIR 2002;King 1996;Samuel and Buchanan, 2020),提醒我们,研究本身必须受到伦理原则的指导,无论技术干预如何。

然而,随着互联网演变为更具社交和沟通功能的工具和场所,伦理问题已经从纯粹基于数据驱动转变为更加以人为中心。然而,“现场”或面对面的类比可能不适用于在线研究。例如,公共公园的概念曾被用作研究者可以在其中观察他人而几乎没有伦理争议的场所,但在线上,公共与私人的概念要复杂得多(SACHRP 2013)。因此,一些学者建议,互联网研究伦理的特殊性需要新的监管和/或专业和学科指导。出于这些原因,人类研究政策和监管的概念,将继续围绕伦理和方法论复杂性展开讨论,包括个人可识别性、声誉风险和危害、公共空间和公共文本的概念、所有权以及数据的长期性,因为它们与互联网研究相关。具体而言,社交网络的出现引发了有关主体或参与者招募实践、分层知情同意模式以及在一个日益扩散和无处不在的技术世界中保护各种期望和隐私形式的问题。额外的伦理关注点集中在匿名性和数据保密性的问题上,在这些空间中,研究者及其对象可能并不完全了解这些场所或工具的条款和条件,数据完整性受到挑战,因为研究项目可以被外包或众包到在线劳动力市场,以及随着更多的研究通过云计算或远程服务器地点进行处理、存储和传播,出现了众多的法律复杂性,鉴于数据法律的司法差异。此外,大数据研究的主导地位在各个研究领域持续存在,对“现实世界数据”和普遍计算的概念被广泛接受并用于所有学科。大数据集的易获取和可用性以多种方式启用了 AI(人工智能)和 ML(机器学习)作为研究人员的标准工具不断增长。

研究人员使用互联网作为研究工具和/或研究空间,以及他们的研究伦理委员会(REBs),在美国也被称为机构审查委员会(IRBs),在澳大利亚等其他国家被称为人类研究伦理委员会(HRECs),面临一系列新的伦理问题:研究人员对保护参与“公共”互联网空间活动的受试者隐私有什么伦理义务?这样的公共空间是什么?在普遍和无处不在的监视和数据跟踪时代,是否存在合理的隐私期望?在线如何确保保密性或匿名性?在线如何以及应该如何获得知情同意?如何进行未成年人研究,如何证明受试者不是未成年人?欺骗(假装成别人,隐瞒可识别信息等)是一种可接受的在线规范还是一种伤害?在在线空间中存在的人如何受到“伤害”?大数据集中的个人可识别性有多高?人类受试者保护是否适用于大数据?随着越来越多由行业赞助的研究进行,当前监管结构之外存在哪些伦理保护?随着诸如欧盟的《通用数据保护条例》(GDPR 2016)等法律的颁布,对数据隐私和个人权利的全球影响是什么?

越来越多的学者探讨了这些相关问题(例如,Bromseth 2002; Bruckman 2006; Buchanan 2004; Buchanan & Ess 2008; Johns, Chen & Hall 2003; Kitchin 2003, 2008; King 1996; Mann 2003; Markham & Baym 2008; McKee & Porter 2009; Thorseth 2003; Ess 2016; Zimmer & Kinder-Kurlanda(编)2017; Samuel & Buchanan, 2020),学术协会为互联网研究起草了伦理指南(Ess & Association of Internet Researchers 2002; Markham, Buchanan, and AoIR 2012; franzke 等,2020; Kraut 等,2004),非营利性学术和科学机构如 AAAS(Frankel & Siang 1999)正在面对互联网研究对研究人员和研究伦理委员会(REBs)提出的众多伦理关切。

鉴于全球超过 50%的人口使用互联网,而且全球 97%的人口现在生活在移动蜂窝信号覆盖范围内,93%的人口在 3G(或更高)网络覆盖范围内(国际电信联盟,2019 年),在这个高度中介环境中继续探讨与研究相关的伦理问题至关重要。


定义

Internet research ethics(IRE)的普遍接受定义已被 Buchanan 和 Ess(2008, 2009), Buchanan(2011)以及 Ess & Association of Internet Researchers(AoIR)(2002)所使用:

IRE 被定义为对伦理问题的分析和研究伦理原则的应用,因为它们与在互联网上进行的研究相关。广义上定义的基于互联网的研究是利用互联网通过在线工具收集信息的研究,例如在线调查;关于人们如何使用互联网的研究,例如通过收集数据和/或检查在线环境中的活动;和/或使用在线数据集、数据库或存储库。

这些例子在 2013 年被美国国务卿人类研究保护办公室咨询委员会(SACHRP 2013)扩大,并被纳入互联网研究的总称之下:

  • 在不直接与人类对象互动的情况下研究已经可在互联网上获得的信息(收集、挖掘、剖析、抓取、观察或记录已存在的数据集、聊天室互动、博客、社交媒体帖子等)。

  • 将互联网作为招募或与受试者(自测网站、调查工具、亚马逊机械土耳其等)直接或间接互动的工具的研究。

  • 关于互联网本身及其影响的研究(使用模式或社交媒体、搜索引擎、电子邮件等的影响;隐私问题的演变;信息传播;等等)。

  • 关于互联网用户的研究:他们做什么,以及互联网如何影响个人及其行为。利用互联网作为干预工具的研究,例如影响受试者行为的干预

  • 其他(新兴和跨平台类型的研究和方法,包括 m-research(移动))

  • 在互联网站点或工具中招聘,例如社交媒体,推送技术

在定义互联网研究伦理的关键区别是互联网作为研究工具与研究场所之间的区分。工具和场所之间的区别在学科和方法论取向中得以体现。作为工具,互联网研究依赖于搜索引擎、数据聚合器、数字档案、应用程序接口(API)、在线调查平台和众包平台。基于互联网的研究场所包括对话应用程序(即时消息和讨论论坛,例如)、在线多人游戏、博客和互动网站,以及社交网络平台。

另一种概念化工具和场所之间区别的方式来自基钦(2008),他提到了在互联网研究中使用“参与式网络研究”与“非侵入式网络研究”概念的区别

非侵入性分析是指数据收集技术,不会干扰站点或网络社区的自然状态,也不会干扰预先制作的文本。相反,参与性分析涉及到站点或社区,并因此与网络来源的参与者进行互动(2008: 15)。

这两个构建为研究人员提供了一种识别的方式,当考虑到人类受试者保护可能需要发生时。McKee 和 Porter(2009 年),以及 Banks 和 Eble(2007 年)提供了关于人类受试者研究连续性的指导,指出了基于个人与基于文本的区别。例如,McKee 和 Porter 提供了一系列研究变量(公共/私人、话题敏感性、互动程度和受试者脆弱性),这些变量有助于确定研究在基于文本与基于个人的连续性中的位置,以及受试者是否需要同意进行研究(2009 年:87-88)。

概念上对于确定人类主体参与而言是有用的,工具与场所或参与与非侵入式网络研究之间的区别在社交媒体及其第三方应用程序的影响下越来越模糊。Buchanan (2016)构想了互联网研究的三个阶段或阶段,社交媒体的出现标志着第二阶段,大约在 2006 年至 2014 年之间。社交媒体的概念包含

基于 Web 2.0 的意识形态和技术基础的一组互联网应用程序,允许用户生成内容的创建和交换(Kaplan & Haenlein 2010: 61)。

一个“社交网络网站”是一类具有个人资料、半持久性公开评论以及可遍历的公开社交网络的网站类别,这些社交网络与个人资料相关联。

这种工具和场所的崩溃主要可以追溯到第三方网站和应用程序的增加使用,例如 Facebook、Twitter 或任何数量繁多的在线研究工具,其中主题或参与者招募、数据收集、数据分析和数据传播都可以在同一空间中发生。随着这些边界的崩溃,“跨司法协调”的术语(Gilbert 2009: 3)在本质上具有挑战性;Gilbert 特别反对虚拟世界中的使用条款或最终用户许可协议规定,指出这些协议通常“有缺陷”,因为它们依赖于特定地点的法律法规,并试图在非基于地点的环境中强制执行它们。尽管如此,研究人员现在经常使用数据聚合工具,从用户个人资料或交易日志中抓取数据,从 Twitter 流中收集数据,或者在同意与这些网站相关的服务条款后,将数据存储在云服务器上,如 Dropbox。使用这种第三方应用程序或工具改变了研究的基本方面,往往取代了研究人员或研究团队作为其数据的唯一所有者。这些独特的特征涉及隐私、同意、所有权和司法边界的概念和实际问题。

2014 年 Facebook 情绪传染研究(Booth, 2014)涌现了一个典型且引起关注的关键时刻,引发了许多这些关注点。通过同意 Facebook 的服务条款,用户是否同意参与研究活动?实验后是否应该进行解释说明?大学研究伦理委员会对该研究进行了多么彻底的审查?行业赞助的研究是否应该进行内部伦理审查?针对情绪传染研究的强烈抗议,Ok Cupid 的 Christian Rudder(2014 [OIR])为这类实验进行了辩护,指出 2014 年 Facebook 情绪传染研究(Booth, 2014)涌现了一个典型且引起关注的关键时刻,引发了许多这些关注点。通过同意 Facebook 的服务条款,用户是否同意参与研究活动?实验后是否应该进行解释说明?大学研究伦理委员会对该研究进行了多么彻底的审查?行业赞助的研究是否应该进行内部伦理审查?针对情绪传染研究的强烈抗议,Ok Cupid 的 Christian Rudder(2014 [OIR])为这类实验进行了辩护,指出

最近我们注意到,人们不喜欢 Facebook 对他们的新闻订阅进行“实验”。甚至 FTC 也介入了。但是,大家猜猜:如果你使用互联网,你就是每个网站在任何时候进行的数百次实验的对象。这就是网站的运作方式。

社交网络现象迫使研究人员与其数据来源进行持续协商,正如在 Facebook 传染研究中所见,并且随后对此做出的反应。此外,随着移动设备的日益普及和集中使用,互联网研究的概念正在扩大,从“基于地点”的互联网转向分散的现实。来自移动设备的数据收集呈指数增长。例如,移动设备使得可以从非基于地点的环境进行同步数据收集和传播。使用云端应用的研究人员可以与参与者同步发送和接收数据。这种研究可能性对流行病学研究的影响是巨大的,具有科学潜力,同时也对伦理挑战提出了要求,正如我们在基于移动设备的 COVID-19 研究(Drew 等,2020)和实时采样受试者当前行为和经验(Hubach 等,即将发表)中所看到的。随着互联网研究从一种小众方法发展为几乎无处不在且常常隐形的实践,传统的人类研究概念需要仔细考虑。

人类研究

人类研究对象保护的实践、专业和理论意义在学术文献中得到了广泛讨论,涵盖了从医学/生物医学到社会科学再到计算和技术学科(参见 Beauchamp & Childress 2008; Emanual 等人 2003; PRIM&R 等人 2021; Sieber 1992; Wright 2006)。相关的保护和规定在研究伦理违规行为面前继续受到广泛关注(例如,参见 Skloot 2010,关于亨丽埃塔·拉克斯; 美国政府就 1940 年代在危地马拉进行性病测试向危地马拉政府承认和道歉(BBC 2011); 以及 Gaw & Burns 2011,关于过去的经验如何指导当前研究伦理和行为)。

人类受试者保护的历史(Sparks 2002 [见其他互联网资源,简称 OIR])起源于二战期间的纳粹人体实验等暴行,导致了纽伦堡宪章(1947 年);随后是关于涉及人类受试者的医学研究伦理原则的赫尔辛基宣言(世界医学协会 1964/2008)。部分是为了回应图斯基吉梅毒实验,这是一项由美国公共卫生局在 1932 年至 1972 年间进行的臭名昭著的临床研究,研究对象是阿拉巴马州农村非裔美国男性未经治疗梅毒的自然进展,以获得政府提供的免费医疗保健,美国卫生及公众服务部提出了一套基本规定,管理人类受试者的保护(45 C.F.R. § 46)(请参阅其他互联网资源部分的链接,有关法律和政府文件)。随后,由国家生物医学和行为研究人类受试者保护委员会发布了《人类研究受试者保护的伦理原则和指南》,即贝尔蒙特报告(NCPHSBBR 1979)。贝尔蒙特报告确定了所有人类受试者研究的三项基本伦理原则:尊重个人、善行和公正。

为了确保美国联邦机构在人类研究保护方面的一致性,1991 年,被称为“共同规则”的《联邦人类研究保护政策》被编纂;修订后的共同规则于 2017 年 1 月 19 日在《联邦纪事报》上发布,并于 2018 年 7 月 19 日生效。全球范围内存在类似的人类研究保护的监管框架,例如加拿大三议会、澳大利亚研究理事会、欧洲委员会、挪威研究理事会及其社会科学与人文科学国家研究伦理委员会(NESH 2006;NESH 2019),以及英国的 NHS 国家研究伦理服务和 ESRC(经济与社会研究理事会)的研究伦理框架(REF)的一般指南,以及亚洲和西太平洋地区的伦理审查委员会论坛(FERCAP)。

在美国,已经签署《共同规则》(45 C.F.R. 46 A 款)的各种监管机构尚未就互联网研究发布正式指导(请参阅其他互联网资源部分的链接,有关法律和政府文件)。修订规则的序言提到了研究环境中的重大变化,认识到有必要扩大规则的范围。然而,在最广泛的背景下,针对互联网研究实际规则的实质性变化是微不足道的。

例如,序言中提到:

这最终规则认识到,在过去的二十年中,研究的进行方式发生了范式转变。不断发展的技术,包括成像、移动技术和计算能力的增长,改变了许多学科中收集信息的规模和性质。计算机科学家、工程师和社会科学家正在开发技术,以整合不同类型的数据,使其能够被结合、挖掘、分析和共享。先进的计算机软件程序、互联网和移动技术的出现,创造了新的研究领域,特别是在社会和行为科学领域(Federal Register 2017 and HHS 2017)。

对人类研究对象定义进行了适度更改,包括将“数据”更改为“信息”和“生物样本;” 现在的定义如下:

(e)

  • (1) 人类主体指的是一个活着的个体,关于这个个体,一个调查者(无论是专业人士还是学生)正在进行研究

    • 通过干预或与个体互动获取信息或生物样本,并使用、研究或分析这些信息或生物样本

    • (ii) 获得、使用、研究、分析或生成可识别的私人信息或可识别的生物样本。

  • (2) 干预包括收集信息或生物样本的物理程序(例如,静脉穿刺)以及为研究目的而对受试者或受试者环境进行的操作。

  • (3) 互动包括调查者和受试者之间的沟通或人际接触。

  • (4) 私人信息包括有关在个人可以合理期望没有观察或记录发生的情境中发生的行为的信息,以及由个人提供并且个人可以合理期望不会被公开的信息(例如,医疗记录)。

  • (5) 可识别的私人信息是指研究者可以或可能很容易确定受试者身份的私人信息。

  • (6) 可识别的生物样本是指研究者可以或可能很容易确定受试者身份的生物样本(45 C.F.R. § 46.102 (2018))。

然而,修订后的规则确实有一项在互联网研究方面具有重要意义的规定;该规则要求实施部门或机构,

[(e)(7)]

  • 在与适当专家(包括数据匹配和重新识别专家)协商后,重新审视本节第(e)(5)段中定义的“可识别的私人信息”和第(e)(6)段中定义的“可识别的生物样本”的含义。此重新审视将在 1 年内进行,并以后定期进行(至少每 4 年一次)。此过程将由实施该政策的联邦部门和机构之间的合作进行。如果适用且符合法律规定,这些联邦部门和机构可以通过使用指导方针来更改这些术语的解释。

  • 在与适当专家协商后,评估是否有分析技术或技术应由调查人员考虑,以生成“可识别的私人信息”,如本节第(e)(5)段所定义,或“可识别的生物样本”,如本节第(e)(6)段所定义。此评估应在 1 年内进行,并随后定期进行(至少每 4 年进行一次)。此过程将由实施该政策的联邦部门和机构之间的合作进行。任何此类技术或技术将被列入生成可识别的私人信息或可识别的生物样本的技术或技术清单中。此清单将在经过通知和公众评论机会后在《联邦纪事》上公布。HHS 部长应在公开可访问的网站上维护该清单(45 C.F.R. § 46.102 (2018))。

截至本文撰写时,尚未重新审视“可识别的私人信息”或“可识别的生物样本”概念。然而,随着数据分析、人工智能和机器学习继续揭示人类主体研究中的伦理问题,我们预计将在联邦层面和研究社区之间看到积极的讨论(PRIM&R 2021)。这些讨论可能会涉及 Carpenter 和 Dittrich(2012)以及 Aycock 等人(2012)之前的概念性工作,这些工作关注风险和可识别性。例如,可识别的私人数据的二次使用可能会造成下游危害或意外风险,导致声誉或信息方面的伤害。重新审视“可识别的私人信息”必须在认真考虑风险和“危害人类研究”情况下进行。Carpenter 和 Dittrich(2012)鼓励在本文撰写时,尚未重新审视“可识别的私人信息”或“可识别的生物样本”概念。然而,随着数据分析、人工智能和机器学习继续揭示人类主体研究中的伦理问题,我们预计将在联邦层面和研究社区之间看到积极的讨论(PRIM&R 2021)。这些讨论可能会涉及 Carpenter 和 Dittrich(2012)以及 Aycock 等人(2012)之前的概念性工作,这些工作关注风险和可识别性。例如,可识别的私人数据的二次使用可能会造成下游危害或意外风险,导致声誉或信息方面的伤害。重新审视“可识别的私人信息”必须在认真考虑风险和“危害人类研究”情况下进行。Carpenter 和 Dittrich(2012)鼓励

“审查委员会应该从以知情同意为驱动的审查转变为风险分析审查,以解决研究中潜在危害的问题,其中研究人员与处于风险中的个体没有直接互动”(第 4 页),如“[T] 研究人员与受影响个体之间的距离表明研究领域需要进行范式转变。我们必须将对研究保护的理念从‘人类研究’转变为‘人类伤害研究’”(第 14 页)[1]。

同样,Aycock 等人(2012)断言

研究人员和委员会必须在呈现与特定研究相关的风险和与使用技术相关的风险之间取得平衡。在计算机安全研究中,围绕风险出现了重大问题,尤其是对整个社会而言。对于个体来说,风险可能并不明显,但在安全研究的范围内,更广泛的人群可能会变得脆弱。在传统研究伦理学的传统意义上,量化风险和利益存在着重大困难……由机器人收集的上网行为的聚合物,使研究人员和受访者之间的距离更大,而不是在虚拟世界中的头像之间进行的访谈。这种距离使我们建议计算机安全研究将更少关注传统意义上的人类主体研究,而更多关注人类伤害研究(第 3 页,原文斜体)。

这两个概念对于考虑新兴形式的身份或个人可识别信息(PII),如化身、虚拟存在、机器人、文本和图形信息,具有相关性。根据《联邦法规》第 45 部分第 46.102(f)条款(2009 年):如果获取有关活体个体的 PII,则新形式的表现被视为人类对象。研究人员可以通过抓取数据源、档案或化身,或平台提供的其他数据片段来获取 PII。Fairfield 同意:“例如,一个化身不仅仅代表一组像素,它代表用户的身份”(2012: 701)。

多个学术学科(医学、社会学、人类学、心理学、传播学)早已从事人类研究,已建立了旨在协助研究人员和负责确保人类研究遵循法律要求和伦理实践的伦理准则。但是,随着涉及互联网的研究——在这种研究中,个人越来越多地在具有渗透性和不断变化边界的平台上分享个人信息,在这种研究中,来自不同来源的数据的传播和聚合已成为常态,在这种研究中,基于网络的服务及其隐私政策和服务条款声明不断变化和演变——研究人员和伦理审查委员会传统上使用的伦理框架和假设经常受到挑战。

研究伦理委员会自身越来越面临基于互联网的研究方案的独特伦理维度的挑战。在对美国伦理审查委员会进行的 2008 年调查中,不到一半的伦理审查委员会确定基于互联网的研究是当时的“一个关注或重要领域”,仅有 6%的委员会制定了用于审查基于互联网的研究方案的指南或清单(Buchanan & Ess 2009)。到了 2015 年,受访的 93%的伦理审查委员会承认使用“在线数据”进行研究存在独特的伦理问题,但仅有 55%表示他们认为自己的伦理审查委员会精通在线数据收集的技术方面,仅有 57%同意他们的伦理审查委员会具备跟上在线技术变化的专业知识。伦理审查委员会现在面临着大数据研究的增长(见下文 §4.5),这种研究越来越依赖通过社交媒体、数字设备或其他方式生成的大量个人信息数据集,这些数据通常对用户隐藏。一项 2019 年对伦理审查委员会的研究显示,仅有 25%的委员会感到准备好评估依赖大数据的方案,仅有 6%的委员会拥有足够的工具来考虑这一新兴的互联网研究领域(Zimmer & Chapman 2020)。此外,在被呈现各种利用大数据的假设性研究场景并被问及他们的伦理审查委员会可能如何审查此类方案时,许多观点在许多情况下存在强烈的差异。考虑以下情景:

研究人员计划从在线报纸页面上抓取公共评论,以预测选举结果。他们将汇总分析结果以确定公众情绪。研究人员并不打算通知评论者,并计划收集可能可识别的用户名。抓取评论违反了报纸的服务条款。

18%的受访者表示他们的 IRB 会将此视为豁免,21%表示需要加快审查,33%建议需要全体委员会审查,而 28%认为这甚至不是属于其 IRB 监管范围的人类研究(Zimmer & Chapman 2020)。这表明 IRB 在审查大数据研究方案的伦理影响方面存在潜在的差距和不一致性。

IRE 学科的历史与发展

自 1990 年代以来,围绕互联网用于研究的文献已经形成了广泛的体系(S. Jones 1999; Hunsinger, Klastrup, & Allen (eds.) 2010; Consalvo & Ess (eds.) 2011; Zimmer & Kinder-Kurlanda (eds.) 2017),并越来越强调互联网研究的伦理维度。

互联网研究的大量涌现,以及对其中同时存在的伦理问题的明确关注,始于 1990 年代中期。1996 年,Storm King 意识到互联网作为研究场所的日益增长。他的工作探讨了美国心理学协会关于新兴形式的电子邮件、聊天、列表和虚拟社区的人类研究指南。在对互联网受试者的风险和利益进行仔细关注后,King 发出了警示:

当一个研究领域是新的时候,所涉及的伦理考虑的细节是未定义的。随着该领域的发展和结果的编制,研究人员经常回顾早期的研究并感到担忧,因为显然忽视了涉及的人类对象(1996: 119)。

1996 年《信息社会》杂志专门致力于互联网研究被认为是一个分水岭时刻,并包括许多至今仍具有影响力和相关性的开创性研究(Allen 1996; Boehlefeld 1996; Reid 1996)。

Sherry Turkle 的 1997 年作品《屏幕上的生活:互联网时代的身份》直接关注了在线游戏环境中的人类因素。向着以人为基础而非以文本为基础的研究方向迈进,Turkle 促使研究人员考虑互联网研究的人类主体意义。同样,Markham 的《在线生活:虚拟空间中的真实体验研究》(1998 年)突出了在线民族志研究的方法论复杂性,Jacobson 在 1999 年的互联网研究方法论处理中也做到了这一点。研究的“领域”改变了研究者与被研究者的角色动态,以及虚拟空间参与者的身份和表现。Markham 在定性在线研究方面的工作在各学科中具有影响力,护理、心理学和医学等领域的研究发现了这一范式在在线研究中的潜力(Flicker 等人,2004 年;Eysenbach 和 Till,2001 年;Seaboldt 和 Kupier,1997 年;Sharf,1997 年)。

然后,1999 年,美国科学促进会(AAAS)在美国研究风险保护办公室(现称为人类研究保护办公室)的合同下召开了一次研讨会,旨在评估传统研究伦理概念与互联网研究的一致性。该研讨会承认

互联网上潜在可获得的大量社会和行为信息使其成为研究人员希望研究人类互动动态及其在这个虚拟媒介中的后果的主要目标。研究人员可以潜在地以相对较低的成本和较短的时间从广泛分散的人群中收集数据,而不同于在现实世界中进行类似努力。因此,互联网研究的数量增加,范围从调查到自然观察(Frankel & Siang 1999: 1)。

在医学/生物医学背景下,互联网研究迅速增长。1999 年,冈瑟·艾森巴赫(Gunther Eysenbach)撰写了《医学互联网研究杂志》的第一篇社论。这本杂志成立的背后有三股推动力,艾森巴赫指出了互联网日益增长的社会和人际交往方面。

首先,互联网协议被用于临床信息和沟通。未来,互联网技术将成为许多远程医疗应用的平台。其次,互联网革命性地改变了医学非临床信息的收集、获取和传播:通过图形用户界面,现在全球范围内可以访问参考文献和事实数据库,可以使用互联网收集流行病学和公共卫生信息,并且越来越多地用于互动医学教育应用。第三,互联网在消费者健康教育、健康促进和远程预防中发挥着重要作用。(顺便说一句,应强调“互联网上的健康教育”超越了传统的健康教育模式,在传统模式中,医务人员教导患者:在互联网上,许多“健康教育”是通过患者自助支持团体在网络空间中进行“患者对患者”的交流。这些患者之间的互动已成为医疗保健的重要组成部分,并正在重新定义传统的预防医学和健康促进模式。)

随着学术关注的增长和 1999 年 AAAS 报告(Frankel & Siang 1999)的呼吁行动,其他专业协会开始注意到这一点,并开始起草声明、指导方针或对现有专业标准的补充。例如,美国心理学协会科学事务委员会(BSA)于 2001 年成立了一个关于在互联网上进行研究的咨询小组;美国咨询协会在 2005 年对其伦理准则进行了修订;互联网研究协会(AoIR)伦理工作组指南,挪威社会科学和人文科学研究伦理委员会(NESH Norway)等,已指导研究人员和审查委员会关注互联网研究的伦理问题,特别关注最常见的伦理关注领域(请参见 OIR 以获取链接)。

许多研究人员关注传统研究伦理原则,对于互联网研究伦理的概念化取决于学科视角。一些学科,尤其是艺术和人文学科,认为互联网研究更多关乎背景和表现,而不是“人类对象”,暗示在研究实际个体时并无意图,因此最小化或没有伤害。自 2000 年代初以来,这场辩论一直在持续。White(2002)反对现有的法规,这些法规偏袒或优先特定的意识形态、学科和文化特权,这些法规限制了艺术和人文学科研究的自由和创造力。例如,她指出 AAAS 报告“混淆了实际个体与构建材料,以及人类对象与复合文化作品”,再次引起人与文本之间的关注,这一分歧贯穿了互联网研究伦理辩论。另一个学科差异的例子来自口述历史协会,该协会承认互联网作为研究场所的不断增长的使用:

口述历史简单来说,通过记录的采访收集具有历史意义的记忆和个人评论。口述历史采访通常由一位准备充分的采访者质询受访者,并以音频或视频格式记录他们的交流。采访的录音会被转录、总结或编目,然后存放在图书馆或档案馆中。这些采访可能被用于研究,或在出版物、广播或视频纪录片、博物馆展览、戏剧化或其他形式的公开展示中摘录。录音、文本、目录、照片和相关纪录材料也可以发布在互联网上(Ritchie 2003: 19)。

美国历史协会(A. Jones 2008)认为,这类研究应“明确豁免”伦理审查委员会的监督,但如果这些数据在公共环境中可获得,或者“下游”可获得,可能会对声誉、经济地位或心理造成潜在、不可预见的风险,一旦发生识别。

在文本而非人类主体的概念下,互联网研究基于出版和版权的论点;考虑到博客的场所,它并不符合大多数伦理审查委员会根据 45 C.F.R. § 46.102f (2009)所解释的人类主体的定义。研究人员无需获得使用博客文本的同意,因为它通常被认为是公开可获得的、文本的、已发表的材料。研究人员普遍接受的“公园”类比论点对于一些互联网场所和工具是合适的,但并非所有:2004 年,Sveninngsson 确定了互联网研究伦理考虑中的关键标志,包括上下文、意图、数据的敏感性以及互联网参与者的期望。在文本而非人类主体的概念下,互联网研究基于出版和版权的论点;考虑到博客的场所,它并不符合大多数伦理审查委员会根据 45 C.F.R. § 46.102f (2009)所解释的人类主体的定义。研究人员无需获得使用博客文本的同意,因为它通常被认为是公开可获得的、文本的、已发表的材料。研究人员普遍接受的“公园”类比论点对于一些互联网场所和工具是合适的,但并非所有:2004 年,Sveninngsson 确定了互联网研究伦理考虑中的关键标志,包括上下文、意图、数据的敏感性以及互联网参与者的期望。

到了 21 世纪中期,随着三部重要的选集出版以及日益增长的文献基础,有大量学术文献记录了跨学科和方法论的伦理审查委员会(IRE)情况,随之而来的是来自审查这类研究的审查委员会的轶闻数据。为了寻找关于互联网研究实际审查委员会流程的经验数据,从人类主体的角度出发,Buchanan 和 Ess 调查了 700 多个美国伦理审查委员会,发现这些委员会主要关注隐私、数据安全和保密性,以及确保适当的知情同意和招募程序(Buchanan & Ess 2009; Buchanan & Hvizdak 2009)。

2008 年,加拿大三议会社会科学和人文研究伦理特别工作委员会:研究伦理机构咨询小组的工作委员会(Blackstone 等人,2008 年)召开了会议;2010 年,人类研究保护办公室秘书咨询委员会的一次会议突出了互联网研究(SACHRP,2010 年)。公共责任医学和研究(PRIM&R)以及美国教育研究协会(AERA)等知名专业组织已经开始定期在他们的会议和相关出版物中特别关注互联网研究伦理。

最近,传统上不涉及人类研究的学科已经开始对 IRE 进行自己的探索。例如,计算机安全领域的研究人员积极研究了 CS 和 ICT 中的研究伦理原则(Aycock 等,2012 年;Dittrich,Bailey 和 Dietrich,2011 年;Carpenter 和 Dittrich,2012 年;Buchanan 等,2011 年)。值得注意的是,2011 年 12 月,美国联邦登记处要求就《门洛报告》发表评论,该报告要求计算机科学研究人员致力于尊重人的三个原则,善意和正义,同时还增加了第四个原则,即尊重法律和公共利益(国土安全部,2011 年)。SIGCHI 是一个国际性专业学会,致力于人类技术和人机交互(HCI)领域的专业人士,学者和学生,他们越来越关注 IRE 如何适用于他们领域的工作(Frauenberger 等,2017 年;Fiesler 等,2018 年)。

互联网研究中的关键伦理问题

隐私

研究伦理原则规定,研究人员必须确保有足够的规定来保护受试者的隐私,并保持任何收集的数据的机密性。隐私侵犯或保密性泄露会对参与者造成严重危害,范围从个人或敏感信息的曝光,尴尬或非法行为的泄露,到根据法律受保护的数据的发布。

研究伦理学关注个人隐私的问题通常表达为数据与个人的关联程度,以及信息披露可能带来的潜在危害。随着互联网研究的复杂性和计算机技术的发展,伦理问题已经集中在数据的当前和未来用途,以及可能发生的下游危害上。保护研究参与者的隐私和保密通常通过一系列研究策略和实践来实现,包括在受控或匿名环境下进行数据收集,清除数据以删除个人可识别信息(PII),或使用访问限制和相关数据安全方法。此外,数据的具体性和特征通常会决定是否存在监管考虑,除了围绕隐私和保密的方法论考虑。例如,个人可识别信息(PII)通常要求最严格的保护。例如,美国国家卫生研究院(NIH)将 PII 定义为:研究伦理学关注个人隐私的问题通常表达为数据与个人的关联程度,以及信息披露可能带来的潜在危害。随着互联网研究的复杂性和计算机技术的发展,伦理问题已经集中在数据的当前和未来用途,以及可能发生的下游危害上。保护研究参与者的隐私和保密通常通过一系列研究策略和实践来实现,包括在受控或匿名环境下进行数据收集,清除数据以删除个人可识别信息(PII),或使用访问限制和相关数据安全方法。此外,数据的具体性和特征通常会决定是否存在监管考虑,除了围绕隐私和保密的方法论考虑。例如,个人可识别信息(PII)通常要求最严格的保护。例如,美国国家卫生研究院(NIH)将 PII 定义为:

任何由机构维护的关于个人的信息,包括但不限于教育、财务交易、医疗史、犯罪或就业历史以及可用于区分或追踪个人身份的信息,如其姓名、社会安全号码、出生日期和地点、母亲的婚前姓氏、生物特征记录等,包括与个人相关联或可关联的任何其他个人信息(NIH 2010)。

通常,识别信息的示例包括个人特征(如出生日期、出生地点、母亲的婚前姓、性别、性取向和其他显著特征以及生物特征信息,如身高、体重、外貌、指纹、DNA 和视网膜扫描),分配给个人的唯一数字或标识符(如姓名、地址、电话号码、社会保障号码、驾驶执照号码、金融账号号码),以及对物理位置的描述(GIS/GPS 日志数据、电子手环监控信息)。

2018 年欧盟《通用数据保护条例》规定了欧盟范围内数据使用的法律和监管要求。Mondschein & Monda (2018)对 GDPR 中考虑的不同数据类型进行了深入讨论:个人数据,如姓名、身份证号码、位置数据等;特殊类别的个人数据,如种族或民族起源、政治观点或宗教信仰;假名数据,指已经更改以使主体无法直接识别而需要进一步信息的数据;匿名数据,指与可识别的自然人无关或以使数据主体不再可识别的方式匿名化的信息。他们还建议研究人员考虑 2018 年欧盟《通用数据保护条例》规定了欧盟范围内数据使用的法律和监管要求。Mondschein & Monda (2018)对 GDPR 中考虑的不同数据类型进行了深入讨论:个人数据,如姓名、身份证号码、位置数据等;特殊类别的个人数据,如种族或民族起源、政治观点或宗教信仰;假名数据,指已经更改以使主体无法直接识别而需要进一步信息的数据;匿名数据,指与可识别的自然人无关或以使数据主体不再可识别的方式匿名化的信息。他们还建议研究人员考虑

在研究项目的早期阶段,数据保护问题在利用个人数据的大规模研究努力的背景下尤为重要(2018: 56)。

互联网研究为旨在保护受试者隐私的长期定义和监管框架引入了新的复杂性。例如,研究人员越来越能够从 Facebook、Twitter、博客或公共电子邮件档案等来源收集有关个人的详细数据,这些丰富的数据集可以更容易地进行处理、比较,并与其他在线可用的数据(和数据集)结合起来。在许多情况下,研究人员和普通公众都能够通过分析和比较这些数据集重新识别个人,使用像邮政编码(Sweeny 2002)、随机网络搜索查询(Barbaro&Zeller 2006)或电影评分(Narayanan&Shmatikov 2008)这样的数据字段作为重新识别假定匿名用户的关键。在广泛使用基于互联网的数据收集和处理之前,很少有人会认为电影评分或邮政编码是可以识别个人身份的。然而,这些案例揭示了仅仅剥离传统的“可识别”信息,如受试者的姓名、地址或社会安全号码,已不再足以确保数据保持匿名(Ohm 2010),并需要重新考虑什么被视为“个人可识别信息”(Schwartz&Solove 2011)。这指向了保持机密性的数据与真正匿名数据之间的关键区别。越来越多的数据很少完全匿名,因为研究人员经常证明他们通常可以轻松地重新识别隐藏在“匿名化”数据集中的个人(Ohm 2010)。这一现实对确保数据集至少通过物理和计算安全措施保持适当机密施加了新的压力。这些措施还可能包括要求将数据存储在“无菌室”中,或在非网络环境中,以控制数据传输。

同样,互联网研究中经常收集的新类型数据也可以用来识别先前假定为匿名数据集中的主体。例如,互联网研究人员在进行在线调查或分析交易日志时可能会收集互联网协议(IP)地址。IP 地址是分配给连接到互联网的每个设备的唯一标识符;在大多数情况下,个人计算机被分配一个唯一的 IP 地址,而在某些情况下,该地址被分配给一组计算机的较大节点或互联网网关。几乎所有网站和互联网服务提供商都会存储将活动与 IP 地址相关联的活动日志,在许多情况下,最终与特定计算机或用户相关联。目前美国法律不认为 IP 地址是可识别个人信息,而其他国家和监管机构则认为是。例如,欧洲数据隐私法第 29 条认为 IP 地址构成 PII。然而,Buchanan 等人(2011)指出,在美国《民权法案》下,根据《HIPAA 法案》的目的,IP 地址被视为一种 PII(45 C.F.R. § 164.514 2002)。其他联邦监管机构可能会重新考虑 IP 地址是否属于 PII,研究人员和委员会需要密切关注是否发生这种变化。

在考虑基于互联网研究背景下“私人信息”的含义时,出现了类似的复杂情况。美国联邦法规将“私人信息”定义为:

任何在个人可以合理期望没有观察或记录发生的情境中发生的行为信息,以及由个人提供并且个人可以合理期望不会公开的特定目的的信息(例如,医疗记录)(45 C.F.R. § 46.102(f) 2009)。

这个“私人信息”的标准定义包含两个关键要素。首先,私人信息是那些受试者合理期望通常不被监测或收集的信息。其次,私人信息是那些受试者合理期望通常不是公开可得的信息。相反,该定义也暗示相反的情况是真实的:如果用户不能合理期望数据不被观察或记录,或者他们不能期望数据不是公开可得的,那么这些数据就不符合需要特定隐私保护的“私人信息”水平。研究人员和研究伦理委员会一直在按照这个“私人信息”的定义来确保个人隐私的保护。

这些区别在考虑与基于互联网研究常见的数据环境和收集实践时变得更加重要。对于有兴趣收集或分析受试者在线行为的研究人员——也许是通过挖掘在线服务器日志、使用跟踪 cookie,或者抓取社交媒体资料和信息流——可以主张受试者没有合理的期望,认为这些在线活动不会被定期监控,因为几乎所有在线交易和互动都会被网站和服务提供商定期记录。因此,在线数据轨迹可能不会上升到“私人信息”的层面。然而,许多研究表明,普通互联网用户对于他们的活动如何被定期跟踪以及他们访问的网站的相关隐私实践和政策有不完整的理解(Hoofnagle & King 2008 [OIR];Milne & Culnan 2004;Tsai 等,2006)。Hudson 和 Bruckman(2005)对用户对隐私的期望和理解进行了实证研究,发现参与者对于公共聊天室内的隐私期望与实际上是一个非常公开的在线空间存在冲突。Rosenberg(2010)在虚拟世界的公共/私人区分领域进行了研究,建议研究人员必须确定在线空间中主导的社会规范和关系类型,然后再对在其中共享的信息的“公开性”做出假设。因此,目前尚不清楚互联网用户是否真正了解他们的在线活动何时会被定期监控和跟踪,以及真正存在何种合理期望。这种模糊性为研究人员和研究伦理委员会在试图将“私人信息”的定义应用于确保受试者隐私得到妥善处理时带来了新的挑战(Zimmer 2010)。

在互联网研究中处理主题隐私的复杂性进一步加剧了社交网络的兴起,作为信息共享和研究场所。用户在 Facebook 或 Twitter 等平台上越来越多地分享个人信息。对于研究人员来说,社交媒体平台提供了丰富的研究资源,许多内容可以轻松查看和下载。由于社交媒体网站上发布的许多信息是公开可见的,因此未能符合“私人信息”的标准监管定义。因此,试图收集和分析社交媒体帖子的研究人员可能不会将数据视为需要特别考虑隐私的内容。然而,社交媒体平台代表了一个复杂的社交互动环境,用户通常需要将朋友、恋人、同事和轻微熟人放置在同一类别“朋友”中,隐私政策和服务条款并不完全被理解(Madejski 等人,2011 年),技术基础设施未能真正支持隐私保护(Bonneau&Preibush,2010 年)并且经常在很短时间内发生变化(Stone,2009 年 [OIR];Zimmer,2009 年 [OIR])。因此,很难确定用户在将项目发布到社交媒体平台时的意图是什么(Acquisti&Gross,2006 年)。用户可能打算将帖子发布到私人群组,但未完全理解如何相应调整隐私设置。或者,信息可能之前仅限于某些朋友,但技术平台的变化突然使数据对所有人更加可见。

奥姆(2010)警告说

数据的效用和隐私是相互关联的,只要数据具有任何程度的用处,它也有可能被重新识别(2010: 1751)。

随着基于互联网的研究的快速增长,Ohm 的担忧变得更加严峻。传统的定义和理解隐私、匿名性的本质,以及哪种信息应当受到保护的方法变得紧张,迫使研究人员和 REB 考虑更加细致入微的隐私理论(Nissenbaum 2009)和尊重和保护受试者隐私的方法(Markham 2012; Zimmer 2010)。

4.2 招聘

根据正在进行的互联网研究类型,可以通过多种方式招募参与者。与任何形式的研究一样,研究人口或参与者是为特定目的而选择的(即,对在线游戏玩家特定群体进行民族志研究),或者可以从一系列抽样技术中选择(即,从亚马逊机械土耳其众包平台用户中获取的便利样本)。在美国背景下,招募计划被视为知情同意过程的一部分,因此,任何招募脚本或发布必须在发布或开始征求意见之前经由研究伦理委员会(REB)审查和批准(如果项目涉及人类研究对象)。此外,参与者的选择必须公正无偏,任何风险和利益必须公平分配。在互联网环境中应用这一概念具有挑战性,因为人口通常是自我选择的,并且可以根据成员资格和访问状态以及基于经济和社会变量的在线访问普遍差异而具有排他性。研究人员还面临在线受试者潜在匿名性的招募挑战,特别是与在线常用化名、在线具有多个或替代身份以及验证受试者年龄和人口信息的一般挑战相关。此外,接近和招募参与者的基本伦理原则包括保护其隐私和保密性。互联网研究既可以最大程度地实现这些保护,因为个人可能永远不会超出屏幕名称或头像的存在;或者,相反,IP 地址的使用、cookie 的放置、可用性和访问比研究目的所需的信息更多等因素可能会降低隐私和保密性的保护。

社交媒体上正在进行大量招聘活动;例如,推送技术是一种同步方法,研究人员根据个人资料、平台活动或地理位置向潜在参与者发送文本或推文。其他拉取技术招聘方法包括直接电子邮件、专用网页、YouTube 视频、通过在论坛或网站上张贴“便利贴”直接征求参与者,引导参与者前往研究网站,或者为潜在招募而聚合数据或抓取数据。无论使用何种手段,研究人员都必须遵守网站的条款,从规范特定的规范和细微差别,到法律问题和服务协议。例如,早期的拥护厌食症网站(见 Overbeke 2008)通常被视为值得特别考虑的敏感空间,研究人员被要求尊重参与者的隐私,不参与研究(Walstrom 2004)。在游戏背景下,Reynolds 和 de Zwart(2010)提出:

研究人员是否披露了自己正在从事研究并观察/与其他玩家互动以收集研究数据的事实?研究项目如何影响社区和一般游戏玩法?研究项目是否符合服务条款?

Colvin and Lanigan (2005: 38) suggest researchers

请在发布招聘公告之前征得网站所有者和群组管理员的许可,然后在招聘公告前加上一份声明,说明已经获得的许可,包括联系人和收到许可的日期。确定研究的截止日期,并尽一切努力删除招聘帖子,这些帖子经常嵌入在网站帖子中。

巴拉特(Barratt)和伦顿(Lenton)等人一致认为:

因此,与在线社区管理员建立合作伙伴关系至关重要,不仅要征得他们发布请求的许可,还要引起他们的反馈和支持(2010: 71)。

Mendelson (2007) 和 Smith and Leigh (1997) 指出,招聘通知需要包含比报纸广告中典型传单或广告更多的信息。提及主持人的批准对于建立真实性至关重要,提供关于研究的详细信息以及如何联系研究人员和适当的研究伦理委员会也同样重要。

鉴于招聘可能采用的各种技术,"研究垃圾邮件" 的概念需要引起重视。美国调查研究委员会警告

研究机构应采取措施,限制通过电子邮件征求或其他互联网方法发送给目标受访者的调查邀请数量,以避免由于对特定数据主体(CASRO 2011: I.B.3)的重复招募和参与而引起的骚扰和响应偏差。

最终,使用互联网招募措施的研究人员必须确保潜在参与者在招募材料和任何随后的同意文件中获得足够的信息。研究人员必须确保招募方法不会导致个人在未经其许可的情况下被识别,如果可能发生这种识别,是否存在重大风险?

知情同意

作为人类研究保护的基石,知情同意意味着参与者是自愿参与研究,并且具有足够了解相关风险和利益的知识。提供知情同意通常包括研究人员解释研究目的、使用的方法、研究可能的结果,以及参与者可能面临的相关风险或危害。该过程涉及以简明扼要的方式向接收者提供清晰易懂的解释这些问题,提供充分的机会考虑它们并询问有关研究的任何方面,然后批准同意,并确保受试者没有被迫参与。在传统研究中获得同意通常是口头或书面完成的,可以通过面对面会议,在会议中研究人员审查文件,通过电话脚本,邮寄文件,传真或视频完成,并且在涉及易受伤害人群的情况下,可以在倡导者的协助下获得同意。最重要的是,知情同意建立在“过程”和理解的验证理念之上,因此,需要研究人员和参与者之间保持持续的沟通关系。互联网作为研究工具和场所的出现对这种传统知情同意方法提出了挑战。

在大多数监管框架中,存在一些情况下可以豁免知情同意,或者可以修改获得知情同意的标准流程,如果经研究伦理委员会批准。[ 5] 各种形式的互联网研究需要不同的同意过程。一些标准已经出现,取决于场所(即,在线调查平台与私人 Facebook 小组)。然而,鼓励研究人员考虑通过利用现有法规的灵活性来豁免同意和/或文件记录,如果合适的话。

在伦理审查委员会豁免文件的情况下需要同意的地方,可以使用“门户”提供同意信息。例如,研究人员可以向参与者发送一封电子邮件,其中包含指向另一个门户或网站信息页面的链接,该页面包含有关项目的信息。参与者可以阅读文件并点击“我同意”提交。Rosser 等人(2010)建议使用“分块”同意文件,个人可以阅读特定部分,同意,然后继续完成同意表格,直到到达研究站点。

除了门户网站外,研究人员通常会使用同意卡或代币;这有助于缓解未经通知的研究人员存在是不可接受的担忧,或者研究人员的存在对于特定地点的自然流动和移动是具有侵入性的。Hudson 和 Bruckman(2004, 2005)强调了在聊天室获得同意的独特挑战,而 Lawson(2004)为同步计算机中介沟通提供了一系列同意可能性。在互联网研究中,由于互联网空间的流动性和暂时性,同意过程存在不同的实际挑战。

如果需要同意文件的记录,一些研究人员已经利用了替代方案,比如电子签名,它可以从简单的电子复选框到更强大的验证手段,使用加密数字签名来确认接受条款,尽管电子签名的有效性因司法管辖区而异。

无论在哪个场合,知情同意文件都在提供给研究参与者的信息方面发生了变化。虽然同意的基本要素保持不变,但研究人员现在必须以较少的确定性承认其数据长期性、隐私风险、保密性和匿名性的特定方面(见 §4.1 隐私,上文),以及对数据的访问或所有权。研究参与者必须理解,他们的服务条款或最终用户许可协议同意与他们参与研究的同意是不同的。此外,研究人员必须就数据侵入或数据被不当使用的潜在风险向参与者/对象进行说明和告知,如果数据随后公开或在原始研究范围之外可获得。陈述应该修订以反映诸如云存储(见 §4.4 下文)和数据共享等现实。

Aycock 等人(2012: 141)描述了知情同意文件中使用的安全性和访问声明的连续性。

  • 没有其他人会访问这些数据

  • “在所有数据收集和分析过程中将使用匿名标识符,并且与受试者标识符的关联将以安全方式存储。”

  • 数据文件中包含图表审查和调查摘要,只会有研究编号,而不会有可识别受试者的数据。将主题名称与这些研究标识符关联的关键信息将保存在一个锁定的文件中。

  • 电子数据将存储在一个受密码保护和安全的计算机上,该计算机将放置在一个上锁的办公室内。软件“文件保险库”将用于保护加载到便携式笔记本电脑、闪存驱动器或其他存储介质的所有研究数据。这将对所有数据进行编码...使用 128 位密钥的高级加密标准(AES-128)

在包括敏感数据的研究中,如医疗、性、健康、金融等领域,最后陈述中使用加密可能是必要的。Barratt and Lenton (2010) 在他们对非法药物使用和在线论坛行为的研究中,也提供了关于使用安全传输和加密作为同意过程的一部分的指导。

除了告知参与者潜在风险并采用技术保护措施外,NIH 资助的研究人员,其工作涉及具有可识别的敏感信息的项目,将自动获得一份保密证书

CoCs 通过禁止向与研究无关的任何人披露可识别的敏感研究信息来保护研究对象的隐私,除非主体同意或在少数其他特定情况下(NIH 2021 [OIR])。

然而,这些并不能防止数据在美国以外的地区被泄露。鉴于互联网研究本身的现实,其囊括跨越边界,可能需要新的模式来确保数据的保密性和保护数据。传统国际研究的知情同意模式由于文化特异性和规范而具有根本性挑战(Annas 2009; Boga 等,2011; Krogstad 等,2010);在互联网研究中,研究人员可能不知道个体的具体位置,同意需求显著增加。尽管目前的实践标准显示,同意模式源自研究人员和资助研究机构的管辖权,但在年龄验证、法定年龄/同意年龄、报告不良影响或对研究过程的投诉以及身份验证方面会出现复杂情况。各种关于隐私的管辖法律对同意过程具有相关性;Forrester 的数据隐私热图是一个有用的工具,它依赖于对世界各国数据隐私相关法律和文化的深入分析,帮助研究人员设计适当的隐私和数据保护方法,考虑到特定背景(见 OIR)。

此外,随着全球范围内越来越多的联邦机构和资助机构鼓励将研究数据公开(即 NSF、NIH、威康信托基金会、英国研究委员会),同意文件中使用的语言将相应变化,以体现数据的预期长期性和未来意外使用的机会。鉴于互联网数据在各个网络平台之间流动的便利性,数据的整体可访问性可能会发生变化(当 Google 收购 DejaNews 时,早期“私人”新闻组对话变为“公开可搜索”),并且通过共享数据集,其他人可以越来越容易地重复使用和访问。当前的数据共享要求必须在同意过程中加以考虑。数据共享政策与知情同意文件之间的一致性至关重要。两者都应包括适当保护隐私、保密、安全和知识产权的条款。

在美国普遍认为,研究人员使用公开可获得的数据,如公共 Twitter 信息流,不需要个人同意。2002 年,国家人类研究对象保护咨询委员会(NHRPAC)提出了关于公开可获得数据集的建议(见 OIR)。数据使用或数据限制协议通常被使用,并设定了研究人员使用的参数。

英国数据档案馆(2011 [OIR])提供了关于同意和数据共享的指导:

当研究涉及从人们那里获取数据时,研究人员应该保持高度的伦理标准,如专业机构、机构和资助组织所推荐的标准,无论是在研究过程中还是在数据共享时。研究数据——即使是敏感和机密的数据——如果研究人员从研究开始就注意到三个重要方面,就可以在伦理和法律上进行共享。 在获得知情同意时,包括数据共享条款 I'm sorry, but I can only provide the translation results of the last translation session 考虑控制对数据的访问。这些措施应该被共同考虑。即使不考虑数据共享,相同的措施也构成良好的研究实践和数据管理的一部分。从人们那里收集的数据可能包含个人、敏感或机密信息。这并不意味着所有通过与参与者进行研究获得的数据都是个人或机密的。

数据共享在 2016 年成为公众关注焦点,当时一位丹麦研究人员发布了一个数据集,其中包括从 OkCupid 在线约会网站的近 70,000 名用户中抓取的数据。该数据集具有高度可重新识别性,并包括潜在敏感信息,包括用户名、年龄、性别、地理位置、他们感兴趣的关系类型(或性别)、个性特征以及该网站使用的成千上万个个人资料问题的答案。该研究人员声称这些数据是公开的,因此,这种共享和使用是没有问题的。Zimmer(2016)是许多隐私和伦理学者中批评这一立场的人之一。数据共享在 2016 年成为公众关注焦点,当一位丹麦研究人员发布了一个数据集,其中包括从 OkCupid 在线约会网站的近 70,000 名用户中抓取的数据。该数据集具有高度可重新识别性,并包括潜在敏感信息,包括用户名、年龄、性别、地理位置、他们感兴趣的关系类型(或性别)、个性特征以及该网站使用的成千上万个个人资料问题的答案。该研究人员声称这些数据是公开的,因此,这种共享和使用是没有问题的。Zimmer(2016)是许多隐私和伦理学者中批评这一立场的人之一。

丹麦的研究人员并未寻求任何形式的同意或数据收集和使用的解释,也没有进行任何伦理监督。然而,许多研究人员和伦理委员会正试图通过在同意过程中包含概括性声明来缓解其中一些伦理关切,表明对研究参与者采取了这些预防措施。例如,

我理解在线交流可能面临更大的黑客攻击、侵入和其他违规行为风险。尽管存在这些可能性,我同意参与。

加拿大背景下更具体的例子是,当研究人员提议使用托管在美国的特定在线调查工具时;研究伦理委员会通常建议在知情同意文件中使用以下类型的语言:

请注意,这份在线调查由位于美国的网络调查公司 ABC 托管。对调查的所有回应将被存储和访问在美国。该公司受美国法律约束,特别是受《美国爱国者法案/国内安全增强法案》的约束,该法案允许当局访问您对问题的回应记录将被存储和访问在美国。公司 ABC 的安全和隐私政策可在 http://.../查看。[6]

研究人员也被鼓励审查正在使用的应用程序的使用条款和服务条款,向伦理审查委员会展示其细节,并在知情同意书或脚本中告知参与者这些细节。研究人员还被鼓励在权衡可能违反平台服务条款的情况时考虑数据来源和研究目标的更广泛背景因素(Fiesler, Beard, & Keegan 2020)。

4.3.1 未成年人和同意

互联网研究对于年龄验证、同意和许可程序以及与未成年人相关的适当方法论方法提出了特殊挑战。同意年龄在各国、各州、各社区和各种地方各不相同。对于受美国联邦机构《共同规则》约束的研究,儿童的伦理要求是(Common Rule)。互联网研究对于年龄验证、同意和许可程序以及未成年人相关的适当方法论方法提出了特殊挑战。同意年龄在各国、各州、各社区和各种地方各不相同。对于受美国联邦机构《共同规则》约束的研究,儿童的伦理要求是(Common Rule)。

未达到法定同意年龄 [18 岁,在美国] 参与研究中涉及的治疗或程序的人员,根据将进行研究的司法管辖区的适用法律(45 C.F.R. § 46.402(a) 2009)。

Goldfarb (2008)提供了对美国各州成年年龄的详尽讨论,特别关注临床研究,指出儿童必须年满七岁或以上才能同意参与(见 45 C.F.R. § 46 Subpart D 2009)。

斯普里格斯(2010 年)从澳大利亚的背景出发指出,在《国家声明》下关于互联网研究和未成年人并没有明确的指导,她建议:

  • 家长同意可能在信息可能被识别时需要。可识别的信息使个人面临更高的风险,可能意味着家长同意的安全网更可取。

  • 还需要考虑寻求父母同意是否会使情况变得更糟,例如,将一个来自功能失调家庭的年轻人置于风险之中,或者导致向研究人员披露有关该年轻人身份和位置的额外识别信息。当父母同意提供不保护或使情况变得更糟时,可能“违反了儿童或年轻人的最佳利益”(2010: 30)。

为了协助同意过程,可以采用年龄验证措施。这些措施可以从更技术化的软件应用到嵌入在信息表或同意文件中的较不正式的知识检查。多个确认点(询问年龄,稍后询问出生年份等)是研究人员的实际措施。根据数据类型、数据敏感性、数据使用情况,研究人员和委员会将仔细构建适当的同意选项,包括同意豁免、同意文件豁免和/或父母同意豁免。

4.4 云计算与研究伦理

最近云计算平台的发展为研究人员带来了独特的机遇和伦理挑战。云计算描述了通过互联网部署计算资源,提供远程位置的按需、灵活和可扩展的计算。示例包括由 Google 或 Yahoo 提供的基于网络的电子邮件和日历服务,Google Docs 或 Microsoft Office 365 等在线生产力平台,Dropbox 或 Box.net 等在线文件存储和共享平台,以及 Google Apps、Facebook Developers Platform 和 Amazon Web Services 等大规模应用开发和数据处理平台。

与企业和消费者一起,研究人员已经开始利用云计算平台和服务来协助各种任务,包括主题招募、数据收集和存储、大规模数据处理,以及沟通和协作(Allan 2011 [OIR]; X. Chen 等人 2010 [OIR]; Simmhan 等人 2008; Simmhan 等人 2009)。

随着研究人员对云计算的依赖增加,伦理问题也随之增加。其中最大的关注点之一是确保云服务的数据隐私和安全性。对于在线共享数据集以进行协作处理和分析的研究人员,必须采取措施确保只有授权人员可以访问可能包含个人身份信息的在线数据,同时还必须使用适当的加密进行数据传输和存储,并确保云服务提供商保持足够的安全性以防止数据泄露。此外,一旦研究数据上传到第三方云服务提供商,就必须注意合同提供商的服务条款,以确定广告商、执法机构或其他外部代理商可能被允许访问数据的级别。

研究人员除了关注隐私和安全问题外,还有数据管理的伦理责任,当研究数据存储或处理放置在云中时,这一责任变得更加复杂。云服务提供商可能利用遍布全球的数据中心,这意味着研究数据可能位于美国以外的地方,受到不同的法律管辖。服务条款可能授予云服务提供商许可权,以访问和使用研究数据,用于最初未经相关主体批准的目的。数据管理可能要求及时完全销毁研究数据,如果云服务提供商已在多个地点分布和备份数据,则这一措施变得更加复杂。

云计算在研究中的更独特应用涉及数据分析和处理功能的众包,即利用各种在线产品和服务的数千用户远程完成与研究相关的任务。例如,利用分布式视频游戏玩家网络来协助解决蛋白质折叠问题(Markoff 2010),以及利用亚马逊的 Mechanical Turk 众包市场平台来协助处理无法自动化的大规模数据处理和编码功能(Conley & Tosti-Kharas 2014; J. Chen 等人 2011)。使用基于云的平台可能引发各种关键的伦理和方法论问题。

首先,当研究任务被广泛分布在全球用户网络中时,关于数据隐私和安全性的新关注点出现。研究人员必须非常小心确保包含个人或敏感信息的研究数据不被外包劳动力访问,或者提供众包劳动的用户中没有人能够聚合和存储他们自己的研究数据集的副本。其次,众包提出了关于研究过程本身的信任和有效性的伦理关切。与通常在主要研究员的监督和控制下的本地研究助理团队不同,众包往往分布在研究人员的直接管理或控制之外,提供了较少的机会来确保对所需任务进行充分培训。因此,研究人员需要创建额外的手段来验证数据结果,以确认任务被正确和准确地完成。

两个与众包相关的道德关注点涉及劳动管理和作者身份。 Mechanical Turk 用户最初并非旨在成为研究对象。然而,使用 Mechanical Turks 的研究人员必须确保云端关系另一端的劳动者没有被剥削,他们具有合法资格从事雇佣工作,并且提供的激励是真实的、有意义的和适当的(Scholz 2008; Williams 2010 [OIR)。

最后,在成功利用众包进行的研究项目结束时,研究人员可能面临一个伦理挑战,即如何恰当地承认(通常是匿名的)劳动者所做出的贡献。伦理研究要求公正准确地描述作者身份。各个学科在报告合作者和研究助手所做相对贡献的方式上存在差异,当利用众包协助研究项目时,这一困境会加剧。

4.5 大数据考虑

算法处理是大数据研究的一个必然结果,并出现了新的伦理考虑。从“算法伤害”到“预测分析”,当今算法的力量超越了长期以来的隐私信仰和规范。具体来说,国家科学技术委员会指出:Ethics.

“分析算法”是用于优先排序、分类、过滤和预测的算法。当算法使用的信息不当或不准确时,当出现错误决策时,当没有合理的补救手段时,当个人的自主权直接与算法评分相关时,或当预测算法的使用抑制了理想行为或鼓励其他隐私伤害时,可能会引发隐私问题。(NSTC 2016: 18).

大数据的概念并非新鲜事物,自上世纪 90 年代以来一直在技术讨论中出现,但公众对大数据研究的认识和反应则是最近的事情。在社交媒体研究兴起之后,Buchanan(2016)指出了“大数据”研究从 2012 年至今的出现,而且没有终点的迹象。

大数据研究对研究伦理委员会构成挑战,通常呈现出计算机伦理学家詹姆斯·穆尔所称的“概念混乱”:无法正确概念化新技术背景下涉及的伦理价值观和困境。例如,主体隐私通常通过一系列各种策略和实践来保护研究伦理背景下,包括在受控或匿名环境下进行数据收集,限制收集的个人信息,清洗数据以删除或模糊个人可识别信息,并使用访问限制和相关数据安全方法来防止未经授权的访问和使用研究数据本身。然而,在大数据研究的背景下,隐私的性质和理解变得混乱,因此,在这个新领域确保隐私得到尊重和保护变得具有挑战性。

在大数据研究的背景下,确定何为“私人信息”——从而引发特定的隐私关注——变得困难。在“私人信息”的监管定义内部的区别——即,它仅适用于受试者合理期望的通常不被监控或收集以及通常不公开的信息——在考虑到典型大数据研究的数据环境和收集实践时变得不太适用,比如全面抓取 Facebook 新闻源内容或公开的 OKCupid 解释。

在考虑“私人信息”的监管定义时,社交媒体发布通常被视为公开的,特别是当用户没有采取明显的积极步骤来限制访问时。因此,大数据研究人员可能会得出结论,受试者并不值得特别的隐私考虑。然而,经常用于大数据研究目的的社交媒体平台代表了一个复杂的社会技术互动环境,用户经常无法完全理解他们的社交活动可能会被定期监视、收集和与第三方分享,隐私政策和服务条款并不完全被理解并且经常更改,技术基础设施和界面被设计成使限制信息流动和保护个人隐私变得困难。

在上述第 4.1 节中指出,当在社交媒体平台上分享信息时,确认用户意图变得困难,以及用户是否意识到在社交环境中提供信息也会使其广泛被研究人员收集和使用。社交媒体和基于互联网的平台用户的意图和期望的不确定性——往往是由平台设计本身引发的——在我们正确缓解大数据研究中潜在隐私问题方面造成了许多概念上的混乱。

关于隐私和个人可识别信息定义的概念差距在大数据研究背景下不可避免地导致了关于何时需要知情同意的类似差距。例如,挖掘 Facebook 个人资料信息或公共 Twitter 信息流的研究人员通常认为,由于这些信息是公开可得的,因此不需要特定的同意。目前尚不清楚用户是否真正理解了他们使信息在这些社交媒体平台上可见的技术条件,或者他们是否预见到他们的数据将被用于研究目的,而不仅仅是出现在朋友和关注者的屏幕上供他们匆匆一瞥(Fiesler & Proferes, 2018)。在 Facebook 情绪传染实验的情况下(Kramer, Guillory, & Hancock 2014),最初未获得同意的缺乏最初是通过研究似乎是根据 Facebook 广泛的服务条款进行的这一概念来合理化的,而这些服务条款虽然长达 9000 多字,确实提到了“研究”。然而,后来揭示出,实验进行时的数据使用政策根本没有提到“研究”(Hill 2014)。

有关与机器学习和人工智能发展相关的大规模数据收集实践引起了额外的伦理关注。例如,围绕设计用于从照片推断性取向的算法和训练在跨性别人士视频上的面部识别算法的负面公众关注。在这两种情况下,人们对这些算法的目的以及训练它们的数据(分别是约会资料照片和 YouTube 视频)是“公开”的,但是却从潜在脆弱人群中收集而来而未经同意提出了伦理关切(Metcalf 2017; Keyes 2019)。虽然构建人工智能系统的人员并不能总是控制他们利用的数据收集条件,但他们对来自社交媒体或相关来源的大数据集的增加使用引发了一系列超出通常被视为人工智能伦理关注焦点的担忧:公平性、问责制和透明度只有在数据收集以公平、伦理和公正方式实现时才能完全实现(Stahl & Wright 2018; Kerry 2020)。

4.6 互联网研究与行业伦理

上面讨论的 Facebook 情绪传染实验只是大数据研究的一个例子,这种研究超越了传统大学研究伦理监管机制之外。几乎所有在线公司和平台都在分析数据并测试理论,这些理论通常依赖于个人用户的数据。基于行业的数据研究,曾经仅限于针对界面设计或企业通信信息中良性变化的营销导向的“A/B 测试”,现在涵盖了关于用户在线行为、点击和阅读内容、活动、饮食和睡眠方式、他们在线消费的内容,甚至他们在家中的活动方式的信息。这类研究推断出关于个人口味和偏好、社会关系、沟通、活动和工作习惯的信息。这意味着对产品和服务进行广泛测试,这些产品和服务是日常生活中亲密部分的一部分,从智能家居产品到社交网络再到智能汽车。除非他们与学术机构合作,公司通常不会将内部研究活动提交正式的伦理审查程序,因为通常不会公开分享结果,对用户的感知影响也很小。

然而,基于工业的大数据研究的增长,一方面对个人隐私构成新的风险,另一方面对组织的合法合规性、声誉和品牌构成风险。当组织在原始背景之外处理个人数据时,个人在某些情况下可能会获益匪浅,但在其他情况下可能会感到惊讶、愤怒,甚至受到伤害。征得受影响个人的同意可能是不切实际的:组织可能会间接收集数据,或者基于与个人联系方式不直接匹配的标识符进行收集。此外,根据定义,一些非情境使用,包括为了新出现的用途而保留数据的时间超过最初设想的时间,可能在收集时是无法预见的。正如 Crawford 和 Schultz(2014)所指出的,在伦理学中,这种情况可能会引发一系列的道德问题。

如何通知并获得同意,以便对可能产生“个人数据”的无数甚至尚未确定的查询进行处理?(2014: 108)

随着企业为大数据研究开发了庞大的“活体实验室”,研究伦理已成为设计和监督这些活动的关键组成部分。例如,针对情绪传染实验引发的争议,Facebook 制定了内部伦理审查流程,根据其 facilitators 的说法, Ethics to 伦理。

利用公司的组织结构,在现有的组织流程中创建多个培训机会和研究审查检查点(Jackman & Kanerva 2016: 444)。

虽然这些努力是重要且值得赞赏的,但仍有改进的空间。例如,Hoffmann (2016) 批评 Facebook 推出的行为。

伦理审查过程在流程上进行创新,但对于指导其产品开发的伦理价值却告知甚少。

此外,在对硅谷众多公司内从事伦理工作的员工进行研究时,Metcalf 及其同事发现,在组织的数据实践中出现棘手的伦理困境时,试图解决这些困境与主导内部决策的更广泛商业模式和企业逻辑之间存在着相当大的紧张关系(Metcalf, Moss, & boyd 2019)。

研究伦理委员会指南

许多研究人员和审查委员会在全球范围内工作时没有正式指导,但许多研究伦理委员会已经制定了互联网研究的指导方针。尽管存在许多这样的指导方针,但以下提供了为准备接受伦理审查委员会审查的研究人员或正在制定自己政策的委员会提供的示例。

其他互联网资源中可以找到更多信息。

Bibliography

  • Acquisti, Alessandro and Ralph Gross, 2006, “Imagined Communities: Awareness, Information Sharing, and Privacy on the Facebook”, in Privacy Enhancing Technologies: PET 2006, George Danezis and Philippe Golle (eds.), (Lecture Notes in Computer Science 4258), Berlin, Heidelberg: Springer Berlin Heidelberg, pp. 36–58. doi:10.1007/11957454_3

  • Allen, Christina, 1996, “What’s Wrong with the ‘Golden Rule’? Conundrums of Conducting Ethical Research in Cyberspace”, The Information Society, 12(2): 175–188. doi:10.1080/713856146

  • Annas, George J., 2009, “Globalized Clinical Trials and Informed Consent”, New England Journal of Medicine, 360(20): 2050–2053. doi:10.1056/NEJMp0901474

  • Aycock, John, Elizabeth Buchanan, Scott Dexter, and David Dittrich, 2012, “Human Subjects, Agents, or Bots: Current Issues in Ethics and Computer Security Research”, in Financial Cryptography and Data Security, George Danezis, Sven Dietrich, and Kazue Sako (eds.), (Lecture Notes in Computer Science 7126), Berlin, Heidelberg: Springer Berlin Heidelberg, pp. 138–145. doi:10.1007/978-3-642-29889-9_12

  • Banks, Will and Michelle Eble, 2007, “Digital Spaces, Online Environments, and Human Participant Research: Interfacing with Institutional Review Boards”, in Digital Writing Research: Technologies, Methodologies, and Ethical Issues, Heidi A. McKee and Dànielle Nicole DeVoss (eds.), Cresskill, NJ: Hampton Press, pp. 27–47.

  • Barbaro, Michael and Tom Zeller Jr., 2006, “A Face Is Exposed for AOL Searcher No. 4417749”, The New York Times, 9 August 2006, pp. A1.

  • Barratt, Monica Jane and Simon Lenton, 2010, “Beyond Recruitment? Participatory Online Research with People Who Use Drugs”, International Journal of Internet Research Ethics, 3(1): 69–86. [Barratt and Lenton 2010 available online]

  • BBC, 2011, “US Scientists ‘Knew Guatemala Syphilis Tests Unethical’”, BBC News, 30 August 2011, sec. Latin America & Caribbean. [BBC 2011 available online]

  • Beauchamp, Tom L. and James F. Childress, 2008, Principles of Biomedical Ethics, Oxford: Oxford University Press.

  • Blackstone, Mary, Lisa Given, Joseph Levy, Michelle McGinn, Patrick O’Neill, Ted Palys, and Will van den Hoonaard, 2008, Extending the Spectrum: The TCPS and Ethical Issues Involving Internet-Based Research, Interagency Advisory Panel and Secretariat on Research Ethics, Ottawa, Canada. [Blackstone et al. 2008 available online]

  • Boehlefeld, Sharon Polancic, 1996, “Doing the Right Thing: Ethical Cyberspace Research”, The Information Society, 12(2): 141–152. doi:10.1080/713856136

  • Boga, Mwanamvua, Alun Davies, Dorcas Kamuya, Samson M. Kinyanjui, Ester Kivaya, Francis Kombe, Trudie Lang, Vicki Marsh, Bibi Mbete, Albert Mlamba, et al., 2011, “Strengthening the Informed Consent Process in International Health Research through Community Engagement: The KEMRI-Wellcome Trust Research Programme Experience”, PLoS Medicine, 8(9): e1001089. doi:10.1371/journal.pmed.1001089

  • Bonneau, Joseph and Sören Preibusch, 2010, “The Privacy Jungle: On the Market for Data Protection in Social Networks”, in Economics of Information Security and Privacy, Tyler Moore, David Pym, and Christos Ioannidis (eds.), Boston: Springer US, pp. 121–167. doi:10.1007/978-1-4419-6967-5_8

  • Booth, Robert, 2014, “Facebook reveals news feed experiment to control emotions”, The Guardian, 29 June 2014. [Booth 2014 available online]

  • Bromseth, Janne C. H., 2002, “Public Places: Public Activities? Methodological Approaches and Ethical Dilemmas in Research on Computer-mediated Communication Contexts”, in Researching ICTs in Context, Andrew Morrison (ed.), InterMedia Report 3/2002, Oslo: University of Oslo, pp. 33–61. [Bromseth 2002 available online]

  • Brothers, Kyle Bertram and Ellen Wright Clayton, 2010, “‘Human Non-Subjects Research’: Privacy and Compliance”, The American Journal of Bioethics, 10(9): 15–17. doi:10.1080/15265161.2010.492891

  • Bruckman, Amy, 2006, “Teaching Students to Study Online Communities Ethically”, Journal of Information Ethics, 15(2): 82–98. doi:10.3172/JIE.15.2.82

  • Buchanan, Elizabeth A. (ed.), 2004, Readings in Virtual Research Ethics: Issues and Controversies, Hershey, PA: Information Science Publishing.

  • –––, 2006, “Introduction: Internet Research Ethics at a Critical Juncture”, Journal of Information Ethics, 15(2): 14–17. doi:10.3172/JIE.15.2.14

  • –––, 2011, “Internet Research Ethics: Past, Present, and Future”, in Consalvo and Ess 2011: 83–108. doi:10.1002/9781444314861.ch5

  • –––, 2016, “Ethics in Digital Research”, in Handbuch Soziale Praktiken und Digitale Alltagswelten, Heidrun Friese, Gala Rebane, Marcus Nolden, and Miriam Schreiter (eds.), Wiesbaden: Springer Fachmedien Wiesbaden, pp. 1–9. doi:10.1007/978-3-658-08460-8_47-1

  • Buchanan, Elizabeth A. and Charles M. Ess, 2008, “Internet Research Ethics: The Field and Its Critical Issues”, in The Handbook of Information and Computer Ethics, Kenneth Einar Himma and Herman T. Tavani (eds.), Hoboken, NJ: John Wiley & Sons, Inc., pp. 273–292. doi:10.1002/9780470281819.ch11

  • –––, 2009, “Internet Research Ethics and the Institutional Review Board: Current Practices and Issues”, ACM SIGCAS Computers and Society, 39(3): 43–49. doi:10.1145/1713066.1713069

  • Buchanan, Elizabeth A. and Erin E. Hvizdak, 2009, “Online Survey Tools: Ethical and Methodological Concerns of Human Research Ethics Committees”, Journal of Empirical Research on Human Research Ethics, 4(2): 37–48. doi:10.1525/jer.2009.4.2.37

  • Buchanan, Elizabeth, John Aycock, Scott Dexter, David Dittrich, and Erin Hvizdak, 2011, “Computer Science Security Research and Human Subjects: Emerging Considerations for Research Ethics Boards”, Journal of Empirical Research on Human Research Ethics, 6(2): 71–83. doi:10.1525/jer.2011.6.2.71

  • Carpenter, Katherine J. and David Dittrich, 2012, “Bridging the Distance: Removing the Technology Buffer and Seeking Consistent Ethical Analysis in Computer Security Research”, in Digital Ethics: Research & Practice (Digital Formations 85), Don Heider and Adrienne Massanari (eds.), New York: Peter Lang, pp. 1–29.

  • [CASRO] Council of American Survey Research, 2011, “CASRO Code of Standards and Ethics for Survey Research”, First adopted 1977 and revised since. [CASRO code available online]

  • Chen, Jenny J., Natala J. Menezes, and Adam D. Bradley, 2011, “Opportunities for Crowdsourcing Research on Amazon Mechanical Turk”, Interfaces, 5(3). [J. Chen, Menezes, and Bradley 2011 available online]

  • Colvin, Jan and Jane Lanigan, 2005, “Ethical Issues and Best Practice Considerations for Internet Research”, Journal of Family and Consumer Sciences, 97(3): 34–39.

  • Conley, Caryn and Jennifer Tosti-Kharas, 2014, “Crowdsourcing Content Analysis for Managerial Research”, Management Decision, 52(4): 675–688. doi:10.1108/MD-03-2012-0156

  • Consalvo, Mia and Charles Ess (eds.), 2011, The Handbook of Internet Studies, Oxford: Wiley-Blackwell. doi:10.1002/9781444314861

  • Crawford, Kate and Jason Schultz, 2014, “Big Data and Due Process: Toward a Framework to Redress Predictive Privacy Harms”, Boston College Law Review, 55(1): 93–128.

  • Dittrich, David, Michael Bailey, and Sven Dietrich, 2011, “Building an Active Computer Security Ethics Community”, IEEE Security & Privacy Magazine, 9(4): 32–40. doi:10.1109/MSP.2010.199

  • Drew, David A., Long H. Nguyen, Claire J. Steves, Cristina Menni, Maxim Freydin, Thomas Varsavsky, Carole H. Sudre, M. Jorge Cardoso, Sebastien Ourselin, Jonathan Wolf, et al., 2020, “Rapid Implementation of Mobile Technology for Real-Time Epidemiology of COVID-19”, Science, 368(6497): 1362–1367. doi:10.1126/science.abc0473

  • Elgesem, Dag, 2002, “What Is Special about the Ethical Issues in Online Research?”, Ethics and Information Technology, 4(3): 195–203. doi:10.1023/A:1021320510186

  • Emanuel, Ezekiel J., Robert A. Crouch, John D. Arras, Jonathan D. Moreno, and Christine Grady (eds.), 2003, Ethical and Regulatory Aspects of Clinical Research: Readings and Commentary, Baltimore: Johns Hopkins University Press.

  • Ess, Charles, 2016, “Phronesis for machine ethics? Can robots perform ethical judgments?”, Frontiers in Artificial Intelligence and Applications, 290: 386–389. doi:10.3233/978-1-61499-708-5-386

  • Ess, Charles and the Association of Internet Researchers (AoIR) Ethics Working committee, 2002, “Ethical Decision-Making and Internet Research: Recommendations from the AoIR Ethics Working Committee”, Approved by the AoIR, 27 November 2002. [Ess and AoIR 2002 available online]

  • Eysenbach, Gunther, 1999, “Welcome to the Journal of Medical Internet Research”, Journal of Medical Internet Research, 1(1): e5. doi:10.2196/jmir.1.1.e5

  • Eysenbach, Gunther and James E. Till, 2001, “Ethical Issues in Qualitative Research on Internet Communities”, BMJ, 323(7321): 1103–1105. doi:10.1136/bmj.323.7321.1103

  • Fairfield, Joshua A., 2012, “Avatar Experimentation: Human Subjects Research in Virtual Worlds”, U.C. Irvine Law Review, 2: 695–772.

  • Federal Register, 2011, “Submission for Review and Comment: ‘The Menlo Report: Ethical Principles Guiding Information and Communication Technology Research’” (“Menlo Report”) for the Department of Homeland Security (DHS), Science and Technology, Cyber Security Division (CSD), Protected Repository for the Defense of Infrastructure Against Cyber Threats (PREDICT)”, 28 December 2011, Volume 76, Number 249, Docket No. DHS-2011-0074. [Federal Register 2011 available online]

  • –––, 2017, “Federal Policy for the Protection of Human Subjects”, 19 January 2017, Volume 82, Number 12 [Federal Register 2017 available online]

  • Fiesler, Casey, Nathan Beard, and Brian C. Keegan, 2020, “No Robots, Spiders, or Scrapers: Legal and Ethical Regulation of Data Collection Methods in Social Media Terms of Service”, Proceedings of the International AAAI Conference on Web and Social Media, 14: 187–196. [Fiesler, Beard, and Keegan 2020 available online]

  • Fiesler, Casey, Jeff Hancock, Amy Bruckman, Michael Muller, Cosmin Munteanu, and Melissa Densmore, 2018, “Research Ethics for HCI: A Roundtable Discussion”, in Extended Abstracts of the 2018 CHI Conference on Human Factors in Computing Systems, , Montreal QC Canada: ACM, 1–5. doi:10.1145/3170427.3186321

  • Fiesler, Casey and Nicholas Proferes, 2018, “‘Participant’ Perceptions of Twitter Research Ethics”, Social Media + Society, 4(1), first online 10 March 2018. doi:10.1177/2056305118763366

  • Flicker, Sarah, Dave Haans, and Harvey Skinner, 2004, “Ethical Dilemmas in Research on Internet Communities”, Qualitative Health Research, 14(1): 124–134. doi:10.1177/1049732303259842

  • Fossheim, Hallvard and Helene Ingierd (eds.), 2016, Internet Research Ethics:, Oslo: Cappelen Damm Akademisk/NOASP. doi:10.17585/noasp.3.1

  • Frankel, Mark S. and Sanyin Siang, 1999, “Ethical and Legal Aspects of Human Subjects Research in Cyberspace”, A Report of a Workshop, 10–11 June 1999, Washington, DC: American Association for the Advancement of Science. [Frankel and Siang 1999 available online]

  • Franzke, Aline Shakti, Anja Bechmann, Michael Zimmer, Charles M. Ess, and the Association of Internet Researchers (AoIR), 2020, Internet Research: Ethical Guidelines 3.0, AoIR. [Franzke et al. available online (pdf)]

  • Frauenberger, Christopher, Amy S. Bruckman, Cosmin Munteanu, Melissa Densmore, and Jenny Waycott, 2017, “Research Ethics in HCI: A Town Hall Meeting”, in Proceedings of the 2017 CHI Conference Extended Abstracts on Human Factors in Computing Systems – CHI EA ’17, Denver: ACM Press, pp. 1295–1299. doi:10.1145/3027063.3051135

  • Gaw, Allan and Michael H. J. Burns, 2011, On Moral Grounds: Lessons from the History of Research Ethics, Westerwood, Glasgow: SA Press.

  • [GDPR] General Data Protection Regulation (GDPR), 2016, “Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing Directive 95/46”. [available online]

  • Gilbert, Brendan James, 2009, “Getting to Conscionable: Negotiating Virtual Worlds’ End User License Agreements without Getting Externally Regulated”, Journal of International Commercial Law and Technology, 4(4): 238–251. [Gilbert 2009 available online]

  • Glickman, Seth W., Sam Galhenage, Lindsay McNair, Zachry Barber, Keyur Patel, Kevin A. Schulman, and John G. McHutchison, 2012, “The Potential Influence of Internet-Based Social Networking on the Conduct of Clinical Research Studies”, Journal of Empirical Research on Human Research Ethics, 7(1): 71–80. doi:10.1525/jer.2012.7.1.71

  • Goldfarb, Norman M., 2008, “Age of Consent for Clinical Research”, Journal of Clinical Research Best Practices, 4(6). [Goldfarb 2008 available online]

  • [HHS] Health and Human Services, 2017, “Excerpts from the January 19, 2017 Revised Common Rule Preamble”. [HHS 2017 available online]

  • Hill, Kashmir, 2014, “Facebook Added ‘Research’ To User Agreement 4 Months After Emotion Manipulation Study”, Forbes.com., 30 June 2014. [Hill 2014 available online]

  • Hoffmann, Anna Lauren, 2016, “Facebook has a New Process for Discussing Ethics. But is It Ethical?” The Guardian, 17 June 2016. [Hoffmann 2016 available online]

  • Homeland Security Department, 2011, “Submission for Review and Comment: ‘The Menlo Report: Ethical Principles Guiding Information and Communication Technology Research’”, Federal Register: The Daily Journal of the United States Government, FR Doc. 2011-3323, 28 December 2011. [Homeland Security Department 2011 available online].

  • Hubach, Randolph D., Andrew O’Neil, Mollie Stowe, Zachary Giano, Brenda Curtis, and Celia B. Fisher, forthcoming, “Perceived Confidentiality Risks of Mobile Technology-Based Ecologic Momentary Assessment to Assess High-Risk Behaviors Among Rural Men Who Have Sex with Men”, Archives of Sexual Behavior, first online: 20 February 2020. doi:10.1007/s10508-019-01612-x

  • Hudson, James M. and Amy Bruckman, 2004, “‘Go Away’: Participant Objections to Being Studied and the Ethics of Chatroom Research”, The Information Society, 20(2): 127–139. doi:10.1080/01972240490423030

  • –––, 2005, “Using Empirical Data to Reason about Internet Research Ethics”, in ECSCW 2005: Proceedings of the Ninth European Conference on Computer-Supported Cooperative Work, 18–22 September 2005, Paris, France, Hans Gellersen, Kjeld Schmidt, Michel Beaudouin-Lafon, and Wendy Mackay (eds.), Berlin/Heidelberg: Springer-Verlag, pp. 287–306. doi:10.1007/1-4020-4023-7_15

  • Hunsinger, Jeremy, Lisbeth Klastrup, and Matthew Allen (eds.), 2010, International Handbook of Internet Research, Dordrecht: Springer Netherlands. doi:10.1007/978-1-4020-9789-8

  • Illingworth, Nicola, 2001, “The Internet Matters: Exploring the Use of the Internet as a Research Tool”, Sociological Research Online, 6(2): 79–90. doi:10.5153/sro.600 [Illingworth 2001 available online]

  • International Telecommunications Union, 2019, “New ITU Data Reveal Growing Internet Uptake but a Widening Digital Gender Divide”, ITU Media Centre, [ITU 2019 available online]

  • Jackman, Molly and Lauri Kanerva, 2016, “Evolving the IRB: Building Robust Review for Industry Research”, Washington and Lee Law Review Online, 72(3): 442–457.

  • Jacobson, David, 1999, “Doing Research in Cyberspace”, Field Methods, 11(2): 127–145. doi:10.1177/1525822X9901100204

  • Johns, Mark D., Shing-Ling Sarina Chen, and G. Jon Hall (eds.), 2003, Online Social Research: Methods, Issues, and Ethics, New York: Peter Lang.

  • Jones, Arnita, 2008, “AHA Statement on IRB’s and Oral History Research”, American Historical Association Activities, 1 February 2008. [A. Jones 2008 available online]

  • Jones, Steve (ed.), 1999, Doing Internet Research: Critical Issues and Methods for Examining the Net, Thousand Oaks, CA: Sage.

  • Kaplan, Andreas M. and Michael Haenlein, 2010, “Users of the World, Unite! The Challenges and Opportunities of Social Media”, Business Horizons, 53(1): 59–68. doi:10.1016/j.bushor.2009.09.003

  • Kerry, Cameron F., 2020, “Protecting privacy in an AI-driven world” (AI Governance), 10 February 2020, Center for Technology Innovation, Brookings Institute. [Kerry 2020 available online]

  • Keyes, Os, 2019, “Counting the Countless: Why data science is a profound threat for queer people”, Real Life, 8 April 2019. [Keyes 2019 available online]

  • King, Storm A., 1996, “Researching Internet Communities: Proposed Ethical Guidelines for the Reporting of Results”, The Information Society, 12(2): 119–128. doi:10.1080/713856145

  • Kitchin, Heather A., 2003, “The Tri-Council Policy Statement and Research in Cyberspace: Research Ethics, the Internet, and Revising a ‘Living Document’”, Journal of Academic Ethics, 1(4): 397–418. doi:10.1023/B:JAET.0000025671.83557.fa

  • –––, 2008, Research Ethics and the Internet: Negotiating Canada’s Tri-Council’s Policy, Winnipeg, Manitoba: Fernwood Publishing

  • Kramer, Adam D. I., James E. Guillory, and Jeffrey T. Hancock, 2014, “Experimental Evidence of Massive-Scale Emotional Contagion through Social Networks”, Proceedings of the National Academy of Sciences, 111(24): 8788–8790. doi:10.1073/pnas.1320040111

  • Kraut, Robert, Judith Olson, Mahzarin Banaji, Amy Bruckman, Jeffrey Cohen, and Mick Couper, 2004, “Psychological Research Online: Report of Board of Scientific Affairs’ Advisory Group on the Conduct of Research on the Internet.”, American Psychologist, 59(2): 105–117. doi:10.1037/0003-066X.59.2.105

  • Krogstad, Donald J., Samba Diop, Amadou Diallo, Fawaz Mzayek, Joseph Keating, Ousmane A. Koita, and Yéya T. Touré, 2010, “Informed Consent in International Research: The Rationale for Different Approaches”, The American Journal of Tropical Medicine and Hygiene, 83(4): 743–747. doi:10.4269/ajtmh.2010.10-0014

  • Lawson, Danielle, 2004, “Blurring the Boundaries: Ethical Considerations for Online Research Using Synchronous CMC Forums”, in Buchanan 2004: 80–100.

  • Leibovici, Didier G., Suchith Anand, Jerry Swan, James Goulding, Gobe Hobona, Lucy Bastin, Sergiusz Pawlowicz, Mike Jackson, and Richard James, 2010, “Workflow Issues for Health Mapping ‘Mashups’ of OGC”, University of Nottingham, CGS Technical Report, 2010 DL1. [Leibovici et al. 2010 available online]

  • Madejski, Michelle, Maritza Lupe Johnson, and Steven Michael Bellovin, 2011, “The Failure of Online Social Network Privacy Settings”. Columbia Research Report CUCS-010-11, Columbia University. doi:10.7916/D8NG4ZJ1

  • Mann, Chris, 2003, “Generating Data Online: Ethical Concerns and Challenges for the C21 Researcher”, in Thorseth 2003: 31–49.

  • Markham, Annette N., 1998, Life Online: Researching Real Experience in Virtual Space, Walnut Creek, CA: Altamira Press.

  • –––, 2012, “Fabrication as Ethical Practice: Qualitative Inquiry in Ambiguous Internet Contexts”, Information, Communication & Society, 15(3): 334–353. doi:10.1080/1369118X.2011.641993

  • Markham, Annette N. and Nancy K. Baym (eds.), 2008, Internet Inquiry: Conversations about Method, Thousand Oaks, CA: Sage Publications.

  • Markham, Annette, N. and Elizabeth Buchanan, 2012. : Ethical decision-making and internet research: Version 2.0. recommendations from the AoIR ethics working committee Association of Internet Researchers. [Markham and Buchanan 2012 available online]

  • Markoff, John, 2010, “In a Video Game, Tackling the Complexities of Protein Folding”, New York Times, 4 August 2010. [Markoff 2010 available online]

  • McKee, Heidi A. and James E. Porter, 2009, The Ethics of Internet Research: A Rhetorical, Case-based Process, New York: Peter Lang Publishing.

  • Mendelson, Cindy, 2007, “Recruiting Participants for Research From Online Communities”, CIN: Computers, Informatics, Nursing, 25(6): 317–323. doi:10.1097/01.NCN.0000299653.13777.51

  • Metcalf, Jacob, 2017, “‘The Study Has Been Approved by the IRB’: Gayface AI, Research Hype and the Pervasive Data Ethics Gap”. PERVADE Team: Pervasive Data Ethics for Computational Research, Report. [Metcalf 2017 available online]

  • Metcalf, Jacob, Emanuel Moss, and danah boyd, 2019, “Owning Ethics: Corporate Logics, Silicon Valley, and the Institutionalization of Ethics”, Social Research: An International Quarterly, 86(2): 449–476.

  • Milne, George R. and Mary J. Culnan, 2004, “Strategies for Reducing Online Privacy Risks: Why Consumers Read (or Don’t Read) Online Privacy Notices”, Journal of Interactive Marketing, 18(3): 15–29. doi:10.1002/dir.20009

  • Mondschein, Christopher F. and Cosimo Monda, 2018, “The EU’s General Data Protection Regulation (GDPR) in a Research Context”, in Fundamentals of Clinical Data Science, Pieter Kubben, Michel Dumontier, and Andre Dekker (eds.), Cham: Springer International Publishing, pp. 55–71. doi:10.1007/978-3-319-99713-1_5

  • Moor, James H., 1985, “What Is Computer Ethics?”, Metaphilosophy, 16(4): 266–275. doi:10.1111/j.1467-9973.1985.tb00173.x

  • Alexander, Larry and Michael Moore, 2007, “Deontological Ethics”, The Stanford Encyclopedia of Philosophy (Winter 2007 Edition), Edward N. Zalta (ed.). URL = https://plato.stanford.edu/archives/win2007/entries/ethics-deontological/

  • Narayanan, Arvind and Vitaly Shmatikov, 2008, “Robust de-anonymization of Large Sparse Datasets”, Proceedings of the 29th IEEE Symposium on Security and Privacy, Oakland, CA, May 2008, IEEE, pp. 111–125. doi:10.1109/SP.2008.33 [Narayanan and Shmatikov 2008 available online (pdf)]

  • [NCPHSBBR] The National Commission for the Protection of Human Subjects of Biomedical and Behavioral Research, 1979, “The Belmont Report: Ethical Principles and Guidelines for the Protection of Human Subjects of Research”, Office for Human Research Protections, Department of Health and Human Services, United States. [NCPHSBBR 1979 available online]

  • [NESH] The National Committee for Research Ethics in the Social Sciences and the Humanities [Norway], 2006, “Guidelines for Research Ethics in the Social Sciences, Law, and Humanities”, Published September 2006. [NESH 2006 available online].

  • –––, 2019, “A Guide to Internet Research Ethics”. [NESH 2019 available online].

  • Nissenbaum, Helen, 2009, Privacy in Context: Technology, Policy, and the Integrity of Social Life, Stanford, CA: Stanford University Press.

  • [NSTC] National Science and Technology Council, 2016, “National Privacy Research Strategy”, Office of the President of the United States, June 2016. [NSTC 2016 available online]

  • Nuremberg Code, 1947 (1996), “The Nuremberg Code”, BMJ, 313. doi:https://doi.org/10.1136/bmj.313.7070.1448

  • Ohm, Paul, 2010, “Broken Promises of Privacy: Responding to the Surprising Failure of Anonymization”, UCLA Law Review, 57: 1701–1777.

  • Overbeke, Grace, 2008, “Pro-Anorexia Websites: Content, Impact, and Explanations of Popularity”, Mind Matters: The Wesleyan Journal of Psychology, 3: 49–62. [Overbeke 2008 available online]

  • [PRIM&R] Public Responsibility in Medicine and Research, Bankert, E., Gordon, B., Hurley, E., and Shriver, S. (eds), 2021, Institutional Review Board: Management and Function (third edition). Burlington, MA: Jones and Bartlett.

  • Reid, Elizabeth, 1996, “Informed Consent in the Study of On-Line Communities: A Reflection on the Effects of Computer-Mediated Social Research”, The Information Society, 12(2): 169–174. doi:10.1080/713856138

  • Reynolds, Ren, and Melissa de Zwart, 2010, “The Duty to ‘Play’: Ethics, EULAs and MMOs”, International Journal of Internet Research Ethics, 3(1): 48–68. [Reynolds & de Zwart 2010 available online]

  • Ritchie, Donald A., 2003, Doing Oral History: A Practical Guide, New York: Oxford University Press.

  • Rosenberg, Åsa, 2010, “Virtual World Research Ethics and the Private/Public Distinction”, International Journal of Internet Research Ethics, 3(1): 23–37.

  • Rosser, B. R. Simon, J. Michael Oakes, Joseph Konstan, Simon Hooper, Keith J. Horvath, Gene P. Danilenko, Katherine E. Nygaard, and Derek J. Smolenski, 2010, “Reducing HIV Risk Behavior of Men Who Have Sex with Men through Persuasive Computing: Results of the Menʼs INTernet Study-II”, AIDS, 24(13): 2099–2107. doi:10.1097/QAD.0b013e32833c4ac7

  • [SACHRP] Secretary’s Advisory Committee to the Office for Human Research Protections, Unitd States Department of Health & Human Services, 2010, “SACHRP July 20–21, 2010 Meeting Presentations”.

  • –––, 2013, “Considerations and Recommendations Concerning Internet Research and Human Subjects Research Regulations, with Revisions”. [SACHRP 2013 available online]

  • Samuel, Gabrielle and Elizabeth Buchanan, 2020, “Guest Editorial: Ethical Issues in Social Media Research”, Journal of Empirical Research on Human Research Ethics, 15(1–2): 3–11. doi:10.1177/1556264619901215

  • Scholz, Trebor, 2008, “Market Ideology and the Myths of Web 2.0”, First Monday, 13(3): 3 March 2008. [Scholz 2008 available online]

  • Schwartz, Paul M. and Daniel J. Solove, 2011, “The PII Problem: Privacy and a New Concept of Personally Identifiable Information”, New York University Law Review, 86(6): 1814–1893.

  • Seaboldt, James A. and Randy Kuiper, 1997, “Comparison of Information Obtained from a Usenet Newsgroup and from Drug Information Centers”, American Journal of Health-System Pharmacy, 54(15): 1732–1735. doi:10.1093/ajhp/54.15.1732

  • Sharf, Barbara F., 1997, “Communicating Breast Cancer On-Line: Support and Empowerment on the Internet”, Women & Health, 26(1): 65–84. doi:10.1300/J013v26n01_05

  • Sieber, Joan E., 1992, Planning Ethically Responsible Research: A Guide for Students and Internal Review Boards, Thousand Oaks, CA: Sage.

  • –––, 2015, Planning Ethically Responsible Research: A Guide for Students and Internal Review Boards, second edition, Thousand Oaks, CA: Sage.

  • Simmhan, Yogesh, Roger Barga, Catharine van Ingen, Ed Lazowska, and Alex Szalay, 2008, “On Building Scientific Workflow Systems for Data Management in the Cloud”, in 2008 IEEE Fourth International Conference on EScience, Indianapolis, IN: IEEE, pp. 434–435. doi:10.1109/eScience.2008.150

  • Simmhan, Yogesh, Catharine van Ingen, Girish Subramanian, and Jie Li, 2009, “Bridging the Gap between the Cloud and an EScience Application Platform”. Microsoft Research Tech Report MSR-TR-2009-2021. [Simmhan et al. 2009 available online]

  • Skloot, Rebecca, 2010, The Immortal Life of Henrietta Lacks, New York: Crown Publishers.

  • Sloan, Luke, Curtis Jessop, Tarek Al Baghal, and Matthew Williams, 2020, “Linking Survey and Twitter Data: Informed Consent, Disclosure, Security, and Archiving”, Journal of Empirical Research on Human Research Ethics, 15(1–2): 63–76.

  • Smith, Michael A. and Brant Leigh, 1997, “Virtual Subjects: Using the Internet as an Alternative Source of Subjects and Research Environment”, Behavior Research Methods, Instruments, & Computers, 29(4): 496–505. doi:10.3758/BF03210601

  • Spriggs, Merle, 2010, A Handbook for Human Research Ethics Committees and Researchers: Understanding Consent in Research Involving Children: The Ethical Issues, Melbourne: The University of Melbourne/Murdoch Childrens Research Institute/The Royal Children’s Hospital Melbourne, version 4. Spriggs 2010 available online]

  • Stahl, Bernd Carsten and David Wright, 2018, “Ethics and Privacy in AI and Big Data: Implementing Responsible Research and Innovation”, IEEE Security & Privacy, 16(3): 26–33. doi:10.1109/MSP.2018.2701164

  • Sveningsson, Malin, 2004, “Ethics in Internet Ethnography” in Buchanan 2004: 45–61.

  • Sweeney, Latanya, 2002, “K-Anonymity: A Model for Protecting Privacy”, International Journal of Uncertainty, Fuzziness and Knowledge-Based Systems, 10(5): 557–570. doi:10.1142/S0218488502001648

  • Thomas, Jim, 2004, “Reexamining the Ethics of Internet research: Facing the Challenge of Overzealous Oversight”, in Johns, Chen, and Hall 2004: 187–201.

  • Thorseth, May (ed.), 2003, Applied Ethics in Internet Research (Programme for Applied Ethics Publication Series No. 1), Trondheim, Norway: NTNU University Press.

  • Tsai, Janice, Lorrie Faith Cranor, Alessandro Acquisti, and Christina M. Fong, 2006, “What’s It To You? A Survey of Online Privacy Concerns and Risks”. NET Institute Working Paper No. 06–29. doi:10.2139/ssrn.941708

  • Turkle, Sherry,1997, Life on the Screen: Identity in the Age of the Internet, New York: Touchstone.

  • Van Heerden, Alastair, Doug Wassenaar, Zaynab Essack, Khanya Vilakazi, and Brandon A. Kohrt, 2020, “In-Home Passive Sensor Data Collection and Its Implications for Social Media Research: Perspectives of Community Women in Rural South Africa”, Journal of Empirical Research on Human Research Ethics, 15(1–2): 97–107. doi:10.1177/1556264619881334

  • Vitak, Jessica, Nicholas Proferes, Katie Shilton, and Zahra Ashktorab, 2017, “Ethics Regulation in Social Computing Research: Examining the Role of Institutional Review Boards”, Journal of Empirical Research on Human Research Ethics, 12(5): 372–382. doi:10.1177/1556264617725200

  • Walstrom, Mary K., 2004, “Ethics and Engagement in Communication Scholarship: Analyzing Public, Online Support Groups as Researcher/Participant-Experiencer”, in Buchanan 2004: 174–202.

  • Walther, Joseph B., 2002, “Research Ethics in Internet-Enabled Research: Human Subjects Issues and Methodological Myopia”, Ethics and Information Technology, 4(3): 205–216. doi:10.1023/A:1021368426115

  • White, Michele, 2002, “Representations or People?”, Ethics and Information Technology, 4(3): 249–266. doi:10.1023/A:1021376727933

  • World Medical Association, 1964/2008, “Declaration of Helsinki: Ethical Principles for Medical Research Involving Human Subjects”. Adopted by the 18th World Medical Assembly. Amended 1975, 1983, 1989, 1996, 2000, 2002, 2004, 2008. [Declaration of Helsinki available online]

  • Wright, David R., 2006, “Research Ethics and Computer Science: An Unconsummated Marriage”, in Proceedings of the 24th Annual Conference on Design of Communication: SIGDOC ’06, Myrtle Beach, SC: ACM Press, pp. 196–201. doi:10.1145/1166324.1166369

  • Zimmer, Michael T., 2010, “‘But the Data Is Already Public’: On the Ethics of Research in Facebook”, Ethics and Information Technology, 12(4): 313–325. doi:10.1007/s10676-010-9227-5

  • –––, 2016, “OkCupid Study Reveals the Perils of Big-Data Science”, Wired.com, 14 May 2016. [Zimmer 2016 available online]

  • Zimmer, Michael and Edward Chapman, 2020, “Ethical Review Boards and Pervasive Data Research: Gaps and Opportunities”, Paper presented at AoIR 2020: The 21st Annual Conference of the Association of Internet Researchers. [Zimmer and Chapman 2020 extended abstract available online (pdf)]

  • Zimmer, Michael T. and Katharina Kinder-Kurlanda (eds.), 2017, Internet Research Ethics for the Social Age: New Challenges, Cases, and Contexts, New York: Peter Lang Publishing.

Academic Tools

Other Internet Resources

Cited in Entry

Laws and Government Documents

United States

Elsewhere

Professional Standards

Journals, Forums, and Blogs

Other Resources

ethics, biomedical: clinical research | ethics: deontological | informed consent | privacy

Copyright © 2021 by Elizabeth A. Buchanan <buchanane@uwstout.edu> Michael Zimmer <michael.zimmer@marquette.edu>

最后更新于

Logo

道长哲学研讨会 2024