原文始发于微信公众号(瑞中法协):被 “窥视” 的热像仪
热像仪和《通用数据保护条例》第22条介绍:新型冠状病毒肺炎疫情期间的研究分析和自动决策

目前,防止新型冠状病毒肺炎传播最常用的体温测量方法是使用标准体温计。然而,由于病毒快速传播的特性,现在大批的人使用热像仪作为一种检测感染的有效方法。例如,亚马逊(Amazon)已经在仓库里通过热像仪测量员工的体温。克罗地亚共和国的法律机构正在推动类似的解决办法。目前,普拉综合医院正在安装两个热像仪。克罗地亚的其他医院也在制定类似的计划。我们必须问问自己,这种普遍数字化会产生多大的影响,以及对于我们隐私和基本人权健康数据的后续处理的影响是怎样的。这种类型的自动数据分析的主要问题是什么?它们与欧盟《通用数据保护条例》(GDPR)规定的公民权利有怎样的冲突?

《通用数据保护条例》规范框架在处理自然人个人数据时对数据控制器和数据处理器规定了许多义务。控制器负责从法律上处理个人数据的技术和组织措施以及许多其他义务。控制器和处理器必须履行额外的义务,大流行病等特殊情况加剧了处理的复杂性,健康数据方面尤甚。《通用数据保护条例》第4条将有关健康的数据定义为:”与自然人的身体或精神健康有关的个人数据,包括提供的医疗服务数据揭示了有关其健康状况的信息”。
然而,新型冠状病毒肺炎疫情为在特殊情况下处理个人数据的法律依据带来了困难。根据《通用数据保护条例》,个人资料处理的基本原则是必须合法,不论外界因素的影响。在大流行病期间处理个人资料的法律依据见《通用数据保护条例》第6条和第9条。
随着病毒的传播,欧洲数据保护委员会(EDPB)和国家监管机构迅速采取了行动。2020年3月20日,欧洲数据保护委员会发表了一项声明,其中承认《通用数据保护条例》第6条和第9条是在大流行病期间处理个人数据的相关法律基础。只要特殊情况继续存在,处理过程将是:
-
“必要的,从而保护数据的切身利益主体或另一个自然人,从而根据公共利益或行使赋予控制器权力的必然要求,以及满足控制器或第三方所需的合法利益追求的目的。”
然而,由于某些数据类别比其他数据类别更为敏感,通常禁止对其进行处理。比如显示种族或民族出身、政治观点、宗教或哲学信仰以及工会会员资格的个人资料。还包括基因数据,为唯一确定自然人身份而使用的生物特征数据,关于健康的数据或关于自然人性生活或性行为的数据。然而,非常情况需要采取非常的措施。因此,《通用数据保护条例》第9条规定,在某些情况下可以处理个人健康数据。如果“根据欧盟或成员国法律,出于重大公共利益的原因,有必要对数据进行处理”。以下情况也是允许处理的:
-
“为预防医学或职业医学的目的,为评估雇员的工作能力、医疗诊断、提供保健或社会护理或治疗,或根据工会或成员国法律进行医疗护理系统和服务管理”。
此外,如果处理“保护健康不受严重的跨境威胁,或确保医疗保健和医药产品或医疗器械的高质量和安全标准”,则可以进行处理。只要这个处理遵循欧盟或成员国的法律。
如上所述,使用温度计测量是当前处理健康数据的基本方式。目前,克罗地亚用体温计测量体温的工作严格以个人为单元进行,根据数据储存限制的原则,收集的数据不储存或只储存较短的时间。与所有个人健康数据一样,通常测量体温的法律依据可在《通用数据保护条例》第6条和第9条中找到,这为此方法提供了充分和灵活的法律依据。

为了加快抗击病毒,一些专家建议使用热像仪检测发烧。热像仪在这里至少有两种不同的用途。它们可以
-
a)快速检测出体温较高的人,
-
b)将这些数据对象分为特定的类别,如 “潜在感染者 “或 “未感染者”。
然而,在我们的日常生活中过度引入热像仪,有可能触发《通用数据保护条例》第22条。该条例涉及到与自动决策相结合时对数据主体的研究剖析。第22条的标题是:“自动化的个人决策,包括研究剖析”。它指出:”数据主体应有权不接受完全基于自动处理的决定,包括对其产生法律效力或对其产生类似重大影响的研究剖析”。
关于特殊类别个人资料的处理,第22条包含处理这些资料的一般性禁令。对第9条和第22条进行简单的分析,可以得出如下结论。第9条有关特定类别的敏感个人数据,而第22条有关我们如何处理数据以及我们就处理的数据作出决定的方式。这可能包括 “常规 “的个人资料,但也包括那些属于特殊类别的资料。重要的是确定其第22条的构成部分:首先是研究剖析,其次是自动个人决策。帮助起草《通用数据保护条例》的第29条工作组(A29WP)在其一项建议中也提到了第22条,提到了科学界的反响。这些反响认为,第22条自发布以来就存在疑虑。《通用数据保护条例》对 “研究剖析 “的定义是:
“对个人数据的任何形式的自动处理,包括使用个人数据评估与自然人有关的某些个人方面,特别是分析或预测与该自然人的工作表现、经济状况、健康、个人喜好、兴趣、可靠性、行为、位置或行动有关等方面”。
定义中可提取的构成要素很少。其构成要素是:
-
a) 研究剖析必须是自动的,
-
b) 研究剖析必须是对个人数据进行的,
-
c) 研究剖析的目标必须是评价个人的某些方面。动词 “评价” 的使用表明,研究剖析涉及对一个人的某种形式的评估或判断。然而,情况并非总是如此。重要的是,要逐一处理每个案例,评估是否发生了研究剖析。
自动化的个人决策是一个不同的概念,值得单独解释。第29条工作组将个人自动决策定义为 “在没有人参与的情况下,通过技术手段做出决定的能力“。简单来说,我们让人工智能在处理我们的个人数据的基础上,做出决策并产生输出,以达到特定目的。虽然研究剖析和个体自动决策是不同的概念,但它们往往是相辅相成的。《通用数据保护条例》以下列方式处理上述概念。(a) 一般研究剖析,(b) 基于研究剖析的决策,(c) 全自动决策,包括研究剖析;(b)和(c)的区别在于研究剖析。决策是由人完成的,而如果是完全自动化的决策,包括研究剖析,则是由人工智能完成的。我们认为,在抗击冠状病毒的过程中引入热像仪,很可能会触发第22条。
如果我们不被允许充分发挥数字技术的潜力,通过数字技术追求效率和增长就没有意义。因此,热像仪的应用,如果没有后续的软件解决方案,将导致自动决策和研究剖析,那它不会是目前最有效的数据处理手段。鉴于效率是成功战胜这场大流行病的关键,行动方案是显而易见的。如上所述,一般禁止根据第22条处理个人数据。然而,该条第2款允许在以下情况下处理个人数据:
-
(a) “为订立或履行数据主体与数据控制者之间的合同时是必要的”,或
-
(b) “经联盟或成员国法律授权,控制器受其约束,并规定了适当的措施,以保障数据主体的权利和自由及合法利益”。第三种选择也是被允许的:
-
(c)当它 “获得数据主体的明确同意”。
第22条第2款所述的处理是指“常规”个人资料。关于个人资料的特殊类别,第22条第4款规定如下:
“第2款所提述的决定不得以第9(1)条所提述的特别类别的个人资料为根据,除非第9(2)条(a)或(g)项已适用,并已采取适当措施保障资料当事人的权利、自由及合法权益。”
因此,如果数据控制器想要处理特殊类别的个人数据,也包括研究剖析和自动决策,他们必须满足某些额外的要求。他们必须保障资料当事人的权利、自由和合法权益。
在新型冠状病毒肺炎疫情期间,上述条件都有可能满足,因为当前抗击疫情是重中之重,而《通用数据保护条例》有可能将保护合法权益置于数据主体权利之上。这是《通用数据保护条例》第22条会被触发的另一个原因。如何保障数据主体的基本权利、自由和合法权益,并不是本文的重点,因为这些基本权利、自由和合法权益本身就值得单独分析。最后,如果第9条第2款和第22条第2款和第4款所载的条件累计符合,就有可能处理第22条规定的某一类个人资料。

《通用数据保护条例》规定了一个相对健全和广泛的法律基础,即使在罕见情况下,也可以保护个人资料。不过,使用热像机处理个人资料及触发第22条并不是问题,而是“政府权力委员会”所提供资料的当事人的权利问题。这一点的另一个显著的方面有关“解释权”。如果我们考虑到人工智能一再导致对数据主体隐私权的歧视和侵犯——例如通过“人工智能偏见”——我们就能明白《通用数据保护条例》第22条的重要性和为什么要向公众介绍它。有规例固定资料管理者在处理资料当事人的个人资料时,必须向其传送的标准资料,例如管理者是谁及处理资料的目的。除此之外,第13 (2)(f)条规定,管理者在下列情况下必须提供额外资料:
-
“第22条第(1)款和第(4)款提到的自动决策的存在,包括研究剖析,以及至少在这些情况下,有关涉及逻辑的有意义的信息,以及这种处理对数据主体的重要性和预期的后果”。
这一规定和第22条自首次发表以来在科学界引起了轩然大波。
如今,机器学习已经发展到有时甚至连计算机科学家都不知道计算机是如何得出某个解决方案的。最初,算法解决方案是基于计算机遵循的某些规则和程序,算法动作的逻辑是明确的。按照特定的步骤输入到达特定的输出。然而,机器学习的引入改变了整个系统的逻辑。我们现在给计算机一定量的数据,计算机从这些数据中学习,然后根据它学到的知识生成一个新的输出。因此,系统的逻辑在某些情况下往往变得隐晦模糊,甚至专家也难以作出解释。
第29条工作组在其建议中解决了这个问题。由数据处理器解释逻辑本身并不一定意味着向数据主体解释复杂的算法程序,而是提供有关应答者有意义且重要的信息。此外,复杂性本身不能成为不提供相关信息的借口。通过第29条工作组的镜头,整个问题似乎比最初的技术讨论更加灵活。《通用数据保护条例》规定的所有权利都是针对数据主体的,是整个过程的核心。因此,《通用数据保护条例》规定的权利行使应该从数据主体的角度出发,而不是从技术复杂性的角度出发。这一点对目前讨论的意义在于,其考虑到了今天的技术在没有任何人类干预的情况下,很有可能危及我们的基本权利。在没有人类干预的情况下,通过机器学习和分析来测量体温可能会有潜在的危险和歧视。例如,传统观念认为“正常”的体温是37度,而流感病毒感染者的体温是38度。这种区别出现在1900年,当时人们对体温调节、免疫学和微生物学知之甚少。今天,体温是单独观察的,并且总是在一个特定的范围内。通过热像机测量温度,当人们没有被感染却被归类为被感染,且发现自己处于困窘甚至歧视的情况下。虽然在当前大流行病的情况下,效率是重要的,但必须存在保护人权和基本自由的某些保障。如果效率是唯一的目标,人权很容易受到侵犯。因此,非常重要的是,数据管理者能强有力的保证并解释公民数据处理背后有意义的逻辑。

引入热像机作为对抗新型冠状病毒的一种措施,必然涉及到我们社交互动的大众数字化。新型冠状病毒下和之后的生活,必将改变我们对数字技术的看法和想法。对病毒感染的恐惧改变了我们生活的重点。《通用数据保护条例》提供了灵活的法律基础,容许在不同情况下处理个人资料。然而,仅仅存在一个规范框架并不会带来明确的解决办法。从《通用数据保护条例》第22条与数据主体权利的关系,特别是在“解释权”中我们可以看出这一点。热像机和算法解决方案可能导致对个人的歧视。效率是必要的,但不是唯一的目标。因此,在这种情况下,有必要不断提高公众对自动化处理潜在危险的认识,并警告相关各方。事实上,这是《通用数据保护条例》下的一项义务。总而言之,无论我们身处何种环境我们的基本人权必须得到保护。
本文的作者是Žurić i Partneri合伙人Mihovil Granić及Kristijan Antunović,由杨文心翻译,瑞中法律协会版权所有。