罗汉堂

一个行为经济学家眼中的隐私保护

亚历山大·阿奎斯蒂(Alessandro Acquisti)是卡内基梅隆大学信息技术和公共政策教授,罗汉堂研究员。阿奎斯蒂师从谷歌首席经济学家范里安,是隐私经济学和行为经济学领域的专家。他也是首批对Facebook社交网络隐私信息进行研究的学者。在本次访谈中,他从行为经济学的角度分析了现代数字隐私面临的挑战,以及为何企业应该将隐私保护视为新的商业机遇。

 

罗汉堂:作为卡内基梅隆大学隐私经济实验室主任,能介绍一下你的专业领域吗?

亚历山大·阿奎斯蒂:当然可以。我主要研究隐私经济学和隐私行为经济学。我进入这一领域的路程并不寻常,因为隐私往往是法律学者或者计算机科学家们研究的课题,在某些方面还涉及心理学,经济学家们对隐私并不特别感兴趣。当我在伯克利大学攻读博士学位时,我想将经济学应用于信息技术。我已经在我的祖国——意大利学习了经济学,然后又在都柏林圣三一学院和伦敦经济学院获得了经济学、计量学和数学经济学硕士学位。但是,在攻读博士学位的时候,我没有选择传统的经济院系,反而去了一所信息学院。

这所学院的院长是著名的微观经济学家哈尔·范里安 (Hal Varian) 教授(现任谷歌首席经济学家),当时他刚刚从密歇根大学离职。另外,他还撰写了一本非常受欢迎的教科书——《微观经济学》。然后他来到了伯克利大学,就任信息学院院长。

就这样,我开始了隐私经济学研究,就是理解保护数据与分享数据之间的平衡关系。这也是我当时研究的重点。2003 年,当我应聘去了卡内基梅隆大学担任教授,我的研究方向开始转为:理解更多行为经济学并将其应用到隐私领域。

2004 年,我来到卡内基梅隆大学,开始教授第一个班级,课程是隐私学。当时班上有个同学告诉我,出现了一种新的社交网络平台,就是 thefacebook.com。那会还不叫 Facebook,叫 thefacebook.com。我立刻意识到,从隐私角度来看,thefacebook.com 是非常好的研究对象。不是因为它是第一家在线社交网络平台。当时还有许多类似的平台。Orkut、Friendster、MySpace,都已经推出面世了。而是因为在 thefacebook.com 平台上,人们似乎很乐意使用真实姓名。

我和这位学生,他的名字叫 Ralph Cross,开始共同研究 Facebook 的问题。2004 年夏天,我们在卡内基梅隆大学的 Facebook 网络上注册了账户,下载其他账号在网络上对他人公开的信息,分析数据,尝试了解人们披露了哪些内容,哪些内容没有披露。2005 年研究结束,我们在学术期刊上发表了第一篇关于 Facebook 的论文。此后,我一直致力于三个方向的研究:隐私经济学,这也是我学术研究生涯的开始;隐私行为经济学,从我到卡内基梅隆大学任职以来就一直研究的方向;以及在线社交网络中的隐私。

罗汉堂:我最近观看了你在 2013 年 TED 上的演讲,当时预言了一些技术应用的可怕场景,你称之为“没有秘密的未来”。在演讲中,您谈到了技术的一些用途,如未来某一天用户收到广告时,向我们推销商品的可能不是真正的人,而是用数字技术合成的现实中朋友的脸。这其中的人际交互原理是:人们更容易被朋友说服。这真是令人恐惧的话题,特别是在当时。那么,今天,人们越来越深刻地认识到他们的信息可能被心怀不轨的企业利用。你认为这些年来,情况发生了怎样的变化?是朝好的方向发展?还是更糟糕的方向发展?

亚历山大·阿奎斯蒂:二者兼有吧。你刚刚提到的问题正是我研究的方向,作为一个技术的狂热爱好者,我觉得技术的进步非常棒。那次演讲中提到的一些人脸识别应用,甚至AI人脸合成,都成为了现实,这确实很酷,也体现了人类在现代信息技术上的探索追求。

与此同时,我要说,技术绝非中立。认为技术属于中立概念,对人类行为没有任何影响,这种理念大错特错。技术永远是以其设计的方式在潜移默化地影响(Nudge)着用户

无论技术创造者是否知晓,技术本身都具有内在的立场倾斜(Inbuilt Nudges) 。当我撇开技术人员身份,从隐私研究者的角度看,一些技术应用对个人自由带来了威胁。在那次演讲过后的七八年里,当时我们假设可能出现的很多事情,都变成了现实。人工智能图像识别不再局限于计算机科学实验室和院系部门范围内,开始出现大规模实时人脸识别应用。

此外还有利用微观数据向个人施加影响力的能力。不仅仅是商品与消费者匹配的定向广告,还有广告本身的个性化处理,从而使广告更容易激发用户的参与行为、点击等。

头像图片大肆用于人脸识别, Clearview 等美国公司利用社交数据进行人脸识别,然后再出售服务给他人。还有学生在 Facebook 个人档案上透露的信息。当他们还是学生时披露了一些信息,但一旦他们开始找工作,如果雇主在这些学生的个人档案中搜索信息。他们在特定情景下分享给特定受众的信息,在其他不同的情景下被不同的受众理解时产生了完全不同的含义。即丹娜·博伊德 (Danah Boyd) 所指的“语境坍缩(Context Collapse)”,那么这些学生的就业可能会受到影响。

在不到二十年的时间里,隐私领域已经发生了巨大的变化。我认为隐私正在受到威胁。同时我也相信,从数据中可以提取更多价值,但我希望我们能够更好地平衡好数据价值提取与个人隐私保护之间的关系。

罗汉堂:例如人脸识别技术,似乎我们目前使用的每个银行应用程序都结合了人脸扫描、生物识别安全措施等。一方面,我觉得非常安全,因为他人无法复制人脸。另一方面,用户是否应该更谨慎?在同意应用程序,或某些情况下,同意银行以外的第三方公司扫描面部时,我们是否真的应该多思考一番?

亚历山大·阿奎斯蒂:你说到点子上了。有些个人信息的使用,包括生物特征信息,确实对个人极为有利。但有些信息利用,却威胁着个人利益甚至人身自由。

问题是,个人已经无法控制他们的数据会被如何使用。这是因为,在无意识的情况下,很多数据就被收集了,即便有些组织可能设置了隐私策略和隐私通知。但这些通知往往含混不清,甚至模凌两可。例如,数据收集者会与哪些第三方分享这些数据?这些下游用户会产生哪些潜在外部因素,包括正面或负面因素?

生物特征的情况尤其值得探讨,因为生物特征很难改变,基本上属于永久性特点。一个人很难改变面部特征,而算法在识别人脸方面的能力只会越来越强,即便人们佩戴眼镜或遮挡部分面部。

诚然,技术的进步会带来更多便利,但是对于更危险的信息滥用,可能结果就没那么美好了。问题的症结在于决定信息是否用于某种或其他用途,已经不在个人的控制范围内了。在过去的二十年里,技术和监管界的大部分的争议都是集中在:我们能否允许、给予人们一定的控制权?我们能否通过 GDPR 等法规实现?或我们能否通过技术,比如说,PET——隐私增强技术——来实现?这些讨论仍在进行中。

罗汉堂:对于人脸识别技术,我知道不同的城市和国家对这种技术的运用有不同的政策。目前旧金山已经禁止使用这种技术,纽约规定人脸识别只能用于执法或其他城市服务。当然,在中国,人脸识别应用非常广泛。这只是文化差异,还是说这项技术的开发要让所有人都达成一致意见,还为时尚早?

亚历山大·阿奎斯蒂:两种情况都有。不同司法管辖区域采用不同的立场和态度,也许是一件好事,因为未来它可以为学者、决策者和公共政策分析师提供丰富的数据,来分析从长远来看哪些方法最有效。例如,在新冠肺炎疫情下,不同的国家针对涉及隐私和接触追踪的应用程序时,采用了不同的方法。

存在不同方法的好处是,我们可以在后续回顾观察哪些方法最有效。与此同时,确实存在文化差异。不过,必须指出的是,尽管文化差异可以解释为什么全球各地的隐私问题各不相同,但我们需要注意的是世界各地普通存在的某些隐私问题。

我指的是什么意思呢?我间接引述美国社会心理学家欧文·奥特曼 (Irwin Altman) 的表述。在 20 世纪 70 年代末的文章中,他认为“隐私是即有文化个性,同时又有文化共性的现象(privacy as a simultaneously culturally specific and culturally universal phenomenon)"。

本质上,他的意思是:不同的文化、不同的群体,可能有着显著不同的隐私问题、行为和规范。对我们意大利人来说,交谈时彼此靠得很近,即便是陌生人也如此,但是这种情况在中国人看来,就有点尴尬了,因为中国人会感觉自己的私人空间受到了侵犯。私人空间是一种个人感觉、认为或构成自己个体空间的身体周围区域。

另一方面,当问及到一位意大利人他的年薪是多少,他们会感觉受到冒犯;但是我听说,在以色列,即便是在晚宴上刚刚见面的陌生人之间,也可以讨论年薪问题,这对他们来说不足为奇。

因此,在隐私问题的差异上,文化确实起着很大的作用;不过,关键的一点是,奥特曼和其他隐私学者都说过,不同的文化、时间和地理位置都存在普遍的隐私问题。

在古希腊、古罗马都存在隐私问题的证据。古老的一部神教典籍中,就有关于隐私的表述,在《创世纪》、《旧约五书》、《古兰经》里亦如此。在前工业社会的爪哇岛上巴厘人群落就已经存在寻求隐私的行为。这样的证据不胜枚举。这一领域最令人着迷的地方是,由于人类的心理作用,隐私似乎是人类长久以来的一种心理需求,就像寻求社会化以及与他人分享交流一样。隐私实质上是调节自我与他人之间相互作用的能力。自我与他人之间的辩证动态调节方式,又因为个人文化特点,存在不同的表现和形式。

罗汉堂:先前你谈到有必要给予个人重新掌控自身数据的权利。我们也看到了欧洲和美国加州等地都颁布了非常全面的法规,规定了技术公司应如何处理客户或用户的数据。欧洲的 GDPR 法规,在过去的几年里,已经开出了好几单巨额罚款。例如,针对 Google 和英国航空公司的 罚款。这是否证明:法规正在发挥作用?

亚历山大·阿奎斯蒂:我不确定。目前我们还不知道 GDPR 的实际影响,因为它还在进行中。至少在欧洲地区,各大公司针对 GDPR 做出的反应也在不断地改变。我们有一份尚未发表的研究,其中发现,2018 年 5 月 GDPR 法规颁布后不久,网站中的第三方跟踪就减少了。但是大约八、九个月之后,第三方跟踪又开始增加。这就像生态系统,刚开始企业采取保守态度,规避风险,降低侵略性,避免与欧盟之间的问题。但在注意到并没有多少执法措施落实后,生态系统又故态复萌,重新推广带第三方跟踪的应用程序。

如果我们要想真正地保护隐私,法规监管绝对是必不可少的。这是因为,即便作为经济学者,我都不相信,在没有监管的干预下,单凭市场本身和技术的力量,就能把信息控制权还给消费者。

这其中存在多种原因,有行为学方面的原因:例如,在保护数据时,消费者面临的行为障碍。还有经济学方面的原因:例如闭锁、转换成本、缺乏有效可行的替代产品等。

其中最终要解决的问题是所谓的消费者责任化问题( Responsibilization)。责任化最早是欧洲公共政策领域所使用的术语,指的是消费者要承担责任,解决非其自身产生的问题,但实际上又无法完全解决该问题的情况。例如气候变化,消费者总是被不断劝说,他们需要使用不同的电灯泡,驾驶电动汽车,穿着不同的服装,改变自己的饮食习惯,才能抵御气候变化。但是实际上,即便消费者全都做到了这些要求,在阻止地球变暖的行动中,他们的作用仍然微乎其微。

隐私问题也一样。我们在隐私声明中给消费者设定了大量的隐私策略。我们可以要求他们浏览这些页面或隐私设置,但即使他们阅读了所有的隐私声明,浏览了所有这些设置,他们仍无法真正掌控他们的个人信息。因为有太多的方式可以不断收集我们的数据,并且用于不同的目的。消费者无法掌控这些。将隐私保护的重担扔给他们,或扔给他们无法掌控的东西,又试图让他们对此负责,这并不是隐私领域最好的公共政策。

在信息控制方面,我们的一些实验表明,越是通过添加帐户设置、可见性设置、个人资料设置和隐私设置等,让人们感觉可以控制他们的个人信息,人们就越是会在他们的信息上去承担风险。这一点是矛盾的。这意味着我们开始与更多的陌生人分享更多的个人信息。为什么?可能是这些控制工具会让人产生一种过度自信的感觉,致使人们感觉受到更多保护。而这,最终又导致消费者 去承担更多的风险。

在透明化方面,我们的研究表明,巧妙地更改界面设计,可以非常轻易地转移用户注意力,这样一方面企业可以将如何处理消费者信息完全公开,同时,在分享数据或公开他们的决定方面,企业可以按想要的方向推动消费者(Nudge)。我们将这些研究称为“隐私戏法”(Slight of Privacy),这个词模仿了一个美国词汇,魔术师的“戏法”(a slight of hand)。当你让观众注意右手,那么他们就不会注意到左手在做什么。

罗汉堂:那企业是否有责任做得更好?我指的是在他们的用户界面设计中,设计并融入不具有欺骗性的内容?我们可以在多大的程度上迫使或影响企业,让他们负起责任?

亚历山大·阿奎斯蒂:我相信公司要承担极大的责任,去做正确的事情。我也希望在今后的几年里,有两件事情发生。第一,越来越多的公司将理解用户对隐私是有市场需求的。由于有这种需求,公司就和消费者一起站在隐私保护的立场,这本身是一个好的商业决策。也许目前最突出的例子就是 Apple 。当然,你可以说 Apple 拥有这样的奢侈去采取这个立场,因为它本质上是一家硬件公司,而非数据公司。然而, Apple 是一个非常重要的例子,因为它确实显示出甚至展示出在某种程度上,隐私可以成为卖点。

第二,我确实希望,在接下来的几年里可以提升,或者也许应该说继续提升这样的认知,即部署隐私增强技术可以让个人、组织、以及社会享受到分析和数据带来的好处,同时也保护好个人隐私。

当然部署这些技术需要成本。然而,我也从根本上相信,这整个领域的研究是非常有前景的,成本会不断降低。从而我们将来可以IT基础设施中部署内置的隐私保护。同时这些内置的隐私保护不会阻止社会享受数据带来的好处。

罗汉堂:在数字广告领域, Apple 推动应用跟踪透明化,在应用可以跟踪互联网记录之前询问用户是否同意。您对此有何看法?因为类似 Facebook 这样的公司对此极其愤怒。你对此有何看法?

亚历山大·阿奎斯蒂:我发现 Facebook 对 Apple 的决定持有的观点并不明智。Facebook 指控 Apple 剥夺了消费者的自由,他们被动地处于某种状态。但事实上 Facebook 从 2004 年成立以来就一直这么做。Facebook 历来就替用户做出隐私决定,推动他们作出决策有利于 Facebook 的商业模型。现在 Facebook 正面与一家公司交手,这家公司还是用了 Facebook 的剧本,但是是反过来,默认为消费者提供隐私保护。我觉得这十分有趣。还有一件有趣的事,我读过一些统计数据,但不知是否得到官方证实,这些数据表明只有极少数的 Apple 用户决定允许自己被跟踪。(在iOS14.5版本中,96%的美国用户选择不被追踪。

这是一个重大的发现。从行为角度看,行为经济学对任何系统默认设定的力量的研究已久。同时我们也在隐私的背景下研究它。我们分析愿意支付和愿意接受之间的区别时,本质上是分析一个默认设定的问题。一种情况下,默认消费者拥有隐私数据,并且可以把它卖给别人。一种情况下,默认消费者没有得到保护,想要从别人那里为数据购买保护机制。

行为角度很十分趣,而消费者对隐私的需求也是一个有趣的角度。消费者真正想要的是什么?当涉及到有关消费者行为在市场上的隐私时,我们能理解他们的真实需求吗?当应用到隐私方面时,显示的偏好、观点是否正确?如果你看看来自 Apple 的数据,并将其与不允许自己被跟踪的 Facebook 的用户的比例的数据进行比较,你可能会得出非常不同的结论:消费者确实关心并想要隐私。

罗汉堂:我们在今年更早一些时候发布过一份报告,名为《理解大数据:数字时代的数据和隐私》(请点击阅读原文下载)。对于这个隐私的问题,报告中确实讨论了大数据和数据本身是如何成为经济活动的不可分割的一部分。你如何看这个问题?

亚历山大·阿奎斯蒂:我很高兴你提到这份报告。我读过,我们对这份报告非常感兴趣。对于这份报告本身,以及罗汉堂在这个领域做的事情,我感到印象深刻。进行这些讨论,并且将来世界各地、各行业和公司的不同观点的决策者、以及将来自世界不同地区的不同背景的学者聚在一起,这当然很重要。具体来说,我认为数据策略的问题与隐私策略的问题密切相关。我赞同在这个领域里提出的一些建议和主张。有数据价值的概念、隐私工程化的概念。赞同这些的同时,我也要强调,只有监管机构使用全面的、深思熟虑的政策进行干预,才能取得真正意义成功。

 

本文只代表受访者本人,不代表罗汉堂观点。

0 条评论

评论请

加载中...

00:00:0000:00:00