第四节 你的数据域隐私安全吗
不可否认,大数据是有原罪的。
举一个例子:你和你的朋友,在同一个地方用同一个打车软件平台,到同一个目的地,或者用同一个在线旅游平台订同一趟航班的机票,有可能你们两人会分别看到截然不同的价格。这是为什么呢?
这是因为这些平台公司,掌握了你们两人的消费数据甚至是财产数据,分析出谁对价格更敏感,进而区别定价。大数据“杀熟”的背后,其实是数据泄露、隐私贩卖与动态定价等违背道德与法规的阴暗手段。
这一切问题的本质,其实是对于以我们个人为主体的数据,我们自身却无法掌握与运用,只能沦为各大互联网公司争相抢夺的金矿。
我们从大数据的背后,可以看到一个商业逐利的世界。一方面,数据越清晰、越全面、越真实,就越有利于个性化生产,避免资源浪费,比如精准营销、个性化页面、私人定制服务;另一方面,数据又带来了信息茧房与信息窄化的风险。
大数据“操纵”人心
大数据要求更加开放甚至是无限制的连接,但同时又将伤害个人的隐私和权利。这可以说是大数据时代最大的冲突与矛盾。大数据这一新兴技术甚至可以充当操纵社会民意的工具。
特朗普和奥巴马两任美国总统,都被爆出过在竞选总统的过程中,雇用数据科学家团队,间接通过社交网站收集了千万选民的海量数据。然后,再用大数据分析,根据不同类型选民的不同偏好,精准推送有利于自己当选的煽动性内容。
比如,对于义愤填膺的爱国者,推送打鸡血的文章,呼吁他们为美国而战;对于精英阶层,推送理性而高深的分析,获得他们的强烈共鸣;而对于反对派人士,则推送竞选对手的负面新闻,让他们对竞选对手彻底失望。最终,一举攻破这部分选民的心理防线,操纵他们的政治情绪,成功当选总统。
这类事件背后,我们不但看到了数据泄露问题,同样也看到了大数据可以成为影响、操纵、控制他人心理和观点的可怕工具。
我们很难想象,大数据和心理学相结合,能够爆发出多大的威力。研究人员发现,通过社交网站的数据可以判断一个人的心理特质,其判断结果甚至比调查访谈这个人的亲朋好友还要准确。
也就是说,只要有足够的社交数据,算法就可以自动判别一个人的心理特质,甚至仅仅凭借“点赞”数据就可以完成,因为没有无缘无故的爱,每一个“点赞”背后都有原因。
如果掌握一个人在网站上的10个“点赞”,算法对他的了解就可能超过他的普通同事;掌握70个就可能超过他的朋友;掌握150个就可能超过其家庭成员;掌握300个就可能超过其最亲密的妻子或丈夫。
剑桥分析公司在这条路上走得更远。他们把8700万人的社交数据和美国商业市场上2.2亿人的消费数据进行匹配、组合和串联,找出谁是谁,然后就性别、年龄、兴趣爱好、性格特点、职业专长、政治立场、观点倾向等上百个维度给选民一一打上标签,进行心理画像,建立心理档案,再通过这些心理档案开展分析,总结出不同人群的希望点、恐惧点、共鸣点、兴奋点、煽情点以及“心结”所在。
掌握了一个人的“心结”,就可以评估一个人最容易受哪种信息的影响,就可以知道信息该如何包装、如何推送,才能搔到接收者的痒处,潜移默化地影响一个人的选择和判断。
现代广告业已经有上百年历史,它和心理学的发展紧密相关。从20世纪头十年开始,广告商就采用统计分析的方法研究如何编辑、呈现信息,希望以情动人,感召大众掏出钱来。
这个过程就好像爱迪生为了找到灯丝的最佳选材,连续做了1600多次试验,最终发现了钨丝一样,广告商通过不断试错发现了组织、呈现信息的最佳配方。心理学已经证明,人类虽然有理智,但人性中也有很多“漏洞”,人类大部分时候都会被情感左右,一些简单的伎俩就可以影响、操纵人类的情感。
所以,我们真正面对的问题在于,仅仅通过公开的数据,互联网就可以成为影响、操纵、控制他人心理和观点的媒介工具,那么这就不仅仅是隐私侵犯,而是心理入侵、思想入侵、意识入侵。
那么怎么办呢?为了保护公民的数据隐私,2018年,欧盟出台了《通用数据保护条例》,不仅明文规定,除非有明确的法律依据,比如公民自愿或同意给予,否则企业不得收集或处理任何一个公民的数据,还尤其赋予了公民个人对于数据访问、整改、移植和删除等权利。如今在全球范围内,这一条例已经成为数据安全与隐私保护的参照标准。
数据产权的未来归属
实际上,这里我们已经触及一个非常核心的问题:数据作为一种新兴资产,它到底应该归属于公有还是私有?归属于数据主体还是产生数据的网络平台、巨头公司?
众所周知,在大众认识到数据的价值之前,一系列互联网公司就已经完成了对大众消费者数据的掠夺和积累。它们拥有了庞大的数据资产,但这些用户数据如何被使用,被谁使用,有多少拷贝,保存在哪里,用户一无所知。
而更让我们不满的是,因为海量数据的商业价值,资本市场给予了巨头公司巨额估值,但这些数据的贡献者,也就是用户本身,却丝毫分享不到一丝由此带来的资本溢价。
虽然对单个消费者来说,一条数据一开始是没有任何意义和价值的,但当无数的消费者都把数据沉淀在一个平台之上,价值则开始凸显和放大。平台可以通过算法对这些消费者进行自动窥视和推算,向他们推送精准的广告,为他们提供个性化的商品服务。
广告就是收入。我们从阿里巴巴和百度的财报中可以看到,广告收入占比一度超过了80%。不只是阿里巴巴和百度,几乎所有的互联网公司都靠广告收入生存。
互联网巨头之所以能够赚得盆满钵满,其基础正是借助对这些数据资产的运营,它们通过数据“读心”,掌控消费者,实现供需关系的精准匹配,从而赢得了广告主的青睐。
互联网巨头通过我们的数据赚取巨额利润,但作为提供数据的消费者,却无法获得相应的报酬,这是我们要应对的另一个数据产权问题。
面对这一难题,我们是否应该停止向巨头公司继续贡献数据呢?殊不知,这基本上等于切断人类通向数智化时代的道路。那么,问题该如何解决呢?
区块链引发的通证经济模式,给出了一种解决办法。如果把个人数据都放到一条公链的各个区块上,有第三方想使用个人数据,就必须经过数据主体的认证与同意,认证的过程也是经济价值交换的过程,同时还会留下不可篡改的使用痕迹。
实际上,任何事物都有两面性。从本质上讲,大数据的原罪,其实更是人性的原罪。所以,欧盟《通用数据保护条例》、区块链个人数据公链以及数据脱敏等法规制度与技术模式,不仅是在弥补大数据技术的道德漏洞与产权问题,更是在对人性的阴暗面进行约束。
我们无论是谈论大数据隐私、大数据产权还是人性道德,都绕不开一个结论,那就是新隐私观的建立。因为即使是隐私问题,随着人工智能的发展,它也会出现新的态势。
例如,被舆论频繁诟病的“大数据杀熟”,是通过算法对数据的自动处理实现的,主观上它没有泄露任何人的数据。我们使用“今日头条”,它可以根据个人浏览点击的记录推测出个人喜好,做出精准推送,个人信息看似被泄露了,可是处理这些信息的,并不是某个具体的人,而是算法和机器。它们自动运行,自行匹配,人为干预的程度很低。
那么,这种情况该不该简单地被认定为侵犯个人隐私呢?你的数据都是算法和机器在处理,并没有被泄露给“人”,在一定程度上,你的隐私并没有受到“人为”的侵犯。那么,我们的数据需不需要对算法和机器保密,这才是一个新的问题。
我们不会介意自然环境在注视或监视我们,那是否介意算法和机器注视着我们?或者说,我们应该介意吗?未来,算法和机器就是我们生活环境的一部分,让机器了解我们,向机器开放我们的数据,这恐怕是通向智能时代、机器人时代、人机协同时代唯一的选择。
高透明社会
你一定听到过这样的说法:大数据比你自己更了解你自己。这一点也不奇怪。大数据时代,我们购物、出行、运动、睡眠、起居与饮食等绝大多数行为,以及人脸、指纹与基因等基本特征,都被数据化地记录下来,我们的数据画像越来越丰富、清晰和立体。
在大数据的视角下,我们作为单一个体的颗粒度越来越高,已经拥有了一个数据化的身份证,而且远比实体世界的身份证信息含量巨大得多。当然,从社会治理的角度,这两种身份证是可以打通互联的。一个高透明社会,就此应运而生。
这给社会治理带来了全新的思路与手段。政府可以依据相关法律法规,给每一个公民建立一张数据化身份证,记录教育、医疗、交通、社保、消费甚至犯罪等行为数据,不但可以为精准施策提供参考,还可以通过数据脱敏处理,屏蔽涉及隐私的敏感信息,开放给社会公众,用于生产生活相关信息查询与大数据应用创新。
比如,2013年开始,中国就发起了“精准扶贫”行动,提出到2020年,要实现中国7000万贫困人口的精准脱贫。这里的“精准”,就是通过大数据分析,不仅要识别清楚贫困人口与扶贫对象,更要获得多维立体的目标人物画像,从而实施针对性、个性化和精细化的扶贫措施。
具体来说,就是通过大数据实时掌握扶贫对象的动态信息:拥有多少人均居住面积或耕地面积?年均收入与消费有多少?家里几口人,各自的情况如何?因为生病或灾害等什么原因导致贫困?
同样,在社会治安方面,大数据更是大有用武之地。比如,通过人脸识别、人物画像、关系挖掘、轨迹跟踪与行为预警等手段,精准地实现对犯罪行为的防范、预警、布控与打击。
高透明社会带来的福利,与大数据安全隐私,就像一对善恶迥异的孪生兄弟。如何“惩恶扬善”,这就需要人类社会在道德、法制、经济与技术等各个方面协同努力。