人工智能与法律的对话3
上QQ阅读APP看书,第一时间看更新

四、个人的自律——围绕个人尊重原理(第三层)的考察

(一)不合理的没落

按照第二部分所述,个人尊重原理的第三层,涉及个人能够自律地、主体地创造、设计自我人生的能力。AI的预测评价,也会对此种能力产生否定的影响。

这种事态,特别会发生在诸如AI的“思考过程”,也就是算法,被黑箱化的情况下。人们在自己所勾画的人生之路上前行时,经常会作自我调整。若是在某件事上失败,就会找出原因,努力改进。于是,能够改进而怠于改进之时,“责任”即生,也导致了非难可能性。不过,假设算法完全地黑箱化,人们就不会知悉AI评价的“理由”——基于何种信息,如何对之衡量来得出评价——丧失了自我调整的机会。即使求诸于人工的意思决定权来说明,如第二部分第二点所言,其解答(透明性)上存在局限性。

例如,在判断融资时使用AI所作的信用力评价之时,所谓“在何种频率上联系特定对象”的通信履历是被秘密使用的。33这时,缺乏这种定期联系的A氏,信用分数就会悄然降低。基于大数据,AI能够发现、抽取出远超想象的相关关系,进而会以此作为预测评价的基础。因此,可以想象,人类这种随意的、无意识的自然行为与AI的预测评价相结合,就会导致融资被拒绝。在这种情况下,也有可能导致自身无法通过“自我调整”来提高主体信用力,本人也有可能毫不知情地被排除在所有使用类似算法的领域之外。要言之,在AI社会中,当个人的评价轴变得复杂化、黑箱化,个人可能就极难控制自己的评价,难以自律地、自主地实现人生目标。这就将个人尊重原理的第三层置于危险之中。

在这一点上,需要将AI的“思考过程”尽可能地白箱化,来确保意思决定上的问责。34像欧盟GDPR对透明性的要求,以及美国联邦贸易委员会(FTC)要求企业在使用AI预测评价程序来审查信贷、雇用、保险、房产等的适格性时,根据公正信用报告法(Fair Credit Reporting Act,FCRA)规定,要求告知被评价者并赋予被评价者有机会作出异议的做法,35可被理解为白箱化尝试的重要环节之一,也可被理解为是出于抑制不合理的世界,保障自律型主体型生活方式所尝试的重要环节之一。

(二)作为别人“家庭成员”的接近

AI预测评价可能会与个人尊重原理第二层发生抵触的第二种情景,可以举出AI的“思考过程”包含了违反本人利益的情况。例如,来想象一下AI家电和家务助理机器人。它们或许可以学习人们的生活模式和行动模式,来帮助每一个人的“自我决定”。但是,例如亚马逊和谷歌的智能音箱,一方面对于用户来说可谓非常便利的道具,但另一方面也有可能成为企业营销的道具。在此,侵入了家庭内部的AI对私生活当中的举手投足进行记录,产生的问题不只是在隐私权方面(当然,家庭内部行为时常受到监视,可能会抑制家庭暴力与虐待儿童等问题)。更为重要的是,这种家庭内的AI,有可能为了第三人的利益——作为第三人而非本人的代理人——而行动。例如,建议置换购入新牙刷的家庭内AI,究竟是纯粹地预测到本人决定而发声,还是为了商家利益而发声,很难讲清楚。如果不设定法制度来抑制如后者这样利益相反情况的产生,家庭内AI就可能会成为“别人的家庭成员”或是“戴着家庭成员面具的别人”,会对本人的自我决定产生强烈的诱导。这自然会对个人的自律地、主体地生活方式产生障碍。在这一点上,恐怕必不可少的是,家庭内AI所收集信息的流通(包括第三方提供方式在内的网络关联图)和算法的透明性,以及列入有助于本人对自我信息控制的架构。

(三)接近于复制机器人

AI预测评价可能会与个人尊重原理第二层发生抵触的第三种情景,可以举出作为被评价者的我们自身被吸引诱导的情形。比喻而言,“我”好比复制机器人那样的场景。实际上,俄亥俄州立大学研究团队举例证明,预测个人兴趣爱好所推送的个性化广告,会对个人的“自我意识”本身产生重大影响。36根据实验,被测试者的大学生倾向于将作为自己网上行动结果所被推送的个性化广告,认识为“自我的反映”。个性化广告所体现出的特点,就被认为系“自身所固有的特点”。根据实验,报告显示,若是针对被测试者的“个性化”广告包含了环境保护的因素,被推送到此类广告的被测试者,会将自身评价为热心于环境保护的人,更倾向于购买环保型商品,更容易向环保慈善活动捐款。

这就意味着,AI的预测评价能够很容易地操作、诱导个人的意思决定。如上所述,假设AI在目标上暗含了实现与用户利益所相反的(第三人的)利益,恐怕个人将被迫更多地为他人而作出决定,过上他律型的人生。37并且,即使没有来自第三人的操作、诱导,AI的预测评价也会对自律型个人形象产生重要影响。根据上述实验结果,我们每个人都会倾向于将AI预测评价的结果理解为“自我的反映”,但如第三部分所述,AI的预测评价,本来也只是体现了具有共通属性之集团的一般倾向而已。这样的话,在AI社会中,人们的个人特性,就有可能会被某个特定“集团”的一般倾向反过来所规定。换言之,在AI社会中,个人并不是“使用”AI的预测评价,个人本身有可能会被AI所构筑,会被AI的选择所控制。

当然,所谓个人系自律存在的命题,迄今为止也可以说是“虚构”。38因此,更为正确地说,在出现了AI这样的象征存在的社会当中,将“个人系自律存在”的命题,作为虚构来维持,恐怕也愈发困难。要想在AI社会当中也能维持所谓个人系自律存在的虚构(这也是维持近代宪法的“约定事项”),恐怕重要的就是保留AI的不完全性,并让人们对此皆知。如果人们对AI不能100%地把握个人——这并非“自我的反映”——这一情况能够彻底知晓,似乎就有可能让人们从AI的预测评价之中解放出来,“以自己的方式来生活”。最为重要的手段,恐怕就是隐私权。AI的不完全性,是通过AI在数据供给获取上的不完全性来实现,而数据供给的不完全性,则是通过行使隐私权来实现的。人类对抗AI的几乎唯一手段,就是有能力遮断向AI供给数据的隐私权。39这样才能确保AI的不完全性,这一点也能被人们所周知。在笔者看来,只有通过这样将AI从象征地位或是特权地位赶下来,人们才能够获得主体性。就此意义而言,AI社会能否实现与近代宪法原理之间的调和,可以说,这要看制度环境是否得到整备,以使隐私权的行使切实可行。