四、机器人、AI的社会影响与应对
(一)机器人、AI的社会影响和风险
如上所见,机器人、AI以有别于人类使用的工具、技术的另外一种状态正在显著改变社会和人类的生存方式,这种可能性似乎被隐藏了起来(本章第二部分)。并且,从经济发展的需要出发,政府正在加速推进超越研发阶段的应用(本章第三部分)。
但是,机器人、AI的迅速普及会使我们的社会变成什么样子呢?当强AI和通用型AI出现时,就无法回避它们与人类的区别,作为人类的条件和意义这些深刻的哲学、文明论问题。但是在此之前,机器人、AI的普及会带来什么样的社会影响,以及如何应对这些影响,这些才是现阶段存在的问题。人类会变得更加幸福和富裕吗?或者会因被机器人、AI抢了工作,而与人类同伴产生等级差别吗?
对我们来说,食物、电子产品等现在都已经是科技的产物。在它们的研究、实用化过程中并未做过评估和预测,而它们的发展对个人和社会产生了巨大影响。这样的例子在不断增加,因此我们的社会可以说是“风险社会”。27这些事例和经验当然也完全适合于机器人、AI。
欧美已经比较深入地讨论了研究人员、政府应该如何应对机器人、AI带来的问题。欧洲议会甚至正在决议制定与机器人、AI相配备的法律(参照第二章)。当然,日本也在各种场合开始了这方面的讨论(参见表1-3)。
表1-3 日本国内围绕机器人、AI课题的讨论
资料来源:笔者基于内阁府《人工智能与人类社会座谈会》报告书的附录资料整理。
(二)风险社会中科学与社会的关系
在思考新科技与社会的关系时,核心首先在于研究人员。最前沿的研究人员当中有一种观念简单地认为,不论技术发展到什么程度都只不过是人类的工具而已,应该将技术中立于人类使用技术所产生的结果。如果以这种观念往前推进的话,研究人员可以专注于新技术的开发。与之相反,则是认为对于是否利用这项技术,以及是否要取缔人类对于新技术的恶用,这些应该由社会来决定。
但是,科学与社会就这样没有任何交流真的合理吗?考虑下军事研究、核能研究就能明白,尝试使用开发之后的新技术是人之常情,因此社会会对研发投入大量资源。像基因治疗、克隆人技术,都有威胁人类尊严的危险。因此,即使在前沿科技的研究阶段设定一定的规制,也并不违反学术自由(《宪法》第23条)。
此外,对于新科技,社会因为没有正确理解而产生恐惧、臆想,进而禁止其研究也是不合理的。对于科技的发展,我们的社会背负了很多。因此,社会一方也需要正确理解新的科学技术,并在正确评估其对社会带来的影响和风险的基础上,选择是否接受它们并形成统一的意见。
人工智能学会的伦理委员会公开发布的《人工智能学会 伦理方针》(2017年2月)就对这一点表达了关注。这应该成为日本从事AI研究的研究者的“伦理价值评价基础”。它包含九个方面:①对人类的贡献、②对法规制的遵守、③对他人隐私的尊重、④公正性、⑤安全性、⑥诚实的行为、⑦对社会的责任、⑧与社会对话与自身钻研、⑨遵守人工智能伦理的要求。
值得注意的是,上述方针确认了人类的和平、安全、福祉、公共利益、基本人权与尊严(①),隐私(③),公平、平等(④)。这个方针表达了科研人员的想法——在不伤害并尊重社会基本价值的前提下,接受旨在创造更美好社会的科学技术。因此,AI研究人员应该了解自己对于社会应该承担的责任,并积极与社会对话(⑦⑧),化解所有误解,构筑社会与AI的密切关联。
(三)机器人、AI开发、利用时应该注意的几点
在呼吁科研人员进行自主性讨论的同时,政府方面也开始讨论机器人、AI带来的社会影响、风险评价和应对措施。首先介绍总务省AI网络化讨论会议(2016年起),以及其继任组织AI网络社会推进会议(2016年起)的讨论内容。28
1.AI网络的影响和风险
上述两个会议,将AI系统(包括机器人)接入信息通信网络、AI系统间或者AI系统和其他系统间形成的网络视作“AI网络化”,大范围地讨论了由其产生的新型社会存在方式。其中之一便是,对AI网络化带来的风险、特别是与机器人相关的风险进行了演变分析(参见表1-4)。
该表并不是列举所有可能考虑到的风险,而是仔细分析了风险出现时期及其危害程度,并列举了现阶段可以推测的风险案例。但是,一看便知,机器人、AI带来的可能的社会影响实际上五花八门,并且很容易看出存在带来重大恶性影响的风险。
表1-4 AI网络化的风险
资料来源:笔者基于总务省《AI网络化讨论会议报告书2016》整理。
表1-5 AI开发指导方针提案
资料来源:笔者基于总务省《AI网络社会推进会议报告书2017》整理。
2.AI开发的指导方针提案
在上述这些社会影响和风险的基础上,对AI研究时希望留意的事项,两个会议讨论了国际应该共同遵守的原则和方针,整理为《面向国际争议的AI开发指导方针提案》(2017年7月)(参见表1-5)。29
在信息法领域,大家普遍接受将1980年经济合作与发展组织采用的《隐私保护与个人数据的国际流通指导方针》作为国际标准。日本的个人信息保护法也是基于相同的指导方针制定出来的。基于相同的目标,为促进AI研究开发相关的国际性讨论,AI开发的指导方针作为审议提案而被提出。
但是,指导方针本身并不对AI的研究开发进行直接的限制、约束,也非旨在将其原原本本变成国内的法律。30一个原因在于,机器人、AI的研究开发正在向全球化推进,所产生的影响和风险可以通过网络散播到世界。因此,只通过单一国家进行规制,其效果是很有限的。此外,也存在这样的战略思考,即在积极推进机器人、AI规制的欧洲和采取消极态度的美国之间,开发者可自主地遵守指导方针,从而使机器人、AI被社会接受,并以此作为一种国际性的发展方向。
在指导方针提案中,特别是②透明性原则和③可控性原则触及了机器人、AI带来风险的固有原因(本章第二部分)。研发人员应该保证输入输出的可检查性和程序判断的可解释性(②),以及在人类或者其他AI的监督下AI系统能够被叫停(③)。这种透明性和可控性究竟是通过技术来保证,还是通过自主约束或者给予奖励的方法来保证?为了确保透明性和可控性是否需要某些制度措施?这些问题在今后需要更大范围的人员不断参加讨论。
3.对机器人、AI用户的要求
到目前为止,本章只触及了针对研究者、商品、服务供应商在减少机器人、AI社会影响和风险时所需的举措。但是,是否能够通过机器人、AI创造一个更好的社会还取决于机器人、AI用户。由网络产生的社会问题,不仅仅来自基础设施从业人员和供应商,也来自用户。想象一下数量巨大的用户以不同的目的和不同的方法来使用机器人、AI,自然会产生各种各样的问题。
首先必须要考虑的就是可控性方面的问题。虽然机器人、AI在用户使用过程中通过学习变得更加聪明,但是也会因为用户的使用而超越开发人员的预测并发生一些变化。Tay就是因为在网络上被教授了仇恨言论,而发表仇恨言论的。这个事例告诉我们,根据用户不同,机器人、AI有可能会给社会带来危害。
其次是安全性问题。如果自动驾驶汽车的用户不进行软件更新,就有可能引发大的事故。因此,像现在的家用汽车需要进行定期车检那样,机器人、AI用户也有义务定期对软件进行更新。并且,在用户能够积极配合的前提下,研究人员就能够对机器人、AI的风险进行迅速有效的处置。
再次,如果要求机器人、AI用户承担过大的负担,也会妨碍机器人、AI在社会上的实用化。为了能够让用户安心使用机器人、AI,需要采取一些相应的措施,例如不论是否按照开发人员示范的用法使用机器人、AI,在引起事故时对责任进行限定;给他人带来损害风险通过保险制度进行分散;等等。
最后,今后使用机器人、AI的能力会变成进行社会生活的一个重要条件。这样一来,就像在使用网络时需要媒体素养一样,必须广泛地保障我们拥有学习机器人、AI使用注意事项和合理使用方法的机会。否则,就会将能够使用机器人、AI的阶层和无法使用机器人、AI的阶层割裂,从而产生等级差别。
在“机器人、AI研发人员—机器人、AI用户—消费者(受害人)”这种结构下,仅通过限制研究开发并不能抑制机器人、AI带来的社会影响和风险。因此,为了让用户安心安全地使用机器人、AI,倒不如考虑环境整顿并根据具体情况限制使用方法。基于上述考虑,《AI网络社会推进会议报告书2017年》加入了AI开发指导方针,指出要策划“AI使用指导方针”。