1.3 人工智能安全治理
当前,人工智能技术已经在科学技术、经济与金融、工业与农业、军事与国防、教育与体育等方面获得广泛应用,并且暴露出大量安全风险。近年来,生成式人工智能的典型代表 ChatGPT 的快速发展给国家与社会安全、公民的隐私与人身安全、社会法制与伦理道德带来新的风险与挑战。以下从技术标准、政策、法律法规等方面介绍人工智能发展领先国家地区的有关情况。
1.美国
人工智能安全立足于美国的国际领导力和国家安全战略。2018年5月10日,美国宣布成立人工智能国家安全委员会,直接向白宫汇报并且由其负责,统筹应对安全领域的挑战。2021年,《美国创新与竞争法案》明确把人工智能列为提高美国国家竞争力和强化国家安全的关键技术。为了提高美国国家竞争力、强化国家安全,2021年,美国人工智能国家安全委员会又从机构、资源、技术、政策和措施等多个方面制定战略规划。美国人工智能安全政策的主要特点如下。
(1)建立应对人工智能安全问题的统筹机构——美国人工智能国家安全委员会,应对人工智能安全挑战,该机构直接向白宫和国会汇报。
(2)重视人工智能的发展对国防、军事、情报等领域的重要推动作用。
(3)将人工智能技术纳入国家发展和国际博弈战略,力图使其对美国的领导能力发挥重要保障作用。
(4)在国家权力机构的不同层面(如联邦政府、州和地方政府)构建法律监管体系,对人工智能系统的设计、应用等环节进行监管[68]。
(5)高科技企业、行业协会和各种社会组织共同努力,加强在人工智能治理、伦理、安全等方面的相关政策法规建设,具体如表1-1所示。
表1-1 美国人工智能安全政策法规
(续表)
2.欧盟
欧洲国家非常重视价值观与人工智能技术的协调及其在人工智能技术中的体现,重视人工智能对政治、经济、社会体系的影响和道德伦理的冲击。欧盟人工智能高级别专家组,隶属欧盟委员会,致力于使欧洲国家的人权、自由等价值观体现在人工智能技术与伦理体系中[76],具体如表1-2所示。德国、法国等欧盟成员国家,以人工智能产业安全发展、监管规制的法律制定为主要侧重点;英国重视机器人、智能系统、自动驾驶应用等人工智能深度应用场景下的数据隐私、技术伦理和安全等问题。
表1-2 欧盟人工智能安全相关政策法规
资料来源:惠志斌.《信息安全与通信保密》。
3.日本、韩国、新加坡
日本、韩国、新加坡关注安全领域偏少,这些国家更多地从智能化转型和新兴技术应用等发展的维度来看待人工智能问题[77]。韩国更重视在智能机器人场景中的人工智能安全,而新加坡、日本更关注人工智能的伦理原则和治理规范。
4.中国
我国非常重视人工智能技术发展及伴生的安全问题,强调必须高度重视人工智能技术可能带来的安全风险挑战,加强技术政策的前瞻预防与约束引导,最大限度地降低风险,确保人工智能安全、可靠、可控、持续发展;强调建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德体系。我国政府在2017年7月颁布《新一代人工智能发展规划》,设立了三步走的战略目标:到2020年人工智能总体技术和应用与世界先进水平同步;到2025年人工智能基础理论实现重大突破,部分技术与应用达到世界领先水平;到2030年人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心。在人工智能技术应用的安全问题上,我国政府予以高度重视。《新一代人工智能发展规划》明确指出,在促进人工智能发展的同时,关注人工智能数据安全风险,提出“强化数据安全与隐私保护权力,为人工智能研发和广泛应用提供海量数据支撑”,以及“促进人工智能行业和企业自律,切实加强管理,加大对数据滥用、侵犯个人隐私、违背道德伦理等行为的惩戒力度”。中国人工智能产业发展联盟制定了《人工智能行业自律公约》,截至2022年5月,已有约100家单位签署[78]。在强人工智能领域,与欧美相比,我国政府在政策层面更重视强人工智能可行性技术路线的探索研究,在对强人工智能安全与健康发展的未来布局中,要提前做好技术、伦理方面的统筹战略规划。
目前,人工智能主要面临技术和应用两方面安全风险。一方面,人工智能技术主要面临算法、模型、数据安全、软硬件平台等类型的风险;另一方面,随着人工智能应用的不断普及,其给社会发展、伦理道德、人身安全等带来的风险不断加剧。需要从技术、法制、伦理、管理规范等不同角度加强人工智能安全规范与保障措施。适应人工智能安全需求,提升人工智能算法和应用的环境安全水平,强化人工智能安全管理能力,保障人工智能在安全的环境下快速可持续良性发展。