人工智能安全
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人

1.3.1 人工智能安全与技术标准

自主可控是实现人工智能安全的必要条件和重要环节。采用自主可控的人工智能技术不等同于实现了人工智能安全,但没有采用自主可控的人工智能技术则一定不能保证安全。这种现象在操作系统领域尤为突出,例如,Windows操作系统是美国自主可控的产品,但泛滥的恶意软件在全球范围内快速蔓延时,位于美国的Windows操作系统同样会被大规模感染和恶意控制[79]。因为技术自主可控,美国在提前发现脆弱点、后门清查、研发相应防御手段等方面便有了先天优势。

截至2022年4月,各国及国际组织相继发布18项相关的基础性安全标准和报告,其中包括我国发布的《新一代人工智能发展规划》等4项。平台、支撑类安全标准主要响应人工智能安全风险、法规政策要求,提出人工智能安全原则和要求,为人工智能安全标准体系提供基础性支撑,可指导相关方开展人工智能安全建设,切实确保人工智能安全。全国信息安全标准化技术委员会(TC260)和全国信息技术标准化技术委员会人工智能分技术委员会(SAC/TC28/SC42)等组织相继发布8项与算法、数据、模型等相关的安全标准和报告,主要针对人工智能算法、数据和模型中突出的安全风险问题提出相应的标准,主要包含数据集安全、隐私保护、算法模型可信赖性等。

SC42和IEEE等组织发布技术和系统类标准13项,其中我国发布《人工智能数据安全白皮书》,主要用于保障人工智能开源框架安全和人工智能系统安全等。SC42和 IEEE 等组织相继发布安全管理和服务类标准6项,目的是保障人工智能管理和服务安全,包含安全风险管理、供应链安全、人工智能安全运营等。SC42等组织相继发布应用层安全标准13项,主要针对不同应用领域的人工智能技术、服务和产品的具体应用场景建立标准,以保障其安全[80]