人工智能伦理引论
上QQ阅读APP看书,第一时间看更新

第三章 安全问题

人类对机器人与人工智能可能形成的威胁的忧虑由来已久,不过这些担忧大多主要表现科幻作品之中。但是,随着科学技术的快速发展,机器人与人工智能技术可能导致的安全问题似乎离我们越来越近了。2000年4月,美国太阳微系统公司(Sun Microsystems)的共同创始人与首席科学家乔伊(Bill Joy)在《为何未来不需要我们》一文中对机器人技术、纳米技术与基因技术等可能产生的危害深表忧虑。他认为,这些高新技术可能导致的危险比核武器、生物武器、化学武器等更为严重。Joy Bill, “Why the Future doesn't Need Us,” https://www.wired.com/2000/04/joy-2/.这篇文章得到广泛关注,引发了许多讨论。

2016年3月9日至15日,谷歌人工智能“阿尔法围棋”与韩国职业围棋高手李世石之间展开了一场“人机大战”,李世石的落败使人们再一次为人工智能的强大能力惊叹不已。2017年,“阿尔法围棋”战胜中国棋手柯洁,至此人工智能在围棋方面已完胜人类。人机大战引发了人们对人工智能安全问题的普遍忧虑。人工智能是否会成为人类“最后的发明”?我们如何面对高速发展的人工智能?安全问题对于人类的重要性是不言而喻的。穆勒(John Mill)认为,安全利益是人类所有利益中最重要的利益。“世上一切其他利益,都可以为一个人所需而不为另一个人所需,其中的许多利益,如有必要,都能高高兴兴地被人放弃,或被其他东西替代,但唯有安全,没有一个人能够缺少。”穆勒:《功利主义》,徐大建译,上海:上海人民出版社,2008,第55页。本章尝试就机器人与人工智能安全问题的必要性以及可能的解决途径进行简要论述。