可解释机器学习:黑盒模型可解释性理解指南
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人

译者序

机器学习的研究者们始终存在一种担忧--人类无法理解现在的复杂模型的决策。即便机器学习在图像、自然语言和语音等领域有了极高的性能,但我们仍然对这些预测心存戒备。这正是因为我们不了解这些模型的预测依据是什么,也不知道它们会在什么时候出现错误。正因如此,这些复杂模型难以部署到高风险决策的领域中,例如医疗、法律、军事、金融,等等。因此,我们亟须找到方法去解释这些模型,建立人与模型之间的信任。这便是可解释机器学习如此重要的原因。

为什么翻译本书

尽管可解释性的重要性不言而喻,但相关书籍却一直空缺。本书是少有的系统性地整理可解释性工作的图书。书中每节介绍一种解释方法,既通过通俗易懂的语言直观地描述这种方法,也通过数学公式详细地介绍方法的理论,无论是对技术从业者还是对研究人员均大有裨益。同时,书中将每种方法都在真实数据上进行了测试,我认为这是本书最大的特色,因为只有将方法落实到数据上进行实验,才能让人们真正理解这种方法。最后,书中对每种方法的优缺点都做了批判性讨论,这同样是非常值得阅读的地方。

本书的英文版Interpretable Machine Learning由Christoph 所写。英文版出版后就备受关注,广受读者喜爱。让知识真正普及的方法一定是先让知识能传播,但这需要有人去推动才行。我看到这本书的原文后,觉得值得花时间去翻译,不仅因为可解释性领域的重要性以及它是第一本相关图书,而且因为它符合我对好书的定义。我认为一本好书既能让知识传递,又能让读者读完后豁然开朗。从那之后,我便开始专注于译本,翻译过程耗时很久。在翻译过程中,我与Christoph 一直保持交流。我沉浸于此书的译本,既是因为可解释性是我研究和喜欢的领域,也是因为我热爱这件事,我喜欢将自己的时间和精力都专注在自己热爱的事情上。

出版过程与致谢

完成本书译稿后,我便将它放到了GitHub 上。在刚放出内容时,便登上了GitHub 热榜榜首,被诸多公众号和媒体转载。虽然我在翻译时力求忠于原文、表达简练,但译稿中难免有不足与错误,因此我对译稿进行了反复修订。在完成译稿的过程中,电子工业出版社博文视点的宋亚东编辑帮助了我,他的热情和敬业真的感染了我。他对译稿进行了全面细致的校对,提出了极多宝贵的意见,在此表示由衷的感谢。

感谢为本书做出贡献的刘蕊,在翻译过程中帮助了我。

感谢谢志鹏老师给我的指导和帮助。

感谢好友李映江全程给予我的支持和帮助。

感谢通过邮件等方式告诉我书中错误与疏漏之处的朋友们,因为有你们的帮助才能有本书最终的译稿。

由于水平有限,书中不足之处在所难免,敬请专家和读者批评指正。

朱明超

读者服务

微信扫码回复:40606

·获取各种共享文档、线上直播、技术分享等免费资源;

·加入本书读者交流群,与本书译者互动;

·获取博文视点学院在线课程、电子书20 元代金券。

轻松注册成为博文视点社区(www.broadview.com.cn)用户,您对书中内容的修改意见可在本书页面的“提交勘误”处提交,若被采纳,将获赠博文视点社区积分。在您购买电子书时,积分可用来抵扣相应金额。