可解释机器学习:黑盒模型可解释性理解指南
上QQ阅读APP看本书,新人免费读10天
设备和账号都新为新人

2.6 人性化的解释

下面进行更深入的挖掘,发现人类认为的“好的”解释,以及对可解释机器学习的意义。人文科学研究可以帮助我们找到答案。Miller[2] 对有关解释的出版物进行了大量调查研究,本节以他的总结为基础。

在本节中,我想让你相信以下内容:作为事件的解释,人类更喜欢简短的解释(例如只有一两个原因),这些解释将当前的情况与事件不会发生的情况进行了对比,特别是异常原因提供了很好的解释。解释是解释者与被解释者(即解释的接收者)之间的社会互动,因此社会背景对解释的实际内容有很大的影响。

当考虑需要一个预测或行为的所有因素的解释时,通常不需要人性化的解释,而是需要完整的因果归因。如果在法律上要求指出所有有影响的特征或调试机器学习模型,则可能需要因果归因。在这种情况下,可以忽略本节以下内容。而在其他情况下,如果解释的接收者是一个外行或者他的时间很少,则以下内容很有意义。