
340
|
第
7
章
解释的局限性
可解释性代表了对模型的理解和解释的显著提高,但我们应该谨慎,不要过于相信
我们的模型的解释,或者假设它们为模型提供了完美的洞察力。任何形式的解释都
是我们的训练数据、模型和选定基线的直接反映。也就是说,如果我们的训练数据
集是我们的模型所反映的群体的不准确表示,或者如果我们选择的基线并不适合我
们要解决的问题,我们就不能期望我们的解释是高质量的。
此外,解释可以识别出的模型的特征和输出之间的关系仅代表我们的数据和模型,
而在此上下文之外则未必有效。举个例子,假设我们训练一个识别信用卡欺诈交易
的模型,它发现,作为一个全局级特征归因,交易的金额是最能表明欺诈行为的特征。
基于此,认为金额总是最重要的信用卡欺诈指标是不正确的——这只是在我们的训
练数据集、模型和指定基线值的上下文中的情况。
我们可以把解释看作用于评估机器学习模型的准确率、误差和其他指标的一个重要
补充。它们为模型的质量和潜在偏差提供了有用的见解,但不应该是高质量模型的
唯一决定因素。我们建议将解释作为模型评估标准之一,作为数据和模型评估以及
本文和前几章中讨论的许多其他模式的补充。
设计模式
30
:公平性透镜
公平性透镜设计模式建议使用预处理和后处理技术,以确保模型预测对于不同的用
户组和场景是公平和公正的。机器学习中的公平性是一个不断发展的研究领域,并
没有一个统一的解决方案或定义来使得一个模型“公平”。通过公平性透镜评估从
数据收集到模型部署的整个端到端机器学习工作流对于构建成功的高质量模型至关
重要。
问题
由于名称中有 ...