我们要机器给我们,它得到答案的理由
- 银行判断要不要贷款给某一个客户,但是根据法律的规定,银行作用机器学习模型来做自动的判断,它必须要给出一个理由
- 或者是说机器学习未来,也会被用在医疗诊断上,但医疗诊断人命关天的事情,需要给出诊断的理由的话,
- 机器学习的模型帮助法官判案,帮助法官自动判案说,一个犯人能不能够被假释,
- 自驾车突然急剎的时候需要了解它急剎的理由
- 藉著解释的结果,再去修正我们的模型
<aside>
💡 我们其实没有那麼在乎机器真正想的是什麼;
我们是希望有些方法解读出来的东西,是人看起来觉得很开心的.
</aside>
Interpretable VS Powerful
一般看法
- **不要用深度学习的模型,改採用其他比较容易解释的模型,比如採用 Linear 的 Model,它的解释的能力是比较强的。**根据一个 Linear Model 裡面的,每一个 Feature 的 Weight,知道 Linear 的 Model 在做什么事。
- 但是Linear Model 功能没有那么强大,有很多限制
- 使用Deep Model,性能强大,更加powerful
- Deep 的 Network就是一个黑盒子,难以解释
⇒让Powerful 的DeepModel具有可解释性
区别: Interpretable 跟 Explainable,
- Explainable 指的是,有一个东西它本来是个黑箱,我们想办法赋予它解释的能力
- Interpretable 通常指,一个东西它本来就不是黑箱,我们可以它的内容
Decision Tree?
- Decision Tree 相较於 Linear 的 Model,它是更强大的模型;
- 相较於 Deep Learning,它非常地 Interpretable。
并未解决可解释性问题: