Is Multi-Hop Reasoning Really Explainable? Towards Benchmarking Reasoning Interpretability
2021-04-16 2021-04-16
来源:arXiv:2104.06751v1
机构:清华刘知远 + 阿里
任务:多跳推理的可解释性
多跳推理有基于 rule 和 GCN / 强化学习的方法,之前人们做多跳推理只会评测“头尾实体之间是否有这种关系”的 prf(也就是 link prediction 任务),但是,既然都多跳推理了,那么得到的路径的可解释性也是重要的。有的路径是不 make sense 的!比如这张图里,上面就是合理的,下面就不合理
Local Interpretability: 每个三元组找到的最好的推理路径,可解释性的分数的和($S(p)$ 0-不好 0.5-一般 1-好)
Global Interpretability: LI can only express the reasonable degree of the path found by the model, but it fails to consider how many paths can be found. GI = PR · LI