- 来源:ICASSP 2021
- 机构:武大
- 任务:DialogRE
- 动机:DocRED 做不下去了,换个数据集刷分;加一些对话需要的 speaker embedding、指代消解
- 方法:四步
- 每个词的表示:bert 输出,再拼接 speaker embedding
- word-relation attention:以 relation embedding 为 key,一段对话里所有 word 为 QV,做 attention aggregation(将 relation 按照这些权重 aggregate 成 word );多头结果拼接,得到最后的 context 表示。
- 建图:与 LSR 相同,只不过对于文本出现的 I 和 you 被当做 mention node,用规则连到 speaker entity 上
- reasoning:一层 multi-head GCN
- 分类器:bilinear
- 实验:
- SOTA @ DialogRE,比 LSR 提升 1-3 pt