Relation Extraction in Dialogues: A Deep Learning Model Based on the Generality and Specialty of Dialogue Text

  • 来源:ICASSP 2021
  • 机构:武大
  • 任务:DialogRE
  • 动机:DocRED 做不下去了,换个数据集刷分;加一些对话需要的 speaker embedding、指代消解
  • 方法:四步
    • image-20210703124208495
    • 每个词的表示:bert 输出,再拼接 speaker embedding
    • word-relation attention:以 relation embedding 为 key,一段对话里所有 word 为 QV,做 attention aggregation(将 relation 按照这些权重 aggregate 成 word );多头结果拼接,得到最后的 context 表示。
    • 建图:与 LSR 相同,只不过对于文本出现的 I 和 you 被当做 mention node,用规则连到 speaker entity 上
    • reasoning:一层 multi-head GCN
    • 分类器:bilinear
  • 实验:
    • SOTA @ DialogRE,比 LSR 提升 1-3 pt

发表评论

您的电子邮箱地址不会被公开。