Position Enhanced Mention Graph Attention Network for Dialogue Relation Extraction

  • 来源:SIGIR
  • 机构:CAS
  • 任务:DialogRE
  • 挑战:
    • Local Dependency Challenge:local 的 relations 是混合交叉在一起的,尤其是那种共享实体的 relation,需要不同的表示
    • Speaker Dependency Challenge:那种表示 speakerX 叫什么名字的关系,对于关系抽取有非常大的帮助。比如 (Speaker4, per:alias, Dad) (Speaker2, per:alias, Rose) 这种
  • 方法:
    • encoder:整个 session 输入,中间用 special token 表示 speaker;mention 用 avg pooling 表示
    • Position Enhanced Graph Attention:
      • 建图:所有 mention 作为节点,连两种边:
        • 距离小于 K 的连边
        • 同一个人说的连边
      • position 的表示:两种相对 position embedding
        • speaker id 的距离 d_u
        • 在文本中的距离 d_p
        • 两种 position embedding 过一层 linear 得到 relative position information
        • (这里 m_{i,j} 表示实体 i 的第 j 个 mention)
      • 计算两个 mention 之间的 score:魔改 bilinear(很奇怪,这个不对称呀?)
      • 最后 GAT 一样的信息聚合image-20211006170831365
    • Mention Fusion Gate 将原始 BERT 得到的表示与 GCN 得到的表示用 gate 来选择image-20211006171130501
    • Entity Pairwise Attention
      • 先 avg 所有 mention 得到这个 entity 的 coarse representation
      • 对于一个 entity pair (i, k) 互相做 attention aggregation(用 i 的 coarse 作为 key,k 的 mentions 作为 q 这样)
    • 最后拼接分类
  • 实验:
    • SOTA @ MPDD & DialogRE
    • 之前那些 dialogRE 的方法全都不如同时期 DocRE 的方法,作者说是 ignore the complex relation perplexing phenomenon (又是说了跟没说一样,强行给自己的 motivation 找证据呗)
    • 作者说 Graph neural networks (GNN) help learn smoothed node representations among neighbors, which will prompt the performance of entity pairs with a ground truth relation and do harm to other entity pairs. 我没有理解,他是想说给有关系的 pair 融合了没关系的 pair 的信息所以有害?不懂

发表评论