NA-Aware Machine Reading Comprehension for Document-Level Relation Extraction

  • 来源:https://2021.ecmlpkdd.org/wp-content/uploads/2021/07/sub_591.pdf
  • 机构:信工所柳厅文
  • 任务:DocRE
  • 动机:比较老套,说以前方法只用头尾实体忽视上下文
  • 方法:
    • 框架:encoder 里将别人多标签分类任务改成 MRC 任务(说是这么说,其实只是输入变了一下,每个输入都变成 head entity-specific),后面还是建图 GCN,分类。
    • mention -> entity 的 aggregation 使用 directional attention flow,就是一个比较复杂的信息聚合,让尾实体的聚合受头实体影响(感觉也是为了配合 MRC 的 head entity-specific 的输入)
    • 受 MRC 任务启发,也加了一个 nota 的选项。具体就是将尾实体分解、聚合,得到 nota 的表示。将这个 nota 的表示看成一个特殊的实体,还是 bilinear 分类,得到 nota 的 logit
  • 实验:
    • 和 BERT-RE 对比:MRC 形式有用
    • ablation:directional attention flow、nota 这两个设计都有用
    • 将数据集分类,在远距离、mention 多、evidence 中等的实体对上提升最大

发表评论