Stop just recalling memorized relations: Extracting Unseen Relational Triples from the context

  • ICLR 2022 submission https://openreview.net/forum?id=YHm6xV3JODS
  • joint triple extraction
  • 之前 emnlp 21 的文章表明 triple extraction 会 memorize and recall seen triples,这篇文章希望能在 unseen triple 上表现好(因为 NYT WebNLG 都是 train test 重叠很大)
  • 先修改 NTY WebNLG 数据集,搞成 unseen 较多的困难版本。具体有两种方式,一种是把 test 里面 unseen 的样本,做数据增强来扩充,另一种是在 train 里删掉与 test triple 重复的 5% – 15% 样本,让任务变难。前人方法在这些数据集上都大幅降分
  • 方法上,为了在 unseen 上泛化更好,这里基于前人的模型增加了 entity noising 和 context noising。entity noising 是将 entity 随机替换成随便的词,context noising 是将 context 随机交换顺序 or 替换成别的词,都很简单
  • 实验上,这两种 noising 相比原先方法,在 NYT WebNLG 都有提升,在难的数据集上更是大幅提升

发表评论