- 来源:CIKM 2021
- 机构:西北大学
- 任务:Joint re
- 动机:jre 由于样本空间太大,所以负样本太多了,严重不均衡
- 方法:两点改进
- 多分几步减小样本空间:先抽头实体,再抽头对应的尾,再关系分类。这里设计的网络有点奇怪,embedding 之间做哈德玛积,不知道是什么意思
- 引入 Confidence Threshold based Loss:预测正确且 logits 与 0.5 的距离小于阈值,这样的样本才会算到 loss 里面
- 实验:
- SOTA @ NYT WebNLG
- 新的 loss 在别的方法上能有 0.x 的增长