跳至内容
来源:SIGIR 机构:CAS 任务:DialogRE 挑战:Local Dependency Challenge:local 的 relations 是混合交叉在一起的,尤其是那种共享实体的 relation,需要不同的表示 Speaker Dependency Challenge:那种表示 speakerX 叫什么名字的关系,对于关系抽取有非常大的帮助。比如 (Speaker4, per:alias, Dad) (Speaker2, per:alias, Rose) 这种 方法:encoder:整个 session 输入,中间用 special token 表示 speaker;mention 用 avg pooling 表示 Position Enhanced Graph Attention:建图:所有 mention 作为节点,连两种边: position 的表示:两种相对 position embeddingspeaker id 的距离 d_u 在文本中的距离 d_p 两种 position embedding 过一层 linear 得到 relative position information (这里 m_{i,j} 表示实体 i 的第 j 个 mention) 计算两个 mention 之间的 score:魔改 bilinear(很奇怪,这个不对称呀?) 最后 GAT 一样的信息聚合 Mention Fusion Gate 将原始 BERT 得到的表示与 GCN 得到的表示用 gate 来选择 Entity Pairwise Attention先 avg 所有 mention 得到这个 entity 的 coarse representation 对于一个 entity pair (i, k) 互相做 attention aggregation(用 i 的 coarse 作为 key,k 的 mentions 作为 q 这样) 最后拼接分类 实验:SOTA @ MPDD & DialogRE 之前那些 dialogRE 的方法全都不如同时期 DocRE 的方法,作者说是 ignore the complex relation perplexing phenomenon (又是说了跟没说一样,强行给自己的 motivation 找证据呗) 作者说 Graph neural networks (GNN) help learn smoothed node representations among neighbors, which will prompt the performance of entity pairs with a ground truth relation and do harm to other entity pairs. 我没有理解,他是想说给有关系的 pair 融合了没关系的 pair 的信息所以有害?不懂
文章导航