跳至内容
- 来源:arXiv 2103.14620v1
- 任务:多标签句子分类
- 方法:用句子里所有 token 和所有 label 建立二分图。初始化的时候,token 之间只连相邻词和自环边,label 之间只有自环边,label 和 token 之间用 cosine 相似度作为边权,然后接 GCN。(然后应该是再用余弦相似度重新计算 l-t 的边权,再来下一层 GCN,不过文章里没说清楚)预测的时候就将所有 token 的最后一层到这个 label 的边权加和,作为这个文本在这个 label 的分数。
- 思考:
- 作者文中说 “We transfer the MLTC task to a link prediction task within a heterogeneous graph”,这实在是欺骗感情
- 看性能还挺厉害的,感觉可以参考,一方面是这种“不断更新图的结构”的方法(不过 LSR 已经用过了),另一方面是加入 label 节点的想法。不过能不能在多种节点的图中再加入 label 节点呢?感觉在异质图中,加入一个 label 节点,这个 label 节点不能和其它的一视同仁,得像 ACL sub_109 一样分成好多个二分图?