DAGN: Discourse-Aware Graph Network for Logical Reasoning

  • 来源:arXiv 2103.14349v1
  • 任务:LogiQA 的任务(我觉得和 MRC 也没啥区别,只有一轮的 QA 不就是 MRC 吗
  • 方法:(2)是主体结构,拼接 context question option 得到表示。中间加了一个 Graph Reasoning,是把文本按照各种“有逻辑的连词”以及标点,切分成多个 discourse unit,边就分成“连词”和“标点”两类,用一个简化的 GAT 做 reasoning。在(3)这部分是组合之前得到的信息,他画的不太清楚,说 the variant-length encoded context sequence, question-and-option sequence are pooled via weighted summation wherein the weights are softmax results of a linear transformation of the sequence, resulting in single feature vectors separately。我也没有很理解, context 和 discourse embedding 都只是作为加权 question 和 option 的 weight 了吗?这里的加权是直接对 question 和 option 里面的所有词加权吗?我没看明白
  • 思考:这种用“连词”作为推断的基,感觉跟还挺有道理的,不过与关系推断就没什么相关性了。

发表评论

您的电子邮箱地址不会被公开。