2021-03-17(使用transformer做graph-to-sequence learning)

graph-to-sequence (Graph2Seq) learning的目标是在文本生成任务中将具有图结构关系的表达转换到词序列中,近年来有各种各样的模型去建模图结构信息,但是大多数模型都忽视了两个不相邻节点之间的间接关系或者将这种间接关系与直接关系同等对待。在这篇文章中,我们提出了Heterogeneous Graph Transformer来独立地建模节点中的各种关系,包括间接关系、直接关系以及可能的关系。实验在四个文本生成和语义翻译的常用benchmark上取得了强有力的效果。
Heterogeneous Graph Transformer for Graph-to-Sequence Learning

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容