Leveraging Sentence-level Information with Encoder LSTM for Semantic Slot Filling

论文: http://www.aclweb.org/anthology/D16-1223

亮点:考虑进整个句子的信息。提出encoder-labeler LSTM,先用encoder LSTM把整个句子编码成一个定长向量,然后将其作为labeler LSTM的初始状态。


Introduction

LSTM已经广泛应用与sequence labeling,又考虑到encoder-decoder模型在机器翻译上的成功,这篇文章就提出一个encoder-labeler LSTM去把句子级别的信息整合到slot filling任务。主要贡献是:

  1. Proposed an encoder-labeler LSTM to leverage sentence-level information for slot filling.
  2. Achieved the state-of-the-art F1-score of 95.66% in the slot filling task of the standard ATIS corpus.

Methods

  • Labeler LSTM(W)
    Typical LSTM for slot filling. (W) means words are fed to the LSTM.
    缺点:没有考虑label之间的依赖关系

  • Labeler LSTM(W+L)
    除了words,上一个时刻的output label也作为隐层的输入。
    在训练的时候,输入的是真实label (one-hot-vector),测试时是预测的label。

  • Encoder-decoder LSTM
    机器翻译的encoder-decoder模型,不过不同的是,encoder-labeler接受同样的输入序列两次,而不是一次。

  • Encoder-labeler LSTM(W)
    encoder LSTM倒序读入整个句子,最后的隐层中还有整个句子的信息。labeler LSTM和(a)一样,不过初始隐层向量用encoder的最后隐层初始化。

  • Encoder-labeler LSTM(W+L)
    encoder和(d)一样,labeler和(d)一样


Experiments

  • ATIS
    Encoder-labeler的比对应单labeler的好,W+L相比于W没有提升
  • a large-scale data set
    MIT Restaurant + MIT Movie + ATIS

Conclusion

以后可以把encoder-labeler LSTM方法与multi-task (slot filling & intent classification)结合

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 前面的文章主要从理论的角度介绍了自然语言人机对话系统所可能涉及到的多个领域的经典模型和基础知识。这篇文章,甚至之后...
    我偏笑_NSNirvana阅读 14,801评论 2 64
  • 我是一个普通的女孩子。我有很多缺点。做事情优柔寡断,难以下决定。我没自信,做什么事情都缺乏信心。但我还有这些优点,...
    iceyang阅读 1,319评论 0 1
  • 昨天晚上有预习今天要学习的内容,可是记住的却不多,早上听了丽芳老师的阅读,思路清晰了很多。自己的不足在于...
    殘夢_8153阅读 1,371评论 1 1
  • 汉阴,一座临水而立的小城,山明水秀,朴素的人民,小街小巷子里时刻都弥漫着一种幸福的味道。第一次来到这里,惴惴...
    王贤兰老师阅读 4,365评论 0 0
  • 苦难深重,易生悲愤 安逸太多,容易矫情 看啊! 一张白纸的一个黑点 太抢眼球 打瞌睡的房子里的 跳蚤是明星 或许吧...
    蚕豆湿诗阅读 2,761评论 0 5