RNN->attention->transformer

https://blog.csdn.net/qq_39422642/article/details/78676567

通俗易懂的理解attention:

比如,我的世界,我爱涵涵。这两个句子中的"我“,虽然都是"我",但是代表的意思的不同的,即汉语中的一词多意,在不同的语境下,一个词语的意思可能是不同的。因此,我们在对序列建模时,要考虑上下文关系。attention可根据上下文,学习到不同的词意。

比如,我爱涵涵,"我"由0.6的"我"组成,由0.2的”爱"组成,由0.2的"涵涵"组成。

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 一、背景 注意力模型(Attention Model)被广泛使用在自然语言处理、图像识别及语音识别等各种不同类型...
    河海中最菜阅读 2,407评论 1 2
  • 第一章 30岁的关头,年龄的压力确实的来了,而我也确实的从一名少年变成了一位大叔,内心常常有慌张感。30岁似乎就近...
    马戏团的我xd阅读 1,012评论 8 6
  • 雪 融化过往 抚平记忆的伤 泪眼婆娑 恍惚中 是你是我 出入成双,琴瑟悠扬 是否还记得 那山上炊烟缭绕 几户人家,...
    觅雪DIY阅读 259评论 0 9
  • 我不后悔 拉开你我之间的距离 我不后悔 明白却假装不知道 只是 有时 我会莫明的心痛 懊恼 流着泪说:那时的阳光正...
    杀少阅读 196评论 0 2
  • 你是蓝天白云下的暖风 缥缈的抚摸过我的心灵 所以 我爱上了世间一切的风 你是现代诗歌中的那个远方 是我睡梦中想要寻...
    南窗饮风阅读 324评论 2 13