word2vec

n-gram:主要工作是在语料中统计各种词串出现的次数以及平滑化处理,计算一个句子的概率时,只需要找到相关的概率参数,将它们连乘起来就好。

神经网络概率语言模型优点:

  • 词语之间的相似性可以用词向量体现
  • 词向量自带平滑功能

四个名词:

  • CBOW模型:从上下文预测关键词
  • skip-gram:从关键词预测上下文
  • hierarchical softmax:树
  • negative sampling:正负样本

hierarchical softmax:建立一个哈弗曼树,优化目标是:让词向量沿路径到达它所在的叶节点的可能性最大,具体方法是用梯度下降法改进非叶结点的参数。
CBOW的hierarchical softmax模型:求窗口中的向量和,沿路对每一个节点进行优化,最后优化词向量
skip-gram的hierarchical softmax模型:用选中的词向量,对窗口中的其他词的路径中的节点做优化
以上两种方法的区别仅在于:一个是求得和向量,只对本词路径做优化。另一个是用本身词向量对其他若干节点做优化。

negative sampling的训练目标:最大化g(w)



CBOW:用和向量对窗口中的每个词进行训练


skip-gram:把窗口中的每一个词都看作中心词进行训练,优化每一个词向量


最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 只说人话,不砌公式,让非数学专业读者能看明白的Word2Vec。 1. Word2Vec的作用 顾名思义,Word...
    巾梵阅读 17,912评论 2 42
  • 在各种大举深度学习大旗的公司中,Google公司无疑是旗举得最高的,口号喊得最响亮的那一个。2013年末,Goog...
    chaaffff阅读 17,064评论 0 29
  • 由于对nlp还没有整体的了解,只是看了几篇博客。现,只说word2vec。word2vec其实只是工具。 输入是 ...
    吹洞箫饮酒杏花下阅读 7,278评论 0 3
  • 写在前面 态度决定高度!让优秀成为一种习惯! 世界上没有什么事儿是加一次班解决不了的,如果有,就加两次!(- - ...
    夜尽天明时阅读 18,868评论 3 14
  • 百病成医,看来我患病的次数还不够多… 上礼拜傍晚,踏上滑板就屁颠屁颠的出去浪了,校内一路应该吸引不少眼球。嗯,之后...
    夕影西逝阅读 1,651评论 0 0