基于非线性全局上下文的词嵌入

LIU YongBin, OUYANG ChunPing,ZHONG DongLai,LI JuanZi,YUAN BoZhi,LI Qi

中国科学信息科学(2016)

引用 0|浏览23
暂无评分
摘要
针对当前词表示方法中的上下文的局限性,文章提出了一个基于非线性全局上下文的词表示方法.该方法主要分为两步骤,首先利用维基百科的排歧页,对文档中的当前词进行排歧处理,以此来提高词表示的效果.然后,再针对传统词表示方法中的线性局部上下文问题,利用依存和共指关系对语料进行分析,得出基于非线性全局上下文的词表示向量.文章选取英文维基百科数据集作为实验语料,在定性分析方面,该方法可以找到更接近当前词义的相关词,因对多义词进行了排歧处理,词表示结果上明显好于其他的方法.在定量比较方面,通过在Word Sim-353数据集上对比实验表明,该方法在Spearman相关系数上比其他方法高出5%~10%以上.
更多
查看译文
关键词
neural networks,coreference resolution,deep learning,word-sense disambiguation,nonlinear global context,dependency parsing,word vector,word embedding
AI 理解论文
溯源树
样例
生成溯源树,研究论文发展脉络
Chat Paper
正在生成论文摘要