2019-04-06 14:44:14
内容主要涉及:1,genism 的 word2vec 包的使用——model的训练和神经网络字向量、向量的准备。2, scikit-kearn 中的 K-means 算法和一些特征提取算法的使用。3,word2vec+TF_IDF通过文本 -词权重*词向量-的方式来表达文本语义,再进行文本聚类。——延伸:深度学习文本分类,文本语义的表达方式采用这种对模型进行修正。4,利用肘部法则,确定聚类数目。5,轮廓系数,检验效果。word2vec的使用:文本语义的表达:W*词向量:小知识点:Cou
2019-04-04 19:51:42
参考链接:https://blog.csdn.net/qq_20135597/article/details/83215137
2019-04-01 16:24:33
原理:将成词的词向量也加入到字向量到中。LSTM结构如下:所有能够加入到特征的词语的词向量预先训练好的。如果某个词语不在预先训练好的词向量文件(如下图)中,我们是没有特征加入进去的。
2019-04-01 15:57:30
CRF++的命名实体识别可以参考之前我写的blog。17年用的膨胀卷积神经网络,2018年bert (transfoemer ,attention机制)——+latticeLSTM(结构化的LSTM)目前NER最好的模型。
2019-04-01 15:55:05
序列标准问题-分词,命名实体识别,词性标准,短语块的识别(名词模块,动词模块),意图识别都是序列标准问题。占了接近NLP任务的1/3.
2019-03-28 22:58:04
参考链接:https://baijiahao.baidu.com/s?id=1622064575970777188&wfr=spider&for=pcBERT的名字由来:Bidirectional Encoder Representations from Transformers RNN会将它之前已经处理过的前面的所有单词/向量的表示与它正在处理的当前单词/向量结合起来。而注意力机制会将所有相关单词的理解融合到我们正在处理的单词中。
2019-03-25 09:57:42
seq2seq有哪些应用呢?
2019-03-23 18:54:54
LSTM特别适合解决这类需要长时间依赖的问题。LSTM是RNN的一种,大体结构一致,区别在于:LSTM的‘记忆细胞’是改造过的,该记录的信息会一致传递,不该记录的信息会被截断掉。LSTM外部的结构:下图是多个LSTM想连。忘记门:为什么信息会增强或增加呢?——下图解释。