自然语言处理系列---分词与词向量

【分词与词向量】

主要是 jieba 和 gensim.models.word2vec 使用

http://www.cnblogs.com/baiboy/p/jieba1.html 【结巴分词资料汇编】结巴中文分词官方文档分析(1)
http://www.cnblogs.com/baiboy/p/jieba2.html 【结巴分词资料汇编】结巴中文分词源码分析(2)
http://www.cnblogs.com/baiboy/p/jieba3.html 【结巴分词资料汇编】结巴中文分词基本操作(3)

https://www.cnblogs.com/royhoo/p/6642141.html ansj原子切分和全切分
https://www.cnblogs.com/royhoo/p/6653538.html ansj构造最短路径
https://www.cnblogs.com/royhoo/p/6716468.html ansj人名识别
https://www.cnblogs.com/royhoo/p/9149172.html 神经网络及其训练
https://www.cnblogs.com/royhoo/p/CS224n-0.html CS224n笔记0
https://www.cnblogs.com/royhoo/p/CS224n-assignment-1.html CS224n-作业1
https://www.cnblogs.com/royhoo/p/How-to-represent-words.html 自然语言处理——词的表示
https://www.cnblogs.com/royhoo/p/Advanced-Word-Vector-Representations.html 高级词向量表示
https://radimrehurek.com/gensim/models/doc2vec.html python版本word2vec实现
https://radimrehurek.com/gensim/models/word2vec.html python版本doc2vec实现

【自然语言处理】

https://www.cnblogs.com/jiangxinyang/p/9377970.html 自然语言处理简述
https://www.cnblogs.com/jiangxinyang/p/9330876.html 自然语言处理之jieba分词
https://www.cnblogs.com/jiangxinyang/p/9332769.html 自然语言处理之word2vec

https://www.cnblogs.com/jiangxinyang/p/9368482.html 自然语言处理之序列标注问题
https://www.cnblogs.com/jiangxinyang/p/9321756.html 自然语言处理之信息论基础
https://www.cnblogs.com/jiangxinyang/p/9338553.html 自然语言处理之卷积神经网络应用
https://www.cnblogs.com/jiangxinyang/p/9358339.html 自然语言处理之LDA主题模型

https://www.cnblogs.com/jiangxinyang/p/11512596.html NLP中的预训练语言模型(一)—— ERNIE们和BERT-wwm
https://www.cnblogs.com/jiangxinyang/p/11528215.html NLP中的预训练语言模型(二)—— Facebook的SpanBERT和RoBERTa
https://www.cnblogs.com/jiangxinyang/p/11534492.html NLP中的预训练语言模型(三)—— XL-Net和Transformer-XL
https://www.cnblogs.com/jiangxinyang/p/11715678.html NLP中的预训练语言模型(四)—— 小型化bert(DistillBert, ALBERT, TINYBERT)
https://www.cnblogs.com/jiangxinyang/p/11813054.html NLP中的预训练语言模型(五)—— ELECTRA

【文本分类实战】

https://www.cnblogs.com/jiangxinyang/p/10207273.html 文本分类实战(一)—— word2vec预训练词向量
https://www.cnblogs.com/jiangxinyang/p/10207482.html 文本分类实战(二)—— textCNN 模型
https://www.cnblogs.com/jiangxinyang/p/10207686.html 文本分类实战(三)—— charCNN模型
https://www.cnblogs.com/jiangxinyang/p/10208163.html 文本分类实战(四)—— Bi-LSTM模型
https://www.cnblogs.com/jiangxinyang/p/10208227.html 文本分类实战(五)—— Bi-LSTM + Attention模型
https://www.cnblogs.com/jiangxinyang/p/10208290.html 文本分类实战(六)—— RCNN模型
https://www.cnblogs.com/jiangxinyang/p/10208363.html 文本分类实战(七)—— Adversarial LSTM模型
https://www.cnblogs.com/jiangxinyang/p/10210813.html 文本分类实战(八)—— Transformer模型
https://www.cnblogs.com/jiangxinyang/p/10235054.html 文本分类实战(九)—— ELMO 预训练模型
https://www.cnblogs.com/jiangxinyang/p/10241243.html 文本分类实战(十)—— BERT 预训练模型

猜你喜欢

转载自www.cnblogs.com/satansz/p/12903500.html