[C5] Sequence Models
其他
2019-06-15 16:38:09
阅读次数: 0
第一周 循环序列模型(Recurrent Neural Networks)
为什么选择序列模型?(Why Sequence Models?)
数学符号(Notation)
循环神经网络模型(Recurrent Neural Network Model)
通过时间的反向传播(Backpropagation through time)
不同类型的循环神经网络(Different types of RNNs)
语言模型和序列生成(Language model and sequence generation)
对新序列采样(Sampling novel sequences)
循环神经网络的梯度消失(Vanishing gradients with RNNs)
GRU单元(Gated Recurrent Unit(GRU))
长短期记忆(LSTM(long short term memory)unit)
双向循环神经网络(Bidirectional RNN)
深层循环神经网络(Deep RNNs)
第二周 自然语言处理与词嵌入(Natural Language Processing and Word Embeddings)
词汇表征(Word Representation)
使用词嵌入(Using Word Embeddings)
词嵌入的特性(Properties of Word Embeddings)
嵌入矩阵(Embedding Matrix)
学习词嵌入(Learning Word Embeddings)
Word2Vec
负采样(Negative Sampling)
GloVe 词向量(GloVe Word Vectors)
情绪分类(Sentiment Classification)
词嵌入除偏(Debiasing Word Embeddings)
第三周 序列模型和注意力机制(Sequence models & Attention mechanism
基础模型(Basic Models)
选择最可能的句子(Picking the most likely sentence)
集束搜索(Beam Search)
改进集束搜索(Refinements to Beam Search)
集束搜索的误差分析(Error analysis in beam search)
Bleu 得分(选修)(Bleu Score(optional))
注意力模型直观理解(Attention Model Intuition)
注意力模型(Attention Model)
语音识别(Speech recognition)
触发字检测(Trigger Word Detection)
结论和致谢(Conclusion and thank you)
转载自www.cnblogs.com/keyshaw/p/11027707.html