[C5] Sequence Models

第一周 循环序列模型(Recurrent Neural Networks)

为什么选择序列模型?(Why Sequence Models?)

数学符号(Notation)

循环神经网络模型(Recurrent Neural Network Model)

通过时间的反向传播(Backpropagation through time)

不同类型的循环神经网络(Different types of RNNs)

语言模型和序列生成(Language model and sequence generation)

对新序列采样(Sampling novel sequences)

循环神经网络的梯度消失(Vanishing gradients with RNNs)

GRU单元(Gated Recurrent Unit(GRU))

长短期记忆(LSTM(long short term memory)unit)

双向循环神经网络(Bidirectional RNN)

深层循环神经网络(Deep RNNs)

第二周 自然语言处理与词嵌入(Natural Language Processing and Word Embeddings)

词汇表征(Word Representation)

使用词嵌入(Using Word Embeddings)

词嵌入的特性(Properties of Word Embeddings)

嵌入矩阵(Embedding Matrix)

学习词嵌入(Learning Word Embeddings)

Word2Vec

负采样(Negative Sampling)

GloVe 词向量(GloVe Word Vectors)

情绪分类(Sentiment Classification)

词嵌入除偏(Debiasing Word Embeddings)

第三周 序列模型和注意力机制(Sequence models & Attention mechanism

基础模型(Basic Models)

选择最可能的句子(Picking the most likely sentence)

Bleu 得分(选修)(Bleu Score(optional))

注意力模型直观理解(Attention Model Intuition)

注意力模型(Attention Model)

语音识别(Speech recognition)

触发字检测(Trigger Word Detection)

结论和致谢(Conclusion and thank you)

猜你喜欢

转载自www.cnblogs.com/keyshaw/p/11027707.html