0.0内容 - レッスン深い学習-Stanford教授アンドリュー・ウ「ニューラルネットワークは改善します」

ディレクトリ

「ニューラルネットワークの改善」 メモ一覧
1週目 の深い学習の実践的な側面
週1ポータル - > [1.1研修/開発/テスト・セット]
[1.2偏差/分散]
[1.3機械学習の基礎]
[1.4正則]
[正則がオーバーフィッティングを減らすことができますなぜ1.5]
[1.6ドロップアウト正則]
[1.7は、ドロップアウトを理解する]
[1.8他の正規化方法]
[1.9正規化された入力]
[1.10勾配消失及び勾配爆発]
[ニューラルネットワーク再初期の1.11重み]
[1.12勾配近似]の値
[1.13勾配試験]
勾配試験の[1.14注意]達成
第2週 最適化アルゴリズム
2週ポータル - > [2.1ミニバッチ勾配降下]
[2.2理解そのミニバッチ勾配降下]
[加重平均2.3索引]
[加重平均2.4高く評価指標]
[補正の2.5指標の加重平均偏差]
[2.6運動量勾配降下方法]
[2.7 RMSprop ]
[2.8アダム最適化アルゴリズム]
[2.9学習率の崩壊]
[2.10局所最適]
第3週 超パラメータ・テスト、バッチ正則と手続きのフレームワーク
週3ポータル - > [3.1デバッグ]
[3.2は、適切な範囲の選択は、ハイパーパラメータである]
:[パンダFC対キャビア3.3トレーニング練習超パラメータ]
[3.4正則化ネットワークの活性化関数]
[3.5バッチノルムがニューラルネットワークに収まる]
3.6 [バッチノームなぜ仕事]
[3.7テストノーム]でバッチ
[3.8ソフトマックス・リターン]
[分類器を訓練3.9ソフトマックス]
[3.10深い学習フレームワーク]
[3.11 TensorFlow]
インタビュー ダニエルインタビュー
ポータル - > Yoshua
慶林
彼は187元の記事を発表 ウォン称賛7 ビュー10000 +

おすすめ

転載: blog.csdn.net/weixin_36815313/article/details/105369644