ロジスティック回帰は、知識・ポイントが必要です
- 私たちは、ロジスティック回帰機能の損失を知っています
- ロジスティック回帰の最適化は知っています
- 私たちは、シグモイド関数を知っています
- あなたは、シナリオロジスティック回帰を知っています
- アプリケーションロジスティック回帰はロジスティック回帰予測を実現します
- 私たちは、精度の違いを知って、リコール指標
- 私たちは、評価サンプルの不均衡を解決する方法を知っています
- 指示AUCインデックスのサイズの意味を理解するためのROC曲線
- Classification_report正確なアプリケーション、リコール計算
- コンピューティングアプリケーションのための指標roc_auc_score
記事のディレクトリ
ロジスティック回帰は、APIを導入しました
- sklearn.linear_model.LogisticRegression(ソルバ= 'liblinear'、ペナルティ= 'L2'、C = 1.0)
- オプションソルバパラメータ:{ 'liblinear'、 'サグ'、 '佐賀県'、 'ニュートン-CG'、 'lbfgs'}、
- デフォルト:「liblinear」;最適化問題のためのアルゴリズム。
- 小さなデータセットの場合、「liblinearは」良い選択、「サグ」と速く大規模なデータセットのための「サガ」です。
- 問題の多くの種類の、唯一の「ニュートン-CG」、「サグ」、「サガ」と「lbfgs」の損失の数を処理することができます。唯一の「1対残りの」分類「liblinear」。
- ペナルティ:の種類の正則もペナルティ項と呼ばれる正則化項、あまりにもそれを罰するために、予防するためにモデルを微ので、
- C:正則化努力と線形回帰アルファ理由です
- オプションソルバパラメータ:{ 'liblinear'、 'サグ'、 '佐賀県'、 'ニュートン-CG'、 'lbfgs'}、
正の例として、デフォルトカテゴリの数が少ないです
ロジスティック回帰法はSGDClassifier(損失=「ログ」、ペナルティ=「」)、SGDClassifier実装共通確率的勾配降下法学習と等価です。使用ロジスティック回帰は、SAGを達成し、