LRとSVMの関係との違い。

連絡先:

れる考慮カーネル、LRおよびSVM; 1.LRとSVMは、分類問題を扱うことができ、一般的にバイナリ分類線形治療するために使用されている(改善の場合に複数の分類を扱うことができる)は、すべての教師あり分類アルゴリズムであります線形分類アルゴリズム。
2.LRとSVMは判別モデルです。LR、SVMは、直接判別モデルを生成するために決定木をP(Y | X)を表し、又はY = F(X)判別関数
3つの異なる方法は、L1、L2など、正則化項を増加させることができます。だから、多くの実験では、2つのアルゴリズムの結果は非常に接近しています。

違い:

1、LRは、パラメータ、SVM、ノンパラメトリックモデルです。
ここに画像を挿入説明
ここに画像を挿入説明
図2に示すように、ビュー目的関数の点から、ロジスティック回帰は、物流損失を使用することを除いて、SVMは、ヒンジ損失を使用する。この損失関数の目的は、二つの右の大きなデータポイントの分類に重量を増加させる効果、および分類を減らすとの間の関係であります再小さなデータポイントに右に。これは、異なる損失関数、または自然の異なる分類の原則です。
LRの目標は、最尤推定の確率論に基づいて、分布モデルと経験分布間のクロスエントロピーを最小限に抑えることです。まず、試料は、0又は1の確率はシグモイド関数で表すことができると仮定し、パラメータの推定値は、最尤推定法によって、すなわち、その結果、分布P(Y | X)訓練データの可能分布限り近くモデルによって生成。
目標は、SVM分類間隔(ハードSVM)、または最大化最大化することである[カテゴリ間隔-a *誤判別サンプルの数]の間隔を最大にするために、幾何学的原理に基づく(ソフトSVM)、その幾何学的間隔最大、最適な分類表面分類の顔。
3、SVMのアプローチは、分類器を学ぶために、いくつかのポイントの最も関連性の高いと分類されるのみサポートベクトルを、考慮することです。ロジスティック回帰による非線形マッピングは、大幅にデータ点と分類重み最も関連性を高めるために、分類平面遠重量、相対の右点から減少します。
4、ロジスティック回帰モデルは、特に便利な時に大規模な分類リニア、理解しやすい比較的単純です。そして、唯一の利点を計算し、この複雑なカーネル関数が明白である間に、それは非常にモデルや計算を簡素化することができ、距離といくつかのサポートベクトルを計算する必要がある分類の二重の問題に、SVMを理解し、最適化SVMは比較的複雑です。
5、ロジックはSVMを行うことができます行うことができますが、それは、精度に問題がある可能性があります、SVMを行うことができますし、いくつかのロジックにはありません。
SVMは、LRは、経験的リスクの最小化である、構造的リスクの最小化です。
構造的リスク最小化は、オーバーフィット防止するために、汎化誤差を低減するために、訓練誤差とモデルの複雑さのバランスを追求することです。構造的リスク最小化の目的を達成するために、最も一般的な方法は、定期的にアイテムを追加することです。
必要LRの正則化項を追加するために、第一項のSVM損失がL2正則の関数とみなすことができます。
3、SVMは唯一の界面付近のいくつかのポイントを考慮し、LRは、すべての点を考慮してください。
SVMの決定面は、サポートベクトルの唯一のいくつかのサンプル・ポイントに影響を与えます。任意のサンプルポイントの外側のサポートベクトル分類の決定は、表面には影響を与えません追加または削除します。
LRでは、各サンプル点は、意思決定の表面に影響を与えます。決定は、カテゴリの多数のサンプルから離れて直面する傾向があります。異なるカテゴリ間の深刻な不均衡の数は、データは一般均衡行う必要がある場合。
4、SVMは、可能性がLR生成することができる確率が、生成することができない
5は、非線形問題を解決するために、SVMカーネル関数の機構を用いることができるが、一般LRカーネル関数が使用されません。
SVMごく少数のサンプル(すなわち、係数カーネルマシンソリューションはまばらである)核計算に関与する必要があります。
各サンプルポイントでLRが核計算に関与していることが、計算の複雑さは、それは通常、LRカーネルではないが、高すぎます。
6、SVM計算の複雑さが、小さなデータセットに適したLR、より良い結果、大規模なデータセットに適したLRの簡単な計算、オンライントレーニング。

リリース9件のオリジナルの記事 ウォンの賞賛0 ビュー70

おすすめ

転載: blog.csdn.net/GFDGFHSDS/article/details/104596071