教師付き学習は非常に重要な機械学習アルゴリズムです。教師なし学習と比較して、教師付き学習は、明確な目標を持っています。
分類および回帰二つの主なタスクは、主に以下の9種類の教師あり学習、教師なし学習アルゴリズム共通しています。
1 | ナイーブベイズ | 分類 |
2 | ディシジョン・ツリー | 分類 |
3 | SVM | 分類 |
4 | ロジスティック回帰 | 分類 |
5 | 直線回帰 | リターン |
6 | 回帰木 | リターン |
7 | 近所のK | カテゴリー+リターン |
8 | アダブースト | カテゴリー+リターン |
9 | 神経回路網 | カテゴリー+リターン |
1.ナイーブベイズ(ナイーブベイズ分類器)
ナイーブベイズアルゴリズム(NBC)が最も広く使用されている分類アルゴリズムの一つです。NBCは、データセットが互いに独立している属性、テキストで使用される分類間仮定する。
2.決定木(ディシジョン・ツリー)
ディシジョン・ツリーアルゴリズムは、最終的な分類を達成するために、推論の層をツリー構造を使用しています。
通常、葉は三つの要素、ID3、C4.5ノード、決定木のルート、内部のノードで構成、CARTの決定木は、一般的に3つの代表的なアルゴリズムで使用されています。
3.サポートベクターマシン(SVM)
分類を達成するために境界点の分類からの距離を最大化することにより、平面の分類、および分類平面を見つける問題にSVM分類問題。
SVMは高次元の問題を解決することができ、機械学習は、小さなサンプルサイズの問題を解決することができます。
4.ロジック回帰(ロジスティック回帰)
ロジスティック回帰が起こった何かを表現するために、カテゴリ変数、一般的に2または二項分類問題は、また、複数の分類問題を処理することができる、それが実際に分類方法の一部であるプロセス従属変数回帰であります可能性。
シンプルロジスティック回帰、分類量を計算するときには、主に工業用の問題で使用される非常に速く、低いストレージ・リソース、非常に小さいです。
5.線形回帰(線形回帰)
線形回帰は、最も一般的な処理タスクの回帰アルゴリズムの一つです。それは非常に簡単であるアルゴリズムの形態では、超平面を使用することが望ましい(2つだけの変数が直線である場合)、データセットにフィット。
高速なモデリング線形回帰は、それは大量のデータがまだ速い速度である場合には、複雑な計算を必要としない、と理解し、各変数の係数を解釈するために与えることができます。
ロジスティック回帰と線形回帰は、次のような違いです。
6.回帰木(回帰ツリー)
回帰木は、定義により、木と回帰モデルを行い、すべての葉が予測出力値です。
回归树通过将数据集重复分割为不同的分支而实现分层学习,分割的标准是最大化每一次分离的信息增益。这种分支结构让回归树很自然地学习到非线性关系。
7. K邻近(K-Nearest Neighbor)
K邻近算法是最简单的机器学习算法。
该方法的思路是:在特征空间中,如果一个样本附近的K个最近(即特征空间中最邻近)样本的大多数属于某一个类别,则该样本也属于这个类别。
K邻近算法理论相对成熟,思想简单,既可以用来做分类也可以用来做回归。
8. AdaBoost
AdaBoost目的就是从训练数据中学习一系列的弱分类器或基本分类器,然后将这些弱分类器组合成一个强分类器。
AdaBoost有一个很突出的特点就是精度很高。
9. 神经网络
神经网络从信息处理角度对人脑神经元网络进行抽象,建立某种简单模型,按不同的连接方式组成不同的网络。
在人工智能领域,神经网络通常指人工神经网络,即ANNs。