PCA дал РПКУ

PCA дал РПКУ

РПКА РС и от имени, чтобы увидеть некоторую разницу сходства между этими двумя различными ошибки гипотезы, ошибки данных РС Предполагается гауссово распределением, то есть меньше данные шума; РПКА шум предполагает, что данные скудны, и может шум силен;

Анализ главных компонент для получения общего Есть два способа:

  • В последнее время реконфигурирования: образец указывают на гиперплоскости, чтобы быть как можно ближе;
  • Максимальная сепарабельность: точки отбора проб проецируются на этой супер плоскости, отстоящей, насколько это возможно, то есть, чтобы максимизировать дисперсию проекции;

Вернемся к проекционного алгоритма, основанного на максимизации дисперсии, в первую очередь, давайте рассмотрим операцию шаги PCA:

  • Центр обработки выборки данных (эта операция является более важной, в частности, для вывода формулы)
  • Ищу образец ковариационной матрицы;
  • Из разложения собственных значений матрицы ковариации образца, а также путем сопоставления первых к собственных векторов, соответствующих собственным значениям:

\ [\ Boldsymbol {х} _ {я} ^ {\ простое число} = \ влево [\ начинают {массив} {C} {\ boldsymbol {\ Omega} _ {1} ^ {\ mathrm {T}} \ boldsymbol { х} _ {я}} \\ {\ boldsymbol {\ Omega} _ {2} ^ {\ mathrm {T}} \ boldsymbol {х} _ {я}} \\ {\ vdots} \\ {\ boldsymbol { \ Omega} _ {d} ^ {\ mathrm {T}} \ boldsymbol {х} _ {я}} \ {конец массива} \ право] \]

Максимальное отклонение происходит:

Предположим , что исходные координаты \ (\ влево \ {\ boldsymbol {V} _ {. 1}, \ boldsymbol {V} _ {2}, \ ldots, \ boldsymbol {V} _ {n-} \ право \} \) , после того, как центрирование выражается как \ (\ влево \ {\ boldsymbol {х} _ {1}, \ boldsymbol {х} _ {2}, \ ldots, \ boldsymbol {х} _ {N} \ правый \} = \ влево \ {\ boldsymbol {v} _ {1} - \ boldsymbol {\ му}, \ boldsymbol {v} _ {2} - \ boldsymbol {\ му}, \ ldots, \ boldsymbol {v} _ {п} - \ {boldsymbol \ MU} \ право \} \) , скалярное произведение вектора может быть понято как вектор длины первого выступа на втором векторе, так что \ (x_i \) в \ (\ Omega \) проецируется на может представлять является \ (\ влево (\ boldsymbol { х} _ {я}, \ Omega \ справа) = \ boldsymbol {х} _ {я} ^ {\ mathrm {T}} \ boldsymbol {\ Omega} _ {\ mathrm { }} о \) , свете вышеизложенного, мы должны быть оптимизированы , чтобы максимизировать функцию проекции представляет собой дисперсию, а именно:

\ [\ Начинаются {выровнен} D (\ boldsymbol {х}) = & \ гидроразрыва {1} {N} \ sum_ {= 1} ^ {N} \ влево (\ boldsymbol {х} _ {я} ^ { \ mathrm {T}} \ boldsymbol {\ Omega} \ справа) ^ {2} = \ гидроразрыва {1} {N} \ sum_ {I = 1} ^ {N} \ слева (\ boldsymbol {х} _ {я } ^ {\ mathrm {T}} \ boldsymbol {\ Omega} \ справа) ^ {\ mathrm {T}} \ влево (\ boldsymbol {х} _ {я} ^ {\ mathrm {T}} \ boldsymbol {\ омега} \ справа) \\ = & \ гидроразрыва {1} {N} \ sum_ {= 1} ^ {N} \ boldsymbol {\ Omega} ^ {\ mathrm {T}} \ boldsymbol {х} _ {я } \ boldsymbol {х} _ {я} ^ {\ mathrm {T}} \ boldsymbol {\ Omega} \\ = & \ boldsymbol {\ Omega} ^ {\ mathrm {T}} \ влево (\ гидроразрыва {1} {п} \ sum_ {= 1} ^ {N} \ boldsymbol {х} _ {я} \ boldsymbol {х} _ {я} ^ {\ mathrm {T}} \ справа) \ boldsymbol {\ Omega} \ конец {выровнены} \]

Кроме того, можно получить максимальное направление проекции необходимо решить максимальное собственное значение матрицы ковариации, соответствующий матрице признака

\ [\ Влево \ {\ {начинаются массив} {л} {\ макс \ влево \ {\ Omega ^ {\ mathrm {T}} \ Sigma \ Omega \ \ правый}} \\ {\ текст {St} \ Omega ^ {\ mathrm {T}} \ Omega = 1} \ {конец массива} \ вправо. \]

РПКА

РПКА для решения данных , содержащих резкий шум большой амплитуды, основное предположение состоит в том , что матрица данных содержит информацию о конфигурации (которая является низкой матрицей ранга), и матрицу шума (матрица редка), желательно РПКА исходной матрицы в \ (D = A + E \) в виде:

\ [\ Мин _ {A, E} \ {OperatorName ранга} (А) + \ Lambda \ | Е \ | _ {0} \ четырехъядерных \ текст {St} А + Е = D \]

Здесь \ (ранг (\ CDOT) \ ) и \ (L_0 \) норма невыпуклая, не гладкая, следовательно , необходимость масштабирования, то есть, использование ядерной нормы альтернативной \ (ранга (\ CDOT) \ ) , используя \ (L_1 \) вместо \ (L_0 \) : \
[\ мин _ {A, E} \ | A \ | _ {*} + \ лямбда \ | Е \ | _ {. 1} \ Quad \ текст {ST} \ Quad A + E = D \]

разница

PCA цели оптимизации являются:

\ (D = L + N \) , т.е. низкий ранг матрицы L и гауссов шум независимыми и одинаково распределенными;

РПКА цель оптимизации являются:

\ (D S = L + \) , то есть, с низким уровнем ранг матрицы L и резкого шумом разреженной матрицей \ (S \)

Справка: https://blog.csdn.net/u010545732/article/details/19066725

рекомендация

отwww.cnblogs.com/curtisxiao/p/11389739.html