확률 및 통계 - 기대, 분산 및 최소 제곱

개별 공용 수의이 문서 원산지 : TechFlow


이 문서의 오늘, 우리는 이야기 기대와 분산 .


기대


: 우리는 위키 백과의 교과서 정의에,이 개념을 매우 초기의 접촉을 기대 는 합계의 확률을 곱한 결과에있는 각 실험에서 발생할 수있는 확률 변수의 값의 결과를 나타냅니다 . 즉, 기대 값은 실험의 수의 측정은, 평균 결과는 모든 가능한 상태들에 의해 얻어진.


우리는 두 가지 간단한 예를 제공, 첫 번째 예는 쓰레기입니다.


우리는 모두 여섯 얼굴, 즉 1,2,3,4,5,6와 그 주사위를 알고있다. 우리는 각각의 얼굴에 던지는 확률을 얻을 때마다있는이 1/6, 동일합니다. 주사위이 이벤트를 굴러 들어, 예상해야한다 :

\ [E (X) = 1 * \ FRAC는 {1} {6} + 2 * \ FRAC는 {1} {6} + \ cdots + 6 * \ FRAC는 {1} {6} \ 3.5 =]

우리는 주사위를 많이 던져 즉, 평균 결과는 3.5해야하지만,이 점에 주사위 밖으로 던져 수 없습니다.


또 다른 고전적인 예는 것입니다 기회의 게임 , 높고 낮은 수준이 이전 도박꾼, 그러나 기대의 개념을 확실히 잘 알고. 38 자리를 갖도록 미국 룰렛과 같은 간단한 예제를 제공하기 위해, 각각의 숫자를 내기 할 수있다. 충전 나쁜 후 돈이 아닌 경우 충전의 경우, 도박꾼, 35 배의 보너스를 얻을 수 있습니다. 우리는 카운트 다운 기대 :

\ [E (X) = -1 * \ FRAC {37} {38} + 35 * \ FRAC {1} {38} = - \ FRAC {3} {38} \]

우리는 기대는 것입니다 볼 수있는 음의 값을 우리가 잃는 것, 많은 시간을 재생할 경우, 단기적으로 수익성이 될 가능성이 높습니다.


변화


제 개념 편차가의 측정은, 분산 인 변수의 분산 정도 . 그 공식은 : \ (V (X) = E ((X - \ MU) ^ 2) \) , \ (\ MU는 \) 변수의 X를 의미한다 원하는 값. 그 기대가 기대 차이 제곱으로 말하면, 편차는 변수 X를 의미 분산 큰 이산 변수 X가 작은 X 변동 범위를 작게,보다 심각 나타낸다 .


때문에 (^) (X- \ MU \ 2 \) 이어야 음이 아닌 값을 변수에 있도록 분산이 음수이어야 . 우리는 또한 우리가 지금 동전 던지기 게임을 가지고 가정, 예를 들어 도박을 사용합니다. 동전 던지기 때마다, 10,000 위안 이기면 직시은 9,000 손실 된 경우 백업 할 수 있습니다. 이 게임 500 위안 것으로 예상되는 것을 쉽게 알 수있다. 그것은 우리가 각 라운드 평균 5백위안을 이길 수있는 말을하는 것입니다.


그러나, 우리는 분산이 위대한 게임에서 볼 수에 포함되지 않습니다. 우리가 정말이 게임을하면 높은 확률의 많은 승리하고 수익을 안정화하기 어려운, 심하게 사이에서 방황 손실됩니다. 또한 우리가 돈이 파산 승리 할 시간이 없었어요 가능성이 있습니다.


분산의 개념은,이 게임에서, 이유를 이해하기 쉽습니다 배 베팅 전략은 가능하지 않습니다.


소위 전하 배 전략이며, 우리는 시대의 다음 다음 라운드를 잃게 돈에 충전 전류를 돈을 잃은 경우 게임에서 현재 중 50 %의 성공률. 당신이 내기를 잃는 경우 지금까지 승리 할 때까지 시간이 계속 . 이 전략으로는, 이론적으로, 손실의 지속적인 위험을 견딜 수만큼 최종 승리, 당신은 전에 모든 돈을 돌려 이길 수 있습니다.


우리는 변화의 개념을 이해 한 후에는이 전략을 쉽게 찾을 수 있습니다이 전략의 차이가 매우 크기 때문에, 가능하지 않습니다. 이익 이전에, 그들은 나타납니다 요금에 따라 상황을 파괴하는 것만으로는 충분하지 않습니다 즉, 뇌진탕이 감당할 수없는 값으로 쉽다.


표준 편차


다음 개념은 표준 편차, 분산을 이해하기 위해, 표준 편차도 잘 이해. 표준 편차이다 분산의 제곱근 이산 샘플들을 반영하기 위해 사용 된 바와 같은, 표준 편차.


정의와 분산 및 표준 편차의 사용은 매우 정상적인 상황에서 매우 비슷하기 때문에, 우리는 분산 장면이 더있을 것입니다 사용합니다. 이 작은 도입 그래서, 우리는 모든 개념을 알고 계산 방법이 될 수 있습니다.


최소 제곱 법


최소 제곱 법은 매우 유명합니다, 지금은 기계 학습과 깊은 학습 모델의 많은 널리 사용된다. 소위 사각형, 사실, 평균의 제곱. 이라고도 최소 제곱 법 , 평가 결과를 예측하는 데 사용하는 방법 및 실제 오류.


우리가 쉽게 어디 평방 무엇을 이해 할 수있는 최소?


광장을 의미 광장의 오류 , 우리는 공식을 쓰고, 그것을 이해하기 쉽다 :

\ [SE = \ SUM (PRED Y_는 {} - Y) ^ 2 \]

여기서 \ ({} PRED Y_는 \) 받는 지칭 예측값 , Y는 지칭 샘플 값 . 우리는 사실, 모든 샘플은 오류가 제곱 예측 오차 값과의 진정한 가치이며 제곱, 공식에서 볼 수 있습니다. 최소 제곱 법이다 제곱 오차를 최적화하는 것이 가장 좋은 찾기 위해 가능한 한 작게입니다 그래서, ({PRED} Y_ \) \ 방법.


이 방법은 주로 중 회귀 모델에 사용됩니다.


우리는 간단하게 기계 학습 분야에서, 회귀 모형의 개념을 설명, 가장 일반적으로 사용되는 모델은 회귀 및 분류 모델로 나눌 수 있습니다. 분류 모델은 모델의 결과를 예측하는 모델에 의해 예측 된 결과에 다른 두 거짓 간의 차이는 시료 인 범주에 속한다 . 회귀 모델의 예측 결과는 모델은입니다 특정 값 .


나는 미래의 재고가 있습니다 예측하는 모델을 설계 할 같은 오늘 여기에 간단한 예제입니다 중 하나를 위 또는 아래로, 다음 두 가지 경우에만 분명히, 주식 다운. 이 분류 모델이지만, 내일의 주식 특정 지수를 예측하려는 경우, 그것은 특정 값의 결과입니다 그래서, 이것은이다 회귀 모델 .


우리는 일반적으로 감소 오류로, 우리는이를 회귀 모델의 예측 능력에 대한 제곱 오류 응답을 사용하여보다 정확한 결과를 얻기 위해 모델의 능력을 향상시킬 수 있습니다. 어떻게 우리가 오류를 줄이고, 오류를 줄일 않습니다되는 질문은 왜 모델 그것의 능력을 향상 할 수 있습니까?


우리가로 축약 모델의 결과를 예측 하겠지만, 먼저 \ (Y_를 \ {PRED})\ ({PRED} Y_는 \) 하늘에서 가을, 그것은 뒤에 모델은 매개 변수와 인수의 숫자에 의해 계산 된 x를하지. 우리는 회귀 모델로 1 달러 기능을 넣을 경우, 간단한 예제를 부여하려면 \ (Pred를 가산 Y_ {B} = WX + \) . 여기서 w하는 파라미터, 및 B이다.


우리는 제곱 오차 모델은 W 및 B 찾기 위해 더 나은 감소, 그 같은 계산 (\ Y_ {PRED}) \가 적은 오류, 더 정확한.


그래서, 우리는 어떻게 오류를 줄일 수 있습니까?


이 이차 함수입니다 찾을 수의이 사각형의 수식 오류 합 살펴 보자. 그는, 이차 함수의 극값을 배운 우리의 고등학교는 유도하여 얻을 수 있습니다. 유도뿐만 아니라, 다른 최적화 방법이이 문서의 초점이되지 않습니다, 거기에, 기사는 미래에 공유에 대한 선형 회귀 모델을 소개합니다.


마지막으로, 우리는 당신이 어떤 느낌이있는 경우 모르는 광장과 분산의 최소 금액에 대한 공식을 다시 방문. 우리는 진짜 기대, 다음 오류 분산 및 광장과 아직 같은에서의 결과로 샘플을 채취하는 경우?


개인적 차이는 사각형의 반응과 같은 오류 합계 이산 샘플의 기대 값의 정도의 측정은 이산 상황의 실제 값에 대한 결과를 예측하는 것처럼 그 이해 될 수 있다고 생각. 자연 예측은 진정한 가치, 더 나은 모델의 분산 정도를 낮 춥니 다. 그래서이 두 개념의 본질은 상호있다.


기대는 최소 제곱의 일부 우리의 대부분은 잘 알고 있습니다 분산의 개념과 사각형의 에러 합계 낯선 통치. 우리는이 글을 통해, 당신이 기대를 이해하고 오류가 제곱 오류 및 최소 제곱 법의 합계로 마이그레이션 할 수 있기를 바랍니다. 지식은 특정 학습 경로의 빠른 마이그레이션이기 때문입니다.


여기에 오늘의 기사, 나는 당신이 뭔가를 얻을 수 있기를 바랍니다. 이 문서를 좋아한다면, 그가 뽑아 지적하십시오 우려 를.

추천

출처www.cnblogs.com/techflow/p/12232364.html