마늘 도로 2,019m 결승전 기록 캐치 물고기

일 -?

  나는 최종 기계 학습의 시험, 7.5 시간, 매우 신경을 들었다.

  나중에 들었 현장 학교, 그리고 결정하는 사람들이 바 장면을 배울 전에.

1 일

  문제에 아마 트래픽 예측을 봐, 클릭하면 당신은 이미 시간, 위치, 취미 및 기타 데이터를 포함하여 데이터를 많이 가지고 있고, 제공하는 것입니다, 당신에게 CTR을 예측하는 데이터의 무리를했다.

  비트 zjt을 물어, 그는 잔뜩 말했다,하지만 난 이해가 안 돼요.

  그리고 그들은 인터넷이 조금 검색 소유하고, 그것은 매우 간단하고 효과적인 보인다 ", 베이지안 분류"라는 것을 발견, 쓰기 갔다.

  이 같은 생각 :

  베이지안 화학식있다
\ [P (추천 클릭 \ MID (M)) = \ FRAC {P ( ( 추천 M) \ MID 클릭) \ 시간은 P (클릭)} {P (M 등)} \]

  우리는 독립적 인 기능 사이라고 가정
[\ P = P (M은 클릭) (중간 클릭 \ (남성, 사랑)) \ 시간 (클릭 등) P] \가

  분모 분모는 단순히 동일한의 두 부분을 클릭 잘 무시하지 않는 확률과 확률을 클릭합니다.

  그래서 우리의 가능성을 찾을 수 있습니다.

  라플라스 스무딩라는 것은, 관심이있는 학생 수 자신의 검색도 있습니다.

  이건 정말 매우 간단 쓰기, 아주 간단 보인다.

  때문에 나는, 나는 단지 자신을 작성할 수 있습니다 처리되지 않습니다 데이터의 형식, 그것은 나에게 두세 시간이 걸렸다.

  나중에는 쓸의 확률 계산 섹션은 매우 빠르고, 절반 이상의 시간을 마쳤다.

  자신의 시험 약간의 테스트 세트, logloss (I는 단면에서 알게하지 않은이 일을 어떻게 계산) 약 0.37, 다음 약간의 (점수가 다른 테스트 세트) 테스트 logloss 0.58의 높은을 지불합니다. 나는 그것이 얼마나 알고하지 않았다.

  마지막으로, 임의의 파라미터 조정 0.37에 최적의 솔루션이다. 나는 내가 무엇을 조정까지를 잊어 버린. . .

  그 다음은 상을받을 것 같다?

  하지만 여전히 내 동생 깊이 연구를 이겼다.

코드

  첫 번째 비둘기, 다시 학교로 다시 살아왔다.

추천

출처www.cnblogs.com/ywwyww/p/11426477.html