DeepFM : 论文 CTR 예측을위한 신경망 (2017)을 기반으로하는 인수 분해 - 기계 要点

논문 링크 :  https://arxiv.org/pdf/1703.04247.pdf

 

FM 원리 참조 :

libFM 종이와 인수 분해의 기계가 읽을   https://www.cnblogs.com/yaoyaohust/p/10225055.html

GBDT, FM는, FFM은 파생   https://www.cnblogs.com/yaoyaohust/p/7865379.html

 

범주 형 한 핫 부호화 특성에 직접 또는 이산 한 핫 부호화 후에 연속 표시 특성.

핵심 아이디어는 크로스 용어 사용을 내장으로 FM 모델 무게의 출력을하는 것입니다, FM과 깊은 부품이 삽입을 공유했습니다.

(전체 훈련 때문에), 프로젝트 기능을하지 않도록 훈련을 미리하지 않습니다 (FM 때문에) 동안 낮은 순서와 높은 순서 상호 작용 측면 (FM 및 NN 등).

 

评估 : AUC, LogLoss (크로스 엔트로피)

신속한 트레이닝

활성화 함수 : relu 더 S 자형보다 일반적인 TANH 및 더 relu TANH보다 (감소의 희소성 때문에)

드롭 아웃 : 0.6-0.9

레이어 당 뉴런 : 200-400

최적 은닉층 3

네트워크 형태 : 상수 (폭, "매우 만족")

 

추천

출처www.cnblogs.com/yaoyaohust/p/11272566.html