종이 慢慢 读 - 이기종 치료 효과에 대한 학습 트리거

본 논문 인 이기종 캐주얼 효과에 대한 재귀 분할을 기반으로 두 개의 새로운 요소를 추가한다 :

  • 트리거 : 다른 그룹의 치료를 위해 개인의 임계 값을 선택합니다. 예 쿠폰 노력, 빨간 봉투의 양
  • 새로운 노드 페널티 : 설계 모델의 일반화를 향상시키기 위해

명제

C. 트란 및 E. Zheleva은 2019 년 인공 지능에 AAAI 학술 대회에서 "학습, 이기종 치료 효과에 대한 트리거"

모델

방아쇠

트리거 주로 전위 치료의 계산에 사용된다 등등 약물의 투여 량, 쿠폰의 양으로, 연속 변수이다. 이 때 실험뿐만 아니라 쿠폰 사용자의 보존을 향상시킬 수 있는지, 얼마나 많은 사용자가 투자 수익 (ROI)을 극대화 할 수있는 쿠폰 금액을 사용하는 얻을 기대하고있다.
저자 컴퓨팅은 나무로 나눈 사용자 기반 동안 케이트 트리거 임계 값을 극대화 할 수 있습니다. 처리의 모든 가능한 값을 순회하면서 두 가지 값의 모든 기능을 이송, 최적해 공동 취해진 다. 아래
\ [\ {정렬} T 시작 = {t_i} \ 쿼드 \ 텍스트 {치료 가능한 모든 값} \\ \ theta_l 및 \ 쿼드 \의 텍스트 { 최적 처리 액} \\ F ^ t (S_l) 및 = 최대 _ {\ theta_l} F (S_l) \\ \ 단부 정렬 {} \]

작은 생각
의 느낌 여기에 공간의 가장 트리거의 최적의 선택이있다. 상기 실험군은 치료 효과에 대한 값을 추정하기 때문에 상술하지 단조로운 분할 얻어진 결과 이해되지 않을 경우는 단순하다. 그리고 일부 시나리오에서는 같은 단순히 실험 결과를 극대화보다, N의 비용을 초과하지 않는 소득의 경우 가능한 한 높은 같은 조건에 최적의 솔루션을 얻을 수 있습니다, 현재는 확인할 수 없습니다.

노드 페널티

캐주얼 트리의 ATHEY (2016)에서, 의사 결정 트리가 비용 Functino의 리프 노드 분산을 추가하는 방법으로 오버 피팅의 문제를 해결하고, 추정 케이트의 검증 세트입니다. 새로운 처벌 여기 트란 케이트는 추정에 대한 교육 및 검증 시스템의 차이를 측정하도록 설계 같은 노드를 올렸다.

우리는 먼저 표기법 사용하는 볼
& {= 왼쪽 정렬} 시작 \ \를 [{(x_i로부터, Y_i, T_i가) : x_i로부터는 \}는 X에서 - \\ 및 \ 문자 {를 Where는 X-기능이며, Y는 응답이, T는 AB 테스트입니다 {0,1} \\ 패킷 및 T_i \ 단부 \} \ 쿼드 \\ 및 Y_i = \ {시작할 경우} Y (1) \ 쿼드 T_i = 0 \\ Y (0) \ 쿼드 T_i = {1 \\ 케이스} \\ & 케이트 : \ 타우
(X) = E (Y_i (1) -Y_i (0) | X = x)를 \\ \ 단부 {정렬} \] 다음은 정의되어 ATHEY의 (2,016) 우연한 트리
\ [\ 시작 {정렬} S_l = { (x_i로부터, Y_i, T_i) : X_l에 x_i로부터 \} \ 쿼드 \ 텍스트 { 리프 노드 - 부분적 샘플} \\ 및 \ 모자 {\ mu_t } (S_l) = FRAC \ {1} { N_ {1, t}} \ sum_ {T_i = t 내가} S_l에 \ Y_i \ 쿼드 \의 텍스트 {AB 의미 기 Y} \\ 및 \ 모자 {\ 타우 } (S_l) = \ 모자 {\ mu_1} (S_l) - \ 모자 {\ mu_0} (S_l) \ 쿼드 \ 텍스트 { 리프 노드 케이트} \\ & F (S_l) = N_l * \ 모자 {\ 타우} ^ 2 (S_l \\) 및 \ 텍스트 {선정 fucntion } 최대 \의 sum_ I = { 1} ^ LF (S_i) \\ \ 단부 정렬 {} \]

기차, 발 및 테스트에 첫 번째 전체 샘플 잘라. 교육 업적을 설정으로, 리프 노드의 분산을 추정하는 테스트를 가져 작은 잎 노드 높은 분산을 처벌, 후 리프 노드 열차와 val, 다음에 차이가 손실 함수를 처벌 \ (\ 람다 \) 제어 벌금 크기 :
\ [\를 시작 {= 왼쪽 정렬} 페널티 = N_L ^ {발} * | \ 모자 {타우 \} (S_L ^ {발}) - \ 모자 {타우 \} (S_L ^ {기차}) | \\ 및 비용 = \ {FRAC (1- \ 람다 ) F (S_l ^ {} 기차) - \ 람다 * 패널티} {| N_l ^ {열차} - N_l ^ {발} | \\ +1} \ {단부 정렬} \]

작은 생각의
방법은 쓸모 말할 수 없다 피팅을 통해-의 다양한 해결하지만, 개인적으로 궁극적으로 기능과 결과 값 캐주얼 나무의 특성을 통해, 여전히 비즈니스 로직을 기반으로 검증 할 필요가 있다고 생각합니다. 그리고 오버 피팅의 영향을 변경하는 것보다 샘플의 다른 세트에 값을 특징으로 할 가능성이 높다. 따라서, 주관적 판단은 여기에 또한 매우 중요하다

기타 관련 모델은 자세한 봄에 인과 추론을 - 실제 HTE 종이 수집 GitHub의

환영 메시지 ~

추천

출처www.cnblogs.com/gogoSandy/p/11718313.html