Paper Digest | 프로토타입 학습 기반 엔터티 그래프 사전 학습 도메인 간 추천 프레임워크

누구나 GitHub에 별표를 표시할 수 있습니다.

분산형 풀링크 인과 학습 시스템 OpenASCE: https://github.com/Open-All-Scale-Causal-Engine/OpenASCE 

대규모 모델 기반 지식 그래프 OpenSPG: https://github.com/OpenSPG/openspg 

대규모 그래프 학습 시스템 OpenAGL: https://github.com/TuGraph-family/TuGraph-AntGraphLearning 

 

논문 제목: PEACE: 도메인 간 권장사항을 위한 학습 강화된 이전 가능한 프레임워크 프로토타입

조직단위 : 앤트그룹

입학 컨퍼런스: WSDM 2024

논문 링크: https://arxiv.org/abs/2312.0191 6

이 글의 저자: Gan Chunjing. 주요 연구 방향은 그래프 알고리즘, 추천 알고리즘, 대규모 언어 모델, 지식 그래프 적용 등이며, 연구 결과는 주류 머신러닝 관련 학회(WSDM/SIGIR/AAAI)에 포함되어 있습니다. 지난 해 팀의 주요 작업은 지식 그래프를 기반으로 한 사전 훈련된 추천 모델, 지식 향상을 기반으로 한 대규모 언어 모델 및 재무 관리 시나리오의 다중 세분성 분리를 기반으로 한 그래프 신경망 프레임워크를 포함한 해당 응용 프로그램이었습니다. SIGIR'23 MGDL에 게시됨, 프로토타입 학습 기반 엔터티 그래프 사전 학습 도메인 간 추천 프레임워크 PEACE가 WSDM'24에 게시됨.

배경

Alipay의 미니 프로그램 생태계가 발전함에 따라 점점 더 많은 가맹점이 Alipay에서 미니 프로그램을 운영하기 시작했습니다. 동시에 Alipay는 미니 프로그램 생태계 + 가맹점 자체 운영을 통해 분산형 전략을 달성하기를 희망합니다.

가맹점의 자체 운영 과정에서 점점 더 많은 중소 가맹점은 개인화된 추천 기능을 통해 미니 프로그램 개인 도메인 위치의 마케팅 효율성을 향상시키는 등 디지털 및 지능형 운영에 대한 필요성을 가지게 되었습니다. 중규모 상업 회사의 경우 자체 구축된 AI 개인화 추천 기능을 구축하는 데 드는 기술 비용과 인건비가 매우 높습니다.

이러한 맥락에서 우리는 Ant의 방대한 사용자 행동 데이터를 기반으로 눈에 보이긴 하지만 접근하기 어려운 개인화된 추천 및 검색 기능을 판매자에게 제공하여 판매자가 지능형 미니 프로그램을 만들어 Alipay 플랫폼에서 판매자의 수익을 늘리고 사용자에게 더 나은 개인화된 경험을 제공할 수 있도록 돕습니다. Alipay의 사용자 유지율을 높이고, 판매자/사용자 경험을 더욱 최적화하기 위한 공통 기술 솔루션을 축적할 수도 있습니다.

업계에서는 행동이 풍부한 시나리오의 데이터를 사용하여 중간 및 롱테일 시나리오에서 추천 효과를 향상시키는 성공적인 응용 사례가 많이 있습니다. 예를 들어 Taobao는 첫 번째 추측의 행동 데이터를 사용하여 다른 소규모 시나리오에서 추천 효과를 향상시킵니다. 시나리오 Fliggy는 앱과 Alipay 소형 시나리오를 사용하여 추천 효과를 향상시킵니다. 단말기는 전체 추천 효과를 향상시킵니다.

그러나 이러한 유형의 방법은 일반적으로 유사한 사고 방식을 가진 여러 추천 시나리오에 직면하고 풍부한 행동을 가진 시나리오 데이터를 사용하여 Taobao, Fliggy 등과 같은 희소 행동을 가진 유사한 시나리오의 추천 효과를 향상시킵니다. 그러나 Alipay와 같은 슈퍼 APP에는 일반적으로 여행, 공무, 임대, 여행, 요식업, 생필품 등과 같은 다양한 미니 프로그램이 포함됩니다. 다양한 미니 프로그램에서 사용자 간의 정신적 차이가 매우 크기 때문에 우리에게 훌륭한 모델을 제공합니다. 과제:

  • Alipay의 미니 프로그램은 정부 업무, 식품, 임대, 소매, 재무 관리 등 다양한 비즈니스 유형을 가진 수직 산업에 분산되어 있습니다. 일반적으로 이러한 미니 프로그램 간에는 정보가 공유되지 않으며 유사한 항목이 유사한 속성을 갖지 않을 수도 있습니다. 이러한 도메인 간 차이를 정렬하지 않고 전체 도메인에 걸쳐 여러 동작을 특정 수직 클래스 시나리오로 직접 전달하는 경우, 모델이 여러 수직 클래스의 혼합된 동작에서 수직 클래스에 유용한 지식을 학습하기 어렵고 심지어 부정적인 이주를 초래합니다.
  • 예를 들어 식품 산업의 지점 간 사용자 행동 마이그레이션은 사용자의 케이터링 관련 행동을 Alipay에서만 사용하므로 위의 문제를 어느 정도 완화할 수 있지만 새로운 산업이 추가될 때마다 수동 개입이 필요합니다. 비용이 많이 들고 전체 체인을 실현할 수 없는 일부 판매자는 Alipay 플랫폼이 처음 연결할 때 사용자 행동 데이터가 없는 경우에도 플러그 앤 플레이 개인화 추천 솔루션을 제공할 수 있기를 바랍니다. . 이 환경에서는 그러한 모델이 실현 가능하지 않습니다.

위의 과제를 바탕으로 우리는 수직 산업 영역 간의 큰 차이 문제를 기반으로 프로토타입 학습을 기반으로 한 그래프 사전 훈련 다중 시나리오 전이 학습 프레임워크인 PEACE를 제안했습니다.

우리는 엔터티 그래프를 도입했으며 엔터티 그래프를 서로 다른 도메인 간의 차이점을 연결하여 모델링에 대한 부정적인 영향을 완화하는 브리지로 사용하기를 바랐습니다. 그러나 프로덕션 환경의 엔터티 그래프는 많은 수를 포함하지만 일반적으로 거대합니다. 그러나 엔터티 맵에 구조적 정보를 무분별하게 집계하면 일반적으로 모델의 견고성이 저하됩니다. 따라서 모델링 프로세스에서 엔터티 표현과 사용자를 개선하기 위해 프로토타입 학습을 도입했습니다. 제한하다.

전반적으로 PEACE 프레임워크는 ONE FOR ALL의 마이그레이션 설계 아이디어입니다. 우리는 Alipay에서 사용자의 다중 소스 공개 도메인 행동을 사전 훈련 모델의 입력으로 사용하고 여러 업계의 사용자 관심과 선호도를 학습합니다. 하나는 분리된 표현이라는 아이디어를 통해 산업 신호를 포착하는 프로토타입 네트워크와 결합된 모델에서 맞춤형 추천을 위해 사용자의 다양한 관심 분야를 다양한 다운스트림 수직 산업으로 적응적으로 마이그레이션하기 위한 통합 모델만 사전 훈련하면 됩니다. 일반 권장 + 제로샷 권장).

PEACE - 프로토타입 학습을 기반으로 한 엔터티 그래프 사전 훈련 교차 도메인 추천 프레임워크

엔터티 그래프를 기반으로 한 예비 지식-도메인 간 정렬

매핑을 통해 해당 항목과 관련된 개체를 얻은 후, 그래프 추론 과정을 기반으로 매핑된 개체와 관련된 많은 고급 정보를 얻을 수 있음을 알 수 있습니다. 예를 들어 Apple에는 휴대폰 제품이 있고, 휴대폰 제품 관련 회사 삼성 등이 있는데, 이는 잠재적으로 다른 관련 기관(예: 삼성에서 생산하는 휴대폰 등)과의 관계를 단축할 수 있습니다.

모델 프레임워크

이번 장에서는 본 논문에서 제안한 그래프 사전훈련 교차 도메인 추천 프레임워크 PEACE를 소개한다. 다음 그림은 PEACE의 전체 아키텍처를 보여준다. 전반적으로 도메인 간 정렬을 더 잘 달성하고 엔터티 그래프의 구조적 정보를 더 잘 활용하기 위해 전체 프레임워크는 엔터티 지향 사전 학습 모듈을 기반으로 구축되어 사용자와 엔터티 간의 관계를 더욱 향상시킵니다. 사전 훈련 모듈 표현을 보다 다양하고 전환 가능하게 만들기 위해 프로토타입 대비 학습을 기반으로 한 엔터티 표현 향상 모듈 과 프로토타입 향상 주의 메커니즘을 기반으로 한 사용자 표현 향상 모듈을 제안하여 이를 기반으로 최적화 목표를 정의합니다. 사전 교육 단계 및 미세 조정 단계 의 경량 온라인 배포 프로세스 입니다 . 다음으로 각 모듈을 하나씩 소개하겠습니다.

PEACE 전체 아키텍처

 

01. 개체 중심의 사전 훈련 모듈

Alipay와 같은 온라인 서비스 플랫폼은 서로 다른 서비스 제공자가 제공하는 다양한 소규모 프로그램/시나리오를 수집합니다. 일반적으로 이러한 시나리오 간의 정보는 상호 운용되지 않으며 공유 데이터 시스템이 없습니다. 카테고리, 현재 제품의 속성은 완전히 일치할 수 없습니다. (예: 서로 다른 미니 프로그램에서 판매되는 iPhone 14는 서로 다른 제품 ID와 카테고리 이름을 가집니다. 예를 들어 하나의 미니 프로그램에서는 카테고리가 전자제품이고 카테고리는 전자제품입니다. 또 다른 미니 프로그램) . 이러한 잠재적인 문제로 인해 발생하는 차이와 모델링 성능에 미치는 영향을 줄이고 동시에 이 대화형 정보를 더 잘 활용하기 위해 엔터티 맵을 기반으로 사전 학습을 수행하여 엔터티 세부 정보를 도입할 수 있기를 바랍니다. 이렇게 하면 더 강력한 일반화로 사전 훈련을 달성할 수 있습니다.

그림 1을 예로 들면, 이 제품을 시작으로 item→entity→entity인 경우 Apple의 경우 관련 제품이 Phone이라는 것만 알 수 있지만, Entity→Entity→Entity의 사전 학습을 통해 알 수 있습니다. Apple은 Phone과 같은 관련 제품뿐만 아니라 Samsung이라는 회사와도 관련되어 있음을 알 수 있으므로 학습한 표현의 일반화가 더욱 향상됩니다.

02. 프로토타입 대조학습 기반 개체 표현 강화 모듈

03. 프로토타입 강화 주의 메커니즘 기반 사용자 표현 강화 모듈

사전 훈련 단계에서 소스 도메인에서 수집된 데이터에는 다양한 시나리오의 사용자 행동이 포함됩니다. 예를 들어, 사용자는 여행 계획을 세울 때 여행 관련 시나리오를 방문하고, 일자리를 찾을 때 온라인 직업을 방문합니다. 그러나 이전 단계에서 학습한 사용자 일반 표현은 사용자 및 장면과 관련된 상황을 고려하지 않으므로 다른 장면에서 장면 관련 표현을 캡처하는 것이 불가능합니다. 사용자 표현을 향상시키기 위해 주의 메커니즘을 사용합니다.

04. 모델 훈련 및 예측

  • 소스 도메인 사전 학습 링크

개체중심 사전훈련 모듈과 프로토타입 학습 강화 모듈을 결합하여 전체적인 최적화 목표를 다음과 같이 정의할 수 있다.

  • 대상 도메인 미세 조정 링크

 

 

그리고 최종 손실 함수는 다음과 같습니다.

 

온라인 배포

 

온라인 서비스에 대한 부담을 완화하기 위해 우리는 경량 방법을 사용하여 PEACE 모델을 배포합니다. 배포 흐름은 주로 세 부분으로 나뉩니다.

  • 사전 훈련 흐름: 수집된 다중 소스 행동 데이터와 개체 맵을 기반으로 PEACE 모델을 매일 업데이트하여 모델이 시간에 민감하고 보편적으로 전달 가능한 지식을 학습할 수 있도록 합니다. 사전 훈련된 모델의 경우 다운스트림 사용을 위한 모델 매개변수의 경량 로딩을 용이하게 하기 위해 ModelHub에 저장합니다.
  • 오프라인 추론 흐름: 그래프 신경망이 온라인 서비스 시스템에 가져오는 부담을 줄이기 위해 사용자와 개체의 표현을 미리 추론한 다음 다운스트림 미세 조정 중에만 ODPS 테이블에 저장합니다. 최종 MLP는 그래프 신경망에서 정보 전파 과정을 다시 수행하지 않고 네트워크를 미세 조정함으로써 온라인 서비스의 지연 시간을 크게 줄입니다.
  • 미세 조정 흐름: 새로 출시된 미니 프로그램/서비스에는 대화형 데이터가 없으므로 PEACE는 다음 두 단계를 통해 추천 서비스를 제공합니다.
  • 콜드 스타트 ​​시나리오의 경우 사용자의 내적과 항목 표현을 직접 수행하여 다양한 항목에 대한 사용자의 선호도를 얻고 직접 정렬할 수 있습니다.
  • 일정량의 데이터가 축적된 Non-Cold Start 시나리오의 경우 사전 학습된 사용자/항목 표현과 사용자/항목 기본 정보를 기반으로 Fine-Tuning한 후 온라인 서비스에 대한 Fine-Tuned 모델을 사용합니다.

 

유효성 분석

오프라인 실험

01. 데이터 소개

한 달 간의 알리페이 청구서, 발자국, 검색 데이터를 소스 도메인 데이터로 수집하여 대상 도메인에 대해 렌탈, 여행, 디지털 컬렉션, 생필품, 맛집, 음식 배달 등 6가지 미니 프로그램에 대한 실험을 진행했습니다. 실험, 대상 도메인 데이터가 소스 도메인보다 희박하기 때문에 모델 훈련을 위해 지난 2개월 동안 행동 데이터를 수집했습니다. 다양한 도메인 간의 큰 차이를 연결하기 위해 우리는 수천만 개의 노드, 수백 개의 관계, 수십억 개의 에지를 포함하는 엔터티 그래프를 도입했습니다. 구체적인 데이터는 아래 표에서 확인하실 수 있습니다.

 

02. 유효성 실험

두 표의 실험 결과를 결합하면 전반적으로 실험 결과가 다음과 같이 표시됩니다.

  • PEACE는 콜드 스타트/비 콜드 스타트 ​​시나리오 모두에서 기준선에 비해 상당한 개선을 달성했습니다. 이는 엔터티 세분성 기반 사전 교육과 프로토타입 학습 기반 향상 메커니즘의 조합의 효율성을 보여줍니다.
  • 대부분의 경우 사전 훈련 + 미세 조정 모델은 사전 훈련이 없는 기준 DeepFM보다 더 큰 개선을 보이며, 이는 사전 훈련을 위한 다중 소스 데이터 도입의 효율성을 보여줍니다. 그러나 일부 경우에는 일부 성능이 저하됩니다. 모델의 성능은 기준 DeepFM만큼 좋지 않으며 어느 정도 부정적인 전달이 있는데, 이는 사전 훈련 방법의 중요성을 더욱 잘 보여줍니다.
  • 많은 경우 gnn을 기반으로 한 교차 도메인 추천 모델은 좋은 실험 결과를 얻지 못했습니다. 이는 주로 엔터티 그래프에 큰 노이즈가 있기 때문입니다. PEACE 모델에 프로토타입 학습을 도입했기 때문에 클래스 방법을 통해 유사한 엔터티를 만듭니다. 표현 공간에서 유사한 거리를 갖는 반면, 서로 다른 엔터티 사이의 거리는 더 멀리 늘어나므로 이러한 노이즈가 모델에 미치는 부정적인 영향을 완화합니다.

 

03. 절제분석

PEACE 모델에서 각 모듈의 역할을 추가로 검증하기 위해 우리는 각 모듈의 효율성을 평가하기 위해 다음 세 가지 변형을 준비했습니다.

  • GL이 없는 PEACE, 엔터티 표현이 제거될 때의 그래프 학습 모듈;
  • CPL이 없는 PEACE, 즉 비교 기반 프로토타입 학습 모듈을 제거합니다.
  • PEA가 없는 PEACE는 프로토타입 향상을 기반으로 주의 메커니즘 모듈을 제거합니다. 그림 4에서 볼 수 있듯이, 모듈을 제거하면 모델 성능이 크게 떨어지며, 이는 모델의 각 모듈이 필수적임을 보여줍니다. 또한 CPL이 없는 PEACE의 성능이 최악인 것을 볼 수 있습니다. 이는 일반적인 전달 가능한 지식을 포착하는 데 있어서 프로토타입 학습의 중요성을 보여줍니다.

 

04. 시각적 분석

CPL 모듈의 효과를 보다 명시적으로 분석하기 위해 엔터티 맵에서 6000개의 엔터티를 무작위로 선택하고 CPL 및 PEACE 모델 없이 PEACE를 통해 학습한 엔터티 표현을 시각화했습니다. 여기에는 다양한 색상이 속하는 다양한 프로토타입에 해당합니다. 다른 엔터티에. 그림 5에서 우리는 CPL이 없는 PEACE에 의해 학습된 엔터티 표현과 비교할 때 완전한 PEACE 모델에 의해 학습된 표현이 CPL 모듈과 그 학습된 프로토타입을 보여주는 클러스터링 결과에서 더 나은 일관성을 갖는다는 것을 알 수 있습니다. 학습된 프로토타입은 모델은 표현 공간에서 유사한 엔터티 간의 거리를 줄여 모델이 더욱 강력하고 보편적인 지식을 학습하도록 돕습니다.

 

온라인 실험 및 비즈니스 구현

실제 생산 환경에서 모델의 효과를 더 잘 검증하기 위해 다양한 업종 카테고리의 여러 판매자를 대상으로 정밀한 온라인 AB 실험을 수행했습니다. 여러 시나리오에서 PEACE 모델은 기준 프로모션에 비해 효과적인 결과를 얻었습니다. 전체적으로 PEACE 기반 사전 훈련 + 전이 학습 추천 모델은 50개 이상의 가맹점에 기본 모델로 전면 적용되어 주요 가맹점에 대한 ab 효과를 검증한 후 개인화된 추천을 제공합니다.

기사 추천

대형 모델 통합 지식 추출 및 그래프 시각화 오픈소스 가 추가된 OpenSPG v0.0.3 출시 ! Ant Group과 Zhejiang University, 오픈 소스 대규모 모델 지식 추출 프레임워크인 OneKE를 공동 출시

[스피치 리뷰] OpenSPG+TuGraph 기반 지식 그래프와 추론 실습의 진화

Paper Digest | GPT-RE: 대규모 언어 모델 기반의 관계 추출을 위한 컨텍스트 학습

우리를 따르라


OpenSPG:
공식 홈페이지: https://spg.openkg.cn
Github: https://github.com/OpenSPG/openspg


OpenASCE:
官网:https://openasce.openfinai.org/
GitHub:[https://github.com/Open-All-Scale-Causal-Engine/OpenASCE ]

러스트데스크(RustDesk) 만연한 사기로 국내 서비스 중단 애플 M4 칩 출시 타오바오(taobao.com) 웹 버전 최적화 작업 재개 고등학생들이 성인 선물로 자신만의 오픈소스 프로그래밍 언어 개발 - 네티즌 비판 댓글: 국방 Yunfeng은 Alibaba에서 사임하고 향후 Windows 플랫폼에서 독립 게임 프로그래머를 위한 대상을 . Visual Studio Code 1.89는 Java 17을 출시합니다. 가장 일반적으로 사용되는 Java LTS 버전은 Windows 10의 시장 점유율이 70입니다 . %, Windows 11은 계속해서 하락하고 있습니다. Google은 Hongmeng의 인수를 지원하고 Docker는 Android 휴대폰을 지원합니다.
{{o.이름}}
{{이름}}

추천

출처my.oschina.net/u/7032067/blog/11105934