깊은 학습 - 네트워크 GAN 노트에 대해 생성

네트워크 (GAN) 두 가지 중요한 부분으로 구성에 대해 생성 :

G 발전기 (제너레이터 ) 시스템을 통해 데이터 (대부분의 경우 화상)을 생성하여 상기 "속일"판별 목적

차별 D (차별이 ) :이 이미지를 판단하는 것은 생성 된 실제 또는 기계, 목적은 "가짜 데이터"를 할 수있는 빌더를 식별하는 것입니다

네트워크에 대한 작동 중에 생성 :

첫번째 단계 : 고정 판별 D, 트레이닝 발생기 G

판별 D는 결정에 초기화 판별 D는 발전기 G 끊임없이 "잘못된 데이터"생성되도록하고 간다.

스타트는 발전기 G는 쉽게 거짓이라고 판정 할 수 있고, 또한 매우 약하다.

그러나 지속적인 교육, 발전기 G와 함께 능력을 향상하고, 궁극적으로 판별 D. 바보

이 경우, D는 기본적으로 상태를 추측 결정되고, 이는 거짓 데이터의 확률이 50 %인지의 여부를 판정한다.

두번째 단계 : 고정 발생기 G, D 훈련 분류

첫 번째 단계를 통과 할 때, 우리는 이해가되지 않습니다 기차 발생기 G를 계속합니다. 필요한 시간은 발전기 G를 해결하고 판별 D. 훈련 시작

지속적인 교육을 통해 차별 D 식별 할 수있는 능력을 향상시키기 위해, 궁극적으로 그는 정확하게 모든 거짓 사진을 확인할 수 있습니다.

이 시간까지, 발전기 G는 판별 D.을 속일 수 없었다

사이클 무대와 무대 두

연속 순환 및 발전기 G의 판별 D의 용량을 통해 성장하고있다.

결국 우리는 아주 좋은 효과 발생기 G, 우리는 우리가 사진을 원하는 생성하는 데 사용할 수 있어요.

GAN지도 및 식의 작품에 대한 설명

도가 검은 점선은 실제 데이터 인 녹색 점선은 데이터를 생성하고, 동작 발생기 G, 푸른 점선은 , D는 효과 판정은 판정 화학식이다 :

  

상기 P 데이터 값 (X)이 1 (TRUE 데이터 분배) P로 간주 될 수 G > (녹색 점선) 때문에, 사이클에 접근하는 데이터 분배를 생성 할 때 고려되는 결정 - (X)의 상기 발전기는 상기 식 * 0.5 D (x)의 값을 결정하지 않을 때있다.

X와 Z 사이의 관계는 실제 데이터와 상기 생성 된 매핑 관계 데이터이다.

에서는 제너 적대적 네츠 원작자 함수식의 손실을 준다 :

우리는이 공식을 이해할 수있다 :

  분류 기준 갭 발생기는 가능한 한 작게 데이터와 실제 데이터를 생성 할 수있는 최대 데이터를 생성하는 결정한다. 이 판정은 판정되는 동안 공정 사이클에서 향상된 가깝게 실제 데이터 용량 발전기의 생산 능력을 증가이다.

판별 모델 D :

발전기 모델 G :

  D 1 (X)는 그것이 0, D가되는 다수의 워드의 값을 가지고, 바람직하게는 1이고, 실제 데이터 판정 값 2 (G (Z)) 데이터 식별 값을 생성이 판별이 발생 된 것으로 판정 소망하는 데이터는, 그래서 0으로 기대합니다. 모델을 생성 할 때, 그것은 발전기 D 바람직하다 그래서, 생성되는 판별 데이터를 판별 나오지 않는 것이 바람직하다 (2) (G (Z))는 1이다.

장점과 발생 대립 네트워크 단점

장점 :

  1. 데이터 D로부터 결정된 레이블 광범위한 손실을 요구하지 않는다
  2. 그것은 가까운 자율 학습, 기차에 사용되는 많은 양의 데이터를 생성
  3. 수 및 깊이 신경 네트워크

단점 :

  1. 유도하지 않고 직접 데이터를 생성
  2. 발전기, 충족 일반적인 훈련 어려운에게로 판별 필요
  3. 실패하는 경향이 훈련 

블로그 포스트에서 인용 된 다음 http://xiaoqiang.me/?p=4592는 , 향후 작업에 대한 액세스를 용이하게 할 수 있도록하려면

당신은 "관심 간스 알고리즘 경우 간스에게 동물원 에있는 거의 모든 알고리즘을보고". 우리는 모든 사람을위한 알고리즘의 숫자에서 10 개의 대표적인 알고리즘을 집어

연산

명제

코드

BOTH

논문 주소

코드 주소

DCGAN

논문 주소

코드 주소

CGAN

논문 주소

코드 주소

CycleGAN

논문 주소

코드 주소

Cogan은

논문 주소

코드 주소

ProGAN

논문 주소

코드 주소

Wgan

논문 주소

코드 주소

SAGAN

논문 주소

코드 주소

BigGAN

논문 주소

코드 주소

추천

출처www.cnblogs.com/yang901112/p/11926178.html