활성화 기능의 조사 및 기능의 상실

1) 활성화 함수 (활성화 기능 )

  • 배경

다음 층 신경 활성화를 통해 계속 등등 다운 통과하고, 기본 원리는 인공 신경망, 다음 층 신경에 전달 비선형 활성화 함수를 통해, 뉴런에서 입력 된 신호를, 학습의 깊이이다 출력층까지 왕복. 때문에 이러한 비선형 함수를 반복적 중첩 그것은 다양한 분야에서 최첨단 결과 만들어진 복잡한 패턴을 캡처하기에 충분한 용량을 갖는 신경망되도록. 깊이 중추적 인 연구에서 명백한 활성화 기능, 하나는 또한 연구의 매우 활성 영역입니다. 지금은 오히려 신경 네트워크의 전체 깊이의 최적화를 촉진 할 수있는 능력을 종류의 활성화 기능의 실제 신경을 시뮬레이션 할 수있는 능력에 거짓말을하지 않는 것을 선택하지만. 장점과 기능의 다양한 유형의 단점과 애플리케이션 시나리오에 대해 우리가 간단히 이야기 아래.

  • S 상 기능
  • 연구의 피사계 심도의 S 상 기능은 가장 자주 사용 활성화 기능 때의 시작입니다
  • 프로

        이 평활 함수의 미분을 용이하다 유도체

단점

L 구배 사라지는 경향

L 출력 기능 제로 중심 아니다

리터의 지수는 상대적으로 시간이 많이 소요됩니다

L 적용 장면 : 일반적으로 출력 층에 사용되는 이진 분류, 로지스틱 회귀 분석 등의 신경 네트워크 작업에서 다중 응용 프로그램

 

 

 

추천

출처www.cnblogs.com/Kobaayyy/p/11854958.html