깊이 기사 - 깊은 학습 네트워크 모델 (C)의 고전 역사 정교한 구조와 ZF-인터넷의 특성

메인 컨텐츠로 가기

고전 카탈로그의 깊은 학습 네트워크 모델 개발의 역사로 돌아 가기

이전 : 깊이 기사 - 깊은 학습 네트워크 모델 개발의 고전적인 역사 (b)의  정교한 구조와 기능 AlexNet

다음 : 깊이 기사 - 고전 역사 깊은의 학습 네트워크 모델 (D)  정교한 구조와 VGG16 기능

 

이 섹션, ZF-인터넷 정교한 구조와 특성, 다음 섹션 정교한 구조에서 VGG16 기능

 

논문 주소 : 머릿속 및 이해 길쌈 네트워크

 

II. 네트워크 클래식 (클래식 네트워크)

3. ZF-순

ZF-넷 ImageNet 분류 작업의 2013 년 우승자, 네트워크 구조가 많이 개선되지 않습니다하지만 매개 변수를 조정, 큰 컨볼 루션 커널은 약간 작은 제거하지만, AlexNet에 비해 성능이 많이 향상.

(1) 네트워크 정보 :\ 큰 입력 (-1, \ 224 \ 224 \ 3)

 

   네트워크 아키텍처 :

   디컨 볼 루션, 안티 - 탱크 구조 :

      ZF 넷 용도는 역도 추출 기능 결과를 볼 풀 컨벌루션. 그리고 참조하여도이 효과는 파라미터 조정을 수행한다.

 

. (2) ZF-인터넷 기능 :

   ①. ZF-인터넷은 미세 조정 AlexNet을 기반으로

      가. AlexNet GPU의 희소 개의 접속 구조의 성능에서의 차이, 및 ZF 넷은 치밀한 구조는 GPU에 연결된다.

      . 제 AlexNet 층 B 변화 : 약 필터의 크기가  11 \ 배 (11) 되고  \ 큰 7 \ 7 배, 상기 걸음이  \ 큰 4 \ 4 배 된다  \ 큰 2 \ 2 배.

   ②. ZF 넷 미만 컨벌루션 커널의 표면층을 사용 AlexNet 비해 작은 단계는,보다 기능을 유지한다.

   ③. 디컨 볼 루션, 시각화 기능 맵을 사용. 기능지도에서 볼 수 있듯이, 계층 적 구조 특징. 프로파일, 에지, 색상, 질감 등의 특성이, 후자의 층 학습 기능과 종속 추상 클래스 학습 물리층의 앞에. 낮은 수준의 기능, 더 나은 상자 성능을위한 싸움, 더 높은 수준의 성능이 더 나은 분류를 만드는 데 사용하는 것이 있습니다.

   ④. 차단하여 화상 카테고리의 절대 주요 부분을 찾아. 깊이가 증가 설명 실험, 네트워크는 더 많은 기능을 구분하기 위해 배울 수 있습니다.

   ⑤. 네트워크 훈련, 빠른 컨버전스의 낮은 수준의 매개 변수, 고위, 수렴, 기차에 더 긴 시간이 필요합니다.

 

 

 

                  

 

메인 컨텐츠로 가기

고전 카탈로그의 깊은 학습 네트워크 모델 개발의 역사로 돌아 가기

이전 : 깊이 기사 - 깊은 학습 네트워크 모델 개발의 고전적인 역사 (b)의  정교한 구조와 기능 AlexNet

다음 : 깊이 기사 - 고전 역사 깊은의 학습 네트워크 모델 (D)  정교한 구조와 VGG16 기능

게시 63 개 원래 기사 · 원의 찬양 (16) · 전망 6001

추천

출처blog.csdn.net/qq_38299170/article/details/104241797