_1_ 깊은 신경망을 학습 _4_ 분산 Tensorflow을

분산 Tensorflow

더 하나의 카드 (GPU)

다단계 멀티 카드 (분산)

분산 자기 실현

API :

한 모든 작업은 클러스터 설명을 위해, 상세한 설명은 모든 작업에 대해 동일한하는 tf.train.ClusterSpec을 만들

2, tf.train.Server는 PS, 노동자를 작성하고 적절한 컴퓨팅 작업을 실행

  • 클러스터 = tf.train.ClusterSpec ({ "PS"ps_spec, "노동자"worker_spec})

    ps_spec = [ "ps0.example.com:port","ps2.example.com:port"] 对应 / 직업 : PS / 작업 : 0.1

    worker_spec = [ "worker0.example.com:port", ...] / 직업 : 근로자 / 작업 : 10

  • tf.train.Server는 创建 (server_orcluster는 작업 이름은 task_index는 = 없음, protocol_None는 설정은 = 없음, 시작하지 = 참) 服务

    • server_or_cluster : 클러스터 설명
    • 작업 이름 : 작업 유형 이름
    • task_index : 작업의 수
    • 속성 :이 서버에 대상 대상 반환 tfSession 연결을
    • 방법 : 가입 () 매개 변수 서버, 서버가 대기 닫기 작업 매개 변수를받을 때까지
  • tf.device (device_name_or_function)

    • 지정된 장치 또는 장치 기능을 선택
    • DEVICE_NAME 경우
      • 지정된 장치
      • 例如 "/ job : worker / tsak : 0 / cpu : 0
    • 기능의 경우
      • tf.train.replica_device_setter (worker_device = worker_device, 클러스터 = 클러스터)
      • 작업 : 다른 장치의 초기화 동작을 조정하여이 함수
      • worker_device : 为 指定 设备 "작업 / 노동자 / 작업 : 0 / CPU : 0"또는 "/ 직업 : 근로자 / 작업 : 0 / GPU : 0"
      • 클러스터 : 클러스터 개체 설명
    • tf.device와 사용 () 그래서 다른 장치 작업에 서로 다른 노드

추천

출처www.cnblogs.com/Dean0731/p/11815986.html