분산 Tensorflow
더 하나의 카드 (GPU)
다단계 멀티 카드 (분산)
분산 자기 실현
API :
한 모든 작업은 클러스터 설명을 위해, 상세한 설명은 모든 작업에 대해 동일한하는 tf.train.ClusterSpec을 만들
2, tf.train.Server는 PS, 노동자를 작성하고 적절한 컴퓨팅 작업을 실행
클러스터 = tf.train.ClusterSpec ({ "PS"ps_spec, "노동자"worker_spec})
ps_spec = [ "ps0.example.com:port","ps2.example.com:port"] 对应 / 직업 : PS / 작업 : 0.1
worker_spec = [ "worker0.example.com:port", ...] / 직업 : 근로자 / 작업 : 10
tf.train.Server는 创建 (server_orcluster는 작업 이름은 task_index는 = 없음, protocol_None는 설정은 = 없음, 시작하지 = 참) 服务
- server_or_cluster : 클러스터 설명
- 작업 이름 : 작업 유형 이름
- task_index : 작업의 수
- 속성 :이 서버에 대상 대상 반환 tfSession 연결을
- 방법 : 가입 () 매개 변수 서버, 서버가 대기 닫기 작업 매개 변수를받을 때까지
tf.device (device_name_or_function)
- 지정된 장치 또는 장치 기능을 선택
- DEVICE_NAME 경우
- 지정된 장치
- 例如 "/ job : worker / tsak : 0 / cpu : 0
- 기능의 경우
- tf.train.replica_device_setter (worker_device = worker_device, 클러스터 = 클러스터)
- 작업 : 다른 장치의 초기화 동작을 조정하여이 함수
- worker_device : 为 指定 设备 "작업 / 노동자 / 작업 : 0 / CPU : 0"또는 "/ 직업 : 근로자 / 작업 : 0 / GPU : 0"
- 클러스터 : 클러스터 개체 설명
- tf.device와 사용 () 그래서 다른 장치 작업에 서로 다른 노드