참고 : https://databricks.com/tensorflow/distributed-computing-with-tensorflow
1. python create_worker.py ( 내부 포트 번호 사용 ) 작성.
2. python create_worker.py 0 실행으로 해당 머신에서 tensorflow 서버 실행.
3.
cluster = tf.train.ClusterSpec({"local": ["localhost:2222", "localhost:2223"]})
with tf.device("/job:local/task:1"):
with tf.Session("grpc://localhost:2222") as sess:
result = sess.run(y)
print(result)
세줄을 참고해서 분산처리 가능. => 이때는 외부에서 접속할경우 내부포트가 아니라 외부포트로 접속 시도 해야 한다.
이를 잘 응용하면 로컬에서 구글 colab에 있는 gpu(Tesla K80 )과 연동해서 병렬 분산처리가 가능하다.
'Python Library > TensorFlow' 카테고리의 다른 글
Tensorflow Distributed learning (0) | 2019.08.25 |
---|---|
Jupyter에서 노드별 할당 장치 확인하기 (0) | 2019.08.25 |
Select TensorFlow operators to use in TensorFlow Lite (0) | 2019.08.21 |
TensorFlow Lite and TensorFlow operator compatibility (0) | 2019.08.21 |
Keras Custom model with two Input (0) | 2019.08.20 |