create_worker.py



참고 : https://databricks.com/tensorflow/distributed-computing-with-tensorflow


터널링 : https://blog.naver.com/PostView.nhn?blogId=alice_k106&logNo=221364560794&parentCategoryNo=&categoryNo=22&viewDate=&isShowPopularPosts=false&from=postView 


1. python create_worker.py ( 내부 포트 번호 사용 ) 작성.


2. python create_worker.py 0 실행으로 해당 머신에서 tensorflow 서버 실행.


3. 

cluster = tf.train.ClusterSpec({"local": ["localhost:2222", "localhost:2223"]})
with tf.device("/job:local/task:1"):
with tf.Session("grpc://localhost:2222") as sess:
    result = sess.run(y)
    print(result)

세줄을 참고해서 분산처리 가능. => 이때는 외부에서 접속할경우 내부포트가 아니라 외부포트로 접속 시도 해야 한다.

이를 잘 응용하면 로컬에서 구글 colab에 있는 gpu(Tesla K80 )과 연동해서 병렬 분산처리가 가능하다.



+ Recent posts