Ich probiere this tensorflow distributed tutorial mit dem gleichen Betriebssystem und Python-Version auf meinem eigenen Computer. Ich schaffe das erste Skript und es in einem Terminal laufen, dann habe ich ein anderes Terminal öffnen und das zweite Skript ausführen und die folgende Fehlermeldung erhalten:Distributed TensorFlow Beispiel funktioniert nicht auf TensorFlow 0.9
E0629 10:11:01.979187251 15265 tcp_server_posix.c:284] bind addr=[::]:2222: Address already in use
E0629 10:11:01.979243221 15265 server_chttp2.c:119] No address added out of total 1 resolved
Traceback (most recent call last):
File "worker0.py", line 7, in <module>
task_index=0)
File "/usr/local/lib/python2.7/dist-packages/tensorflow/python/training/server_lib.py", line 142, in __init__
server_def.SerializeToString(), status)
File "/usr/lib/python2.7/contextlib.py", line 24, in __exit__
self.gen.next()
File "/usr/local/lib/python2.7/dist-packages/tensorflow/python/framework/errors.py", line 450, in raise_exception_on_not_ok_status
pywrap_tensorflow.TF_GetCode(status))
tensorflow.python.framework.errors.InternalError: Could not start gRPC server
ich einen ähnlichen Fehler bei der official distributed tutorial versuchen.
Edit: ich diese auf einer anderen Maschine habe ich versucht, mit den gleichen Pakete haben und jetzt bekomme ich folgende Fehlerprotokoll:
E0629 11:17:44.500224628 18393 tcp_server_posix.c:284] bind addr=[::]:2222: Address already in use
E0629 11:17:44.500268362 18393 server_chttp2.c:119] No address added out of total 1 resolved
Segmentation fault (core dumped)
Was das Problem sein könnte?