hadoop version: 3.2.1
java version: openjdk 1.8.0_41, 64bit
본 에러는 기존 사용중인 ssh의 포트가 맞지 않기에 발생함.
사용중인 ssh포트를 22로 변경하거나, HADOOP_SSH_OPTS 환경변수를 알맞게 변경해주면 됨.[1]
$ export HADOOP_SSH_OPTS="-p 2200"
아니면 /etc/hadoop/hadoop-env.sh 의 HADOOP_SSH_OPTS를 수정해준다.
$ export HADOOP_SSH_OPTS="-o BatchMode=yes -o StrictHostKeyChecking=no -o ConnectTimeout=10s -p 2200"
references
1. "Change ssh default port in hadoop multi cluster [closed]", Feb 2016, stackoverflow.com/questions/35224304/change-ssh-default-port-in-hadoop-multi-cluster
'오류해결' 카테고리의 다른 글
이클립스 JavaFX 실행 문제 (Caused by: java.lang.NoClassDefFoundError: Stage) (1) | 2021.05.24 |
---|---|
No CMAKE_CUDA_COMPILER could be found (0) | 2020.12.24 |
Host key verification failed[hadoop 3.2.1] (0) | 2020.08.19 |
localhost: ERROR: JAVA_HOME is not set and could not be found[hadoop 3.2.1] (0) | 2020.08.19 |
localhost: rcmd: socket: Permision denied[hadoop 3.2.1] (0) | 2020.08.19 |