Umgebungsvariablen, die von meiner aktuellen Datei / etc / profile konfiguriert wurden
export JAVA_HOME = / opt / java / jdk1.8.0_131
export SPARK_HOME = / opt / spark-2.4.4-bin-hadoop2.7
export HIVE_HOME = / usr / hdp / current /
hive -client export LIVY_HOME = / opt / livy / livy-0.5.0-inkubating-bin
export HBASE_HOME = / opt / hbase-2.2.1
export CLASSPATH = .: $ JAVA_HOME / lib / dt.jar: $ JAVA_HOME / lib / tools.jar
export HADOOP_HOME = / opt / hadoop- 2.7.7
Export HADOOP_COMMON_HOME = $ HADOOP_HOME
Export HADOOP_MAPRED_HOME = $ HADOOP_HOME
Export HADOOP_YARN_HOME = $ HADOOP_HOME
Export HADOOP_CONF_DIR = $ HADOOP_HOME / etc / hadoop
Export HADOOP_USER_NAME = hdfs
Export HADOOP_HDFS_HOME = $ HADOOP_HOME
Export HADOOP_HDFS_HOME = $ HADOOP_HOME
export PATH = / usr / local / sbin: / usr / local / bin: / usr / sbin: / usr / bin: / root / bin: / usr / local / go / bin
export PATH = $ JAVA_HOME / bin: $ HADOOP_HOME / bin: $ SPARK_HOME / bin: $ LIVY_HOME / bin: $ PATH
Nachdem ich die Umgebungsvariablen konfiguriert hatte, wollte ich mit dem Testen beginnen, daher trat der folgende Fehler auf:
hadoop fs -ls / view hdfs file
Der Befehl #Execute hadoop classpath zeigt an, welche JAR-Pakete derzeit von Hadoop importiert werden
Die Lösung lautet wie folgt
: Die letzte Zeile in der Datei libexec / hadoop-config.sh
添加 CLASSPATH = $ {CLASSPATH}: '/ opt / hadoop-2.7.7 / client / *
Überprüfen Sie erneut hadoop fs -ls /