搭建hadoop,遇到的错误,总结一下

1、localhost: Error: JAVA_HOME is not set.

    这个很明显是因为环境变量没设置好,分两种情况,第一:没有设置;第二:设置了,没有起作用,我用source了,好像依然陪到了这个问题,最后,重启解决。


2、INFO ipc.Client: Retrying connect to server: localhost/192.168.128.131:9000. Already tried 1time(s)

    一般是namenode没有启动,所以解决的方法如下:先stop-all.sh,然后hadoop namenode -format一下。再启动应该就没问题了。


3、如果在配置的过程中遇到了 not premission等提示,典型的权限问题。


4、在运行wordcount程序的时候,发生错误

    这是因为我先前在hadoop上创建了两个文件,一个是input,一个output,运行程序的时候,提示output文件已经存在,这个很简单,直接把自己创建的那个删除就OK了。


5、Exception in thread "main" java.io.IOException: Error opening job jar: hadoop-mapred-examples-0.21.0.jar

at org.apache.hadoop.util.RunJar.main(RunJar.java:90)

Caused by: java.util.zip.ZipException: error in opening zip file

at java.util.zip.ZipFile.open(Native Method)

at java.util.zip.ZipFile.<init>(ZipFile.java:127)

at java.util.jar.JarFile.<init>(JarFile.java:135)

at java.util.jar.JarFile.<init>(JarFile.java:72)

at org.apache.hadoop.util.RunJar.main(RunJar.java:88)

这是因为Hadoop找不到hadoop-mapred-examples-0.21.0.jar文件,解决方法为到/etc/profile中添加$HADOOP_HOME,或者将当前路径定位到jar包所在文件夹,再运行


6、安装hadoop-1.0.1后,执行命令出现$HADOOP_HOME is deprecated.

  这不是错误,可以修改bin/hadoop-config.sh,注释掉$HADOOP_HOME is deprecated的内容



总结一下:1、对Linux掌握不熟练;2、应该掌握一门脚本。



加油。呵呵

猜你喜欢

转载自dahang.iteye.com/blog/1736852
今日推荐