sbin/start-all.sh 启动所有的Hadoop守护进程。包括NameNode、 Secondary NameNode、DataNode、ResourceManager、NodeManager
sbin/stop-all.sh 停止所有的Hadoop守护进程。包括NameNode、 Secondary NameNode、DataNode、ResourceManager、NodeManager
sbin/start-dfs.sh 启动Hadoop HDFS守护进程NameNode、SecondaryNameNode、DataNode
sbin/stop-dfs.sh 停止Hadoop HDFS守护进程NameNode、SecondaryNameNode和DataNode
./bin/pysaprk --master local[4] 本地模式启动spark python语言的shell,4是4个线程
如果嫌运行日志显示太多,可以调整日志显示级别,找到日志文件修改,log4j。rootCategory=ERROR, console
exit() 退出pyspark shell