hive中的坑(持续更新中)

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接: https://blog.csdn.net/weixin_42411818/article/details/102672098

Error: org.apache.spark.sql.AnalysisException: java.lang.IllegalArgumentExceptio n: Wrong FS: hdfs://slave1:8020/user/hadoop-jrq/文件名, expected: hdfs://mycluster; (state=,code=0)

根据提示将hdfs://slave1:8020改为hdfs://mycluster即可,这是因为配置了高可用的原因

Error: java.lang.OutOfMemoryError: GC overhead limit exceeded (state=,code=0)
这个是因为执行了:select * from 表名;
简单点说就是你的表数据量太大,内存不够了,不能这么玩,用一个limit来看

猜你喜欢

转载自blog.csdn.net/weixin_42411818/article/details/102672098