Spark Hadoop联系和区别

1、Spark Hadoop都是运算框架

2、Hadoop有3部分构成:MapReduce,Hdfs,Yarn.其中MapReduce已经慢慢退出历史舞台,由Spark来接替。所以说Hadoop已死,这个说法是不成立的

2.1、Spark底层也必须依赖hdfs,因为Spark只管计算 ,不管存储。其实貌似Hbase底层也依赖hdfs

猜你喜欢

转载自my.oschina.net/windows20/blog/1806505