Hadoop的两大核心是hdfs和mapreduce,hdfs是适合部署在廉价机器上的高度容错性系统,提供了强大的流式读写文件的能力,mapreduce则提供了大规模数据集的并行运算。

阅读剩下更多

默认配图