-
hadoop mapreduce 与 spark,我该如何选择呢?
2018-10-26 15:23 -
MySQL 主从延时这么长,要怎么优化?
2018-10-26 15:00好像不太全
-
MySQL 主从延时这么长,要怎么优化?
2018-10-26 15:00坐等回复
乔布斯
zyh226
资深会员
- 3 标签
- 6 文章
- 3 回帖
Spark 是一种与 Hadoop 相似的开源集群计算环境,但是两者之间还存在一些不同之处,这些有用的不同之处使 Spark 在某些工作负载方面表现得更加优越,换句话说,Spark 启用了内存分布数据集,除了能够提供交互式查询外,它还可以优化迭代工作负载。
Hadoop MapReduce 是一整套生态, 就算使用 Spark 也离不开 HBase,Hive,Pig,Impala 或其他 Hadoop 项目。建议两者共同使用。