![]() |
1
1
我有不同的理解。
但在一段时间内,Spark可以作为Spark的执行引擎。 https://blog.cloudera.com/blog/2014/07/apache-hive-on-apache-spark-motivations-and-design-principles/ 更详细地讨论这个问题。 |
|
2
1
Apache Spark构建DAG(有向无环图),而Map Reduce使用本机Map和Reduce。在Spark中执行时,逻辑依赖形成物理依赖。 达格 ?
DAG是在执行之前构建逻辑依赖关系的
注: 原因2: 映射将其输出持久化到磁盘(缓冲区也一样,但是当90%的缓冲区被填满时,输出就进入磁盘)从那里数据被合并。 Check this link for details |