微波EDA网,见证研发工程师的成长!
首页 > 研发问答 > 嵌入式设计讨论 > MCU和单片机设计讨论 > 山西嵌入式系统课程| Spark与Hadoop计算模型之Spark比Hadoop更...

山西嵌入式系统课程| Spark与Hadoop计算模型之Spark比Hadoop更...

时间:10-02 整理:3721RD 点击:

    上次我们分享了Spark与Hadoop计算模型的内存问题,今天山西思软嵌入式学员为大家分享Spark与Hadoop计算模型的Spark比Hadoop更通用的问题。

    Spark提供的数据集操作类型有很多种,不像Hadoop只提供了Map和Reduce两种操作。比如map, filter, flatMap,sample, groupByKey, reduceByKey, union, join,cogroup, mapValues, sort,partionBy等多种操作类型,他们把这些操作称为Transformations.同时还提供Count, collect, reduce, lookup, save等多种actions.

    这些多种多样的数据集操作类型,给上层应用者提供了方便。各个处理节点之间的通信模型不再像Hadoop那样就是唯一的Data Shuffle一种模式。用户可以命名,物化,控制中间结果的分区等。可以说编程模型比Hadoop更灵活。


这是什么情况?

Copyright © 2017-2020 微波EDA网 版权所有

网站地图

Top