hadoop和spark的都是并行计算,两者都是用mr模型来进行并行计算,hadoop的一个作业称为job,job里面分为map?task和reduce?task,每个task都是在自己的进程中运行的,当task结束时,进程也会结束
正确答案:错误
答案解析:有
微信扫一扫手机做题
hadoop和spark的都是并行计算,两者都是用mr模型来进行并行计算,hadoop的一个作业称为job,job里面分为map?task和reduce?task,每个task都是在自己的进程中运行的,当task结束时,进程也会结束
微信扫一扫手机做题