8 Spark MLlib
简答题
T1 与 MapReduce 框架相比,为何 Spark 更适合进行机器学习各算法的处理?
答:通常情况下,机器学习算法参数学习的过程都是迭代计算。MapReduce 由于延迟高、磁盘开销大、无法高效支持迭代计算,不适合高效的实现机器学习算法;Spark 由于立足于内存计算,所以能很好地与机器学习算法相匹配。
答:通常情况下,机器学习算法参数学习的过程都是迭代计算。MapReduce 由于延迟高、磁盘开销大、无法高效支持迭代计算,不适合高效的实现机器学习算法;Spark 由于立足于内存计算,所以能很好地与机器学习算法相匹配。