我目前正在MR-MPI(MapReduce on MPI)上实现机器学习算法。我还试图了解其他MapReduce框架,尤其是Hadoop,因此以下是我的基本问题(我是MapReduce框架的新手,如果我的问题没有意义,我会提供aplogize)。数据移动HDFS Vs并行文件系统与MPI
问题:由于MapReduce可以在诸如并行文件系统(GPFS),HDFS,MPI,e.t.c等很多东西之上实现。在map步骤之后,有一个collate操作,然后是一个reduce操作。对于整理操作,我们需要在节点间发生一些数据移动。在这方面,我想知道HDFS Vs GPFS Vs MPI中数据移动机制(节点之间)有什么不同。
我很感激你是否给我提供了一些很好的解释,并且可以给我一些很好的参考资料,所以我可以进一步了解细节。
谢谢。
您能否重新回答我的问题。我做了一个小小的编辑。 – 2012-07-06 07:19:12