0
我是Hadoop的新手。我设法开发了一个简单的Map/Reduce应用程序,在'伪分布式模式'下工作正常。我想以'完全分布式模式'来测试它。关于这个我有几个问题;Hadoop完全分布式模式
- 我需要多少台机器(节点)(推荐使用最少&)来处理文件大小为1-10GB的文件?
- 什么是硬件要求(主要是,我想知道#的核心,内存空间和磁盘空间)?
我是Hadoop的新手。我设法开发了一个简单的Map/Reduce应用程序,在'伪分布式模式'下工作正常。我想以'完全分布式模式'来测试它。关于这个我有几个问题;Hadoop完全分布式模式
我检查了Cloudera的硬件建议:http://www.cloudera.com/blog/2010/03/clouderas-support-team-shares-some-basic-hardware-recommendations/
从该页面的代码片段
针对不同的工作负载,包括我们原来的“基地”的建议各种硬件配置:
您将不得不提供更多关于处理类型,您使用的API,输入文件类型等的信息,以便任何人对您的体面人群进行教育性猜测。鉴于此,对于相同规格的节点,您的性能可以线性扩展,因此可以很容易地自行进行基准测试,并通过添加1-2个节点并记录您的hadoop工作时间来找出答案。 – diliop 2011-06-03 19:46:02