我有一个有50个节点的集群,每个节点有8个核心用于计算。 如果我有工作,我计划施加200减少,什么是更好的计算资源分配策略的更好的表现?Hadoop节点和核心分配策略
我的意思是分配50个节点和4个核心在他们每个人或分配25个节点和8核心为他们每个更好?在哪种情况下哪个更好?
我有一个有50个节点的集群,每个节点有8个核心用于计算。 如果我有工作,我计划施加200减少,什么是更好的计算资源分配策略的更好的表现?Hadoop节点和核心分配策略
我的意思是分配50个节点和4个核心在他们每个人或分配25个节点和8核心为他们每个更好?在哪种情况下哪个更好?
要回答你的问题,这取决于一些事情。 50个节点都将是总体较好,在我看来:
但是,如果您主要关注的是网络,这里是具有50个节点的几个缺点:
即使有了这些网络问题,我想你会发现50个节点更好,只是因为节点的价值不仅仅是核心数量。你必须主要考虑你有多少个磁盘。
很难说,通常它总是“越高越好”。 更多的机器会更好地防止故障。
通常Hadoop可以使用商品硬件,你可以选择50个4核心的服务器。
但是我会选择8核心,如果他们会有更好的硬件,例如。更高的CPU频率,DDR3 RAM或10k rpm磁盘。