Hadoop确保来自同一文件的不同块将存储在群集中的不同计算机上吗?显然,复制块将位于不同的机器上。HDFS上的文件块
1
A
回答
1
不可以。如果你看HDFS Architecture Guide,你会看到(在图中)文件part-1
的复制因子为3,并且由标记为2,4和5的三个块组成。注意块在一种情况下,2和5在同一Datanode上。
0
0
相反,我认为。抛开复制,每个datanode将每个数据块作为自己的文件存储在本地文件系统中。
0
那么Hadoop不能保证。由于这是一个巨大的安全性损失,如果您在作业中请求文件,则会导致完成的作业失败。只是因为一个块不可用。无法想象你的问题的用例,也许你可以更多地了解你的意图是什么。
相关问题
- 1. 小文件和HDFS块
- 2. 何处上传hdfs文件?
- 3. HBase + HDFS - 缺少hdfs块
- 4. HDFS块大小和文件大小的问题,文件小于块大小
- 5. 为什么“每HDFS文件1分HDFS块”是在地板公文更好
- 6. HDFS块问题
- 7. HDFS块重启
- 8. HDFS块创建
- 9. 将本地文件复制到hdfs需要在hdfs集群上?
- 10. 使用Python在hdfs上读写文件
- 11. hadoop命令在HDFS上拆分文件
- 12. 使用mapreduce在hdfs上修改文件
- 13. HDFS不复制块
- 14. HDFS如何在CopyFromLocal中分发新的块或文件
- 15. HDFS中Hadoop块的概念
- 16. 块级别的HDFS压缩
- 17. Flume无法在HDFS上将Json文件写入Json文件
- 18. Hadoop HDFS数据文件:显示数据结点和块
- 19. HDFS块大小vs实际文件大小
- 20. 覆写HDFS文件/目录
- 21. 读入csv文件从HDFS
- 22. HDFS小文件设计
- 23. 2 Hdfs文件比较
- 24. IOException写入文件到Hdfs
- 25. 更新hadoop HDFS文件
- 26. Hdfs文件存储查询
- 27. 上传文件的块Android
- 28. HDFS块大小混乱
- 29. HDFS - 块大小相关
- 30. HDFS块大小和复制
谢谢托马斯。我真的没有想到一个用例。只是一般疑惑。 – Meg 2011-02-04 23:30:04