我有一个项目需要我处理大量(100-150MB)大图像(100-150MB)。我正在做的处理可以通过Imagemagick完成,但我希望在Amazon的Elastic MapReduce平台(我相信使用Hadoop运行)上实际执行此处理。使用Amazon MapReduce/Hadoop进行图像处理
在我发现的所有例子中,它们都处理基于文本的输入(我发现字数统计采样数十亿次)。我无法找到有关Hadoop的这类工作的任何信息:从一组文件开始,对每个文件执行相同的操作,然后将新文件的输出写出为自己的文件。
我很确定这可以用这个平台来完成,并且应该可以使用Bash完成;我不认为我需要去创建一个完整的Java应用程序或其他东西,但我可能是错的。
我不要求别人递给我的代码,但如果任何人有示例代码或链接处理类似问题的教程,这将是非常赞赏...
所以你说的Hadoop的图像主要是ginormous大小的图像,而不是ginormous数量的图像? – 2012-09-04 14:10:25
@aaaaaaa根本没有。我认为Hadoop可以用于图像处理,但他的要求不适合Hadoop。但是,您是对的,少量的大尺寸图像比大量的小图像要好,尽管您可以忽略“CombineInputFormat”的许多问题,但仍然存在很大的开销。 –