我有十个sevrers,他们每个人每天都会生成大约3G的日志文件。我完成了hadoop教程,并在每台机器上安装了每个hadoop(HDFS)。我想要的是使用map-reduce来分析这些日志。Hadoop处理多个节点的日志
我的问题是如何启用日常日志中的MP在hadoop?目前,服务器A,我手动复制日志文件到HDFS目录:
>hadoop fs -put local_log_path /A/log_20170219.1
然后
>hadoop jar MR_path MP_driver_class /A/log_20170219.1 output_path.
是否有其他更有效的办法,这样我就不必去各服务器,并手动将新生成的日志复制到DFS系统?命令fs -put
确实涉及大型数据文件在这里移动吗?