2017-10-19 78 views
-1

如何使用编解码器逐行读取logstash文件? 当我尝试下面的配置,但它不工作:配置Logstash逐行输入

file { 
path => "C:/DEV/Projects/data/*.csv" 
start_position => "beginning" 
codec => line { 
    format => "%{[data]}" 
} 
+0

你的问题是坏,严重书面。什么不工作?发生了什么(日志,痕迹,输出...)?观察到的行为与预期行为有何不同?如果你想要任何人提供帮助,你必须提供更多信息。 – baudsp

+0

我很肯定你不需要线路编解码器,但由于你不提供任何信息,我不知道这是否是问题所在。 – baudsp

回答

0

例与elasticsearch输出:

input{ 
    file { 
     path => "C:/DEV/Projects/data/*.csv" 
     start_position => beginning 
    } 

} 

filter { 

csv { 

    columns => [ 
     "COLUMN_1", 
     "COLUMN_2", 
     "COLUMN_3", 
     . 
     . 
     "COLUMN_N" 
    ] 
    separator => "," 
} 

mutate { 
     convert => { 
      "COLUMN_1" => "float" 
      "COLUMN_4" => "float" 
      "COLUMN_6" => "float" 
     } 
} 
} 

output { 
elasticsearch { 

    hosts => ["localhost:9200"] 
    action => "index" 
    index => "test_index" 
} 

对于过滤器: https://www.elastic.co/guide/en/logstash/current/plugins-filters-csv.html