-1
如何使用编解码器逐行读取logstash文件? 当我尝试下面的配置,但它不工作:配置Logstash逐行输入
file {
path => "C:/DEV/Projects/data/*.csv"
start_position => "beginning"
codec => line {
format => "%{[data]}"
}
如何使用编解码器逐行读取logstash文件? 当我尝试下面的配置,但它不工作:配置Logstash逐行输入
file {
path => "C:/DEV/Projects/data/*.csv"
start_position => "beginning"
codec => line {
format => "%{[data]}"
}
例与elasticsearch输出:
input{
file {
path => "C:/DEV/Projects/data/*.csv"
start_position => beginning
}
}
filter {
csv {
columns => [
"COLUMN_1",
"COLUMN_2",
"COLUMN_3",
.
.
"COLUMN_N"
]
separator => ","
}
mutate {
convert => {
"COLUMN_1" => "float"
"COLUMN_4" => "float"
"COLUMN_6" => "float"
}
}
}
output {
elasticsearch {
hosts => ["localhost:9200"]
action => "index"
index => "test_index"
}
对于过滤器: https://www.elastic.co/guide/en/logstash/current/plugins-filters-csv.html
你的问题是坏,严重书面。什么不工作?发生了什么(日志,痕迹,输出...)?观察到的行为与预期行为有何不同?如果你想要任何人提供帮助,你必须提供更多信息。 – baudsp
我很肯定你不需要线路编解码器,但由于你不提供任何信息,我不知道这是否是问题所在。 – baudsp