我有以下情形:问题与logstash与卡夫卡场条件句----> FileBeat勘探者
FileBeat ---->卡夫卡-----> Logstash ----->弹性----> Kibana
在Filebeat我有2个探矿中YML文件,,。并添加一些字段来识别日志数据。 但是,问题是:在Logstash 我还没有能够验证这个领域。
的配置文件是:
1. filebeat.yml
filebeat.prospectors:
- input_type: log
paths:
- /opt/jboss/server.log*
tags: ["log_server"]
fields:
environment: integracion
log_type: log_server
document_type: log_server
fields_under_root: true
- input_type: log
paths:
- /var/todo1_apps/ebanTX.log*
tags: ["log_eban"]
fields:
environment: integracion
log_type: log_ebanking
document_type: log_ebanking
fields_under_root: true
output.kafka:
enabled: true
hosts: ["192.168.105.68:9092"]
topic: "sve_logs"
timeout: 30s
2. logstash.conf
input {
kafka {
bootstrap_servers => "192.xxx.xxx.xxx:9092"
group_id => "sve_banistmo"
topics => ["sve_logs"]
decorate_events => true
codec => "plain"
}
}
filter {
if [type] == "log_ebanking" {
grok {
patterns_dir => ["patterns/patterns"]
match => { "message" => "%{TIMESTAMP_ISO8601:logdate}%{SPACE}%{LOGLEVEL:level}%{SPACE}\[%{DATA:thread}]%{SPACE}-%{SPACE}%{GREEDYDATA:message_log}" }
}
}
}
output {
if [type] == "log_ebanking" {
elasticsearch {
hosts => ["192.168.105.67:9200"]
index => "sve-banistmo-ebanking-%{+YYYY.MM.dd}"
}
stdout { codec => json}
}
}
的问题是在条件滤波器和输出部分。我试过
@[metadata][type]
@metadata][type]
@metadata.type
metadata.type
[type]
同时具有type和log_type变量。没有什么作品:S 如果我不放条件,数据流没有问题。我的意思是,不是一个连接问题。
请帮帮我。我已经审查了所有相关的信息,但在我的情况下,条件不起作用。
预先感谢
的Darioř
已被弃用。当你不加条件是有场'type'与事件的值'log_ebanking'? –
您好,是的,这是Logstash中的消息示例: {“@timestamp”:“2016-11-25T18:57:48.569Z”,“beat”:{“hostname”:“inrhas14”,“命名 “:” inrhas14" , “版本”: “5.0.0”}, “环境”: “integracion”, “INPUT_TYPE”: “日志”,** “log_type”: “log_ebanking” **, “消息”: “2016-11-25 13:36:53,508错误[http-192.168.105.79:10080-3] - USER_ID:NONE”,“offset”:216302,“source”:“/ var/todo1_apps/SVE-BSMO/logs /ebankingTX.log","tags":["log_ebanking"],**"type":"log_ebanking"**} –
您可以使用'--debug'标志运行logstash管道并提供输出吗? – Val