2017-02-01 27 views
1

内JSON我有些JSON正在从码头工人容器经由FluentD驾驶员等发出的?当该数据是通过fluentD捕获,它结束了看起来像这样,如所预期:解析内部FluentD

2017-02-01 06:29:15 +0000 docker.6faad650faa6: {"log":"{\"timeMillis\":1485917543709,\"thread\":\"main\",\"level\":\"INFO\",\"loggerName\":\"com.imageintelligence.ava.api.Boot\",\"message\":\"{\\\"dom\\\":\\\"DOM\\\"}\",\"loggerFqcn\":\"org.apache.logging.slf4j.Log4jLogger\",\"threadId\":1,\"threadPriority\":5}\r","com.amazonaws.ecs.cluster":"dombou","container_id":"6faad650faa6012af4f32df79901b42488543a5e6e53517fe3579b01ab2b6862","container_name":"/upbeat_booth","source":"stdout"}` 

我使用过滤器像这样,解析JSON:

<filter docker.**> 
    @type parser 
    format json 
    key_name log 
    reserve_data true 
    hash_value_field log 
</filter> 

和我结束了半-sanitized JSON:

2017-02-01 06:32:10 +0000 docker.68c794f7f694: {"source":"stdout","log":{"timeMillis":1485917543709,"thread":"main","level":"INFO","loggerName":"com.imageintelligence.ava.api.Boot","message":"{\"dom\":\"DOM\"}","loggerFqcn":"org.apache.logging.slf4j.Log4jLogger","threadId":1,"threadPriority":5},"com.amazonaws.ecs.cluster":"dombou","container_id":"68c794f7f6948d4261b9497947834651abbf766e9aa51a76f39d6895b7a9ac18","container_name":"/sad_hamilton"} 

的问题是,在message领域仍然是一个字符串逃过JSON场。关于如何解析内部JSON字段的任何建议?我如何堆叠过滤器?

回答

0

请尝试以下插件,让我知道如何去:

https://github.com/edsiper/fluent-plugin-docker

+0

我的理解是,这适用于'日志'字段,但没有内部日志字段。我需要一些能够递归处理日志内部的东西。我会试一试虽然 –

+0

确认:它不会解析内部的json,因为我想 –

0

你可以尝试连续的过滤器:

<filter docker.**> 
    @type parser 
    key_name log 
    format json 
    reserve_data true 
</filter> 

<filter docker.*.embeded_json.**> 
    @type parser 
    key_name message 
    format json 
    reserve_data true 
</filter> 
0

定义的过滤器,并使用json_in_json撑着了fluentd。在此过滤器之后,为此过滤器定义匹配器,以便在日志中执行进一步的过程。

这就是帮助你解析嵌套的json。如果它尚不存在,U可能还需要添加 gem install fluent-plugin-json-in-json。 参考 - https://github.com/gmr/fluent-plugin-json-in-json