logstash

    0热度

    1回答

    我正在使用logstash从mysql读取数据到kafka。为节省磁盘空间,我写的输出配置,因为这: kafka { codec => plain { format => "%{key1},%{key2},%{key3}" } } 如我所料,通过提供这样的输入数据: { key1: value1, key2: nil, key3:

    0热度

    1回答

    我们在云中有几个外部应用程序(IBM Bluemix),它将应用程序syslog记录在内部使用ELK堆栈的bluemix logmet服务中。 现在我们定期从云端下载日志并将其上传到本地的Elastic/Kibana实例中。这是因为如果我们想通过Kibana搜索相同的日志,将日志存储在云服务中会产生成本和额外的成本。本地弹性实例可以删除/刷新我们不需要的旧日志。 下载的日志将这个样子 {"inst

    1热度

    1回答

    有没有办法让设备日志或者使用苹果配置 选择Window>从Xcode的设备不工作监督设备的系统日志,我已经检查了我的Mac机器的系统日志,确实也不显示任何与设备相关的日志。 任何帮助,不胜感激

    0热度

    2回答

    我有我的JSON输入如下其中有日期字段,需要提取的Json日期时间字段多个日期字段, { "Properties": { "Client Name": "Chubb", "Portfolio": "Chubb-Transfer" }, "Capture": [ { "CaptureGUID": "caa1f5ba-1e93-4

    1热度

    1回答

    我想找出时间差两个时间戳之间,更具体的我想计算交易的处理时间。 目前我使用的“经过”过滤器,它计算两个日志事件之间的时间差。换句话说,它是计算的时间之间的时间差时,日志被编入索引。 我要计算时间差,当他们发布或登录 例如 信息的日期时间消息事件开始 信息的日期时间消息事件结束 目前它告诉我的区别次他们索引。我要的是 日期时间(活动结束) - 日期 - 时间(事件开始)

    0热度

    1回答

    我可以使用logstash.conf创建索引。我的输入类型是gelf。 我正在将logstash日志发送给kibana。 这里是我的logstash.conf input { gelf { } } output { stdout { codec => rubydebug } elasticsearch { hosts => ["elk.lera.com:80"]

    0热度

    1回答

    我作为 app\exceptions\SomeException 和模式的输入是 %{EXCEPTION_CLASS:exception} 和自定义模式作为 {"EXCEPTION_CLASS" : "app\\\\exceptions\\\\SomeException"} 在神交调试器(以Kibana),输出为 { "exception": "app\\exceptions

    0热度

    1回答

    我有一个非常简单的管道从卡夫卡采取JSON消息,并将其发送给Elasticsearch: input { kafka { bootstrap_servers => "kafka04-prod01.messagehub.services.eu-de.bluemix.net:9093,kafka05-prod01.messagehub.services.eu-de.bluemix

    0热度

    1回答

    我绝对新Logstash,我试图分析我多logentries,是按以下格式 <log level="INFO" time="Wed May 03 08:25:03 CEST 2017" timel="1493792703368" host="host"> <msg><![CDATA[Method=GET URL=http://localhost (Vers=[Version], Param1=[p

    1热度

    1回答

    创建索引和映射到ES我一直在关注这个教程impport数据从数据库到LOGSTASh并创建一个IDEX和映射到弹性搜索 INSERT INTO LOGSTASH SELECT DATA FROM DATABASE 这是基于我的输出我的配置文件: [2017-10-12T11:50:45,807][INFO ][logstash.modules.scaffold] Initializing modu