2016-07-04 48 views
0

我试图设置一个单独的群集(kibanacluster)来监视我的主要elasticsearch群集(marveltest)。以下是我正在使用的ES,Marvel和Kibana版本。 ES版本目前是固定的。如果需要,我可以更新或降级其他组件。为Elasticsearch设置单独的监视群集

  • kibana-4.4.1
  • elasticsearch-2.2.1
  • 奇迹剂-2.2.1

监视簇和Kibana都在宿主192.168.2.124运行和主群集正在单独的主机192.168.2.116中运行。

192.168.2.116:elasticsearch.yml

marvel.agent.exporter.es.hosts: ["192.168.2.124"] 
marvel.enabled: true 
marvel.agent.exporters: 

id1: 
    type: http 
    host: ["http://192.168.2.124:9200"] 

监控群集我可以看到数据从主群集来,但越来越被“过滤”,因为群集名称是在DEBUG日志展望不同。

[2016年7月4日16:33:25144]连接 [DEBUG] [transport.netty] [nodek]到节点[{#zen_unicast_2#} {192.168.2.124} {192.168.2.124:9300 }]

[2016-07-04 16:33:25,144] [DEBUG] [transport.netty] [nodek]连接 到节点[{#zen_unicast_1#} {192.168.2.116} {192.168.2.116:9300 }]

[2016年7月4日16:33:25183] [DEBUG] [discovery.zen.ping.unicast] [nodek] [1]滤除从 {节点1响应} {Rmgg0Mw1TSmIpytqfnFgFQ} {192.168 .2.116} {192.168.2.116:9300}, 不一样cluster_name [marveltest]

[2016-07-04 16:33:26,533] [DEBUG] [discovery.zen.ping.unicast] [nodek] [1]从 {node1} { Rmgg0Mw1TSmIpytqfnFgFQ} {192.168.2.116} {192.168.2.116:9300}, 不相同群集名[marveltest]

[2016年7月4日16:33:28039] [DEBUG] [discovery.zen.ping.unicast] [nodek] [1]滤除从 {节点1}响应{Rmgg0Mw1TSmIpytqfnFgFQ} {192.168.2.116} {192.168.2.116:9300}, 不相同群集名[marveltest]

[2016年7月4日16点三十三:28040] [DEBUG] [transport.nett y] [nodek]从 [{#zen_unicast_2#} {192.168.2.124} {192.168.2.124:9300}]断开连接断开呼叫 [2016-07-04 16:33:28,040] [DEBUG] [ discovery.zen] [nodek]过滤了ping响应:(filter_client [true], filter_data [false]) - > ping_response {node [{nodek} {vQ-Iq8dKSz26AJUX77Ncfw} {192.168.2.124} {192.168.2.124: 9300}], ID [42],掌握 [{nodek} {VQ-Iq8dKSz26AJUX77Ncfw} {192.168.2.124} {192.168.2.124:9300}], hasJoinedOnce [TRUE],群集名[kibanacluster]}

[2016-07-04 16:33:28,053] [DEBUG] [transport.netty] [nodek]从 [{#zen_un icast_1#} {192.168.2.116} {192.168.2.116:9300}]由于显式 断开连接调用[2016-07-04 16:33:28,057] [DEBUG] [transport。网状] [nodek]连接到节点 [{nodek} {VQ-Iq8dKSz26AJUX77Ncfw} {192.168.2.124} {192.168.2.124:9300}]

[2016年7月4日16:33:28117] [DEBUG ] [discovery.zen.publish] [nodek] 得到了充分的簇态版本32,大小5589

+0

什么是两个集群中的单播配置? –

回答

0

的问题是,你混合使用Marvel 1.x settingsMarvel 2.2 settings,也是你的其他配置似乎是关闭正如Andrei在评论中指出的那样。

marvel.agent.exporter.es.hosts: ["192.168.2.124"] 

这不是Marvel 2.x已知的设置。并根据您的复制/粘贴,它也有可能是YAML格式有误,由于空白:

marvel.agent.exporters: 

id1: 
    type: http 
    host: ["http://192.168.2.124:9200"] 

这应该是:

marvel.agent.exporters: 
    id1: 
    type: http 
    host: ["http://192.168.2.124:9200"] 

由于安德烈在暗示,你可能已经增加了生产节点(s)添加到您的discovery.zen.ping.unicast.hosts,这会尝试将其与群集连接起来。我怀疑你可以在你的监控集群中完全删除该设置。

[2016-07-04 16:33:26,533][DEBUG][discovery.zen.ping.unicast] [nodek] [1] filtering out response from {node1}{Rmgg0Mw1TSmIpytqfnFgFQ}{192.168.2.116}{192.168.2.116:9300}, not same cluster_name [marveltest] 

这表明,它忽略了实在是太连接,因为其他节点(node1)是不一样的集群中的节点。


要设置一个单独的监控集群,它非常简单,但它需要先了解移动部件。

  1. 您需要至少一个节点一个单独的集群(大多数人获得通过一个节点)。
    • 这个单独的集群有效地不知道它监视的集群。它只接收数据。
  2. 您需要将数据从生产群集发送到该单独的群集。
  3. 监控群集将解释使用Kibana + Marvel UI插件显示图表的数据。

所以,你需要什么:

  • 你的生产集群需要每个节点上安装marvel-agent
  • 每个节点需要配置出口(S):

这是因为你有相同的前:

marvel.agent.exporters: 
    id1: 
    type: http 
    host: ["http://192.168.2.124:9200"] 
  • Kibana先跟监控集群(在这个例子中192.168.2.124 )和Kibana需要相同版本的Marvel UI插件。