2017-04-19 48 views
0

我想测试榛广告。Hazelcast使用HD

<map name="testMap"> 
    <!-- <in-memory-format>BINARY</in-memory-format> --> 
    <in-memory-format>NATIVE</in-memory-format> 
    <backup-count>1</backup-count> 
    <async-backup-count>0</async-backup-count> 
    <read-backup-data>false</read-backup-data>  
</map> 

<native-memory allocator-type="POOLED" enabled="true"> 
    <size unit="GIGABYTES" value="150"/> 
</native-memory> 

我不知道数据存储在哪里。检查管理中心,发现最大本机内存为30G,但使用始终为0.

从以下节点登录: 信息:[192.168.129.155]:5701 [dev] [3.5.1]处理器= 4,物理。 memory.total = 38.4G,physical.memory.free = 2.3G,swap.space.total = 1024.0M,swap.space.free = 997.4M,heap.memory.used = 261.6M,heap.memory.free = 205.4 M,heap.memory.total = 467.0M,heap.memory.max = 8.5G,heap.memory.used/total = 56.01%,heap.memory.used/max = 3.00%,native.memory.used = 0, native.memory.free = 30.6G,native.memory.total = 0,native.memory.max = 30.6G,minor.gc.count = 324,minor.gc.time = 3225ms,major.gc.count = 1, major.gc.time = 74ms,load.process = 100.00%,load.system = 100.00%,load.systemAverage = 0.40,thread.count = 57,thread.peakCount = 61,cluster.timeDiff = 3,event.q。 size = 0,executor.q.async.size = 0,executor.q.client.size = 0,executor.q.query.size = 0,executor.q.scheduled.si ze = 0,executor.q.io.size = 0,executor.q.system.size = 0,executor.q.operation.size = 0,executor.q.priorityOperation.size = 0,executor.q.response。 size = 0,operations.remote.size = 0,operations.running.size = 0,operations.pending.invocations.count = 0,operations.pending.invocations.percentage = 0.00%,proxy.count = 2,clientEndpoint.count = 1,connection.active.count = 13,client.connection.count = 1,connection.count = 9

堆内存不增加,非堆没有变化&本地没有变化在哪里存储数据。

我是否缺少一些东西?

更新:使用hazelcast版本3.5和管理中心3.5版它们行货版本

+0

我真的没有想法,但Hazelcast版本是相当古老。你能否用当前版本(3.8.1)进行测试,看看问题是否仍然存在? – noctarius

+0

此外,当管理群集使用500万记录大小shon时,本地内存大约为2GB,当我切换到二进制大小时,最多可拍摄大约20 GB。 – jbkhere

+0

作为拥有许可证的客户,您始终可以将您的问题发送至[email protected]。谢谢 –

回答

0

您应该使用hazelcast管理中心版本3.8.1。 管理中心的最新版本显示二进制和本地内存的内存消耗和条目成本。

谢谢

+0

感谢Vik Gamov,让我开始试用版,然后进行升级。 – jbkhere