我一直与S3测试Ceph的Ceph的S3存储空间没有释放
我的测试ENV是10GB的datadisk每个所以30GB 其设置为重复3次3node。所以我有“15290 MB”空间可用。
我拿到了S3存储工作,并已经上传的文件,并填补了存储,试图删除上述文件,但在磁盘仍显示为满
cluster 4ab8d087-1802-4c10-8c8c-23339cbeded8
health HEALTH_ERR
3 full osd(s)
full flag(s) set
monmap e1: 3 mons at {ceph-1=xxx.xxx.xxx.3:6789/0,ceph-2=xxx.xxx.xxx.4:6789/0,ceph-3=xxx.xxx.xxx.5:6789/0}
election epoch 30, quorum 0,1,2 ceph-1,ceph-2,ceph-3
osdmap e119: 3 osds: 3 up, 3 in
flags full,sortbitwise,require_jewel_osds
pgmap v2224: 164 pgs, 13 pools, 4860 MB data, 1483 objects
14715 MB used, 575 MB/15290 MB avail
164 active+clean
我不知道怎么弄的磁盘空间回来了?
可以在我做了什么错误或遗漏
感谢净化事情伤心地工作着在现场环境中这样做。 但感谢的命令和理解我运行了一些测试,让我的头周围 – nig007