我一直在用s3测试卡夫
我的测试ENV是一个3节点,每个节点的数据量为10 to,所以它的设置为30 to,可以复制3次。所以我有"15290 MB“空间可用。
我让S3桶工作,并上传文件,并填满存储,试图删除上述文件,但磁盘仍然显示为满的。
cluster 4ab8d087-1802-4c10-8c8c-23339cbeded8
health HEALTH_ERR
3 full osd(s)
full flag(s) set
monmap e1: 3 mons at {ceph-1=xxx.xxx.xxx.3:6789/0,ceph-2=xxx.xxx.xxx.4:6789/0,ceph-3=xxx.xxx.xxx.5:6789/0}
election epoch 30, quorum 0,1,2 ceph-1,ceph-2,ceph-3
osdmap e119: 3 osds: 3 up, 3 in
flags full,sortbitwise,require_jewel_osds
pgmap v2224: 164 pgs, 13 pools, 4860 MB data, 1483 objects
14715 MB used, 575 MB / 15290 MB avail
164 active+clean我不知道怎么把磁盘空间拿回来?
有人能告诉我我做错了什么或错过了什么吗?
发布于 2017-10-26 12:55:59
我从Ceph那开始也有同样的问题。
列出要删除的内容
radosgw-admin gc list --include-all那就运行它
radosgw-admin gc process用你的数据找到桶:
ceph df通常,S3数据进入默认池default.rgw.buckets.data中。
从每个对象中清除它/!\您将丢失所有数据/!\
rados purge default.rgw.buckets.data --yes-i-really-really-mean-it 我不知道为什么C年会暂时不清除这些数据(还在学习.)。
发布于 2017-10-27 12:10:37
感谢朱利安提供的信息
第一步和第二步是对的。
当你跑的时候
radosgw管理gc列表-包括-all
你可以看到这样的例子
[{ "tag":"17925483-8ff6-4aaf-9db2-1eafeccd0454.94098.295\u0000","time":"2017-10-27 13:51:58.0.493358 s“,"objs":[{”池“:"default.rgw.buckets.data",“"17925483-8ff6-4aaf-9db2-1eafeccd0454.24248.3__multipart_certs/boot2docker.iso.2~UQ4MH7uZgQyEd3nDZ9hFJr8TkvldwTp.1",”:"key":"",“实例”:“}”,{“池”:"default.rgw.buckets.data",“"17925483-8ff6-4aaf-9db2-1eafeccd0454.24248.3__shadow_certs/boot2docker.iso.2~UQ4MH7uZgQyEd3nDZ9hFJr8TkvldwTp.1_1",”:“键”:"",“实例”:“},.
如果你注意到时间
2017年-10-27 13:51:58.0.493358 s
跑步时
radosgw管理gc处理
它只会清除/删除比时间更长的部分。
我可以一次又一次地运行"radosgw-admin gc进程“,但是文件要到"2017-10-27 13:51:58.0.493358 s”之后才会被移除。
但你也是对的
拉多斯清除default.rgw.buckets.data -是的-我-真的-它。
也起作用
https://stackoverflow.com/questions/46846647
复制相似问题