原创 ceph crush算法不一樣的理解,新增刪除osd造成少量數據遷移

                   摘要:之前對ceph的crush算法的理解,很多時候沒有針對問題來考慮。我現在就提出幾個問題                   1,ceph怎麼做到的每次down掉一個osd或者新增一個osd後,只

原创 osd_pool_default_min_size參數是否一定要配置?

疑惑: 使用ceph --show-config 可以看到默認情況下 osd_pool_default_size = 3     #創建pool的時候默認pool是3副本 osd_pool_default_min_size = 0 #按

原创 讓cephfs單客戶端在垃圾硬件上每秒寫入幾萬個文件

之前業界一直誤會了分佈式文件系統。 都認爲對象存儲的優越性好於NAS。業界部分人認爲:對象存儲是扁平的,而文件系統是樹型的,不夠扁平,所以對於海量小文件的性能上,對象存儲要比文件存儲性能好。在分佈式文件系統興起後,這個結論是錯的。原因如下

原创 cephfs 多MDS負載均衡的使用方式

 最近發現不少朋友,對cephfs的使用方式存在誤區。很多朋友線上連接數十幾萬,IOPS壓力巨大,依然在跑着單mds。直接導致單mds session耗盡,mds進程down。或者扛不住那麼大的IOPS,性能很慢。要知道cephfs的性能

原创 pg Incomplete和inconsistent狀態源碼邏輯和解決

            首先我們從字面意思理解下這2個pg狀態。              Incomplete : 沒完成              inconsistent : 不一致              那麼是什麼沒完成和不一

原创 Ceph 12源碼編譯部署bluestore

楔子:之前寫過一份源碼部署(QQ羣 72651441 裏有),但是ceph12版本編譯完全變了,並且之前的部署方式也不能適應bluestore。   一,源碼編譯準備工作 1, 下載源碼 官網下載地址爲: http://ceph.com/

原创 ceph crush算法不一樣的理解,和一致性哈希沒關係

                   摘要:之前對ceph的crush算法的理解,很多時候沒有針對問題來考慮。我現在就提出幾個問題                   1,ceph怎麼做到的每次down掉

原创 ceph IO切割成對象和對象名的組成(塊存儲)

                 看到很多關於oid-->pgid-->osdid映射的文章。 但是 讀寫IO到-->oid的映射,卻沒有相關的文章。我認爲一個完整的映射關係應該是這樣的:read write IO---->oid----

原创 cephfs 的數據與元數據組織形式 (cephfs探索二)

            cephfs 文件系統,由數據和元數據2部分組成。元數據即目錄和文件。數據就是文件裏的數據和內容。            不管數據還是元數據,最後在底層filestore層,都以對象文件的形式存儲。一,cephfs

原创 pg數計算公式(新,翻譯官網)

pg數=( Target PGs per OSD ) x ( OSD # ) x ( %Data )  /   ( Size ) Target PGs per OSD : 表示預計osd個數,