Ceph RBD CephFS 儲存
環境準備: (這裡只做基礎測試, ceph-manager , ceph-mon, ceph-osd 一共三臺)
10.6.0.140 = ceph-manager
10.6.0.187 = ceph-mon-1
10.6.0.188 = ceph-osd-1
10.6.0.94 = node-94
注: ceph 對時間要求很嚴格, 一定要同步所有的伺服器時間
一、在 manager 上面修改 /etc/hosts :
10.6.0.187 ceph-mon-1
10.6.0.188 ceph-osd-1
10.6.0.94 node-94
二、並修改各伺服器上面的 hostname (說明:ceph-deploy工具都是通過主機名與其他節點通訊)
hostnamectl --static set-hostname ceph-manager
hostnamectl --static set-hostname ceph-mon-1
hostnamectl --static set-hostname ceph-osd-1
hostnamectl --static set-hostname node-94
三、配置manager節點與其他節點ssh key 訪問
[root@ceph-manager ~]# ssh-keygen
將key 傳送到各節點中
[root@ceph-manager ~]#ssh-copy-id ceph-mon-1
[root@ceph-manager ~]#ssh-copy-id ceph-osd-1
四、在manager節點安裝 ceph-deploy
[root@ceph-manager ~]#yum -y install centos-release-ceph
[root@ceph-manager ~]#yum makecache
[root@ceph-manager ~]#yum -y install ceph-deploy ntpdate
在其他各節點安裝 ceph 的yum源
[root@ceph-mon-1 ~]# yum -y install centos-release-ceph
[root@ceph-mon-1 ~]# yum makecache
[root@ceph-osd-1 ~]# yum -y install centos-release-ceph
[root@ceph-osd-1 ~]# yum makecache
五、配置ceph叢集
建立ceph 目錄
[root@ceph-manager ~]#mkdir -p /etc/ceph
[root@ceph-manager ~]#cd /etc/ceph
建立監控節點:
[root@ceph-manager /etc/ceph]#ceph-deploy new ceph-mon-1
執行完畢會生成 ceph.conf ceph.log ceph.mon.keyring 三個檔案
編輯 ceph.conf 增加 osd 節點數量
在最後增加:
osd pool default size = 1
使用ceph-deploy在所有機器安裝ceph
[root@ceph-manager /etc/ceph]# ceph-deploy install ceph-manager ceph-mon-1 ceph-osd-1
如果出現錯誤,也可以到各節點中直接 yum -y install ceph ceph-radosgw 進行安裝
初始化監控節點
[root@ceph-manager /etc/ceph]# ceph-deploy mon create-initial
osd 節點建立儲存空間
[root@ceph-osd-1 ~]# mkdir -p /opt/osd1
在管理節點上啟動 並 啟用 osd 程式
[root@ceph-manager ~]# ceph-deploy osd prepare ceph-osd-1:/opt/osd1
[root@ceph-manager ~]# ceph-deploy osd activate ceph-osd-1:/opt/osd1
把管理節點的配置檔案與keyring同步至其它節點
[root@ceph-manager ~]# ceph-deploy admin ceph-mon-1 ceph-osd-1
檢視叢集健康狀態 (HEALTH_OK 表示OK)
[root@ceph-manager ~]# ceph health
HEALTH_OK
客戶端 掛載: ceph 有多種掛載方式, rbd 塊裝置對映, cephfs 掛載 等
注:
在生產環境中,客戶端應該對應pool的許可權,而不是admin 許可權
[root@ceph-manager ~]# ssh-copy-id node-94
客戶端安裝ceph
[root@ceph-manager ~]# ceph-deploy install node-94
或者 登陸 node-94 執行 yum -y install ceph ceph-radosgw
如果ssh 非22埠,會報錯 可使用 scp 傳
scp -P埠 ceph.conf node-94:/etc/ceph/
scp -P埠 ceph.client.admin.keyring node-94:/etc/ceph/
建立一個pool
[root@ceph-manager ~]# ceph osd pool create press 100
pool 'press' created
設定pool 的pgp_num
[root@ceph-manager ~]# ceph osd pool set press pgp_num 100
檢視建立的pool
[root@ceph-manager ~]# ceph osd lspools
0 rbd,1 press,
設定副本數為2 (osd 必須要大於或者等於副本數,否則報錯, 千萬注意)
[root@ceph-manager ~]# ceph osd pool set press size 2
建立一個100G 名為 image 映象
[root@ceph-manager ~]# rbd create -p press --size 100000 image
檢視一下映象:
[root@ceph-manager ~]# rbd -p press info image
rbd image 'image':
size 100000 MB in 25000 objects
order 22 (4096 kB objects)
block_name_prefix: rb.0.104b.74b0dc51
format: 1
客戶端塊儲存掛載:
在node-94 上面 map 映象
[root@node-94 ~]# rbd -p press map image
/dev/rbd0
格式化 image
[root@node-94 ~]# mkfs.xfs /dev/rbd0
建立掛載目錄
[root@node-94 ~]# mkdir /opt/rbd
掛載 rbd
[root@node-94 ~]# mount /dev/rbd0 /opt/rbd
[root@node-94 ~]# time dd if=/dev/zero of=haha bs=1M count=1000
取消 map 映象
[root@node-94 ~]# umount /opt/rbd
[root@node-94 ~]# rbd unmap /dev/rbd0
客戶端 cephFS 檔案系統 (cephFS 必須要有2個osd 才能執行,請注意):
使用 cephFS 叢集中必須有 mds 服務
建立 mds 服務 (由於機器有限就在 mon 的伺服器上面 建立 mds 服務)
[root@ceph-manager ~]# ceph-deploy mds create ceph-mon-1
建立2個pool 做為檔案系統的data 與 metadata
[root@ceph-manager ~]# ceph osd pool create cephfs_data 99
pool 'cephfs_data' created
[root@ceph-manager ~]# ceph osd pool create cephfs_metadata 99
pool 'cephfs_metadata' created
建立 檔案系統:
[root@ceph-manager ~]# ceph fs new jicki cephfs_metadata cephfs_data
new fs with metadata pool 6 and data pool 5
檢視所有檔案系統:
[root@ceph-manager ~]# ceph fs ls
name: jicki, metadata pool: cephfs_metadata, data pools: [cephfs_data ]
刪除一個檔案系統
[root@ceph-manager ~]# ceph fs rm jicki --yes-i-really-mean-it
客戶端掛載 cephFS
安裝 ceph-fuse:
[root@node-94 ~]# yum install ceph-fuse -y
建立掛載目錄:
[root@node-94 ~]# mkdir -p /opt/jicki
[root@node-94 ~]# ceph-fuse /opt/jicki
[root@node-94 ~]# df -h|grep ceph
ceph-fuse 1.6T 25G 1.6T 2% /opt/jicki
基於 docker ceph-rbd-volume-plugin
六、ceph 相關命令:
一、manager 篇
檢視實時的執行狀態資訊:
[root@ceph-manager ~]# ceph -w
檢視狀態資訊:
[root@ceph-manager ~]# ceph -s
檢視儲存空間:
[root@ceph-manager ~]# ceph df
刪除某個節點的所有的ceph資料包:
[root@ceph-manager ~]# ceph-deploy purge ceph-mon-1
[root@ceph-manager ~]# ceph-deploy purgedata ceph-mon-1
為ceph建立一個admin使用者併為admin使用者建立一個金鑰,把金鑰儲存到/etc/ceph目錄下:
[root@ceph-manager ~]# ceph auth get-or-create client.admin mds 'allow' osd 'allow *' mon 'allow *' -o /etc/ceph/ceph.client.admin.keyring
為osd.ceph-osd-1建立一個使用者並建立一個key
[root@ceph-manager ~]# ceph auth get-or-create osd.ceph-osd-1 mon 'allow rwx' osd 'allow *' -o /etc/ceph/keyring
為mds.ceph-mon-1建立一個使用者並建立一個key
[root@ceph-manager ~]# ceph auth get-or-create mds.ceph-mon-1 mon 'allow rwx' osd 'allow *' mds 'allow *' -o /etc/ceph/keyring
檢視ceph叢集中的認證使用者及相關的key
[root@ceph-manager ~]# ceph auth list
刪除叢集中的一個認證使用者
[root@ceph-manager ~]# ceph auth del osd.0
檢視叢集健康狀態詳細資訊
[root@ceph-manager ~]# ceph health detail
檢視ceph log日誌所在的目錄
[root@ceph-manager ~]# ceph-conf --name mds.ceph-manager --show-config-value log_file
二、mon 篇
檢視mon的狀態資訊
[root@ceph-manager ~]# ceph mon stat
檢視mon的選舉狀態
[root@ceph-manager ~]# ceph quorum_status --format json-pretty
看mon的對映資訊
[root@ceph-manager ~]# ceph mon dump
刪除一個mon節點
[root@ceph-manager ~]# ceph mon remove ceph-mon-1
獲得一個正在執行的mon map,並儲存在mon-1-map.txt檔案中
[root@ceph-manager ~]# ceph mon getmap -o mon-1-map.txt
檢視mon-1-map.txt
[root@ceph-manager ~]# monmaptool --print mon-1-map.txt
把上面的mon map注入新加入的節點
[root@ceph-manager ~]# ceph-mon -i ceph-mon-3 --inject-monmap mon-1-map.txt
檢視mon的socket
[root@ceph-manager ~]# ceph-conf --name mon.ceph-mon-1 --show-config-value admin_socket
檢視mon的詳細狀態
[root@ceph-mon-1 ~]# ceph daemon mon.ceph-mon-1 mon_status
刪除一個mon節點
[root@ceph-manager ~]# ceph mon remove ceph-mon-1
三、msd 篇
檢視msd狀態
[root@ceph-manager ~]# ceph mds dump
刪除一個mds節點
[root@ceph-manager ~]# ceph mds rm 0 mds.ceph-mds-1
四、osd 篇
檢視ceph osd執行狀態
[root@ceph-manager ~]# ceph osd stat
檢視osd對映資訊
[root@ceph-manager ~]# ceph osd stat
檢視osd的目錄樹
[root@ceph-manager ~]# ceph osd tree
down掉一個osd硬碟 (ceph osd tree 可檢視osd 的硬碟資訊,下面為down osd.0 節點)
[root@ceph-manager ~]# ceph osd down 0
在叢集中刪除一個osd硬碟
[root@ceph-manager ~]# ceph osd rm 0
在叢集中刪除一個osd 硬碟 並 crush map 清除map資訊
[root@ceph-manager ~]# ceph osd crush rm osd.0
在叢集中刪除一個osd的host節點
[root@ceph-manager ~]# ceph osd crush rm ceph-osd-1
檢視最大osd的個數
[root@ceph-manager ~]# ceph osd getmaxosd
設定最大的osd的個數(當擴大osd節點的時候必須擴大這個值)
[root@ceph-manager ~]# ceph osd setmaxosd 10
設定osd crush的權重 ceph osd crush set <ID> <WEIGHT> <NAME> ID WEIGHT NAME 使用 ceph osd tree 檢視
[root@ceph-manager ~]# ceph osd crush set 1 3.0 host=ceph-osd-1
設定osd 的權重 ceph osd reweight <ID> <REWEIGHT>
[root@ceph-manager ~]# ceph osd reweight 1 0.5
把一個osd節點踢出叢集
[root@ceph-manager ~]# ceph osd out osd.1
把踢出的osd重新加入叢集
[root@ceph-manager ~]# ceph osd in osd.1
暫停osd (暫停後整個叢集不再接收資料)
[root@ceph-manager ~]# ceph osd pause
再次開啟osd (開啟後再次接收資料)
[root@ceph-manager ~]# ceph osd unpause
五、 PG 篇
檢視pg組的對映資訊
[root@ceph-manager ~]# ceph pg dump |more
檢視一個PG的map
[root@ceph-manager ~]# ceph pg map 0.3f
檢視PG狀態
[root@ceph-manager ~]# ceph pg stat
查詢一個pg的詳細資訊
[root@ceph-manager ~]# ceph pg 0.39 query
檢視pg中stuck的狀態 (如有非正常pg會顯示)
[root@ceph-manager ~]# ceph pg dump_stuck unclean
[root@ceph-manager ~]# ceph pg dump_stuck inactive
[root@ceph-manager ~]# ceph pg dump_stuck stale
顯示一個叢集中的所有的pg統計
[root@ceph-manager ~]# ceph pg dump --format plain|more
恢復一個丟失的pg (og-id 為丟失的pg, 使用ceph pg dump_stuck inactive|unclean|stale 查詢)
[root@ceph-manager ~]# ceph pg {pg-id} mark_unfound_lost revert
六、pool 篇
檢視ceph叢集中的pool數量
[root@ceph-manager ~]# ceph osd lspools
檢視 PG組 號碼:
[root@ceph-manager ~]# ceph osd pool get rbd pg_num
在ceph叢集中建立一個pool
[root@ceph-manager ~]# ceph osd pool create test 100 (名稱為 test, 100為PG組號碼)
為一個ceph pool配置配額
[root@ceph-manager ~]# ceph osd pool set-quota test max_objects 10000
顯示所有的pool
[root@ceph-manager ~]# ceph osd pool ls
在叢集中刪除一個pool
[root@ceph-manager ~]# ceph osd pool delete test test --yes-i-really-really-mean-it
顯示叢集中pool的詳細資訊
[root@ceph-manager ~]# rados df
給一個pool建立一個快照
[root@ceph-manager ~]# ceph osd pool mksnap test test-snap
刪除pool的快照
[root@ceph-manager ~]# ceph osd pool rmsnap test test-snap
檢視data池的pg數量
[root@ceph-manager ~]# ceph osd pool get test pg_num
設定data池的最大儲存空間(預設是1T, 1T = 1000000000000, 如下為100T)
[root@ceph-manager ~]# ceph osd pool set test target_max_bytes 100000000000000
設定data池的副本數
[root@ceph-manager ~]# ceph osd pool set test size 3
設定data池能接受寫操作的最小副本為2
[root@ceph-manager ~]# ceph osd pool set test min_size 2
檢視叢集中所有pool的副本尺寸
[root@ceph-manager ~]# ceph osd dump | grep 'replicated size'
設定一個pool的pg數量
[root@ceph-manager ~]# ceph osd pool set test pg_num 100
設定一個pool的pgp數量
[root@ceph-manager ~]# ceph osd pool set test pgp_num 100
檢視ceph pool中的ceph object (volumes 為pool名稱)(這裡的object是以塊形式儲存的)
[root@ceph-manager ~]# rados ls -p volumes | more
建立一個物件object
[root@ceph-manager ~]# rados create test-object -p test
檢視object
[root@ceph-manager ~]# rados -p test ls
刪除一個物件
[root@ceph-manager ~]# rados rm test-object -p test
檢視ceph中一個pool裡的所有映象 (volumes 為pool名稱)
[root@ceph-manager ~]# rbd ls volumes
在test池中建立一個命名為images的1000M的映象
[root@ceph-manager ~]# rbd create -p test --size 1000 images
檢視剛建立的映象資訊
[root@ceph-manager ~]# rbd -p test info images
刪除一個映象
[root@ceph-manager ~]# rbd rm -p test images
調整一個映象的尺寸
[root@ceph-manager ~]# rbd resize -p test --size 2000 images
給映象建立一個快照 (池/映象名@快照名)
[root@ceph-manager ~]# rbd snap create test/images@images1
刪除一個映象檔案的一個快照
[root@ceph-manager ~]# rbd snap rm 快照池/快照映象檔案@具體快照
如果刪除快照提示保護,需要先刪除保護
[root@ceph-manager ~]# rbd snap unprotect 快照池/快照映象檔案@具體快照
刪除一個映象檔案的所有快照
[root@ceph-manager ~]# rbd snap purge -p 快照池/快照映象檔案
把ceph pool中的一個映象匯出
[root@ceph-manager ~]# rbd export -p images --image <具體映象id> /tmp/images.img