配置Kubernetes共享使用Ceph儲存
簡要概述
環境測試
結果驗證
簡要概述
Kubernetes pod 結合Ceph rbd塊裝置的使用,讓Docker 資料儲存在Ceph,重啟Docker或k8s RC重新排程pod 不會引起資料來回遷移。
工作原理無非就是拿到ceph叢集的key作為認證,遠端rbdmap對映掛載使用。那麼就要啟用一個基於key的secret資源,之後k8s pod指定要用的rbd就可以了。
我的OS是ubuntu 14.04,一個master,兩個minon 節點,一個映象倉庫服務,這樣保證了k8s叢集跑起來,這個過程就略過了。
1.核心升級
這裡的ceph 版本裝的是10.2.2,客戶端核心過低會引起掛載失敗,主要就是minion節點。
# curl -sSL https://get.docker.com | sh && service docker restart # apt-get install linux-image-4.4.0-22-generic && reboot
2.安裝ceph-common,讓minion呼叫rbd
root@minion2:~# apt-get install python-rbd ceph-common
3.儲存ceph-keyring和配置檔案
root@minion2:~# ll /etc/ceph total 20 drwxr-xr-x 2 root root 4096 Jun 22 2016 ./ drwxr-xr-x 93 root root 4096 Nov 11 11:18 ../ -rw------- 1 root root 63 Apr 25 2016 ceph.client.admin.keyring -rw-r--r-- 1 root root 249 Jun 22 2016 ceph.conf -rw-r--r-- 1 root root 92 Jun 14 2016 rbdmap
4.獲取ceph keyring 的base64編碼字串
root@minion2:~# ceph auth get-key client.admin AQAmnRlX2zrqDRAAOiuOs2sIItGhAP6tNDa3Vg==root@minion2:~# root@minion2:~# grep key /etc/ceph/ceph.client.admin.keyring |awk '{printf "%s", $NF}' AQAmnRlX2zrqDRAAOiuOs2sIItGhAP6tNDa3Vg== root@minion2:~# grep key /etc/ceph/ceph.client.admin.keyring |awk '{printf "%s", $NF}'|base64 QVFBbW5SbFgyenJxRFJBQU9pdU9zMnNJSXRHaEFQNnRORGEzVmc9PQ==
5.建立基於keyring 的secret資源
root@master:~# cat ceph-secret.yaml apiVersion: v1 kind: Secret metadata: name: ceph-secret data: key: QVFBbW5SbFgyenJxRFJBQU9pdU9zMnNJSXRHaEFQNnRORGEzVmc9PQo= root@master:~# kubectl create -f ceph-secret.yaml root@master:~# kubectl get secret NAME TYPE DATA AGE ceph-secret Opaque 1 187d default-token-rk17v kubernetes.io/service-account-token 3 208d
6.編輯一個可用的ReplicationController 讓rbdpod跑起來
# kubectl create -f rbd-rc.yaml
這樣的我們在pod就跑起來了,可以看到mount掛載資訊,也可以進入容器檢視
root@minion2:~# docker ps | grep rbd 4b8fc04501b1 nginx "nginx -g 'daemon off" 6 months ago Up 6 months k8s_rbdpod.b1ab9160_rbpod-k3yxn_default_88540575-3847-11e6-a098-0a6a7c3a684c_f8caa4bc3c9c1240b72e gcr.io/google_containers/pause:2.0 "/pause" 6 months ago Up 6 months k8s_POD.25c801ab_rbdpod-k3yxn_default_88540575-3847-11e6-a098-0a6a7c3a684c_c38f4ce7 root@minion2:~# mount | grep rbd /dev/rbd0 on /var/lib/kubelet/plugins/kubernetes.io/rbd/rbd/data-image-wxq type ext4 (rw) /var/lib/kubelet/plugins/kubernetes.io/rbd/rbd/data-image-wxq on /var/lib/kubelet/pods/88540575-3847-11e6-a098-0a6a7c3a684c/volumes/kubernetes.io~rbd/rbdpd type none (rw)
這樣k8s完美的結合了Ceph 塊裝置,它們又能愉悅的在一起玩耍了,至於有沒有真感情且看未來。
來自 “ ITPUB部落格 ” ,連結:http://blog.itpub.net/31559985/viewspace-2642460/,如需轉載,請註明出處,否則將追究法律責任。
相關文章
- kubernetes配置後端儲存 rook-ceph後端
- 分散式儲存ceph 物件儲存配置zone同步分散式物件
- Kubernetes 使用 ceph-csi 消費 RBD 作為持久化儲存持久化
- Ceph儲存池管理
- 探索 Kubernetes 持久化儲存之 Rook Ceph 初窺門徑持久化
- Kubernetes中分散式儲存Rook-Ceph部署快速演練分散式
- RHEL6 或CentOS 6配置共享儲存--使用iSCSICentOS
- kubernets1.13.1叢集使用ceph rbd塊儲存
- CEPH-4:ceph RadowGW物件儲存功能詳解物件
- Kubernetes中分散式儲存Rook-Ceph的使用:一個ASP.NET Core MVC的案例分散式ASP.NETMVC
- centos7配置nfs共享儲存服務CentOSNFS
- kubernetes 儲存流程
- ceph儲存的monitor選舉流程
- Centos7下使用Ceph-deploy快速部署Ceph分散式儲存-操作記錄CentOS分散式
- CEPH分散式儲存搭建(物件、塊、檔案三大儲存)分散式物件
- 【BUILD_ORACLE】Oracle 19c RAC搭建(三)使用UDEV配置共享儲存UIOracledev
- Ceph分散式儲存技術解讀分散式
- DM8使用共享儲存DMASM搭建DMRACASM
- k8s使用ceph實現動態持久化儲存K8S持久化
- 基於Ceph物件儲存構建實踐物件
- Oracle 共享儲存掛載Oracle
- NFS共享儲存服務NFS
- Spark in action on Kubernetes - 儲存篇Spark
- Kubernetes-儲存卷Volume
- Kubernetes中的儲存(六)
- 分散式儲存Ceph之PG狀態詳解分散式
- vmware設定共享儲存(RAC)
- Esxi 6.7基於已有資料儲存配置虛擬機器(Linux類)間共享儲存(非RDM)虛擬機Linux
- [譯]在CUDA C/C++中使用共享儲存器C++
- kubernetes系列(十三) - 儲存之Volume
- kubernetes系列(十二) - 儲存之Secret
- kubernetes系列(十四) - 儲存之PersistentVolume
- Spark in action on Kubernetes - 儲存篇(一)Spark
- (三)Kubernetes---持久化儲存持久化
- 自建Kubernetes叢集如何使用阿里雲CSI儲存元件阿里元件
- 【北亞企安資料恢復】Ceph儲存原理&Ceph資料恢復流程資料恢復
- 使用OpenFiler來模擬儲存配置RAC中ASM共享盤及多路徑(multipath)的測試ASM
- 大資料儲存系統對比:Ceph VS Gluster大資料