在某些生產環境下,我們僅需要一個原生的 K8s 叢集,無需部署 KubeSphere 這樣的圖形化管理控制檯。在我們已有的技術棧裡,已經習慣了利用 KubeKey 部署 KubeSphere 和 K8s 叢集。今天,我將為大家實戰演示如何在 openEuler 22.03 LTS SP3 上,利用 KubeKey 部署一套純粹的 K8s 叢集。
實戰伺服器配置 (架構 1:1 復刻小規模生產環境,配置略有不同)
主機名 | IP | CPU | 記憶體 | 系統盤 | 資料盤 | 用途 |
---|---|---|---|---|---|---|
ksp-master-1 | 192.168.9.131 | 8 | 16 | 40 | 100 | k8s-master |
ksp-master-2 | 192.168.9.132 | 8 | 16 | 40 | 100 | k8s-master |
ksp-master-3 | 192.168.9.133 | 8 | 16 | 40 | 100 | k8s-master |
合計 | 3 | 24 | 48 | 120 | 300 |
實戰環境涉及軟體版本資訊
-
作業系統:openEuler 22.03 LTS SP3 x64
-
K8s:v1.28.8
-
Containerd:1.7.13
-
KubeKey: v3.1.1
1. 作業系統基礎配置
請注意,以下操作無特殊說明時需在所有伺服器上執行。本文只選取 Master-1 節點作為演示,並假定其餘伺服器都已按照相同的方式進行配置和設定。
1.1 配置主機名
hostnamectl hostname ksp-master-1
1.2 配置 DNS
echo "nameserver 114.114.114.114" > /etc/resolv.conf
1.3 配置伺服器時區
- 配置伺服器時區為 Asia/Shanghai。
timedatectl set-timezone Asia/Shanghai
1.4 配置時間同步
- 安裝 chrony 作為時間同步軟體
yum install chrony
- 編輯配置檔案
/etc/chrony.conf
,修改 ntp 伺服器配置
vi /etc/chrony.conf
# 刪除所有的 pool 配置
pool pool.ntp.org iburst
# 增加國內的 ntp 伺服器,或是指定其他常用的時間伺服器
pool cn.pool.ntp.org iburst
# 上面的手工操作,也可以使用 sed 自動替換
sed -i 's/^pool pool.*/pool cn.pool.ntp.org iburst/g' /etc/chrony.conf
- 重啟並設定 chrony 服務開機自啟動
systemctl enable chronyd --now
- 驗證 chrony 同步狀態
# 執行檢視命令
chronyc sourcestats -v
# 正常的輸出結果如下
[root@ksp-master-1 ~]# chronyc sourcestats -v
.- Number of sample points in measurement set.
/ .- Number of residual runs with same sign.
| / .- Length of measurement set (time).
| | / .- Est. clock freq error (ppm).
| | | / .- Est. error in freq.
| | | | / .- Est. offset.
| | | | | | On the -.
| | | | | | samples. \
| | | | | | |
Name/IP Address NP NR Span Frequency Freq Skew Offset Std Dev
==============================================================================
111.230.189.174 18 11 977 -0.693 6.795 -1201us 2207us
electrode.felixc.at 18 10 917 +2.884 8.258 -31ms 2532us
tick.ntp.infomaniak.ch 14 7 720 +2.538 23.906 +6176us 4711us
time.cloudflare.com 18 7 913 +0.633 9.026 -2543us 3142us
1.5 關閉系統防火牆
systemctl stop firewalld && systemctl disable firewalld
1.6 禁用 SELinux
openEuler 22.03 SP3 最小化安裝的系統預設啟用了 SELinux,為了減少麻煩,我們所有的節點都禁用 SELinux。
# 使用 sed 修改配置檔案,實現徹底的禁用
sed -i 's/^SELINUX=enforcing/SELINUX=disabled/' /etc/selinux/config
# 使用命令,實現臨時禁用,這一步其實不做也行,KubeKey 會自動配置
setenforce 0
1.7 安裝系統依賴
在所有節點,執行下面的命令為 Kubernetes 安裝系統基本依賴包。
# 安裝 Kubernetes 系統依賴包
yum install curl socat conntrack ebtables ipset ipvsadm
# 安裝 tar 包,不裝的話後面會報錯。openEuler 也是個奇葩,迭代這麼多版本了,預設居然還不安裝 tar
yum install tar
2. 作業系統磁碟配置
伺服器新增一塊資料盤 /dev/sdb,用於 Containerd 和 K8s Pod 的持久化儲存。
為了滿足部分使用者希望在生產上線後,磁碟容量不足時可以實現動態擴容。本文采用了 LVM 的方式配置磁碟(實際上,本人維護的生產環境,幾乎不用 LVM)。
請注意,以下操作無特殊說明時需在叢集所有節點上執行。本文只選取 Master-1 節點作為演示,並假定其餘伺服器都已按照相同的方式進行配置和設定。
2.1 使用 LVM 配置磁碟
- 建立 PV
pvcreate /dev/sdb
- 建立 VG
vgcreate data /dev/sdb
- 建立 LV
# 使用所有空間,VG 名字為 data,LV 名字為 lvdata
lvcreate -l 100%VG data -n lvdata
2.2 格式化磁碟
mkfs.xfs /dev/mapper/data-lvdata
2.3 磁碟掛載
- 手工掛載
mkdir /data
mount /dev/mapper/data-lvdata /data/
- 開機自動掛載
tail -1 /etc/mtab >> /etc/fstab
2.4 建立資料目錄
- 建立 OpenEBS 本地資料根目錄
mkdir -p /data/openebs/local
- 建立 Containerd 資料目錄
mkdir -p /data/containerd
- 建立 Containerd 資料目錄軟連線
ln -s /data/containerd /var/lib/containerd
說明: KubeKey 到 v3.1.1 版為止,一直不支援在部署的時候更改 Containerd 的資料目錄,只能用這種目錄軟連結到變通方式來增加儲存空間(也可以提前手工安裝 Containerd)。
3. 安裝部署 K8s
3.1 下載 KubeKey
本文將 master-1 節點作為部署節點,把 KubeKey 最新版 (v3.1.1) 二進位制檔案下載到該伺服器。具體 KubeKey 版本號可以在KubeKey release 頁面檢視。
- 下載最新版的 KubeKey
mkdir ~/kubekey
cd ~/kubekey/
# 選擇中文區下載(訪問 GitHub 受限時使用)
export KKZONE=cn
curl -sfL https://get-kk.kubesphere.io | sh -
- 正確的執行結果如下
[root@ksp-master-1 ~]# mkdir ~/kubekey
[root@ksp-master-1 ~]# cd ~/kubekey/
[root@ksp-master-1 kubekey]# export KKZONE=cn
[root@ksp-master-1 kubekey]# curl -sfL https://get-kk.kubesphere.io | sh -
Downloading kubekey v3.1.1 from https://kubernetes.pek3b.qingstor.com/kubekey/releases/download/v3.1.1/kubekey-v3.1.1-linux-amd64.tar.gz ...
Kubekey v3.1.1 Download Complete!
[root@ksp-master-1 kubekey]# ll -h
total 114M
-rwxr-xr-x. 1 root root 79M Apr 16 12:30 kk
-rw-r--r--. 1 root root 36M Apr 25 09:37 kubekey-v3.1.1-linux-amd64.tar.gz
- 檢視 KubeKey 支援的 Kubernetes 版本列表
./kk version --show-supported-k8s
[root@ksp-master-1 kubekey]# ./kk version --show-supported-k8s
v1.19.0
......(受限於篇幅,中間的不展示,請讀者根據需求檢視)
v1.28.0
v1.28.1
v1.28.2
v1.28.3
v1.28.4
v1.28.5
v1.28.6
v1.28.7
v1.28.8
v1.29.0
v1.29.1
v1.29.2
v1.29.3
說明: 輸出結果為 KubeKey 支援的結果,但不代表 KubeSphere 和其他 K8s 也能完美支援。本文僅用 KubeKey 部署 K8s,所以不用特別考慮版本的相容性。
KubeKey 支援的 K8s 版本還是比較新的。本文選擇 v1.28.8,生產環境可以選擇 v1.26.15 或是其他次要版本是雙數,補丁版本數超過 5 的版本。不建議選擇太老的版本了,畢竟 v1.30 都已經發布了。
3.2 建立 K8s 叢集部署配置檔案
- 建立叢集配置檔案
本文選擇了 K8s v1.28.8。因此,指定配置檔名稱為 k8s-v1288.yaml,如果不指定,預設的檔名為 config-sample.yaml。
./kk create config -f k8s-v1288.yaml --with-kubernetes v1.28.8
注意: 生成的預設配置檔案內容較多,這裡就不做過多展示了,更多詳細的配置引數請參考 官方配置示例。
- 修改配置檔案
本文示例採用 3 個節點同時作為 control-plane、etcd 和 worker 節點。
編輯配置檔案 k8s-v1288.yaml
,主要修改 kind: Cluster 小節的相關配置
修改 kind: Cluster 小節中 hosts 和 roleGroups 等資訊,修改說明如下。
- hosts:指定節點的 IP、ssh 使用者、ssh 密碼、ssh 埠
- roleGroups:指定 3 個 etcd、control-plane 節點,複用相同的機器作為 3 個 worker 節點
- internalLoadbalancer: 啟用內建的 HAProxy 負載均衡器
- domain:自定義域名 lb.opsxlab.cn,沒特殊需求可使用預設值 lb.kubesphere.local
- clusterName:自定義 opsxlab.cn,沒特殊需求可使用預設值 cluster.local
- autoRenewCerts:該引數可以實現證書到期自動續期,預設為 true
- containerManager:使用 containerd
修改後的完整示例如下:
apiVersion: kubekey.kubesphere.io/v1alpha2
kind: Cluster
metadata:
name: sample
spec:
hosts:
- {name: ksp-master-1, address: 192.168.9.131, internalAddress: 192.168.9.131, user: root, password: "OpsXlab@2024"}
- {name: ksp-master-2, address: 192.168.9.132, internalAddress: 192.168.9.132, user: root, password: "OpsXlab@2024"}
- {name: ksp-master-3, address: 192.168.9.133, internalAddress: 192.168.9.133, user: root, password: "OpsXlab@2024"}
roleGroups:
etcd:
- ksp-master-1
- ksp-master-2
- ksp-master-3
control-plane:
- ksp-master-1
- ksp-master-2
- ksp-master-3
worker:
- ksp-master-1
- ksp-master-2
- ksp-master-3
controlPlaneEndpoint:
## Internal loadbalancer for apiservers
internalLoadbalancer: haproxy
domain: lb.opsxlab.cn
address: ""
port: 6443
kubernetes:
version: v1.28.8
clusterName: opsxlab.cn
autoRenewCerts: true
containerManager: containerd
etcd:
type: kubekey
network:
plugin: calico
kubePodsCIDR: 10.233.64.0/18
kubeServiceCIDR: 10.233.0.0/18
## multus support. https://github.com/k8snetworkplumbingwg/multus-cni
multusCNI:
enabled: false
registry:
privateRegistry: ""
namespaceOverride: ""
registryMirrors: []
insecureRegistries: []
addons: []
3.3 部署 K8s
接下來我們執行下面的命令,使用上面生成的配置檔案部署 K8s。
export KKZONE=cn
./kk create cluster -f k8s-v1288.yaml
上面的命令執行後,首先 KubeKey 會檢查部署 K8s 的依賴及其他詳細要求。透過檢查後,系統將提示您確認安裝。輸入 yes 並按 ENTER 繼續部署。
[root@ksp-master-1 kubekey]# ./kk create cluster -f k8s-v1288.yaml
_ __ _ _ __
| | / / | | | | / /
| |/ / _ _| |__ ___| |/ / ___ _ _
| \| | | | '_ \ / _ \ \ / _ \ | | |
| |\ \ |_| | |_) | __/ |\ \ __/ |_| |
\_| \_/\__,_|_.__/ \___\_| \_/\___|\__, |
__/ |
|___/
10:45:28 CST [GreetingsModule] Greetings
10:45:28 CST message: [ksp-master-3]
Greetings, KubeKey!
10:45:28 CST message: [ksp-master-1]
Greetings, KubeKey!
10:45:28 CST message: [ksp-master-2]
Greetings, KubeKey!
10:45:28 CST success: [ksp-master-3]
10:45:28 CST success: [ksp-master-1]
10:45:28 CST success: [ksp-master-2]
10:45:28 CST [NodePreCheckModule] A pre-check on nodes
10:45:31 CST success: [ksp-master-3]
10:45:31 CST success: [ksp-master-1]
10:45:31 CST success: [ksp-master-2]
10:45:31 CST [ConfirmModule] Display confirmation form
+--------------+------+------+---------+----------+-------+-------+---------+-----------+--------+--------+------------+------------+-------------+------------------+--------------+
| name | sudo | curl | openssl | ebtables | socat | ipset | ipvsadm | conntrack | chrony | docker | containerd | nfs client | ceph client | glusterfs client | time |
+--------------+------+------+---------+----------+-------+-------+---------+-----------+--------+--------+------------+------------+-------------+------------------+--------------+
| ksp-master-1 | y | y | y | y | y | y | y | y | y | | | | | | CST 10:45:31 |
| ksp-master-2 | y | y | y | y | y | y | y | y | y | | | | | | CST 10:45:31 |
| ksp-master-3 | y | y | y | y | y | y | y | y | y | | | | | | CST 10:45:31 |
+--------------+------+------+---------+----------+-------+-------+---------+-----------+--------+--------+------------+------------+-------------+------------------+--------------+
This is a simple check of your environment.
Before installation, ensure that your machines meet all requirements specified at
https://github.com/kubesphere/kubekey#requirements-and-recommendations
Continue this installation? [yes/no]:
注意:
- nfs client、ceph client、glusterfs client 3 個與儲存有關的 client 顯示沒有安裝,這個我們後期會在對接儲存的實戰中單獨安裝。
- docker、containerd 會根據配置檔案選擇的 containerManager 型別自動安裝。
部署完成需要大約 10-20 分鐘左右,具體看網速和機器配置,本次部署完成耗時 20 分鐘。
部署完成後,您應該會在終端上看到類似於下面的輸出。
10:59:25 CST [ConfigureKubernetesModule] Configure kubernetes
10:59:25 CST success: [ksp-master-1]
10:59:25 CST skipped: [ksp-master-2]
10:59:25 CST skipped: [ksp-master-3]
10:59:25 CST [ChownModule] Chown user $HOME/.kube dir
10:59:26 CST success: [ksp-master-3]
10:59:26 CST success: [ksp-master-2]
10:59:26 CST success: [ksp-master-1]
10:59:26 CST [AutoRenewCertsModule] Generate k8s certs renew script
10:59:27 CST success: [ksp-master-2]
10:59:27 CST success: [ksp-master-3]
10:59:27 CST success: [ksp-master-1]
10:59:27 CST [AutoRenewCertsModule] Generate k8s certs renew service
10:59:28 CST success: [ksp-master-3]
10:59:28 CST success: [ksp-master-2]
10:59:28 CST success: [ksp-master-1]
10:59:28 CST [AutoRenewCertsModule] Generate k8s certs renew timer
10:59:29 CST success: [ksp-master-2]
10:59:29 CST success: [ksp-master-3]
10:59:29 CST success: [ksp-master-1]
10:59:29 CST [AutoRenewCertsModule] Enable k8s certs renew service
10:59:29 CST success: [ksp-master-3]
10:59:29 CST success: [ksp-master-2]
10:59:29 CST success: [ksp-master-1]
10:59:29 CST [SaveKubeConfigModule] Save kube config as a configmap
10:59:29 CST success: [LocalHost]
10:59:29 CST [AddonsModule] Install addons
10:59:29 CST success: [LocalHost]
10:59:29 CST Pipeline[CreateClusterPipeline] execute successfully
Installation is complete.
Please check the result using the command:
kubectl get pod -A
4. 驗證 K8s 叢集
4.1 kubectl 命令列驗證叢集狀態
本小節只是簡單的看了一下基本狀態,並不全面,更多的細節大家自己體驗探索吧。
- 檢視叢集節點資訊
在 master-1 節點執行 kubectl 命令獲取 K8s 叢集上的可用節點列表。
kubectl get nodes -o wide
在輸出結果中可以看到,當前的 K8s 叢集有三個可用節點、節點的內部 IP、節點角色、節點的 K8s 版本號、容器執行時及版本號、作業系統型別及核心版本等資訊。
[root@ksp-master-1 kubekey]# kubectl get nodes -o wide
NAME STATUS ROLES AGE VERSION INTERNAL-IP EXTERNAL-IP OS-IMAGE KERNEL-VERSION CONTAINER-RUNTIME
ksp-master-1 Ready control-plane,worker 9m43s v1.28.8 192.168.9.131 <none> openEuler 22.03 (LTS-SP3) 5.10.0-182.0.0.95.oe2203sp3.x86_64 containerd://1.7.13
ksp-master-2 Ready control-plane,worker 8m8s v1.28.8 192.168.9.132 <none> openEuler 22.03 (LTS-SP3) 5.10.0-182.0.0.95.oe2203sp3.x86_64 containerd://1.7.13
ksp-master-3 Ready control-plane,worker 8m9s v1.28.8 192.168.9.133 <none> openEuler 22.03 (LTS-SP3) 5.10.0-182.0.0.95.oe2203sp3.x86_64 containerd://1.7.13
- 檢視 Pod 列表
輸入以下命令獲取在 K8s 叢集上執行的 Pod 列表。
kubectl get pods -o wide -A
在輸出結果中可以看到, 所有 pod 都在執行。
[root@ksp-master-1 kubekey]# kubectl get pod -A -o wide
NAMESPACE NAME READY STATUS RESTARTS AGE IP NODE
kube-system calico-kube-controllers-64f6cb8db5-fsgnq 1/1 Running 0 4m59s 10.233.84.2 ksp-master-1
kube-system calico-node-5hkm4 1/1 Running 0 4m59s 192.168.9.133 ksp-master-3
kube-system calico-node-wqz9s 1/1 Running 0 4m59s 192.168.9.132 ksp-master-2
kube-system calico-node-zzr5n 1/1 Running 0 4m59s 192.168.9.131 ksp-master-1
kube-system coredns-76dd97cd74-66k8z 1/1 Running 0 6m22s 10.233.84.1 ksp-master-1
kube-system coredns-76dd97cd74-94kvl 1/1 Running 0 6m22s 10.233.84.3 ksp-master-1
kube-system kube-apiserver-ksp-master-1 1/1 Running 0 6m39s 192.168.9.131 ksp-master-1
kube-system kube-apiserver-ksp-master-2 1/1 Running 0 4m52s 192.168.9.132 ksp-master-2
kube-system kube-apiserver-ksp-master-3 1/1 Running 0 5m9s 192.168.9.133 ksp-master-3
kube-system kube-controller-manager-ksp-master-1 1/1 Running 0 6m39s 192.168.9.131 ksp-master-1
kube-system kube-controller-manager-ksp-master-2 1/1 Running 0 4m58s 192.168.9.132 ksp-master-2
kube-system kube-controller-manager-ksp-master-3 1/1 Running 0 5m5s 192.168.9.133 ksp-master-3
kube-system kube-proxy-2xpq4 1/1 Running 0 5m3s 192.168.9.131 ksp-master-1
kube-system kube-proxy-9frmd 1/1 Running 0 5m3s 192.168.9.133 ksp-master-3
kube-system kube-proxy-bhg2k 1/1 Running 0 5m3s 192.168.9.132 ksp-master-2
kube-system kube-scheduler-ksp-master-1 1/1 Running 0 6m39s 192.168.9.131 ksp-master-1
kube-system kube-scheduler-ksp-master-2 1/1 Running 0 4m59s 192.168.9.132 ksp-master-2
kube-system kube-scheduler-ksp-master-3 1/1 Running 0 5m5s 192.168.9.133 ksp-master-3
kube-system nodelocaldns-gl6dc 1/1 Running 0 6m22s 192.168.9.131 ksp-master-1
kube-system nodelocaldns-q45jf 1/1 Running 0 5m9s 192.168.9.133 ksp-master-3
kube-system nodelocaldns-rskk5 1/1 Running 0 5m8s 192.168.9.132 ksp-master-2
- 檢視 Image 列表
輸入以下命令獲取在 K8s 叢集節點上已經下載的 Image 列表。
[root@ksp-master-1 kubekey]# crictl images ls
IMAGE TAG IMAGE ID SIZE
registry.cn-beijing.aliyuncs.com/kubesphereio/cni v3.27.3 6527a35581401 88.4MB
registry.cn-beijing.aliyuncs.com/kubesphereio/coredns 1.9.3 5185b96f0becf 14.8MB
registry.cn-beijing.aliyuncs.com/kubesphereio/k8s-dns-node-cache 1.22.20 ff71cd4ea5ae5 30.5MB
registry.cn-beijing.aliyuncs.com/kubesphereio/kube-apiserver v1.28.8 e70a71eaa5605 34.7MB
registry.cn-beijing.aliyuncs.com/kubesphereio/kube-controller-manager v1.28.8 e5ae3e4dc6566 33.5MB
registry.cn-beijing.aliyuncs.com/kubesphereio/kube-controllers v3.27.3 3e4fd05c0c1c0 33.4MB
registry.cn-beijing.aliyuncs.com/kubesphereio/kube-proxy v1.28.8 5ce97277076c6 28.1MB
registry.cn-beijing.aliyuncs.com/kubesphereio/kube-scheduler v1.28.8 ad3260645145d 18.7MB
registry.cn-beijing.aliyuncs.com/kubesphereio/node v3.27.3 5c6ffd2b2a1d0 116MB
registry.cn-beijing.aliyuncs.com/kubesphereio/pause 3.9 e6f1816883972 321kB
至此,我們已經完成了部署 3 臺 Master 節點 和 Worker 節點複用的最小化 K8s 叢集。
接下來我們將在 K8s 叢集上部署一個簡單的 Nginx Web 伺服器,測試驗證 K8s 叢集是否正常。
5. 部署測試資源
本示例使用命令列工具在 K8s 叢集上部署一個 Nginx Web 伺服器。
5.1 建立 Nginx Deployment
執行以下命令建立一個部署 Nginx Web 伺服器的 Deployment。此示例中,我們將建立具有兩個副本基於 nginx:alpine 映象的 Pod。
kubectl create deployment nginx --image=nginx:alpine --replicas=2
5.2 建立 Nginx Service
建立一個新的 K8s 服務,服務名稱 nginx,服務型別 Nodeport,對外的服務埠 80。
kubectl create service nodeport nginx --tcp=80:80
5.3 驗證 Nginx Deployment 和 Pod
- 執行以下命令檢視建立的 Deployment 和 Pod 資源。
kubectl get deployment -o wide
kubectl get pods -o wide
- 檢視結果如下:
[root@ksp-master-1 kubekey]# kubectl get deployment -o wide
NAME READY UP-TO-DATE AVAILABLE AGE CONTAINERS IMAGES SELECTOR
nginx 2/2 2 2 20s nginx nginx:alpine app=nginx
[root@ksp-master-1 kubekey]# kubectl get pods -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
nginx-6c557cc74d-tbw9c 1/1 Running 0 23s 10.233.102.187 ksp-master-2 <none> <none>
nginx-6c557cc74d-xzzss 1/1 Running 0 23s 10.233.103.148 ksp-master-1 <none> <none>
5.4 驗證 Nginx Service
執行以下命令檢視可用的服務列表,在列表中我們可以看到 nginx 服務型別 為 Nodeport,並在 Kubernetes 主機上開放了 30619 埠。
kubectl get svc -o wide
檢視結果如下:
[root@ksp-master-1 kubekey]# kubectl get svc -o wide
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE SELECTOR
kubernetes ClusterIP 10.233.0.1 <none> 443/TCP 4d22h <none>
nginx NodePort 10.233.14.48 <none> 80:30619/TCP 5s app=nginx
5.5 驗證服務
執行以下命令訪問部署的 Nginx 服務,驗證服務是否成功部署。
- 驗證直接訪問 Pod
curl 10.233.102.187
# 訪問結果如下
[root@ks-master-1 ~]# curl 10.233.102.187
<!DOCTYPE html>
<html>
<head>
<title>Welcome to nginx!</title>
<style>
html { color-scheme: light dark; }
body { width: 35em; margin: 0 auto;
font-family: Tahoma, Verdana, Arial, sans-serif; }
</style>
</head>
<body>
<h1>Welcome to nginx!</h1>
<p>If you see this page, the nginx web server is successfully installed and
working. Further configuration is required.</p>
<p>For online documentation and support please refer to
<a href="http://nginx.org/">nginx.org</a>.<br/>
Commercial support is available at
<a href="http://nginx.com/">nginx.com</a>.</p>
<p><em>Thank you for using nginx.</em></p>
</body>
</html>
- 驗證訪問 Service
curl 10.233.14.48
# 訪問結果同上,略
- 驗證訪問 Nodeport
curl 192.168.9.131:30619
# 訪問結果同上,略
6. 自動化 Shell 指令碼
文章中所有操作步驟,已全部編排為自動化指令碼,因篇幅限制,不在此文件中展示。
7. 總結
本文分享了在 openEuler 22.03 LTS SP3 作業系統上,如何利用 KubeSphere 開發的工具 KubeKey,部署 K8s v1.28.8 叢集的詳細流程及注意事項。
主要內容概括如下:
- openEuler 22.03 LTS SP3 作業系統基礎配置
- openEuler 22.03 LTS SP3 作業系統上 LVM 磁碟的建立配置
- 使用 KubeKey 部署 K8s 高可用叢集
- K8s 叢集部署完成後的驗證測試
免責宣告:
- 筆者水平有限,儘管經過多次驗證和檢查,盡力確保內容的準確性,但仍可能存在疏漏之處。敬請業界專家大佬不吝指教。
- 本文所述內容僅透過實戰環境驗證測試,讀者可學習、借鑑,但嚴禁直接用於生產環境。由此引發的任何問題,作者概不負責!
本文由部落格一文多發平臺 OpenWrite 釋出!