007.OpenShift管理應用部署

木二發表於2020-06-21

一 REPLICATION CONTROLLERS

1.1 RC概述

RC確保pod指定數量的副本一直執行。如果pod被殺死或被管理員顯式刪除,複製控制器將自動部署相應的pod。類似地,如果執行的pod數量超過所需的數量,它會根據需要刪除pod,以匹配指定的副本計數。
RC的定義主要包括:
  • 所需的副本數量
  • 用於建立複製pod的pod定義
  • 用於標識後續管理操作的selector
selector是一組label,RC管理的所有pod都必須匹配這些標籤。RC例項化的pod定義中必須包含相同的標籤集。RC使用這個selector來確定已經執行了多少pod例項,以便根據需要進行調整。
提示:不執行自動縮放,因為它不跟蹤負載或流量。
儘管Kubernetes通常直接管理RC,但OpenShift推薦的方法是管理根據需要建立或更改RC的DC。

1.2 從DC建立RC

在OpenShift中建立應用程式的最常見方法是使用oc new-app命令或web控制檯。以這種方式建立的應用程式使用DeploymentConfig資源在執行時建立RC來建立應用程式pod。DeploymentConfig資源定義定義了要建立的pod的副本的數量,以及要建立的pod的模板。
注意:不要將DeploymentConfig或ReplicationController資源中的template屬性誤認為OpenShift模板資源型別,OpenShift模板資源用於基於一些常用的語言執行時和框架構建應用程式。

1.3 pod副本數控制

DeploymentConfig或ReplicationController資源中的副本數量可以使用oc scale命令動態更改。
$ oc get dc
NAME REVISION DESIRED CURRENT TRIGGERED BY
myapp 1 3 3 config,image(scaling:latest)
$ oc scale --replicas=5 dc myapp
DeploymentConfig資源將更改資訊傳遞至ReplicationController,該控制器通過建立新的pod(副本)或刪除現有的pod來響應更改。
雖然可以直接操作ReplicationController資源,但推薦的做法是操作DeploymentConfig資源。在觸發部署時,直接對ReplicationController資源所做的更改可能會丟失,例如,使用容器image的新版本重新建立pod。

1.4 自動伸縮pod

OpenShift可以通過HorizontalPodAutoscaler資源型別根據應用程式pod上的當前負載自動調整部署配置。
HorizontalPodAutoscaler (HPA)資源使用OpenShift metrics子系統收集的效能指標,即如果沒有度量子系統(模組),更確切地說是Heapster元件,自動縮放是不可能的。
建立HorizontalPodAutoscaler資源的推薦方法是使用oc autoscale命令,例如:
$ oc autoscale dc/myapp --min 1 --max 10 --cpu-percent=80
該命令建立一個HorizontalPodAutoscaler資源,該資源更改myapp部署配置上的副本數量,以將其pod的CPU使用量控制在請求的總CPU使用量的80%以下。
oc autoscale命令使用DC的名稱作為引數(在前面的示例中是myapp)建立一個HorizontalPodAutoscaler資源。
HorizontalPodAutoscaler資源的最大值和最小值用於容納突發負載,並避免過載OpenShift叢集。如果應用程式上的負載變化太快,建議保留一些備用的pod來處理突然出現的使用者請求。相反,過多的pod會耗盡所有叢集容量,並影響共享相同OpenShift叢集的其他應用程式。
要獲取當前專案中關於HorizontalPodAutoscaler資源的資訊,可使用oc get和oc describe命令。例如
$ oc get hpa/frontend
$ oc describe hpa/frontend
注意:HorizontalPodAutoscaler資源只適用於為引用效能指標定義資源請求的pod。
oc new-app命令建立的大多數pod沒有定義任何資源請求。因此,使用OpenShift autoscaler可能需要為應用程式建立定製的YAML或JSON資原始檔,或者向專案新增資源範圍資源。

二 擴充套件程式實驗

2.1 前置準備

準備完整的OpenShift叢集,參考《003.OpenShift網路》2.1。

2.2 建立應用

  1 [student@workstation ~]$ oc login -u developer -p redhat https://master.lab.example.com
  2 [student@workstation ~]$ oc new-project scaling
  3 [student@workstation ~]$ oc new-app -o yaml -i php:7.0 \
  4 http://registry.lab.example.com/scaling > ~/scaling.yml		#將部署的yaml匯出至本地
  5 [student@workstation ~]$ vi ~/scaling.yml
  6 ……
  7   spec:
  8     replicas: 3
  9     selector:
 10       app: scaling
 11       deploymentconfig: scaling				#修改副本數
 12 ……
 13 [student@workstation ~]$ oc create -f ~/scaling.yml	#以修改副本數後的yaml部署應用
 

2.3 監視部署

  1 [student@workstation ~]$ watch -n 3 oc get builds
  2 Every 3.0s: oc get builds                                                                Mon Jul 22 11:12:02 2019
  3 
  4 NAME        TYPE      FROM          STATUS     STARTED              DURATION
  5 scaling-1   Source    Git@0bdae71   Complete   About a minute ago   1m0s
  6 [student@workstation ~]$ oc get pods
  7 NAME              READY     STATUS      RESTARTS   AGE
  8 scaling-1-build   0/1       Completed   0          2m
  9 scaling-1-ft249   1/1       Running     0          1m
 10 scaling-1-gjvkp   1/1       Running     0          1m
 11 scaling-1-mtrxr   1/1       Running     0          1m
 

2.4 暴露服務

  1 [student@workstation ~]$ oc expose service scaling \
  2 --hostname=scaling.apps.lab.example.com
 

2.5 web檢視相關資訊

瀏覽器訪問https://master.lab.example.com,使用developer使用者和redhat密碼登陸。選擇scaling專案。
clipboard
 
clipboard

2.6 測試負載均衡

  1 [student@workstation ~]$ for i in {1..5};do curl -s \http://scaling.apps.lab.example.com | grep IP;done	#多次請求
  2  <br/> Server IP: 10.128.0.17
  3  <br/> Server IP: 10.129.0.35
  4  <br/> Server IP: 10.129.0.36
  5  <br/> Server IP: 10.128.0.17
  6  <br/> Server IP: 10.129.0.35
 
提示:瀏覽器可能無法嚴格檢查均衡性,因為OpenShift route存在會話關聯性(也稱為粘性會話)。即來自同一個web瀏覽器的所有請求都將轉到同一個pod。

2.7 擴容應用

  1 [student@workstation ~]$ oc describe dc scaling | grep Replicas
  2 Replicas:       3
  3         Replicas:       3 current / 3 desired
  4 [student@workstation ~]$ oc scale --replicas=5 dc scaling
 
clipboard
  1 [student@workstation ~]$ oc get pods -o wide
clipboard

2.8 測試負載均衡

  1 [student@workstation ~]$ for i in {1..5};do curl -s \http://scaling.apps.lab.example.com | grep IP;done	#多次請求
  2  <br/> Server IP: 10.128.0.17
  3  <br/> Server IP: 10.128.0.18
  4  <br/> Server IP: 10.129.0.35
  5  <br/> Server IP: 10.129.0.36
  6  <br/> Server IP: 10.129.0.37
 

三 pod排程控制

3.1 pod排程演算法

pod排程程式確定新pod在OpenShift叢集中的節點上的位置。該排程演算法被設計為可高度配置和適應不同叢集。OCP 3.9附帶的預設配置通過使用node label、affinity rules,anti-affinity rules中的定義來支援zone和regions的呼叫。
在OCP以前的版本中,安裝程式master節點標記為汙點標記,表示不允許在master上部署pod。在新版的OCP 3.9中,在安裝和升級過程中,master會自動標記為可排程的。使得可以通過deploy排程pod至maste節點。而不僅僅是作為master的元件執行。
預設節點selector是在安裝和升級期間預設設定的。它被設定為node-role.kubernetes.io/compute=true,除非使用osm_default_node_selector的Ansible變數覆蓋它。
在安裝和升級期間,不管osm_default_node_selector配置如何,都會對庫存檔案中定義的主機執行以下自動標記。
compute節點配置non-master、non-dedicated的角色(預設情況下,具有region=infra標籤的節點),節點使用node-role.kubernetes.io/compute=true標記。
master節點被標記為node-role.kubernetes.io/master=true,從而分配master節點角色。

3.2 排程演算法步驟

  • 過濾節點
排程程式根據節點資源(如主機埠)的可用性篩選正在執行的節點列表,然後進一步根據節點selector和來自pod的資源請求篩選。最終的縮小是可執行pod的候選node列表。
pod可以定義與叢集節點中的標籤匹配的節點選擇器,標籤不匹配的節點視為不合格。
pod還可以為計算資源(如CPU、記憶體和儲存)定義資源請求,沒有足夠的空閒計算機資源的節點視為不合格。
  • 對過濾後的節點列表進行優先順序排序
候選節點列表使用多個優先順序標準進行評估,這些標準加起來就是權重,權重值較高的節點更適合執行pod。
其中有affinity(親和規則)和anti-affinity(反親和規則),pod親和力較高的節點得分較高,而anti-affinity較高的節點權重低。
affinity的一個常見用法是:出於效能原因,將相關的pod安排得彼此親和。例如,需要保持彼此同步的pod使用相同的網路棧。
anti-affinity的一個常見用法是:為了獲得高可用性,將相關的pod安排的儘量分散。例如,避免將所有pod從同一個應用程式排程到同一個節點。
  • 選擇最合適的節點。
根據權重對候選列表進行排序,並選擇權重最高的節點來承載pod。如果多個節點得分相同,則隨機選擇一個節點。
排程程式配置檔案位於/etc/original/master/scheduler.json,其定義了一組predicates,用作過濾器或優先順序函式。通過這種方式,可以將排程程式配置為支援不同的叢集。

3.3 排程拓撲

對於大型資料中心,例如雲提供商,一個常見的拓撲結構是將主機組織成regions和zones:
region:是一個地理區域內的一組主機,這保證了它們之間的內網高速連線;
zone:也稱為可用區,是一組主機,它們可能一起失敗,因為它們共享公共的關鍵基礎設施元件,比如網路、儲存或電源。
OpenShift pod排程器可支援根據region和zone標籤在叢集內排程,如:
    • 從相同的RC建立的或從相同的DC建立的pod副本排程至具有相同region標籤值的節點中執行。
    • 副本Pod調位至具有不同zone標籤的節點中執行。
例項圖如下:
sample cluster topology using regions and zones_v1
要實現上圖中的樣例拓撲,可以使用叢集管理員通過以下命令oc label:
  1 $ oc label node1 region=ZheJiang zone=Cloud1A --overwrite
  2 $ oc label node node2 region=ZheJiang zone=Cloud1A --overwrite
  3 $ oc label node node3 region=ZheJiang zone=Cloud2A --overwrite
  4 $ oc label node node4 region=ZheJiang zone=Cloud2A --overwrite
  5 $ oc label node node5 region=HuNan zone=Cloud1B --overwrite
  6 $ oc label node node6 region=HuNan zone=Cloud1B --overwrite
  7 $ oc label node node7 region=HuNan zone=Cloud2B --overwrite
  8 $ oc label node node8 region=HuNan zone=Cloud2B --overwrite
 
提示:每個節點必須由其完全限定名(FQDN)標識,為了簡潔,如上命令使用了簡短的名稱。
對區域標籤的更改需要--overwrite選項,因為OCP 3.9高階安裝方法預設情況下使用region=infra標籤配置節點。
示例:要檢查分配給節點的標籤,可以使用oc get node命令和--show-labels選項。
$ oc get node node1.lab.example.com --show-labels
注意,一個節點可能有一些OpenShift分配的預設標籤,包含kubernetes.io字尾鍵值的標籤,此類標籤不應由叢集管理員人為更改,因為它們由排程程式在內部使用。
叢集管理員還可以使用-L選項來確定單個標籤的值。
示例:
  1 $ oc get node node1.lab.example.com -L region
  2 $ oc get node node1.lab.example.com -L region -L zone	#支援oc get跟多個-L選項
 

3.4 UNSCHEDULABLE節點

有時候,叢集管理員需要關閉節點進行維護,如節點可能需要硬體升級或核心安全更新。要在對OpenShift叢集使用者影響最小的情況下關閉節點,管理員應該遵循兩個步驟。
將節點標記為不可排程,從而防止排程程式向節點分配新的pod。
  1 $ oc adm manage-node --schedulable=false node2.lab.example.com
Drain節點,這將銷燬在pod中執行的所有pod,並假設這些pod將通過DC在其他可用節點中會重新建立。
  1 $ oc adm drain node2.lab.example.com
維護操作完成後,使用oc adm management -node命令將節點標記為可排程的。
  1 $ oc adm manage-node --schedulable=true node2.lab.example.com

3.5 控制pod位置

有些應用程式可能需要在一組指定的node上執行。例如,某些節點為某些型別的工作負載提供硬體加速,或者叢集管理員不希望將生產應用程式與開發應用程式混合使用。此類需求,都可以使用節點標籤和節點選擇器來實現。
node selector是pod定義的一部分,但建議更改dc,而不是pod級別的定義。要新增節點選擇器,可使用oc edit命令或oc patch命令更改pod定義。
示例:配置myapp的dc,使其pods只在擁有env=qa標籤的節點上執行。
  1 $ oc patch dc myapp --patch '{"spec":{"template":{"nodeSelector":{"env":"qa"}}}}'
此更改將觸發一個新的部署,並根據新的節點選擇器排程新的pod。
如果叢集管理員不希望讓開發人員控制他們pod的節點選擇器,那麼應該在專案資源中配置一個預設的節點選擇器。

3.5 管理預設專案

生產環境一個常見實踐是指定一組節點來執行OCP的系統基礎Pod,比如route和內部倉庫。這些pod在預設專案中定義。
通常可通過以下兩個步驟實現:
  1. 使用region=infra標籤標記專用節點;
  2. 為預設名稱空間配置預設節點選擇器。
要配置專案的預設節點選擇器,可使用openshift.io/node-selector鍵值向名稱空間資源新增註釋。可以使用oc edit或oc annotate命令。
  1 $ oc annotate --overwrite namespace default \
  2 openshift.io/node-selector='region=infra'
 
OCP 3.9 quick installer和advanced installer的Ansible playbook都支援Ansible變數,這些變數控制安裝過程中分配給節點的標籤,也控制分配給每個基礎設施pod的節點選擇器。
安裝OCP子系統(如metrics子系統)的劇本還支援這些子系統節點選擇器的變數。

四 控制Pod排程

4.1 前置準備

準備完整的OpenShift叢集,參考《003.OpenShift網路》2.1。

4.2 本練習準備

  1 [student@workstation ~]$ lab schedule-control setup
  2 [student@workstation ~]$ oc login -u admin -p redhat https://master.lab.example.com
 

4.3 檢視region

  1 [student@workstation ~]$ oc get nodes -L region
  2 NAME                     STATUS    ROLES     AGE       VERSION             REGION
  3 master.lab.example.com   Ready     master    2d        v1.9.1+a0ce1bc657
  4 node1.lab.example.com    Ready     compute   2d        v1.9.1+a0ce1bc657   infra
  5 node2.lab.example.com    Ready     compute   2d        v1.9.1+a0ce1bc657   infra
 

4.4 建立project

  1 [student@workstation ~]$ oc new-project schedule-control

4.5 建立應用

  1 [student@workstation ~]$ oc new-app --name=hello \
  2 --docker-image=registry.lab.example.com/openshift/hello-openshift
 

4.6 擴充套件應用

  1 [student@workstation ~]$ oc scale dc hello --replicas=5
  2 deploymentconfig "hello" scaled
  3 [student@workstation ~]$ oc get pod -o wide
  4 NAME            READY     STATUS    RESTARTS   AGE       IP            NODE
  5 hello-1-c5z2n   1/1       Running   0          7s        10.128.0.21   node1.lab.example.com
  6 hello-1-hhvp7   1/1       Running   0          34s       10.129.0.38   node2.lab.example.com
  7 hello-1-jqrkb   1/1       Running   0          7s        10.128.0.20   node1.lab.example.com
  8 hello-1-tgmbr   1/1       Running   0          7s        10.129.0.39   node2.lab.example.com
  9 hello-1-z2bn7   1/1       Running   0          7s        10.128.0.22   node1.lab.example.com
 

4.7 修改節點label

  1 [student@workstation ~]$ oc label node node2.lab.example.com region=apps --overwrite=true
  2 [student@workstation ~]$ oc get nodes -L region		#確認修改
  3 NAME                     STATUS    ROLES     AGE       VERSION             REGION
  4 master.lab.example.com   Ready     master    2d        v1.9.1+a0ce1bc657
  5 node1.lab.example.com    Ready     compute   2d        v1.9.1+a0ce1bc657   infra
  6 node2.lab.example.com    Ready     compute   2d        v1.9.1+a0ce1bc657   apps
 

4.8 匯出dc

  1 [student@workstation ~]$ oc get dc hello -o yaml > dc.yaml

4.9 修改node2排程策略

新增dc.yaml中的排程策略,使pod排程至apps標籤的node。
  1 [student@workstation ~]$ vi dc.yaml
  2 ……
  3   template:
  4 ……
  5     spec:
  6       nodeSelector:		#新增節點選擇器
  7         region: apps
  8 ……
 

4.10 應用更新

  1 [student@workstation ~]$ oc apply -f dc.yaml

4.11 確認驗證

  1 [student@workstation ~]$ oc get pod -o wide
  2 NAME            READY     STATUS    RESTARTS   AGE       IP            NODE
  3 hello-2-4c2gv   1/1       Running   0          40s       10.129.0.42   node2.lab.example.com
  4 hello-2-6966b   1/1       Running   0          38s       10.129.0.43   node2.lab.example.com
  5 hello-2-dcqbr   1/1       Running   0          36s       10.129.0.44   node2.lab.example.com
  6 hello-2-dlf8k   1/1       Running   0          36s       10.129.0.45   node2.lab.example.com
  7 hello-2-rnk4w   1/1       Running   0          40s       10.129.0.41   node2.lab.example.com
 
#驗證是否觸發了新的部署,並等待所有新的應用pod都準備好並執行。所有5個pod都應該排程至node2。

4.12 修改node1排程策略

  1 [student@workstation ~]$ oc label node node1.lab.example.com region=apps --overwrite=true
  2 [student@workstation ~]$ oc get node -L region
  3 NAME                     STATUS    ROLES     AGE       VERSION             REGION
  4 master.lab.example.com   Ready     master    2d        v1.9.1+a0ce1bc657
  5 node1.lab.example.com    Ready     compute   2d        v1.9.1+a0ce1bc657   apps
  6 node2.lab.example.com    Ready     compute   2d        v1.9.1+a0ce1bc657   apps
 

4.13 終止node2

  1 [student@workstation ~]$ oc adm manage-node --schedulable=false node2.lab.example.com
  2 NAME                    STATUS                     ROLES     AGE       VERSION
  3 node2.lab.example.com   Ready,SchedulingDisabled   compute   2d        v1.9.1+a0ce1bc657
 

4.14 刪除pod

刪除node2的pod,並使用node1建立的pod替換。
  1 [student@workstation ~]$ oc adm drain node2.lab.example.com --delete-local-data

4.15 檢視pod

  1 [student@workstation ~]$ oc get pods -o wide
  2 NAME            READY     STATUS    RESTARTS   AGE       IP            NODE
  3 hello-2-bjsj4   1/1       Running   0          51s       10.128.0.25   node1.lab.example.com
  4 hello-2-kmmmn   1/1       Running   0          50s       10.128.0.23   node1.lab.example.com
  5 hello-2-n6wvj   1/1       Running   0          51s       10.128.0.24   node1.lab.example.com
  6 hello-2-plr65   1/1       Running   0          50s       10.128.0.26   node1.lab.example.com
  7 hello-2-xsz68   1/1       Running   0          51s       10.128.0.27   node1.lab.example.com
 

五 管理IS、image、Templates

5.1 image介紹

在OpenShift中,image是一個可部署的runtime模板,它包含執行單個容器的所有需求,還包括imag功能的後設資料。image可以通過多種方式管理,如tag、import、pull和update。
image可以跨多個主機部署在多個容器中。開發人員可以使用Docker構建image,也可以使用OpenShift構建工具。
OpenShift實現了靈活的image管理機制。一個image名稱實際上可以引用同一image的許多不同版本。唯一的image由它的sha256雜湊引用,Docker不使用版本號。相反,它使用tag來管理image,例如v1、v2或預設的latest tag。

5.2 IS

IS包括由tags標識的任意數量的容器images。它是相關image的統一虛擬檢視,類似於Docker image倉庫。開發人員有許多與image和IS互動的方法。例如,當新增或修改新image時,build和deployment可以接收通知,並通過執行新build或新deployment做出相應的動作。

5.3 標記image

OCP提供了oc tag命令,它類似於docker tag命令,但是,它是對IS而不是image進行操作。
可以向image新增tag,以便更容易地確定它們包含什麼。tag是指定image版本的識別符號。
示例:將Apache web伺服器2.4版本的映像,可將該image執行以下標記。
apache: 2.4
如果倉庫包含Apache web伺服器的最新版本,他們可以使用latest標籤來表示這是倉庫中可用的最新image。
apache:latest
oc tag命令用於標籤image:
[user@demo ~]$ oc tag source destination
source:現有tag或影像流中的影像。
destination:標籤在一個或多個IS中的最新image。
示例:將ruby image的現有latest標記修改為當前版本v2.0標識,
[user@demo ~]$ oc tag ruby:latest ruby:2.0

5.4 刪除tag

若要從image中刪除標記,可使用-d引數。
[user@demo ~]$ oc tag -d ruby:latest
可以使用不同型別的標籤,預設行為使用permanent tag,即原始檔發生更改,該tag也會及時指向image,與目標tag無關。
tracking tag指示在匯入image期間匯入目標tag的後設資料。要確保目標tag在源tag更改時得到更新,需使用--alias=true標識。
[user@demo ~]$ oc tag --alias=true source destination
要重新匯入tag,可使用--scheduled=true標識。
[user@demo ~]$ oc tag --scheduled=true source destination
要配置Docker始終從內部倉庫中獲取image,可使用--reference-policy=local標誌。預設情況下,image指向本地倉庫。從而實現在之後呼叫image的時候可以快速pull。
[user@demo ~]$ oc tag --reference-policy=local source destination

5.5 建議的tag形式

在管理tag時,開發人員應該考慮映像的生命週期,參考下表開發人員用來管理映像的可能的標記命名約定。
描述
示例
Revision
myimage:v2.0.1
Architecture
myimage:v2.0-x86_64
Base Image
myimage:v1.2-rhel7
Latest Image
myimage:latest
Latest Stable
Image myimage:stable

5.6 Templates介紹

模板描述一組物件,其中包含處理後生成物件列表的引數。可以處理模板來建立開發人員有權在專案中建立的任何內容,例如service、build、configuration和dc。
模板還可以定義一組標籤,應用於它定義的每個物件。開發人員可以使用命令列介面或web控制檯從模板建立物件列表。

5.7 Templates管理

開發人員可以用JSON或YAML格式編寫模板,並使用命令列介面或web控制檯匯入它們。模板被儲存到專案中,以供對該特定專案具有適當訪問許可權的任何使用者重複使用。
示例:匯入模板。
[user@demo ~]$ oc create -f filename
還可以在匯入模板時分配標籤,這意味著模板定義的所有物件都將被標記。
[user@demo ~]$ oc create -f filename -l name=mylabel

5.8 使用模板

OCP提供了許多預設的instant app和QuickStart模板,允許開發人員為不同的語言快速建立新的應用程式。為Rails (Ruby)、Django (Python)、Node.js、CakePHP (PHP)和Dancer (Perl)提供了模板。
要列出叢集中的可用模板,請執行oc get templates命令。引數-n指定要使用的專案。
[user@demo ~]$ oc get templates -n openshift
開發人員還可以使用web控制檯瀏覽模板,當您選擇模板時,可以調整可用的引數來自定義模板定義的資源。

六 管理IS

6.1 前置準備

準備完整的OpenShift叢集,參考《003.OpenShift網路》2.1。

6.2 本練習準備

  1 [student@workstation ~]$ lab schedule-is setup

6.3 建立專案

  1 [student@workstation ~]$ oc login -u developer -p redhat \
  2 https://master.lab.example.com
  3 [student@workstation ~]$ oc new-project schedule-is
 

6.4 建立應用

  1 [student@workstation ~]$ oc new-app --name=phpmyadmin \
  2 --docker-image=registry.lab.example.com/phpmyadmin/phpmyadmin:4.7
 

6.5 建立服務賬戶

  1 [student@workstation ~]$ oc login -u admin -p redhat
  2 [student@workstation ~]$ oc project schedule-is
  3 [student@workstation ~]$ oc create serviceaccount phpmyadmin-account
 

6.6 授權特權執行

  1 [student@workstation ~]$ oc adm policy add-scc-to-user anyuid \
  2 -z phpmyadmin-account
 

6.7 更新pod

  1 [student@workstation ~]$ oc login -u developer
  2 [student@workstation ~]$ oc patch dc/phpmyadmin --patch \
  3 '{"spec":{"template":{"spec":{"serviceAccountName": "phpmyadmin-account"}}}}'
 
更新負責管理phpmyadmin部署的dc資源,以便使用新建立的服務帳戶。可以使用oc patch或oc edit命令。此命令可以從/home/student/DO280/labs/secure-review資料夾中的patch-dc.sh指令碼中複製。
  1 [student@workstation ~]$ oc get pods		#確認驗證
  2 NAME                 READY     STATUS    RESTARTS   AGE
  3 phpmyadmin-2-vh29z   1/1       Running   0          3m
 
提示:name後的2表示這個pod是第二次部署,即進行過迭代。

6.8 更新內部倉庫image

  1 [student@workstation ~]$ cd /home/student/DO280/labs/schedule-is/
  2 [student@workstation schedule-is]$ ls
  3 phpmyadmin-latest.tar  trust_internal_registry.sh
  4 [student@workstation schedule-is]$ docker load -i phpmyadmin-latest.tar
  5 #使用docker load命令載入新的image。
  6 [student@workstation schedule-is]$ docker images
  7 REPOSITORY          TAG                 IMAGE ID            CREATED             SIZE
  8 <none>              <none>              93d0d7db5ce2        13 months ago       166 MB
 

6.9 tag映象

  1 [student@workstation schedule-is]$ docker tag 93d0d7db5ce2 \
  2 docker-registry-default.apps.lab.example.com/schedule-is/phpmyadmin:4.7
  3 #打完標記進行推送。
 

6.10 登入docker倉庫

clipboard
結論:docker倉庫會提示因為是自簽名證照,因此判定為不安全的方式。

6.11 修改信任

本環境使用/home/student/DO280/labs/secure-review資料夾中的trust_internal_registry.sh指令碼,配置docker倉庫信任OpenShift內部倉庫。
  1 [student@workstation schedule-is]$ ./trust_internal_registry.sh

6.12 推送image

  1 [student@workstation schedule-is]$ docker push \
  2 docker-registry-default.apps.lab.example.com/schedule-is/phpmyadmin:4.7
 

6.13 確認更新

驗證當源image更新後,是否能自動觸發OpenShift進行pod更新。
  1 [student@workstation schedule-is]$ oc get pods
  2 NAME                 READY     STATUS    RESTARTS   AGE
  3 phpmyadmin-3-hnfjk   1/1       Running   0          23s
 

七 管理應用部署實驗

7.1 前置準備

準備完整的OpenShift叢集,參考《003.OpenShift網路》2.1。

7.2 本練習準備

  1 [student@workstation ~]$ lab manage-review setup

7.3 確認region

  1 [student@workstation ~]$ oc login -uadmin -predhat https://master.lab.example.com
  2 [student@workstation ~]$ oc get nodes -L region
  3 NAME                     STATUS    ROLES     AGE       VERSION             REGION
  4 master.lab.example.com   Ready     master    2d        v1.9.1+a0ce1bc657
  5 node1.lab.example.com    Ready     compute   2d        v1.9.1+a0ce1bc657   infra
  6 node2.lab.example.com    Ready     compute   2d        v1.9.1+a0ce1bc657   infra
 

7.4 修改region

  1 [student@workstation ~]$ oc label node node1.lab.example.com region=services --overwrite=true
  2 [student@workstation ~]$ oc label node node2.lab.example.com region=applications --overwrite=true
  3 [student@workstation ~]$ oc get nodes -L region
  4 NAME                     STATUS    ROLES     AGE       VERSION             REGION
  5 master.lab.example.com   Ready     master    2d        v1.9.1+a0ce1bc657
  6 node1.lab.example.com    Ready     compute   2d        v1.9.1+a0ce1bc657   services
  7 node2.lab.example.com    Ready     compute   2d        v1.9.1+a0ce1bc657   applications
 

7.5 建立專案

  1 [student@workstation ~]$ oc new-project manage-review

7.6 建立應用

  1 [student@workstation ~]$ oc new-app -i php:7.0 \
  2 http://registry.lab.example.com/version
 

7.7 擴充套件應用

  1 [student@workstation ~]$ oc scale dc version --replicas=3
  2 [student@workstation ~]$ oc get pods -o wide		#確認驗證
  3 NAME              READY     STATUS      RESTARTS   AGE       IP            NODE
  4 version-1-9626w   1/1       Running     0          40s       10.129.0.55   node2.lab.example.com
  5 version-1-build   0/1       Completed   0          1m        10.129.0.52   node2.lab.example.com
  6 version-1-f6vj2   1/1       Running     0          40s       10.129.0.56   node2.lab.example.com
  7 version-1-mrhk4   1/1       Running     0          45s       10.129.0.54   node2.lab.example.com
 
結論:應用程式pod並沒有均分在兩個叢集node節點之間,因為每個節點屬於不同的region,並且預設的OpenShift排程器配置開啟了區域粘性。

7.8 排程pod

  1 [student@workstation ~]$ oc export dc version -o yaml > version-dc.yml	#匯出yaml
  2 spac
  3 ……
  4   template:
  5     metadata:
  6 ……
  7     spec:
  8       nodeSelector:		#新增節點選擇器
  9         region: applications
 10 ……
 

7.9 迭代部署

  1 [student@workstation ~]$ oc replace -f version-dc.yml	#迭代

7.10 確認驗證

  1 [student@workstation ~]$ oc get pod -o wide
  2 NAME              READY     STATUS      RESTARTS   AGE       IP            NODE
  3 version-1-build   0/1       Completed   0          15m       10.129.0.52   node2.lab.example.com
  4 version-2-2bmqq   1/1       Running     0          58s       10.129.0.60   node2.lab.example.com
  5 version-2-nz58r   1/1       Running     0          1m        10.129.0.59   node2.lab.example.com
  6 version-2-rlj2h   1/1       Running     0          1m        10.129.0.58   node2.lab.example.com
 
驗證是否啟動了新的部署,並且在node2節點上執行了一組新的版本莢。等待所有三個新的應用程式莢都準備好並執行

7.11 修改region

  1 [student@workstation ~]$ oc label node node1.lab.example.com region=applications --overwrite=true
  2 [student@workstation ~]$ oc get nodes -L region		#確認驗證
  3 NAME                     STATUS    ROLES     AGE       VERSION             REGION
  4 master.lab.example.com   Ready     master    2d        v1.9.1+a0ce1bc657
  5 node1.lab.example.com    Ready     compute   2d        v1.9.1+a0ce1bc657   applications
  6 node2.lab.example.com    Ready     compute   2d        v1.9.1+a0ce1bc657   applications
 

7.12 終止node2

  1 [student@workstation ~]$ oc adm manage-node --schedulable=false node2.lab.example.com
  2 NAME                    STATUS                     ROLES     AGE       VERSION
  3 node2.lab.example.com   Ready,SchedulingDisabled   compute   2d        v1.9.1+a0ce1bc657
 

7.13 刪除pod

刪除node2的pod,並使用node1建立的pod替換。
  1 [student@workstation ~]$ oc adm drain node2.lab.example.com --delete-local-data

7.14 檢視pod

  1 [student@workstation ~]$ oc get pods -o wide
  2 NAME              READY     STATUS    RESTARTS   AGE       IP            NODE
  3 version-2-d9fhp   1/1       Running   0          3m        10.128.0.34   node1.lab.example.com
  4 version-2-jp5gr   1/1       Running   0          3m        10.128.0.35   node1.lab.example.com
  5 version-2-z5lv5   1/1       Running   0          3m        10.128.0.33   node1.lab.example.com
 

7.15 暴露服務

  1 [student@workstation ~]$ oc expose service version --hostname=version.apps.lab.example.com
  2 [student@workstation ~]$ curl http://version.apps.lab.example.com	#確認測試
  3 <html>
  4  <head>
  5   <title>PHP Test</title>
  6  </head>
  7  <body>
  8  <p>Version v1</p>
  9  </body>
 10 </html>
 

7.16 確認驗證

  1 [student@workstation ~]$ lab manage-review grade	#環境指令碼判斷

7.17 還原環境

  1 [student@workstation ~]$ oc adm manage-node --schedulable=true node2.lab.example.com
  2 [student@workstation ~]$ oc label node node1.lab.example.com region=infra --overwrite=true
  3 [student@workstation ~]$ oc label node node2.lab.example.com region=infra --overwrite=true
  4 [student@workstation ~]$ oc get node -L region
  5 NAME                     STATUS    ROLES     AGE       VERSION             REGION
  6 master.lab.example.com   Ready     master    2d        v1.9.1+a0ce1bc657
  7 node1.lab.example.com    Ready     compute   2d        v1.9.1+a0ce1bc657   infra
  8 node2.lab.example.com    Ready     compute   2d        v1.9.1+a0ce1bc657   infra
  9 [student@workstation ~]$ oc delete project manage-review
 

相關文章