智慧控制技術總結

cjyyxn發表於2024-06-25

模糊控制的數學基礎

模糊集合

所研究的全部物件的總和,叫做論域,也叫全集合。

\(x\) 為論域 \(X\) 中的元素,\(A\) 為論域 \(X\) 中定義的一個集合,則 \(x\)\(A\) 的關係可以用集合 \(A\)特徵函式 \(\mu_A(x)\) 來表示

\[\mu_A(x)=\begin{cases}1&x\in A\\0&x\notin A\end{cases} \]

給定論域 \(U\) 中的一個模糊集 \(A\),是指任意元素 \(x\in U\),都不同程度地屬於這個集合,元素 \(x\) 屬於這個集合 \(A\) 的程度可以用隸屬函式 \(\mu_{A}(x)\in[0,1]\) 來表示。

模糊集合的表示方法

Zadeh 表示法

\[A=\frac{\mu_{A}(x_1)}{x_1}+\frac{\mu_{A}(x_2)}{x_2}+\cdots+\frac{\mu_{A}(x_n)}{x_n} \]

序偶表示法

\[A=\Set{(x_1,\mu_A(x_1)),(x_2,\mu_A(x_2)),\cdotp\cdotp\cdotp,(x_n,\mu_A(x_n))} \]

隸屬函式描述法

模糊運算

(1) 模糊集交 \(C=A\cap B\)

\[\mu_C(x)=\mu_A(x)\wedge\mu_B(x) \]

符號 \(\wedge\) 代表取最小值運算。

(2) 模糊集並 \(D=A\cup B\)

\[\mu_D(x)=\mu_A(x)\vee\mu_B(x) \]

符號 \(\vee\) 代表取最大值運算。

(3) 模糊集補 \(\overline{A}\)

\[\mu_{\overline{A}}(x)=1-\mu_{A}(x) \]

(4) 模糊集的相等

\(\forall x\in U\),總有 \(\mu_A(x)=\mu_B(x)\) 成立,則稱 \(A\)\(B\) 相等,記做 \(A=B\)

(5) 模糊集的包含

\(\forall x\in U\),總有 \(\mu_A(x)\geq\mu_B(x)\) 成立,則稱 \(A\) 包含 \(B\),記做 \(A\supseteq B\)

模糊運算的性質

(1) 交換律

\[A\cap B=B\cap A, A\cup B=B\cup A \]

(2) 結合律

\[A\cup(B\cup C)=(A\cup B)\cup C,A\cap(B\cap C)=(A\cap B)\cap C \]

(3) 分配律

\[A\cup(B\cap C)=(A\cup B)\cap(A\cup C),A\cap(B\cup C)=(A\cap B)\cup(A\cap C) \]

(4) 傳遞律

\[A\subseteq B,B\subseteq C \Rightarrow A\subseteq C \]

(5) 冪等律

\[A\cup A=A,A\cap A=A \]

(6) 摩根律

\[\overline{A\cup B}=\overline{A}\cap\overline{B},\overline{A\cap B}=\overline{A}\cup\overline{B} \]

(7) 復原律

\[\overline{\overline{A}}=A \]

水平截集

在論域 \(U\) 中,給定一個模糊集合 \(A\),由對於 \(A\) 的隸屬度大於某一水平值(閾值) \(\lambda\) 的元素組成的集合,叫做該模糊集合 \(A\)\(\lambda\) 水平截集 \(A_\lambda\)。用公式可以描述如下:

\[A_{\lambda}=\{x\mid\mu_{A}(x)\geq\lambda\} \]

式中,\(x\in U\)\(\lambda\in[0,1]\) 。顯然,\(A_\lambda\)是一個普通集合。

水平截集的性質

\[(A\cup B)_\lambda=A_\lambda\cup B_\lambda \]

\[(A\cap B)_\lambda=A_\lambda\cap B_\lambda \]

如果 \(\lambda\in[0,1],\alpha\in[0,1]\)\(\lambda\leq\alpha\),則\(A_\lambda\supseteq A_a\)。也就是說,閾值越低,水平截集\(A_\lambda\) 越大;閾值越高,水平截集\(A_\lambda\) 越小。\(A_{\lambda=1}\) 最小,如果 \(A_{\lambda=1}\) 不是空集,則稱它是 \(A\) 的核。

模糊關係

假設 \(x\) 是論域 \(U\) 中的元素,\(y\) 是論域 \(V\) 中的元素,則 \(U\)\(V\) 的一個模糊關係是指定義在 \(U\times V\) 上的一個模糊子集 \(R\) ,其隸屬度 \(\mu_{R}(x,y)\in[0,1]\) 代表 \(x\)\(y\) 對於該模糊關係的關聯程度。

常用矩陣的形式來描述

\[R=\begin{bmatrix}\mu_{R}(x_{1},y_{1})&\mu_{R}(x_{1},y_{2})&\cdots&\mu_{R}(x_{1},y_{n})\\\mu_{R}(x_{2},y_{1})&\mu_{R}(x_{2},y_{2})&\cdots&\mu_{R}(x_{2},y_{n})\\\vdots&\vdots&&\vdots\\\mu_{R}(x_{m},y_{1})&\mu_{R}(x_{m},y_{2})&\cdots&\mu_{R}(x_{m},y_{n})\end{bmatrix} \]

模糊關係的運算

模糊關係的相等

\[R = S\Leftrightarrow r_{ij} = s_{ij} \]

模糊關係的包含

\[R\supseteq S\Leftrightarrow r_{ij}\geqslant s_{ij} \]

模糊關係的並

\[R\cup S=\begin{bmatrix} r_{11}\vee s_{11}&\cdots&r_{1n}\vee s_{1n} \\ \vdots&&\vdots \\ r_{m1}\vee s_{m1}&\cdots&r_{mn}\vee s_{mn} \end{bmatrix} \]

模糊關係的交

\[R\cap S=\begin{bmatrix} r_{11}\wedge s_{11}&\cdots&r_{1n}\wedge s_{1n} \\ \vdots&&\vdots \\ r_{m1}\wedge s_{m1}&\cdots&r_{mn}\wedge s_{mn} \end{bmatrix} \]

模糊關係的補

\[\overline{R}=\begin{bmatrix} 1-r_{11}&\cdots&1-r_{1n} \\ \vdots&&\vdots \\ 1-r_{m1}&\cdots&1-r_{mn} \end{bmatrix} \]

模糊關係的合成

\(R\) 是論域 \(U\times V\) 上的模糊關係,描述為 \(m\times n\) 的矩陣;\(S\) 是論域 \(V\times W\) 上的模糊關係,描述為 \(n\times l\) 的矩陣。則 \(R\)\(S\) 可以合成為論域 \(U\times W\) 上的一個新的模糊關係

\[C=R\circ S \]

\[\mu_{C}(x_i,z_j)=\bigvee_k[\mu_{R}(x_i,y_k)\wedge\mu_{S}(y_k,z_j)] \]

模糊變換

設有兩有限集 \(X\)\(Y\)\(R\)\(X\times Y\) 上的模糊關係,\(A\)\(B\) 分別為 \(X\)\(Y\) 上的模糊集。

\[B=A\circ R \]

\[\mu_{B}(y_j)=\bigvee_i\left[\mu_{A}(x_i)\wedge\mu_{R}(x_i,y_j)\right] \]

則稱 \(B\)\(A\) 的象,\(A\)\(B\) 的原象,\(R\)\(X\)\(Y\) 上的一個模糊變換。

模糊決策

\(X\) 為所研究事物的因素集,在 \(X\) 上選 \(A\) 作為加權模糊集,\(Y\) 是評語集,\(B\)\(Y\) 上的決策集。\(R\)\(X\)\(Y\) 上的模糊關係,用\(R\) 做模糊變換,可得到決策集為

\[B = A \circ R \]

若要做出最後的決策,可按最大值原理,選最大的 \(b_i\) 對應的 \(y_i\) 作為最終的評判結果。

語言規則中蘊涵的模糊關係

語言變數是自然語言中的詞或句,它的取值不是通常的數,而是用模糊語言表示的模糊集合。

  • 變數名稱。
  • 變數的論域。
  • 變數的語言值(每個語言值是定義在變數論域上的一個模糊集合)。
  • 每個模糊集合的隸屬函式。

條件語句的蘊涵關係

\(A\times B\) 稱做 \(A\)\(B\)笛卡兒乘積,其隸屬度運演算法則為

\[\mu_{A\times B}(u,v)=\mu_{A}(u)\wedge\mu_{B}(v) \]

假設 \(u\)\(v\) 是已定義在論域 \(U\)\(V\) 的兩個語言變數

(1) 如果 \(u\)\(A\),則 \(v\)\(B\) ,其蘊涵的模糊關係

\[R=(A\times B)\cup(\overline{A}\times V) \]

\[\mu_{R}(u,v)=[\mu_A(u)\wedge\mu_B(v)]\vee[1-\mu_A(u)] \]

(2) 如果 \(u\)\(A\),則 \(v\)\(B\) ,否則 \(v\)\(C\) ,其蘊涵的模糊關係

\[R= (A \times B) \cup(\overline{A} \times C ) \]

\[\mu_{R}(u,v)=[\mu_{A}(u)\wedge\mu_{B}(v)]\vee\{[1-\mu_{A}(u)]\wedge\mu_{C}(v)\} \]

(3) 如果 \(u\)\(A_1\) ,則 \(v\)\(B_1\)
否則,如果 \(u\)\(A_2\) ,則 \(v\)\(B_2\)
...
否則,如果 \(u\)\(A_n\) ,則 \(v\)\(B_n\)

\[R=\bigcup_{i=1}^n(A_i\times B_i) \]

\[\mu_R(u,v)=\bigvee_{i=1}^n[\mu_{A_i}(u)\wedge\mu_{B_i}(v)] \]

(4) 如果 \(u_1\)\(A_1\) ,且 \(u_2\)\(A_2\) ,... ,且 \(u_m\)\(A_m\) ,則 \(v\)\(B\)

\[R=A_1\times A_2\times\cdots\times A_m\times B \]

模糊推理

對於單輸入的情況,假設兩個語言變數 \(x\)\(y\) 之間的模糊關係為 \(R\),當 \(x\) 的模糊取值為 \(A^*\) 時,與之相對應的 \(y\) 的取值 \(B^*\) 可透過模糊推理得出

\[B^*=A^*\circ R \]

多輸入模糊推理

\[B^{*}=(A_{1}^{*}\times A_{2}^{*}\times\cdots\times A_{m}^{*})\circ R \]

模糊控制器的設計方法

模糊控制器的結構和設計

模糊化就是透過在控制器的輸入、輸出論域上定義語言變數,來將精確的輸入、輸出值轉換為模糊的語言值。

通常取系統的誤差值 \(e\) 和誤差變化率 \(ec\) 為模糊控制器的兩個輸入,則在\(e\) 的論域上定義語言變數 \(E\),在 \(ec\) 的論域上定義語言變數 \(EC\),在控制量 \(u\) 的論域上定義語言變數 \(U\)

通常在語言變數的論域上,將其劃分為有限的幾檔,作為語言值。例如 { “正大(PB)”、“正中(PM)”、“正小(PS)”、“零(ZO)”、“負小(NS)”、“負中(NM)”、“負大(NB)”} 7檔。

各語言值的隸屬函式有正態分佈型、三角形、梯形。

  • 隸屬函式曲線的形狀較尖時,解析度較高,輸入引起的輸出變化比較劇烈,控制靈敏度較高;曲線形狀較緩時、解析度較低,輸入引起的輸出變化不那麼劇烈,控制特性也較平緩,具有較好的系統穩定性。
  • 相鄰兩曲線交點對應的隸屬度 \(\beta\) 值較小時,控制靈敏度較高,但魯棒性不好;\(\beta\) 值較大時,控制系統的魯棒性較好,但控制靈敏度將降低。
  • 確定隸屬函式曲線的分佈還要遵循清晰性和完備性的原則。

獲得語言變數的變數值,即模糊輸入 \(A^*\)\(B^*\) 的方法為:

  • 隸屬度最大的模糊值當做當前模糊控制器的模糊輸入量。
  • 無法判斷其屬於哪個模糊值的隸屬度更大,就把該精確量的隸屬度取為最大(\(\mu\)=1)來處理,得到一個插入的模糊狀態。

規則庫由若干條控制規則組成,這些控制規則根據人類控制專家的經驗總結得出,按照 IF...is..and...is...THEN...is... 的形式表達。

規則庫也可以用矩陣表的形式進行描述

控制規則

\[R_i: \text{~IF~}E\text{~is~}A_i\text{~and~}EC\text{~is~}B_i\text{~THEN~}U\text{~is~}C_i \]

蘊含的模糊關係為

\[R_{i}=(A_{i}\times B_{i})\times C_{i} \]

\[\mu_{R_i}(E,EC,U)=\mu_{A_i}(E)\wedge\mu_{B_i}(EC)\wedge\mu_{C_i}(U) \]

整個規則庫蘊涵的模糊關係為

\[R=\bigcup_i R_i \]

\[\mu_{R}(E,EC,U)=\bigvee_i [\mu_{R_i}(E,EC,U)] \]

模糊推理

\[C^{*}=(A^{*}\times B^{*})\circ R \]

清晰化

(1) 最大隸屬度方法

\(C^*\) 中隸屬度最大的元素 \(U^*\) 作為精確輸出控制量。
若模糊輸出量 \(C^*\) 的元素隸屬度有幾個相同的最大值,則取相應諸元素的平均值。

(2) 加權平均法(重心法)

對模糊輸出量 \(C^*\) 中各元素及其對應的隸屬度求加權平均值,來得到精確輸出控制量 \(U^*\)

模糊控制的優缺點

模糊控制的優點:1)設計時不需要建立被控制物件的數學模型,只要求掌握人類的控制經驗。2)系統的魯棒性強,尤其適用於非線性時變、滯後系統的控制。模糊控制的缺點:1)確立模糊化和逆模糊化的方法時,缺乏系統的方法,主要靠經驗和試湊。2)總結模糊控制規則有時比較困難。3)控制規則一旦確定,不能線上調整,不能很好地適應情況的變化。4)模糊控制器由於不具有積分環節,因而穩態精度不高。

模糊-PI 複合控制

模糊控制輸入為 \(E\)\(EC\) 相當於 PD 控制器,在平衡點附近會產生振盪,穩態精度較差,為了提高穩態精度,可以將模糊控制器與 PI 控制器結合起來構成複合控制器。

雙模控制

控制開關在系統誤差較大時接通模糊控制器,來克服不確定性因素的影響;在系統誤差較小時接通PI控制器來消除穩態誤差。

串聯控制

並聯控制

自校正模糊控制

引數自校正模糊控制器

規則自校正模糊控制器

變結構模糊控制

神經網路基礎

簡介

人工神經網路互連結構形式

  • 前向網路(前饋神經網路):其網路中各個神經元接受前一級的輸入,並輸出到下一級,網路中沒有反饋。
  • 反饋網路(遞迴網路,迴歸網路):輸入訊號決定了反饋系統的初始狀態,然後系統經過一系列狀態轉移後,逐漸收斂於平衡狀態。
  • 競爭網路
  • 隨機網路

人工神經網路的學習

有導師學習

無導師學習

學習系統完全按照環境所提供資料的某些統計規律來調節自身引數或結構,以表示外部輸入的某種固有特性。在無監督學習中,僅僅根據網路的輸入調整網路的權值和閾值,沒有一個目標輸出。

人工神經網路連線權的調整方法

Hebb 學習規則:如果兩個神經元同時興奮(即同時被啟用),則它們之間的突觸連線加強。

\(\delta\) 學習規則(誤差校正規則):用已知樣本作為教師對網路進行學習。

感知器模型

感知器的網路結構是由單層感知神經元,透過一組權值與 \(n\) 個輸入相連組成。

(1) 給定初始值 \(W_i(0)\)

(2) 輸入一樣本 \(X=(x_i,\cdots,x_n,1)\) 和它的希望輸出 \(d\)

(3) 計算實際輸出

\[Y(t)=f\left[\sum_{i=1}^{n+1}W_i(t)x_i\right] \]

(4) 修正權

\[W_i(t+1)=W_i(t)+\eta[d-Y(t)]x_i\quad i=1,2,\cdots,n+1 \]

式中,\(0<\eta\leqslant 1\) 用於控制修正速度。

BP 網路

假設神經網路的輸入層、隱層和輸出層的神經元數量分別為 \(n\)\(l\)\(m\),沿資訊的傳播方向,用 \(In_j^{(i)}\)\(Out_j^{(i)}\) 表示第 \(i\) 層第 \(j\) 個神經元的輸入和輸出。

輸入層

\[Out_i^{(1)} = In_i^{(1)} = x_i\quad i = 1 ,2 ,\cdots,n \]

隱層

\[In_j^{(2)}=\sum_{i=1}^n\left(w_{ij}^{(1)}Out_i^{(1)}-\theta_i\right) \]

\[Out_j^{(2)}=\phi(In_j^{(2)})\quad j=1,2,\cdots,l \]

輸出層

\[y_{k} = Out_{k}^{(3)}= In_{k}^{(3)} = \sum_{j=1}^{l}w_{jk}^{(2)} Out_{j}^{(2)} \quad k= 1 ,2 ,\cdots,m \]

\[y_{k} = \sum_{j = 1}^{l}w_{jk}^{(2)} \phi\Big( \sum_{i = 1}^{n}w_{ij}^{(1)}x_{i} - \theta_{i}\Big) \quad k= 1 ,2 ,\cdots,m \]

BP學習演算法

(1) 依次取第 \(k\) 組樣本 \((\hat{X}_k,\hat{Y}_k), k=1,2,\cdots,m\),將 \(\hat{X}_k\) 輸入網路

(2) 依次計算目標函式,如果 \(J<\varepsilon\),退出

\[J=\frac12\sum_{k=1}^m\|\hat{Y}_k-Y_k\|^2 \]

(3) 計算

\[\frac{\partial J_{k}}{\partial w_{ij}^{(1)}}=\sum_{i}\frac{\partial J_{k}}{\partial Y_{ki}}\frac{\partial Y_{ki}}{\partial Out_{j}^{(2)}}\frac{\partial Out_{j}^{(2)}}{\partial In_{j}^{(2)}}\frac{\partial In_{j}^{(2)}}{\partial w_{ij}^{(1)}}=-\sum_{i}(\hat{Y}_{ki}-Y_{ki})w_{j}^{(2)}f^{\prime}Out_{i}^{(1)} \]

\[\frac{\partial J_{k}}{\partial w_{j}^{(2)}} = \sum_{i} \frac{\partial J_{k}}{\partial Y_{ki}} \frac{\partial Y_{ki}}{\partial w_{j}^{(2)}} = - \sum_{i} ( \hat{Y}_{ki} - Y_{ki} ) Out_{j}^{(2)} \]

(4) 計算

\[\frac{\partial J}{\partial w} = \sum_{k = 1}^{m} \frac{\partial J_{k}}{\partial w} \]

(5) 修正權值

\[w(t+1)=w(t)-\eta\frac{\partial J}{\partial w(t)} \]

Hopfield 神經網路

採用反饋連線,考慮輸出與輸入間在時間上的傳輸延遲,所以所表示的是一個動態過程,需要用差分方程或微分方程來描述。

離散 Hopfield 網路實質上是一個離散的非線性動力學系統。因此如果系統是穩定的,則它可以從任意初態收斂到一個穩定狀態;若系統是不穩定的,由於網路節點輸出點只有1和-1(或1和0)兩種狀態,因而系統不可能出現無限發散,只可能出現限幅的自持震盪或極限環。若將穩態與某種最佳化計算的目標函式相對應,並作為目標函式的極小點。那麼初態朝穩態的收斂過程便是最佳化計算過程。該最佳化計算是在網路演變過程中自動完成的。

神經網路在控制中的應用

概述

神經網路控制,即基於神經網路的控制或簡稱神經控制,是指在控制系統中採用神經網路這一工具對難以精確描述的複雜的非線性物件進行建模,或充當控制器,或最佳化計算,或進行推理,或故障診斷等,以及同時兼有上述某些功能的適應組合。

神經網路控制具備傳統控制方法無法實現的一些優點和特徵,主要表現為:

  1. 神經網路可以處理難以用模型和規則描述的過程或系統
  2. 神經網路採用並行分散式資訊處理,具有很強的容錯性
  3. 神經網路的本質是非線性系統
  4. 神經網路具有很強的資訊綜合能力
  5. 神經網路的硬體實現愈趨方便

神經直接逆動態控制

神經自校正控制

神經直接自校正控制

該控制系統由一個常規控制器和一個具有離線辨識能力的神經網路辨識器組成,由於神經網路的非線性函式的對映能力,使得它可以在自校正控制系統中充當未知系統函式逼近器,且具有很高的建模精度。神經直接自校正控制的結構基本上與直接逆動態控制相同。

神經間接自校正控制

間接自校正控制一般稱為自校正控制。自校正控制是一種利用辨識器將物件引數進行線上估計,用控制器實現引數的自動整定相結合的自適應控制技術,它可用於結構已知而引數未知但恆定的隨機系統,也可用於結構已知而引數緩慢變化的隨機系統。

神經網路系統辨識

神經網路 PID 控制

模糊神經網路

相關文章