1 / 48

第八章

第八章. 模糊系統. 8.1 模糊系統之架構. 模糊系統 (fuzzy system) 已廣泛地應用於自動控制、圖樣識別 (pattern recognition) 、決策分析 (decision analysis) 、以及時序信號處理等方面。 模糊系統的基本架構如圖 8.1 所示,其中主要的功能方塊包括: (1) 模糊化機構 、 (2) 模糊規則庫 、 (3) 模糊推論引擎 、以及 (4) 去模糊化機構 。. 圖 8.1 :模糊系統的基本架構。. 8.1.1 模糊化機構 (fuzzifier).

Download Presentation

第八章

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. 第八章 模糊系統

  2. 8.1 模糊系統之架構 • 模糊系統(fuzzy system)已廣泛地應用於自動控制、圖樣識別(pattern recognition)、決策分析(decision analysis)、以及時序信號處理等方面。 • 模糊系統的基本架構如圖8.1所示,其中主要的功能方塊包括:(1)模糊化機構、(2)模糊規則庫、(3)模糊推論引擎、以及(4)去模糊化機構。 圖8.1:模糊系統的基本架構。

  3. 8.1.1 模糊化機構 (fuzzifier) • 模糊化機構的功能是將明確的 (crisp)外界輸入資料轉換成適當的語意式模糊資訊;也就是說將明確資料模糊化成模糊資訊。以下我們介紹兩種模糊化機構: 1. 將明確的數值型式資料 x0視為一個模糊單點型式的模糊集合 A: 2. 當 x= x0時,其歸屬函數值為 1;當 x越來越遠離 x0時,其歸屬函數值則遞減,表示如下: 其中以  作為控制歸屬函數遞減的速率,此種模糊化方式所須之計算量較大,因此較少使用,但是假若外界的輸入易被雜訊干擾時,採用第二種模糊化方式則較能有效地消除由雜訊引起的錯誤。

  4. 8.1.2 模糊規則庫 (fuzzy rule base)(1 ) 一、語意式模糊規則:語意式模糊規則又稱為 Mamdani 模糊規則 二、函數式模糊規則: (1) 線性式模糊規則: (2) 單點式模糊規則: 三、Tsukamoto模糊規則:此模糊規則的後鑑部 Bj採用的是擁有單調性(monotonical)歸屬函數的模糊集合,因此,每一個模糊規則經過推論後,得到的是一個明確值。

  5. 8.1.2 模糊規則庫 (fuzzy rule base)(2) • 推論引擎將藉由這些模糊規則來進行推論,以決定下一步驟所要採取的決定。 • 三種規則的主要差別只在於模糊規則的後鑑部有所不同而已。 • 至於模糊規則從何而來呢?一般說來,有兩種取得模糊規則的方式:第一種方式也是最直接的方式,就是由專家來提供所須的模糊規則;第二種方式是先收集一些量測資料後,再經由特定的訓練演算法則來從量測資料中萃取出模糊規則。 • 模糊規則中前鑑部與後鑑部的模糊集合,其歸屬函數的設定從何而來呢?假若模糊規則是由人類專家所給定的,則歸屬函數就必須由人類專家一起給定。若模糊規則是由特定的訓練演算法則從量測資料中萃取出來的,選定合適的歸屬函數型式之後,則以收集之量測資料來細調歸屬函數的參數,以便提高系統的有效性。

  6. 8.1.3 模糊推論引擎 • 模糊推論引擎是模糊系統的核心,它可以藉由近似推論或模糊推論的進行,來模擬人類的思考決策模式,以達到解決問題的目地。 前提一(premise) 1:x is A´ 前提二(premise) 2:If x is A, Then y is B ------------------------------------------------------------ 結論:y is B´ 各種不同計算方式的合成運算子: • 最大-最小合成: • 最大乘積合成 : • 最大邊界積合成 : • 最大激烈積合成 : • 至於模糊蘊涵的運算則如前一章所介紹的有 。

  7. 8.1.4 去模糊化機構 (1) • 將經過模糊推論之後產生的結論,轉換為一明確數值的過程,我們稱之為 “去模糊化” 。 • 由於不同的模糊規則所採用的後鑑部會有所不同,因此,經過模糊推論後所得到的結論,有的是以模糊集合來表示(如語意式模糊規則),而有的是以明確數值來表示。 一、推論後得到的是模糊集合:令模糊集合 C 為模糊規則經過模糊推論後所得到的結論,亦即前面所提到的 中的 。 1. 重心法(center of gravity defuzzifier or center of area defuzzifier) (1) 當論域為連續時: (2) 當論域為離散時:

  8. 8.1.4 去模糊化機構 (2) 2. 最大平均法 (mean of maxima defuzzifier) 其中 3. 修正型最大平均法 (modified mean of maxima defuzzifier) 其中 4. 中心平均法 (modified center average defuzzifier)

  9. 8.1.4 去模糊化機構 (3) 5. 修正型重心法 (modified center average defuzzifier) 其中以 j作為控制歸屬函數遞減的速率,當 j越小,則歸屬函數遞減的速率越快。 二、推論後得到明確的輸出值:令 j 代表第 j 個模糊規則的前鑑部被符合的程度性,亦即“啟動強度(firing strength)”,yj 為第 j 個模糊規則所推論出的結果,以下的“權重式平均法(weighted average method)”最被廣泛使用:

  10. 8.2 語意式模糊規則(1) • 其成效與模糊規則所使用的規則之前鑑部與後鑑部是否恰當很有關係,除此之外,與歸屬函數之型態,合成運算子種類,模糊蘊涵採用何種計算方式,以及去模糊化方法等,都有關係。 前提:x is x0 and y is y0 模糊規則一 :If x is A1 and y is B1 Then z is C1 模糊規則二 :If x is A2 and y is B2 Then z is C2 • 若我們採用單點式模糊化方式將 x0 及 y0 分別模糊化成模糊集合 A´ 和 B´,然後根據模糊推論,我們可以得到以下的結論:

  11. 8.2 語意式模糊規則(2) 一、採用“最大-最小合成”及模糊蘊涵 所以

  12. 圖8.2:以“最大-最小合成”及模糊蘊涵 來進行模糊推論。

  13. 8.2 語意式模糊規則(3) 二、採用“最大乘積合成”及模糊蘊涵: 所以

  14. 圖8.3:以“最大乘積合成”及模糊蘊涵

  15. 範例8.1:語意式模糊規則 • 假設模糊規則庫中,只有以下三個模糊規則: :If x is small Then y is large :If x is medium Then y is medium :If x is large Then y is small 圖8.4:輸入變數x與輸出變數y的三個模糊集合。 圖8.5:整體的輸入與輸出的函數關係。

  16. 8.3 函數式模糊規則 • 此種模糊規則有時又稱做 “Sugeno” 模糊規則”或“TSK模糊規則”。 • 此種線性式模糊規則的優點是其參數 可以很容易地從數值型資料中鑑別出來;其缺點是相較於語意式模糊規則,此種模糊規則較不具有邏輯上的意義,因此較不容易將(1)由人類專家所提供的語意式資訊以及(2)從實驗中得到的數值型資料,整合起來用以建立線性式模糊規則。 前提:x is x0 and y is y0 模糊規則一 :If x is A1 and y is B1 Then z is 模糊規則二 :If x is A2 and y is B2 Then z is • 令 代表第 i 個模糊規則的啟動強度,並且 為第 i 個模糊規則經過推論後所得到的結果,最後利用“權重平均法”來去模糊化,整體最後的輸出 z* 為:

  17. 範例8.2:函數式模糊規則(1) If x is small Then y = 2x If x is medium Then y = -x +3 If x is large Then y = x - 1 • 我們採用的是“權重平均法”來去模糊化。 圖8.6:若用不同的方式來定義模糊集合,則會導至整體的輸入/輸出的函數關係會有所不同。

  18. 範例8.2:函數式模糊規則(2) • 如果我們在線性式的模糊規則中,使用(1)高斯函數作為歸屬函數、(2)最大乘積合成於模糊推論、以及(3)加權式平均法來去模糊化,則 Takagi 及 Sugeno 的線性式模糊規則的輸出就是: 其中 J代表模糊規則數,以及代表第 j條模糊規則經過推論後所得到的結果,亦即 其中 p代表輸入變數的維度,以及明確輸入 ,而權重 代表輸入變數 對第 j條模糊規則的前鑑部的啟動強度, 可用下式求得:

  19. 範例8.2:函數式模糊規則(3) 其中 代表 對模糊集合 的歸屬度,結合上兩式,我們可以導出一個多變數的非線性近似器 (nonlinear approximator)。事實上,若是要以一組線性式模糊規則作為通用近似器 (universal approximator),在線性式模糊規則的後鑑部中只需要一個常數項 即可,只要保留此常數項,所導出的系統輸出為 其中 • 經過比較,我們發現上式將會等效於 Radial Basis Function Network (RBFN),而 RBFN 已經證明為一通用之近似器。

  20. 8.4 Tsukamoto模糊規則(1) • Tsukamoto模糊規則可以視作語意式模糊規則的一種簡化,Tsukamoto把後鑑部之模糊規則限定成只能擁有單調性(遞增或遞減)的歸屬函數,如此一來,歸屬函數的反函數便一定存在。 前提:x is x0 and y is y0 模糊規則一 R1:If x is A1 and y is B1 Then z is C1 模糊規則二 R2:If x is A2 and y is B2 Then z is C2 • 令 代表第 i 個模糊規則的啟動強度,並且 zi 代表是當第 i 個模糊規則的啟動強度 i 為時所推論而得到的結果,然後利用“權重平均法”來去模糊化,整體最後的輸出 z* 為:

  21. 圖8.7:Tsukamoto模糊規則的推論過程。

  22. 8.5 模糊控制範例(1) 模糊規則一 R1:If x is A1 and y is B1 Then z is C1 模糊規則二 R2:If x is A2 and y is B2 Then z is C2 令 x0與 y0為感應器 x與 y之輸入,模糊集合 A1、 A2、 B1、 B2、 C1、以及 C2使用下列之歸屬函數:

  23. 8.5 模糊控制範例(2) • 讀入感應器輸入 以及 ,接下來我們將說明如何計算最後的控制輸出。 • 首先計算感應器輸入 以及 與兩條模糊規則的符合程度為: • 接下來,兩條模糊規則的啟動強度為: • 將 1對映至第一條模糊規則的後件部,可得到如圖8.8中的灰色梯形區域 ;相同地,將 2對映至第二條模糊規則的後件部,可得到如圖8.8中的黑色梯形區域 ;將此兩個梯形區域以 “最大運算子 (max)” 取其最大值,可得最後的歸屬函數。最後解模糊化可得:

  24. 圖8.8:模糊推論過程示意圖。

  25. 8.5 模糊控制範例(3) • 以連續型重心法作為解模糊化機構:首先找出 C´ 的歸屬函數為 : 因此

  26. 8.5 模糊控制範例(4) (2) 以離散型重心法來解模糊化:我們將輸出量化成 1,2,...,9 等 9 個離散輸出,可得 (3) 以 “最大平均法” 作為解模糊化機構:在最後的歸屬函數中,其量化值達到最大歸屬函數值的有 3、4、以及 5,因此我們可以得到: (4) 以修正型最大平均法作為解模糊化機構: (5)以中心平均法作為解模糊化機構:

  27. 8.6 模糊規則的建立(1) • 第一種也是最直接的方式就是經由詢問人類專家而得。 1. 人類專家往往無法完整地提供所有必需的語意式模糊規則,以致於規則庫的不完全。 2. 其效果則深受 (1) 規則庫的完整與否,以及 (2) 所使用的歸屬函數是否能正確地反應出輸入/輸出變數間的模糊關係所影響。 • 第二種取得語意式模糊規則的方式,則是經由訓練法則,將數值型資料(numerical data)中取得模糊規則,此種作法往往牽涉如何分割輸入及輸出變數空間,以及如何建立模糊規則中前鑑部以及後鑑部之相對應關係,這些方法所建立起來的模糊規則,可以依照輸入空間的切割方式分成兩類: 1. 均勻式切割法:此種方法有兩個主要缺點:(1)若輸入向量的維度很高時,會導致模糊規則的數目增長得很快; (2)如果輸入變數間的相關程度性 (correlation)很高,將導致輸入空間被分割得相當地細緻,以反應出輸入變數間的相關程度。 • 2. 非均勻式切割法:我們其實可以直接切割整個模糊空間成許多個模糊集合,而不是在每一輸入維度上切割。這種方法雖然可以有效地降低所需的規則數目、以及反映出變數間的關連性,但付出的代價有二:(1)增加後續建模(modeling)工作的困難度(即規則數目的選定及歸屬函數的參數之調整等工作);(2)此種模糊規則較不易解讀。

  28. 圖8.10:直接切割整個模糊空間成許多個模糊集合的概念

  29. 8.6 模糊規則的建立(2) • 利用類神經網路的學習特質,想辦法從數值型資料中,藉著鏈結值的調整,歸納出相關的輸入/輸出關係,然後,再從網路的鏈結值中,萃取出模糊規則來。 均勻式切割法: If Then 或 非均勻式切割法: If Then 圖8.11:模糊化之類神經網路

  30. 8.8 模糊化類神經網路 (1) • 均勻式切割法 : 三種最典型的「模糊化類神經網路」分別為: • (1)適應性網路架構的模糊推論系統(adaptive network-based fuzzy inference system 簡稱為 ANFIS) 。 • (2)模糊適應性學習控制網路(fuzzy adaptive learning control network 簡稱為 FALCON) 。 (3) 倒傳遞模糊系統(backpropagation fuzzy system) 。 基本上,這三種網路架構中,第一層的隱藏層類神經元,所執行的是歸屬函數值的運算(即相容程度性的計算),接下來的類神經元執行『及(AND)的運算』,以便獲得模糊規則的前鑑部的啟動強度,然後,有一層的類神經元執行『或(OR)』的運算,以便將所有模糊規則的前鑑部的啟動強度聯集起來,最後位於輸出層的類神經元便執行去模糊化的運算,以便提供明確的輸出值。 • 非均勻切割法: 模糊化多維矩形複合式類神經網路(Fuzzy HyperRectangular Composite Neural Network簡稱為 FHRCNN)[17],[18],是執行非均勻式切割法的一種典型模糊化類神經網路。

  31. 8.8.1 適應性網路架構的模糊推論系統 (1) • 我們令模糊系統只有二個輸入變數,x , y、一個輸出變數,z;因此,我們可以將函數式模糊規則(Sugeno模糊規則)表示如下: 模糊規則 模糊規則 圖8.12:(a) 函數式模糊規則的模糊推論過程;(b) 相對應於函數式模糊規則的ANFIS架構。(本圖摘自J.-S. Roger Jang et. al. [12])

  32. 8.8.1 適應性網路架構的模糊推論系統 (2) • 第一層:第一層的類神經元執行輸入與相關模糊集合的「相容程度性」之運算,計算如下: • 第二層:第二層的類神經元標示為Π,執行的式模糊規則的「啟動強度」之計算,計算如下: • 第三層:第三層中的類神經元標示為N,執行的是將啟動強度正規化之運算,計算如下:

  33. 8.8.1 適應性網路架構的模糊推論系統 (3) • 第四層:第四層的類神經元執行的是,每個模糊規則之後鑑部該執行多少之運算,計算如下: • 第五層:第五層只有單一個類神經元,標示為Σ,計算前一層中類神經元輸出值的總合,以作為最後網路的輸出值: • 經由上述的說明可知,適應性網路架構的模糊推論系統(ANFIS)和以函數式模糊規則所組成之模糊系統是等效的。 • 其實,網路應該安排成幾層的結構,以及每一層中的類神經元所執行的運算,都是可以視其需要而加以改變的,只要每一層中的類神經元所執行的運算都是有意義的模組化函數即可。

  34. 圖8.13:相對應於函數式模糊規則的另類ANFIS架構,其中最後一層執行鍵結值之正規化計算。(本圖摘自J.-S. Roger Jang et. al. [12]) 圖8.14:(a)Tsukamoto模糊規則的模糊推論過程;(b)相對應於Tsukamoto模糊規則的ANFIS架構。(本圖摘自J.-S. Roger Jang et. al. [12])

  35. 8.8.2 模糊適應性學習控制網路 (1) • FALCON將傳統的模糊控制器、以及具備分散式學習能力的類神經網路,兩者整合至同一網路架構中。 • 在FALCON的網路架構中,輸入層代表外界輸入至網路之狀態。輸出層代表網路的輸出控制信號,而隱藏層則包括了歸屬函數、以及模糊規則。 圖8.15:模糊系統FALCON的網路架構圖。(本圖摘自C.T. Lin and C.S. George Lee [14])

  36. 8.8.2 模糊適應性學習控制網路 (2) • 第一層:第一層是輸入層,不負責實際之運算,只是將外界之輸入直接導引至下一層中,也就是說: • 第二層:第二層所執行的功能是歸屬函數值之運算起(即相容程度性之計算)。 • 第三層:第三層類神經元負責模糊規則的啟動強度的計算,也就是說,類神經元負責將相關之相容程度幸用模糊交集(AND)的運算整合成啟動強度,計算如下:

  37. 8.8.2 模糊適應性學習控制網路 (3) • 第四層:第四層的類神經元有兩種計算模式:(1)由下而上之傳輸模式;(2)由上而下之傳輸模式。在由下而上之傳輸模式中,第四層的鍵結值(由第三層連結至第四層的鍵結值)負責模糊聯集(OR)之運算(採用的是邊界和之運算子),以便將所有具有相同後鑑部之模糊規則整合起來,計算如下: • 第五層:第五層的類神經元漢第四層的類神經元一樣,也有兩種計算模式:(1)由上而下的之傳輸模式;(2)由下而上之傳輸模式。在由上而下之傳輸模式中,也就是網路的訓練時期,類神經元執行下列之運算:

  38. 8.8.3 倒傳遞模糊系統 (1) • 其目的在於實現下述之模糊系統(採用(1)高斯形式之歸屬函數;(2)Rp的模糊蘊涵;(3)中心平均法去模糊化機構): 其中 p 代表輸入維度,J 代表模糊規則的總數, 和 為可調整的參數。

  39. 圖8.16:「模糊邏輯系統的網路化表示法」之網路架構。(本圖摘自L.-X. Wang [16])

  40. 8.8.3 倒傳遞模糊系統 (2) • 網路訓練的目標就是要使得下列式子之誤差函數達到最小化: • 訓練網路參數 的方法為:

  41. 8.8.3 倒傳遞模糊系統 (3) • 訓練網路參數 的方法為:

  42. 8.8.3 倒傳遞模糊系統 (4) • 訓練網路參數 的方法為: • 以上所述的訓練演繹法則是一個兩階段之學習演繹法則,我們首先以前向之方式來計算 、a、b、以及 f。然後以倒傳遞演算法則之方式,依據上述式來修正網路參數 、 以及 之值。

  43. 8.8.4 模糊化多維矩形複合式類神經網路 (1) • 傳統的單點式模糊規則以下之形式: 模糊規則: • 採用下列之模糊規則是較佳之形式: 模糊規則: • 網路的訓練過程變得更加複雜,計算量也會大量增加,而且在網路訓練完成之後,我們無法從網路的鍵結值當中,得到類似模糊規則的解釋方式來解釋網路的行為。 • 為了在網路的實用性與複雜性之間做一權衡,FHRCNN採用的方式,是以一組多維矩形來逼近多維之模糊集合,因此,FHRCNN採用的模糊規則形式為: 模糊規則:

  44. 圖8.17:「均勻式切割法」與「非均勻式切割法」之差異 圖8.18:(a)HRCNN之圖形表示法;(b)FHRCNN之圖形表示法。

  45. 8.8.4 模糊化多維矩形複合式類神經網路 (2) • 「多維矩形複合式類神經網路(HyperRectangular Composite Neural Networks 簡稱為HRCNNs)」,其數學表示法如下: • 其中 是隱藏層中第 j 個類神經元的鍵結值

  46. 8.8.4 模糊化多維矩形複合式類神經網路 (3) • 我們可以利用所謂的「監督式決定導向學習演算法(supervised decision-directed learning algorithm 簡稱為SDDL algorithm)」來訓練HRCNN,只要訓資料彼此之間沒有交錯(overlap)的問題,此演算法可以保證訓練資料可以被100%分類成功。 • 假設網路中共有J個隱藏層類神經元(J 個模糊規則),我們可以從網路的鍵結值中得到下列之明確規則:

  47. 8.8.4 模糊化多維矩形複合式類神經網路 (4) • 基本上,「模糊化多維矩形複合式類神經網路(FHRCNN)」是將「多維矩形複合式類神經網路(HyperRectangular Composite Neural Networks 簡稱為HRCNNs)」模糊化之後而得到的。 • 採用了一個特殊的歸屬函數 ,來代替硬限制器函數 f(x),以作為類神經元之活化函數,歸屬函數是用來量測輸入資料與多維矩形間的相似程度性,FHRCNN的數學表示法如下:

  48. 8.8.4 模糊化多維矩形複合式類神經網路 (5) • 網路經過充分訓練之後,我們可以從鍵結值中萃取出以下的模糊規則: • 輸出類神經元執行的是類似「中心平均法」之去模糊化運算。 圖8.19:歸屬函數可以藉由調整參數之方法

More Related