120 likes | 259 Views
Système de regression neuro-flou pour prédire les apports non contrôlés dans les bassins versants de centrales hydro-électriques. Mounir Boukadoum, Hakim Lounis, Vincent Siveton. 200 km. 500 km. Le Contexte. Le réseau hydroélectrique d’ Alcan : ( circa ~2000) 73 800 km² de surface
E N D
Système de regression neuro-flou pour prédire les apports non contrôlés dans les bassins versants de centrales hydro-électriques Mounir Boukadoum, Hakim Lounis, Vincent Siveton
200 km 500 km Le Contexte • Le réseau hydroélectrique d’Alcan : (circa ~2000) • 73 800 km² de surface • 2000 MW d’électricité par an • 6 stations hydroélectriques actives, 28 installation en réserve • 43 groupes de turbines-alternateurs • 850 km de lignes de transmission • 30 stations hydro-météorologiques, etc.
Le problème • Le niveau des bassins versants pour les barrages dépend des décharges des rivières, des précipitations et de contributions souterraines (apports non contrôles) • On veut prédire le volume des apports non contrôles indirectement, à partir de mesures d’autres variables Exemples du bassin de la Chute du Diable au Saguenay
Données historiques • On dispose des données historiques suivantes :
Prédicteurs classiques • Regression linéaire ou logistique • Interpolation polynômiale • Test d’hypthèse N’ont pas donné de bons résultats
Prédicteurs reliés à l’apprentissage machine • Arbres de décision binaires (C4.5 & OC1) • Inducteurs de règles (CN2) • Algorithmes de groupement (LVQ, Kohonen, k-centroïdes, c-centroïdes) • Classifieurs bayesiens (ROC) • Réseaux de neurones artificiels (PMC, Elman, Jordan) • Classifieurs flous ou neuro-flous (ANFIS, CANFIS)
Variables d’entrée A1 An … Flouïfication (SOM + MM) … Arbre de décision flou X grand 0.65 0.35 C grand B petit 0.2 0.8 0.7 0.3 0.2 0.35 0.3 0.65 Déflouïfication (PMC) Valeur prédite/classe 0 1 1 0 Prédicteur neuro-flou basé sur un arbre de décision binaire “flouïfié”
Création d’un arbre de décision binaire par induction C4.5 algorithm: If no more training examples: Stop; Else: If all training examples belong to the same class Create a leaf with the classname ; Else: - Select a test to identify the next best discriminating attribute in the learning set ; - Divide the learning set into subsets according to the value of the selected attribute ; End if ; End if The entropy of A={ai}i=1,…,n, is : • where p(ai) is the probability of A=ai • In the fuzzy approach, ai takes n’ linguistic values, and • Where k(ai) is the membership of ai to linguistic value k and p(ai) is its frequency in the domain of k. • We want, each time, to find the attribute that maximizes
Entrées à valeursClassificationFonctions précises symbolique d’appartenance FMM SOM Flouïfication des données d’entrée • Processus en deux étapes: • On trie les données selon deux catégories (« grand », « petit ») • On définit les fonctions d’appartenance correspondantes (forme et limites) SOM = Carte auto organisatrice de Kohonen : divise les données en catégories FMM = Filtre à morphologie mathématique : Trouve les points limites de fonctions d’appartenance
Déflouïfication des feuilles de l’arbre de décision flou • Effectuée à l’aide d’un réseau de neurones artificiel de type perceptron multi-couche avec apprentissage par retropropagation d’erreurs • Particularités : • Opère par association des patrons d’entrée avec des valeurs mémorisées avec un bon pouvoir de généralisation (données incomplètes, vagues, bruitées, etc.) • Peut faire autant la classification que la régression
Résultats (1) 14 output neurons (2) 1 output neuron
Conclusion • Un arbre de décision flou peut donner de meilleurs résultats de prédiction qu’un arbre de décision précis • L ’approche neuro-floue peut donner de meilleurs ou moins bons résultats qu’un réseau de neurones • L’usage d’un réseau de neurones pour la phase de déflouïfication donne de meilleurs résultats que la méthode du centre de gravité • L ’approche neuro-floue offre la possibilité d’extraire des règles (savoir explicite) en plus de prédire les variables hydro-électriques (savoir implicite)