260 likes | 435 Views
Calcolo delle reti idrauliche in pressione mediante una tecnica mista algoritmi genetici / metodo di Gauss-Newton. Laureando: Enrico Masini. Relatore: Chiar.mo Prof. Ing. Michele Mastrorilli. Correlatore: dott. Ing. Orazio Giustolisi.
E N D
Calcolo delle reti idrauliche in pressione mediante una tecnica mista algoritmi genetici / metodo di Gauss-Newton Laureando: Enrico Masini Relatore: Chiar.mo Prof. Ing. Michele Mastrorilli Correlatore: dott. Ing. Orazio Giustolisi
Una delle RETI in PRESSIONEverificata applicando la “tecnica mista”:algoritmi genetici/metodo di Gauss-Newton
Sistema di equazioni • Scopo della tesi è la verifica delle reti idrauliche in pressione, ossia risolvere il seguente sistema di equazioni “misto” : i qi + j qj = 0 nodo hj – hj+1 = (Li ki Di-n) qi2 = ri qi2 tronco Forma matriciale del sistema • Per rendere il calcolo e la scrittura del codice più agevole, si è posto lo stesso sistema nella forma matriciale proposta da G.Curto e A.Tumbiolo: ANTq + Q = 0 R abs(q)q + (ANhN + AShS) = 0
ESEMPIO: “RETE di CAO” SERBATOIO 100 m.s.l.m 6 5 1 3 1 2 3 2 7 4 3 4 8 6 I NODI 2,3,4,5,6 SONO A QUOTA 0 m.s.l.m
13 equazioni in 13 incognite: Sistema di equazioni
Per una soluzioneapprossimata: Il sistema diventa:
Per cui risolvere il sistemaè equivalente a “minimizzare” la funzione: ossia risolvere il seguente problema di “ottimizzazione non vincolata”: min funzione obiettivo del problema X detto anche “problema dei minimi quadrati” dove:
La funzione da “minimizzare” è una funzione “non lineare”, del tipo:
Per esempio, nel caso unidimensionale, si ha una funzione del tipo: e x O Ci sono più minimi “locali”e un unico minimo “globale” >>
Algoritmi tradizionali di “ottimizzazione”: metodo di Newton, quasi-Newton, Gauss-Newton Si tratta di metodi che per convergere al minimo usano il calcolo delle derivate fino al 2° ordine, ossia del: • vettore gradiente • matrice hessiana Dallo sviluppo in serie di Taylor arrestato ai termini del 2°ordine: Supposto che qk(x) abbia un minimo in x*, annullando il gradiente:
Da cui si ottiene, più genericamente: Dove: è la direzione di ricerca è il passo di ricerca I metodi si differenziano per la determinazione della direzione di ricerca, ossia per la tecnica usata per calcolare la matrice “hessiana” Per la determinazione del passo di ricerca, si rifanno ad algoritmi esterni che risolvono essenzialmente un problema di minimizzazione unidimensionale detto “ricerca di linea”, ossia ricercano il minimo della funzione: lungo la direzione di ricerca stabilita
Tali metodi convergono se risulta: cioè se la matrice è definita positiva: In tal caso i vettori e sono concordi: direzione di ricerca direzione di massima pendenza negativa La direzione di ricerca è allora direzione di discesa, per cui risulta: che rappresenta la condizione di convergenza
I metodi di Newton, essendoalgoritmi di discesa, convergono ad unminimo locale, funzione delpunto iniziale di ricerca e punti iniziale di ricerca soluzioni percorsi di discesa O x <<
ALGORITMI GENETICI Si tratta di una nuova metodologia che consente di determinare ilminimo globaledi funzioni spiccatamente non lineari oppure non continue o non derivabili POPOLAZIONE INIZIALE SELEZIONE FITNESS FUNCTION Algoritmi genetici: RIPRODUZIONE CROSSOVER OPERATORI GENETICI MUTAZIONE CONDIZIONE TERMINALE
POPOLAZIONE INIZIALE Si scelgono casualmente N individui (cromosomi) tra tutte le soluzioni possibili del problema di ottimizzazione non vincolata ogni INDIVIDUO (o CROMOSOMA) = SOLUZIONE POSSIBILE, cioè: OPERATORI GENETICI CROSSOVER PUNTUALE: si tratta della riproduzione sessuata di 2 individui
CROSSOVER UNIFORME : è un tipo di riproduzione sessuata più efficiente del precedente, in quanto prescinde dall’ordinamento dei bit MUTAZIONE: si tratta della variazione casuale di un gene (= 1 bit) di un individuo (o cromosoma) a caso della popolazione
SELEZIONE La selezione determina quali individui (cromosomi) si riprodurranno e quali saranno scartati è grazie alla selezione che la popolazione si evolve di generazione in generazione Il cuore della selezione è la FITNESS FUNCTION (=funzione di “adattività”)con cui è possibile ordinare per FITNESS (adattività) gli individui della popolazione e quindi assegnare ad essi, in base alla posizione in graduatoria, una probabilità di selezione maggiore o minore La funzione di adattività coincide allora con la funzione obiettivo del problema di ottimizzazione CONDIZIONE TERMINALE La condizione terminale può essere di più tipi, ossia basata sul: • numero di generazioni • grado di uniformità della popolazione • “adattività” dell’individuo migliore
PROBLEMA DELLO “SLOW-FINISH” Si è sperimentato in fase di elaborazione (ma è un fenomeno riportato da diversi autori), un evidente rallentamento progressivo della convergenza Risultati ottenuti applicando gli Algoritmi geneticialla risoluzione della rete diTorreMaggiore(FG)composta di165 tronchi e 107 nodi e Le 10000 generazioni sono state effettuate in circa 2 ore con un Pentium III 350 Mhz N° di generazioni
TECNICA MISTA:algoritmi genetici / metodo di Gauss-Newton Il problema dello “slow-finish” è stato risolto utilizzando gli algoritmi genetici per determinare un punto iniziale “buono”, ossia interno alla concavità del minimo globale, e quindi proseguendo la ricerca del minimo con gli algoritmi tradizionali di “discesa”.
Come si è già visto, trovare un “buon” punto iniziale per gli algoritmi di “discesa”, significa: e “buon” punto iniziale di ricerca per gli algoritmi di “discesa” minimo globale percorso di discesa O x
Occorre stabilire un criterio per verificare che gli algoritmi genetici abbiano “trovato” la concavità del minimo globale: e popolazione iniziale degli algoritmi genetici O x
dopo N generazioni si esegue un controllo per verificare se tutti gli individui sono interni della concavità del minimo globale e popolazione degli algoritmi genetici dopo N generazioni algoritmi di discesa O x lanciando gli algoritmi di “discesa” a partire da ciascun individuo della popolazione e verificando che convergano allo stesso punto.
Un’altra possibilità più rapida consiste, sempre dopo N generazioni, nel lanciare gli algoritmi di discesa a partire dal solo individuo migliore della popolazione (“fittest individual”) e popolazione degli algoritmi genetici dopo N generazioni algoritmi di discesa O x verificando che il punto finale (minimo locale) coincida con lo 0, avvalendosi della conoscenza del valore del minimo globale
IN CONCLUSIONE: Testando l’implementazione della “tecnica mista” su 4 reti con diverse complessità, precedentemente risolte con altre metodologie , si è avuto risconto del corretto funzionamento del metodo Il software è inoltre piuttosto efficiente in termini di velocità, per cui si è potuto agevolmente implementare anche la ricerca iterativa dei coefficienti alfa di ripartizione delle portate uniformemente distribuite e l’uso della formula di Colebrook per la determinazione degli indici di resistenza lambda, ampliando il campo delle portate al regime di transizione