1 / 25

Laureando: Enrico Masini

Calcolo delle reti idrauliche in pressione mediante una tecnica mista algoritmi genetici / metodo di Gauss-Newton. Laureando: Enrico Masini. Relatore: Chiar.mo Prof. Ing. Michele Mastrorilli. Correlatore: dott. Ing. Orazio Giustolisi.

yardley
Download Presentation

Laureando: Enrico Masini

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Calcolo delle reti idrauliche in pressione mediante una tecnica mista algoritmi genetici / metodo di Gauss-Newton Laureando: Enrico Masini Relatore: Chiar.mo Prof. Ing. Michele Mastrorilli Correlatore: dott. Ing. Orazio Giustolisi

  2. Una delle RETI in PRESSIONEverificata applicando la “tecnica mista”:algoritmi genetici/metodo di Gauss-Newton

  3. Sistema di equazioni • Scopo della tesi è la verifica delle reti idrauliche in pressione, ossia risolvere il seguente sistema di equazioni “misto” : i qi + j qj = 0  nodo hj – hj+1 = (Li ki Di-n) qi2 = ri qi2  tronco Forma matriciale del sistema • Per rendere il calcolo e la scrittura del codice più agevole, si è posto lo stesso sistema nella forma matriciale proposta da G.Curto e A.Tumbiolo: ANTq + Q = 0 R abs(q)q + (ANhN + AShS) = 0

  4. ESEMPIO: “RETE di CAO” SERBATOIO 100 m.s.l.m 6 5 1 3 1 2 3 2 7 4 3 4 8 6 I NODI 2,3,4,5,6 SONO A QUOTA 0 m.s.l.m

  5. 13 equazioni in 13 incognite: Sistema di equazioni

  6. Per una soluzioneapprossimata: Il sistema diventa:

  7. Per cui risolvere il sistemaè equivalente a “minimizzare” la funzione: ossia risolvere il seguente problema di “ottimizzazione non vincolata”: min funzione obiettivo del problema X detto anche “problema dei minimi quadrati” dove:

  8. La funzione da “minimizzare” è una funzione “non lineare”, del tipo:

  9. Per esempio, nel caso unidimensionale, si ha una funzione del tipo: e x O Ci sono più minimi “locali”e un unico minimo “globale” >>

  10. Algoritmi tradizionali di “ottimizzazione”: metodo di Newton, quasi-Newton, Gauss-Newton Si tratta di metodi che per convergere al minimo usano il calcolo delle derivate fino al 2° ordine, ossia del: • vettore gradiente • matrice hessiana Dallo sviluppo in serie di Taylor arrestato ai termini del 2°ordine: Supposto che qk(x) abbia un minimo in x*, annullando il gradiente:

  11. Da cui si ottiene, più genericamente: Dove: è la direzione di ricerca è il passo di ricerca I metodi si differenziano per la determinazione della direzione di ricerca, ossia per la tecnica usata per calcolare la matrice “hessiana” Per la determinazione del passo di ricerca, si rifanno ad algoritmi esterni che risolvono essenzialmente un problema di minimizzazione unidimensionale detto “ricerca di linea”, ossia ricercano il minimo della funzione: lungo la direzione di ricerca stabilita

  12. Tali metodi convergono se risulta: cioè se la matrice è definita positiva: In tal caso i vettori e sono concordi: direzione di ricerca direzione di massima pendenza negativa La direzione di ricerca è allora direzione di discesa, per cui risulta: che rappresenta la condizione di convergenza

  13. I metodi di Newton, essendoalgoritmi di discesa, convergono ad unminimo locale, funzione delpunto iniziale di ricerca e punti iniziale di ricerca soluzioni percorsi di discesa O x <<

  14. ALGORITMI GENETICI Si tratta di una nuova metodologia che consente di determinare ilminimo globaledi funzioni spiccatamente non lineari oppure non continue o non derivabili POPOLAZIONE INIZIALE SELEZIONE FITNESS FUNCTION Algoritmi genetici: RIPRODUZIONE CROSSOVER OPERATORI GENETICI MUTAZIONE CONDIZIONE TERMINALE

  15. Funzionamento degli Algoritmi genetici

  16. POPOLAZIONE INIZIALE Si scelgono casualmente N individui (cromosomi) tra tutte le soluzioni possibili del problema di ottimizzazione non vincolata ogni INDIVIDUO (o CROMOSOMA) = SOLUZIONE POSSIBILE, cioè: OPERATORI GENETICI CROSSOVER PUNTUALE: si tratta della riproduzione sessuata di 2 individui

  17. CROSSOVER UNIFORME : è un tipo di riproduzione sessuata più efficiente del precedente, in quanto prescinde dall’ordinamento dei bit MUTAZIONE: si tratta della variazione casuale di un gene (= 1 bit) di un individuo (o cromosoma) a caso della popolazione

  18. SELEZIONE La selezione determina quali individui (cromosomi) si riprodurranno e quali saranno scartati è grazie alla selezione che la popolazione si evolve di generazione in generazione Il cuore della selezione è la FITNESS FUNCTION (=funzione di “adattività”)con cui è possibile ordinare per FITNESS (adattività) gli individui della popolazione e quindi assegnare ad essi, in base alla posizione in graduatoria, una probabilità di selezione maggiore o minore La funzione di adattività coincide allora con la funzione obiettivo del problema di ottimizzazione CONDIZIONE TERMINALE La condizione terminale può essere di più tipi, ossia basata sul: • numero di generazioni • grado di uniformità della popolazione • “adattività” dell’individuo migliore

  19. PROBLEMA DELLO “SLOW-FINISH” Si è sperimentato in fase di elaborazione (ma è un fenomeno riportato da diversi autori), un evidente rallentamento progressivo della convergenza Risultati ottenuti applicando gli Algoritmi geneticialla risoluzione della rete diTorreMaggiore(FG)composta di165 tronchi e 107 nodi e Le 10000 generazioni sono state effettuate in circa 2 ore con un Pentium III 350 Mhz N° di generazioni

  20. TECNICA MISTA:algoritmi genetici / metodo di Gauss-Newton Il problema dello “slow-finish” è stato risolto utilizzando gli algoritmi genetici per determinare un punto iniziale “buono”, ossia interno alla concavità del minimo globale, e quindi proseguendo la ricerca del minimo con gli algoritmi tradizionali di “discesa”.

  21. Come si è già visto, trovare un “buon” punto iniziale per gli algoritmi di “discesa”, significa: e “buon” punto iniziale di ricerca per gli algoritmi di “discesa” minimo globale percorso di discesa O x

  22. Occorre stabilire un criterio per verificare che gli algoritmi genetici abbiano “trovato” la concavità del minimo globale: e popolazione iniziale degli algoritmi genetici O x

  23. dopo N generazioni si esegue un controllo per verificare se tutti gli individui sono interni della concavità del minimo globale e popolazione degli algoritmi genetici dopo N generazioni algoritmi di discesa O x lanciando gli algoritmi di “discesa” a partire da ciascun individuo della popolazione e verificando che convergano allo stesso punto.

  24. Un’altra possibilità più rapida consiste, sempre dopo N generazioni, nel lanciare gli algoritmi di discesa a partire dal solo individuo migliore della popolazione (“fittest individual”) e popolazione degli algoritmi genetici dopo N generazioni algoritmi di discesa O x verificando che il punto finale (minimo locale) coincida con lo 0, avvalendosi della conoscenza del valore del minimo globale

  25. IN CONCLUSIONE: Testando l’implementazione della “tecnica mista” su 4 reti con diverse complessità, precedentemente risolte con altre metodologie , si è avuto risconto del corretto funzionamento del metodo Il software è inoltre piuttosto efficiente in termini di velocità, per cui si è potuto agevolmente implementare anche la ricerca iterativa dei coefficienti alfa di ripartizione delle portate uniformemente distribuite e l’uso della formula di Colebrook per la determinazione degli indici di resistenza lambda, ampliando il campo delle portate al regime di transizione

More Related