290 likes | 376 Views
§0 Datenanalyse. Prozesse, Einflußgrößen, Prozessdaten, Modellierung, Adaption. begleitende Literatur. T.Kohonen: Associative Memory: A system theoretic approach. New York, Springer 1977
E N D
§0 Datenanalyse Prozesse, Einflußgrößen, Prozessdaten, Modellierung, Adaption H.Werner : Datenanalyse
begleitende Literatur • T.Kohonen: Associative Memory: A system theoretic approach. New York, Springer 1977 • D.E.Rumelhart, J.L.McLelland: Parallel Distributed ProcessingExplorations in the microstructure of cognition. Vol.1 : Foundations. Cambridge, MIT-Press, 1986 • M.A.Arbib: Brains, Machines, and Mathematics. 2nd edition. New York, Springer, 1987 • T.Khanna: Foundations of Neural Networks. Reading/Mass. , Addison-Wesley, 1990 • H.Ritter, T.Martinez, K.Schulten : Neuronale Netzwerke: Eine Einführung in die Neuroinformatik selbstorganisierter Netzwerke Bonn/München, Addison-Wesley, 1990 • A.Zell: Simulation Neuronaler Netze Bonn/München, Addison-Wesley, 1994 • KI.P.Kratzer: Neuronale Netze: Grundlagen und Anwendungen München, Hanser, 1991 • R.Brause: Neuronale Netze Stuttgart, Teubner H.Werner : Datenanalyse
Prozesse • Unter einem Prozess versteht man einen natürlichen oder maschinellen Vorgang, der von physikalischen Größen abhängt bzw. sie beeinflusst. • Diese Größen heißen die Parameter oder Einflussgrößen des Prozesses. H.Werner : Datenanalyse
Beispiele • Schlafforschung: Schlaf-EEG • Medikamenten Respons • Medizinische Dispositionsanalyse • Börsenkursprognose • Beschichtungen von Materialien (Papier, Metall,..) • Optische Strukturerkennung • Wasserqualität bestimmen • Windleistungsprognose • Wetterklassifikation etc. … H.Werner : Datenanalyse
Prozessdaten • Zur Analyse eines Prozesses werden zu verschiedenen Zeitpunkten bzw. in verschiedenen Situationen die Parameter (Datensätze) bestimmt , genannt die Prozessdaten, und in einer Datei gesammelt und abgelegt. H.Werner : Datenanalyse
Einflussgrößen • Die in einem Datensatz vorkommenden Parameter sind entweder- unabhängig oder- abhängigund können° zugänglich oder° verborgen sein. H.Werner : Datenanalyse
unabhängig / abhängig • Unabhängig sind die Parameter, die von dem Prozessbetreiber direkt auf gewünschte Werte eingestellt werden können (Eingabe). • Abhängig sind die Parameter, deren Werte sich aus dem Prozess aus den anderen Parametern einstellen (Ausgabe). H.Werner : Datenanalyse
zugänglich/verborgen • Zugänglich sind alle Parameter, deren Werte direkt am Prozess gemessen werden können. • Als verborgene Parameter bezeichnet man alle übrigen Einflussgrößen, deren Werte nur indirekt erschlossen werden können oder ganz unbekannt sind. H.Werner : Datenanalyse
Beispiel: Windkraft • Der Betrieb einer Windkraftanlage wandelt die Windenergie (unabhängig) in elektrische Energie (abhängig) um. • Die Windenergie selbst kann nicht unmittelbar gemessen werden, sondern muß aus einem komplexen Wetter- Prognose-Modell abgeschätzt werden (verborgener Parameter). H.Werner : Datenanalyse
Modellierung • Es gibt viele Gründe, warum in Wissenschaft und Technik immer wieder die Frage aufkommt:„was wäre, wenn…“ • Mathematische und informatische Modelle haben die Aufgabe, diese Frage fundiert zu beantworten. • Beispiel: Belastungsproben werden nicht am konkreten Objekt (z.B. Brücke) durchgeführt (zu teuer), sondern an einem Modell. H.Werner : Datenanalyse
Maßstabgerechte Modelle • In der Technik werden gerne maßstabgerechte Modelle gebaut, deren Nutzen aber mehr in der Visualisierung liegt. • Das Problem eines Modells (z.B. 1:10) ist, daß zwar die Längenverhältnisse 1:10 sind, die Flächenverhältnisse (etwa für Winddruck,…) jedoch 1:100 und gar die Raumverhältnisse (etwa für Masse,…) sogar 1:1000. • Die Festigkeit der Materialien bleibt aber unverändert. • Ein solches Modell ist also nicht ohne weiteres für Belastungsuntersuchungen geeignet. • Dafür benötigt man eher oder zusätzlich mathematisch/informatische Modelle, insbesondere, wenn es um Fragen der Haltbarkeit (Zerstörung) geht. H.Werner : Datenanalyse
Funktionale Modelle • Ein funktionales Modell von Prozessdaten ist eine Sequenz mathematischer Funktionen, die als Eingaben die unabhängigen Parameter und als Ausgabe je eine der abhängigen Parameter haben, • d.h. jede Funktion modelliert das Verhalten eines Parameters. H.Werner : Datenanalyse
Klassifizierende Modelle • Wenn das Verhalten von Ausgabeparameteren nicht funktional ist (d.h. gleiche Eingaben können sehr unterschiedliche Ausgaben produzieren), kann alternativ eine Klassifikation der Datensätze nach der „größten Ähnlichkeit“ als Modell ermittelt werden. • Aus jeder Klasse wird ein Repräsentant als typisches Verhaltensmuster des Prozesses ausgewählt (Prototyp) H.Werner : Datenanalyse
Daten-Modelle Zu modellierende Daten Mittelwert Linear Quadratisch Höher Klassifikation H.Werner : Datenanalyse
Ungenauigkeiten • Physikalisch gemessene Größen unterliegen immer gewissen Meßun-genauigkeiten. • Eine Rolle der Modellierung ist, solche Ungenauigkeiten abzuschätzen H.Werner : Datenanalyse
Modellierungsmethoden Einige Methoden zur Modellierung sind: • Funktionenapproximation • Differentialgleichungen • Statistische Modelle • Adaptive Methoden H.Werner : Datenanalyse
Approximation • Diese Methode setzt ein funktionales Verhalten der Ausgabeparameter voraus und eine Vorgabe der Funktionenform (Linear, Polynom, periodisch, exponentiell..). • Die spezifischen Funktionenparameter (Nullstellen, Steigungen etc.) werden nun schrittweise so angepasst, daß sich die Abstände der Messpunkte von den Funktionengraphen verkleinern. H.Werner : Datenanalyse
Differentialgleichungen • In physikalischen Prozessen mit wenigen Variablen lassen sich oft die Wirkungen von Parameteränderungen durch Differentialgleichungen beschreiben. • Dies kann man dann auch auf Zusammensetzungen solcher Prozesse ausdehnen (dynamische Systeme) H.Werner : Datenanalyse
Statistische Modelle • Diese Modelle legen als Ursachen von Ungenauigkeiten zufällige Prozesse zugrunde. • Sie erfordern ein mathematisches Modell und liefern als Ergebnis Wahrscheinlichkeiten, wie stark die Abweichungen der Messungen vom Modell ausfallen H.Werner : Datenanalyse
Fluch der Dimension • All diese klassischen Methoden haben den gravierenden Nachteil, daß sie bei hoher Variablenzahl (z.B. mehr als 100) sehr schwer handhabbar sind bis zum völligen Versagen. • Zudem setzen diese Verfahren ein a priori Modell voraus, das approximativ verbessert werden soll. H.Werner : Datenanalyse
Adaptive Modelle • In diesen Fällen bieten sich adaptive Methoden an, von denen neuronale Netzwerke prominente Beispiele bilden. • Grundidee sind Systeme mit einer großen Zahl an eigenen Modell-Parametern, die durch systematische Veränderungen dazu gebracht werden, das System den vorliegenden Prozess-daten immer genauer anzupassen. H.Werner : Datenanalyse
Adaptionsmethoden • Statistische Suche • Die Parameter werden zufällig verändert, bis eine zufriedenstellende Adaption erreicht ist. • Abstiegsmethoden • Die Parameter werden so verändert, daß sich die Abweichung zwischen Messung und Modell verringert (Abstieg des Fehlers). H.Werner : Datenanalyse
Korrektheit • Die Adaption wird auch Lernen oder Training genannt. • das adaptive System muss auf den Daten, mit denen es adaptiert wird (Trainingsset, Lektion), das gewünschte Verhalten zeigen: • Geringe Abweichung zwischen Modellverhalten und Prozessverhalten H.Werner : Datenanalyse
Generalisierung • das adaptiveSystem muß auf neue Daten, auf denen es nicht trainiert ist (Test-Set), sinnvolle Antworten geben können. • nur für solche Daten vernünftig, die nah(?) an den Trainingsdaten liegen. • "sinnvoll" kann für Prozess und System sehr verschiedene Bedeutung haben (das System modelliert die Wirklichkeit evtl. nicht korrekt) H.Werner : Datenanalyse
Lern-Paradigmen • Lernen aus Fehlernüberwacht (supervised) • Ein Lehrer kontrolliert den Trainingsvorgang und gibt ein, wo und wie stark sich der Output vom gewünschten Output unterscheidet. • Lernen durch Gewöhnungselbstorganisiert (self organized) • Das System entwickelt frei von äußeren Einflüssen ein internes Beurteilungssystem für die Eingabedaten, indem es Inputs nach Ähnlichkeit zu schon gelernten Daten einteilt. H.Werner : Datenanalyse
Lernerfolg • Zu einem Lernerfolg gehört sowohl die Korrektheit (genügend genaue Anpassung an die Lerndaten) wie auch die Generalisierung (geringe Abweichung von den Testdaten). • Es kann nicht von vornherein garantiert werden, daß korrektes oder gar generali-sierendes Lernen überhaupt möglich ist. • Gründe für einen mangelnden Lernerfolg könnten sein: zu hohe Komplexität der Prozessdaten, widersprüchliche Daten oder auch eine unzureichende Modellstruktur. H.Werner : Datenanalyse
Ziel der Vorlesung • Verstehen der Methoden der Künstlichen Neuronalen Netzwerke. • Beurteilung der Einsatzszenarien für diese Methoden • Entwicklung eines Tools für den Einsatz dieser Methoden H.Werner : Datenanalyse
Standardanwendung Windpowerprognose • Aus den Wetterprognosen verschie-dener Anbieter soll möglichst exakt vorhergesagt werden, wieviel Strom ein Windpark im Laufe des nächsten Tages bzw. der nächsten Stunde liefern wird. • Das Problem ist: die Wetterprognosen liegen nur in grobem räumlichen und zeitlichen Raster vor und sind nur bedingt zuverlässig. H.Werner : Datenanalyse