150 likes | 262 Views
Lernen 1. Vorlesung. Ralf Der Universität Leipzig Institut für Informatik der@informatik.uni-leipzig.de. Allgemeines zur Vorlesung. Vertiefungsmodul Intelligente Systeme. Modulnummer 10-202-2302 Vertiefungsmodul im M. Sc. Informatik und
E N D
Lernen1. Vorlesung Ralf Der Universität LeipzigInstitut für Informatikder@informatik.uni-leipzig.de
Allgemeines zur Vorlesung • Vertiefungsmodul Intelligente Systeme. Modulnummer 10-202-2302 • Vertiefungsmodul im M. Sc. Informatik und • Master Lehramt Informatik Gymnasium und Mittelschule • Vorlesung Lernen ist Bestandteil des Moduls. Umfang 2 SWS. • Prüfung durch Klausur am Ende des Semesters. LernenVorlesung01-WS06 / 07
Inhaltsverzeichnis Behandelt werden symbolische und subsymbolische Lernverfahren. Themen sind • Allgemeines zu Lernen • Neuronale Netze • Clustering und Klassifikationslernen - Support Vector Machines - Reinforcement Learning • Entscheidungsbaum-Lernen - Lernen von Regeln und Konzepten LernenVorlesung01-WS06 / 07
Paradigmen des Lernens I • Allgemeiner Kontext: Unter Lernen versteht man den bewussten und unbewussten individuellen oder kollektiven Erwerb von geistigen und körperlichen Kenntnissen und Fertigkeiten oder Fähigkeiten. Lernen kann als Änderung des Verhaltens, Denkens oder Fühlens aufgrund verarbeiteter Wahrnehmung der Umwelt oder Bewusstwerdung eigener Regungen bezeichnet werden. (Quelle Wikipedia) • Wissenschaftliche Teildisziplinen: Lernpsychologie, die Pädagogische Psychologie, Neurobiologie, die Didaktik und Pädagogik • Für uns aber besonders die Künstliche Intelligenz • Jedoch ist Lernen mehr als das reine Abspeichern von Informationen. Lernen beinhaltet die Wahrnehmung der Umwelt, die Verknüpfung mit Bekanntem (Erfahrung) und das Erkennen von Regelmäßigkeiten (Mustererkennung). LernenVorlesung01-WS06 / 07
Paradigmen des Lernens II Lernsignal Inputvektor x Outputvektor y Lerner +/- Lehrer: y = f(x) Solloutputvektor ysoll • Diese allgemeinen, und insbesondere auf den Menschen abgestimmten Paradigmen interessieren hier weniger. Stattdessen: • Aufbau einer formalisierten Theorie mit konkreten Algorithmen für die Realisierung eines lernenden Sytems als Bestandteil eines intelligenten Systems. • Beispiel überwachtes Lernen (Lernen mit Lehrer, supervised learning): LernenVorlesung01-WS06 / 07
Paradigmen des Lernens IIa Lernsignal Inputvektor x Outputvektor y Lerner +/- Lehrer: y = f(x) Solloutputvektor ysoll • Aufgabe des Lerners im supervised learning ist das „Erlernen“ des Funktionszusammenhages y = f(x) aus einer endlichen Anzahl von im allgemeinen verrauschten Trainingsbeispielen (x, ysoll). LernenVorlesung01-WS06 / 07
Paradigmen des Lernens III Outputvektor y Inputvektor x Lerner r Bewertung des Verhaltens des Lerners (Reward r) Lehrer • Reinforcement-Lernen: Lernen aus Lob und Tadel. Zwischen supervised und unsupervised Lernen. LernenVorlesung01-WS06 / 07
Paradigmen des Lernens IVa Cluster 1 Lerner Inputvektor x Cluster n • Nichtüberwachtes Lernen (unsupervised learning): Erkennen von Strukturen in den Daten, meist aus statistischen Regelmäßigkeiten • Beispiel Clusterung: der Lerner lernt selbständig, jeden Datenvektor einem Cluster zuzuordnen. LernenVorlesung01-WS06 / 07
Paradigmen des Lernens IVa • Beispiel Clusterung: der Lerner lernt selbständig, jeden Datenvektor einem Cluster zuzuordnen. x2 Clustervektoren x1 LernenVorlesung01-WS06 / 07
Lernverfahren • Neben den Paradigmen des Lernens unterscheidet man auch nach den Lernverfahren, d.h. den konkreten algorithmischen Ansätzen mit denen das Lernen stattfindet. • Diese hängen eng von der konkreten Realisierung des Lerners an. Z. B. parameteradaptive Lernverfahren: Lerner durch eine parametrisierte Funktion realisiert. Beispiel neuronales Netz. Parameter werden sukzessive angepasst, um die Leistungen des Lerners zu optimieren. • Beispiel supervised learning mit Gradientenverfahren: Definiere eine Fehlerfunktion • E = || y – ysoll ||2 • Gradientenabstieg: Update für Parametervektor w: LernenVorlesung01-WS06 / 07
Beispiel lineare Regression y y = ax + b x • Lerner durch Funktionsansatz y = ax + b mit Parametervektor w = (a,b)T gegeben. Gesucht beste Parameter, die Abweichung von den Datenpunkten minimieren: • Avanciertes Verfahren (nichlinear, hochdimensional, effektiv): Support-Vector-Machines LernenVorlesung01-WS06 / 07
Vorschau • Im folgenden zunächst neuronale Netze als Beispiele für parameteradaptive Lernverfahren behandelt. LernenVorlesung01-WS06 / 07
Einige Bilder LernenVorlesung01-WS06 / 07
Neuronen Mathematisches Modell des Neurons : w1 x1 z y xn LernenVorlesung01-WS06 / 07
Neuronale Netze LernenVorlesung01-WS06 / 07