1 / 42

Konnektionismus 12. Sitzung (15.01.2009)

Konnektionismus 12. Sitzung (15.01.2009). apl. Prof. Dr. Ulrich Schade. Inhalt. Methodologie Techniken Einleitung und historischer Rückblick Spreading Activation Error Backpropagation Kohonen-Netze Anwendungen Sprachrezeption / Spreading Activation

tait
Download Presentation

Konnektionismus 12. Sitzung (15.01.2009)

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Konnektionismus12. Sitzung (15.01.2009) apl. Prof. Dr. Ulrich Schade

  2. Inhalt • Methodologie • Techniken • Einleitung und historischer Rückblick • Spreading Activation • Error Backpropagation • Kohonen-Netze • Anwendungen • Sprachrezeption / Spreading Activation • Sprachproduktion / Spreading Activation • Spracherwerb (?) / Error-Backpropagation (+) 4 „falsche Anwendungen“

  3. 3.3 Error-Backpropagation – Lautes Lesen Wir gehen zurück zu dem Beispiel Lautes Lesen. Die Eingabe besteht dabei aus (einer Sequenz von) Graphemen und die Ausgabe aus (einer Sequenz von) Phonemen. Ursprünglicher Artikel: Seidenberg, M.S. & McClelland, J.L. (1989). A distributed, developmental model of word recognition and naming. Psychological Review, 96, 523-568.

  4. 3.3 Error-Backpropagation – Lautes Lesen Wir betrachten zunächst das „klassische“ Gegenmodell nach Coltheart, M., Curtis, B., Atkins, P. & Haller, M. (1993). Models of reading aloud: Dual-route and parallel distributed processing. Psychological Review, 100, 589-608.

  5. 3.3 Error-Backpropagation – Lautes Lesen Das Gegenmodell heißt auch „Dual Route Model“, weil es drei Routen hat. Konzepte semantische Route Input- Lexikon Output- Lexikon lexikalische Route Orthographischer Input Phonologischer Output GPK

  6. 3.3 Error-Backpropagation – Lautes Lesen Frage: Wie lernt man die GPK-Regeln (klassisch) ? Eine solche Regel hat prinzipiell die Form Graphem  Phonem Auf der rechten Seite der Regel steht immer nur ein Zeichen. Auf der linken Seite steht das Graphem. Dieses besteht (im Englischen) maximal aus vier Buchstaben. Probleme können dadurch auftreten, dass die Regeln teilweise kontextsensitiv oder positionssensitiv sind.

  7. 3.3 Error-Backpropagation – Lautes Lesen Frage: Wie lernt man die GPK-Regeln (klassisch) ? Lernen: Wörter werden in zufälliger Reihenfolge präsentiert. Die Präsentationen bestehen aus Paaren • der Schriftform (in Buchstaben) und • der Lautform (Phonemsequenz). Der Algorithmus versucht dann, aus dem Paar die Regeln zu ermitteln, um damit die Regelsammlung zu aktualisieren.

  8. 3.3 Error-Backpropagation – Lautes Lesen Frage: Wie lernt man die GPK-Regeln (klassisch) ? Der Algorithmus versucht dann, aus dem Paar die Regeln zu ermitteln, um damit die Regelsammlung zu aktualisieren. Beispiel: Paar = „mint“ ; /mint/ abgeleitete Regeln: „m“  /m/ „i“  /i/ „n“  /n/ „t“  /t/

  9. 3.3 Error-Backpropagation – Lautes Lesen Frage: Wie lernt man die GPK-Regeln (klassisch) ? Der Algorithmus versucht dann, aus dem Paar die Regeln zu ermitteln, um damit die Regelsammlung zu aktualisieren. Steht eine Regel schon in der Regelsammlung, so wird der zugehörige Vorkommenzähler um „1“ erhöht; steht die Regel noch nicht in der Regelsammlung, wird sie eingetragen mit dem Vorkommenzähler = 1.

  10. 3.3 Error-Backpropagation – Lautes Lesen Frage: Wie lernt man die GPK-Regeln (klassisch) ? Beispiel: „mint“ ; /mint/ „pint“ ; /paInt/ Regeln: „m“  /m/ [1] (b) „p“  /p/ [1] (b) „i“  /aI/ [1] (m) „i“  /i/ [1] (m) „n“  /n/ [2] (m) „t“  /t/ [2] (e) Positionsmarker Vorkommenzähler

  11. 3.3 Error-Backpropagation – Lautes Lesen „Single Letter“-Regeln Stimmt bei einem Paar die Anzahl der Buchstaben mit der Anzahl der Phoneme überein [ wie bei „mint“ ; /mint/ ], so nimmt der Algorithmus an, dass die Buchstaben „eins zu eins“ in Phoneme überführt werden. So werden zahlreiche so genannte „Single Letter“-Regeln gewonnen.

  12. 3.3 Error-Backpropagation – Lautes Lesen „Multi Letter“-Regeln Hat das Wort mehr Buchstaben als Phoneme, muss eine Regel gefunden werden, in der wenigstens ein Graphem mit mehr als einem Buchstaben einem Phonem entspricht („Multi Letter“-Regel). Dabei wird versucht, zunächst „Single Letter“-Regeln zu nutzen, die schon in der Regelbasis enthalten sind.

  13. 3.3 Error-Backpropagation – Lautes Lesen „Multi Letter“-Regeln Beispiel 1: „eel“ ; /il/ Möglichkeit 1: „e“  /i/ „el“ /l/ Möglichkeit 2: „ee“  /i/ „l“  /l/ Resultat: Möglichkeit 2 ist besser. schon in der Regelbasis

  14. 3.3 Error-Backpropagation – Lautes Lesen „Multi Letter“-Regeln Beispiel 2: „blight“ ; /blaIt/ Möglichkeit 1: „b“  /b/ „l“  /l/ „i“  /aI/ „ght“  /t/ Möglichkeit 2: „b“  /b/ „l“  /l/ „ig“  /aI/ „ht“  /t/ Möglichkeit 3: „b“  /b/ „li“  /l/ „g“  /aI/ „ht“  /t/ Möglichkeit 4: „bl“  /b/ „i“  /l/ „g“  /aI/ „ht“  /t/ Möglichkeit 5: „b“  /b/ „l“  /l/ „igh“  /aI/„t“  /t/ Möglichkeit 6: „b“  /b/ „li“  /l/ „gh“  /aI/„t“  /t/ Möglichkeit 7: „bl“  /b/ „i“  /l/ „gh“  /aI/„t“  /t/

  15. 3.3 Error-Backpropagation – Lautes Lesen „Multi Letter“-Regeln Beispiel 2: „blight“ ; /blaIt/ Möglichkeit 8: „b“  /b/ „lig“  /l/ „h“  /aI/„t“  /t/ Möglichkeit 9: „bl“  /b/ „ig“  /l/ „h“  /aI/„t“  /t/ Möglichkeit 10: „bli“  /b/ „g“  /l/ „h“  /aI/„t“  /t/

  16. 3.3 Error-Backpropagation – Lautes Lesen „Multi Letter“-Regeln Beispiel 2: „blight“ ; /blaIt/ Am besten sind: Möglichkeit 1: „b“  /b/ „l“  /l/ „i“  /aI/ „ght“  /t/ und Möglichkeit 5: „b“  /b/ „l“  /l/ „igh“  /aI/„t“  /t/

  17. 3.3 Error-Backpropagation – Lautes Lesen „Multi Letter“-Regeln Beispiel 3: „gate“ ; /get/ Nach dem vorgestellten Verfahren gewinnt „g“  /g/ „a“  /e/ „te“  /t/ aber eigentlich „gilt“ „g“  /g/ „a_e“  /e/ „t“  /t/ Dies ergibt sich auch, wenn man die Restriktion fallen lässt, dass Graphemedurch benachbarte Buchstaben gebildet werden. höherer Rechenaufwand !!

  18. 3.3 Error-Backpropagation – Lautes Lesen Kontextsensitivität: Nach dem Lernen werden alle Regeln entfernt, die nicht wenigstens fünf Mal generiert wurden. (Der Grenzwert hängt natürlich davon ab, wie viele Wörter analysiert wurden.) Auch danach gibt es zahlreiche Fälle, bei denen einem Graphem mehr als eine Lesart zugeordnet wird. „question“ ergibt die Regel „u“  /w/ „but“ ergibt die Regel „u“  // („rule“ ergibt die Regel „u_e“  /u/)

  19. 3.3 Error-Backpropagation – Lautes Lesen Kontextsensitivität: Auch danach gibt es zahlreiche Fälle, bei denen einem Graphem mehr als eine Lesart zugeordnet wird. Häufig gilt die seltenere Regel nur in gewissen Kontexten: „u“ (preceeding context: „q“)  /w/ Es sei angemerkt, dass mit dem beschriebenen Algorithmus nur einige der kontextsensitiven Regeln gefunden werden. Nur die häufigste Regel verbleibt im Set zusammen mit den gefundenen kontextsensitiven Regeln.

  20. 3.3 Error-Backpropagation – Lautes Lesen Anwendung: Das resultierende Regelset beschreibt, wie Wörter „regulär“ ausgesprochen werden. Alle Wörter, die davon abweichen, sind Ausnahmewörter wie etwa „pint“ oder „coup“. Für die Ausnahmewörter Kann man zwar die Regeln ermitteln, aber der Teil der Regeln, der die Ausnahme betrifft, weist zu geringe Vorkommenshäufigkeiten auf.

  21. 3.3 Error-Backpropagation – Lautes Lesen Anwendung: Wörter: 2897 Korrekte Umsetzung durch die ermittelten Regeln: 78.17% Experiment (Vorschlag): Produzieren Menschen und der Algorithmus nach Ermittelten Regelbasis Pseudowörter in identischer Weise?

  22. 3.3 Error-Backpropagation – Lautes Lesen Im „Dual Route Model“ nutzt die untere Route die gelernten Regeln. Konzepte semantische Route Input- Lexikon Output- Lexikon lexikalische Route Orthographischer Input Phonologischer Output GPK

  23. 3.3 Error-Backpropagation – Lautes Lesen Dyslexien: (Lesestörungen nach Schlaganfall etc.) Man unterscheidet (die Reinformen) • Oberflächendyslexie • Lexikalische Dyslexie • Tiefendyslexie

  24. 3.3 Error-Backpropagation – Lautes Lesen Tiefendyslexie „oft“  „häufig“ Konzepte semantische Route Input- Lexikon Output- Lexikon Orthographischer Input Phonologischer Output

  25. 3.3 Error-Backpropagation – Lautes Lesen Lexikalische Dyslexie produziert Ausnahme- wörter korrekt; produziert keine Pseudowörter (?) Konzepte semantische Route Input- Lexikon Output- Lexikon lexikalische Route Orthographischer Input Phonologischer Output

  26. 3.3 Error-Backpropagation – Lautes Lesen Oberflächendyslexie produziert Pseudowörter; regularisiert Ausnahmewörter Konzepte semantische Route Input- Lexikon Output- Lexikon lexikalische Route Orthographischer Input Phonologischer Output GPK

  27. 3.3 Error-Backpropagation – Lautes Lesen Im Modell von Seidenberg und McClelland werden die GPK und die lexikalische Route zusammengefasst. (Dieses Modell hat zwei Routen, darum heißt es Ein-Routen-Modell.) Semantik Kontext semantische Route Input- Lexikon Output- Lexikon Orthographischer Input Phonologischer Output GPK + lexikalische Route

  28. 3.3 Error-Backpropagation – Lautes Lesen In dem Modell von Seidenberg und McClelland sowie den davon abgeleiteten Nachfolgemodellen sind die beiden unteren Routen (die lexikalische Route und die GPK) zu einer einzigen Route verschmolzen. Die GPK-Fähigkeiten, also insbesondere die Fähigkeit, Pseudowörter zu lesen, ergibt sich damit als Generalisierungsleistung aus dem erlernten Lesen diverser Wörter. Die lexikalische „Route“ ist damit das gelernte Wissen zu einzelnen Wörtern; die GPK die Generalisierung davon. Daraus folgt, dass Oberflächen- dyslexie und Lexikalische Dyslexie weniger gut trennbar sind.

  29. 3.3 Error-Backpropagation – Lautes Lesen • Lesen von Pseudowörtern Mensch 93% Übereinstimmung Klass. Modell 90% Entsprechung Konn. Modell 65% Entsprechung (Modell hat zu wenig Wörter gelernt.) • Läsionen Oberflächendyslexie kein Zugriff auf Semantik

  30. 3.3 Error-Backpropagation – Lautes Lesen Es gibt einen prinzipiellen Unterschied zwischen den beiden Modellierungsansätzen. Das „Dual Route“-Modell (Coltheart) bezieht sich auf eine bestimmte kognitive Leistung. Die darüber bekannten Fakten sind in das Modell eingeflossen Und über diese Fakten wird auch beurteilt, wie gut das Modell ist (Kriterium der Beschreibungsadäuquatheit). Das PDP-Modell resultiert dagegen aus einem allgemeinen Ansatz, der angewendet wird, unterschiedliche kognitive Prozesse zu modellieren.

  31. 3.3 Error-Backpropagation – Lautes Lesen Dem PDP-Modell gelingt es daher weniger gut, die tatsächlichen Daten nachzubilden. Das Modell führte aber (daher ?) vielfach zu Denkanstößen, die die Wissenschaft weitergebracht haben. vgl. Seidenberg & Plaut: Progress in Understanding Word Reading: Data Fitting vs. Theory Building. http://www.cnbc.cmu.edu/~plaut/papers/pdf/SeidenbergPlautIPchap.dataFitting.pdf

  32. 3.3 Error-Backpropagation – Lautes Lesen Die meisten Patienten haben Mischformen der Dyslexien. Insofern zeigen selbst Patienten mit einer Tiefendyslexie Abweichende Reaktionsmuster beim lauten Lesen. Diese Abweichungen ergeben sich daraus, welche der Komponenten – zusätzlich zu den/der gestörten direkten Verbindung/en – noch angegriffen sind.

  33. 3.3 Error-Backpropagation – Lautes Lesen Tiefendyslexie Störung in der Konzeptualisierung Störung in der Rezeption Konzepte Störung in der Produktion semantische Route Input- Lexikon Output- Lexikon Orthographischer Input Phonologischer Output

  34. 3.3 Error-Backpropagation – Lautes Lesen Störung in der Konzeptualisierung Störung in der Produktion Störung in der Rezeption

  35. 3.3 Error-Backpropagation – Lautes Lesen Hinton, G.E. & Shallice, T. (1991). Lesioning an attractor network: Investigation of acquired dyslexia. Psychological Review, 98, 74-95. Rekurrentes Backpropagation-Netzwerk • 40 Wörter mit drei bzw. vier Buchstaben • Semantische Schicht: 68 semantische Merkmale (Vektor) • doppeltes Training • Läsion: Weglassen von Knoten oder Verbindungen

  36. 3.3 Error-Backpropagation – Lautes Lesen Hinton, G.E. & Shallice, T. (1991). Lesioning an attractor network: Investigation of acquired dyslexia. Psychological Review, 98, 74-95. zusätzliche Störungen in der Rezeption: visuelle Fehler („sword“  „words“) zusätzliche Störungen in der Konzeptualsierung: semantische Fehler („cheer“  „laugh“) beides: („paper“  „laugh“ / „sympathy“  „orchestra“)

  37. 3.3 Error-Backpropagation – Lautes Lesen Plaut, D. & Shallice, T. (1991). Effects of word Abstractness in a Connectionist Model of Deep Dyslexia. Proc. Of the 13th Annual Meeting of the Cognitive Science Society, Chicago, IL, Aug. 1991, pp. 73-78. http://www.cnbc.cmu.edu/~plaut/papers/pdf/PlautShallice91CogSci.deepDyslexia.pdf d 10 Knoten e 98 Knoten c b 10 Knoten 10 Knoten 10 Knoten a 32 Knoten 61 Knoten

  38. 3.3 Error-Backpropagation – Lautes Lesen Plaut, D. & Shallice, T. (1991). Rekurrentes Backpropagation-Netzwerk • 40 Wörter mit vier Buchstaben [tart, tact, grin, gain, flan, plan, reed, need, tent, rent, lock, lack, hind, hint, loon, loan, face, fact, rope, role, wave, wage, case, ease, deer, deed, hare, hire, flea, plea, flag, flaw, coat, cost, lass, loss, star, stay, post, past] • Semantische Schicht: 98 semantische Merkmale (Vektor) • doppeltes Training • Läsion: Weglassen von Verbindungen (nur Rezeption und Konzeptualisierung)

  39. 3.3 Error-Backpropagation – Lautes Lesen Plaut, D. & Shallice, T. (1991). „copy“ d 10 Knoten e „clean-up“ 98 Knoten c „clean-up“ b 10 Knoten 10 Knoten 10 Knoten a 32 Knoten 61 Knoten

  40. 3.3 Error-Backpropagation – Lautes Lesen Was ist der Unterschied Zwischen konkreten Wörtern und abstrakten? a b d e „chance“

  41. 3.3 Error-Backpropagation – Lautes Lesen Ergebnisse: Es gibt mehr visuelle Fehler bei „abstrakten“ Wörtern und mehr semantische Fehler bei „konkreten Wörtern“. Konkrete Wörter haben eine „breitere“ (überlappende) Repräsentation in der Semantik. Abstrakte Wörter sind dort „schärfer“ repräsentiert.

  42. 3.3 Error-Backpropagation – Lautes Lesen Ergebnisse: Störungen der Semantik treffen stärker konkrete Wörter; Störungen in der Rezeption eher abstrakte.

More Related