1 / 34

Vortrag zur Definitionsextraktion mit Evolutionären Algorithmen

Vortrag zur Definitionsextraktion mit Evolutionären Algorithmen. von Christian Wellner. Referenz: Claudia Borg, Mike Rosner, Gordon Pace (2009): Evolutionary Algorithms for Definition Extraction In: Workshop on Definition Extraction 2009 , Borrovets, Bulgaria, pp. 26-32. Überblick.

eagan
Download Presentation

Vortrag zur Definitionsextraktion mit Evolutionären Algorithmen

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Vortrag zur Definitionsextraktion mit Evolutionären Algorithmen von Christian Wellner

  2. Referenz: Claudia Borg, Mike Rosner, Gordon Pace (2009): Evolutionary Algorithms for Definition Extraction In: Workshop on Definition Extraction 2009, Borrovets, Bulgaria, pp. 26-32.

  3. Überblick • Definitionsextraktion • Schritt 1: Merkmalsfindung • Schritt 2: Merkmalsgewichtung • Kombination der Schritte • Fazit

  4. Definitionsextraktion • Als „Definitionsextraktion“ wird das Auslesen von Definitionen aus einem Text bezeichnet • Dieser Satz war bereits eine solche Definition • Die gesammelten Definitionen werden in einem Glossar zusammengefasst • Teilaufgabe des Information Retrieval • Sehr (zeit-)aufwendig „per Hand“ durchzuführen

  5. Definitionsextraktion • Bisheriger Ansatz: Erkennung von einfachen Mustern, durch Menschen erstellt • [X] ist ein [Y] • [Y] wird als [X] bezeichnet • … • Halbwegs akzeptable Performanz bei gut strukturierten Texten • vor allem Lehrbücher

  6. Definitionsextraktion • Wird umso komplizierter, je freier die linguistische Form des Textes • Mehr Muster werden benötigt, um hohe Abdeckung zu erreichen • Jedes zusätzliche Muster kann die Präzision verringern • Muster sind sehr unflexibel (keine Gewichtung) • Für die meisten Textsorten liefert reine Mustererkennung schlechte Ergebnisse

  7. Definitionsextraktion • Neuer Ansatz: Evolutionäre Algorithmen • Zwei dieser Verfahren werden benutzt • Die Genetische Programmierung zum Finden geeigneter Merkmale • Der Genetische Algorithmus zur Gewichtung der Merkmale

  8. Genetischer Algorithmus • Basiert auf evolutionären Prinzipien • Verwendet einfache Arrays als Individuen • Schnellstes evolutionäres Verfahren • Allerdings sehr beschränkter Suchraum

  9. Genetische Programmierung • Basiert auf evolutionären Prinzipien • Verwendet Bäume (Programme) als Individuen • Extrem umfangreicher Suchraum • Allerdings entsprechend langsamer

  10. Das System • Ein annotiertes Trainingsset wird vorausgesetzt • Durch Menschen vorgenommene Schritte sind optional und dienen der Kontrolle und Optimierung • Das eigentliche System arbeitet völlig automatisch

  11. Merkmalsfindung mit GP • Individuen • Reguläre Ausdrücke • Basiselemente: Part-of-Speech-Tags • Geben, angewandt auf einen Satz, einen Wahrheitswert zurück (Matching) • z.B. DET ? . Adj* . N . Vfin • Eine Pflanze wächst. -> true

  12. Merkmalsfindung mit GP • Verwendete Struktur:

  13. Merkmalsfindung mit GP • Operatoren: • sfeature ? = Optionalität • sfeature * = Kleene-Hülle • sfeature . sfeature = Verkettung • sfeature + sfeature = Alternative • sfeature & feature = Konjunktion

  14. Merkmalsfindung mit GP • Fitnessfunktion • Wie gut matcht das Individuum die Sätze aus dem Trainingsset? • F-Score wird berechnet • Tendiert dazu, nur Regeln auszuwählen, die mehrere Sätze abdecken

  15. Merkmalsfindung mit GP • Experimente • 200 – 1000 Individuen • Variation der linguistischen Objekte (lobj) • Spezieller: mit einzelnen Vokabeln (‚to define‘ etc.) • Genereller: Zusammenfassung ähnlicher POS-Tags (z.B. aller Nomen)

  16. Merkmalsfindung mit GP • Experimente • Ergebnis, aufgeteilt in 3 Kategorien: • Speziellere linguistische Objekte brachten in der Regel bessere Ergebnisse

  17. Merkmalsfindung mit GP • Zwischenergebnis: • Merkmalsfindung mit GP erzielt allein für sich auch keine wirklich überzeugenden Ergebnisse • Aber immerhin Automatisierung • Und geringere Chance, dass ein gutes Muster übersehen wird

  18. Merkmalsgewichtung mit GA • Individuen • Merkmalsvektoren • Jedem Merkmal wird ein Gewicht zugeordnet • „Compound Feature“: Addition aller Werte eines Individuums Compound Feature = 6

  19. Merkmalsgewichtung mit GA • Fitnessfunktion • Das Individuum wird auf jede Trainingsinstanz angewendet • Das Compound Feature für die wahren Features einer Instanz wird berechnet • Wird ein bestimmter Wert T überschritten, wird das Individuum als Definition getaggt • F-Score wird berechnet

  20. Merkmalsgewichtung mit GA • Der Wert T („treshold“) • Option 1: Fixer Wert (z.B. 0) • Option 2: Teil des Chromosoms • Sehr unpraktisch, da nur Single-Point-Crossover verwendet wird • Option 3: Berechnung eines Optimalwerts für jedes Individuum • Option 3 erwies sich als erfolgreicher

  21. Merkmalsgewichtung mit GA • Experimente • Mit 10 einfachen Features • Contains a form of „to be“ • Has sequence „is a“ • Has sequence „[Foreign Word] is“ • Has possessive pronoun • Has punctuation in the middle of the sentence • Has a marked term (keyword) • Has rendering (italic, bold) • Has a chunk marked as organization • Has a chunk marked as person • Has a chunk marked as location

  22. Merkmalsgewichtung mit GA • Experimente • 3 verschiedene Experimente (1, 2, 3) • das erste mit variierten Parametern, um Recall bzw. Precision zu favorisieren (1a, 1b) • Parameter wurden nicht genau spezifiziert, vermutlich die Mutations-, Selektions- und Crossover-Algorithmen

  23. Merkmalsgewichtung mit GA • Experimente • Ergebnis:

  24. Merkmalsgewichtung mit GA • Vergleich mit Standard-Verfahren • Manuell erstellte Regeln ohne Gewichtung • Steigerung der Precision von 17% auf 62% • Kein Vergleichswert für Recall angegeben • In verwandten Experimenten ist ~30% Precision und ~70% Recall üblich (~42% F Measure) • Es sind jedoch auch höhere Werte möglich

  25. Merkmalsgewichtung mit GA • Zwischenergebnis: • Gewichtung der Merkmale verbessert die Performance spürbar • Auch mit nur 10 handgeschriebenen Regeln schon ein überdurchschnittliches Ergebnis • Überlegene Systeme müssen sehr viel aufwendiger erstellt werden

  26. Kombination der Schritte • Nochmal das System: • Experiment: 10 der Is-A-Merkmale aus der GP werden mit dem GA gewichtet

  27. Kombination der Schritte • Ergebnis: • F-Score steigt von 28% auf 68% ! • Recall steigt dabei von 39% auf 51% • Precision steigt dabei von 22% auf 100% !

  28. Fazit • Precision von 100%? • Klingt ziemlich gut • Könnte aber darauf verweisen, dass das System nur auswendig lernt • Und somit nicht auf andere Daten anwendbar ist • Auf jeden Fall unsauberes Design: Trainingsdaten werden mehrmals verwendet

  29. Fazit • Precision von 100%? • Könnte aber auch daran liegen, dass nur Is-A-Merkmale verwendet wurden • „Leichteste“ Kategorie • Muss noch durch weitere Experimente genauer untersucht werden

  30. Fazit • Dagegen Recall von 51% • Andersherum wäre wünschenswerter • Precision kann leicht „nachträglich“ erhöht werden, indem ein Mensch die Ergebnisse durchsieht • Das geht für den Recall nicht • Mögliche Verbesserungen: • „Liberalere“ Merkmalsfindung • Verwendung von mehr als 10 Merkmalen • und von zusätzlichen, menschgemachten

  31. Fazit • „überwachtes“ System • Linguistische Objekte werden manuell gewählt • zusätzliche Merkmale werden vorgegeben • Ergebnis wird manuell überprüft • Trade-off von Precision und Recall

  32. Fazit • Nicht angesprochen: Rechenzeit • In der Trainingsphase vermutlich sehr hoch! • In der Testphase vermutlich nur unwesentlich höher als bei der Mustererkennung • Also ein „Eager Learner“ • Für die Aufgabe eine angemessene Zeitverteilung • Lernphase muss nur einmal durchlaufen werden

  33. Fazit • Menschlicher Aufwand • Sehr stark steuerbar • Im Extremfall nicht viel kleiner als bisher • Dabei allerdings bessere Ergebnisse, vor allem durch Merkmalsgewichtung • Und höhere Objektivität • Insgesamt ein nützlicher, wenn auch nicht unbedingt bahnbrechender, Ansatz

  34. Vielen Dank für die Aufmerksamkeit!

More Related