130 likes | 234 Views
Computer Vision. Klassifizierung, Boosting Yun-Yi Lisa Wang wangyu@in.tum.de 08.07.2004. Übersicht. Motivation Wozu braucht man Klassifizierung Grundlagen Was ist Klassifizierung Entscheidungsgrenze finden Methoden zum Bau von Klassifikatoren Klassifizierung mittels Histrogramm
E N D
Computer Vision Klassifizierung, Boosting Yun-Yi Lisa Wang wangyu@in.tum.de 08.07.2004
Übersicht • Motivation • Wozu braucht man Klassifizierung • Grundlagen • Was ist Klassifizierung • Entscheidungsgrenze finden • Methoden zum Bau von Klassifikatoren • Klassifizierung mittels Histrogramm • Auswahl der Merkmale • Verbesserung durch Boosting • Fazit
Motivation • Fahrerassistenzsystem • Mensch-Maschine-Schnittstelle Spracherkennung, Mimikerkennung
Klassifizierung Was sind • Merkmale • Labeling • Klassen • Trainingsbeispiele • Trainingsmenge • Entscheidungsgrenze
Entscheidungsgrenze finden • Verlustfunktion • Gesamtrisiko berechnen • Gesamtrisiko minimieren
Methode mit Normalverteilung Parameter der Normalverteilung für Klasse k • Mittelwert • Varianz Aktion: Klassifizierung von Stichprobe x • wähle die Klasse mit der geringsten Distanz zu x • verwende dabei Mahalanobis Distanz
Mahalanobis Distanz Unterschiedliche Gewichtung des Abstandsmaßes • die Distanz hat ein größeres Gewicht in der Richtung der kleineren Abweichung • die Distanz hat ein kleineres Gewicht in der Richtung der größeren Abweichung
Methode mit „Nearest Neighbours“ • k nächste Nachbarn suchen • Einfache Mehrheit muss mehr als l sein
Klassifikator mittels Histogramm Wahrscheinlichkeitsmodell durch Histogramm Vor- und Nachteil verglichen mit Normalverteilung: Vorteil: realitätsnäher Nachteil: rechenaufwendiger
Auswahl der Merkmale Anforderungen: • Eindeutig für die Klasse • Invariant zur Veränderungen • Nicht zu viele auch nicht zu wenige Merkmale Verschiedene Einheiten • Länge: im Pixel • Grauwert: • Winkel:
Verbesserung mit Boosting • Erster Boosting Algorithmus aus dem Jahr 1989 • Zur Zeit: Adaboost • Grundidee des Trainings: Wir wollen t-mal trainieren, wobei t = T • Alle Trainingsdaten haben anfangs gleiches Gewicht • Geringste Fehlerwahrscheinlichkeit suchen • Damit Hypothese ht und deren Faktor αt feststellen • Gewicht für falsch klassifizierte Daten erhöhen • Wenn t < T : goto 2 • End-Hypothese: ∑ ht * αt
Beispiel für Boosting http://www.cs.technion.ac.il/~rani/LocBoost/index.html
Fazit • Linearer Klassifikator • Dynamic Time Warping (Dynamische Programmierung) • Hidden Markov Modelle (HMM) • Artificial Neural Network (ANN) x Klassifikator Trainingsmenge y