450 likes | 646 Views
Data Mining. Definition, Anwendungsbespiele Data Mining Prozess Data Mining Cup 2001 2002 2003 . Datenquellen, Datensenken und die Wüste. vorhandene Daten. benötigte Daten. Nachfrage. gewünschte Daten. Definition Data Mining. Data Mining
E N D
Data Mining • Definition, Anwendungsbespiele • Data Mining Prozess • Data Mining Cup • 2001 • 2002 • 2003
Datenquellen, Datensenken und die Wüste vorhandene Daten benötigte Daten Nachfrage gewünschte Daten
DefinitionData Mining Data Mining „ is the nontrivial extraction of implicit, previous unknown and potentially useful information from data“ William J. Frawley Gregory Piatetsky-Shapiro,
Leistungsmerkmale • Hypothesenfreiheit • Automatisierte Vorhersage von Trends, Verhalten und Mustern • Automatisierte Aufdeckung unbekannter Strukturen • Zusatzkomponenten für Preprocessing und Ergebnisaufbereitung
Anwendungsbeispiele • Astronomie • Erdwissenschaften • Marketing • Investment • Betrugserkennung • Individualisierte Werbeanzeigen • Electronic Commerce • Datenschutz
Ansatz Tradi- tionell Hypothesen festlegen Methode entwickeln Datenbasis analysieren Ergebnisse verdichten Ergebnisse interpretieren Anwender Computer Experte Computer System Statistiker Anwender Data Mining Datenbasis analysieren Interessante Muster finden Ergebnisse interpretieren Anwender Data Mining System
DefinitionData Mining Data Mining „in databases is the non-trivial process of identifying valid, novel, potential useful, and ultimately understandable patterns in data“ William J. Frawley Gregory Piatetsky-Shapiro,
Informationsbedarf abhängig von der Aufgabe Veränderlichkeit Strukturiertheit
Preprocessing Analyse Interpretation Validierung Data Mining Prozeßmodell Ext Daten OLTP Data Warehouse
Data Mining Cup 2001Aufgabe Ein Versandhändler von Büromaterialien sendet regelmäßig allen seinen Kunden Informationsmaterial. Außerdem führt er größere Werbeaktionen durch, in die er jedoch nur einen Teil seiner Kunden einbezieht. Nach Möglichkeit sollen nur diejenigen Kunden beworben werden, die auf die Werbeaktion mit einer Bestellung reagieren. Bisher wurden 10.000 Kunden in eine Werbeaktion einbezogen, für 18.128 weitere Kunden ist noch zu entscheiden, ob sie in künftige Aktionen einbezogen werden. http://www.dfki.de/~damit/DMC2001/index.html
Kundenwertmatrix Die durchschnittlichen Kosten und Gewinne, die aus Werbung und den Bestellungen resultieren, können folgender Matrix entnommen werden: http://www.dfki.de/~damit/DMC2001/aufgabe_01.html
Mögliche Auswirkungen • Alle Kunden (18.128) angeschrieben, alle bestellen => 20 Mio Gewinn • Alle Kunden angeschrieben, keiner bestellt => 5 Mio Verlust • Die Hälfte angeschrieben, keiner davon bestellt, die andere Hälfte bestellt => 3.6 Mio Gewinn • Die Hälfte angeschrieben, alle bestellen, von der anderen Hälfte bestellt keiner => 10 Mio Gewinn
Vorhersage Ideal: Dieser Kunde wird bestellen, jener Kunde wird nicht bestellen Real: Dieser Kunde wird mit einer Wahrscheinlichkeit von p bestellen => Bei welcher Bestellwahrscheinlichkeit p soll der Kunde angeschrieben werden?
Optimale Bestellwahrscheinlichkeit Kunde wird einbezogen K1: p * 1.100 + (1-p)* (-265) Kunde wird nicht einbezogen K2: p * 625 + (1-p)* (-25) K1= K2 715 p = 240 => p = 0,33
Vorgehen Datenexploration Behandlung fehlender Werte Klassifikation mittels fallbasierten Schließens Klassifikation mittels Bayes‘scher Netze Klassifikation mittels Entscheidungsbäumen Aggregation der Ergebnisse
Merkmale http://www.data-mining-cup.de/2001/aufgabe.html AKTIV 0/1 Zielmerkmal 0 positiv (ist aktiver Kunde) 1 negativ (ist kein aktiver Kunde) WO Text West/Ost/Fehlend Standort des Kunden (Merkmale mit unterschiedlicher Skalierung in Abhängigkeit dieses Merkmals sind in der Beschreibung angegeben; konkret ist dies hier nur bei Kaufkraft differenziert) Regiotyp 11,...,16 Regionaltyp 11 Kern von Ballungsgebieten 12 Rand von Ballungsgebieten 13 Kernstadt einer Region 14 Randgebiet einer Kernstadt 15 ländliche Zentren 16 Orte auf dem Land …
Fehlende Werte Zur Behandlung einzelner fehlender Werte boten sich drei Wege an: • Datensätze, in denen einer oder mehrere Werte fehlen, werden weggelassen. • Die fehlenden Werte werden durch die Mittelwerte beziehungsweise die Modalwerte des jeweiligen Merkmals ersetzt. • Es wird ein separates Vorhersagemodell zur Rekonstruktion der fehlenden Werte entwickelt und angewandt. Aufwand-Nutzen-Erwägungen folgend, wurde der zweite Weg beschritten: Fehlende Werte kategorischer Merkmale wurden durch den Modalwert, fehlende Werte numerischer Merkmale durch den arithmetischen Mittelwert des jeweiligen Merkmals ersetzt.
Fallbasiertes Schließen Fallbasiertes Schließen ist eine Methode zum Einsatz gesammelten Erfahrungswissens. Es beruht auf einer sehr einfachen Grundidee: Beim Lösen von Problemen entstehen Lösungen, die auch auf ähnliche Probleme angewandt werden können. Jedes gelöste Problem wird zusammen mit seiner Lösung in einer Falldatenbank gespeichert. Beim Auftreten eines neuen Problems wird die Falldatenbank nach ähnlichen Problemen durchsucht. Die Lösungen dieser ähnlichen Probleme kann dann auf das neue, noch ungelöste Problem übertragen werden.
Bayes‘sches Netz Ein Bayes'sches Netz ist ein gerichteter, azyklischer Graph; jeder Knoten des Graphen ist mit einer (bedingten) Wahrscheinlichkeitsverteilung attributiert. Die Knoten entsprechen Zufallsvariablen (Merkmalen); die Kanten des Graphen entsprechen kausalen Beziehungen zwischen den Zufallsvariablen. Die bedingten Wahrscheinlichkeitsverteilungen quantifizieren die kausalen Beziehungen. Sowohl die Struktur als auch die Attribute Bayes'scher Netze sind aus Daten erlernbar. Mittels geeigneter Verfahren kann über einem Bayes'schen Netz inferiert, also von bekannten Ausprägungen einiger Zufallsvariabler auf unbekannte Ausprägungen anderer Zufallsvariabler geschlossen werden. http://www.dfki.de/~damit/DMC2001/vorgehen_07.html
Entscheidungsbäume Entscheidungsbäume ordnen Objekte, die durch Mengen von Merkmalen beschrieben werden, einer Klasse zu. Alle Knoten und Kanten eines Entscheidungsbaumes sind markiert: die Blätter des Baumes mit der Klasse, die als Ergebnis zurückgegeben wird, die inneren Knoten mit dem Merkmal, nach dessen Ausprägung verzweigt wird, und die Kanten mit den Ausprägungen, die das Merkmal annehmen kann, das im Anfangsknoten der Kante steht. http://www.dfki.de/~damit/DMC2001/vorgehen_09.html
Ergebnisse • Fallbasiertes Schließen für große Ähnlichkeiten • Fünf unterschiedliche Entscheidungsbäume, dann nach Anzahl der Klassifikation „aktiv“
Data Mining Cup 2002Aufgabe Ein Energieversorger möchte mit zielgerichteten Kundenbindungsmaßnahmen seine Kunden halten. Dazu möchte er potenziellen Kündigern einen günstigeren Tarif (Tarif "Rabatt") anbieten. Da dieser Tarif für den Energieversorger einen geringeren Gewinn bedeutet, will er die vorraussichtlich treuen Kunden von diesem Angebot nicht infor-mieren, um nicht zu vielen von diesen Kunden den Tarif "Rabatt„ gewähren zu müssen. Ziel des Einsatzes von Data Mining ist es hierbei, die potenziellen Kündiger von den treuen Kunden zu unterscheiden. Potenziellen Kündigern wird dann der Tarif "Rabatt" angeboten, um sie damit zu binden. Insgesamt ist es für den Energieversorger deutlich günstiger, einen potenziellen Kündiger weiterhin im Tarif "Rabatt" zu versorgen als ihn ganz zu verlieren. http://www.dfki.de/~damit/DMC2002/index.html
Gegebene Daten Eigene Daten • payment_type (Art der Bezahlung) • power_consumption (letzter jährlicher Stromverbrauch in kWh) • hhh (Anzahl Haushalte im Haus) • hgew (Anzahl Gewerbe im Haus) Gekaufte Daten • Mikroselections-Merkmale (z.B. Kaufkraft, Straßentyp, Bebauungstyp, Familienstand, usw.) • PKW-Indices (z.B. PKW-Dichte, PKW-Leistungsindex, PKW-Kleinbusindex, usw.) • Psychonomics-Versicherungstypologien (z.B. Kundentypen, usw.) • Pharmatypologien (z.B. gesunder Kraftprotz, usw.)
Datensichtung • Aus Trainings- und Klassifikationsdaten gemeinsame Datenmenge • Für fehlende Werte Indikatorvariablen eingeführt • Umkodierung • Modalwert, Ausreißer abschneiden • Faktorenanalyse
Statistische Verfahren • Clusteranalyse • Kreuztabellen • Logistische Regression in Clustern
Test der Ergebnisse Mit einer Stichprobe aus den Trainingsdaten wurden Entscheidungsparameter bestimmt. Damit wurden die restlichen Daten der Trainingsmenge klassifiziert und der Kundenwert berechnet. Das Verfahren wurde mit 10 unterschiedlichen Stichproben wiederholt.
Data Mining Cup 2003 Aufgabe Um zumindest die durch Sichten und Löschen der Spams bei den Mitarbeitern verursachten Kosten zu minimieren, kann man Spam-Filter einsetzen. Diese können entweder bereits auf den Mail-Servern (wie etwa SpamAssassin) arbeiten oder auch in das E-Mail-Programm eines Nutzers integriert sein (ein Beispiel hierfür sind die aktuellen Versionen von Mozilla). Ziel dieser Programme ist eine möglichst gute Erkennung unerwünschter Mails, während erwünschte nicht herausgefiltert werden sollten. Im Rahmen des Wettbewerbs sollten Verfahren des Data-Mining angewandt werden, um eine möglichst gute Klassifikation in Spams und Nicht-Spams bei den Wettbewerbsdaten zu erreichen. http://www.dfki.de/~damit/DMC2003/index.html
Szenario Den Teilnehmern des Data-Mining-Cups wurden 8000 Datensätze mit Klassenzugehörigkeit zum Lernen eines Klassifikators zur Verfügung gestellt, sowie 11177 zu klassififizierende Datensätze, deren Klassenzugehörigkeit nur der Jury bekannt war. Ziel war es, aus diesen 11177 E-Mails möglichst gut alle Spam-Mails herauszufiltern. Die letztendliche Platzierung ergab sich aus der Anzahl der zugestellten Spams (Falsch-Negative), wobei als Nebenbedingung die Anzahl der versehentlich herausgefilterten Nicht-Spams (Falsch-Positive) 1% aller Nicht-Spam-Mails nicht überschreiten durfte. Teilnehmer, die diesen Prozentsatz überschritten, wurden in der Endwertung nicht berücksichtigt. Die Teilnehmer erhielten jedoch nicht die E-Mails selbst, sondern eine Reihe beschreibender Merkmale, wie sie der Open-Source Spam-Filter Spam Assassin verwendet.
Datensichtung 832 Merkmale ID-Anomalie: In hohen ID‘s nur noch Spam
Spam Assassin SpamAssassin prüft für jede E-Mail zunächst das Vorhandensein einer Reihe von Merkmalen. Dieser Merkmalsvektor entspricht den im Wettbewerb vorliegenden Daten. SpamAssassin ordnet jedem dieser Merkmale eine Gewichtung zu. Merkmale, die eher in Spams anzutreffen sind erhalten ein positives Gewicht, Merkmale, die eher dagegen sprechen, dass es sich um Spam handelt, ein negatives. Die genaue Höhe der Gewichte wird vom Autor des Programms mittels eines genetischen Algorithmus und einer großen Datenbank an E-Mails bestimmt, so dass sich eine möglichst gute Klassifikationsleistung mit diesen Daten ergibt.
Data Mining Cup 2004 Zeitplan Sofort: Anmeldung 15.4. Ausgabe der Aufgabe und der Daten 13.5. Abgabe der Ergebnisse 22.6. bis 24.6. Data Mining Cup