660 likes | 839 Views
Machinaal leren. Opdracht 1. Deadline: Vandaag, om 12u!. Verwerven. Waar zijn we nu?. machinaal leren. gesuperviseerd leren. Gesuperviseerd leren: classificatie. oefenen. classificatie-principes. Voorbeelden. Hoe goed hebben we geleerd?. Nieuwe voorbeelden. toetsen.
E N D
Opdracht 1 Deadline: Vandaag, om 12u!
Verwerven Waar zijn we nu? machinaal leren gesuperviseerd leren
Gesuperviseerd leren: classificatie oefenen classificatie-principes Voorbeelden Hoe goed hebben we geleerd? Nieuwe voorbeelden toetsen classificatie-principes
Classificatie: technieken • Begin met een model. • Herhaal. • Gegeven een voorbeeld pas het model aan. • Stop als • er geen voorbeelden meer zijn, of • het model inconsistent is. • versieruimtes • beslisbomen • statistische modellen • inductief leren • …
Bierdrinkerprobleem • De bierdrinker • proeft verschillende soorten pils • geeft aan of het hem smaakt • Doel: • geef een raad welk pilsje hem zal smaken (classificatieprincipe) • gegeven nieuwe pilssoorten voorspel of ze gaan smaken
+ - + - - - Het model dekt alle positieve voorbeelden en geen enkel negatief voorbeeld. Alle mogelijke situaties
Het model dekt alle positieve voorbeelden en geen enkel negatief voorbeeld. Alle mogelijke situaties + + + - - + - -
Meerdere modellen? Alle mogelijke situaties + + + - - + - -
+ + + - - + - - Vlugge Vraag Allen de positieve voorbeelden zijn goed Alles behalve de negatieve voorbeelden is goed • Zijn dat goede modellen? • Ja • Nee
+ - + + + - - + - - - + - - Wat verwachten we van een model? dekt de positieve voorbeelden dekt de negatieve voorbeelden niet kan positief/negatief goed voorspellen door een hypothese op te stellen
Hypotheseruimte • Vaste taal om modellen om te schrijven • Model is een hypothese in de ruimte • Forceert veralgemening • Vermijdt “nutteloze” modellen • Hypotheses kunnen mekaar veralgemenen of verfijnen
Hypotheseruimte > • Voor ieder attribuut: • Hypothese – verzameling voorbeelden: • Blonde 5% soorten [>,5%,Blond, >,>] • Stella [Stella Artois, 5%, Blond, Bitter, ja] • Speciale hypothese: ? … waarde 1 waarde n ?
Minimale veralgemening • [z1, …, zn] is een minimale veralgemening van [x1,…, xn] en [y1,…, yn] • voor ieder paar (xi, yi) vind zi zodanig dat • zi xi, zi yi en • voor ieder z (z xi, z yi) (z zi) • Vanaf hier spreken we van veralgemening ipv minimale veralgemening
Vlugge Vraag > Gegeven hypotheseruimte voor ieder attribuut: Hoeveel > zijn er in de veralgemening van [4,9%, Goudgeel, Lichtbitter] en [5%, Goudgeel, Bitter] ? … waarde 1 waarde n ? • geen • één • twee • drie
[>, >,Blond, Lichtbitter, ja] [Jupiler, 5,2%, Blond, Lichtbitter, ja] ?
Vlugge Vraag > • Andere hypotheseruimte • Positieve en negatieve voorbeelden Wat leert “Find S”? • informaticus • student student informaticus wiskundige Jan Marijke Geert ?
Problemen met “Find S” • Kan inconsistente situaties missen • Kan niet uitdrukbare situaties missen • Kan zich niet deterministisch gedragen • Kan verkeerde hypothese kiezen tov de negatieve voorbeelden student Jan Marijke Geert ?
Een betere oplossing… • Positieve en negatieve voorbeelden • Model: ({a1, …, an}, {s1, …, sm}) • deel van de hypotheseruimte • algemene hypothesen {a1, …, an} • specifieke hypothesen {s1, …, sm} • dekken alle hypothesen die • meer specifiek () zijn dan een zekere ai • meer algemeen () zijn dan een zekere sj
Vlugge Vraag > • Hoeveel hypothesen telt het model (>, {Marijke, Geert})? • 5 • 6 student informaticus wiskundige Jan Marijke Geert ?
[>, >, >, >, >] [Jupiler, 5,2%, Blond, Lichtbitter, ja] ?
[>, >, >, >, >] [Jupiler, >, >, >, >] … [>, >, >, >, nee] [Jupiler, 5,2%, Blond, Lichtbitter, ja] ?
[>, >, >, >, >] [>, >, >, >, nee] … [Jupiler, >, >, >, >] 5 biersoorten + 4 alcoholgehaltes + kleur + smaak + geen blik = 12 mogelijkheden [Jupiler, 5,2%, Blond, Lichtbitter, ja] ?
Maar… S tot nu toe: {[Jupiler, 5,2%, Blond, Lichtbitter, ja]}
Maar… S tot nu toe: {[Jupiler, 5,2%, Blond, Lichtbitter, ja]}
Versieruimtes algoritme 2 Verfijn alle A z.d. iedere nieuwe algemene hypothese is een veralgemening van een specifieke hypothese. Zoals voor de negatieve vb.
[>, >, >, >, >] [>, >, >, Lichtbitter, >] [Jupiler, >, >, >, >] [>, 5,2%, >, >, >] [Jupiler, 5,2%, Blond, Lichtbitter, ja] ?
[>, >, >, >, >] [>, >, >, Lichtbitter, >] [>, 5,2%, >, >, >] [Jupiler, >, >, >, >] Dekken het nieuwe voorbeeld niet [>, >, Blond, Lichtbitter, ja] [Jupiler, 5,2%, Blond, Lichtbitter, ja] ?
[>, >, >, >, >] [>, >, >, Lichtbitter, >] [>, >, Blond, Lichtbitter, ja] [Jupiler, 5,2%, Blond, Lichtbitter, ja] ?
[>, >, >, >, >] Vlugge Vraag [>, >, >, Lichtbitter, >] ? • [>, >, Blond, Lichtbitter, >] • [>, >, Blond, >, ja] • [>, >, >, Lichtbitter, ja] [>, >, Blond, Lichtbitter, ja] [Jupiler, 5,2%, Blond, Lichtbitter, ja] ?
[>, >, >, >, >] [>, >, Blond, Lichtbitter, >] [>, >, >, Lichtbitter, >] [>, >, Blond, Lichtbitter, ja] Hetzelfde hypothese! [>, >, Blond, Lichtbitter, ja] [Jupiler, 5,2%, Blond, Lichtbitter, ja] Blonde lichtbittere pilssoorten in blik! ?
Versieruimtes • Houdt rekening met pos en neg voorbeelden • Behandelt pos en neg op hetzelfde manier • Kan waarde voorspellen zelfs als het concept niet volledig geleerd is • Kan “het meest interessante voorbeeld” kiezen • Kan niet tegen ruis • Eist veel verschillende eigenschappen • Past niet als er meerdere klassen zijn
Waarde voorspellen als het concept niet volledig geleerd is [>, >, >, >, >] [>, >, Blond, Lichtbitter, >] [>, >, >, Lichtbitter, >] [>, >, Blond, Lichtbitter, ja] [Jupiler, 5,2%, Blond, Lichtbitter, ja] Wij weten al dat Bavik niet gaat smaken! ?
“Het meest interessante voorbeeld” kiezen [>, >, >, >, >] [>, >, >, Lichtbitter, >] [>, >, Blond, Lichtbitter, >] Voorbeeld = scheiding van hypotheses [>, >, >, Lichtbitter, ja] [>, >, Blond, Lichtbitter, ja] Interessante voorbeeld: ~50% vd hypotheses: “positief”, ~50% vd hypotheses: “negatief” [Jupiler, 5,2%, Blond, Lichtbitter, ja] ?
Vlugge Vraag A [>, >, >, >, >] [>, >, >, Lichtbitter, >] [>, >, Blond, Lichtbitter, >] Welke voorbeeld is beter: [>, >, >, Lichtbitter, ja] A B B of ? [>, >, Blond, Lichtbitter, ja] [Jupiler, 5,2%, Blond, Lichtbitter, ja] ?
Classificatie: technieken Wat is dat? Hoe bouw je zo’n boom? • versieruimtes • beslisbomen • statistische modellen • inductief leren • …
Beslisbomen voor classificatie kleur • Boom • knopen: eigenschappen • kanten: waarden • bladeren: klassen blond goudgeel amber bitterheid - - lichtbitter bitter verpakking - Voordeel: disjuncties! blik fles + -
ID3(Voorbeelden, Eigenschappen, Klassen) • Voorbeelden = - Boom met één knop “Fail” • kKlassen vVoorbeelden klasse(v)=k - Boom met één knop k 3. Eigenschappen = - Boom met één knop k, z.d. k het meest voorkomende klasse is in Voorbeelden 4. Anders, kies eEigenschappen - Waarden van e: w1, …, wn. - Splits Voorbeelden in V1, …, Vn z.d. vVi klasse(v) = wi - Boom met wortel: e kanten: w1, …, wn. subbomen: ID3(V1, Eigenschappen\{e}, Klassen),…, ID3(Vn,Eigenschappen\{e}, Klassen)
Vlugge Vraag Wat is de maximale diepte van een beslisboom gebouwd door ID3(Voorbeelden, Eigenschappen, Klassen)?
Kiezen van een eigenschap • Doel: zo ondiep mogelijke beslisboom • Keuze van e: • afhankelijk van Voorbeelden • moet ons zo veel mogelijk informatie opleveren • het is niet hetzelfde informatie als in {gegevens, informatie, kennis}
Informatietheorie in een notendop (1) • Zelfinformatie van een gebeurtenis • Entropie = verwachting van de zelfinformatie • Entropie van een verzameling = entropie tov kans dat een voorbeeld bij een klasse hoort Claude E. Shannon 1916-2001
Informatietheorie in een notendop (2) • Entropie van een verzameling, dus • Bereken H(Voorbeelden) • 10 voorbeelden • 2 klassen (5 en 5)
Vlugge Vraag Informatietheorie in een notendop • Informatiewinst op eigenschap e dieVoorbeelden in V1, …, Vn opsplitst Welke eigenschap geeft meer winst? A. Leeftijd B. SW/HW
Dus • Kies e z.d. Gain(Voorbeelden,e) het grootst is. leeftijd nieuwe oud mid winst verlies alt? nee ja winst verlies
Huiswerk 15 • ID3 kan verbeterd worden • Verbeterde versies heten C4.5 en C5.0 • Bespreek de optimalisaties van C4.5 en/of C5.0. • Geef een voorbeeld die de voordelen van C4.5/C5.0 tov ID3 aantoont. • In te leveren ten laatste op 5 juni 2007
Classificatie: technieken Lineaire modellen met kleinste kwadraten. k dichtstbijzijnde buren • versieruimtes • beslisbomen • statistische modellen • inductief leren • …