1 / 76

Jumalan (epä)todennäköisyys

Teorioiden monimutkaisuus, evidenssi ja todennäköisyys minimikuvausmenetelmän avulla. Jumalan (epä)todennäköisyys. Robert J. Brotherus PJ Vapaa-Ajattelijain liitto FL (Fysikaalinen Kemia). Mies tynnyrissä. Oletetaan tynnyrissä kasvanut mies Ei mitään kokemuksia

laban
Download Presentation

Jumalan (epä)todennäköisyys

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Teorioiden monimutkaisuus, evidenssi ja todennäköisyys minimikuvausmenetelmän avulla Jumalan (epä)todennäköisyys Robert J. BrotherusPJ Vapaa-Ajattelijain liittoFL (Fysikaalinen Kemia)

  2. Mies tynnyrissä • Oletetaan tynnyrissä kasvanut mies • Ei mitään kokemuksia • Ei evidenssiä minkään teorian puolesta tai vastaan • Mihin miehen kannattaisi uskoa? • Mikä olisi hänen näkökulmastaan todennäköistä? • Mikä epätodennäköistä? • Jumalan olemassaolo? • Evidenssi voi vahvistaa tai heikentää teorioita, mutta mikä on niiden lähtökohtainen todennäköisyys kun ei ole mitään evidenssiä? • Vihje: Ei: “Ei voida sanoa mitään” • Vihje: Ei 50%  • Vihje 2: Riippuu teoriasta (mutta miten?)

  3. Esitelmän rakenne • Todennäköisyyden lajit • Tieteellisen skeptismin ongelmia • Minimukuvausmenetelmä ja todennäköisyys • MDL-menetelmän seurauksia ja sovelluksia • Tieto, usko, luulo, oppiminen, Occamin partaveitsi, Humen puntari, yliluonnollinen, Jumala,… • Johtopäätökset • Selkeämpi pohja tieteelliselle skeptismille ja ateismille

  4. Todennäköisyyden lajit 1. Tulevaisuuteen liittyvä kvanttimekaanisesta sattumasta ja/tai systeemien kaoottisuudesta johtuvaa epävarmuutta • Cesium-atomin hajoaminen sekunnin aikana • Einstein: “Jumala ei heitä noppaa” • Mutta aitoa satunnaisuutta silti! • EPR-koe • Säätila Helsingissä 100 vuoden kuluttua • Luonteeltaan objektiivinen: sama kaikille toimijoille • Ei käsitellä tässä esitelmässä

  5. Todennäköisyyden lajit 2. Menneisyyteen tai nykyisyyteen liittyvää tiedon puutteesta johtuvaa epävarmuutta • Bayesian probability / statistics. • Esim. TN että Brutus murhasi Caesarin. • Esim. TN että peitetty noppa on asennossa "6" • Esim. TN että maapallolla on vieraillut UFOja. • Esim. TN että Jumala on olemassa • Luonteeltaan subjektiivinen: Pätee kysymyksiin, joissa on jokin totuus mutta totuus ei ole päättelijän tiedossa (saattaa olla jonkun muun tiedossa!) • Tämän esitelmän ja MDL-menetelmän kohde

  6. Tieteellisen skeptismin ongelmia

  7. Tieteellisen skeptismin heikkouksia Occamin partaveitsen perustelut? • Occam: ”Teorioita ei pidä turhaan monimutkaistaa” • “Valitse vaihtoehtoisista teorioista yksinkertaisin” • Mikä on “yksinkertainen”? • Eikö “Jumala loi kaiken” ole yksinkertainen? • Skeptikoiden periaate • Perustelemattomia periaatteita vältettävä! • New Age täynnä epäilyttäviä periaatteita, kuten ”ota maailmankuvaasi mikä tuntuu kivalta.” • Occam historiallisesti toiminut • Asteen verran parampi peruste. Mutta miksi on toiminut? • Occam tuntuu intuitivisesti oikealta • Intuitio saattaa johtaa harhaan. • New Age täynnä epäilyttäviä intuition tuloksia.

  8. Tieteellisen skeptismin heikkouksia”Tiede ei ota kantaa asioihin, joita ei voi tutkia” • On “tieteen asioita” ja “uskon asioita” • ”Ei voi todistaa että jumala on tai ei ole. Se on uskon asia” • Vaaleanpunainen sammakko galaksin keskustassa. Ei kantaa? • Kreationismi, ihmeet ja aktiivinen Jumala vs. deismin ”näkymätön Jumala” • Periaate ilmeisesti liian rajoittava, mutta mistä perusteet laajentamiseen?

  9. Tieteellisen skeptismin heikkouksia"Todistustaakka on väitteen esittäjän puolella" • Miksi? Perustelut usein epätyydyttäviä • ”Pekalla yksisarvinen olohuoneessa”, mutta ei päästä meitä katsomaan. So what? • Mikä on väite? • Jokaisella väitteellä on vastaväite. Entä jos se onkin väite? • “jumala on” vs. “jumalaa ei ole” • ”Olen skeptinen skeptismistä”

  10. Tieteellisen skeptismin heikkouksia”Ateismi uskonto uskontojen joukossa” • Miksi ei? • “Vahva” ateismi ja “Heikko” ateismi • Vahva: “Uskon että jumalaa ei ole” • Heikko: “Minulla ei ole uskoa että jumala on” • Onko näillä loppujen lopuksi merkittävää eroa? • Vrt. “Uskon että Pekan auto on punainen” vs.“Minulla ei ole uskoa että Pekan auto on punainen”

  11. Minimikuvausmenetelmä Minimum Description Length (MDL) method

  12. Miten valita todennäköisin selitys kilpailevista vaihtoehdoista? • Koko tieteen filosofia ja kiteytyy tähän kysymykseen • Minimikuvausperiaate (Minimum Description Length principle, MDL) • 1970-luvulta alkaen kehitetty menetelmä • Matemaattisesti eksakti ratkaisu teorian valinnan ongelmaan • http://www.mdl-research.org/

  13. Teorian valinta funktion sovituksenaTeoria = Malli = Mekanismi = Funktio Evidenssi = Havainnot = Data = Oletukset Minkälainen funktio kuvaa havaittuja datapisteitä?

  14. Minkälainen funktio kuvaa havaittuja datapisteitä?1. Pisteet suoraan yhdistävä funktio • Täydellisesti sopiva • Triviaali, pisteet luetteloiva • Ei sisällä mitään ”mekanismia”, päättelyä tai oivallusta • Ei voida käyttää pisteiden sijainnin ennustamiseen. • Sopii aina mihin tahansa datajoukkoon, myös täysin satunnaisille pisteille. • N parametria

  15. Minkälainen funktio kuvaa havaittuja datapisteitä?2. Pisteiden läpi kulkeva ”kiemura” • Ääretön määrä erilaisia täydellisesti dataan sopivia vaihtoehtoja! • Kulkee havainto-pisteiden välillä mielivaltaisesti • Ei voida käyttää pisteiden sijainnin ennustamiseen • Sopii aina mihin tahansa datajoukkoon. • N+M parametria

  16. Minkälainen funktio kuvaa havaittuja datapisteitä?3. Suora • Hyvin yksinkertainen funktio • Vain yksi parhaiten sopiva vaihtoehto • Voidaan käyttää uusien pisteiden ennustamiseen (mutta heikolla menestyksellä). • Liian yksinkertainen: huono sopivuus

  17. Minkälainen funktio kuvaa havaittuja datapisteitä?3. Minimikuvaus (MDL) funktio • Kohtuullisen yksinkertainen funktio. • Sopii dataan kohtuullisen hyvin. • Ei-triviaali: voi olla vaikea keksiä • Voidaan käyttää uusien pisteiden ennustamiseen

  18. Minimikuvausmenetelmän määritelmä • Kuinka pitkä koodi (esim. bittejä) tarvitaan datan (D) kuvaamiseen kun käytetään hypoteesia (H) datan mallinnukseen? L = L(H) + L(D|H) • MDL Teesi: Paras hypoteesi H on se, joka tuottaa pienimmän koodinpituuden L, eli redusoi datan määrää eniten. virheiden (poikkeamien ennusteesta) kuvauspituus hypoteesin kuvauspituus

  19. Minimikuvausmenetelmän määritelmä • Hypoteesin kuvauspituus L(H) • Esim. Tietokoneohjelman pituus, joka toteuttaa mallin. • Esim. Kuvaus luonnollisella kielellä (suomi, englanti) • Esim. “Kaikki autot ovat punaisia” • Poikkeamien kuvauspituus L(D|H) • Havaintojen ja mallin ennusteiden välisten numeeristen poikkeamien kuvauspituus. • Suuremmat virheet  enemmän virhekuvausta • Esim. “Pekan auto on sininen” on poikkeama “Kaikki autot ovat punaisia” mallissa.

  20. Kuvauspituus erityyppisille malleille1. Pisteet suoraan yhdistävä funktio • Triviaali malli: H = D • Virheetön kuvaus • L(D|H)=0 • Kuvauspituus yhtä suuri kuin datan pituus: • L = L(H)=L(D)‏ • Ei redusoi lainkaan datan määrää

  21. Kuvauspituus erityyppisille malleille2. Pisteiden läpi kulkeva ”kiemura” • Virheetön kuvaus: • L(D|H)=0 • Funktion mielivaltainen kulku pisteiden ulkopuolella vaatii lisää kuvausdataa: • L(H) > L(D)‏ • Kuvauspituus on suurempi kuin datan pituus: • L = L(H)> L(D)‏ • Redusoinnin sijaan Kasvattaa datan määrää

  22. Kuvauspituus erityyppisille malleille3. Suora • Funktion kuvaus vaatii yksinkertaisuutensa vuoksi hyvin vähän dataa: • 0 < L(H) << L(D)‏ • Merkittäviä virheitä pisteiden ennustuksessa, paljon dataa poikkeamien kuvaamiseen: • 0 << L(D|H) < L(D) • Kuvaus redusoi dataa jonkin verran muttei optimaalisesti: • L = L(H) + L(D|H)<L(D)‏

  23. Kuvauspituus erityyppisille malleille3. Minimikuvaus (MDL) funktio • Kompromissi mallin pituuden L(H) ja poikkeamien pituuden L(D|H) minimoimisen välillä. • Minimoi kokonais kuvauspituuden: • Lmin = L(H) + L(D|H)‏

  24. ”Ylimonimutkaiset” mallit L=L(D)‏ L=L(H)+L(D|H)‏ Lmin (MDL-piste)‏ L(D|H) (virhe)‏ L(H) (malli)‏ Kuvauspituus erityyppisille malleilleYhteenveto • Mallin kuvauspituus L(H) kasvaa mallin monimutkistuessa. • Virheen kuvauspituus L(D|H) pienenee mallin monimutkaistuessa kunnes se menee nollaan kun L(H) = L(D) • Tietyllä mallin monimutkaisuudella saavutetaan minimi kuvauspituus Lmin. • Tämä on MDL malli.

  25. Kuvauspituus ja todennäköisyysTodennäköisyyden määritelmä • Todennäköisyys (P) on 0-1 tai 0%-100% • Todennäköisyys asialle X määritellään: • P(X) = [#cases with X] / [#total cases] • Todennäköisyyslaskennan ytimessä on siis erilaisten mahdollisten tapauksien lukumäärän laskeminen. • Esim. Lotossa 7 oikein: • P(7oik) = [7 x 6 x 5 x 4 x 3 x 2 x 1] / [36x35x34x33x32x31x30] • 1 / 15 380 937 • Jos koetta voidaan toistaa, TN voidaan kokeelliesti selvittää tapausten lukumäärää laskemalla. Tämä EI onnistu mm: • Historiallisiin tapahtumiin liittyviin kysymyksiin • Ilmiöiden tai olentojen olemassaoloon

  26. Kuvauspituus ja todennäköisyysKuvauspituus ja kuvauksien määrä • Muista: Kuvauspituus L = L(H) + L(D|H) • Esim. 0100101101100101101001010 => L = 25 • Erilaiset 3-bittiä pitkät koodit (2^3 = 8 kpl): • 000, 001, 010, 011, 100, 101, 110, 111 • Lähtökohtainen todennäköisyys tietylle satunnaiselle 3-bitin koodille (esim. 010) = 1/8 • Erilaiset 5-bittiä pitkät koodit (2^5 = 32 kpl): • 00000, 00001, 00010, 00011, 00100, 00101, 00110, 0011101000, 01001, 01010, 01011, 01100, 01101, 01110, 0111110000, 10001, 10010, 10011, 10100, 10101, 10110, 10111 11000, 11001, 11010, 11011, 11100, 11101, 11110, 11111 • Lähtökohtainen todennäköisyys tietylle satunnaiselle 5-bitin koodille (esim. 01010) = 1 / 32

  27. Kuvauspituus ja todennäköisyysMDL ydin • Tietynpituisten kuvauksien lukumäärä kasvaa eksponentiaalisesti kuvauspituuden L funktiona: • N(L) = 2L • Todennäköisyys yksittäiselle L-mittaiselle hypoteesille pienenee eksponentiaalisesti kuvauspituuden L mukaan: • P(H)  1 / N(L) = 2-L • Pienempi kuvauspituus L  todennäköisempi teoria • MDL (Minimi kuvauspituus) malli on todennäköisin • Havaintojoukon D todennäköisin selitys kaikkien mallien Hn joukosta on sellainen malli HMDL, joka tuottaa kaikkein lyhyimmän kuvauspituuden • L = Lmin = [L(H) + L(D|H)]min

  28. Kuvauspituus ja todennäköisyys P(H)  2-L kompressiotodistus • Olkoon datajoukko D, jonka pituus L(D) = 10000 • Oletetaan että oikea (todellinen) malli on HTOD, jolle kuvauspituus L = 1000 • Koska mallin avulla voidaan generoida alkuperäinen data D, voidaan sanoa että mallin H kuvaus on data D kompressoidussa muodossa (“Zipattuna”, joka voidaan “Unzipata”) • Kompressio on mahdollinen, koska D sisältää redundanssia / toistuvuutta / ilmiöitä / ominaisuuksia (se ei ole vain satunnainen pistejoukko) • Koska malli HTOD on oikea, kompressio “tiivistää pois” kaikki datan redundanssit / ominaisuudet  jäljelle jää “satunnaiselta näyttävä” 1000 bitin jono, joka siis on HTOD kuvaus. • Todennäköisyys, että tuota 1000 bitin satunnais-tyyppistä jonoa voidaan vielä kompressoida M bittiä on 2-M • 1000 mittainen “satunnaisia” bittijonoja on 21000 kpl • Vain 2 kpl, eli 2 / 21000 osuus niistä voidaan kompressoida 1 (1000-999) bitin mittaiseksi • Vain 4 (22) kpl, eli 4 / 21000 osuus voidaan kompressoida 2 (1000-998) bitin mittaiseksi • Vain 2N, eli 2N / 21000 = 2N-1000 voidaan kompressoida N bitin mittaiseksi. • Jos kompressio on M, niin N = 1000-M, P = 2(1000-M)-1000 = 2-M • Siispä todennäköisyys, että on sattumalta olemassa virheellinen malli Hvirh joka on N bittiä mallia HTOD lyhyempi on P = 2-N

  29. Kuvauspituus ja todennäköisyysMDL pähkinänkuoressa • Datajoukko mallinnetaan esittämällä sen kuvaava funktio / malli / teoria sekä pisteiden poikkeamat ennustetuista. • Jos ennusteet ovat tarkkoja, poikkeamat ovat pieniä ja niiden kuvaamiseen tarvitaan vähän bittejä. • Jos funktio on yksinkertainen, tarvitaan sen (ja sen parametrien arvojen) kuvaamiseen vähän bittejä. • Todennäköisin malli / teoria on se, jossa kokonaisdatamäärä L = L(H) + L(D|H) on vähäisin, eli joka voidaan koodata pienimmällä määrällä bittejä (tai kirjaimia / sanoja).

  30. Kuvauspituus ja todennäköisyysTeoriat lähtökohtaisesti heikkoja • Suuren kuvauspituuden teoria (esim. L = 10000) on lähtökohtaisesti (ilman evidenssiä) hyvin epätodennäköinen, koska 10000 pitkiä koodeja on 210000 = 103000 kpl ja ko. teoria on vain yksi niistä. • Kaikki todellista maailmaa kuvaavat mallit ovat jossain määrin pitkiä kuvauspituudeltaan, eli lähtökohtaisesti hyvin epätodennäköisiä • Oleellista on mallien kuvauspituuksien suhteelliset erot: • Esim. L(A) = 1000, L(B) = 1200 • P(A) = P(B) x 2200

  31. Kuvauspituus ja todennäköisyysEksponentiaalinen heikkeneminen • P(H) = 2-[L(H)+L(D|H)] • Mallin todennäköisyys pienenee nopeasti sen monimutkaistuessa (kuvauspituuden kasvaessa)‏ • Esim. Yhtä tarkkojen 900 bitin ja 1000 bitin mallien välinen todennäköisyysero on 2100 = 1070 • Tieteellisten teorioiden ja kokeiden todistuvoima on siis parhaimmillaan hyvin vahva vaikkei absoluuttinen.

  32. MDL seurauksia

  33. MDL SeurauksiaÄäretön määrä malleja • Mikä tahansa havaintojoukko voidaan aina (validisti) selittää äärettömällä erilaisella mallilla • Esim. tontut, mystiset energiat, esi-isien henget,... • Mallin mahdollisuudesta ei seuraa sen todennäköisyys, TN voi olla vaikka 10-1000 • ”D selitys voisi olla H” on arvoton argumentti • Kristalleilla voi olla voimia • On mahdollista että parannuin syövästä rukouksella

  34. MDL SeurauksiaReduktionismi vahvoilla • Luonnontieteiden reduktionismille on vahva todennköisyysperustelu. • Esim. Atomiteoria vs. molekyyliteoria ilman atomeita • Molemmat selittävät havainnot yhtä tarkasti: L(D|Hatomi) = L(D|Hmolek) • Tunnettuja molekyylejä n. 10 000. • Ol. 100 bittiä kuvausta per molekyyli  1 000 000 bittiä • Atomiteoria 100 erilaista atomia, Ol. 100 bittiä per atomi = 10 000 bittiä • Atomiteoriassa lisäksi kuvattava voimat ja lait, jotka muodostavat atomeista molekyylejä, ol. 40 000 bittiä •  L(Hmolek) - L(Hatomi) = 1 000 000 – 50 000 = 950 000 bittiä. •  P(Hatomi) / P(Hmolek) = 2950000 = 1010000 • Aineen atomimalli on 1010000 kertaa todennäköisempi kuin pelkkä molekyylimalli. • Lotossa rivi 1-2-3-4-5-6-7 kymmenen viikkoa putkeen: P = 10-100 • Atomimalli on kaikissa käytännöllisissä merkityksissä täysin “Tosi”. • Tai: jos atomiteoria ei olisi totta, olisi huomattavan epätodennäköistä kaikki molekyylit olisivat sattumalta juuri sellaisia jotka sopisivat yksinkertaiseen atomiteoriaan.

  35. MDL SeurauksiaReduktionismi vahvoilla • Vastaavasti elektroni-protoni-neutroni malli on yli 101000 todennäköisempi kuin jakamattomien atomeiden malli • Kvarkkimalli yli 10100 todennäköisempi kuin jakamattomien protoneiden malli • Säiemalli näyttää alustavasti pystyvän redusoimaan koko maailmankaikkeuden yhteen hiukkastyyppiin! • Paratieteiden ja uskontojen redusoimaton ”holismi” äärettömän epätodennäköinen redusoiviin teorioihin verrattuna

  36. MDL SeurauksiaTarkentuvat teoriat • Mekaniikan mallien tarkentuminen • Newtonin mekaniikkaSuhteellisuusteoriaKvanttimekaniikkaYhtenäisteoria (säikeet…?) • Virheet pienenevät, kuvauspituus pienenee! • “Vanha” teoria jää kuitenkin aina elämään validina approksimaationa!

  37. MDL SeurauksiaTeorian falsifioitavuus tärkeää • Popper: Teorioita ei voi koskaan todistaa varmasti oikeiksi, mutta ne voi osoittaa vastaevidenssillä vääriksi eli falsifioida. http://en.wikipedia.org/wiki/Falsifiability • Popper: tieteelliset teoriat falsifioitavia ei-tieteelliset ei-falsifioitavia. • Esim. yksisarvinen alpha-centaurissa, näkymätön jumala, taivasten valtakunta • Ei-falsifioitavat teoriat ovat epätodennäköisiä koska niissä on ylimääräistä kuvausta havaintojen ulkopuolisella alueella. • Toinen muotoilu: olisi epätodnäk että kaikista mahdollisuuksista alpha-centeurussa olisi juuri yksisarvinen (eikä jotain muuta)‏ Havaintojen ulkopuolinen alue

  38. MDL SeurauksiaTäysi falsifioitavuus mahdotonta • Popper: Teorioita ei voi koskaan todistaa varmasti oikeiksi, mutta ne voi osoittaa vastaevidenssillä vääriksi eli falsifioida. • Todellisuudessa malleja ei voi myöskään koskaan falsifioida: • Uuden evidenssin oikeellisuus ei koskaan täysin varmaa • Mallia voidaan ”paikkailla purukumilla” jolloin se saadaan sopimaan ”paikattu” malli Uusi havainto

  39. MDL SeurauksiaTäysi falsifioitavuus mahdotonta • Esim. parailmiöiden ”ujous” skeptikkoja kohtaan: lisäoletus ”korjaa” havainnon ja teorian välisen ristiriidan. • Esim. “Pekan auto on sininen” ei falsifioi “kaikki autot ovat punaisia” mallia (mutta tekee sen paljon epätodennäköisemmäksi) • Esim. ”on kaikkivoipa hyvä jumala” + Tsunami tappaa 200 000  ”Mystiset ovat jumalan tiet” tms. • ”Paikkailu” lisää mallin kuvauspituutta ja heikentää sen todennäköisyyttä eksponentiaalisesti! ”paikattu” malli Uusi havainto

  40. MDL SeurauksiaTeorian ennustekyky tärkeää • Ennustekyky ei ole tärkeä vain siksi että on ”kätevää kun voi ennustaa” • Ennustekyvyn olemassaolo on merkki yksinkertaisen mekanismin sisältävästä mallista • Mekanismi tarkoittaa osiin pilkkomista: esim. tapahtuman kuvaamista joukolla pienempiä yksinkertaisempia tapahtumia Reduktio!  L(H) pieni! • Ennustekyvyn puute on merkki mekanismin puutteesta, jolloin kaikki data on kuvattava erikseen  L suuri • Esim. Asioiden jälkikäteinen ad-hoc selittäminen jumalalla • Uskonnotkin tekevät joskus vahvoja ennustuksia: Jehovat 1918 maailmanloppu  P(Hennusteita) >> P(Hei-ennusteita)‏ Mekanismin sisältävä ennusteita generoiva malli Mekanismiton luetteloiva malli

  41. MDL SeurauksiaEvidenssi lisää teorian varmuutta • Esim. Rikostutkinta • HXmY = ”X murhasi Y:n” • X:n sormenjäljet rikospaikalla sopivat teoriaan "X tappoi Y:n”, joten ne eivät kasvata sen kuvauspituutta. • Ao. evidenssi sopii myös äärettömään määrään muita teorioita, mutta näiden muiden teorioiden kuvauspituus kasvaa! • Lisäevidenssin vaikutukset: • LXmY = L(HXmY) + L(D|HXmY) pysyy • LAmY = L(HAmY) + L(D|HAmY) kasvaa • P(HXmY)/P(HAmY) kasvaa! • Toisin sanoen: HXmY sopiva evidenssi ei koskaan lopullisesti falsifioi muita teorioita, mutta voi tehdä ne suhteellisesti epätodennäköisemmiksi. • Ongelma: Miten löytää / keksiä teorioita vertailtavaksi? Vain keksittyjen mallien todennäköisyyksiä voidaan vertailla. Ongelma sekä tieteessä että rikostutkinnassa. Yksi vaihtoehtoisista malleista Teoria: X murhasi Y:n Ase X:n luona X:n sormenjäljet ikkunassa

  42. MDL SeurauksiaEi-havaittaviin väitteisiin voi ottaa perustellusti / tieteellisesti kantaa • "Tiede / skeptikot eivät ota kantaa asioihin, joita ei voi havaita / tutkia” • Vertaa seuraavia: • Alpha-Centaurissa kiviä • Alpha-Centaurissa vihreä yksisarvinen, jonka nimi ”Ville” • Vaikkei ole mitään keinoja (vielä) tehdä havaintoja asiasta (L(D|H) = 0), voidaan kuvauspituuden perustella tuomita väitteitä epätodennäköisiksi: L = L(H) + L(D|H) = L(H) • Vertaa: ”Näkymättömiä yliluonnollisia henkiolentoja voi olla olemassa tai sitten ei, joten kysymys niiden olemassaolosta on uskon asia.” • Agnostisismi kestämätön

  43. MDL sovelluksia

  44. MDL SovelluksiaUFO vierailut • Havaintona valoilmiöt, sieppauskokemukset ja/tai kertomukset näistä • Osa tapauksista jää selittämättä yksinkertaisessa (luonnollisessa) mallissa, kun taas avaruusolento-malli sopii aina täydellisesti:L(D|Hluonto) > L(D|Hufo)‏ • UFO-mallin monimutkaisuus kuitenkin enemmän kuin kompensoi tämän:L(Hufo) >> L(Hluonto) = 0 • Älykästä humanoidielämää lähitähdillä • Tähtienvälinen matkustus pienillä aluksilla kätevää • Ufot eivät halua näyttäytyä “big time”

  45. Uskonto: ei mekanismia + näkymättömiä lisäoletuksia Pseudotiede: ei mekanismia, ei reduktiota L=L(D)‏ Ideaali tiede: MDL-piste L(H) (malli)‏ L(D|H) (virhe)‏ Liian yksinkertaiset mallit (vanha tiede)‏ MDL SovelluksiaTiede, pseudotiede ja uskonnot • Tieteellinen menetelmä soveltaa luonnostaan MDL-periaatetta (tosin ei formaalisti)‏ • Paranormaalit opit eivät yleensä tarjoa dataa redusoivaa teoriaa: • ESP, Psykokinesia, Ennustaminen, Telepatia, Astrologia,... • P(Hpar) < P(Htiet)‏ • Uskonnot menevät vielä pidemmälle lisäämällä kuvaukseensa havaintojen ulkopuolisia lisäoletuksia. • P(Husk) < P(Hpar)‏

  46. Liian voimalliset mekanismit L=L(D)‏ Ideaali tiede: MDL-piste L(H) (malli)‏ L(D|H) (virhe)‏ Liian yksinkertaiset mallit (vanha tiede)‏ MDL SovelluksiaSopivan voimalliset syyt • Parhaita selittäviä havaintojen mekanismeja ovat sellaiset, jotka ovat juuri sopivan voimallisia selittämään havainnot kohtuullisesti. • Liian heikot mekanismit (esim. jokainen eliölaji syntyi salaman iskusta veteen) eivät tarpeeksi hyvin ennusta havaintoja. • Liian vahvat mekanismit (esim. kaikkivoipa jumala tai älykäs alien-rotu tekivät eliöt) tarjoaa liikaa mahdollisuuksia • Ongelma: ihmiset tuntevat vetoa voimallisiin mekanismeihin…

  47. MDL SovelluksiaKreationismi vs. Evoluutio • Havaintoina: • Nykyinen eliölajien kokonaisuus • Fossiilit ja geologiset havainnot • Mutaatiot, mikroevoluutio • DNA ja solujen rakenne ja toiminta • Kilpailevat mallit: • Evoluutio 3 mrd vuotta • Jumala loi elämän + evoluutio 3 mrd vuotta • Jumala loi eläimet ”lajinsa mukaan” + mikroevoluutio 10 000 vuotta • Jumala loi kaiken 10 minuuttia sitten

  48. Kreationismi vs. EvoluutioJumalan vapaus vs. evoluution rajoittuneisuus • Mutaatiot + luonnonvalinta asettaa teoreettisia rajoituksia ja ennustaa säännönmukaisuuksia eliölajien ominaisuuksille, maapallon iälle, fossiilihavainnoille, jne. • Kaikkivoipa jumala olisi voinut luoda mitä vain ja milloin vain: • Ei mitään • Kilon silakoita • Kaksi rantapalloa • Miljoona robottia • Lajit ilman fossiileita, jäänteitä, puutteita, jne. • Epätodennäköistä luoda juuri sellainen lajijoukko (ja fossiilisto), joka sopii rajoitettuun evoluutiomalliin edes kohtuullisesti. • Darwin 1868: "I cannot possibly believe, that a false [simple] theory would explain so many classes of facts." Kuviteltavissa oleva eliöiden muotojen ja ominaisuuksien kirjo Havaitut eliölajit / ominaisuudet Evoluutioteoriasta seuraavat rajoitukset ja säännönmukaisuudet eliöiden ominaisuuksille (esim. jäänteet)‏ Poikkeamat, kuten bakteerimoottori

  49. Kreationismi vs. EvoluutioMikä on ”yksinkertaista”? • Occam & MDL: “Valitse yksinkertaisin malli.” • ”Jumala loi kaiken lajinsa mukaan”. Yksinkertaista? • EI: “Jumala loi kaiken lajinsa mukaan” ei ole malli: sen perusteella ei voida tehdä tietokoneohjelmaa, joka generoi datan. • Mekanismin puutteessa lajien ominaisuudet täytyy jokainen erikseen kuvata, jotta saadaan täydellinen malli: • “J. loi sammakon, jolla on sellaisia ja sellaisia ominaisuuksia…”, “J. loi myyrän, jolla on sellaisia ja sellaisia ominaisuuksia …”, … • Kuin pisteiden yhdistäminen viivalla! • Esim. 106Lajia, 103ominaisuutta per laji, 10 bittiä per ominaisuus: L > 10610310P < 2-10^10 = 10-10^8 • Evoluutiossa lajien ominaisuudet voidaan generoida) yksinkertaisesta sattuman ja valinnan mekanismista.

  50. Kreationismi vs. EvoluutioMikä on ”yksinkertaista”? • Vrt. Mandelbrot fraktaali: Z = Z2 + C tuottaa “monimutkaisen” lopputuloksen. • Loisiko jumala jokaisen pikselin erikseen ”värinsä mukaan”? • Vrt. Lumihiutaleet ja muut monimutkaiset kiteet yksinkertaisista mekanismeista.

More Related