1 / 43

Metode Inferensi dan Penalaran

Metode Inferensi dan Penalaran. Decision Tree. Merupakan salah satu contoh aplikasi dari tree Tree (pohon) adalah suatu hierarki struktur yang terdiri dari Node (simpul/veteks) yang menyimpan informasi atau pengetahuan dan cabang (link/edge) yang menghubungkan node.

meir
Download Presentation

Metode Inferensi dan Penalaran

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Metode Inferensi dan Penalaran

  2. Decision Tree • Merupakan salah satu contoh aplikasi dari tree • Tree (pohon) adalah suatu hierarki struktur yang terdiri dari Node (simpul/veteks) yang menyimpan informasi atau pengetahuan dan cabang (link/edge) yang menghubungkan node. • Decision tree – pohon keputusan • Menggunakan model tree untuk menggambarkan keputusan-keputusan dan konsekuensinya

  3. Contoh Decision Tree

  4. Logika Deduktif • Logikadeduktif : kesimpulanmerupakankonsekuensilogisdaripremis-premis yang ada • Mengambilkesimpulankhususdaripremis yang bersifatumum • Pengambilankesimpulandapatsecaralangsung (hanya 1 premis) atautidaklangsung (beberapapremis) • Karakteristikpokok : kesimpulanbenarharusmengikutidaripremis yang benar • Premisdisebutjugaantesedendankesimpulandisebutkonsekuen • Salahsatujenislogikadeduktiftidaklangsungadalahsyllogisme

  5. Struktur Syllogisme • Terdiri 3 proposisi / pernyataan • Premis mayor • Premis minor • Kesimpulan • Jenis Silogisme : • Silogisme kategorial • Silogisme hipotesis • Silogisme alternatif

  6. Silogisme Kategorial : Silogisme yang terjadi dari tiga proposisi. Premis umum : Premis Mayor (My) Premis khusus :Premis Minor (Mn) Premis simpulan : Premis Kesimpulan (K) M : middle term S : subjek P : predikat

  7. ContohsilogismeKategorial: • My : Semuamahasiswaadalahlulusan SLTA M/Middle term P/Major term Mn : Baduadalahmahasiswa S/Minor term M/Middle term K : Badu lulusanSLTA • My : Tidakadamanusia yang kekal Mn : Andiadalahmanusia K : Anditidakkekal • My : Semuamahasiswamemilikiijazah SLTA. Mn : Amir tidakmemilikiijazah SLTA K : Amir bukanmahasiswa

  8. b. SilogismeHipotesis: Silogisme yang terdiriataspremis mayor yang berproposisikonditionalhipotesis. • Konditionalhipotesisyaitu : bilapremisminornyamembenarkananteseden, simpulannyamembenarkankonsekuen. Bilaminornyamenolakanteseden, simpulannyajugamenolakkonsekuen. • Contoh : • My : Jikatidakada air, manusiaakankehausan. Mn : Air tidakada. K : Jadi, Manusiaakankehausan. • My : Jikatidakadaudara, makhlukhidupakanmati. Mn : Makhlukhidupitumati. K : Makhlukhidupitutidakmendapatudara.

  9. c. SilogismeAlternatif :Silogisme yang terdiriataspremis mayor berupaproposisialternatif. • Proposisialternatifyaitubilapremisminornyamembenarkansalahsatualternatifnya, simpulannyaakanmenolakalternatif yang lain. • Contoh : • My : NenekSumiberada di Bandung atau Jakarta. • Mn : NenekSumiberada di Bandung. • K : Jadi, NenekSumitidakberada di Jakarta. • My : NenekSumiberada di Bandung atau Bogor. • Mn : NenekSumitidakberada di Jakarta. • K : Jadi, NenekSumiberada di Bandung.

  10. Forward Chaining • Forward chainingmerupakangrupdarimultipelinferensi yang melakukanpencariandarisuatumasalahkepadasolusinya. • Forward Chainingadalahdata drivenkarenainferensidimulaidenganinformasiygtersedia dan barukonklusidiperoleh • Mencariaturaninferensisampaiditemukansatudimanaanteseden (If clause) bernilai true. Ketikaditemukan, bisaditarikkesimpulan, menghasilkaninformasibaru.

  11. Forward Chaining • Contoh : Menentukan warna binatang bernama Tweety. Data awal adalah Tweety terbang dan bernyanyi. • Misalkan ada 4 aturan : • If x melompat dan memakan serangga, maka x adalah katak • If x terbang dan bernyanyi, maka x adalah burung kenari • If x adalah katak, maka x berwarna hijau • If x adalah burung kenari, maka x berwarna kuning

  12. Forward Chaining • Yang dicari pertama adalah aturan nomor 1, karena anteseden-nya cocok dengan data kita (if Tweety terbang dan bernyanyi) • Konsekuen (then Tweety adalah burung kenari) ditambahkan ke data yang dimiliki • If tweety adalah burung kenari, maka Tweety berwarna kuning (tujuan)

  13. Backward Chaining • Dimulai dengan tujuan (goal) yang diverifikasi apakah bernilai TRUE atau FALSE • Kemudian melihat rule yang mempunyai GOAL tersebut pada bagian konklusinya. • Mengecek pada premis dari rule tersebut untuk menguji apakah rule tersebut terpenuhi (bernilai TRUE) • Proses tersebut berlajut sampai semua kemungkinan yang ada telah diperiksa atau sampai rule inisial yang diperiksa (dg GOAL) telah terpenuhi • Jika GOAL terbukti FALSE, maka GOAL berikut yang dicoba.

  14. Backward Chaining • Dimulai dari daftar tujuan dan bergerak ke belakang dari konsekuen ke anteseden untuk melihat data yang mendukung konsekuen. • Mencari sampai ada konsekuen (Then clause) yang merupakan tujuan. Jika antecedent (If clause) belum diketahui nilainya (bernilai benar/salah), maka ditambahkan ke daftar tujuan.

  15. Backward Chaining • Contoh : MenentukanwarnabinatangbernamaTweety. Data awaladalahTweetyterbangdanbernyanyi. • Misalkanada 4 aturan : • If x melompatdanmemakanserangga, maka x adalahkatak • If x terbangdanbernyanyi, maka x adalahburungkenari • If x adalahkatak, maka x berwarnahijau • If x adalahburungkenari, maka x berwarnakuning

  16. Backward Chaining • Pertama akan mencari aturan 3 dan 4 (sesuai dengan tujuan kita mencari warna) • Belum diketahui bahwa Tweety adalah burung kenari, maka kedua anteseden (If Tweety adalah katak, If Tweety adalah burung kenari) ditambahkan ke daftar tujuan. • Lalu mencari aturan 1 dan 2, karena konsekuen-nya (then x adalah katak, then x adalah burung kenari) cocok dengan daftar tujuan yang baru ditambahkan.

  17. Backward Chaining • Anteseden (If Tweety terbang dan bernyanyi) bernilai true/benar, maka disimpulkan Tweety adalah burung kenari. • Tujuan menentukan warna Tweety sekarang sudah dicapai (Tweety berwarna hijau jika katak, dan kuning jika burung kenari, Tweety adalah burung kenari karena terbang dan bernyanyi, jadi Tweety berwarna kuning).

  18. Contoh Kasus • Seoranguseringinberkonsultasiapakahtepatjikadiaberinvestasipada IBM? Variabel-variabel yang digunakan: A = memilikiuang $10.000 untukinvestasi B = berusia < 30 tahun C = tingkatpendidikanpada level college D = pendapatanminimumpertahun $40.000 E = investasi pada bidangSekuritas (Asuransi) F = investasi pada sahampertumbuhan (growth stock) G = investasi pada saham IBM Setiapvariabeldapatbernilai TRUE atau FALSE

  19. Contoh Kasus • Fakta • Memiliki uang $10.000 (A TRUE) • Berusia 25 tahun (B TRUE) • Dia ingin meminta nasihat apakah tepat jika berinvestasi pada IBM stock?

  20. Rules R1 : IF seseorang memiliki uang $10.000 untuk berinvestasi AND dia berpendidikan pada level college THEN dia harus berinvestasi pada bidang sekuritas R2 : IF seseorang memiliki pendapatan per tahun min $40.000 AND dia berpendidikan pada level college THEN dia harus berinvestasi pada saham pertumbuhan (growth stocks) R3 : IF seseorang berusia < 30 tahun AND dia berinvestasi pada bidang sekuritas THEN dia sebaiknya berinvestasi pada saham pertumbuhan R4 : IF seseorang berusia < 30 tahun dan > 22 tahun THEN dia berpendidikan college R5 : IF seseorang ingin berinvestasi pada saham pertumbuhan THEN sahamyang dipilih adalah saham IBM.

  21. R1: IF A AND C, THEN E • R2: IF D AND C, THEN F • R3: IF B AND E, THEN F • R4: IF B, THEN C • R5: IF F, THEN G

  22. Forward Chaining

  23. Backward Chaining

  24. Penalaran • Suatu penalaran dimana adanya penambahan fakta baru mengakibatkan ketidakkonsistenan, • ciri-ciri penalaran sebagai berikut : • adanya ketidakpastian • adanya perubahan pada pengetahuan • adanya penambahan fakta baru dapat mengubah konklusi yang sudah terbentuk

  25. Penalaran • Contoh : • Premis 1 : Aljabar adalah pelajaran yang sulit • Premis 2 : Geometri adalah pelajaran yang sulit • Premis 3 : Kalkulus adalah pelajaran yang sulit • Kesimpulan : Matematika adalah pelajaran yang sulit • muncul premis 4 : sosiologi adalah pelajaran yang sulit, akan menyebabkan kesimpulan (Matematika adalah pelajaran yang sulit) menjadi tidak berlaku karena sosiologi bukan bagian dari matematika • penalaran induktif sangat dimungkinkan adanya ketidakpastian.

  26. Ketidakpastian (uncertainty) • Kurang informasi yang memadai • Menghalangi untuk membuat keputusan yang terbaik • Salah satu teori yang berhubungan dengan ketidakpastian : Probabilitas Bayes

  27. Probabilitas • Probabilitas menunjukkan kemungkinan sesuatu akan terjadi atau tidak

  28. Probabilitas • Contoh : • Misal dari 10 orang sarjana , 3 orang menguasai java, sehingga peluang untuk memilih sarjana yang menguasai java adalah : • p(java) = 3/10 = 0.3

  29. Probabilitas Bayes

  30. Probabilitas Bayes • Contoh : • Asihmengalamigejalaadabintik-bintikdiwajahnya. DoktermendugabahwaAsihterkenacacardengan : • probabilitasmunculnyabintik-bintikdiwajah, jikaAsihterkenacacar → p(bintik | cacar) = 0.8 • probabilitasAsihterkenacacartanpamemandanggejalaapapun → p(cacar) = 0.4 • probabilitasmunculnyabintik-bintikdiwajah, jikaAsihterkenaalergi → p(bintik | alergi) = 0.3 • probabilitasAsihterkenaalergitanpamemandanggejalaapapun → p(alergi) = 0.7 • probabilitasmunculnyabintik-bintikdiwajah, jikaAsihjerawatan → p(bintik | jerawatan) = 0.9 • probabilitasAsihjerawatantanpamemandanggejalaapapun → p(jerawatan) = 0.5

  31. Probabilitas Bayes • Probabilitas Asih terkena cacar karena ada bintik2 di wajahnya :

  32. Probabilitas Bayes • Probabilitas Asih terkena alergi karena ada bintik2 di wajahnya :

  33. Probabilitas Bayes • Probabilitas Asih jerawatan karena ada bintik2 di wajahnya :

  34. Probabilitas Bayes • Jika setelah dilakukan pengujian terhadap hipotesis muncul satu atau lebih evidence (fakta) atau observasi baru maka :

  35. Probabilitas Bayes • Misal : Adanya bintik-bintik di wajah merupakan gejala seseorang terkena cacar. Observasi baru menunjukkan bahwa selain bintik-bintik di wajah, panas badan juga merupakan gejala orang kena cacar. Jadi antara munculnya bintik-bintik di wajah dan panas badan juga memiliki keterkaitan satu sama lain.

  36. Probabilitas Bayes • Asihadabintik-bintikdiwajahnya. DoktermendugabahwaAsihterkenacacardenganprobabilitasterkenacacarbilaadabintik-bintikdiwajah → p(cacar | bintik) = 0.8 • Adaobservasibahwaorangterkenacacarpastimengalamipanasbadan. Jikadiketahuiprobabilitasorangterkenacacarbilapanasbadan → p(cacar | panas ) = 0.5 • Keterkaitanantaraadanyabintik-bintikdiwajahdanpanasbadanbilaseseorangterkenacacar → p(bintik | panas, cacar) = 0.4 • Keterkaitanantaraadanyabintik-bintikdiwajahdanpanasbadan → p(bintik | panas) = 0.6

  37. Probabilitas Bayes

  38. Faktor Kepastian (Certainty) • Certainty Factor (CF) menunjukkan ukuran kepastian terhadap suatu fakta atau aturan. • CF[h,e] = MB[h,e] – MD[h,e] • CF[h,e] = faktor kepastian • MB[h,e] = ukuran kepercayaan/tingkat keyakinan terhadap hipotesis h, jika diberikan/dipengaruhi • evidence e (antara 0 dan 1) • MD[h,e] = ukuran ketidakpercayaan/tingkat ketidakyakinan terhadap hipotesis h, jika diberikan/dipenharuhi evidence e (antara 0 dan 1)

  39. Faktor Kepastian (Certainty)

  40. Faktor Kepastian (Certainty)

  41. Contoh : • Misalsuatuobservasimemberikankepercayaanterhadap h1 dengan MB[h1,e]=0,5 dan MD[h1,e] = 0,2 maka : • CF[h1,e] = 0,5 – 0,2 = 0,3 • Jikaobservasitersebutjugamemberikankepercayaanterhadap h2 dengan MB[h2,e]=0,8 dan MD[h2,e]=0,1, maka : • CF[h2,e] = 0,8 – 0,1= 0,7 • Untukmencari CF[h1 ∧ h2,e] diperolehdari • MB[h1 ∧ h2,e] = min (0,5 ; 0,8) = 0,5 • MD[h1 ∧ h2,e] = min (0,2 ; 0,1) = 0,1 • CF[h1 ∧ h2,e] = 0,5 – 0,1 = 0,4 • Untukmencari CF[h1∨ h2,e] diperolehdari • MB[h1∨ h2,e] = max (0,5 ; 0,8) = 0,8 • MD[h1∨ h2,e] = max (0,2 ; 0,1) = 0,2 • CF[h1∨ h2,e] = 0,8 – 0,2 = 0,6

More Related