310 likes | 473 Views
Pertemuan 13. Jaringan Syaraf Tiruan. SUB TOPIK BAHASAN. Pengertian JST Komponen JST Arsitektur JST Fungsi Aktivasi. Pengertian JST.
E N D
Pertemuan 13 Jaringan Syaraf Tiruan
SUB TOPIK BAHASAN • Pengertian JST • Komponen JST • Arsitektur JST • Fungsi Aktivasi
Pengertian JST • Jaringan syaraf merupakan salah satu representasi buatan dari otak manusia yang selalu mencoba untuk mensimulasikan proses pembelajaran pada otak manusia tersebut • Buatan karena di implementasikan dengan program komputer
KOmponen Jaringan Syaraf • Jaringan syaraf terdiri atas beberapa neuron • Ada hubungan antar neuron • Neuron mentransformasikan informasi yg diterima melalui sambungan keluarnya menuju neuron-neuorn yg lain • Pada jaringan syaraf hubungan ini dikenal dengan bobot
Arsitektur Jaringan • Neuron-neuron dikelompokkan dalam lapisan-lapisan • Neuron yang terletak pada lapisan yang sama akan memiliki keadaan yang sama • Kelakuan neuron ditentukan oleh fungsi aktivasi dan pola bobotnya
Fungsi aktivasi • Masukan pada jaringan akan diproses oleh suatu fungsi yang akan menjumlahkan nilai-nilai semua bobot dan bias. • Hasil dari penjumlahan akan dibandingkan dengan suatu nilai ambang (threshold) melalui fungsi aktivasi setiap neuron.
Proses Pembelajaran • Supervised learning • UnSupervised learning
a. Supervised learning • Pembelajaran terawasi jika output yang diharapkan telah diketahui sebelumnya • Contoh : Pengenalan pola , misal pada operasi AND • Input Output 0 0 0 0 1 0 1 0 0 1 1 1
a. Supervised learning • Jika terjadi perbedaan antara pola output hasil pembelajaran dengan pola target maka akan muncul error • Jika nilai error masih besar, maka perlu banyak dilakukan pembelajaran lagi
B Unsupervised learning • Tidak memerlukan target output • Tidak dapt ditentukan hasil yang seperti apakah yang diharapkan selama proses pembelajaran • Selama proses pembelajaran,nilai bobot disusun dalam suatu range tertentu tergantung nilai input yang diberikan • Tujuan adalah untuk mengelempokkan unit-unit yang hampir sama dalam satua area tertentu • Cocok untuk pengelompokkan pola
Model Hebb • Diusulkan oleh Donald Olding Hebb pada th 1949 • Metode pengembangan dari metode McCulloch-Pitts • Menentukan bobot dan bias secara analitik (manual) • Pembelajaran dilakukan dengan memperbaiki nilai bobot secara continue
Model Hebb Perbaikan bobot diperoleh dengan cara wi(baru) = wi(lama) + xi*yb(baru) = b(lama) + y dengan: wi = bobot data input ke-i xi = input data ke-i y = output data b = nilai bias
algoritma • Inisialisasi semua bobot : wij =0; dengan i=1,2,...,n; j=1,2,...,m • Untuk setiap pasangan input-output (s-t), lakukan langkah sbb: • set input dengan nilai sama dengan vektor input: xi = si ; (i =1,2,..,n) • Set output dengan nilai sama dengan vektor output: yj = tj ; (j =1,2,..,m) • Perbaiki bobot: wij = wij + xiyi ; (i =1,2,..,n); dan (j =1,2,..,m)
Kasus OR • {-1,-1,-1} w1 = 0 + (-1)(-1) = 1 w2 = 0 + (-1)(-1) = 1 b = 0 + (-1) = -1 • {-1,1,1} w1 = 1 + (-1)(1) = 0 w2 = 1 + (1)(1) = 2 b = -1 + (1) = 0 • {1,-1,1} w1 = 0 + (1)(1) = 1 w2 = 2 + (-1)(1) = 1 b = 0 + (1) = 1 • {1,1,1} w1 = 1 + (1)(1) = 2 w2 = 1 + (1)(1) = 2 b = 1 + (1) = 2
Akhir pembelajaran, diperoleh bobot akhir w1 = 2, w2=2, b=2 Pengujian : x1 = -1 dan x2 = 1 , maka : y = (2)(-1) + ( 2) (1) + 2 = 2 Dengan fungsi bipolar , maka diperoleh output y =F(2) =1 karena 2 > 1 Sehingga y = t
Model Perceptron • Digunakan untuk mengklasifikasikan suatu tipe pola tertentu • Mengatur parameter2 melalui proses pembelajaran. • Pembelajaran utk mendapatkan bobot akhir dilakukan secara berulang sampai sdh tdk ada error (output = target) • Namun jika msh ada error maka proses dihentikan maksimum epoh. • Epoh ; proses pengulangan utk melatih semua pasangan data.
Algoritma Pelatihan • Inisialisasi laju pembelajaran (α), nilai ambang (𝛉), bobot, bias • Menghitung • Menghitung • Jika y ≠ target, lakukan update bobot dan bias Wi baru = Wlama + α.t.Xi b baru = b lama + α.t • Ulang dari langkah 2 sampai tidak ada update bobot lagi
Kasus OR • {0,0,0} y = 0 + (0.0 + 0.0) = 0 • {0,1,1} y = 0 + (0.0 + 0.1) = 0 y ≠ t, maka update bobot dan bias W1baru = 0 + 1.1.0 = 0 W2baru = 0 + 1.1.1 = 1 bias baru = 0 + 1.1 = 1 {0,1,1} y = 1 + (0.0 + 1.1) = 2, output = 1 • {1,0,1} y = 1 + (0.1 + 1.0) = 1, output = 1 • {1,1,1} y = 1 + (0.1 + 1.1) = 2, output = 1 Inisialisasi: α = 1, 𝛉 = 0,1 w = 0, b = 1 Input dan target berbentuk biner
{0,0,0} y = 1 + (0.0 + 1.0) = 1 y ≠ t, maka update bobot dan bias W1baru = 0 + 1.1.0 = 0 W2baru = 1 + 1.1.0 = 1 bias baru = 1 + 1.1 = 2 {0,0,0} y = 2 + (0.0 + 1.0) = 2, output=1 y ≠ t, maka update bobot dan bias terjadi stagnasi walaupun bobot dan bias diupdate terus. maka input dan target biner tdk cocok utk kasus OR.
Kasus OR • {-1,-1,-1} y = 0 + (0.-1 + 0.-1) = 0 y ≠ t, maka update bobot dan bias W1baru = 0 + 1.-1.-1 = 1 W2baru = 0 + 1.-1.-1 = 1 bias baru = 0 + 1.-1 = -1 {-1,-1,-1} y = -1 + (1.-1 + 1.-1) = -3, output = -1 • {-1,1,1} y = -1 + (1.-1 + 1.1) = -1 y ≠ t, maka update bobot dan bias W1baru = 1 + 1.1.-1 = 0 W2baru = 1 + 1.1.1 = 2 bias baru = -1+ 1.1 = 0
y = 0 + (0.-1 + 2.1) = 2, ouput = 1 • {1,-1,1} y = 0 + (0.1 + 2.-1) = -2 y ≠ t, maka update bobot dan bias W1baru = 0 + 1.1.1 = 1 W2baru = 2 + 1.1.-1 = 1 bias baru = 0+ 1.1 = 1 y = 1 + (1.1 + 1.-1) = 1 • {1,1,1} y = 1 + (1.1 + 1.1) = 3, output=1
Pada akhir pembelajaran diperoleh w1=1, w2 = 1, dan b=1. Pengujian data : Input : x1 = -1, dan x2 = 1 maka; y = 1 + (-1.1 + 1.1) = 1 y = t