100 likes | 211 Views
Back-Propagation Pertemuan 5. Matakuliah : T0293/Neuro Computing Tahun : 2005. Konsep Dasar BP Solusi dari keterbatasan single-layer network Penemuan algoritma BP merupakan kebangkitan kembali paradigma “ neural computing “.
E N D
Back-Propagation Pertemuan 5 Matakuliah : T0293/Neuro Computing Tahun : 2005
Konsep Dasar BP • Solusi dari keterbatasan single-layer network • Penemuan algoritma BP merupakan kebangkitan kembali paradigma “ neural computing “. • Nama-nama scientist yang memberi kontribusi terhadap pengembangan BP • Rumelhart, Hinton dan Williams (1986) • Parker (1982) • Werbos (1974)
OUT = 1 / ( 1 + e -NET ) W1 O1 OUTET W2 F O2 Wn On NET NET = O1 W1 + O2 W2 + ... + On Wn = Oi Wi OUT = F ( NET ) Konfigurasi Networks (BP) • Model Neuron Artificial Neuron with Activation Function
OUT 0.5 0 NET OUT = F(NET)1 / ( 1 + e -NET ) F’ (NET) = OUT = OUT (1-OUT) NET Activation Function Sigmoidal Activation Function Ada beberapa fungsi yang dapat digunakan; Algoritma BP memerlukan fungsi yang bersifat ‘differentiable’
Model Multilayer Networks • Model berikut adalah contoh multilayer networks yang sesuai untuk diterapkan dengan algoritma BP
HIDDEN LAYER j OUT1 INPUT LAYER k INPUT LAYER W11 TARGET1 W12 ERROR1 OUT2 W22 TARGET2 ERROR2 OUTn W2m W3m TARGETn ERRORn Two-Layer Backpropagation Network
Network Training Langkah-langkah Training • Pilih “ training pair “ ( berikutnya ); aplikasikan vektor input ke dalam network • Hitung output dari networks. • Hitung error antara “ actual output “ dengan ‘target output’. • Sesuaikan bobot dengan cara meminimumkan error. • Ulangi 1 sampai dengan 4 untuk setiap vektor dalam ‘ trainingset ’.
Forward Pass O = F ( X W ) dimana O adalah vektor output. Vektor output dari suatu layer merupakan vektor input dari layer berikutnya. Dengan demikian perhitungan output akhir dari networks dilakukan perhitungan dengan rumus di atas pada setiap layer
Reverse Pass Penyesuaian bobot pada ‘ output layer ’ : = OUT (1-OUT) (Target-OUT) Wpq,k = q,k OUTp,j Wpq,k (n+1) = Wpq,k (n) + Wpq,k
dimana Wpq,k (n) = nilai bobot dari neuron p pada ‘hidden layer’ ke neuron q pada ‘output layer’ pada langkah ke-n; subscript k menunjukkan bahwa bobot berkaitan dengan ‘destination layer’ Wpq,k (n+1) = nilai bobot pada langkah ke n+1 q,k = nilai untuk neuron q pada ‘output layer’ ke k OUTp,,j = nilai OUT untuk neuron p pada ‘hidden layer’ j Catatan: Penyesuaian bobot pada hidden layer p,,j = OUTp,,j (1- OUTp,,j) (q,k Wpq,k)