1 / 14

JST BACK PROPAGATION

JST BACK PROPAGATION.

mervyn
Download Presentation

JST BACK PROPAGATION

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. JST BACK PROPAGATION

  2. Backpropagationmerupakanalgoritmapembelajaran yang terawasidanbiasanyadigunakanolehperceptrondenganbanyaklapisanuntukmengubahbobot-bobot yang terhubungdengan neuron-neuron yang adapadabagiantersembunyi. Algoritmabackpropagationmenggunakan error output untukmengubahnilaibobot-bobotnyadalamarahmundur (backward). Untukmendapatkan error ini, tahapperambatanmaju (forward propagation) harusdikerjakanterlebihdahulu. Pada saat perambatan maju, neuron-neuron diaktifkan dengan menggunakan fungsi aktivasi sigmoid, yaitu :

  3. Arsitekturjaringanbackpropagationsepertiterlihatpadagambarberikut.Arsitekturjaringanbackpropagationsepertiterlihatpadagambarberikut.

  4. AlgoritmaBackpropagation : • AlgoritmaBackpropagation : • Inisialisasibobot (ambilbobotawaldengannilai random yang cukupkecil). • Kerjakanlangkah-langkahberikutselamakondisiberhentibernilai FALSE. Langkah-langkahnyasebagaiberikut : • Untuktiap-tiapelemen yang akandilakukanpembelajaran, kerjakan : • Feedforward : • Tiap-tiap unit input menerimasinyal xidanmeneruskansinyaltersebutkesemua unit padalapisan yang adadiatasnya (lapisantersembunyi).

  5. Soal • Buatlahjaringansarafuntukfungsilogika XOR-2 input sesuaitabelberikut.

  6. Arsitekturjaringandi-set sbb. • 1 input layer, dengan 2 neuron (x1dan x2) • 1 hidden layer, dengan 4 neuron (z1,z2,z3dan z4) Gunakanfungsiaktivasi sigmoid • 1 output layer dengan 1 neuron Gunakanfungsiaktivasi sigmoid

  7. Nilai-nilaibobotdan bias awalditentukansbb. Bobotawal input ke hidden layer : v11 = 0,1; v12 = 0,2; v13 = 0,3; v14 = 0,4 v21 = 0,1; v22 = 0,2; v23 = 0,3; v24 = 0,4 Bobotawal bias ke hidden layer: v01 = 0,1; v02 = 0,2; v03 = 0,3; v04 = 0,4 Bobotawal hidden layer ke output layer: w1 = 0,1; w2 = 0,2; w3 = 0,3; w4 = 0,4 Bobotawal bias ke output layer: w0 = 0,5 Untukkebutuhanpelatihanjaringanditentukan pula: Learning rate (α) = 1 Maksimum Epoch = 1500 Target error = 0,02

  8. Tugas • Buatlahjaringansarafuntukfungsilogika XOR-2 input apabilaarsitekturjaringandisetsbb. 1 input layer, dengan 2 neuron (x1dan x2) 1 hidden layer dengan 3 neuron (z1, z2dan z3) 1 output layer dengan 1 neuron Nilai-nilaibobotdan bias awalditentukansbb.

  9. Bobotawal input ke hidden layer : v11 = 0,2; v12 = 0,1; v13 = 0,5; v14 = 0,4 v21 = 0,3; v22 = 0,2; v23 = 0,3; v24 = 0,6 Bobotawal bias ke hidden layer: v01 = 0,4; v02 = 0,2; v03 = 0,5; v04 = 0,1 Bobotawal hidden layer ke output layer: w1 = 0,2; w2 = 0,7; w3 = 0,3; w4 = 0,1 Bobotawal bias ke output layer: w0 = 0,3 Untukkebutuhanpelatihanjaringanditentukan pula: Learning rate (α) = 0,5 Maksimum Epoch = 3

More Related