1 / 17

MLP Feed-Forward Back Propagation Net work

MLP Feed-Forward Back Propagation Net work. Nurochman. x 1. x n. Arsitektur MLP. Algoritma BackPropagation. Inisialisasi bobot-bobot dan atau bias tentukan laju pembelajaran ( α ) tentukan nilai ambang / nilai toleransi (

neveah
Download Presentation

MLP Feed-Forward Back Propagation Net work

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. MLP Feed-Forward Back Propagation Network Nurochman

  2. x1 xn Arsitektur MLP

  3. Algoritma BackPropagation • Inisialisasibobot-bobot dan atau bias tentukanlajupembelajaran (α) tentukannilaiambang/ nilaitoleransi (𝛉) atautentukan epoch maksimal • While kondisiberhentitdkterpenuhi do langkah 3 – 10 • Untuksetiappasanganpolapelatihan, lakukanlangkah 4 – 9 Tahapumpanmaju • Setiap unit input Xi darii=1 sampai n mengirimsinyalkelapisantersembunyi

  4. Menghitungsinyal output padalapisantersembunyi • Menghitungsinyal output padalapisan output Tahappropagasibalik • Menghitung error padalapisan output, menghitungbesarkoreksibobotdan bias antaralapisantersembunyidan output, lalu update bobot dan bias

  5. Menghitung error padalapisantersembunyi, menghitungbesarkoreksibobotdan bias antaralapisan input dantersembunyi, lalu update bobot dan bias

  6. Tahap update bobotdan bias • Update bobotdarilapisantersembunyikelapisan output Update bobotdarilapisan input kelapisantersembunyi • Teskondisiberhenti (error sudah <= 𝛉) atau epoch tercapai)

  7. Algoritma Aplikasi 1. Loading bobot dan bias hasil pelatihan 2. Menghitungsinyal output padalapisantersembunyi 3. Menghitungsinyal output padalapisan output 4. Output dari lapisan output itulah yang menjadi output JST

  8. Persyaratan Minimasi Error

  9. Fungsi Sigmoid Biner

  10. Fungsi Sigmoid Bipolar

  11. Fungsi Tangen Hiperbolik

  12. Inisialisasi Bobot dan Bias • Inisialisai Acak (interval antara -lamda dan lamda), misal (-0,4 dan 0,4) • Inisialisasi Nguyen-Widrow

  13. Inisialisasi Nguyen-Widrow • Pembelajaran lebih cepat • Inisialisasi bobot antara lapisan tersembunyi dan output tetap menggunakan acak • Faktor skala Nguyen-Widrow • n = jumlah unit input • p = jumlah unit tersembunyi • ß = faktor skala

  14. Prosedur Inisialisasi Nguyen-Widrow • Inisialisasi bobot antara unit input dan unit tersembunyi dengan cara: - menentukan bobot antara unit input dan unit tersembunyi Vij (lama) = bil acak antara (-ß dan ß) - Menghitung ||Vij|| - Menginisialisasi Vij: • Menentukan bias antara unit input dan unit tersembunyi dengan bilangan acak antara (-ß dan ß)

  15. Update bobot dg momentum • Momentum memaksa proses perubahan bobot • Tidak terperangkap dalam minimum lokal (local minima) • Miu adalah parameter momentum dalam range 0 sampai 1

  16. Tugas • Implementasikan algoritma BP untuk mengenali pola huruf di atas. • Satu huruf berukuran 3x5 dengan target masing-masing untuk B (1,1), D (1,-1), F(-1,1) dan H (-1,-1) • Gunakan representasi bipolar dan fungsi sigmoid bipolar

  17. Any Questions?

More Related