LAPORAN AKHIR METODE KOMPUTASI
ADAPTIVE NETWORK
Disusun Oleh:
Prama Adistya W. G54080081
Farichatul Ivada G5410006
Marini Izmalita G54100014
Shoviatun Nisa G54100024
Eka Pujiyanti G54100039
Hani Asri G. G54100046
Ego Praniki S. G54100079
Danang Kalistyo G54100095
Bilyan Ustazila G54100101
DEPARTEMEN MATEMATIKA
FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM
INSTITUT PERTANIAN BOGOR
BOGOR
2013
1. Jaringan Adaptif
Jaringan Adaptif adalah struktur jaringan yang terdiri dari sejumlah node
(neuron) yang terhubung melalui penghubung secara langsung (Directional
Links). Jaringan Adaptif terdiri dari Node atau Neuron dan Directional Link. Tiap
node menggambarkan sebuah unit pemroses dalam sebuah jaringan. Direction
links merupakan penghubung antar node yang menentukan hubungan kausal
antara node yang saling berhubungan, serta menentukan arah perambatannya.
Node menurut sifatnya terdiri dari Adaptive Node dan Fixed Node.
Adaptive Node artinya keluaran (output) dari node tersebut bergantung pada
parameter, sedangkan output yang tidak bergantung pada parameter disebut Fixed
Node. Setiap node menerima input data, memprosesnya, kemudian mengeluarkan
sebuah output tunggal.
Jaringan merupakan kumpulan node-node yang terhubung, yang
dikelompokkan dalam lapisan-lapisan (layers). Arsitektur Jaringan Adaptif
berguna untuk mengatur pola hubungan dalam lapisan dan antar lapisan. Jaringan
dapat dirancang untuk menerima sekumpulan nilai input yang berupa nilai biner
atau kontinu. Dalam hal arsitektur berlapis, ada 2 struktur dasar:
1. Single Layer: struktur 2 lapisan yang terdiri input dan output.
2. Multi Layer: struktur 3 lapisan yang terdiri dari input, intermediate atau
hidden dan output.
Input dapat berasal dari data mentah maupun dari outpun yang lain,
sedangkan output dapat berupa produk final, ataupun menjadi input bagi node
lainnya.Input layer menerima data dari luar lalu mengirimkan output ke lapisan
berikutnya. Hidden layer atau intermediate tidak berinteraksi secara langsung
dengan dunia luar, tetapi dapat menambah tingkat kompleksitas agar jaringan
dapat beroperasi dalam masalah yang lebih kompleks. Output dari sebuah jaringan
adalah solusi dari masalah.
Jaringan adaptif berdasarkan pola koneksinya: feedforward dan feedback
(recurrent). Jaringan Adaptif dikatakan Feedforward jika signal bergerak dari
input kemudian melewati lapisan tersembunyi (hidden layer) dan akhirnya
mencapai unit output (mempunyai struktur perilaku yang stabil). Tipe jaringan
feedforward mempunyai sel syaraf yang tersusun dari beberapa lapisan. Yang
termasuk dalam struktur feedforward : Single-layer perceptron, Multilayer
perceptron, Radial-basis function networks, Higher-order networks, dan
Polynomial learning networks. Suatu jaringan dikatakan Recurrent jika suatu
jaringan berulang (mempunyai koneksi kembali dari output ke input) akan
menimbulkan ketidakstabilan dan akan menghasilkan dinamika yang sangat
kompleks. Yang termasuk dalam stuktur recurrent (feedback : Competitive
networks, Self-organizing maps, Hopfield networks dan Adaptive-resonance
theory models.
Gambar 1
Jaringan adaptif dalam penerapannya dibagi menjadi dua yaitu Jaringan
Saraf Tiruan dan ANFIS (Adaptif Neural Fuzzy Inference System). Jaringan Saraf
Tiruan adalah jaringan adaptif yang directional link-nya memiliki bobot. Bobot
atau parameter ini merupakan kekuatan relatif dari berbagai koneksi yang
mentransfer data dari layer ke layer lainnya. Bobot ini sangat berperan penting
dalam menghasilkan output yang diinginkan. Dalam Jaringan Saraf Tiruan
terdapat pula fungsi aktivasi yang dipakai untuk metode pembelajaran
backpropagation yang harus memiliki sifat kontinu, tak terturunkan, dan
merupakan fungsi tidak turun. Backpropagation merupakan metode turunan
gradient untuk meminimalkan total error measure, yaitu perbedaan antara output
yang diinginkan dan output jaringan yang sebenarnya. ANFIS adalah Jaringan
Adaptif yang berbasis fuzzy inference system.
Jaringan Adaptif dapat digunakan sistem identifikasi. Sistem identifikasi
ini adalah masalah penentuan model matematis untuk sistem yang diketahui atau
sistem target dengan mengamati pasangan data input-outputnya.
Contoh Jaringan Adaptif:
1. Jaringan adaptif dengan sharing parameter
Pada gambar 2 (a). Misal: , dimana dan adalah input dan
output, sedangkan adalah parameternya. Dalam kasus ini, tidak ada input
sehingga output-nya adalah parameter itu sendiri. Hal ini dapat digunakan dalam
kasus gambar 2 (b) parameter sharing, dimana ada 2 node adaptif, u = g(x,a) dan
v = h(y,a) yang berbagi dengan parameter yang sama yaitu .
(a) (b)
Gambar 2
Topological Ordering Representation merupakan kasus khusus dari layered
representation dimana setiap layernya hanya terdapat satu node seperti Gambar 3.
Gambar 3
2. Jaringan adaptif dengan single linear node
Pada Gambar 4. Misal:
, dimana dan adalah input dan adalah output, sedangkan dan
adalah parameternya yang dapat diubah-ubah. Output didapat dari
dengan parameternya yaitu dan .
Gambar 4
3. Jaringan Perseptron
Jaringan Perseptron biasanya digunakan untuk mengklasifikasikan suatu
tipe pola tertentu yang sering dikenal dengan istilah pemisahan secara linear. Pada
dasarnya, Jaringan perseptron dengan satu lapisan memiliki bobot yang bisa diatur
dan suatu nilai ambang. Pada Gambar 5. Misal:
dan
{
.
Fungsi sigmoid biner :
Jaringan perseptron menggunakan fungsi sigmoid biner karena jaringan ini
membutuhkan nilai output yang terletak pada interval 0 sampai 1, serta Output
terus menerus berubah-ubah tetapi tidak berbentuk linear. Fungsi sigmoid ini juga
memiliki sifat kontinu, terturunkan dan merupakan fungsi tak turun. Output
didapatkan dari fungsi dimana adalah dengan parameternya
dan .
Gambar 5
4. Multilayer Perceptron
Multilayer Perceptron adalah jaringan perseptron yang memiliki input
layer, hidden layer, dan output layer. Pada Gambar 6. Misal:
( ) dimana dan adalah input, adalah
bobot, adalah fungsi threshold, sedangkan dan adalah output. Pada fungsi
threshold, output diatur satu dari dua tingkatan tergantung dari jumlah input yang lebih
besar atau lebih kecil dari nilai ambang. Pada gambar ini menunjukkan terdapat tiga
input, dua output, dan tiga hidden layer.
Gambar 6
2. Backpropagation
Backpropagation merupakan model jaringan adaptif dengan multiple
layer. Backpropagation melatih jaringan untuk mendapatkan keseimbangan antara
kemampuan jaringan untuk mengenali pola yang digunakan selama pelatihan serta
kemampuan jaringan untuk memberikan respon yang benar terhadap pola
masukan yang serupa (tapi tidak sama) dengan pola yang dipakai selama
pelatihan.
Fungsi Aktivasi pada Backpropagation
Dalam backpropagation, fungsi aktivasi yang dipakai harus memenuhi
beberapa syarat sebagai berikut.
1. Kontinu
2. Terdiferensial dengan mudah
3. Merupakan fungsi yang tidak turun
Backpropagation pada Jaringan Feedfoward
Pada jaringan feedfoward (umpan maju) pelatihan dilakukan dalam rangka
perhitungan bobot sehingga pada akhir pelatihan akan diperoleh bobot-bobot yang
baik. Selama proses pelatihan, bobot-bobot diatur secara iteratif untuk
meminimumkan error (kesalahan) yang terjadi. Error (kesalahan) dihitung
berdasarkan rata-rata kuadrat kesalahan (MSE). Rata-rata kuadrat kesalahan juga
dijadikan dasar perhitungan unjuk kerja fungsi aktivasi. Sebagian besar pelatihan
untuk jaringan feedfoward (umpan maju) menggunakan gradien dari fungsi
aktivasi untuk menentukan bagaimana mengatur bobot-bobot dalam rangka
meminimumkan kinerja. Gradien ini ditentukan dengan menggunakan suatu
teknik yang disebut backpropagation.
Pelatihan backpropagation meliputi 3 fase sebagai berikut.
a) Fase 1, yaitu propagasi maju.
Pola masukan dihitung maju mulai dari input layer hingga output layer
menggunakan fungsi aktivasi yang ditentukan.
b) Fase 2, yaitu propagasi mundur.
Selisih antara keluaran jaringan dengan target yang diinginkan merupakan
kesalahan yang terjadi. Kesalahan yang terjadi itu dipropagasi mundur.
Dimulai dari garis yang berhubungan langsung dengan unit-unit di output
layer.
c) Fase 3, yaitu perubahan bobot.
Modifikasi bobot untuk menurunkan kesalahan yang terjadi. Ketiga fase
tersebut diulang-ulang terus hingga kondisi penghentian dipenuhi.
Pemilihan bobot awal sangat mempengaruhi jaringan aditif dalam
mencapai minimum global (atau mungkin lokal saja) terhadap nilai error
(kesalahan) dan cepat tidaknya proses pelatihan menuju kekonvergenan.
Apabila bobot awal terlalu besar maka input (masukan) ke setiap hidden
layer atau output layer (keluaran) akan jatuh pada daerah dimana turunan
fungsi aktivasinya akan sangat kecil. Apabila bobot awal terlalu kecil,
maka input (masukan) ke setiap hidden layer atau output layer (keluaran)
akan sangat kecil. Hal ini akan menyebabkan proses pelatihan berjalan
sangat lambat. Biasanya bobot awal diinisialisasi secara random dengan
nilai antara -0.5 sampai 0.5 (atau -1 sampai 1 atau interval yang lainnya).
Setelah pelatihan selesai dilakukan, jaringan dapat dipakai untuk
pengenalan pola. Dalam hal ini, hanya propagasi maju saja yang dipakai
untuk menentukan keluaran jaringan.
Backpropagation pada Jaringan Recurrent
Backpropagation Through Time ( BPTT )
Jaringan dioperasikan secara serentak dalam mengidentifikasi satu set
parameter yang akan membuat output dari node (atau beberapa node) mengikuti
lintasan yang diberikan dalam domain waktu diskrit. Metode penyelesaian di sini
dilakukan dengan mengubah jaringan berulang menjadi feedforward satu, selama
waktu tidak melebihi maksimum . Ide ini awalnya diperkenalkan oleh Minsky
dan Papen dan dikombinasikan dengan backpropagation oleh Rumelhart, et al.
Gambar di (a) mempunyai konfigurasi yang sama dengan gambar (b) tetapi
variabel input dan dihilangkan agar bentuknya lebih sederhana. Gambar (b)
berbentuk jaringan feedforward dengan indeks waktu berjalan dari 1 sampai 4.
Jaringan recurrent mengevaluasi pada masing-masing fungsi simpul tersebut
dengan , kita dapat hanya menduplikasi semua unit waktu dan
mengatur jaringan yang dihasilkan dengan cara berlapis. Dua
jaringan pada Gambar (a) dan (b) berperilaku identik untuk sampai ,
asalkan semua salinan parameter di waktu yang berbeda langkah tetap sama.
(a) synchronously operated recurrent network
(b) feedforward equivalent obtained via unfolding of time
Real-Time Recurrent Learning (RTRL)
BPTT umumnya bekerja dengan baik untuk sebagian besar masalah, satu-
satunya komplikasi adalah bahwa Hal ini membutuhkan sumber daya yang luas
komputasi ketika panjang urutan besar, karena duplikasi node membuat kedua
persyaratan memori dan simulasi waktu sebanding dengan . Oleh karena itu,
untuk urutan sangat panjang atau urutan panjang tidak diketahui harus digunakan
Real-Time Recurrent Learning (RTRL) (untuk memperbarui parameter sementara
jaringan berjalan bukan pada akhir urutan yang disajikan). Untuk menyimpan
perhitungan dan kebutuhan memori , pilihan yang masuk akal adalah untuk
meminimalkan pada setiap langkah waktu daripada mencoba untuk
meminimalkan pada akhir urutan.
Jaringan Operasi kontinu
Menentukan nilai error propagation dari jaringan recurrent dalam waktu
yang kontinu, salah satu metode yang dipergunakan adalah dengan
menggunakan rumus Mason gain.
Rumus Masson’s Gain dipergunakan untuk menentukan hubungan antara
input varible dan output variable dalam grafik aliran sinyal sebab dapat dipakai
dalam penyelesaian bentuk-bentuk kasus praktis. Dimana transmisi antara input
node dan output node merupakan penguatan keseluruhan, atau transmisi
keseluruhan antara dua buah node.
Rumus Mason’s Gain:
∑
∑
∑
Keterangan:
= total semua gain
= gain atau transmisi lintasan maju
= determinan grafik
= ∑
∑
∑
∑
= Jumlah dari semua penguatan loop yang berbeda
∑
=
Jumlah hasil kali penguatan dari semua,
kombinasi yang mungkin dari dua
loop yang tidak bersentuhan.
∑
=
Jumlah hasil kali penguatan dari semua kombinasi
yang mungkin dari tiga loop yang tidak
bersentuhan. dst.
=
Kofaktor dari determinan lintasan maju ke
dengan menghilangkan loop-loop yang menyentuh
lintasan maju ke .
Contoh mencari error propagation menggunakan Rumus Mason’s Gain
Tentukan error propagation yang melewati node 3
Jawab: terdapat dua input yang bisa mengalir ke node 3.
a. Maka kita tinjau terlebih dahulu input I1 (5-4-3-5 dan 5-6-4-3-5)
Tentukan terlebih dahulu loop yang ada di dalam diagram yang dilewati
input 1 seperti berikut.
Hitung jumlah loop. Dari diagram di atas diketahui ada 3 loop, yang nanti
diberi nama dan
Loop 1 (5-4-3); ,
Loop 2 (5-6-4-3); ,
Loop 3 (6);
Tentukan terlebih dahulu dan tentukan loop mana yang tidak saling
bersentuhan
Dua loop yang tidak saling bersentuhan adalah loop 1 dan loop 3, dan
tidak ada tiga loop yang tidak bersentuhan, maka
Karena ada dua sinyal alir yang bisa melewati node 3 yakni melalu node 5-
4-3 dan 5-6-4-3, maka
Kemudian cari dan masing-masing. Mencari sesuai bobot sinyal
alir yang dilewati menuju node 3, sedangkan untuk rumus mencari
(∑ yang tidak menyentuh sinyal alir)
= 1 sinyal alir (5-4-3) = 2 sinyal alir (5-6-4-3)
= =
1 (semua loop menyentuh sinyal
alir)
(Karena hanya loop 3 saja yang tidak menyentuh sinyal alir 1) maka dari
input 1 diperoleh :
∑
b. Kemudian kita tinjau input 2 (6-4-3-5-6). Dengan cara yang sama dari
input 1
Tentukan terlebih dahulu loop yang ada di dalam diagram yang dilewati
input 2 seperti berikut.
Dengan sinyal alir dari input ke input lagi yakni 6-4-3-5-6. Sama
seperti input 1, terdapat 3 loop sehingga nilai
.
Karena hanya ada satu sinyal alir yang bisa melewati node 3 yakni
melalu node 6-4-3 saja, maka
Kemudian cari dan masing-masing.
= 1 sinyal alir (6-4-3)
=
(semua loop menyentuh sinyal alir)
Maka dari input 2 diperoleh :
∑
Total sinyal error dari node 3
3. HYBRID LEARNING RULE :COMBINING STEEPEST DESCENT dan
LSE
Sebenarnya ada dua paradigma pembelajaran bagi jaringan adaptif.
Dengan metode Batch Learning (atau off-line learning) yang dilakukan dengan
cara meng-update rumus untuk parameter didasarkan pada
∑
dan tindakan pembaruan terjadi hanya setelah data pelatihan seluruhnya telah
disajikan, yakni hanya setelah setiap epoch ( iterasi).
Di sisi lain, Pattern-By-Pattern Learning (atau on-line Learning) adalah
metode pembelajaran yang menginginkan parameter yang akan diperbarui segera
setelah masing-masing pasangan input-output telah disajikan, maka rumus
pembaruan didasarkan pada
∑
1. Hybrid Learning: Off-Line Learning (Batch Learning)
Meskipun kita dapat menerapkan metode gradien untuk mengidentifikasi
parameter dalam jaringan adaptif, metode ini umumnya lambat dan cenderung
hanya menemukan minimum lokal. Untuk mengatasi hal ini, ada sebuah
pembelajaran hibrida yang menggabungkan Metode Gradien dan Metode Kuadrat
Terkecil (LSE) untuk mengidentifikasi parameter.
Untuk mempermudah, asumsikan bahwa jaringan adaptif hanya memiliki satu
output
Keterangan:
: himpunan variabel input
S : himpunan parameter
Jika terdapat fungsi dan fungsi adalah linear dalam beberapa
elemen dari , maka elemen-elemen ini dapat diidentifikasi dengan metode
kuadrat terkecil.
dengan adalah vektor yang elemen-elemennya diketahui parameter di S1 .
Setiap zaman prosedur pembelajaran hybrid ini terdiri dari lulus maju dan lulus
mundur. Keterangan:
S1 = bobot dan ambang batas lapisan tersembunyi
S2 = bobot dan ambang batas lapisan output
Oleh karena itu, kita dapat menerapkan aturan pembelajaran
backpropagasi untuk menyesuaikan parameter dalam lapisan tersembunyi, dan
parameter pada lapisan output dapat diidentifikasi dengan metode kuadrat terkecil.
Contoh Off-Line learning :
Trainning set berisi 500 input-output pasang, maka masing-masing berat dalam
jaringan saraf disesuaikan 1000 kali.
2. On-Line Learning (Pattern-By-Pattern Learning)
Pattern-By-Pattern (On-Line) Learning adalah memperbarui parameter
setelah setiap penyajian data. Paradigma pembelajaran ini sangat penting untuk
sistem dengan perubahan karakteristik. Untuk sekuensial kuadrat terkecil formula
untuk memperhitungkan karakteristik waktu bervariasi dari data yang masuk, kita
perlu melakukan transformasi data lama sebagai pasangan data baru. Salah satu
metode sederhana adalah merumuskan ukuran kesalahan squared yang
memberikan bobot yang lebih tinggi untuk lebih banyak pasangan data terbaru.
Dengan menggunakan pembelajaran prosedur hybrid, arsitektur yang
diusulkan dapat memperbaiki fuzzy aturan if-then yang diperoleh dari para pakar
untuk menggambarkan input-output perilaku sistem yang kompleks . Namun, jika
tidak ada ahli pakar, kita masih bisa mengatur secara intuitif (berdasarkan data,
percobaan, dll) fungsi keanggotaan awal dan proses pembelajaran untuk
menghasilkan satu set fuzzy aturan if-then untuk mendekati yang diinginkan. Contoh On-Line Learning:
Trainning set berisi 500 input-output pasang, mode ini menyesuaikan bobot 500
kali untuk setiap kali algoritma melalui set trainning. Jika algoritma konvergen
setelah 1000 iterasi, masing-masing berat disesuaikan total 50.000 kali
3. Different Ways of Combining Steepest Descent and LSE
Perhitungan metode kuadrat terkecil lebih kompleks dibandingkan dengan
Steepest Descent. Ada empat metode untuk memperbarui parameter , seperti yang
tercantum di bawah ini sesuai dengan kompleksitas :
1. One pass of LSE only
2. Steepest Descent Only
Semua parameter diperbarui oleh keturunan gradien .
3. One Pass of LSE followed by SD
4. The LSE
Diterapkan hanya sekali di awal untuk mendapatkan nilai awal parameter
konsekuen dan kemudian gradient descent mengambil alih untuk
memperbarui semua parameter.
5. Steepest Descent dan LSE
6. LSE only
4. Aplikasi
Pada makalah ini, akan dibahas pula penerapan atau aplikasi dari materi
yang telah dijelaskan sebelumnya. Aplikasi dari materi ini disadur dari Skripsi
yang ditulis oleh Suwarno (Alumni Departemen Matematika 42) dengan judul
“Aplikasi Jaringan Syaraf Tiruan Berbasis Metode Backpropagasi untuk
Memprediksi Konsentrasi Gula Darah”.
Dalam ilmu kedokteran, gula darah adalah tingkat glukosa di dalam darah.
Konsentrasi gula darah atau tingkat glukosa serum diatur di dalam tubuh.
Konsentrasi gula darah dalam tubuh yang melebihi ambang batas menyebabkan
komplikasi penyakit, salah satunya risiko serangan jantung. Oleh sebab itu,
mengetahui konsentrasi gula darah di dalam tubuh sangat penting untuk setiap
orang. Penelitian ini memberikan suatu metode untuk memprediksi konsentrasi
gula darah yang diharapkan dapat mengefisienkan biaya dan waktu proses, relatif
dibanding dengan metode konvensional.
Pada penerapan aplikasi ini, dijelaskan cara menggunakan jaringan syaraf
tiruan untuk mengetahui tingkat glukosa di dalam darah seseorang. Penentuan
nilai konsentrasi gula darah membutuhkan data masukan (input) untuk
membangun struktur jaringan syaraf tiruan. Data input berupa data kuat arus
listrik (i) dan waktu (t), sedangkan data output berupa data konsentrasi gula darah
(s). Data input ini diperoleh dari nilai keluaran suatu alat yang dinamakan alat
biosensor amperometrik, yaitu berupa data kuat arus listrik, waktu reaksi dengan
enzim, dan konsentrasi gula darah. Sistem jaringan syaraf ini akan digabungkan
dengan alat biosensor amperometrik.
Gambar 1 Alat biosensor amperometrik.
Berikut ini adalah data masukan (input) dan data keluaran (output) yang
merupakan target yang diharapkan. Data ini diperoleh dengan menggunakan alat
biosensor amperometrik.
Tabel 1 Data Input dan Output
Implementasi jaringan syaraf tiruan (JST) dilakukan dengan menggunakan
software MATLAB R2008b yang didesain untuk menyelesaikan suatu model
jaringan syaraf tiruan backpropagation. Perambatan galat mundur
(backpropagation) adalah metode sistematik untuk pelatihan multilayer jaringan
syaraf tiruan. Algoritma backpropagation meliputi tiga fase sebagai berikut:
1. Fase propagasi maju
2. Fase propagasi mundur
3. Fase perubahan bobot
Ketiga fase tersebut diulang terus menerus hingga kondisi penghentian
terpenuhi. Struktur jaringan syaraf tiruan (JST) yang digunakan dalam aplikasi ini
diasumsikan sebagai struktur jaringan syaraf tiruan yang dibentuk terdiri dari
lapisan input dengan 2 neuron, lapisan tersembunyi dengan 3 neuron, dan lapisan
output dengan 1 neuron, seperti yang terlihat pada gambar berikut:
Gambar 2 Struktur JST multilayer net.
dengan → , → , 𝑏 𝑏 → & 𝑏 𝑠 → 𝑣 dan 𝑠 → .
Dilakukan metode algoritma backpropagation dengan mengambil data
input dan data ouput sebagai target yang telah dijelaskan pada gambar 2. Namun,
untuk mengolah data tersebut, diperlukan juga nilai bobot dan bias yang diperoleh
dengan cara membangkitkan bilangan acak yang sangat kecil oleh komputer serta
fungsi aktivasi. Fungsi aktivasi yang digunakan adalah fungsi sigmoid biner,
yaitu: 1
( )1 x
f xe
dengan fungsi turunannya
2
'( )1
x
x
ef x
e
.
Dalam backpropagation, fungsi aktivasi yang digunakan harus memenuhi
beberapa syarat yaitu kontinu, terdiferensial dengan mudah, dan merupakan fungsi
yang tidak turun. Salah satu fungsi yang memenuhi ketiga syarat tersebut
sehingga sering digunakan adalah fungsi sigmoid biner yang memiliki range Misalkan juga diperoleh nilai data-data sebagai berikut:
Bobot Lapisan
Tersembunyi
Bobot Lapisan
Output Bias
11 0.1w 21 0.1w 1 0.1v 11 0.1bias
12 0.2w 22 0.2w 2 0.2v 𝑏 𝑠
13 0.1w 23 0.1w 3 0.1v
Tabel 2 Nilai Bobot dan Bias
Pada tabel 1 nomor 1, terdapat data input dengan 884 733 𝑠
9 dan pada tabel 2, terdapat 11 0.1w 21 0.1w
11 0.1bias
Fase Propagasi Maju
1. Tentukan nilai 𝑧
11 1 11 2 21 11
0.8841 0.1 0.1 0.1 0.
9 1
1
0.1 84
netz x w x w bias
2. Gunakan fungsi aktivasi untuk menghitung nilai 1z
1 11
0.19841
0.19841
0.54941
1
netz f z
f
e
3. Hitung nilai
seperti cara 1
1 1 1 1
0.5494 0.1 0.
0.2549
2
nety z v bias
4. Gunakan fungsi aktivasi kembali untuk menghitung nilai y
1
0.2549
1
1
0.2549
0.5633
nety f y
f
e
Fase Propagasi Mundur
Bandingkan nilai y yang diperoleh dengan cara perhitungan dengan target
nilai y yang diperoleh dengan alat biosensor amperometrik. Karena
diperoleh nilai 0.5633y (perhitungan) tidak sama dengan nilai target
𝑠 9 (alat biosensor amperometrik) maka perlu dilakukan pencarian
bobot yang baru sehingga nilai erornya menjadi sangat kecil.
Fase Perubahan Bobot
1. Tentukan nilai bobot baru
1 1
0.5633
20.5633
'
0.9 0.56331
0.0778356
nett y f y
e
e
dengan adalah unit kesalahan (eror).
11 1 1
0.5 0.0778356 0.884
0.03
1
44
w x
dengan adalah laju pembelajaran yang nilainya kita tentukan
sendiri.
11 11 11
0.1 0.0344
0.1344
w baru w lama w
2. Tentukan nilai bias baru seperti
1 1 1
0.5 0.077 08356 .5494
0.0213
v z
1 1 1
0.1 0.0213
0.1213
v baru v lama v
Setelah bobot dan bias baru diperoleh, dilakukan perhitungan kembali seperti pada
FASE PROPAGASI MAJU. Hal ini dilakukan secara terus menerus hingga
diperoleh error yang sangat kecil.
5. KESIMPULAN
Proses ini dilakukan terus menerus hingga menemukan struktur jaringan
syaraf tiruan (JST) yang optimal sehingga jika terdapat data yang baru maka nilai
prediksi tidak jauh berbeda dengan nilai sebenarnya. Disebut jaringan adaptif
karena sistem dapat memperbaiki kesalahan sehingga diperoleh unit kesalahan
(error) yang sangat kecil.
LAMPIRAN
Agenda Pertemuan
Presensi
Nama Pertemuan 1 Pertemuan 2 Pertemuan 3
Prama Adistya W Izin acara Hadir Hadir
Bilyan Ustazila Hadir Hadir Hadir
Marini Izmalita Hadir Hadir Hadir
Eka Pujiyanti Hadir Hadir Hadir
Ego Praniki S Izin acara Izin masih dalam
perjalanan menuju
Bogor
Hadir
Danang K. Izin ngajar Hadir Hadir
Fachriyatul Ivada Hadir Hadir Hadir
Hani Asri G. Hadir Hadir Hadir
Shoviatun Nisa Izin kuliah SC Hadir Hadir
Tanggal Waktu Agenda
09/12/13 10.00-10.30 Briefing dan persiapan
akhir persentasi
07/12/13 08.00-16.00 Membuat slide, pembagian
job persentasi
05/12/13 15.00-17.00 Konsultasi dengan Ibu Sri
04/12/13 10.00-13.00 Mendalami materi,
mempersiapkan
pembahasan untuk
dikonsultasikan dengan
Ibu Sri
02/12/13 10.00-13.00 Persentasi dan
pengumpulan job masing-
masing, mencari materi
pendukung.
28/12/13 10.00-10.30 Pembagian job untuk
memndalami materi dan
mempersiapkan agenda
selanjutnya
Nama Pertemuan 4 Pertemuan 5 Pertemuan 6
Prama Adistya W Hadir Hadir Hadir
Bilyan Ustazila Hadir Hadir Hadir
Marini Izmalita Hadir Hadir Hadir
Eka Pujiyanti Hadir Hadir Hadir
Ego Praniki S Hadir Hadir Hadir
Danang K. Izin kuliah Hadir Hadir
Fachriyatul Ivada Hadir Hadir Hadir
Hani Asri G. Hadir Hadir Hadir
Shoviatun Nisa Izin responsi SC Hadir Hadir
Pembagian Tugas
Nama Tugas
Prama Adistya W Mendalami 8.3
Bilyan Ustazila Mendalami 8.4
Marini Izmalita Mendalami 8.4.1
Eka Pujiyanti Mendalami 8.5.2 dan
aplikasi
Ego Praniki S Mendalami 8.1 dan
8.2
Danang K. Mendalami 8.5
Fachriyatul Ivada Mendalami 8.4.1
Hani Asri G. Mendalami 8.1 dan
8.2
Shoviatun Nisa Mendalami 8.5.3