127
qiladi. Agar tarmoq arxitekturasi aniqlangan bo‘lsa, u holda G funktsiyasining
shakli sinaptik og‘irliklar va siljitish(surish) qiymatlari bilan belgilanadi.
Mayli Y = F (X) funktsiyasi, kirish-chiqish juftliglari ma’lumotlari (X1, Y1),
(X2, Y2), ..., (XN, YN) bilan berilgan biror bir masalaning Yk = F(Xk) (k = 1, 2,
…, N) echimi bo‘lsin. Unda o‘qitish bu, ba’zi xato E funktsiyasi chegarasida, F ga
yaqin bo‘lgan G funktsiyani topishdan (sintez qilishdan) iboratdir.
Agar o‘rgatuvchi juftliklar (XN, YN) (bu erda k = 1, 2, ..., N) to‘plami
tug‘ri tanlansa va E xato funktsiyasini hisoblash usuli bo‘lsa, neyron tarmog‘ini
o‘rgatish ko‘p o‘lchovli optimallashtirish muammosiga aylanadi.
Umuman
olganda, E funktsiyasi ixtiyoriy shaklga ega bo‘lishi mumkin ekanligini hisobga
olsak, bu juda katta o‘lchamli, ko‘p qirrali optimallashtirish muammosidir.
Bu muammoni hal qilish uchun quyidagi (takrorlanuvchi-iteratsion)
algoritmlarning biridan foydalanish mumkin:
1. Birinchi darajali xususiy hosila hisoblash bilan
lokal optimallashtirish
algoritmlari:
• gradient algoritmi (eng keskin tushish usuli),
• antigradiyent yo‘nalishi bo‘yicha maqsad funktsiyasini bir o‘lchovli va ikki
o‘lchovli optimallashtirish usullari;
• birlashtirilgan gradient usuli,
• algoritmning bir necha bosqichlarida antigradiyent yo‘nalishini hisobga
oladigan usullar;
2. Birinchi va ikkinchi darajali xususiy hosila
hisoblash bilan mahalliy
optimallashtirish algoritmlari:
• Nyuton usuli,
• siyrak Gessa matritsalari bilan optimallashtirish usullari,
• kvazi-Nyuton usullari,
• Gauss-Nyuton usuli,
• Levenberg-Markard usuli va boshqalar;
3. Stoxastik optimallashtirish algoritmlari:
• tasodifiy yo‘nalishda qidirish,
128
• tavlanishga taqlid,
• Monte -Karlo usuli (statistik testlarning sonli usuli);
4. Global optimallashtirish algoritmlari (global optimallashtirish
muammolari maqsad funktsiyasi bog‘liq bo‘lgan o‘zgaruvchilar
qiymatlarini
sanash orqali hal qilinadi).
Dostları ilə paylaş: