O‘rgatish algoritmlari
Zamonaviy o‘rgatish algoritmlari “Xebb konsepsiyasi”dan kelib chiqqan. Unda o‘qituvchisiz o‘rganish modeli taklif qilingan bo‘lib, sinaptik kuch (vazn) ortada, agar manba va qabul qiluvchi neyronlar faollashgan bo‘lsa. Bu orqali foydalaniladigan (ishlatiladigan) yo‘l kuchaytiriladi.
Sun’iy neyron to‘rlarida Xebb bo‘yicha o‘rganishda vaznlarning ortishi uzatuvchi va qabul qiluvchi neyronlar qo‘zg‘alish darajasini ko‘paytirish orqali aniqlanadi:
,
бу ерда – -neyrondan - neyronga bo‘lgan vazn (sozlanguncha), sozlagandan keyin, - o‘rganish tezligi, – -neyron chiqishi va – neyron kirishi; – - neyron chiqishi.
Persepronni o‘rgatish algoritmi
Persepron, uning kirishiga obrazlar to‘plami, ketma-ket berish va toki peretseptron obrazlarni to‘g‘ri anglamaguncha, vaznlarni sozlash orqali o‘rganiladi.
Faraz qilaylik, 1,2,3,4 raqamlari ko‘rinishi 3x4 matritsalar orqali berilgan. Raqam tasviridagi chiziq o‘tuvchi kataklarda 1, chiziq o‘tmaydiganlarda 0 qiymat qo‘yiladi. Perseptron obrazi berilgan raqamni juft yoki toqligiga mos ravishda aks ta’sir berishi kerak bo‘ladi (1-agar raqam juft bo‘lsa, 0-aks holda) berishi kerak.
Bu masalani yechish uchun quyidagi obrazlar to‘plamini berishi kerak.
|
|
1
|
|
|
|
|
|
2
|
|
|
|
|
|
3
|
|
|
|
|
|
4
|
|
|
0
|
0
|
1
|
0
|
0
|
|
1
|
1
|
1
|
1
|
1
|
|
1
|
1
|
1
|
1
|
1
|
|
1
|
0
|
0
|
0
|
1
|
0
|
1
|
1
|
0
|
0
|
|
0
|
0
|
0
|
0
|
1
|
|
0
|
0
|
0
|
0
|
1
|
|
1
|
0
|
0
|
0
|
1
|
0
|
0
|
1
|
0
|
0
|
|
1
|
1
|
1
|
1
|
1
|
|
1
|
1
|
1
|
1
|
1
|
|
1
|
1
|
1
|
1
|
1
|
0
|
0
|
1
|
0
|
0
|
|
1
|
0
|
0
|
0
|
0
|
|
0
|
0
|
0
|
0
|
1
|
|
0
|
0
|
0
|
0
|
1
|
0
|
1
|
1
|
1
|
0
|
|
1
|
1
|
1
|
1
|
1
|
|
1
|
1
|
1
|
1
|
1
|
|
0
|
0
|
0
|
0
|
1
|
|
|
1
|
|
|
|
|
|
0
|
|
|
|
|
|
1
|
|
|
|
|
|
0
|
|
|
Ҳар образ учун кириш вектори кўринишида бўлади, бу ерда – объект тасвиридаги - катак қиймати (0 ёки 1), худди шундай – соннинг жуфт ёки тоқлигига мос қиймат (0,1).
Sonlar tasviri va ularning juft-toqliga mos vektorlar:
1: (0,0,1,0,0,0,1,1,0, 0,0,0,1,0,0,0,0,1,0,0,0,1,1,1,0, 1) ;
2: (1,1,1,1,1, 0,0,0,0,1, 1,1,1,1,1, 1,0,0,0,0,1,1,1,1,1, 0);
3: (1,1,1,1,1, 0,0,0,0,1, 1,1,1,1,1, 0,0,0,0,1,1,1,1,1,1, 1);
4: (1,0,0,0,1, 1,0,0,0,1, 1,1,1,1, 0, 0,0,0,1,0,0,0,0,0,1, 0);
O‘rganish algoritmi
Киришга образ берилсин ва ҳисоблансин;
а) Агар чиқиш тўғри бўлса, 1-қадамга ўтилсин;
б) Агар чиқиш нотўғри ва 0 тенг бўлса, барча киришлар мос вазнларга қўшилсин – , ёки
в) Агар чиқиш нотўғри ва 1 тенг бўлса, барча вазнлардан уларга мос киришлар айрилсин – .
3. Биринчи қадамга ўтилсин.
9-ma’ruza. Neyron to’ri shaffofligi Tanlanma qoplamasini qurish
Obrazlarni anglashning standart masalasi qaraladi. Obyektlar to’plami berilgan bo’ilb, uning obyektlarin o’zaro kesishmaydigan sinflarga bo’lingan. Obyektlar n ta turli toifadagi alomatlar bilan tavsiflangan, ularning tasi interval shkalalrida o’lchanadi, - nominalda.
Masalaning qo’yilishi. O’rgatuvchi E0 tanlanmani obyekt-etalonlardan tashkil topgan minimal qoplamasinini qurish kerakki uning yordamida tanlanma obyektlarini korrekt anglab oluvchi algoritmlar qurish mumkin bo’lsin.
Tanlanma obyektlari tavsifidagi miqdoriy va nominal alomatlar nomerlari to’plamlarini mos ravishda I, J orqali belgilab olaylik va Sj E0 (Sj=(xj1,...,xjn)) obyekt tanlanma etaloni bo’lsin. Unda etalonning vaznlari quyidagicha hisoblab olaylik
t I, wjt = xjt и wj0 =- .
Nominal alomat vaznlarini hisoblashda obyektlar farqlanishidagi maksimal farqlanish nominal alomatlar bo’yicha maksimal farqlanishga mos keladi degan farazga asoslanadi.
Quyidagi
wmax= (-2wj0/r),
max = |Kt |(|Kt| - 1),
max = |Kt| (m - |Kt|),
yordamida har bir nominal c J alomat vazni
wjc = wmax,
ko’rinishida aniqlanadi. Bu yerda
c =
c =
Obyekt-etalon SjE0 bo’yicha mumkin bo’lgan S=(a1,...,an) obyektning chegirilgan yig’indisi quyidagi ko’rinishda hisoblanadi
(S,Sj) = wji +wj0. (1)
“G’olib barchasiga ega” tamoyiliga ko’ra S obyekt (1) ifodaga maksimum qiymat beruvchi obyekt sinfiga tegishli bo’ladi.
Berilgan E0 o’rgatuvchi tanlanmaning F qoplamasini izlash “ketma-ket o’chirish” protsedurasi bilan amalga oshiriladi.
Boshda E0 tanlanmaning barcha obyektlari etalon hisoblanadi, yani F=E0. Agar F\ Si ni etalonlar sifatida ishlatilganda anglash algoritmi E0 tanlanmada korrekt bo’lsa (xato qilmaydigan) u holda Si obyekt F qoplamadan o’chiriladi – F= F\ Si. Har qanday obyekt-etalonni F qoplamadan chiqarish anlash algoritmini E0 tanlanamda xato qilishiga olib kelsa jarayon to’xtatiladi.
“Ketma-ket o’chirish” protsedurasining natijasida F to’plam obyektlarni korrekt ravishda sinflarga ajratuvchi minimal sondagi obyekt-etalonlardan tashkil topadi. Shuni qayd etish kerakki, F to’plam tarkibi obyekt-etalonlarni o’chirish tartibiga bog’liq bo’ladi.
Misol.
Fisher Irisi
Fisher irisi tanlanmasi
150
5
1 3 sinflar
1- Setosa
2- Versicolor
3- Virginica
Gul atrofi tashqi hissasining uzunligi (sepal length)
Gul atrofi tashqi hissasining kengligi (sepal width)
Gul atrofi ichki hissasining uzunligi (petal length)
Gul atrofi ichki hissasining kengligi (petal width)
Qoplama obyekt-etalonlari (17 ta):
1-sinfdan - 50;
2-sinfdan - 53, 64, 66, 84, 91, 96;
3-sinfdan – 120, 124, 135, 143, 144, 146, 147, 148, 149, 150.
It-bo’ri tanlanmasi
42
7
1 2 Itlar va bo'rilar
Itlar
Bo'rilar
(CBL) asosiy uzunlik
(LUJ) maksiller uzunligi
(WID) yuqori jag kengligi
(LUC) yuqori yirtqich uzunligi
(LFM) birinchi yuqori molarning uzunligi
(WFM) birinchi yuqori molarning kengligi
Qoplama
1-sinfdan – 3, 16, 17, 18,19, 20, 26, 27, 28, 29;
2-sinfdan – 33, 35, 36, 37, 38, 40, 42.
Dostları ilə paylaş: |