Guruch. 1. Neyron tarmog'idagi simlar orqali o'zaro bog'langan matematik neyronlar
uning prototipi, miyaning biologik neyronining tuzilishi va xususiyatlarini aniqlaydi. Shu asosda V.Makkullok va V.Pitts [100] maqolalarida juda jasur va hatto bir qadar fantastik farazni ifodaladilar va bu faraz keyinchalik zamonaviy neyroinformatikaning asosini tashkil etdi. Ularning fikricha, agar matematik neyronlar miya nerv tolalarini taqlid qiluvchi simlar orqali o‘zaro bog‘langan bo‘lsa (4.6-rasm) va miyada bo‘lgani kabi elektr signallari simlar orqali yuborilsa, bunday sun’iy miya intellektual muammolarni hal qila oladi. xuddi tabiiy inson miyasi kabi! Tanqidchilar absurd deb atagan bu fikrni esa oradan 15 yil o‘tib amerikalik olim Frenk Rozenblat ajoyib tarzda tasdiqladi [48, 101, 102]. 1958 yilda u IBM-794 uchun matematik neyronlarning faolligini taqlid qiluvchi kompyuter dasturini yaratdi. Bu birinchi neyron tarmoq yoki qisqacha neyron tarmoq edi. U inglizcha perception - xabardorlik so'zidan perceptron nomini oldi.
Keyin, ikki yil o'tgach, Rosenblatt elektron qurilmani yig'di, unda matematik neyronlarning funktsiyalari vakuum naychalarida ishlaydigan alohida elektr zanjirlari tomonidan amalga oshiriladi. Bu eng qiyin intellektual muammoni muvaffaqiyatli hal qilgan birinchi neyrokompyuter bo'ldi - u o'z o'quvchisiga olib kelingan kartalarda tasvirlangan lotin alifbosi harflarini tanidi - elektron ko'z.
Shunday qilib, jasur Makkaloch-Pitts gipotezasi eksperimental tarzda tasdiqlandi. Ammo tajriba muvaffaqiyatli bo'lganligi sababli, bu bizning miyaning biologik tuzilishi va tuzilishi, uning ichki elektrofiziologik jarayonlari, ma'lumotlarni yodlash va saqlash usuli haqidagi fikrlarimiz to'g'ri bo'lganligini anglatadi. edi
rasm. Perseptron sonlarni juft va toq bo'lib tasniflash
biologik neyronning modeli sifatida matematik neyronning etarliligi tasdiqlandi. Neyron tarmog'i va neyrokompyuterning miya modeli sifatida etarliligi tasdiqlandi. "Biz inson miyasining ishini aniq takrorlaymiz, deb ayta olmaymiz, - deb yozgan edi F. Rosenblatt, - ammo hozircha perseptron haqiqatga eng yaqin".
Aniq masalalarni yechish misolida perseptronning ishlash prinsipini tahlil qilaylik. 4.7-rasmda raqamlarni juft va toq toifalarga ajratish uchun mo'ljallangan perseptronning eng oddiy versiyalaridan biri ko'rsatilgan. Har bir qatorda uchtadan fotoelement bo'lgan to'rtta gorizontal qatorda joylashgan 12 ta fotoelementdan iborat matritsani tasavvur qiling. Raqam tasviri bo'lgan karta, masalan, "4" fotoelementlar matritsasi ustiga qo'yilgan (4.7-rasmga qarang). Agar raqamning bo'lagi har qanday fotoelementga tushsa, u holda bu fotoelement birlik shaklida signal hosil qiladi, aks holda - nolga teng. Shaklda. 4.7 raqamning fragmenti birinchi fotoelementga
tushmadi va shuning uchun uning signali x1 = 0; raqamning bir qismi ikkinchi fotoelementga tushdi va shuning uchun u x2 = 1 signalini hosil qiladi va hokazo. (4.1) – (4.2) formulalarga muvofiq, matematik neyron kirish signallarini xj sinaptik og'irliklarga ko'paytirilgan wj jamlaydi. So'ngra S yig'ish natijasi sezgirlik chegarasi th bilan taqqoslanadi va chiqish signali y hosil bo'ladi.
Sinaptik og'irliklar wj va sezgirlik chegarasi th ning boshlang'ich qiymatlari Rosenblatt tomonidan tasodifiy sonlar generatori bilan o'rnatildi, shuning uchun perseptronning chiqishida tasodifiy signal hosil bo'ldi: 0 yoki 1.
Vazifa quyidagicha edi. Sinaptik og'irliklarning wj qiymatlarini shunday tanlash kerak ediki, chiqish signali y qiymatini oladi birlik agar ustida karta edi
tasvirlangan hatto raqam, va agar nol raqamBo'lgandi g'alati.
F.Rozenblat fotoelementlarga kartochkalarni navbatma-navbat qo'llash va sinaptik og'irliklarni wj sozlash orqali perseptronni o'rgatish yo'li bilan bu muammoni hal qildi. Agar, masalan, perseptronning kirish qismida "4" raqamiga ega karta taqdim etilgan bo'lsa va y chiqish signali tasodifan birga teng bo'lib chiqsa, ya'ni paritetni anglatadi, u holda sinaptik og'irliklarni tuzatish kerak emas edi, chunki perseptronning reaktsiyasi to'g'ri. Va agar chiqish signali nolga teng bo'lsa, bu noto'g'ri bo'lsa, unda neyronning qo'zg'alishiga hissa qo'shgan faol kirishlarning og'irligini oshirish (rag'batlantirish) kerak edi. Bunday holda, w2, w11 va boshqalar o'sishiga to'g'ri keldi.
Ushbu fikrdan kelib chiqib, perseptronni to'g'ri yo'nalishda o'rganishni ta'minlaydigan sinaptik og'irliklarni sozlash uchun iterativ algoritmni shakllantirish mumkin.
1-qadam. Tasodifiy sonlar generatori yordamida barcha sinaptik og'irliklar wj (j = 1,
. . . ., 12) va neyron sezuvchanlik chegarasi th uchun bir nechta kichik tasodifiy qiymatlarni tayinlang.
Qadam 2. Perseptronga istalgan raqamni ko'rsating. Fotoelementlar tizimi xj (j = 1,
.. ., 12) kirish vektorini hosil qiladi.
3-qadam Neyron amalga oshiradi vaznlijamlash kirish signallari 12 S = Xwjxj
j=1
va agar S >th bo'lsa y = 1 yoki S < th bo'lsa y = 0 chiqish signalini hosil qiladi. 4- qadam a. Chiqish to'g'ri bo'lsa, 2-bosqichga o'ting.
4b-qadam. Agar chiqish signali noto'g'ri bo'lsa va nolga teng bo'lsa, u holda faol kirishlarning og'irligini oshiring: masalan, har bir j-sinaptik vaznga j-chi kirish signalining qiymatini qo'shing wj(t + 1) = wj(t) + xj.
Keyin, agar kirish faol bo'lmagan bo'lsa, ya'ni xj = 0 bo'lsa, j-sinaptik og'irlik o'zgarmaydi. Agar kirish faol bo'lsa, ya'ni xj = 1 bo'lsa, j-chi sinaptik og'irlik bittaga ortadi.
Bu yerda va pastda t takrorlashlar sonini bildiradi, ular sun'iy intellektda davrlar deb ataladi; wj(t + 1) - j-sinaptik vaznning yangi qiymati (yangi davrda); wj(t) - uning eski qiymati (oldingi davrdagi).
4c qadam. Agar chiqish signali noto'g'ri bo'lsa va bittaga teng bo'lsa, faol kirishlarning og'irligini kamaytiring, masalan, shunga o'xshash formuladan foydalanib:
wj(t + 1) = wj(t) - xj.
qadam. Boring 2-bosqichga yoki jarayonni tugatish o'rganish.
Bu yerda keltirilgan algoritmda 4b-bosqich Hebbning birinchi qoidasi, 4c-bosqich esa 1949-yilda ushbu algoritmni taklif qilgan kanadalik fiziolog D.O.Xebbning sharafiga Hebbning ikkinchi qoidasi deb ataladi [94].
E'tibor bering, Hebb qoidalaridan foydalangan holda perseptronni o'rganish algoritmi hayratlanarli darajada bolani yoki o'quvchini "mukofot-jazo" usulida o'qitish (yoki hayvonni "sabzi va tayoq" usuli bilan o'rgatish) jarayoniga o'xshaydi. Sinaptik og'irliklarning boshlang'ich qiymatlari wj tasodifiy sonlar generatori tomonidan o'rnatilishiga ham e'tibor qaratamiz. Bu odam yoki hayvonning tug'ilishida uning miyasida hali bilim to'planmaganligi va shuning uchun sinaptik ulanishlarning kuchli tomonlari ba'zi tasodifiy qiymatlarga ega ekanligiga mos keladi. Bola, o'quvchi va "mukofot-jazo" usuli bilan o'rgatilgan hayvonda bo'lgani kabi, cheklangan miqdordagi urinishlar uchun idrok etuvchi o'rganish algoritmi (ular iteratsiya yoki davr deb ataladi) maqsadga olib kelishi mumkin - Perseptron oxir-
oqibat kerakli bilimlarni o'rganadi, uni sinaptik bog'lanishlar kuchlari matritsasining o'ziga xos qiymatlari shaklida kodlaydi wj va,
Yuqorida muhokama qilingan perseptronni o'rganish algoritmi umumiyroq shaklda ifodalanishi mumkin. Agar talab qilinadigan chiqish signalini d bilan belgilasak (inglizchada kerakli javob degan ma'noni bildiruvchi desire respondent so'zlaridan), u holda har bir o'quv davrida zarur bo'lgan d perseptron javobi bilan y da hisoblangan real qiymat o'rtasidagi farqni aniqlash mumkin bo'ladi. uning chiqishi: e = d - y.
Keyin:
holat e = 0 mos keladi 4-bosqich, a; • holat e > 0 mos keladi 4- bosqich, b; • holat e < 0 mos keladi 4-bosqich, c.
Hebb qoidalaridan foydalangan holda perseptronni o'rganish algoritmi g'oyasi, agar sinaptik vaznni sozlashning iterativ jarayoni formulalar bo'yicha amalga oshirilsa, saqlanib qoladi:
wj(t + 1) = wj(t) + ∆wj; (4.7)
∆wj = exj, (4.8)
bu erda wj(t) va wj(t + 1) perseptron og'irlik koeffitsientlarining eski va yangi qiymatlari; j - kirish signalining soni.
Bundan tashqari, shunga o'xshash iterativ formulani b neyron qiyshiqligini sozlash uchun olinishi mumkin, chunki u qiymati birga teng bo'lgan qo'shimcha kirish x0 og'irligi w0 sifatida talqin qilinishi mumkin (4.5-rasmga qarang va formulalar (4.3)–
). (4.6)):
w0(t + 1) = w0(t) + ∆w0; (4.9)
∆w0 = e. (4.10)
Iterativ formulalarda sinaptik og'irliklar va asabiy moyilliklarni tuzatish kattaligini nazorat qilish uchun ishlatilishi mumkin bo'lgan o'rganish tezligi koeffitsienti ēni kiritish foydalidir:
∆wj = ēĵxj; (4.11)
∆w0 = ēē.(4.12)
ē = 1 uchun o'rganish tezligi koeffitsienti iterativ jarayonga ta'sir qilmaydi. ē > 1 uchun o'quv jarayoni tezlashadi, lekin ē koeffitsientining juda katta qiymatlari uchun
iteratsiya jarayoni barqarorlikni yo'qotishi va ajralib chiqishi mumkin. ē < 1 uchun iterativ jarayon odatda barqarorlashadi, lekin bu holda vaqt xarajatlari haddan tashqari oshishi mumkin. Amalda o'rganish tezligi koeffitsienti ē 0,05 dan 1,5 gacha bo'lgan oraliqda o'rnatiladi.
Ushbu formulalar yordamida perseptronni o'rganish algoritmi delta qoidasi sifatida tanilgan.
Tabiiyki, perseptronni o'rganish algoritmi doimo kerakli natijaga olib keladimi, degan savol tug'iladi. Bu savolga idrok etuvchi konvergentsiya teoremasi javob beradi:
Agar kerakli naqsh tan olinishini ta'minlaydigan og'irlik qiymatlari to'plami mavjud bo'lsa, u holda oxir-oqibat perseptronni o'rganish algoritmi ushbu to'plamga yoki boshqa to'plamga olib keladi, shunda kerakli naqsh tan olinishiga erishiladi.
Ushbu teoremadan kelib chiqadigan bo'lsak, naqshni aniqlashni ta'minlaydigan wj og'irlik koeffitsientlari matritsasini topish muammosi juda ko'p echimlarga ega bo'lishi mumkin - bunday matritsalar ko'p bo'lishi mumkin. Shu bilan birga, teoremani shakllantirish bunday matritsalar har doim mavjud bo'lishini aytmaydi va shuning uchun har doim ham muammoning echimi mavjud emas.
Hozirgi vaqtda idrok etuvchi konvergentsiya teoremasi tugallangan isbotlar soni bo'yicha dunyoda birinchi o'rinda turadi, deb hisoblashadi. Ilgari Pifagor teoremasi dunyodagi eng isbotlangan teorema hisoblangan.
Dostları ilə paylaş: |