Xarajat funktsiyasi-bu berilgan ma'lumotlar uchun mashinani o'rganish modelining ishlashini o'lchaydigan funktsiya.
Xarajat funktsiyasi asosan bashorat qilingan qiymatlar va kutilgan qiymatlar o'rtasidagi xatoni hisoblash va uni bitta haqiqiy son shaklida taqdim etadi.
Ko'p odamlar qiymati funktsiyasi va zarar funktsiyasi o'rtasida adashtirmaslikoladi,
shuningdek, oddiy shartlari qiymati funktsiyasi bu qo'yish ma'lumotlar va zarar funktsiyasi n-namunadagi xato o'rtacha individual ma'lumotlar uchun xato bo'ladi points.In boshqacha qilib aytganda,yo'qotish funktsiyasi bitta o'quv misoli uchun,xarajat funktsiyasi uchun butun o'quv majmui.
Biz uchun asosiy vazifa xatoni minimallashtirish uchun rasmda mavjud bo'lgan yuqoridagi tenglamadagi eng yaxshi parametrni(x) topishdir.
Endi, agar siz qaror chegarasi orqasida matematikani ko'rgan bo'lsangiz, parametr(x) logistik funktsiya bilan cheklanmaganligini bilib olasiz, u ham qaror chegarasi tenglamasiga hissa qo'shadi.
Bu juda ko'p chiziqli tushish o'xshaydi, xato topish va keyin parametr yangilash va xarajat vazifasini kamaytirish maqsadida gradient sulolani amalga oshirish uchun bir qiymati vazifasini aniqlash.
Lekin, chiziqli regressiya modelining xarajat funksiyasidan foydalana olmaymiz.
Nima uchun chiziqli regressiyaning xarajat funksiyasidan foydalana olmaymiz?
O'rtacha kvadratik xato yordamida chiziqli regressiya modelining xarajat funktsiyasidan foydalanishga urinish qavariq bo'lmagan funktsiyani beradi,bu esa g'alati shakldagi grafikni beradi.
Bu sodir bo'ladi, chunki logistik regressiyada bizda chiziqli bo'lmagan sigmasimon funktsiya mavjud.
Shuning uchun logistika regressiyasi uchun xarajat funktsiyasi :
Endi sizda gradient tushishi haqida sezgi bor ekan, global minimumga erishish uchun nima uchun og'irliklarni yangilashimiz kerakligini tushunishingiz mumkin.
Gradient hodisa ortidan qadamlar kam xarajat vazifasini olish:
Logistik (sigmasimon) funksiyani ko'rib chiqamiz.
Bu yerda, x = mx + b yoki x = b0 + b1x
Dastlab m va b ning qiymatlari 0 bo'ladi va o'rganish darajasi(o'kituvchi) funksiya bilan tanishtiriladi.
O'rganish darajasi qiymati (D.) juda kichik olinadi,0.01 yoki 0.0001 o'rtasida bir narsa.
O'rganish darajasi-bu optimallashtirish algoritmidagi sozlash parametri bo'lib, u har bir iteratsiyada minimal xarajat funktsiyasiga o'tishda qadam hajmini aniqlaydi.
Keyin xarajat funktsiyasi uchun qisman lotin hisoblab chiqiladi.Hisoblashdan keyin tenglama acheed bo'ladi.
Matematik tahlil bilan tanish bo'lgan yigitlar hosilalar ushbu tenglamaga qanday erishilganligini tushunadilar.
Agar bilmasangiz hisob-kitob xavotir olmang, shunchaki bu qanday ishlashini tushunib oling va sahna ortida nima bo'layotganini intuitiv ravishda o'ylash uchun etarli bo'ladi va derivatsiya jarayonini bilmoqchi bo'lganlar ushbu blogni ko'rib chiqing xarajat funktsiyasining kelib chiqishini ko'rsatadigan.
Derivativlar hisoblangandan so'ng,quyidagi tenglama yordamida vaznlar yangilanadi.
Sifatida ham yozilishi mumkin:
Agar Jason Braunlee ning Blog orqali ketdi ayting bo'lsa siz gradient hodisa ortida sezgi tushunib bo'lishi mumkin va u qanday global minimal erishish uchun harakat qiladi(eng kam xarajat funktsiyasi qiymati).
Nima uchun biz og'irliklarni(m va b)Hosila bilan substratlashimiz kerak?
Gradiyent bizga yo'qotish funktsiyasining eng tik ko'tarilish yo'nalishini beradi va eng tik tushish yo'nalishi gradiyentga qarama-qarshi va shuning uchun biz gradiyentni og'irliklardan(m va b)substratlaymiz.
Boyliklarni yangilash jarayoni xarajat funksiyasi 0 yoki 0 ga yaqin ideal qiymatga yetguncha davom etadi.
Agar eng yaxshi amalga modelini erishgan keyin endi,. Keling, modelning sifatini qanday tekshirishni ko'rib chiqamiz.