Ekonometrik modellarni aniqlashda «eng kichik kvadratlar usuli» da foydalanish uslubiyati



Yüklə 49,47 Kb.
səhifə2/3
tarix20.11.2023
ölçüsü49,47 Kb.
#166229
1   2   3
Ekonometrik modellarni aniqlashda «eng kichik kvadratlar usuli» -fayllar.org

2.1-misol. Savdo korxonasi 12 do'kondan iborat tarmoqqa ega bo'lib, ularning faoliyati to'g'risidagi ma'lumotlar jadvalda keltirilgan. 2.1.
Kompaniya rahbariyati yillik o'lchami do'konning savdo maydoniga qanday bog'liqligini bilishni xohlaydi.
Eng kichik kvadratlar yechimi. Belgilaymiz - --chi do'konning yillik aylanmasi, million rubl; - do'konning savdo maydoni, ming m 2.
O‘zgaruvchilar orasidagi funksional bog‘lanish shaklini aniqlash va tarqalish sxemasini qurish (2.1-rasm).

Tarqalish diagrammasidan kelib chiqqan holda, yillik tovar aylanmasi sotish maydoniga ijobiy bog'liq degan xulosaga kelishimiz mumkin (ya'ni, y ning o'sishi bilan ortadi). Funktsional ulanishning eng mos shakli - chiziqli.


Qo'shimcha hisob-kitoblar uchun ma'lumotlar jadvalda keltirilgan. 2.2. Eng kichik kvadratlar usulidan foydalanib, chiziqli bir faktorli ekonometrik modelning parametrlarini baholaymiz
Shunday qilib,
Shu sababli, savdo maydonining 1 ming m 2 ga ko'payishi bilan, boshqa narsalar teng bo'lsa, o'rtacha yillik aylanma 67,8871 million rublga oshadi.
2.2-misol. Korxona rahbariyati yillik tovar aylanmasi nafaqat do'konning savdo maydoniga (2.1-misolga qarang), balki tashrif buyuruvchilarning o'rtacha soniga ham bog'liqligini ta'kidladi. Tegishli ma'lumotlar jadvalda keltirilgan. 2.3.
2.3-jadval
Yechim. Belgilang - kuniga o'rtacha do'konga tashrif buyuruvchilar soni, ming kishi.
O‘zgaruvchilar orasidagi funksional bog‘lanish shaklini aniqlash va tarqalish sxemasini qurish (2.2-rasm).
Tarqalish diagrammasi asosida yillik aylanmasi kuniga o'rtacha tashrif buyuruvchilar soniga ijobiy bog'liq degan xulosaga kelishimiz mumkin (ya'ni, y ning o'sishi bilan ortadi). Funksional qaramlik shakli chiziqli.

Guruch. 2.2. Tarqalish sxemasi, masalan, 2.2


2.4-jadval
































































































































































Umuman olganda, ikki faktorli ekonometrik modelning parametrlarini aniqlash kerak


y t \u003d a 0 + a 1 x 1 t + a 2 x 2 t + e t
Keyingi hisob-kitoblar uchun zarur bo'lgan ma'lumotlar jadvalda keltirilgan. 2.4.
Chiziqli ikki faktorli ekonometrik modelning parametrlarini eng kichik kvadratlar usuli yordamida baholaylik.

Shunday qilib,


Koeffitsientni baholash = 61,6583 shuni ko'rsatadiki, qolgan barcha narsalar teng bo'lganda, sotish maydoni 1 ming m 2 ga ko'payishi bilan yillik aylanma o'rtacha 61,6583 million rublga oshadi.
Eng kichik kvadrat usuli
Eng kichik kvadrat usuli ( MNK, OLS, oddiy eng kichik kvadratlar- namunaviy ma'lumotlardan regressiya modellarining noma'lum parametrlarini baholash uchun regressiya tahlilining asosiy usullaridan biri. Usul regressiya qoldiqlarining kvadratlari yig'indisini minimallashtirishga asoslangan.
Shuni ta'kidlash kerakki, eng kichik kvadratlar usulining o'zini har qanday sohadagi masalani yechish usuli deb atash mumkin, agar yechim noma'lum o'zgaruvchilarning ba'zi funktsiyalari kvadratlari yig'indisini minimallashtirish uchun ma'lum bir mezondan iborat bo'lsa yoki qanoatlantirsa. Shu sababli, eng kichik kvadratlar usuli, shuningdek, tenglamalar yoki cheklovlarni qanoatlantiradigan, soni ushbu miqdorlar sonidan oshadigan miqdorlar to'plamini topishda, berilgan funktsiyani boshqa (oddiyroq) funktsiyalar bilan taxminiy ko'rsatish (yaqinlash) uchun ham qo'llanilishi mumkin. , va boshqalar.


MNCning mohiyati


(tushuntirilgan) o'zgaruvchi o'rtasidagi ehtimollik (regressiya) bog'liqligining ba'zi (parametrik) modeli bo'lsin. y va ko'plab omillar (tushuntiruvchi o'zgaruvchilar) x
noma'lum model parametrlarining vektori qayerda
- Tasodifiy model xatosi.
Ko'rsatilgan o'zgaruvchilar qiymatlarining namunaviy kuzatishlari ham bo'lsin. Kuzatuv raqami () bo'lsin. Keyin --chi kuzatishdagi o'zgaruvchilarning qiymatlari. Keyin b parametrlarining berilgan qiymatlari uchun tushuntirilgan y o'zgaruvchining nazariy (model) qiymatlarini hisoblash mumkin:
Qoldiqlarning qiymati b parametrlarining qiymatlariga bog'liq.
LSM (oddiy, klassik) ning mohiyati shunday b parametrlarni topishdan iborat bo'lib, ular uchun qoldiq kvadratlari yig'indisi (eng. Kvadratlarning qoldiq yig'indisi) minimal bo'ladi:
Umumiy holda, bu muammoni optimallashtirishning raqamli usullari (minimalizatsiya) bilan hal qilish mumkin. Bunday holda, kimdir gapiradi chiziqli bo'lmagan eng kichik kvadratlar(NLS yoki NLLS - ingliz. Chiziqli bo'lmagan eng kichik kvadratlar). Ko'p hollarda analitik yechimni olish mumkin. Minimallashtirish masalasini yechish uchun funktsiyaning noma’lum parametrlari b bo‘yicha differensiallash, hosilalarini nolga tenglashtirish va hosil bo‘lgan tenglamalar tizimini yechish yo‘li bilan uning statsionar nuqtalarini topish kerak:
Agar modelning tasodifiy xatolari normal taqsimlangan bo'lsa, bir xil dispersiyaga ega bo'lsa va bir-biri bilan bog'liq bo'lmasa, eng kichik kvadratlar parametrlari taxminlari maksimal ehtimollik usuli (MLM) taxminlari bilan bir xil bo'ladi.
Lineer model holatida LSM
Regressiyaga bog'liqlik chiziqli bo'lsin:
Bo'lsin y- izohlangan o'zgaruvchini kuzatishning ustun vektori va - omillarni kuzatish matritsasi (matritsa qatorlari - berilgan kuzatishdagi omil qiymatlari vektorlari, ustunlar bo'yicha - barcha kuzatishlarda berilgan omil qiymatlari vektori) . Chiziqli modelning matritsa ko'rinishi quyidagi shaklga ega:
Keyin tushuntirilgan o'zgaruvchini baholash vektori va regressiya qoldiqlari vektori teng bo'ladi.
shunga ko'ra, regressiya qoldiqlarining kvadratlari yig'indisi teng bo'ladi
Ushbu funktsiyani parametr vektoriga nisbatan farqlash va hosilalarni nolga tenglashtirib, biz tenglamalar tizimini olamiz (matritsa shaklida):
.
Ushbu tenglamalar tizimining yechimi chiziqli model uchun eng kichik kvadratlarni baholash uchun umumiy formulani beradi:
Analitik maqsadlar uchun ushbu formulaning oxirgi ko'rinishi foydali bo'lib chiqadi. Agar regressiya modelidagi ma'lumotlar markazlashtirilgan, u holda bu tasvirda birinchi matritsa omillarning tanlanma kovariatsiya matritsasi ma'nosiga ega, ikkinchisi esa bog'liq o'zgaruvchiga ega bo'lgan omillarning kovariantlari vektoridir. Agar, qo'shimcha ravishda, ma'lumotlar ham bo'lsa normallashtirilgan SKOda (ya'ni, oxir-oqibat standartlashtirilgan), keyin birinchi matritsa omillarning tanlanma korrelyatsiya matritsasi ma'nosiga ega bo'ladi, ikkinchi vektor - bog'liq o'zgaruvchi bilan omillarning tanlama korrelyatsiya vektori.
Modellar uchun LLS taxminlarining muhim xususiyati doimiy bilan- tuzilgan regressiya chizig'i namuna ma'lumotlarining og'irlik markazidan o'tadi, ya'ni tenglik bajariladi:
Xususan, ekstremal holatda, yagona regressor doimiy bo'lsa, biz bitta parametrning OLS bahosi (konstantaning o'zi) tushuntirilayotgan o'zgaruvchining o'rtacha qiymatiga teng ekanligini aniqlaymiz. Ya'ni, katta sonlar qonunlaridan o'zining yaxshi xossalari bilan ma'lum bo'lgan o'rtacha arifmetik qiymat ham eng kichik kvadratlar bahosi hisoblanadi - u undan kvadratik og'ishlarning minimal yig'indisi mezonini qondiradi.
Misol: oddiy (juftlik) regressiya
Juftlangan chiziqli regressiya holatida hisoblash formulalari soddalashtirilgan (siz matritsa algebrasisiz ham qilishingiz mumkin):
OLS baholarining xossalari
Avvalo shuni ta'kidlaymizki, chiziqli modellar uchun eng kichik kvadratlar bahosi yuqoridagi formuladan kelib chiqqan holda chiziqli taxminlardir. Xolis OLS baholashlari uchun regressiya tahlilining eng muhim shartini bajarish zarur va etarli: omillarga bog'liq holda, tasodifiy xatoning matematik kutilishi nolga teng bo'lishi kerak. Bu shart qondiriladi, xususan, agar
  1. tasodifiy xatolarning matematik kutish nolga teng, va


  2. omillar va tasodifiy xatolar mustaqil tasodifiy o'zgaruvchilardir.


Ikkinchi shart - ekzogen omillarning holati - asosiy hisoblanadi. Agar bu xususiyat qoniqtirmasa, deyarli har qanday hisob-kitoblar juda qoniqarsiz bo'ladi deb taxmin qilishimiz mumkin: ular hatto izchil bo'lmaydi (ya'ni, hatto juda katta miqdordagi ma'lumotlar ham bu holatda sifatli baho olishga imkon bermaydi). Klassik holatda, tasodifiy xatodan farqli o'laroq, omillarning determinizmi haqida kuchliroq taxmin qilinadi, bu avtomatik ravishda ekzogen shartning qondirilishini bildiradi. Umumiy holda, hisob-kitoblarning izchilligi uchun matritsaning ba'zi yagona bo'lmagan matritsaga yaqinlashishi bilan birga ekzogenlik shartini bajarish, tanlanma hajmini cheksizgacha oshirish kifoya qiladi.


Muvofiqlik va xolislikdan tashqari (oddiy) eng kichik kvadratchalar baholari ham samarali bo'lishi uchun (chiziqli xolis baholar sinfidagi eng yaxshisi) tasodifiy xatoning qo'shimcha xususiyatlari qondirilishi kerak:
Ushbu taxminlar tasodifiy xato vektorining kovariatsiya matritsasi uchun shakllantirilishi mumkin
Ushbu shartlarni qondiradigan chiziqli model deyiladi klassik. Klassik chiziqli regressiya uchun OLS baholari barcha chiziqli xolis baholar sinfidagi xolis, izchil va eng samarali baholardir (ingliz adabiyotida ba'zan qisqartma ishlatiladi. ko'k (Eng yaxshi chiziqli asossiz hisoblagich) eng yaxshi chiziqli xolis bahodir; mahalliy adabiyotda Gauss-Markov teoremasi ko'proq keltiriladi). Ko'rsatish oson bo'lganidek, koeffitsientlarni baholash vektorining kovariatsiya matritsasi quyidagilarga teng bo'ladi:
Umumlashtirilgan eng kichik kvadratlar
Eng kichik kvadratlar usuli keng umumlashtirish imkonini beradi. Qoldiqlar kvadratlari yig'indisini minimallashtirish o'rniga, qoldiq vektorning ba'zi ijobiy aniq kvadrat shaklini minimallashtirish mumkin, bu erda nosimmetrik musbat aniq og'irlik matritsasi mavjud. Oddiy eng kichik kvadratlar bu yondashuvning alohida holati bo'lib, og'irlik matritsasi identifikatsiya matritsasiga mutanosib bo'lganda. Simmetrik matritsalar (yoki operatorlar) nazariyasidan ma'lumki, bunday matritsalar uchun parchalanish mavjud. Shuning uchun ko'rsatilgan funksionalni quyidagicha ifodalash mumkin, ya'ni bu funktsiyani o'zgartirilgan ba'zi "qoldiqlar" kvadratlari yig'indisi sifatida ko'rsatish mumkin. Shunday qilib, biz eng kichik kvadratlar usullari sinfini ajratib ko'rsatishimiz mumkin - LS-metodlar (Eng kichik kvadratlar).
(Aitken teoremasi) umumlashtirilgan chiziqli regressiya modeli uchun (tasodifiy xatolarning kovariatsiya matritsasiga hech qanday cheklovlar qo'yilmagan) eng samarali (chiziqli xolis baholar sinfida) deb ataladigan taxminlar ekanligi isbotlangan. 
Yüklə 49,47 Kb.

Dostları ilə paylaş:
1   2   3




Verilənlər bazası müəlliflik hüququ ilə müdafiə olunur ©azkurs.org 2024
rəhbərliyinə müraciət

gir | qeydiyyatdan keç
    Ana səhifə


yükləyin