curs 12 ipotezele modelului de regresie
DESCRIPTION
Econometrie, ASETRANSCRIPT
AUTOCORELAREA ERORILOR
• Modelul de regresie: Y=X
• V=
• Erorile sunt autocorelateij astfel încât Cov(i,j) 0.
unde
• V=
),cov(),cov(),cov(
),cov(),cov(),cov(
),cov(),cov(),cov(
21
22212
12111
nnnn
n
n
1
1
1
21
21
11
2
nn
n
n
1-n1,k )var()var(
),cov(
0
k
kii
kiik
AUTOCORELAREA ERORILOR
Problemele ce se pun în acest caz sunt:
1. Identificarea cauzelor de apariţie a corelării erorilor
2. Testele statistice utilizate pentru depistarea autocorelării
3. Metode de estimare a parametrilor în cazul autocorelării
1. Cauzele de apariţie a autocorelării erorilor
• Absenţa uneia sau mai multor variabile explicative importante– neincluderea uneia sau mai multor variabile explicative importante
poate genera autocorelarea erorilor.
– exemplu:
– variabila exogenă x3 este omisă variabilele reziduale sunt
autocorelate şi reziduul va fi explicitat prin intermediul acestei variabile omise:
• Modelul de regresie nu este corect specificat: fie modelul se exprimă sub forma unei combinaţii liniare de variabile în condiţiile în care o specificare corectă a modelului trebuie să fie exprimată printr-o combinaţie liniară de logaritmi de variabile exogene etc.
• Au fost făcute transformări neadecvate sau interpolări în cadrul seriei de date
iiii cxbxay 21
iii ux 3
2. Testele statistice utilizate pentru depistarea autocorelării: Durbin Watson
• Variabila reziduală satisface:
• Ipoteze: Ho: =0 Ha: 0
• Statistica testului:
• d1 şi d2 extrase din tabela Durbin Watson pentru , k şi n:– 0 < DW < d1 autocorelare pozitivă a erorilor– d1 DW d2 indecizie, recomandată acceptarea autocorelării pozitive– d2 < DW < 4-d2 erori independente– 4-d2 DW 4-d1 indecizie, recomandată acceptarea autocorelării negative– 4-d1< DW <4 autocorelare negativă a erorilor
• Observaţie: Testul Durbin Watson nu poate fi aplicat decât dacă:– modelul de regresie are termen liber– matricea X este nestochastică– printre variabilele explicative nu se află şi variabila endogenă cu decalaj– seriile de date nu sunt atributive
n
ii
n
iii
e
eeDW
1
2
2
21)(
iii u 1
3. Metode de estimare a parametrilor în cazul autocorelării
• Erorile prezintă o autocorelare de un anumit ordin estimatorii parametrilor sunt nedeplasaţi şi consistenţi, dar nu sunt eficienţi.
1. Se estimează parametrii modelului de regresie: Y=X prin metoda celor mai mici pătrate şi se obţine seria erorilor (ei)i=1,n
2. Se consideră că erorile urmează un proces autoregresiv de ordinul I:
3.
Notând:
4. Se estimează parametrii noului model şi apoi se revine la modelul iniţial.
n
ii
n
iii
e
ee
2
21
21
iii u 1
i
p
jjiji xy
10 1
1101 )()1(
ii
p
jjijijii xxyy
)1(00
1*
1*
jijiji
iii
xxx
yyyi
p
jjiji xy
1
*0
* ),0( 2 Ni
HOMOSCEDASTICITATEA
• Y=X
• Problemele ce se pun în acest caz sunt:1. Testele statistice utilizate pentru depistarea heteroscedasticităţii2. Metode de estimare a parametrilor în cazul heteroscedasticităţii
1
1
1
2
00
00
00
)(
0)(
w
w
w
Var
E
x
u
1. Testele statistice utilizate pentru depistarea heteroscedasticităţii - Testul White
1. Se estimează parametrii modelului de regresie: Y=X prin metoda celor mai mici pătrate şi se obţine seria erorilor (ei)i=1,n
2. Se explicitează seria (ei2)i=1,n în raport cu una sau mai multe variabile
exogene şi se defineşte modelul de regresie:
1.
2.
3. Ipotezele testului:• H0: a1=...=ak=b1=...=bk=0 model homoscedastic
• H1: a1 0 sau bj 0 model heteroscedastic
4. Statistica testului: LM=nR2r2
• Observaţie:– o creştere a lui r conduce la diminuarea puterii testului– pentru un număr mare de variabile exogene se recomandă modelul 1– pentru un număr moderat de variabile exogene se recomandă modelul 2
i
k
jjij
k
jjiji vxbxae
1
2
1
2
iiiiiiii vxxcxbxbxaxae 211222
2112211
2
2. Metode de estimare a parametrilor în cazul heteroscedasticităţii
• În cazul în care heteroscedasticitatea este indusă de o variabilă exogenă într-o manieră multiplicativă:
• Fenomenul de heteroscedasticitate se elimină prin transformarea modelului:
• Notând:
• Modelul devine:
• După estimarea parametrilor acestui model transformat se revine în modelul iniţial cu estimatorii.
,222jii x
ji
ip
ji
pi
ji
i
ji
i
xx
x
x
x
x
y ...1
1
ji
ii x
yy *
ji
pi
ji
ii x
x
x
xx ,...,1*
ji
ii x
*
***iii xy
MULTICOLINEARITATEA
• este determinată de prezenţa corelării între variabilele exogene determinantul matricei X’X este zero, deci aceasta nu este inversabilă.
• Se consideră modelul centrat şi redus, deci modelul de regresie fără termen liber:
– matricea de corelaţie evaluată pentru variabilele exogene este 1/n(X’X)-1
– variaţia estimatorilor este 2R-1/n
– prezenţa corelării variabilelor exogene conduce la creşterea varianţei acelor estimatori ai parametrilor modelului liniar de regresie ce corespund variabilelor exogene aflate într-o dependenţă liniară semnificativă, deci scăderea performanţelor modelului de regresie estimat prin forma clasică a metodei celor mai mici pătrate.
• Problemele ce se pun în acest caz sunt:
1. Indicatori pentru semnalarea coliniarităţii
2. Înlăturarea efectului de multicoliniaritate
1. Indicatori pentru semnalarea coliniarităţii
• Criteriul Klein
– se determină raportul de corelaţie Ry2 şi coeficienţii liniari de corelaţie a
variabilelor exogene , ij.
– două variabile exogene Xi şi Xj sunt coliniare dacă:
– sunt identificate numai dependenţele liniare dintre două variabile exogene.
• Criteriul Belsley– se calculează valorile proprii ale matricei X’X, deci soluţii ale ecuaţiei:
X’X-Ip=0.
– în cazul în care una sau mai multe valori proprii sunt zero sau aproximativ zero, fenomenul de colinearitate este semnificativ şi va afecta într-o bună măsură calitatea estimatorilor.
– se calculează indicatorul:
– dacă valorile acestui indicator sunt superioare lui 1 colinearitatea
– o valoare cuprinsă între 20 şi 30 sau mai mare, pentru datele reale, relevă o colinearitate puternică a variabilelor exogene.
ji xxr /2
/2
ji xxy rR
min
max)(
X
2. Înlăturarea efectului de multicoliniaritate
• Estimarea prin partiţionarea matricei X în două blocuri de variabile
– se consideră partiţionarea matricei în două submatrice ale căror coloane sunt liniar independente: X=(Xm, Xp-m)
– se estimează parametrii modelului de regresie: y=Xmm+m
– se calculează apoi:
– şi se estimează parametrii modelului liniar de regresie: y*=Xrr+r
• Eliminarea mecanică a coliniarităţii– dacă dependenţa celor două variabile exogene este: x2i=x1i + i
cu
atunci se estimează modelul de regresie:
myyy
*
n
ii
n
iii
x
xx
1
22
121
iii xy 121 )(