curs 12 ipotezele modelului de regresie

11
AUTOCORELAREA ERORILOR Modelul de regresie: Y=X • V= Erorile sunt autocorelateij astfel încât Cov( i , j ) 0. unde • V= ) , cov( ) , cov( ) , cov( ) , cov( ) , cov( ) , cov( ) , cov( ) , cov( ) , cov( 2 1 2 2 2 1 2 1 2 1 1 1 n n n n n n 1 1 1 2 1 2 1 1 1 2 n n n n 1 - n 1, k ) var( ) var( ) , cov( 0 k k i i k i i k

Upload: ramona-dragomir

Post on 20-Oct-2015

39 views

Category:

Documents


4 download

DESCRIPTION

Econometrie, ASE

TRANSCRIPT

Page 1: Curs 12 Ipotezele Modelului de Regresie

AUTOCORELAREA ERORILOR

• Modelul de regresie: Y=X

• V=

• Erorile sunt autocorelateij astfel încât Cov(i,j) 0.

unde

• V=

),cov(),cov(),cov(

),cov(),cov(),cov(

),cov(),cov(),cov(

21

22212

12111

nnnn

n

n

1

1

1

21

21

11

2

nn

n

n

1-n1,k )var()var(

),cov(

0

k

kii

kiik

Page 2: Curs 12 Ipotezele Modelului de Regresie

AUTOCORELAREA ERORILOR

Problemele ce se pun în acest caz sunt:

1. Identificarea cauzelor de apariţie a corelării erorilor

2. Testele statistice utilizate pentru depistarea autocorelării

3. Metode de estimare a parametrilor în cazul autocorelării

Page 3: Curs 12 Ipotezele Modelului de Regresie

1. Cauzele de apariţie a autocorelării erorilor

• Absenţa uneia sau mai multor variabile explicative importante– neincluderea uneia sau mai multor variabile explicative importante

poate genera autocorelarea erorilor.

– exemplu:

– variabila exogenă x3 este omisă variabilele reziduale sunt

autocorelate şi reziduul va fi explicitat prin intermediul acestei variabile omise:

•  Modelul de regresie nu este corect specificat: fie modelul se exprimă sub forma unei combinaţii liniare de variabile în condiţiile în care o specificare corectă a modelului trebuie să fie exprimată printr-o combinaţie liniară de logaritmi de variabile exogene etc.

•  Au fost făcute transformări neadecvate sau interpolări în cadrul seriei de date

iiii cxbxay 21

iii ux 3

Page 4: Curs 12 Ipotezele Modelului de Regresie

2. Testele statistice utilizate pentru depistarea autocorelării: Durbin Watson

• Variabila reziduală satisface:

• Ipoteze: Ho: =0 Ha: 0  

• Statistica testului:

•  d1 şi d2 extrase din tabela Durbin Watson pentru , k şi n:– 0 < DW < d1 autocorelare pozitivă a erorilor– d1 DW d2 indecizie, recomandată acceptarea autocorelării pozitive– d2 < DW < 4-d2 erori independente– 4-d2 DW 4-d1 indecizie, recomandată acceptarea autocorelării negative– 4-d1< DW <4 autocorelare negativă a erorilor

• Observaţie: Testul Durbin Watson nu poate fi aplicat decât dacă:– modelul de regresie are termen liber– matricea X este nestochastică– printre variabilele explicative nu se află şi variabila endogenă cu decalaj– seriile de date nu sunt atributive

n

ii

n

iii

e

eeDW

1

2

2

21)(

iii u 1

Page 5: Curs 12 Ipotezele Modelului de Regresie

3. Metode de estimare a parametrilor în cazul autocorelării

• Erorile prezintă o autocorelare de un anumit ordin estimatorii parametrilor sunt nedeplasaţi şi consistenţi, dar nu sunt eficienţi.  

1. Se estimează parametrii modelului de regresie: Y=X prin metoda celor mai mici pătrate şi se obţine seria erorilor (ei)i=1,n

2. Se consideră că erorile urmează un proces autoregresiv de ordinul I:

 

 

3.

 

Notând:

4. Se estimează parametrii noului model şi apoi se revine la modelul iniţial.

n

ii

n

iii

e

ee

2

21

21

iii u 1

i

p

jjiji xy

10 1

1101 )()1(

ii

p

jjijijii xxyy

)1(00

1*

1*

jijiji

iii

xxx

yyyi

p

jjiji xy

1

*0

* ),0( 2 Ni

Page 6: Curs 12 Ipotezele Modelului de Regresie

HOMOSCEDASTICITATEA

• Y=X

• Problemele ce se pun în acest caz sunt:1. Testele statistice utilizate pentru depistarea heteroscedasticităţii2. Metode de estimare a parametrilor în cazul heteroscedasticităţii

1

1

1

2

00

00

00

)(

0)(

w

w

w

Var

E

x

u

Page 7: Curs 12 Ipotezele Modelului de Regresie

1. Testele statistice utilizate pentru depistarea heteroscedasticităţii - Testul White

1. Se estimează parametrii modelului de regresie: Y=X prin metoda celor mai mici pătrate şi se obţine seria erorilor (ei)i=1,n

2. Se explicitează seria (ei2)i=1,n în raport cu una sau mai multe variabile

exogene şi se defineşte modelul de regresie:

1.

2.

3. Ipotezele testului:• H0: a1=...=ak=b1=...=bk=0 model homoscedastic

• H1: a1 0 sau bj 0 model heteroscedastic

4. Statistica testului: LM=nR2r2

• Observaţie:– o creştere a lui r conduce la diminuarea puterii testului– pentru un număr mare de variabile exogene se recomandă modelul 1– pentru un număr moderat de variabile exogene se recomandă modelul 2

i

k

jjij

k

jjiji vxbxae

1

2

1

2

iiiiiiii vxxcxbxbxaxae 211222

2112211

2

Page 8: Curs 12 Ipotezele Modelului de Regresie

2. Metode de estimare a parametrilor în cazul heteroscedasticităţii

• În cazul în care heteroscedasticitatea este indusă de o variabilă exogenă într-o manieră multiplicativă:

• Fenomenul de heteroscedasticitate se elimină prin transformarea modelului:

• Notând:

• Modelul devine:

• După estimarea parametrilor acestui model transformat se revine în modelul iniţial cu estimatorii.

,222jii x

ji

ip

ji

pi

ji

i

ji

i

xx

x

x

x

x

y ...1

1

ji

ii x

yy *

ji

pi

ji

ii x

x

x

xx ,...,1*

ji

ii x

*

***iii xy

Page 9: Curs 12 Ipotezele Modelului de Regresie

MULTICOLINEARITATEA

• este determinată de prezenţa corelării între variabilele exogene determinantul matricei X’X este zero, deci aceasta nu este inversabilă.

• Se consideră modelul centrat şi redus, deci modelul de regresie fără termen liber:

– matricea de corelaţie evaluată pentru variabilele exogene este 1/n(X’X)-1

– variaţia estimatorilor este 2R-1/n

– prezenţa corelării variabilelor exogene conduce la creşterea varianţei acelor estimatori ai parametrilor modelului liniar de regresie ce corespund variabilelor exogene aflate într-o dependenţă liniară semnificativă, deci scăderea performanţelor modelului de regresie estimat prin forma clasică a metodei celor mai mici pătrate.

• Problemele ce se pun în acest caz sunt:

1. Indicatori pentru semnalarea coliniarităţii

2. Înlăturarea efectului de multicoliniaritate

Page 10: Curs 12 Ipotezele Modelului de Regresie

1. Indicatori pentru semnalarea coliniarităţii

• Criteriul Klein

– se determină raportul de corelaţie Ry2 şi coeficienţii liniari de corelaţie a

variabilelor exogene , ij.

– două variabile exogene Xi şi Xj sunt coliniare dacă:

– sunt identificate numai dependenţele liniare dintre două variabile exogene.

• Criteriul Belsley– se calculează valorile proprii ale matricei X’X, deci soluţii ale ecuaţiei:

X’X-Ip=0.

– în cazul în care una sau mai multe valori proprii sunt zero sau aproximativ zero, fenomenul de colinearitate este semnificativ şi va afecta într-o bună măsură calitatea estimatorilor.

– se calculează indicatorul:

– dacă valorile acestui indicator sunt superioare lui 1 colinearitatea

– o valoare cuprinsă între 20 şi 30 sau mai mare, pentru datele reale, relevă o colinearitate puternică a variabilelor exogene.

ji xxr /2

/2

ji xxy rR

min

max)(

X

Page 11: Curs 12 Ipotezele Modelului de Regresie

2. Înlăturarea efectului de multicoliniaritate

• Estimarea prin partiţionarea matricei X în două blocuri de variabile

– se consideră partiţionarea matricei în două submatrice ale căror coloane sunt liniar independente: X=(Xm, Xp-m)

– se estimează parametrii modelului de regresie: y=Xmm+m

– se calculează apoi:

– şi se estimează parametrii modelului liniar de regresie: y*=Xrr+r

• Eliminarea mecanică a coliniarităţii– dacă dependenţa celor două variabile exogene este: x2i=x1i + i

cu

atunci se estimează modelul de regresie:

 

myyy

*

n

ii

n

iii

x

xx

1

22

121

iii xy 121 )(