modelul de regresie 1. regresia – scurt istoric al termenului sir francis galton(1822-1911) –...

Post on 19-Dec-2015

221 Views

Category:

Documents

2 Downloads

Preview:

Click to see full reader

TRANSCRIPT

1

MODELUL DE REGRESIE

2

Regresia – scurt istoric al termenului• Sir Francis Galton(1822-1911) – spirit enciclopedic al perioadei victoriene,

este cel care a introdus termenii de regresie şi corelaţie statistică• Originea regresiei ca metodă statistică se află în studiile sale de genetică

aplicată în studiul plantelor- 1877• Plantînd boabe dintr-un anumit soi de mazăre dulce a observat că există o

legătură liniară între diametrele acestor boabe şi diametrele boabelor recoltate de la noile plante. El a numit iniţial panta acestei drepte “coefficient of reversion”, schimbîndu-i apoi numele în “coefficient of regression”.

• Termenul de regresie provine de la descoperirile sale în domeniul eredităţii: în general, progeniturile indivizilor geniali au abilităţi care îi aşază mai degrabă la nivelul mediei; de asemenea, înalţimea copiilor proveniţi din taţi foarte înalţi se apropie mai mult de înălţimea medie decît înălţimea taţilor.

3

Modele

• Un model este o reprezentare a unui anumit fenomen• Model matematic - o reprezentare matematică a unui

fenomen• De cele mai multe ori un model descrie legăturile

existente între două sau mai multe variabile• În general, sînt două clase de modele:

– Modele deterministe– Modele probabiliste

4

• Modele deterministe– Exprimă o relaţie

exactă între variabile– Teoretic, eroarea de

previziune este nulă

– Exemplu: Principiul al doilea al

mecanicii newtoniene:F = m.a

• Modele probabiliste– Componenta deterministă– Componenta aleatoare– Eroarea de previziune este

nenulă– Componenta aleatoare

poate fi datorată factorilor obiectivi, ce nu sînt incluşi în model

– Exemplu: Volumul vînzărilor=10 * Cheltuielile cu publicitatea + Componenta aleatoare

5

Tipuri de modele probabiliste

ProbabilisticModels

RegressionModels

CorrelationModels

OtherModels

ProbabilisticModels

RegressionModels

CorrelationModels

OtherModels

Modele probabiliste

Modele de regresie

Modele de corelatie

Alte

modele

6

Regresia – metodă de modelare a legăturilor dintre variabile

• În general, orice fenomen este rezultatul acţiunii unuia sau mai multor factori

• Exprimarea matematică:

1( ,..., )nY f X X

Variabila dependentă

(variabila endogenă)

Variabile independente

(variabile exogene/explicative)

Variabila reziduală

7

Exemplu: Legea lui Keynes privind legătura dintre venit şi consum

• Suma cheltuită pentru consum depinde de:– mărimea venitului pe de o parte– alte obiective în funcţie de circumstanţe (de exemplu

investiţiile)– alte nevoi subiective

• „O persoană este dispusă de regulă şi în medie să îşi crească consumul pe măsura creşterii venitului dar nu în aceeaşi măsură”

• Modelul de regresie: C=+V+ , unde 0<<1 .

0 1dC

dV

8

Ipotezele modelului de regresie(Ipotezele Gauss-Markov)

• 1. Normalitatea– Valorile Y sînt normal distribuite pentru orice X

– Erorile sînt normal distribuite cu medie zero E(εi)=0 i • 2. Homoscedasticitatea (dispersie constantă)

• 3. Necorelarea erorilor E(εi εk)=0 (i<>k)

• 4. Liniaritatea• 5. Variabilele sînt măsurate fără eroare

– (caracter nestochastic)

2 2

iE

XY ii

( , ) 0, ,i jCov X i j

9

Forma funcţională• Ipoteza de linearitate nu este atât de restrictivă pe cât pare.

Aceasta se referă la felul în care parametrii intră în ecuaţie, nu neapărat la relaţia între variabilele x şi y.

• În general modele pot fi linearizate.• y=a+bx• y=a+bz, z=ex

• y=a+br, r=1/x• y=a+bq, q=ln(x)

y= xβ ln(y)=+ln(x)• Forma generală: f(yi)= +g(xi)+i

• Contra exemplu: nu poate fi transformat în model liniar.

1y

x

10

Modele ce pot fi linearizate

-400

-200

0

200

400

600

800

1000

-1 0.003 0.008 0.013 0.018 0.023 0.028 0.033 0.038 0.043 0.048 0.053 0.058 0.063 0.068X

Y

xba

1 xbea

bxa

xba ln

11

• Ipoteza că media erorilor este zero: E(i)=0 i, este naturală atâta timp cât este văzută ca suma efectelor individuale, cu semne diferite. Dacă media erorilor este diferită de zero, ea poate fi considerată ca o parte sistematică a regresiei:media erorilor fiind acum nulă.

• Ipoteza de homoscedasticitate: Var(i)=2 constantă i

• Se consideră un model care descrie consumul unor gospodării în funcţie de venitul acestora. În acest caz, consumul gospodăriilor mari pot varia mult mai mult faţă de consumul gospodăriilor cu venituri mici. Deci ipoteza de homoscedasticitate nu este respectată.

E()= 0+ 1x + = (0 +) + 1x + (-)

12

Exemplu de încălcare a ipotezei de homoscedasticitate

Functia de consum

0

200

400

600

800

1000

1200

200 300 400 500 600 700 800 900 1000

venit

co

nsu

m

13

• Necorelarea erorilor: E(ij)=0 ijAceastă ipoteză nu implică faptul că yi şi yj sunt necorelate, ci faptul că deviaţiile observaţiilor de la valorile lor aşteptate sunt necorelate.

• Ipoteza de normalitate a erorilor i N(0,2)

Este o ipoteză de lucru, tehnică, ce permite obţinerea unor estimatori “buni”.

• Dacă ipotezele precedente sînt respectate, vom obţine estimatori B.L.U.E. (Best Linear Unbiased Estimators)

14

Ipotezele de normalitate şi homoscedasticitate Ipotezele de normalitate şi homoscedasticitate

Y

f(e)

X

X 1X 2

15

Variaţia erorilor în jurul dreptei de regresie

X1

X2

X

Y

f(e)

Valorile y sînt normal distribuite în jurul dreptei de regresie.

Pentru fiecare valoare x, dispersia în jurul dreptei de regresie este

constantă.

Dreapta de regresie

16

Clasificarea modelelor de regresie

Modelede regresie

LinearNon-

Linear

2+ Variabile2+ Variabileexplicativeexplicative

Simple Multiple

Linear

1 Variabilă1 Variabilăexplicativăexplicativă

Non-Linear

17

Tipuri de modele de regresie

Legătură liniară directă

Legătură liniară inversă

Legătură neliniară

Absenţa vreunei legături

18

Modelul de regresie liniară simplă

19

Modelul lui Keynes la nivelul economiei SUA

1930

1932

1934

1936

1938

1940

1942

1944

1946

1948

1950

1952

1954

1956

1958

1960

1962

1964

1966

1968

1970

1972

1974

1976

1978

1980

1982

1984

1986

1988

1990

1992

1994

0.0

1000.0

2000.0

3000.0

4000.0

5000.0

6000.0

Real Consumption Expenditures ($ Billions, 1992) Real Disposable Income ($ Billions 1992)

20

Regresia folosind EXCEL

Accesăm meniul TOOLS>DATA ANALYSIS>REGRESSION

21

Corelograma(Scatter plot)

• Graficul punctelor de coordonate (Xi,Yi), i=1,n.

0.0 1000.0 2000.0 3000.0 4000.0 5000.0 6000.00.0

500.0

1000.0

1500.0

2000.0

2500.0

3000.0

3500.0

4000.0

4500.0

5000.0

Real Consumption Expenditures ($ Billions, 1992)

22

Modelul de regresie liniară simplă

iii XY 10

intercept (termenul constant)

Panta dreptei de regresie

Variabila de perturbaţie

Variabila dependentă(răspuns)

Variabila independentă

(explicativă)

Pe baza corelogramei este rezonabil să presupunem că media variabilei Y depinde de X printr-o relaţie liniară:

Atunci modelul de regresie liniară simplă este dat de relaţia următoare:

23

Dacă presupunem că media şi dispersia lui sînt 0 şi 2, atunci media lui Y pentru o valoare particulară a lui X este dată de relaţia:

Dispersia lui Y pentru o valoare particulară a lui X este dată de relaţia:

Media şi dispersia variabilei dependente

24

• La nivelul populaţiei regresia se reduce la exprimarea mediei condiţionate a lui Y:

unde 1 are semnificaţia unui coeficient de elasticitate: arată modificarea lui Y la o modificare cu o unitate a lui x.• De asemenea, variabilitatea lui Y pentru o valoare

particulară x este determinată de dispersia variabilei reziduale, 2.

• Există o distribuţie a valorilor lui Y pentru fiecare x şi dispersia acestei distribuţii este constantă pentru orice x.

25

Distribuţia condiţionată a lui Y

Y

X

Dreapta de regresie

26

i = Eroarea

Y

X

Modelul de regresie liniară la nivelul populaţiei

Valoarea observată

Valoarea observată

YX iX 0 1

Y Xi i i 0 1

(E(Y))

27

Modelul de regresie liniară la nivelul eşantionului

0

0 1ˆ ˆ

i iY X

Yi

= Valoarea estimată a lui Y pentru observaţia i

Xi = Valoarea lui X pentru observaţia i

= Estimatorul termenului liber 0

= Estimatorul pantei 11

28

Estimarea parametrilor modelului de regresie• Metoda celor mai mici pătrate(M.C.M.M.P.) – Ordinary Least

Squares(O.L.S.)

• Presupunem că avem n perechi de observaţii (x1, y1), (x2, y2), …, (xn, yn).

• Ideea este să minimizăm distanţa dintre valorile estimate şi valorile reale

• Ne reamintim că deci

22

1 1

ˆ minˆn n

ii ii i

L Y Y

0 1ˆ ˆ

i iY x

29

Ilustrare grafică

2

Y

X

1 3

4

^^

^^

Y X2 0 1 2 2

Y Xi i 0 1

2 2 2 2 21 2 3 4

1

ˆ ˆ ˆ ˆ ˆLS minimizează n

ii

30

• Condiţiile de minim:

• Simplificînd, obţinem sistemul de ecuaţii normale

31

Estimatorii modelului de regresie

xy

s

s

s

YX

x

xy

x

10

221

ˆˆ

),cov(ˆ

32

Notaţii

• Valoarea estimată: • Valoarea reziduală(reziduul):

33

• Dacă notăm suma pătratelor erorilor de regresie

atunci un estimator al varianţei variabilei reziduale este

Estimatorul dispersiei modelului

34

Proprietăţile estimatorilor modelului de regresie

0 1 0 1

0 0 1 1

22

0

ˆ ˆ şi sînt estimatori nedeplasaţi ai parametrilor şi

ˆ ˆ ( ) şi ( )

-Dispersiile celor doi estimatori sînt date de relaţiile

1ˆ V( )

E E

x

n S

2

1

2 2

1

0 1

ˆ V( )

unde ( ) şi este dispersia variabilei reziduale

ˆ ˆ-Estimatorii şi urmează o distribuţie normală

xx

xx

n

xx ii

S

S x x

35

Nedeplasarea estimatorilor OLS

• Presupunem că modelul de regresie la nivelul populației este liniar y = b0 + b1x + ε

• Fie {(xi, yi): i=1, 2, …, n un eșantion de n observații. Atunci putem formula modelul de regresie la nivelul eșantionului yi = b0 + b1xi + εi

• Presupunem E(ε|x) = 0 și atunci E(εi|xi) = 0• Presupunem că există variație în xi

36

• Pentru a discuta despre deplasarea estimatorilor, aceștia trebuie exprimați în funcție de parametrii din populație

21 ,ˆ xxS unde

S

yxxixx

xx

ii

0

.

11

1

2

10

10

10

xx

ii

iixx

iiii

iiiii

iiiii

iiiii

S

xx

atunci sixxS numarator la avem deci

xxxxx sixx Dar

xxxxxxx

xxxxxxx

xxxyxx

37

Nedeplasarea lui

111

11

iixx

iixx

ii

EdS

E

atunci ,dS

încît astfel ,xxd Fie

1

38

Nedeplasarea estimatorilor

• Estimatorii OLS pentru b1 și b0 sînt nedeplasați• Demonstrația caracterului de estimator nedeplasat

depinde de 4 ipoteze – dacă oricare din aceste ipoteze nu este îndeplinită, atunci nedeplasarea nu este neapărat adevărată

39

Dispersia estimatorilor OLS

• Presupunem Var(ε|x) = s2 (Homoskedasticity)• Var(ε|x) = E(ε2|x)-[E(ε|x)]2

• E(ε|x) = 0, deci s2 = E(ε2|x) = E(ε2) = Var(ε)• Astfel s2 este dispersia necondiționată, numită

dispersia erorilor• s este abaterea standard a erorilor• Rezultă: E(y|x)=b0 + b1x și Var(y|x) = s2

40

..

x1 x2

Cazul homoskedastic

E(y|x) = b0 + b1x

y

f(y|x)

41

.

x x1 x2

yf(y|x)

Cazul heteroskedastic

x3

..

E(y|x) = b0 + b1x

42

Dispersia estimatorilor OLS

1

22

2

22

2222

222

11

ˆ1

11

11

VarS

SS

dS

dS

VardS

dVarS

udS

VarVar

xxxx

xx

ixx

ixx

iixx

iixx

iixx

43

Dispersia estimatorilor OLS

• Dispersia pantei modelului de regresie este direct proporțională cu dispersia erorilor

• Cu cît dispersia lui xi este mai mare, cu atît dispersia pantei este mai mică

• Cu cît volumul eșantionului este mai mare, cu atît dispersia pantei este mai mică

44

Estimarea dispersiei erorilor

• Nu cunoaștem dispersia erorilor, s2, întrucît nu observăm de fapt erorile εi

• Valorile observate sînt reziduurile modelului de regresie, ei

• Putem folosi reziduurile pentru a estima dispersia erorilor

45

Estimarea dispersiei erorilor

2/2

ˆˆ

ˆˆ

ˆˆ

22

2

1100

1010

10

nSSRen

este pentru nedeplasat estimator un Atunci

xx

xye

i

i

iii

iii

46

Y

Population LineX

Sample 1 Line

Sample 2 Line

Distribuţia estimatorului pantei de regresie

1

•All Possible Sample Slopes

• Sample 1: 2.5• Sample 2: 1.6 • Sample 3: 1.8• Sample 4: 2.1 : :Very large number of sample slopes

Sampling Distribution

1

1S

^

^

47

Eroarea standard a estimatorilor2

2 2 1

2

21

1

ˆÎntrucît varianţa reziduală se estimează prin putem avea o estimare2

a erorii standard a celor doi estimatori:

ˆ ˆ( )ˆ - ( )df 2

n

ii

xx

xx

e

n

SVSE

n S

22

220

0

1ˆ( ) 1ˆ ˆ - ( )

df 2xx

xx

xn SV x

SEn n S

Erorile standard vor fi folosite la testarea semnificaţiei parametrilor modelului de regresie

48

Testul t pentru panta dreptei de regresie(slope)

• Valoarea critică:

• Caz particular: 0 1

1

: 0(nu există legătură liniară)

: 0( există legătură liniară)A

H

H

00 1 1

01 1

:

:A

H

H

0 0 0 01 1 1 1 1 1 1 1

22 2 21

1 1 1

2

1

ˆ ˆ ˆ ˆ

ˆ( ) ˆ/( 2) / ( ) / 2

( )

n n n

i i ii i ixx

n

ii

tSE

e n e x x nS

x x

/ 2; 2nt

49

Exemple de acceptare a ipotezei

0 1: 0(nu există legătură liniară)H

50

Exemple de respingere a ipotezei

0 1: 0(nu există legătură liniară)H

51

Testul t pentru termenul liber(intercept)

00 0 0

00 0

:

:A

H

H

0 0

0 0 0 0

20 2

0 00 0 0 0

22

221

21

1

ˆ ˆ

ˆ( ) 1ˆ

ˆ ˆ

1/( 2)

1/ 2

( )

xx

n

nii xx

i ni

ii

tSE x

n S

xe n

xn S e nn x x

/ 2; 2nt • Valoarea critică:

52

Intervale de încredere pentru parametrii modelului

• Pentru termenul liber(intercept)

• Pentru panta dreptei de regresie(slope)

unde este estimatorul dispersiei modelului.

1 / 2, 2 1 1 1 / 2, 2 1

2 22 2

1 / 2, 2 1 1 / 2, 2

ˆ ˆ ˆ ˆ( ) ( )

ˆ ˆˆ ˆ

n n

n nxx xx

t SE t SE

x xt t

S S

0 / 2, 2 0 0 0 / 2, 2 0

2 22 2

0 / 2, 2 0 0 / 2, 2

ˆ ˆ ˆ ˆ( ) ( )

1 1ˆ ˆˆ ˆ

n n

n nxx xx

t SE t SE

x xt t

n S n S

2

2 1ˆ2

n

ii

e

n

53

Teorem a G auss-M arkov

• Estimatorii obţinuţi prin metoda celor mai mici pătrate sînt B.L.U.E. i.e. orice alt estimator liniar are o dispersie mai mică decît cei obţinuţi prin MCMMP.

1 1 1 11

2 2 2 1

1 1 1

Conform OLS, estimatorul pantei este o combinaţie liniară de valorile variabilei dependente:

( )( ) ( ) ( ) ( )ˆ

( ) ( ) ( )

n n n n

i i i i i i i ni i i i

i in n ni

i i ii i i

y y x x y x x y x x y x xy

x x x x x x

'

0 11 1 1 1

'1

1 1

' ' 2 21

1 1

Fie un alt estimator liniar.

Pentru ca E( ) , e necesar ca 0 şi 1.

Rezultă , deci varianţa sa este V( ) .

Fie

n n n n

i i i i i i ii i i i

n n

i i ii i

n n

i i ii i

q y q q x q

q q x

q q

v

' 2 2

1

2 2 2 2 2 2 2 21

1 1 1

, atunci şi avem V( ) ( )

ˆ( 2 ) ( ) ( ).***

n

i i i i i i i ii

n n n

i i i i i i ii i i

q q v v

v v v V QED

54

Exemplu-consumul ca funcţie de venit

• Panta dreptei de regresie este pozitivă, deci există o legătură directă între consum şi venit.

• În plus, dacă venitul creşte cu o unitate,consumul va creşte cu 0.91 unități.

• Doar panta dreptei de regresie este semnifcativ diferită de zero.

• P-value – probabilitatea ipotezei ca parametrul estimat să fie egal cu zero; dacă P-value este mai mic decît pragul de semnificaţie atunci respingem această ipoteză.

Coefficients Standard

Error t Stat P-

value Lower 95%

Upper 95%

Intercept -23.5441 13.94967 -1.68779 0.0963 -51.4117 4.323573 Real Disposable Income ($ Billions 1992) 0.915665 0.00542 168.9331 0.0000 0.904837 0.926493

55

Analiza varianţei pentru modelul de regresie

• Dacă între X şi Y nu există nici o legătură, atunci putem face predicţii privind valoarea medie a lui Y pentru orice valoare a lui X

• Dacă există o legătură între X şi Y, în ce măsură cunoaşterea valorilor lui X poate explica abaterea variabilei dependente de la media sa?

• Abaterea totala = abaterea explicata + Abaterea reziduala

)Y-(Y )Y-Y( )Y-(Y iiiiˆˆ

56

Descompunerea variaţiei

Xi

Y i = β

^0 + β

^1X i

Y

X

Y

SST = (Yi - Y)2

SSE =(Yi - Yi )2

SSR = (Yi - Y)2

__

_

X

57

ANOVA pentru regresie2

ii2

i2

i)Y(Y)YY()Y(Y ˆˆ

SST = SSR + SSE

SST = Total Sum of Squares

Măsoară variaţia valorilor observate Yi în jurul mediei Y_

SSR = Regression Sum of Squares

Măsoară variaţia explicată de modelul de regresie

SSE = Error Sum of Squares

Măsoară variaţia ce poate fi atribuită altor factori, diferiţi de variabila explicativă X

58

Coeficientul de determinaţie R2

• Este o măsură a proporţiei varianţei explicate de model

• R2 este afectat de creşterea numărului de parametri; de aceea pentru modele cu multi parametri se calculează R2 ajustat, care are aceeaşi interpretare.

2 2

2 1 12 2

ˆ( )1 0,1

( ) ( )

n n

i ii i

i ii i

y y eSSR

RSST y y y y

2 2 1 11 (1 ) 1 ,1

1 1adj

n nR R

n k n k

59

Exemplu-consumul ca funcţie de venit

2

1ˆ2

n

ii

e

n

• Modelul explică 99.7% din variaţia consumului

Standard Error :

Regression Statistics Multiple R 0.998881 R Square 0.997762 Adjusted R Square 0.997727 Standard Error 59.29206 Observations 66

60

Observaţii

• R2 este adesea folosit pentru a alege cel mai bun model din punctul de vedere al varianţei explicate.

• Comparaţiile de acest fel trebuie făcute între modele de aceeaşi natură.

61

Foarte important!!

• Pentru modele de regresie fără termen liber, de tipul R2 nu mai are semnificaţia de proporţie a varianţei explicate.• Exemplu: considerăm două astfel de modele

• Deşi ar părea că modelul al doilea este mai performant, nu sînt argumente pentru a susţine această ipoteză

y x

1 1 1 12 1 2 1

2 2 2 2

, unde şi i i i i

y xy y x x

y x

62

Coeficientul de determinaţie şi coeficientul de corelaţie liniară

R2 = 1, R2 = 1,

R2 = .8, R2 = 0,Y

Yi = b0 + b1Xi

X

^

YYi = b0 + b1Xi

X

^Y

Yi = b0 + b1Xi

X

^

Y

Yi = b0 + b1Xi

X

^

r = +1 r = -1

r = +0.9 r = 0

63

Tabelul ANOVASource of Variation

Sum of Squares df Mean Square

F

Regression

2

1

ˆ( )n

ii

SSR y y

k-1 MSR=1

SSR

k

MSR

MSE

Error

2 2

1 1

ˆ( )n n

i i ii i

SSE y y e

n-k MSE=SSE

n k

Total

ii yySST 2)(

n-1 1n

SST

Testul

este folosit la verificarea validităţii modelului. Un model este valid dacă proporţia varianţei explicate prin model este semnificativă. Ipoteza nulă pentru testul F in cazul acesta este cea de model nevalid.

1,1 ~ k n k

SSRkF FSSEn k

k-numărul de parametrii ai modelului

64

ANOVA

Regression StatisticsMultiple R 0.998880586R Square 0.997762426Adjusted R Square 0.997727464Standard Error 59.29206039Observations 66

ANOVAdf SS MS F Significance F

Regression 1 100328138.6 100328138.6 28538.40325 0.000Residual 64 224995.0992 3515.548425Total 65 100553133.7

65

Predicţia folosind modelul de regresie

• 1. Tipuri de predicţii– Estimări punctuale– Estimări pe intervale de încredere

• 2. Care e obiectul predicţiei?– Media populaţiei E(Y) pentru o valoare particulară a lui X– Valoarea individuală (Yi) pentru o valoare particulară a lui

X

66

Ce prezicem

Mean Y, E(Y)

YY Individual

Prediction, Y

E(Y) = 0 + 1X

^

XXP

67

Interval de încredere pentru media lui Y

ˆ ˆ/ 2, 2 / 2, 2

22

2 1ˆ

2

1

ˆ ˆ( )

unde

1ˆ ˆ şi

2

n nY Y

n

ip i

nY

ii

Y t S E Y Y t S

ex xS

n nx x

68

Factori care afectează lungimea intervalului de încredere

• 1. Nivelul de încredere (1 - )– Creşterea nivelului de încredere duce la creşterea intervalului de

încredere• 2. Dispersia datelor (σ)

– Creşterea dispersiei duce la creşterea intervalului de încredere• 3. Volumul eşantionului

– Creşterea volumului eşantionului duce la micşorarea intervalului de încredere

• 4. Distanţa lui Xp faţă de mediaX

– Creşterea acestei distante duce la creşterea intervalului de încredere

69

Distanţa lui Xp faţă de mediaX

Sample 2 Line

Y

XX1 X2

Y_ Sample 1 Line

Dispersie mai mare decît la X1

X

70

Interval de predicţie pentru valori particulare

/ 2, 2 / 2, 2ˆ ˆ

22

2 1ˆ

2

1

ˆ ˆ

unde

1ˆ ˆ1 şi

2

n P nY Y Y Y

n

iP i

nY Y

ii

Y t S Y Y t S

ex x

Sn nx x

71

Predicţia

Expected(Mean) Y

Y

Y i= 0

+ 1X i

Y we're trying to predict

Prediction, Y

E(Y) = 0 + 1X

^

XXP

72

Intervale de încredere pentru predicție

X

Y

X

Y i= 0

+ 1X i

^

XP

_

^^

top related