curs probabilitati

68
Cuprins 1 Curs 1 3 1.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.2 Camp clasic de probabilitate . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1. 3 Probab il itate conditi on ata si ev enime nte in dependen te . . . . . . . . . . . . 5 2 Cursul II 8 2.1 Spatii de probabilitate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 2.2 Probabilitate. Spatiu de probabilitate . . . . . . . . . . . . . . . . . . . . . . 9 2.3 Probabilitate conditionata . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 3 Cursul III 12 3.1 Variabile aleatoare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 3.2 Functia de repart iti e a unei variabi le aleat oar e . . . . . . . . . . . . . . . . . 12 3.3 Variabile aleatoare de tip discret . . . . . . . . . . . . . . . . . . . . . . . . . 14 3.4 Variabile aleatoare de tip continuu . . . . . . . . . . . . . . . . . . . . . . . 15 4 Cursul IV 19 4.1 Variable aleatoare independente . . . . . . . . . . . . . . . . . . . . . . . . . 19 4.2 Ca racteris ti ci numerice ale v ariabilelor aleatoare reale . . . . . . . . . . . . . 20 5 Cursul V 23 5.1 Inegalitatea lui Cea¸ sev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 5.2 Covarianta si coe cientul de corelatie . . . . . . . . . . . . . . . . . . . . . . 24 6 Cursul VI 27 6.1 Convergenta aproape sigura (a.s.) . . . . . . . . . . . . . . . . . . . . . . . . 27 6.2 Convergenta in probabilitate . . . . . . . . . . . . . . . . . . . . . . . . . . . 28 6.3 Convergenta in repartitie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 6.4 Convergenta in medie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 6.5 Legea Numerelor Mari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 7 Cursul VII 36 7.1 Functia caracteristica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 8 Cursul VIII 42 8.1 Co nver genta in repartitie si legatura cu functia caracteristica . . . . . . . . . 42 8.2 Teorema Limita Centrala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43 1

Upload: scaiceanu-luiza-carmen

Post on 20-Jul-2015

81 views

Category:

Documents


3 download

TRANSCRIPT

Page 1: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 1/68

Cuprins

1 Curs 1 31.1 Introducere . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.2 Camp clasic de probabilitate . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.3 Probabilitate conditionata si evenimente independente . . . . . . . . . . . . 5

2 Cursul II 82.1 Spatii de probabilitate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82.2 Probabilitate. Spatiu de probabilitate . . . . . . . . . . . . . . . . . . . . . . 92.3 Probabilitate conditionata . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

3 Cursul III 123.1 Variabile aleatoare . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123.2 Functia de repartitie a unei variabile aleatoare . . . . . . . . . . . . . . . . . 123.3 Variabile aleatoare de tip discret . . . . . . . . . . . . . . . . . . . . . . . . . 143.4 Variabile aleatoare de tip continuu . . . . . . . . . . . . . . . . . . . . . . . 15

4 Cursul IV 194.1 Variable aleatoare independente . . . . . . . . . . . . . . . . . . . . . . . . . 194.2 Caracteristici numerice ale variabilelor aleatoare reale . . . . . . . . . . . . . 20

5 Cursul V 235.1 Inegalitatea lui Cebasev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235.2 Covarianta si coeficientul de corelatie . . . . . . . . . . . . . . . . . . . . . . 24

6 Cursul VI 276.1 Convergenta aproape sigura (a.s.) . . . . . . . . . . . . . . . . . . . . . . . . 27

6.2 Convergenta in probabilitate . . . . . . . . . . . . . . . . . . . . . . . . . . . 286.3 Convergenta in repartitie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 306.4 Convergenta in medie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316.5 Legea Numerelor Mari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

7 Cursul VII 367.1 Functia caracteristica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

8 Cursul VIII 428.1 Convergenta in repartitie si legatura cu functia caracteristica. . . . . . . . . 428.2 Teorema Limita Centrala . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

1

Page 2: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 2/68

9 Cursul IX 479.1 Elemente de statistica descriptiva . . . . . . . . . . . . . . . . . . . . . . . . 479.2 Elemente de baza de statistica . . . . . . . . . . . . . . . . . . . . . . . . . . 479.3 Tabele de valori observate . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

9.3.1 Date de selectie, valori de selectie, sondaje . . . . . . . . . . . . . . . 499.4 Reprezentarea grafica a datelor 1-dimensionale . . . . . . . . . . . . . . . . . 51

9.4.1 Reprezentarea prin batoane/bastonase . . . . . . . . . . . . . . . . . 519.4.2 Reprezentarea prin histograma . . . . . . . . . . . . . . . . . . . . . . 51

9.5 Sistematizarea datelor bidimensionale . . . . . . . . . . . . . . . . . . . . . . 51

10 Cursul X 5310.1 Caracteristici numerice ale distributiilor statistice . . . . . . . . . . . . . . . 5310.2 Corelatie si regresie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

10.2.1 Drepte de regresie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

11 Cursul XI 5811.1 Caracteristici de sondaj . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5811.2 Elemente de teoria estimatiei punctuale . . . . . . . . . . . . . . . . . . . . . 5911.3 Metoda verosimilitatii maxime . . . . . . . . . . . . . . . . . . . . . . . . . . 6111.4 Metoda momentelor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

12 Cursul XII 6412.1 Verificarea ipotezelor statistice . . . . . . . . . . . . . . . . . . . . . . . . . . 6412.2 Testul Z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6612.3 Testul T . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6712.4 P uterea unui test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

2

Page 3: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 3/68

Capitolul 1

Curs 1

1.1 Introducere

Teoria probabilitatilor se ocupa cu studiul fenomenelor aleatoare, de exemplu jocurile denoroc, studierea duratei de viata a unui individ dintr-o anumita populatie, extragerea uneibile dintr-o urna cu bile albe si begre, si observarea culorii.

O experienta se numeste aleatoare daca rezultatul sau este supus intamplarii.In teoria probabilitatilor intalnim notiunile de proba, eveniment, probabilitate.Rezultatul unei experiente aleatoare se numeste proba sau caz posibil. In experienta

arucarii unui zar o data, aparitia fetei cu i puncte este o proba. Avem astfel probele i, i =1, 6. Orice afirmatie legata de o experienta aleatoare despre care nu putem spune ca s-aprodus sau nu decat dupa efectuarea experientei se numeste eveniment. In experientaaruncarii unui zar aparitia unei fete cu numar par de puncte este un eveniment.

In acest limbaj fiecare proba este un eveniment, numit eveniment elementar, restulevenimentelor fiind evenimente compuse. Legat de experienta aruncarii unui zar avemurmatoarele evenimente elementare: 1, 2, ..., 6.

Daca A este evenimentul aparitiei unei fete cu un numar par de puncte, atunci A serealizeaza daca si numai daca se realizeaza unul din evenimentele elementare 2, 4, 6,deci vom scrie A = 2, 4, 6.

Evenimentul care se produce la orice efectuare a unei experiente se numeste evenimentulsigur si se noteaza cu Ω. Evenimentul care nu se produce la nici o efectuare a experienteise numeste evenimentul imposibil si se noteaza cu ∅. In cazul aruncarii zarului Ω =1, 2,..., 6, iar evenimentul aparitiei unei fete cu 7 puncte este ∅.

Fiecare eveniment A legat de o experienta aleatoare este format din multimea probelor(sau a evenimentelor elementare) care duc la realizarea sa. Fiecare eveniment este o partea evenimentului sigur. Un eveniment elementar care duce la realizarea evenimentului A senumeste caz favorabil producerii lui A.

Fiecarui eveniment A legat de o experienta aleatoare ii corespunde un eveniment care serealizeaza ori de cate ori A nu se realizeaza. Acest eveniment se numeste contrarul lui A sise noteaza cu CA sau A.

Daca avem A si B doua evenimente, avem evenimentul care se realizeaza atunci cand celputin unul din cele doua se intampla, numit A sau B, notat cu A ∪ B. Evenimentul care serealizeaza ori de cate ori se realizeaza ambele se numeste A si B si se noteaza A ∩ B.

3

Page 4: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 4/68

Spunem ca doua evenimente sunt incompatibile daca nu se pot realiza simultan, si scriemA ∩ B = ∅.

Daca A duce la realizarea lui B spunem ca A implica B, si scriem A ⊆ B.Daca A ⊆ B si B ⊆ A, atunci spunem ca A si B sunt echivalente, si notam A = B.Consideram Ω finit. (Ω,

P (Ω)) se numeste campul de evenimente asociat experientei

aleatoare.Evenimentele elementare pot avea aceleasi sanse de realizare - egal posibile, sau nu.

Exemplu 1. a) La aruncarea unui zar o data, evenimentele elementare sunt egal posibile.b) Consideram o urna care contine 10 bile numerotate de la 1 la 10, primele 3 bile fiind deculoare alba, si restul de 7 de culoare neagra. Extragem la intamplare o bila din urna siobservam culoarea. Evenimentele elementare sunt:a - aparitia unei bile albeb - aparitia unei bile negreIn acest caz evenimentele elementare un sunt egal posibile.

1.2 Camp clasic de probabilitate

Fie (Ω, P (Ω)) un camp finit de evenimente, cu toate evenimentele egal posibile, Ω = ω1,...,ωn. Fie A = ωi1,...,ωir ⊆ Ω.

Definitie 1. Numim probabilitate a evenimentului A raportul dintre numarul cazurilor fa-vorabile lui A si numarul cazurilor egal posibile:

P (A) =numarul cazurilor favorabile lui A

numarul cazurilor egal posibile

=r

n

(1.1)

Functia P : P (Ω) −→ [0, ∞) definita de (1.1) se numeste probabilitate clasica pe Ω, iar(Ω, P (Ω), P ) se numeste camp clasic de probabilitate.

Cu aceasta definitie avem P (ωi) = 1n

, i ∈ 1, n, deci evenimentele elementare suntechiprobabile.

Proprietat i 1. Probabilitatea clasica satisface urmatoarele proprietati:

1. 0 ≤ P (A) ≤ 1, ∀A- eveniment, A ⊆ Ω

2. P (∅) = 0

3. ∀A ⊆ Ω, avem P (A) = 1 − P (A)

4. ∀A, B ⊆ Ω, A ⊆ B avem P (B \ A) = P (B) − P (A), P (A) ≤ P (B)

5. P (A ∪ B) = P (A) + P (B), ∀A, B ⊆ Ω, A ∩ B = ∅6. P (A ∪ B) = P (A) + P (B) − P (A ∩ B), ∀A, B ⊆ Ω

4

Page 5: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 5/68

7. ∀A1, A2,...,Ar ⊆ Ω

P

n

i=1

Ai

=

ni=1

P (Ai) −

1≤i<j≤n

P (Ai ∩ A j) +

1≤i<j<k≤n

P (Ai ∩ A j ∩ Ak) − ...

... + (−1)n−1P (A1 ∩ A2 ∩ ... ∩ An)(1.2)

[Identitatea lui Poincare]

Demonstrat ie. 1. P (Ω) = cardΩcardΩ

= 1

2. P (∅) = P (∅ ∪ ∅)3= P (∅) + P (∅) ⇒ P (∅) = 0.

3. P (A ∪ B) = r+sn

= rn

+ sn

= P (A) + P (B), undecardA = r, cardB = s, A ∩ B = ∅ implica card(A ∪ B) = r + s.

4. Fie A ⊂ B ⊆ Ω. Atunci B = A ∪ (B \ A), deci, aplicand 3. avem

P (B) = P (A) + P (B \ A) ⇒ 0 ≤ P (B \ A) = P (B) − P (A) ⇒ P (A) ≤ P (B)

Observatie. ∀A ⊆ Ω avem 0 ≤ P (A) ≤ P (Ω) = 1 adica P (A) ∈ [0, 1].

5. Scriem A ∪ B = A ∪ (B \ (A ∩ B)) de unde

P (A ∪ B)3

= P (A) + P (B \ (A ∩ B))4

= P (A) + P (B) − P (A ∩ B)

6. P (A) = n−rn

= 1

−rn

= 1

−P (A) deoarece cardA = r si cardA = n

−r.

7. Se demonstreaza prin inductie dupa n, pentru n = 2 avand relatia de la 5.

1.3 Probabilitate conditionata si evenimente indepen-dente

Consideram experienta aruncarii unui zar o data. Fie A = 1, 2, B = 2, 3, 4. Calculamprobabilitatea lui A stiind ca s-a produs B, numita in cele ce urmeaza probabilitatea lui A

conditionata de B :

P (A|B) =1

3;

P (A ∩ B)

P (B)=

1636

=1

3=⇒ P (A|B) =

P (A ∩ B)

P (B)

Fie (Ω, P (Ω), P ) camp clasic de probabilitate, A, B ⊆ Ω, P (B) > 0, cardA = r, cardB = s,card(A ∩ B) = q. Avem

P (A|B) =q

s=

qnsn

=P (A ∩ B)

P (B)

Propozitie 1. Fie (Ω, P (Ω), P ) un spatiu clasic de probabilitate, A, A1,...,Ar ⊆ Ω, P (Ai) >0, i

∈1, r, A

i ∩A

j=

∅,

∀i= j, r

i=1A

i= Ω. Atunci

5

Page 6: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 6/68

1. Formula probabilitatii totale:

P (A) =r

i=1

P (Ai)P (A|Ai) (1.3)

2. Formula lui Bayes:

P (Ai|A) =P (Ai)P (A|Ai)r

j=1 P (A j)P (A|A j), i = 1, r , P (A) > 0 (1.4)

Demonstrat ie. 1.

P (A) = P (A ∩ Ω) = P

A ∩

ri=1

Ai

= P

r

i=1

(Ai ∩ A)

=

Folosind faptul ca

(Ai ∩ A) ∩ (A j ∩ A) = (Ai ∩ A j ) ∩ A = ∅, ∀i = j

obtinem

P (A) =r

i=1

P (Ai ∩ A) =r

i=1

P (A)P (A|Ai)

2. Avem

P (Ai|A) =P (Ai ∩ A)

P (A)=

P (Ai)P (A|Ai)

r

j=1P (A

j)P (A

|A

j)

Fie A = 1, 2, B = 2, 3, 4.

P (A|B) =P (A ∩ B)

P (B)=

1/6

3/6=

1

3= P (A)

P (A|B) =P (A ∩ B)

P (B)=

1/6

3/6=

1

3= P (A)

Observam deci ca realizarea sau nerealizarea lui B nu influenteaza producerea lui A. Analog,producerea sau neproducerea lui A nu influenteaza producerea lui B. Intuitiv, A si B suntindependente.

Definitie 2. Fie (Ω, P (Ω), P ) un spatiu de probabilitate clasica. Spunem ca evenimenteleA, B ⊆ Ω sunt independente daca

P (A|B) = P (A), P (A|B) = P (A), P (B|A) = P (B), P (B|A) = P (B) (1.5)

Observatie 1. A si B sunt independente daca si numai daca

P (A

∩B) = P (A)P (B) (1.6)

6

Page 7: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 7/68

Definitie 3. Spunem ca evenimentele A1,...,Ar ⊆ Ω sunt independente daca probabilitateaoricarei intersectii formate cu ele este produsul probabilitatilor individuale:

P (Ai1 ∩Ai2 ∩ ....∩Aik) = P (Ai1)P (Ai2) · ... ·P (Aik), ∀ 1 ≤ i1 ≤ ... ≤ ik ≤ r, ∀k = 2, r (1.7)

Observatie 2. In cazul evenimentelor A,B,C , independenta celor trei se traduce astfel:P (A ∩ B) = P (A)P (B), P (A ∩ C ) = P (A)P (C ), P (B ∩ C ) = P (B)P (C ), adica A,B,C sunt independente doua cate doua, si P (A ∩ B ∩ C ) = P (A)P (B)P (C ), adica A,B,C suntindependente 3 cate 3.

Propozitie 2 (Formula lantului). Fie (Ω, P (Ω), P ) spatiu clasic de probabilitate, A1,...,Ar ⊆Ω, P (A1 ∩ A2 ∩ ... ∩ Ar) > 0. Atunci

P (A1 ∩ ... ∩ Ar) = P (A1)P (A2|A1)P (A3|A1 ∩ A2) · ... · P (Ar|A1 ∩ ... ∩ Ar−1) (1.8)

Demonstrat ie. Avem relatiile urmatoare:

P (A1) = P (A1)

P (A2|A1) = P (A1∩A2)P (A1)

P (A3|A1 ∩ A2) = P (A1∩A2∩A3)P (A1∩A2)

...

P (Ar|A1 ∩ A2 ∩ A3 ∩ ... ∩ Ar−1) = P (A1∩A2∩...∩Ar)P (A1∩A2∩...∩Ar−1)

de unde, prin inmultire se obtine relatia ceruta.

7

Page 8: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 8/68

Capitolul 2

Cursul II

2.1 Spatii de probabilitate

Fie Ω o multime nevida, P (Ω) multimea partilor lui Ω.

Definitie 1. Numim σ− algebra pe Ω o clasa F ⊆ P (Ω) cu urmatoarele proprietati:

1. Ω ∈ F 2. ∀A ∈ F avem C A ∈ F (F - inchisa la complementara)

3. ∀A1,...,An,... ∈ F avem

n≥1 An ∈ F (F - inchisa la reuniuni numarabile)

Exemplu 1. Urmatoarele sunt σ− algebre: ∅, Ω, ∅, A , C A, Ω, P (Ω).

Proprietat i 2. Fie F o σ - algebra peste Ω. Atunci

1. ∅ ∈ F 2. ∀A1,...,An,... ∈ F avem

n≥1 An ∈ F ( F - inchisa la intersectii numarabile)

3. ∀A, B ∈ F avem A \ B, B \ A ∈ F Demonstrat ie. 1. Ω ∈ F si folosind punctul 2. al definitiei obtinem ca C Ω = ∅ ∈ F .

2.C (

n≥1An) =

n≥1C An

∈ F deci

n≥1 An ∈ F .

3. Fie A1 = A ∈ F , A2 = C B ∈ F , An = Ω ∈ F , ∀ n ≥ 3. Atuncin≥1

An = A ∩ C B ∩ Ω ∩ ... ∩ Ω ∩ ... = A ∩ C B = A \ B ∈ F

Fie

M ⊆ P (Ω) o subclasa de parti ale lui Ω.

8

Page 9: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 9/68

Definitie 2. Numim σ- algebra generata de M, si o notam cu σ(M), cea mai mica σ -algebra care il contine pe M, adica

∀F − σ algebra , M ⊆ F =⇒ σ(M) ⊆ F .

Observatie 1.σ(M) =

F−σ algebra ,M⊆F

F

Exemplu 2. Fie Ω = IR, G = multimea deschisilor din IR.

σ(G) = BIR − multimea borelienelor din IR

AnalogBIRk = σ((a1, b1) × ... × (ak, bk)|ai < bi, ∀i = 1, k, ai, bi ∈ IR)

Definitie 3. Fie Ω multime nevida si F o σ- algebra pe Ω. Atunci (Ω, F ) se numeste camp

de evenimente.

2.2 Probabilitate. Spatiu de probabilitate

Definitie 4. Fie (Ω, F ) camp de evenimente. Functia P : F −→ [0, ∞) se numeste proba-bilitate daca

1. P (Ω) = 1

2. ∀A1,...,An ∈ F , Ai ∩ A j = ∅, ∀i = j avem

P

n≥1An

=n≥1

P (An)

Propozitie 1. In conditiile de mai sus, au loc urmatoarele relatii:

1. P (∅) = 0

2. P (A ∪ B) = P (A) + P (B), ∀ A, B ⊆ Ω, A ∩ B = ∅3. P (A) = 1 − P (A), ∀A ⊆ Ω

4.∀

A, B⊆

Ω, A⊂

B⇒

P (B\

A) = P (B)−

P (A) si P (A)≤

P (B)

5. P (A ∪ B) = P (A) + P (B) − P (A ∩ B) ∀A, B ⊆ Ω

6. ∀A1, A2,...,An ⊆ Ω avem

P

n

i=1

Ai

=

ni=1

P (Ai) −

1≤i<j≤n

P (Ai ∩ A j) +

1≤i<j<k≤n

P (Ai ∩ A j ∩ Ak) − ...

... + (−1)n−1P (A1 ∩ A2 ∩ ... ∩ An)

(2.1)

(Identitatea lui Poincare)

9

Page 10: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 10/68

7. Daca A1 ⊆ A2 ⊆ ... ⊆ An ⊆ ..., atunci

P

n≥1

An

= lim

n−→∞P (An)

si daca A1 ⊇ A2 ⊇ ... ⊇ An ⊇ ... atunci

P

n≥1

An

= lim

n−→∞P (An)

Demonstrat ie. 1. P (∅) = P (∅ ∪ ∅ ∪ ... ∪ ∅)2

=⇒ P (∅) = P (∅) + P (∅) + ... + P (∅) + ... =∞ · P (∅) ⇒ P (∅) = 0.

2.

P (A∪B) = P (A∪B ∪∅∪ ...∪∅) = P (A)+P (B)+P (∅)+ ...+P (∅)+ ... = P (A)+P (B)

3. Ω = A ∪ C A si A ∩ C A = ∅, deci, cu punctul 2. al definitiei obtinem

P (Ω) = P (A) + P (C A) =⇒ P (C A) = 1 − P (A)

4. Daca A ⊆ B rezulta B = A ∪ (B \ A0) cu A ∩ (B \ A) = ∅ de unde

P (B) = P (A) + P (B \ A) adica P (B \ A) = P (B) − P (A)

Cum P (B \ A) ≥ 0 se obtine imediat ca P (A) ≤ P (B).

Observatie. Cum A ⊆ Ω, ∀A ∈ F , obtinem ca P (A) ≤ P (Ω) = 1, ∀A ∈ F , deciP (A) ∈ [0, 1], ∀A ∈ F .

5. A ∪ B = A ∪ (B \ (A ∩ B)), si multimile sunt disjuncte, deci

P (A ∪ B) = P (A) + P (B \ (A ∩ B))4

= P (A) + P (B) − P (A ∩ B)

6. Se demonstreaza prin inductie dupa n.

7. Fie A1 ⊆ A2 ⊆ ... ⊆ An ⊆ .... Notam

B1 = A1, B2 = A2 \ A1, .... Bn = An \ An−1,...

Observam ca n≥1

An =n≥1

Bn =n≥1

P (Bn) = limn−→∞

nk=1

P (Bk) =

= limn−→∞

(P (A1) + P (A2 \ A1) + ... + P (An \ An−1))4=

= limn

−→∞

(P (A1)+P (A2)

−P (A1)+P (A3)

−P (A2)+...+P (An)

−P (An−1)+...) = lim

n

−→∞

P (An)

10

Page 11: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 11/68

Pentru un sir descrescator de evenimente A1 ⊇ A2 ⊇ ... ⊇ An ⊇ ... avem

P

n≥1

An

= 1−P

n≥1

An

= 1− lim

n−→∞P (An) = 1− lim

n−→∞(1−P (An)) = lim

n−→∞P (An)

deoarece A1 ⊆ A2 ⊆ ... ⊆ An ⊆ ....

Definitie 5. In conditiile de mai sus, tripletul (Ω, F , P ) se numeste spatiu de probabilitate.

Exemplu 3. Fie campul de evenimente (IR, BIR), si definim functia δa : BIR −→ [0, ∞),

δa(A) =

1, a ∈ A0, a /∈ A

Functia astfel definita se numeste masura Dirac si este o probabilitate, iar (IR,

BIR, δa) este

spatiu de probabilitate.

2.3 Probabilitate conditionata

Fie (Ω, F , P ) spatiu de probabilitate, A ∈ F , P (A) > 0.

Definitie 6. Numim probabilitate conditionata de A functia P (·|A) data de relatia:

P (B|A) =P (A ∩ B)

P (A), ∀B ∈ F (2.2)

Observatie 2. P ( · |A) este o probabilitate pe (Ω, F ).

Propozitie 2. Fie (Ω, F , P ) - spatiu de probabilitate, Ak ∈ F , k = 1,...,n, P (A1 ∩ ... ∩An−1) > 0. Atunci

P (A1 ∩ A2 ∩ ... ∩ An) = P (A1)P (A2|A1) · ... · P (An|A1 ∩ ... ∩ An−1) (2.3)

(Formula lantului)

Propozitie 3. Fie (Ω, F , P ) un spatiu de probabilitate, A1,...,An ∈ F , A j ∩Ak = ∅, ∀ j = k,

nk=1 Ak = Ω, P (Ak) > 0, ∀k. Atunci avem

1.

P (A) =n

k=1

P (Ak) · P (A|Ak) (2.4)

(Formula probabilitatii totale)

2.

P (Ai|A) =P (Ai) · P (A|Ai)n

k=1 P (Ak) · P (A|Ak)(2.5)

(Formula lui Bayes)

11

Page 12: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 12/68

Capitolul 3

Cursul III

3.1 Variabile aleatoare

Definitie 1. Fie (Ω, F , P ) spatiu de probabilitate, (X, X ) spatiu masurabil. Functia f :Ω −→ X se numeste variabila aleatoare daca

f −1(B) ∈ F , ∀B ∈ X Daca (X, X ) = (IR, BIR) atunci f se numeste variabila aleatoare reala. Daca (X, X ) =(IRk, BIRk), k ∈ IN , atunci f se numeste variabila aleatoare vectoriala k-dimensionala.

Observatie 1. f : Ω −→ IR este variabila aleatoare daca si numai daca (f < a) ∈ F , ∀a ∈IR.

Propozitie 1. Fie a

∈IR, r > 0, f, g - variabile aleatoare reale. Atunci a + f, a

·f, f + g, f

·g, f r, f g , |f |, max(f, g) sunt variabile aleatoare reale. Daca (f n)n≥1 este un sir de variabile

aleatoare reale, atunci lim inf n f n, lim supn f n, limn f n sunt variabile aleatoare reale.

3.2 Functia de repartitie a unei variabile aleatoare

Fie (Ω, F , P ), f : Ω −→ IR variabila aleatoare.

Definitie 2. Functia F f : IR −→ [0, 1], definita de relatia

F f (x) = P (f < x), ∀x ∈ IR

se numeste functia de repartitie a variabilei aleatoare f .

Propozitie 2. Functia de repartitie satisface urmatoarele proprietati:

1. F f e monoton crescatoare

2. F f e continua la stanga

3.lim

x−→−∞F f (x) = 0,

limx

−→∞

F f (x) = 1

12

Page 13: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 13/68

Demonstrat ie. 1. ∀x, y ∈ IR, x < y avem (f < x) ⊆ (f < y) de unde

P (f < x) ≤ P (f < y) ⇒ F f (x) ≤ F f (y)

2. Trebuie sa aratam ca limy

↑x F f (y) = F f (x),

∀x

∈IR. La punctul anterior am aratat

ca F f e monoton crescatoare, si cum valoarea sa este data de o probabilitate, este simarginita de 1. Exista deci limy↑x f f (y). Fie xn = x − 1

n, n ∈ IN ∗, xn ↑ x. Atunci

(f < x − 1

n) ⊆ (f < x) ⇒ lim

n−→∞P (f < x − 1

n) < P (f < x)

deci limy↑x F f (y) = limn−→∞ F f (xn) = F f (x).

3. Fie xn = n ↑ ∞. Avem (f < n) ↑ (−∞ < f < ∞) = Ω deci

limn−→∞

F f (n) = limn−→∞

P (f < n) = P (Ω) = 1

de unde limx−→∞ F f (x) = 1.

Definitie 3. O functie F : IR −→ [0, 1] cu proprietatile

1. F - monoton crescatoare

2. F - continua la stanga

3.lim

x−→−∞F (x) = 0,

limx−→∞F (x) = 1

se numeste functie de repartitie pe IR.

Observatie 2. Daca F e o functie de repartitie pe IR, exista un camp de probabilitate(Ω, F , P ), si o variabila aleatoare f : Ω −→ IR astfel incat F f = F . Campul de probabilitatesi variabila nu sunt unice.

Definitie 4. Fie (Ω, F , P ) un spatiu de probabilitate, f = (f 1,...,f k) : Ω −→ IRk o variabilaaleatoare k-dimensionala. Functia F f 1,...,f k(x1,...,xk) : IRk −→ [0, 1] data de relatia

F (f 1,...,f k)(x1,...,xk) = P (f 1 < x1,...,f k < xk), ∀(x1,...,xk) ∈ IRk

se numeste functia de repartitie a variabilei aleatoare vectoriale (f 1,...,f k).

Propozitie 3. 1. F f 1,...,f k este monoton crescatoare in raport cu fiecare argument

2. F f 1,...,f k este continua la stanga in raport cu fiecare argument

3.lim

xi−→−∞F f 1,...,f k = 0, ∀i = 1,...,k

limxi

−→∞

F f 1,...,f k = 1, ∀i = 1,...,k

13

Page 14: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 14/68

Observatie 3. Fie I = 1, 2,...,k, J = i1,...,ir I . Atunci

F (f i1 ,...,f ir )(xi1,...,xir) = lim

xs−→∞,∀s∈I \J F (f 1,...,f k)(x1,...,xk)

Pentru k = 2

F f 1(x1) = limx2−→∞F (f 1,f 2)(x1, x2), ∀ x1 ∈ IR

F f 2(x2) = limx1−→∞

F (f 1,f 2)(x1, x2), ∀ x2 ∈ IR

La fel, pentru k = 3:

F f 1(x1) = limx2,x3−→∞

F (f 1,f 2,f 3)(x1, x2, x3), ∀ x1 ∈ IR

F f 1,f 2(x1, x2) = limx3−→∞

F (f 1,f 2,f 3)(x1, x2, x3), ∀ x1, x2 ∈ IR

3.3 Variabile aleatoare de tip discretFie (Ω, F , P ) un spatiu de probabilitate, f : Ω −→ IR o variabila aleatoare reala.

Definitie 5. Spunem ca f este de tip discret daca ∃I cel mult numarabila, ai ∈ IR, i ∈ I ,astfel incat f (Ω) = ai|i ∈ I .

Fie Ai = (f = ai), i ∈ I , pi = P (Ai), Ai ∩ A j = (f = ai) ∩ (f = a j) = ∅,

i∈I Ai = Ω.Avem

1 = P (Ω) = P (i∈I

Ai) =i∈I

P (Ai)

de unde i∈I

pi = 1

Definitie 6. Unei variabile aleatoare reale ii asociem urmatorul tabel, care se numesterepartitia variabilei f :

f :

a1 a2 ... ai ... p1 p2 ... pi ...

Exemplu 1. Se arunca un zar o data. Determinati repartitia variabilei aleatoare f care danumarul de puncte obtinute. Calculati functia de repartitie corespunzatoare.

Definitie 7. Fie (Ω,

F , P ) un spatiu de probabilitate, f = (f 1,..,.f k) : Ω

−→IRk o variabila

aleatoare vectoriala. Spunem ca f este de tip discret daca

f (Ω) = (ai, b j ,...,ck) ∈ IRk|i ∈ I, j ∈ J,...,k ∈ K,I,J,...,K − cel mult numarabilePentru k = 2, f = (f 1, f 2) avem:

Aij = (f 1 = ai, f 2 = b j), i ∈ I, j ∈ J

si evenimentele respective sunt doua cate doua disjuncte si reuniunea lor dupa toti i si j esteΩ. De asemenea

i∈I j∈J

P (Aij) = 1

14

Page 15: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 15/68

f 1\f 2 ... b j ......

...ai ... pij ......

...

Avem pi = P (f 1 = ai), i ∈ I si q j = P (f 2 = b j), j ∈ J si mai departe

pi = P (f 1 = ai) = P ((f 1 = ai) ∩ Ω) = P ((f 1 = ai) ∩ (

j∈J

(f 2 = b j))) =

= P (

j∈J

((f 1 = ai) ∩ (f 2 = b j ))) = j∈J

P (f 1 = ai, f 2 = b j) = j∈J

pij

Avem astfel

j∈J

pij = pi, ∀i ∈ I si i∈I

pij = q j, ∀ j ∈ J.

3.4 Variabile aleatoare de tip continuu

Fie (Ω, F , P ) un spatiu de probabilitate, f : Ω −→ IR o variabila aleatoare.

Definitie 8. Spunem ca f este o variabila aleatoare de tip continuu daca exista ρf : IR −→[∞, 0) astfel incat

F f (x) =

x

−∞ρf (t)dt, ∀x ∈ IR (3.1)

Functia ρf se numeste densitatea de repartitie a variabilei aleatoare f .Observatie 4. Din relatia 3.1 se poate observa ca

1. F f este continua

2. ∞−∞

ρf (t)dt = 1

3.F f (x) = ρf (x), ∀x ∈ IR(cu exceptia unei multimi de masura nula).

Definitie 9. O functie ρ : IR −→ [0, ∞) cu proprietatea ca ∞−∞

ρ(x)dx = 1 (3.2)

se numeste densitate de repartitie pe IR.

Observatie 5. Daca ρ este o densitate de repartitie pe IR, exista (Ω, F , P ) un spatiu deprobabilitate si f : Ω −→ IR o variabila aleatoare astfel incat ρf = ρ.

15

Page 16: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 16/68

Exemplu 2. Fie m ∈ IR, σ > 0, ρ : IR −→ IR

ρ(x) =1

σ√

πe−

(x−m)2

2σ2 , ∀x ∈ IR (3.3)

este o densitate de repartitie pe IR.Definitie 10. Despre o variabila aleatoare reala f care are densitatea ρ din exemplul anteriorse spune ca are repartitia normala de parametri m si σ2 si vom scrie f ∼ N (m, σ2).

Exemplu 3. Fie a > 0 si functia ρ : IR −→ IR data de expresia

ρ(x) =a

π

1

a2 + x2, ∀x ∈ IR. (3.4)

Functia ρ este o densitate de repartitie pe IR.

Definitie 11. Despre o variabila aleatoare f care are densitatea de repartitie din exemplul

precedent spunem ca are repartitia Cauchy de parametru a si vom scrie f ∼ C (a).Teorema 1. Fie (Ω, F , P ) un spatiu de probabilitate si f : Ω −→ IR o variabila aleatoarereala de tip continuu, cu densitatea ρf , si P (f ∈ (a, b)) = 1, (a, b) ⊂ IR. Fie de asemenea g : (a, b) −→ (α, β ) o functie bijectiva, derivabila astfel incat g(x) > 0, ∀x ∈ (a, b) sau g(x) < 0, ∀x ∈ (a, b). Atunci variabila aleatoare h = g f este de tip continuu si aredensitatea de repartitie:

ρh(t) =

ρf (g−1(t))

ddt

g−1(t) t ∈ (α, β )

0, t ∈ (α, β )(3.5)

Definitie 12. Spunem ca variabila aleatoare f = (f 1,...,f k)t : Ω−→

IRk este de tip continuudaca ∃ρ(f 1,...,f k) : IRk −→ [0, ∞) astfel incat

F (f 1,...,f k)(x1,...,xk) =

x1

−∞· · · xk

−∞ρ(f 1,...,f k)(t1,..,tk)dt1...dtk, ∀(x1,..,xk)t ∈ IRk

ρ(f 1,...,f k) se numeste densitatea de repartitie a variabilei aleatoare f = (f 1,...,f k).

Observatie 6. 1. ∞−∞

· · · ∞−∞

ρ(f 1,...,f k)(t1,...,tk)dt1...dtk = 1

2. F (f 1,...,f k)

este continua in fiecare argument

3. Derivata partiala mixta

∂ kF (f 1,...,f k)

∂x1...∂xk

(x1,...,xk) = ρ(f 1,..,f k)(x1,...,xk)

Definitie 13. Functia ρ : IRk −→ [0, ∞), care satisface relatia ∞−∞

· · · ∞−∞

ρ(f 1,...,f k)(t1,..,tk)dt1...dtk = 1

se numeste densitate de repartitie pe IRk.

16

Page 17: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 17/68

Observatie 7. Se poate stabili usor ca daca I = 1, 2,...,k, J = i1,...,ir ⊂ I , (Ω, F , P )spatiu de probabilitate, f = (f 1,..,f k) : Ω −→ IRk variabila aleatoare de tip continuucu densitatea ρ(f 1,...,f k), atunci (f i1,...,f ir) e un vector aleator de tip continuu si densitateaacestuia este ρ(f i1 ,...,f ir )

care se obtine integrand in raport cu toate variabilele xs, cu s ∈ I \J .

Exemplu 4. Pentru k = 2, f = (f 1, f 2), cu densitatea ρ(f 1,f 2), avem

ρf 1(x) =

∞−∞

ρ(f 1,f 2)(x, y)dy

ρf 2(y) =

∞−∞

ρ(f 1,f 2)(x, y)dx

Daca k = 3, f = (f 1, f 2, f 3):

ρf 1,f 3(x, z) =

∞−∞

ρ(f 1,f 2,f 3)(x,y,z)dy

ρf 3(z) = ∞−∞

∞−∞

ρ(f 1,f 2,f 3)(x,y,z)dxdy

Propozitie 4. Fie (Ω, F , P ) spatiu de probabilitate, f : Ω −→ IR variabila aleatoare, cu functia de repartitie F f si a, b ∈ IR, a < b, atunci:

1. P (a ≤ f < b) = F f (b) − F f (a)

2. P (a < f < b) = F f (b) − F f (a + 0)

3. P (a ≤ f ≤ b) = F f (b + 0) − F f (a)

4. P (a < f

≤b) = F f (b + 0)

−F f (a + 0)

5. P (f = a) = F f (a + 0) − F f (a)

Demonstrat ie. 1. Avem (a ≤ f < b) = (f < b) \ (f < a) si cum a < b, e clar ca(f < a) ⊆ (f < b) deci

P (a ≤ f < b) = P ((f < b) \ (f < a)) = P (f < b) − P (f < a) = F f (b) − F f (a)

2-4. E suficient sa aratam caP (f ≤ a) = F f (a + 0)

Avem intr-adevar

(f ≤ a) =n≥1(f < a +

1

n),

si intervalele sunt crescatoare cu n, deci putem aplica continuitatea unei probabilitatiastfel:

P (f ≤ a) = P (n≥1

(f < a +1

n)) = lim

n−→∞P (f < a +

1

n) = lim

n−→∞F f (a +

1

n) = F f (a + 0)

Pentru 2. avem

(a < f < b) = (f < b) \ (f ≤ a), (f ≤ a) ⊂ (f < b) deci

P (a < f < b) = P (f < b)

−P (f

≤a) = F f (b)

−F f (a + 0)

17

Page 18: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 18/68

5. avemP (f = a) = P (a ≤ f ≤ a) = F f (a + 0) − F f (a), pe baza lui 3.

Observatie 8. Daca f este de tip continuu atunci P (f = a) = 0.

18

Page 19: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 19/68

Capitolul 4

Cursul IV

4.1 Variable aleatoare independente

Fie (Ω, F , P ) un spatiu de probabilitate, f 1,...,f n : Ω −→ X variabile aleatoare pe (X, X ).

Definitie 1. Variabilele f 1,...,f n se numesc independente daca

P (n

i=1

f −1i (Bi)) =n

i=1

P (f −1i (Bi)), ∀Bi ∈ X , i = 1,...,n

Relatia din definitie este echivalenta cu

P (f 1 ∈ B1,...,f n ∈ Bn) =n

i=1

P (f −1i (Bi)), ∀Bi ∈ X , i = 1,...,n

Observatie 1. Daca (X, X ) = (IR, BIR) si consideram Bi = (−∞, xi), i = 1,..,n, xi ∈ IR,avem

P (f 1 < x1,...,f n < xn) = P (f 1 < x1) · ... · P (f n < xn)

de undeF (f 1,...,f n)(x1,...,xn) = F f 1(x1) · ... · F f n(xn), ∀x1,...,xn ∈ IR

Se poate arata ca relatia de mai sus este o conditie necesara si suficienta pentru ca variabilelef 1,...,f n sa fie independente.

Observatie 2. Fie (f 1,...,f n) este de tip continuu, cu densitatea de repartitie ρ(f 1,...,f n).Presupunem ca f 1,...,f n sunt independente, deci avem

F (f 1,...,f n)(x1,...,xn) = F f 1(x1) · ... · F f n(xn)

si, derivand o data in raport cu fiecare variabila de obtine

∂F (f 1,...,f n)

∂x1...∂xn

(x1,...,xn) =∂F f 1

∂x1

(x1) · ... · ∂F f n

∂xn

(xn)

adicaρ(f 1,...,f n)(x1,...,xn) = ρf 1 · ... · ρf n(xn), ∀x1,...,xn ∈ IR

Se poate arata ca si reciproc, daca are loc relatia anterioara referitoare la densitati, atuncivariabilele corespunzatoare sunt independente.

19

Page 20: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 20/68

Propozitie 1. Fie (Ω, F , P ) spatiu de probabilitate, f 1,...,f n : Ω −→ IR variabile aleatoareindependente, si ϕ1,...,ϕn : IR −→ IR functii masurabile ( ϕ−1

i (B) ∈ BIR, ∀B ∈ BIR), atunci ϕ1 f 1,...,ϕn f n sunt independente.

Demonstrat ie. Fie B1,..,Bn

∈ BIR. Atunci avem

P (n

i=1

(ϕi f i)(Bi)) = P (n

i=1

f −1i (ϕ−1i (Bi))) =

=n

i=1

P (f −1i (ϕ−1i (Bi))) =

ni=1

P (ϕ f i)−1(Bi)

deci ϕ1 f 1,...,ϕn f n sunt independente.

4.2 Caracteristici numerice ale variabilelor aleatoarereale

Fie (Ω, F , P ), r ≥ 0 fixat, f : Ω −→ IR variabila aleatoare.

Definitie 2. Numim momentul absolut de ordin r al variabilei aleatoare f cantitatea:

M r(f ) =

∞−∞

|x|rdF f (x)

Daca M r(f ) < ∞ atunci

M r(f ) = ∞−∞

xrdF f (x)

se numeste moment de ordin r al lui f . Pentru r = 1, numarul

M 1(f ) =

∞−∞

xdF f (x)def = M (f )

se numeste media variabilei aleatoare f . Cantitatea

M cr (f ) = ∞

−∞

(x − M (f ))rdF f (x)

se numeste momentul centrat de ordin r al lui f . Cantitatea

D2(f ) = M c2(f ) =

∞−∞

(x − M (f ))2dF f (x)

se numeste dispersia variabilei aleatoare f .

Observatie 3. Fie f o variabila aleatoare discreta cu repartitia

f : xi

pi

i∈I

, I

−cel mult numarabila.

20

Page 21: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 21/68

Conform proprietatilor integralei Stieltjes

M r(f ) =i∈I

pi|xi|r, M r(f ) =i∈I

pixri , M (f ) =

i∈I

pixi

M cr (f ) =i∈I

(xi − M (f ))r pi, D2(f ) =i∈I

(xi − M (f ))2 pi

Observatie 4. Daca f e o variabila aleatoare reala de tip continuu, cu densitatea ρf , atuncidin proprietatile integralei Stieltjes avem

M r(f ) =

∞−∞

|x|rρf (x)dx

M r(f ) =

−∞

xrρf (x)dx

M (f ) =

∞−∞

xρf (x)dx

M cr (f ) =

∞−∞

(x − M (f ))rρf (x)dx

D2(f ) =

∞−∞

(x − M (f ))2ρf (x)dx

Teorema 1. Fie (Ω, F , P ) un spatiu de probabilitate, f 1,...,f n : Ω −→ IR variabile aleatoare,ϕ : IRn −→ IR functie astfel incat ∞

−∞...

∞−∞

|ϕ(x1,...,xn)|dF (f 1,...,f n)(x1,..,xn) < ∞

Atunci

M (ϕ (f 1,..,f n)) =

∞−∞

...

∞−∞

ϕ(x1,..,xn)dF (f 1,..,f n)(x1,..,xn)

a) Daca (f 1,..,f n) este de tip discret:

f 1 : xi

pi i∈

I

, f 2 : y j

q j j∈

J

,... f n : zk

rk k∈

K

,

unde I,J,..,K sunt cel mult numarabile, pij...k = P (f 1 = xi, f 2 = y j,...,f n = zk) atunci

M (ϕ (f 1,...,f n)) =i∈I

j∈J

...k∈K

pij...kϕ(xi, y j,...,zk)

b) Daca (f n,...,f n)−1 e de tip continuu cu densitatea ρ(f 1,...,f n) atunci avem

M (ϕ (f 1,...,f n)) =

∞−∞

...

∞−∞

ϕ(x1,...,xn)ρ(f 1,...,f n)(x1,...,xn)dx1...dxn

21

Page 22: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 22/68

Observatie 5.

M r(f ) = M (|f |r), M r(f ) = M (f r), M cr (f ) = M ((f − M (f ))r), D2(f ) = M ((f − M (f ))2)

Demonstrat ie. Fie ϕ : IR

−→IR, ϕ(x) =

|x

|r,

|f

|r = ϕ

f , de unde

M (|f |r) = M (ϕ f ) =

∞−∞

ϕ(x)dF f (x) =

∞−∞

|x|rdF f (x) = M (|f |r)

Observatie 6. Fie f : Ω −→ IR o variabila aleatoare, f = c aproape sigur (P (f = c) = 1),atunci M (f ) = c, pentru orice c ∈ IR.

Teorema 2. Fie (Ω, F , P ) un spatiu de probabilitate, f, g : Ω −→ IR variabile aleatoare demedie finita, si a, b ∈ IR. Atunci

a)M (af + bg) = aM (f ) + bM (g)

b)|M (f )| ≤ M (|f |)

c)f ≥ 0 ⇒ M (f ) ≥ 0

d)

f ≤ g ⇒ M (f ) ≤ M (g)

Demonstrat ie.

Teorema 3 (Teorema de multiplicare). Fie (Ω, F , P ) un spatiu de probabilitate, f 1,...,f n :Ω −→ IR variabile aleatoare independente de medii finite. Atunci

M (f 1 · ... · f n) = M (f 1) · ... · M (f n)

Demonstrat ie.

Exemplu 1. Fie f

∼N (m, σ2).

Exemplu 2. Fie f ∼ Bn,p.

22

Page 23: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 23/68

Capitolul 5

Cursul V

5.1 Inegalitatea lui Cebasev

Propozitie 1 (Inegalitatea lui Markov). Fie (Ω, F , P ) spatiu de probabilitate, f : Ω −→ IRo variabila aleatoare nenegativa ( P (f ≥ 0) = 1). Atunci ∀ε > 0

P (f ≥ ε) ≤ M (f )

ε(5.1)

Demonstrat ie. Fie g : Ω −→ IR,

g(ω) =

1, f (ω) ≥ ε0, f (ω) < ε

g :

0 1

P (f < ε) P (f ≥ ε)

Avem P (g = 1) = P (f ≥ ε), deci M (g) = P (f ≥ ε)

Observam ca g ≤ f

ε. Intr-adevar,

• daca f (ω) ≥ ε, atunci f (ω)ε

≥ 1 = g(ω)

• daca f (ω) < ε atunci g(ω) = 0 ≤ f (ω)ε

Avem astfel

M (g) ≤ M

f

ε

=

1

εM (f )

Corolar 1 (Inegalitatea lui Cebasev). Fie (Ω, F , P ) spatiu de probabilitate, f : Ω −→ IR ovariabila aleatoare, M 2(f ) < ∞. Atunci, pentru orice ε > 0 avem

P (|f − M (f )| ≥ ε) ≤ D2(f )

ε2, ∀ε > 0. (5.2)

Observatie 1. Inegalitatea lui Cebasev poate fi rescrisa astfel:

P (

|f

−M (f )

|< ε)

≥1

D2(f )

ε2,

∀ε > 0. (5.3)

23

Page 24: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 24/68

5.2 Covarianta si coeficientul de corelatie

Definitie 1. Fie (Ω, F , P ) spatiu de probabilitate, f, g : Ω −→ IR variabile aleatoare reale.Numarul real

cov(f, g)def = M [(f

−M (f ))(g

−M (g))] (5.4)

se numeste covarianta variabilelor aleatoare f si g.

Avemcov(f, g) = M (f · g − f · M (g) − g · M (f ) + M (f ) · M (g)) =

= M (f · g) − M (f · M (g)) − M (g · M (f )) + M (M (f ) · M (g)) =

= M (f · g) − M (f ) · M (g) − M (f ) · M (g) + M (f ) · M (g) = M (f · g) − M (f ) · M (g)

Decicov(f, g) = M (f · g) − M (f ) · M (g) (5.5)

Definitie 2. Daca cov(f, g) = 0 atunci f, g se numesc variabile aleatoare necorelate .

Observatie 2. Daca variabilele aleatoare f, g sunt independente atunci sunt necorelate.Reciproc nu este adevarat.

cov(f, g) = M (f ·g)−M (f ) ·M (g)indep.

= M (f ) ·M (g)−M (f ) ·M (g) = 0 ⇒ f, g − necorelate.

Demonstrat ie. Fie f, g : Ω −→ IR avand repartitiile

f :

−1 0 113

13

13

, g(ω) =

1, daca f (ω) = 00, daca f (omega) = 0

, g :

0 123

13

Avem M (f ) = 0, M (g) = 13

iar f · g = 0 deci M (f · g) = 0 de unde cov(f, g) = 0 adica f sig sunt necorelate. Pentru independenta avem:

P (f = 0, g = 0) = 0 = 1

3

2

3= P (f = 0)P (g = 0)

deci f si g nu sunt independente.

Teorema 1. Fie (Ω, F , P ) spatiu de probabilitate, α1,...,αn ∈ IR, f 1,..,f n : Ω −→ IRvariabile aleatoare necorelate doua cate doua, de dispersii finite. Atunci

D2 n

i=1

αif i

=n

i=1

α2i D2(f i). (5.6)

Demonstrat ie.

D2

n

i=1

αif i

= M

n

i=1

αif i − M

n

i=1

αif i

2 = M

n

i=1

αi(f i − M (f i))

2 =

= M n

i=1

α2i (f i − M (f i))2 + 2

1≤i<j≤n

αiα j(f i − M (f i))(f j − M (f j)) =

24

Page 25: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 25/68

=n

i=1

α2i M ((f i − M (f i))2) + 2

1≤i<j≤n

αiα jM [(f i − M (f i))(f j − M (f j))] =

=i=1

6nα2i D2(f i) + 2

1≤i<j≤n

αiα jcov(f i, f j) =n

i=1

αiD2(f i)

deoarece cov(f i, f j) = 0, din ipoteza(sunt necorelate).

Corolar 2. Fie f 1,...,f n independente. Atunci

D2

n

i=1

αif i

=

ni=1

α2i D2(f i)

Definitie 3. Fie f, g variabile aleatoare reale astfel incat 0 < D2(f ), D2(g) < ∞. Numarulreal

γ (f, g) = cov(f, g) D2(f )D2(g)

(5.7)

se numeste coeficientul de corelatie al variabilelor f si g.

Propozitie 2. Coeficientul de corelatie are urmatoarele proprietati:

1. γ (f, f ) = 1

2. γ (f, g) = γ (g, f )

3. |γ (f, g)| ≤ 1 cu egalitate ⇔ ∃ a, b ∈ IR astfel incat f = ag + b.

Demonstrat ie. 1. Avem

γ (f, f ) =cov(f, f )

D2(f )D2(f )=

M (f 2) − M 2(f )

D2(f )=

D2(f )

D2(f )= 1

2. Este evident din definitie.

3. Fie α, β ∈ IR si h = α(f − M (f )) + β (g − M (g)). Atunci

0 ≤ h2 = α2(f − M (f ))2 + 2αβ (f − M (f ))(g − M (g)) + β 2(g − M (g))2

de unde

M (α2(f − M (f ))2 + 2αβ (f − M (f ))(g − M (g)) + β 2(g − M (g))2) ≥ 0

adicaα2D2(f ) − 2αβcov(f, g) + β 2D2(g) ≥ 0, ∀α, β ∈ IR

impartind cu β 2 si notand t = αβ

se obtine

D2(f )t2 + 2cov(f, g)t + D2(g) ≥ 0, ∀t ∈ IR

25

Page 26: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 26/68

ceea ce inseamna ca pentru ecuatia in t de mai sus avem ∆ ≤ 0 adica

4(cov(f, g))2 − 4D2(f )D2(g) ≤ 0

adica, mai departe,

(cov(f, g))2

D2(f )D2(g)≤ 1 sau

cov(f, g) D2(f )D2(g)

≤ 1

si in final |γ (f, g)| ≤ 1.

Fie acum f = αg + β , α, β ∈ IR, α = 0.

cov(f, g) = cov(αg + β, g) = M (αg + β − M (αg + β ))(g − M (g)) =

si cum M (αg + β ) = αM (g) + β , avem mai departe

cov(f, g) = M (α(g − M (g))2) = αD2(g)

Mai departe,

D2(f ) = D2(αg + β ) = M ((αg + β − M (αg + β ))2) = M (α2(g − M (g))2) = α2D2(g)

deci

γ (f, g) =αD2(g)

α2D2(g)D2(g)=

αD2(g)

|α|D2(g)=

α

|α| = ±1

Definitie 4. Fie (Ω, F , P ) - spatiu de probabilitate, r = (r1,...,rk), ri > 0, i = 1, k,f 1,...,f k : Ω −→ IR. Cantitatea

M (r1,...,rk)(f 1,...,f k) def = M (|f 1|r1 · ... · |f k|rk)

se numeste momentul absolut de ordin r al variabilei aleatoare f = (f 1,...,f k).Daca M (r1,...,rk)(f 1,...,f k) < ∞,

M (r1,..,rk)(f 1,...,f k)def = M (f r11 · ... · f rkk )

se numeste momentul de ordin r al variabilei aleatoare f .Vectorul

M (f )def =

M (f 1)...

M (f k)

se numeste media variabilei aleatoare f = (f 1,...,f k).Matricea

Γ(f )def = (cov(f i, f j))i,j=1,k =

D2(f 1) cov(f 1, f 2) · · · cov(f 1, f k)cov(f 1, f 2) D2(f 2) · · · cov(f 2, f k)

......

. . ....

cov(f 1, f k) cov(f 2, f k) · · · D2(f k)

se numeste matricea de covarianta a variabilei aleatoare f = (f 1,...,f k).

26

Page 27: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 27/68

Capitolul 6

Cursul VI

6.1 Convergenta aproape sigura (a.s.)

Fie (Ω, F , P ) spatiu de probabilitate.

Definitie 1. Spunem ca proprietatea P relativa la experienta aleatoare in studiu este ade-varata P aproape sigur daca

∃A ∈ F , P (CA) = 0 si P are loc in orice ω ∈ A.

Fie f n, f : Ω −→ IR variabile aleatoare, n ∈ IN ∗.

Definitie 2. Spunem ca sirul (f n)n≥1 este convergent aproape sigur la f , daca

P (f n −−−−→n−→∞ f ) = 1 (6.1)

si se scrief n

P a.s.−−−−→n−→∞

f sau f nP a.s.−−−→

nf

Relatia (6.1) este echivalenta cu

P (ω ∈ Ω| f n(ω) −−−−→n−→∞

f (ω)) = 1

sau cuP (f n

−−−−→n−→∞

f ) = 0

Teorema 1. Pentru orice f n, f , gn, g : Ω −→ IR, α ∈ IR sunt adevarate urmatoarele

1. f nP a.s.−−−→

nf , gn

P a.s.−−−→n

g ⇒ f n + gnP a.s.−−−→

nf + g si f n · gn

P a.s.−−−→n

f · g

2. f nP a.s.−−−→

nf ⇒ αf n

P a.s.−−−→n

αf

3. f nP a.s.−−−→

nf, f n

P a.s.−−−→n

g ⇒ f = g, P a.s.

27

Page 28: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 28/68

Demonstrat ie. 1. Sa observam ca A, B ∈ F , P (A) = P (B) = 1 implica P (A ∩ B) = 1.Intr-adevar, avem

1 ≥ P (A ∪ B) = P (A) + P (B) − P (A ∩ B) = 1 + 1 − P (A ∩ B)

de unde obtinem 1 ≥ 2 − P (A ∩ B) adica P (A ∩ B) ≥ 1.

NotamA = (f n −−−−→

n−→∞f ), B = (gn −−−−→

n−→∞g)

Din ipoteza avem caP (A) = 1 = P (B)

Fie ω ∈ A ∩ B. Atunci

f n(ω) −−−−→n−→∞

f (ω)

gn(ω)

−−−−→n−→∞g(ω) ⇒ f n(ω) + gn(ω) −−−−→

n

−→∞

f (ω) + g(ω)

si, cum P (A ∩ B) = 1, obtinem ca f n + gnP a.s.−−−−→

n−→∞f + g. In aceeasi maniera se arata

ca f n · gnP a.s.−−−→

nf · g.

2. Identic cu 1.

3. Fie ω ∈ (f n −→n

f ) ∩ (f n −→n

g). Atunci f n(ω) −→n

f (ω) si f n(ω) −→n

g(ω), adica f (ω) =

g(ω). Atunci, urmand acelasi rationament ca la 1. obtinem ca f = g, P a.s.

6.2 Convergenta in probabilitate

Fie (Ω, F , P ) - spatiu de probabilitate, f n, f : Ω −→ IR variabile aleatoare

Definitie 3. Spunem ca (f n)n≥1 converge in probabilitate la f , si notam f P −→n

f daca

limn−→∞

P (|f n − f | ≥ ε) = 0, ∀ε > 0. (6.2)

Propozitie 1. Pentru orice f n, gn, f , g : Ω

−→IR variabile aleatoare, α

∈IR avem

1. f nP −→n

f si gnP −→n

g ⇒ f n + gnP −→n

f + g

2. f nP −→n

f ⇒ αf nP −→n

αf

3. f nP −→n

f si f nP −→n

g ⇒ f = g, P a.s.

28

Page 29: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 29/68

Demonstrat ie. 1. Avem

|f n + gn − (f + g)| = |(f n − f ) + (gn − g)| ≤ |f n − f | + |gn − g|

de unde scriem

(|f n − f | <ε

2) ∩ (|gn − g| <

ε

2) ⊆ (|f n + gn − (f + g)| < ε), ∀ε > 0

si apoi, aplicand complementara

(|f n + gn − (f + g)| ≥ ε) ⊆ (|f n − f | ≥ ε

2) ∪ (|gn − g| ≥ ε

2)

Calculand probabilitatea fiecarui eveniment din inegalitatea de mai sus, si folosindfaptul cunoscut ca P (A ∪ B) ≤ P (A) + P (B), obtinem

P (|f n + gn − (f + g)| ≥ ε) ≤ P (|f n − f | ≥ε

2 ) + P (|gn − g| ≥ε

2), ∀ε > 0

si trecem la limita pentru n −→ ∞:

0 ≤ limn

P (|f n + gn − (f + g)| ≥ ε) ≤ limn

P (|f n − f | ≥ ε

2) + lim

nP (|gn − g| ≥ ε

2) = 0

deci f n + gnP −−−−→

n−→∞f + g.

3. Avem |f − g| = |f − f n − (g − f n)| ≤ |f n − f | + |f n − g|, de unde

(|f n − f | <ε

2) ∩ (|f n − g| <ε

2 ) ⊆ (|f − g| < ε)

(|f − g| ≥ ε) ⊆ (|f n − f | ≥ ε

2) ∪ (|f n − g| ≥ ε

2)

si aplicand acelasi procedeu ca la punctul 1,

0 ≤ P (|f − g| ≥ ε) ≤ limn

P (|f n − f | ≥ ε

2) + lim

nP (|f n − g| ≥ ε

2) = 0

deci P (|f − g| ≥ ε) = 0, pentru orice ε > 0 deci P (|f − g| < ε) = 1 pentru orice ε > 0,de unde, trecand la limita dupa ε, P (|f − g| = 0) = 1, adica P (f = g) = 1, ceea ce

inseamna ca f = g, P a.s.

Teorema 2. Fie (Ω, F , P ) - spatiu de probabilitate, f n, f : Ω −→ IR, variabile aleatoare,

n ∈ IN ∗. Daca f nP a.s.−−−→

nf atunci f n

P −→n

f . Reciproc nu este adevarat.

Demonstrat ie. Fie (An)n≥1 ⊂ F .

P (limn

An) = P

∞n=1

∞k=n

Ak

= lim

nP

∞k=n

Ak

≥ lim

nsupk≥n

P (An)

29

Page 30: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 30/68

deoarece

P

∞k=n

Ak

≥ P (Ak), ∀k ≥ n.

Fie ε > 0 arbitrar, An = (

|f n

−f

| ≥ε). Atunci

∀ω ∈ limn

An, f n(ω) −→ f (ω) ⇒ limn

An ⊆ (f n −→ f )

de undeP (lim

nAn) ≤ P (f n −→ f ) = 0 ⇒ lim

nP (An) = 0 ⇒ f n

P −→n

f.

6.3 Convergenta in repartitie

Fie (Ω, F , P ) spatiu de probabilitate, f n, f : Ω −→ IR variabile aleatoare, n ∈ IN ∗.

Definitie 4. Spunem ca (f n)n≥1 converge in repartitie catre f , si scriem f nrep−−→

nf daca

F f n(x) −→n

F f (x), ∀x punct de continuitate pentru F f . (6.3)

Teorema 3. Daca f nP −→n

f atunci f nrep−−→

nf .

Demonstrat ie. Fie x ∈ IR punct de continuitate pentru F f , si δ > 0. Avem

(f < x − δ) = (f < x − δ) ∩ [(|f n − f | ≥ δ) ∪ (|f n − f | < δ)] == [(f < x − δ) ∩ (|f n − f | ≥ δ)] ∪ [(f < x − δ) ∩ (f − δ < f n < f + δ)] ⊆

⊆ (|f n − f | ≥ δ) ∪ (f < x − δ) ∩ (f n < f + δ) ⊆ (|f n − f | ≥ δ) ∪ (f n < x − δ + δ) =

deci(f < x − δ) ⊆ (|f n − f | ≥ δ) ∪ (f n < x)

de undeP (f < x − δ) ≤ P (|f n − f | ≥ δ) + P (f n < x)

P (f < x − δ) ≤ limnP (|f n − f | ≥ δ) + limnF f n(x)

adica avemF f (x − δ) ≤ limnF f n(x) (6.4)

Acum(f n < x) = (f n < x) ∩ [(|f n| ≥ δ) ∪ (|f n − f | < δ)] =

= [(f m < x) ∩ (|f n − f | ≥ δ)] ∪ [(f n < x) ∩ (|f n − f | < δ)] ⊆⊆ (f n − f | ≥ δ) ∪ (f < x + δ)

deci

F f n

(x) = P (f n

< x)≤

P (|f

n−f | ≥

δ)+P (f < x+δ) = P (|f

n−f | ≥

δ)+F f

(x),∀

n∈

IN , δ > 0

30

Page 31: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 31/68

Trecand la limita superioara dupa n avem

limn

F f n(x) ≤ limn

P (|f n − f | ≥ δ) + F f (x + δ)

si obtinemlim

nF f n(x) ≤ F f (x + δ) (6.5)

Din (6.4) si (6.5) obtinem

F f (x − δ) ≤ limnF f n(x) ≤ limnF f n(x) ≤ F f n(x) ≤ F f (x + δ)

si, din continuitatea functiei de repartitie in x, pentru δ −→ 0,

F f (x) ≤ limnF f n(x) ≤ limnF f n(x) ≤ F f (x)

de unde obtinem

limn

F f n(x) = F f (x), ∀x punct de continuitate ⇒ f nrep−−→

nf

6.4 Convergenta in medie

Fie (Ω, F , P ) spatiu de probabilitate, f n, f : Ω −→ IR variabile aleatoare, M (f n), M r(f n) siM r(f ) < ∞.

Definitie 5. Spunem ca (f n)n≥1 converge in medie de ordin r catre f , si scriem f nmr

−→n f daca

limn−→∞

M (|f n − f |r) = 0 (6.6)

Propozitie 2. Daca f nmr−−−−→

n−→∞f atunci f n

P −−−−→n−→∞

f . Reciproc nu este adevarat.

Demonstrat ie. Avem, cu inegalitatea Markov (5.1)

P (|g| ≥ ε) = P (|g|r ≥ εr) ≤ M r(g)

εr, ∀ε > 0

unde g = f n − f . Atunci

0 ≤ P (|f n − f | ≥ ε) ≤ M r(f n − f )

εr=

M (|f n − f |r)

εr−−−−→n−→∞

0

decilim

nP (|f n − f | ≥ ε) = 0, ∀ε > 0 ⇒ f n

P −−−−→n−→∞

f.

31

Page 32: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 32/68

6.5 Legea Numerelor Mari

Sa consideram o urna care contine a bile albe si b bile negre, si extragem n bile, notand cuf (n) numarul de bile albe extrase. Observam ca f (n) ∼ B)n, p, unde

p = aa + b

, q = ba + b

= 1 − p

M (f (n)) = np, D2(f (n)) = npq

Aplicand Inegalitatea Cebasev (5.2) pentru variabila aleatoaref (n)

nobtinem

P

f (n)

n− p

≥ ε

D2

f (n)n

ε2

=pq

nε2−−−−→n−→∞

0

adicaf (n)

n− p

P −→n

0 ⇒ f (n)

nP −→n

p

Notam acum cu f n,k - numarul de bile albe extrase la extragerea k, k = 1, n, care arerepartitia

f n,k :

0 1q p

si M (f n,k) = p, D2(f n,k) = pq.

In plus

f (n) =n

k=1

f n,k

si introducand in relatiile anterioare,

1

n

nk=1

f n,k − pP −→n

0

de unde

1

n

nk=1

f n,k − 1

n

nk=1

p =1

n

nk=1

(f n,k − p) =1

n

nk=1

[f n,k − M (f n,k)]P −→n

0

Definitie 6. Fie (f n)n≥1 sir de variabile aleatoare reale. Sirul (f n)n≥1 se numeste stabil insens slab daca

1

n

nk=1

[f k − M (f k)]P −−−−→

n−→∞0 (6.7)

si se numeste stabil in sens tare daca

1

n

nk=1

[f k − M (f k)]P −a.s.−−−−→n−→∞

0 (6.8)

32

Page 33: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 33/68

Teorema 4 (Markov). Fie (f n)n sir de variabile aleatoare astfel incat

limn

1

n2D2

n

k=1

f k

= 0. (6.9)

Atunci (f n)n este stabil in sens slab.

Demonstrat ie. Fie ε > 0. Aplicand Inegalitatea Cebasev pentru g = 1n

nk=1 f k, obtinem

P

1nn

k=1

(f k − M (f k))

≥ ε

≤ D2

1n

nk=1 f k

ε2

=1

n2D2 (n

k=1 f k)

ε2=

1

n2ε2D2

n

k=1

f k

care tinde la 0 cu (6.9), pentru orice ε > 0.

Corolar 3. Fie (f n)n≥1 variabile aleatoare necorelate, astfel incat

limn−→∞

1

n2

nk=1

D2(f k) = 0. (6.10)

Atunci (f n)n este stabil in sens slab.

Demonstrat ie. Variabilele fiind necorelate, avem

D2

n

k=1

f k

=

nk=1

D2(f k)

si, introducand in (6.9) obtinem imediat (6.10).

Corolar 4. Fie (f n)n≥1 variabile aleatoare reale necorelate, astfel incat

D2(f n) ≤ A < ∞, ∀ n ≥ 1.

Atunci (f n)n este stabil in sens slab.

Demonstrat ie. Avem

limn−→∞

1

n2

n

k=1

D2(f k)

≤1

n2

n

k=1

A = limn−→∞

A

n

= 0

deci, aplicand Corolarul anterior obtinem rezultatul cerut.

Teorema 5 (Hincin). Fie (f n)n≥1 variabile aleatoare reale, independente si identic repar-tizate cu functia de repartitie F si media m < ∞. Atunci sirul (f n)n este stabil in sensslab.

Demonstrat ie. Fie δ > 0, n ∈ IN , oarecare.

ukdef = f k, |f k| ≤ nδ

0, |f k| > nδ

, vkdef = 0, |f k| ≤ nδ

f k, |f k| > nδ

, f k = uk + vk,

∀k

≥1

33

Page 34: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 34/68

Avem

M (uk) =

−nδ

xdF (x) = mn −−−−→n−→∞

∞−∞

xdF (x) = M (f k) = m

D2(uk) = M 2(uk)

−M 2(uk) = M

2(uk)

−m2

n ≤M

2(uk) = nδ

−nδ

x2dF (x) =

=

−nδ

|x| · |x|dF (x) ≤ nδ

−nδ

|x|dF (x) ≤ nδ

∞−∞

|x|dF (x) ≤ nδb

M

1

n

nk=1

uk

=

1

n

nk=1

M (uk) =1

nnmn = mn

D2

1

n

nk=1

uk

=

1

n2

nk=1

D2(uk) ≤ nδb

n2=

δb

n

P 1n n

k=1

uk − mn

≥ ε

≤ D21n

nk=1 uk

ε2≤ δb

nε2

Observatie: Fie f, g - variabile aleatoare. Avem

|f | < a, |g| < b ⇒ |f + g| < |f | + |g| < a + b

deci|f + g| ≥ a + b ⇒ |f | ≥ asau|g| ≥ b

adica, in termeni de evenimente,

(|f + g| ≥ a + b) ⊆ (|f | ≥ a) ∪ (|g| ≥ b)

de undeP (|f + g| ≥ a + b) ≤ P (|f | ≥ a) + P (|g| ≥ b)

Aplicam aceasta observatie pentru f = 1n

nk=1 uk − mn, g = mn − m, a = b = ε:

P

1

n

nk=1

uk − m

≥ 2ε

≤ P

1

n

nk=1

uk − mn

≥ ε

+ P (|mn − m| ≥ ε)

dar P (|mn − m| ≥ ε) = 0, ∀n ≥ n0

datorita convergentei lui mn la m. Atunci

P

1nn

k=1

uk − m

≥ 2ε

≤ δb

nε2−−−−→n−→∞

0 ⇒ 1

n

nk=1

uk − mP −→n

0 (6.11)

Acum calculam

P (vk = 0) = (|x|≥nδ)

dF (x) =1

nδ |x|≥nδ

nδdF (x) ≤ 1

nδ (|x|≥nδ)

|x|dF (x) ≤ 1

nδδ2 =

δ

n

34

Page 35: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 35/68

P (vk = 0) ≤n

k=1

P (vk = 0) ≤n

k=1

δ

n= δ (6.12)

Acum aplicam din nou observatia anterioara pentru f = 1n

nk=1 uk − m, g = 1

nnk=1 vk:

P

1nn

k=1

f k − m

≥ 2ε

= P

1nn

k=1

uk − m +1

n

nk=1

vk

≥ 2ε

≤ P

1nn

k=1

uk − m

≥ ε

+ P

1

n

n

k=1

vk

≥ ε

≤ P

1

n

nk=1

uk − m

≥ ε

+ P

1

n

nk=1

vk = 0

(6.11),(6.12)

≤ δb

nε2+ δ, ∀ ε > 0

Am aratat astfel ca

1

nn

k=1 f kP

−→n m, adica sirul (f n)n este stabil in sens slab.

Teorema 6 (Kolmogorov). Fie (f n)n variabile aleatoare de dispersii finite, independenteastfel incat

∞n=1

1

n2D2(f n) < ∞ (6.13)

Atunci (f n)n este stabil in sens tare.

35

Page 36: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 36/68

Capitolul 7

Cursul VII

7.1 Functia caracteristica

Fie F functie de repartitie pe IRk.

Definitie 1. Aplicatia ϕF : IRk −→ C,

ϕF (t) =

IRk

ei<t,x>dF (x), ∀t ∈ IRk (7.1)

se numeste functia caracteristica a functiei de repartitie F .

Reamintim ca daca t = (t1,...,tk) ∈ IRk, x = (x1,...,xk) ∈ IRk, atunci

< t, x >=k

i=1

tixi, ||x|| = √< x, x > = k

i=1

x2k

De asemenea,eiα = cos α + i sin α

si ∞−∞

...

∞−∞

(u + iv)dF =∞−∞ udF + i

∞−∞

...

∞−∞

vdF

Definitie 2. Fie (Ω,

F , P ) spatiu de probabilitate, f = (f 1,...,f n) : Ω

−→IR variabila

aleatoare, F f functia sa de repartitie, numim functia caracteristica a v.a f functia car-acteristica a repartitiei F f , notata ϕf : IRk −→ C, data de relatia

ϕf (t) =

IRk

ei<t,x>dF f (x), ∀t ∈ IRk (7.2)

In baza Teoremei 1 din 4.2 avem

ϕf (t) = M

ei<t,f>

Observatie 1. Fie f : Ω −→ IR o variabila aleatoare reala.

36

Page 37: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 37/68

a) f - v.a. de tip continuu, cu densitatea ρf . Atunci

ϕf (t) =

IR

eitxρf (x)dx (7.3)

b) f - v.a. discreta, f (Ω) = xi ∈ IR| i ∈ I , I - cel mult numarabila, pi = P (f = xi).

ϕf (t) =i∈I

eitixi · pi, ∀t ∈ IR (7.4)

Exemplu 1. Fie variabila aleatoare binomiala f ∼ Bn,p. Atunci P (f = k) = C kn pkqn−k,∀k = 0,...,n. Pe baza relatiei de definitie (7.4) avem ϕf : IR −→ C,

ϕf (t) =n

k=0

eitkC kn pkqn−k =n

k=0

C kn peit

k

qn−k = peit + qn

Exemplu 2. Fie variabila aleatoare f ∼ N (0, 1). Avem ϕf : IR −→ C, si cu relatia dedefinitie (7.3) avem

ϕf (t) =1√2π

∞−∞

eitx 1√2π

e−x2

2 dx

Scriem acum, folosind dezvoltarea functiei ez in serie,

ϕf (t) =1√2π

∞−∞

∞n=0

(itx)n

n!e−

x2

2 dx =1√2π

∞n=0

(it)n

n!

∞−∞

xne−x2

2 dx =∞

n=0

(it)n

n!M n(f )

Acum, deoarece

M n(f ) = 0, ∀n par, si M n(f ) = (2n − 1)!!, ∀n impar,

ϕf (t) =∞

n=0

(it)2n

(2n)!1 · 3 · ... · (2n − 1) =

∞n=0

(it)2n

(2n)!

(2n)!

2n · n!=

∞n=0

−t2

2

n

· 1

n!= e−

t2

2

Deci daca f ∼ N (0, 1), ϕf (t) = e−t2

2 .

Exemplu 3. Fie f ∼ N (m, σ2). Atunci ϕf : IR −→ C, si

ϕf (t) =

∞−∞

eitxρf (x)dx =1

σ√

∞−∞

eitx · e−(x−m)2

2σ2 dx

si efectuand schimbarea de variabila x−mσ

= u, dx = σdu:

ϕf (t) =1√2π

∞−∞

eit(σu+m) ·e−u2

2 du = eitm · 1√2π

∞−∞

eiσtue−u2

2 duEx.2= eitme−

(σt)2

2 = eitm− t2σ2

2 .

Propozitie 1. Fie F o functie de repartitie pe IRk, ϕF functia sa caracteristica. Atunci

1. ϕF (0) = 1

37

Page 38: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 38/68

2. |ϕF (t)| ≤ 1, ∀ t ∈ IRk

3. ϕF (−t) = ϕF (t)

4. ϕF este uniform continua

5. Daca (Ω, F , P ) este spatiu de probabilitate, f, g : Ω −→ IRk variabile aleatoare inde-pendente, atunci

ϕf +g(t) = ϕf (t) · ϕg(t), ∀ t ∈ IRk. (7.5)

Demonstrat ie. 1.

ϕF (0) =

IRk

ei<0,x>dF (x) =

IRk

dF (x) = 1

2.

|ϕF (t)| = IRk

ei<t,x>dF (x) ≤ IRk

|ei<t,x>|dF (x) = 1,

deoarece |ei<t,x>| = 1.

3.ϕF (−t) = M

ei<−t,f>

= M (cos(< −t, f >) + i sin(< −t,f >)) =

= M (cos(< t, f >)) − iM (sin(< t, f >)) = M (cos(< t, f >)) + iM (sin(< t, f >)) =

= M (cos(< t, f >) + i sin(i < t, f >)) = M (ei<t,f>) = ϕF (t).

4. Fie t1, t2 ∈ IRk.

ϕF (t1) − ϕF (t2) =

IRkei<t1,x>dF (x) −

IRkei<t2,x>dF (x) =

=

IRk

ei<t2,x>

ei<t1−t2,x> − 1

dF (x)

Observatie: |eiα − 1| ≤ min(|α|, 2), ∀ α ∈ IR. Intr-adevar,eiα − 1 ≤ |eiα| + 1 = 1 + 1 = 2,

si

|eiα−1| = | cos α+i sin α−1| =−2sin2 α2 + 2 sin α2 cos α2 i

= 2sin α2

i cos α2 − sin α2 =

= 2sin

α

2

≤ 2 · |α|2

= |α|Revenind, avem

|ϕF (t1) − ϕF (t2)| ≤

IRk

ei<t2,x> · ei<t1−t2,x> − 1

dF (x) ≤

≤ IRk

min(

|< t1

−t2, x >

|, 2)dF (x)

38

Page 39: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 39/68

Fie acum ε > 0, ||t1 − t2|| ≤ ε. Atunci

|ϕF (t1)−ϕF (t2)| ≤

IRk

min(| < t1−t2, x > |, 2)dF (x) ≤

IRk

min(||t1−t2||·||x||, 2)dF (x)

IRk

min(ε||x||, 2)dF (x) −−−→ε−→0

0

5.

ϕf 1+f 2(t) = M

ei<t,f 1+f 2>

= M

ei<t,f 1>+i<t,f 2>

= M

ei<t,f 1> · ei<t,f 2> indep.

=

= M

ei<t,f 1> · M

ei<t,f 2>

= ϕf 1(t) · ϕf 2(t)

Propozitie 2. Fie (Ω,

F , P ) spatiu de probabilitate, f : Ω

−→IR variabila aleatoare,

M n(f ) < ∞. Atunci ϕf este derivabila de n ori, si

ϕ(n)f (t) = in

∞−∞

xneitxdF f (x), ∀t ∈ IR (7.6)

Demonstrat ie. Este suficient sa aratam pentru n = 1.

ϕf (t + h) − ϕf (t)

h=

1

h

∞−∞

ei(t+h)xdF f (x) − ∞−∞

eitxdF f (x)

=

∞−∞

eitx

eihx − 1

hdF f (x) =

= ∞−∞ e

itx

·eihx

−1

ihx ixdF f (x)

−∞

|x

|dF f (x)<

∞−−−−−−−−−−→h−→0 ∞−∞ e

itx

ixdF f (x)

Asadar avem

ϕf (t) = i

∞−∞

xeitxdF f (x).

Observatie 2. In particular, pentru t = 0, din (7.6) avem

ϕ(n)f (0) = in

−∞

xndF f (x) = inM n(f )

adica

M n(f ) =1

inϕ(n)

f (0) (7.7)

Daca f = (f 1,...,f k) : Ω −→ IRk variabila aleatoare, M (r1,...,rk)(f ) < ∞, se deduce ca

M (r1,...,rk)(f ) =1

ir1+...+rk· ∂ r1+...+rkϕf (t1,...,tk)

∂tr11 · · · ∂trk

k

t1=...=tk=0

(7.8)

39

Page 40: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 40/68

Exemplu 4. Fie f ∼ Bn,p. Sa calculam M (f ) si D2(f ). Se stie de la Exemplul 1 caϕf (t) = ( peit + q)n. Atunci

ϕf (t) = npi · eit( peit + q)n−1

ϕf (t) = npi2

·eit( peit + q)n−1 + np

·i

·eit(n

−1) p

·i

·eit( peit + q)n−2

ϕf (0) = npi, ϕ

f (0) = −np − n(n − 1) p2

M (f ) =1

f (0) =npi

i= np

M 2(f ) =1

i2ϕ

f (0) = np + n(n − 1) p2

D2(f ) = M 2(f ) − M 2(f ) = np + n(n − 1) p2 − n2 p2 = np(1 − p) = npq

Teorema 1 (Teorema de Inversiune). Fie F o functie de repartitie pe IR, ϕF functia sa caracteristica. Atunci, ∀x1, x2 ∈ IR puncte de continuitate pentru F cu x1 < x2, avem

F (x2) − F (x1) =1

∞−∞

e−itx1 − e−itx2

itϕF (t)dt (7.9)

(Transformata Fourier)

Corolar 5. Fie (Ω, F , P ) spatiu de probabilitate, f : Ω −→ IR variabila aleatoare de tipcontinuu, ϕf - absolut sumabila (

∞−∞ |ϕf (t)|dt < ∞). Atunci

ρf (x) =1

∞−∞

e−itxϕf (t)dt (7.10)

Demonstrat ie. Fie F f functia de repartitie a lui f , x ∈ IR oarecare, h > 0.

F f (x + h) − F f (x)

h

(7.9)=

1

∞−∞

e−itx − e−it(x+h)

ithϕf (t)dt =

=1

∞−∞

e−itx · 1 − e−ith

ithϕf (t)dt

−∞|ϕf (t)|dt<∞−−−−−−−−−−→h−→0

1

∞−∞

e−itxϕ(t)dt

deci

ρf (x) = F f (x) =1

2π ∞

−∞

e−itxϕf (t)dt

Corolar 6 (Teorema de Unicitate). Functia caracteristica determina in mod unic repartitia din care provine.

Demonstrat ie. In relatia (7.9) notam x2 = x - punct de continuitate pentru F , si facemx1 −→ −∞. Avem

F (x) = limx1−→−∞

1

∞−∞

e−itx1 − e−itx

itϕF (t)dt (7.11)

40

Page 41: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 41/68

Presupunem ca ∃ F , astfel incat ϕF = ϕF . Fie C - multimea punctelor de continuitate pentruF , atunci IR \ C. este cel mult numarabila. Asemanator avem

F (x) = limx1

−→−∞

1

2π ∞

−∞

e−itx1 − e−itx

itϕF (t)dt (7.12)

pentru orice x ∈ C - multimea punctelor de continuitate ale lui F , IR\C - cel mult numarabila.Din (7.11) si (7.12) obtinem F (x) = F (x), ∀ x ∈ C ∩ C. Dar IR \ (C ∩ C) este cel multnumarabila, de unde obtinem ca C ∩ C este densa. Folosind faptul ca F si F sunt crescatoaresi egale pe o multime densa, rezulta ca F si F coincid pe intreg domeniul.

41

Page 42: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 42/68

Capitolul 8

Cursul VIII

8.1 Convergenta in repartitie si legatura cu functia car-

acteristica.Fie F n, F : IRn −→ [0, 1], n ∈ IN ∗.

Definitie 1. Spunem ca (F n)n≥1 converge in sens slab la F , F nslab−−−−→

n−→∞F daca

F n(x) −−−−→n−→∞

F (x), ∀x ∈ IRm.

Observatie 1. Pentru f n, f : Ω −→ IRm variabile aleatoare, n ∈ IN ∗, f nrep−−−−→

n−→∞f daca

F f n

slab

−−−−→n−→∞F f .

Observatie 2. F nslab−−−−→

n−→∞F ⇔

IRm h(x)dF n(x) −−−−→n−→∞

IRm h(x)dF (x), ∀h : IRm −→ IR,

continua si marginita.

Teorema 1. 1. F n, F functii de repartitie pe IRm, n ∈ IN ∗, ϕn, ϕ functii caracteristice.Atunci

F nslab−−−−→

n−→∞F ⇒ ϕn(t) −−−−→

n−→∞ϕ(t), ∀t ∈ IRm

2. Daca (ϕn)n≥1 sunt functii caracteristice, iar (F n)n≥1 sunt functiile de repartitie core-

spunzatoare, cu ϕn(t)−−−−→n−→∞

ϕ(t),∀

t∈

IRm, ϕ - continua in t = 0, atunci F nslab

−−−−→n−→∞F , F - functia de repartitie corespunzatoare lui ϕ.

Demonstrat ie. 1. Fie t ∈ IRm, ht : IRm −→ IR, gt : IRm −→ IR, ht(x) = cos(tx),

gt(x) = sin(tx), ht, gt continue si marginite. Dar, prin ipoteza avem F nslab−−−−→

n−→∞F .

Conform cu Observatia 4: IRm

cos < t,x > dF n(x) −→

IRm

cos < t,x > dF (x)

IRm

sin < t,x > dF n(x)

−→ IRm

sin < t,x > dF (x)

42

Page 43: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 43/68

deci IRm

cos < t,x > dF n(x) + i

IRm

sin < t,x > dF n(x) −→

−→ IRm

cos < t, x > dF (x) + i IR

m

sin < t,x > dF (x)

adica IRm

(cos < t, x > +i sin < t, x >)dF n(x) −→

IRm

(cos < t, x > +i sin < t, x >)dF (x)

si, mai departe, IRm

ei<t,x>dF n(x) −→

IRm

ei<t,x>dF (x)

Rezultaϕn(t)

−−−−→n−→∞

ϕ(t)

8.2 Teorema Limita Centrala

Observatie 3. Densitatea de repartitie a repartitiei N (0, 1) este

ρ(x) =1√2π

e−x2

2 , x ∈ IR (8.1)

iar functia de repartitie a lui N (0, 1) este

Φ : IR −→ [0, 1], Φ(x) =1√2π

x

−∞e−

t2

2 dt (8.2)

Φ se numeste functia lui Laplace. Avem

Φ(−x) = 1 − Φ(x), ∀x ∈ IR (8.3)

Intr-adevar,

Φ(−x) =

1

√2π −x

−∞ e

− t2

2

dt = 1 −1

√2π ∞−x e

− t2

2

dt

t=−u

= 1 −1

√2π −∞

x e

−u2

2

(−1)du =

= 1 − 1√2π

x

−∞e−

t2

2 dt = 1 − Φ(x)

Observatie 4. Daca g este o variabila aleatoare cu repartitia N (0, 1), atunci ϕg(t) = e−t2

2 .In plus, daca a, b ∈ IR, a = 0, atunci f = ag + b sin N (b, a2). Avem, intr-adevar:

ϕf (t) = M

eitf

= M

eit(ag+b)

= M

ei(at)g · eitb

= eitbM

ei(at)g

= eitb · ϕg(at) = eitb−a2t2

2

Deoarece functia caracteristica determina in mod unic repartitia obtinem ca f ∼

N (b, a2).

43

Page 44: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 44/68

Fie (Ω, F , P ) spatiu de probabilitate, f n : Ω −→ IR variabile aleatoare, n ∈ IN ∗. Pre-supunem ca f 1,...,f n sunt independente, cu D2(f n) < ∞, ∀n ≥ 1.

Notam mk = M (f k), σ2k = D2(f k), F k - functia de repartitie a lui f k, k ∈ IN ∗,

f (n)def = f 1 + ... + f n, n

∈IN ∗ (8.4)

m(n)def = M (f (n)) = M

n

k=1

f k

=

nk=1

M (f k) =n

k=1

mk. (8.5)

σ2(n)

def = D2(f (n)) = D2

n

k=1

f k

=

nk=1

D2(f k) =n

k=1

σ2k (8.6)

S ndef =

1

σ(n)

nk=1

(f k − mk) =f (n) − m(n)

σ(n)

(8.7)

S n

se numeste abaterea redusa a lui (f n

)n≥1

.∀ε > 0,

αn(ε)def =

1

σ2(n)

nk=1

x∈IR| |x−mk|≥εσ(n)

(x − mk)2dF k(x) (8.8)

Teorema 2 (Teorema Limita Centrala). Cu notatiile anterioare avem:

S nrep−−−−→

n−→∞f ∼ N (0, 1), si lim

n−→∞max1≤k≤n

σ2k

σ2(n)

= 0 ⇔ limn−→∞

αn(ε) = 0, ∀ε > 0 (8.9)

Demonstrat ie. Lipseste.

Corolar 7. Fie (f n)n≥1 variabile aleatoare independente, identic repartizate, de dispersii finite. Atunci

S nref −−−−→

n−→∞f ∼ N (0, 1).

Demonstrat ie. Aratam ca αn(ε) −−−−→n−→∞

0, ∀ε > 0. Avem mk = M (f k) = m, σ2k = D2(f k) =

σ2, deci

σ2(n) =

nk=1

σ2k =

nk=1

σ2 = nσ2

In plus, f k = f , ∀k ∈ IN ∗. Atunci

αn(ε) =1

nσ2

nk=1

(|x−m|≥εσ

√n)

(x−m)2dF (x) =1

σ2

(|x−m|≥εσ

√n)

(x−m)2dF (x) −−−−→n−→∞

0, ∀ε > 0

de unde, cu T.L.C. obtinem ca S nrep−−−−→

n−→∞f ∼ N (0, 1).

Observatie 5. S nrep−−−−→

n−→∞f ∼ N (0, 1) implica

F n(x) = P (S n < x) −−−−→n−→∞

Φ(x), ∀x ∈ IR

unde F n

- functia de repartitie a lui S n

.

44

Page 45: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 45/68

Observatie 6. Pentru a, b ∈ IR, a < b avem

P (a ≤ S ≤ b) = F n(b) − F n(a) Φ(b) − Φ(a) (8.10)

Corolar 8 (Teorema Moivre - Laplace). Fie (f n)n

≥1 un sir de variabile aleatoare reale

independente, cu repartitia

f n :

0 1q p

, p ∈ (0, 1), p + q = 1

Atunci f 1 + ... + f n − np√

npq

rep−−−−→n−→∞

f ∼ N (0, 1) (8.11)

Demonstrat ie. Avem mk = M (f k) = p de unde obtinem

m(n) =

nk=1

mk = np

σ2k = M 2(f k) − M 2(f k) = p − p2 = p(1 − p) = pq

σ2(n) =

nk=1

σ2k =

nk=1

pq = npq

S n =f 1 + ... + f n − np√

npq

Conform corolarului precedent S nrep

−−−−→n−→∞ f ∼ N (0, 1).

Observatie 7. Daca f este o variabila aleatoare cu repartitia Bn,p, atunci

f − np√npq

rep−−−−→n−→∞

g ∼ N (0, 1) (8.12)

Ne plasam in Th. Moivre Laplace.

ϕf 1+...+f n(t) = M (eit(f 1+...+f n)) = M

n

j=1

eitf j

=

n

j=1

M (eitf j) =

=n

j=1

ϕf j (t) =n

j=1

( peit + q) = ( peit + q)n

deci f 1 + ... + f n ∼ Bn,p.

Observatie 8. Daca f ∼ Bn,p, atunci putem considera ca f ∼ N (np, npq), pentru n suficientde mare:

f − np√npq

= g ∼ N (0, 1) ⇒ f =√

npqg + np ∼ N (np, npq).

45

Page 46: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 46/68

Corolar 9. Fie (f n)n≥1 un sir de variabile aleatoare reale independente, η > 0, astfel incat

M (|f k − mk|2+η) < ∞, k ∈ IN ∗. (8.13)

Daca

β n(η) = 1σ2+η

(n)

nk=1

M (|f k − mk|2+η) −−−−→n−→∞

0 (8.14)

atunci S n

rep−−−−→n−→∞

f ∼ N (0, 1).

Demonstrat ie.

αn(ε) =1

σ2(n)

nk=1

(|x−mk|>εσ(n))

(x − mk)2dF k(x) =

=

1

εησ2+η(n)

nk=1

(|x−mk|≥εσ(n))

(x − mk)2

εη

ση

(n)dF k(x) ≤

≤ 1

εησ2+η

(n)

nk=1

(|x−mk|≥εσ(n))

(x − mk)2|x − mk|ηdF k(s) =

=1

εησ2+η

(n)

nk=1

(|x−mk|≥εσ(n))

|x − mk|2+ηdF k(x) ≤ 1

εη

1

σ2+η

(n)

nk=1

∞−∞

|x − mk|2+ηdF k(x) =

=1

εη

1

σ(n)

n

k=1

M (|f k − mk|2+η) =1

εηβ n(η) −−−−→

n−→∞0

Acum, aplicand T.L.C. obtinem concluzia.

Corolar 10 (Criteriul Leapunov). Fie (f n)n≥1 un sir de variabile aleatoare reale indepen-dente astfel incat ρ3k = M (|f k − mk|3) < ∞, k ∈ IN ∗. Daca

limn−→∞

ρ(n)

σ(n)

= 0, ρ3(n) =n

k=1

ρ3k, (8.15)

atunci S n

rep−−−−→n

−→∞

f ∼ N (0, 1).

Demonstrat ie. Se ia η = 1 in Corolarul anterior.

46

Page 47: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 47/68

Capitolul 9

Cursul IX

9.1 Elemente de statistica descriptiva

Statistica matematica se ocupa cu descrierea si analiza numerica a fenomenelor aleatoare,evidentiind particularitati ale acestora privind volumul, structura, evolutia, precum si legileprobabiliste care le guverneaza.

Studiile statistice parcurg urmatoarele 4 etape:

1. definirea obiectului aleatoriu studiat (precizarea unitatilor statistice si intocmirea ches-tionarului, formularea intrebarilor)

2. observarea fenomenului studiat conform celor planificate la etapa precedenta (in aceastaetapa - culegerea datelor)

3. descrierea statistica - cuprinde gruparea datelor statistice (a valorilor observate), cal-culul unor indicatori numerici pe baza datelor observate pentru a obtine informatiiprivind fenomenul aletor studiat si a putea formula ipoteze privind legile de probabil-itate care guverneaza fenomenele aleatoare studiate

4. modelarea matematica - pe baza datelor observate astfel in cat in studierea modeluluimatematic realizat sa folosim ca instrument Teoria probabilitatilor.

Primele doua etape au un caracter preliminar, etapa a treia este denumita si statistica de-scriptiva, iar etapa a patra se numeste statistica matematica, sau inferenta statistica (ratio-nament statistic). In cadrul acestei etape se estimeaza parametrii care apar sau se formuleaza

ipoteze privind legile de probabilitate care guverneaza fenomenele aleatoare studiate si apoiaceste ipoteze se verifica prin diverse metode de statistica matematica.

9.2 Elemente de baza de statistica

Definitie 1. O colectivitate (de lucruri, fiinte, evenimente, etc) supusa unui studiu statisticse numeste populatie statistica . Elementele sale se numesc indivizi sau unitati statistice. Car-dinalul unei populatii statistice se numeste volum . O proprietate care este comuna tuturorindivizilor se numeste caracteristica . O caracteristica, daca se poate masura, se numeste

47

Page 48: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 48/68

caracteristica cantitativa , iar daca este data printr-o insusire se numeste caracteristica cali-tativa .

O populatie P se modeleaza prin spatiul de probabilitate (Ω, F , P ), unde Ω = P , iaro caracteristica a populatiei P este asimilata cu o variabila aleatoare f : Ω −→ X , unde(X,

X ) este camp de evenimente.

Exemplu 1. Vrem sa studiem multimea elevilor unui liceu din punct de vedere al inaltimii.Multimea elevilor acelui liceu este o populatie statistica, fiecare elev este un individ, sauo unitate statistica, caracteristica in studiu f este inaltimea, P este multimea elevilor, sif : P −→ IR, f fiind o caracteristica de tip cantitativ.

Exemplu 2. Ne propunem sa studiem multimea locuitorilor orasului Craiova din punct devedere al culorii ochilor. P este multimea locuitorilor Craiovei. Fiecare locuitor este unindivid, sau o unitate statistica.

X =

negru, albastru, verde, caprui

, f :P −→

X.

Pentru ω ∈ P avem f (ω) ∈ X , si f e caracteristica de tip calitativ.

Definitie 2. Daca o caracteristica f primeste o multime cel mult numarabila de valorispunem ca ea este discreta . Daca o caracteristica f ia valori intr-un interval (a, b), atunci f se numeste caracteristica de tip continuu .

Din punct de vedere al observarii fenomenului aleator studiat avem urmatoarele tipuride observare (culegere a datelor):

1. Observarea totala - sunt chestionati toti indivizii populatiei

P . Spunem ca am

efectuat recensamantul acelei populatii.

2. Observarea partiala - se studiaza (chestioneaza) o submultime stricta a populatiei(se efectueaza un sondaj, se face o selectie obtinand un esantion (ω1,...,ωn), de volumn). Dupa modul de prelevare a indivizilor esantionului ω(n) = (ω1,...,ωn) sondajelesunt:

• repetate sau bernoulliene atunci cand individul prelevat la un moment dat estereintrodus in populatie inaintea prelevarii urmatorului individ

• ne-repetate sau ne-bernoulliene atunci cand individul chestionat nu revine in

populatie3. Observarea curenta - indivizii sunt chestionati pe masura ce intra in populatie

4. Observarea periodica - indivizii unei populatii sunt chestionati la intervale de timpbine stabilite dinainte.

48

Page 49: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 49/68

9.3 Tabele de valori observate

9.3.1 Date de selectie, valori de selectie, sondaje

Fie

P o populatie, (Ω,

F , P ) spatiul de probabilitate asociat, si ˜

P ⊂ P , ˜

P =

ω1,...,ωN

.

Fie f : Ω −→ X , (X, X ) camp de evenimente, f o caracteristica a lui P . Fie

x1 = f (ω1)x2 = f (ω2)...xN = f (ωN )

valorile observate (valorile de selectie, de sondaj, datele statistice ) bazate pe esan-tionul ω(N ) = (ω1,...,ωN ) corespunzator caracteristicii f . Un tabel

x1, x2, ..........., xN (*)

in care sunt trecute valorile observate in ordinea aparitiei lor se numeste tabel simplu saunesistematizat.

Atunci cand volumul esantionului este mare, pentru a ne putea forma o imagine cat maiapropiata de realitate despre populatia statistica data, din punct de vedere al caracteristiciif , trecem la sistematizarea valorilor observate.

Fie x1,...,xn valorile distincte din tabelul (*), si notam ki numarul de indivizi din esan-tionul ω(N ) carora le corespunde valoarea xi, i = 1, n. Intocmim urmatorul tabel (tabelsistematizat):

xi kikiN

x1 k1k1N

x2 k2k2N

......

...xi ki

kiN

......

...xn kn

knN

unde ki este frecventa absoluta a valorii xi, iar kiN

este frecventa relativa a valorii xi.

Observatie 1. k1 + k2 + ... + kn = N , k1N

+ ... + knN

= 1.

Daca f este de tip continuu si ia valori in intervalul (a, b), consideram

a = a0 < a1 < .... < ai−1 < ai < ai+1 < ... < am−1 < am = b

Intervalele (ai−1, ai] le numim clase de valori. Atunci, putem sa sistematizam (*) pe bazaacestor clase intr-un tabel de felul urmator:

49

Page 50: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 50/68

(ai−1, ai] ki

(a0, a1] k1(a1, a2] k2

......

(ai−1, ai] ki......

(an−1, an] kn

unde ki reprezinta numarul de valori care se afla in clasa (ai−1, ai], k1 + ... + km = N (**).Acest tabel se numeste tabel sistematizat pentru seria de date (*), prin clase de valori.Diferenta ai − ai−1 = di se numeste amplitudinea clasei (ai−1, ai].

In practica, de multe ori, in loc de (**) se considera tabelul

ti ki

t1 k1t2 k2...

...ti ki

......

tn kn

unde ti = ai−1+ai2

.Pentru a determina numarul claselor de valori dispunem de doua metode:

1. m = 1+ 103

lgN - formula lui Sturges, pentru determinarea numarului de clase de valori.

In acest caz toate clasele din (**) au aceeasi amplitudine, adica a1−a0 = a2−a1 = ... =am −am−1 = d = b−a

m. Daca (a, b) este infinit, se ia d = xmax−xmin

m, ai = a+id, i = 0, m.

2. Luam d = 8100

(xmax − xmin), xmax = maxi=1,n xi, xmin = mini=1,n xi, aI = a + id, i =0, m.

Exemplu 3. Sa consideram un grup de 30 studenti. Vrem sa studiem acest grup din punctde vedere al mediei obtinute la sfarsitul unui an de studiu.

x1 = f (ω1) = 6,

x2 = f (ω1) = 5,...

x30 = f (ω1) = 3,

Datele de selectie sunt:

6,5,2,6,9,10,8,3,6,7,4,7,6,7,8,7,6,7,8,6,8,6,4,4,6,5,9,5,5,3

Tabelul sistematizat obtinut este:

50

Page 51: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 51/68

xi ki

2 13 24 35 46 87 58 49 2

10 1

9.4 Reprezentarea grafica a datelor 1-dimensionale

9.4.1 Reprezentarea prin batoane/bastonase

Pentru a realiza aceasta reprezentare trebuie sa realizam tabelul sistematizat dupa valoriledistincte si apoi reprezentam intr-un sistem cartezian, pe axa absciselor valorile de selectiedistincte, si apoi in dreptul fiecareia se construieste pe verticala un segment cu lungimeaegala cu frecventa absoluta(relativa) corespunzatoare.

Observatie 2. Atunci cand frecventele absolute sunt mari, lungimile segmentelor construitese aleg proportionale cu frecventele absolute sau relative.

Figura 1 (reprezentarea datelor - schita ki versus xi)Pentru exemplul precedent avem urmatoarea reprezentare (f ∼ N (6, ·))Figura 2 (datele din exemplul precedent)

9.4.2 Reprezentarea prin histograma

Atunci cand datele sunt grupate in clase de valori de amplitudini egale putem reprezentaseria datelor statistice prin histograme. Pe axa Ox se reprezinta clasele si pe verticala, pentrufiecare, se construieste un dreptunghi cu baza pe clasa la care ne referim si inaltimea egalacu frecventa absoluta a clasei.

Daca unim mijloacele bazelor superioare ale acestor dreptunghiuri prin segmente dedreapta obtinem poligonul frecventelor seriei de date (*).

9.5 Sistematizarea datelor bidimensionale

Se considera o populatie statistica P , (Ω, F , P ) spatiul de probabilitate asociat si f , g douacaracteristici. Dorim sa studiem populatia statistica din punct de vedere al caracteristiciibidimensionale (f, g) (inaltime, greutate, de exemplu, in cazul populatiei unui oras).

Consideram P = ω1,...,ωN un esantion.

(xi, yi) = (f, g)(ωi) = (f (ωi), g(ωi)), i = 1, N (∗ ∗ ∗)

Consideram x1,...,xm ca fiind valorile de selectie, distincte, relative la caracteristica f ,y1,...,y

nvalorile de selectie, distincte, relative la caracteristica g.

51

Page 52: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 52/68

Notam cu kij frecventele absolute de aparitie ale perechilor de valori (xi, y j), i = 1,m, j =1, n.

Valorile (***) se sistematizeaza dupa valorile distincte intr-un tabel, numit si tabel decontingenta de forma:

f \g y1 · · · yi · · · yn

x1...

...xi · · · · · · kij · · · · · ·...

...xm km1 · · · kmj · · · kmn

undem

i=1

n

j=1

kij = N.

Pe baza valorilor din acest tabel se mai definesc urmatoarele frecvente marginale:

ki· =n

j=1

kij, i = 1, m

k· j =m

i=1

kij, j = 1, n

care satisfac relatia urmatoare:

mi=1

ki· =n

j=1

k· j = N

52

Page 53: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 53/68

Capitolul 10

Cursul X

10.1 Caracteristici numerice ale distributiilor statistice

Fie P o populatie statistica, (Ω, F , P ) spatiul de probabilitate asociat, f : Ω −→ IR ocaracteristica, ω(N ) = (ω1,...,ωN ) ∈ ΩN un esantion de volum N .

Notam prin xi = f (ωi), i = 1, N datele statistice primare (valorile observate) si x1,...,xn -datele statistice distincte, cu frecventele absolute corespunzatoare k1,...,kn (k1+...+kn = N ).

Astfel, distributia statistica a l ui f este

f :

x1 xn

k1 kn

sau

f : x1 xn

p1 pn

unde

pi =ki

N , i = 1, n, ( p1 + ...pn = 1)

Definitie 1. Numim media distributiei statistice f sau media valorilor statistice primare xivaloarea:

x =1

N

N i=1

xi =1

N

ni=1

kixi =n

i=1

pixi (10.1)

Definitie 2. Numim moment de ordin r al distributiei statistice f media aritmetica aputerilor r ale valorilor observate

ν r =1

N

N i=1

xN i =

1

N

ni=1

kixri =

ni=1

kpixri . (10.2)

Definitie 3. Numim moment centrat de ordin r al distributiei statistice f cantitatea

µr =1

N

N i=1

(xi − x)r =1

N

ni=1

ki(xi − x)r =n

i=1

ki pi(xi − x)r. (10.3)

53

Page 54: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 54/68

Momentul centrat de ordin doi se numeste dispersia distributiei statistice:

µ2 = σ2f =

1

N

ni=1

ki(xi − x)2 (10.4)

Observatie 1. Avem urmatoarele:

σ2f =

1

N

ni=1

(x2i − 2xxi + x2) = ν 2 − ν 21 (10.5)

Observatie 2. Pentru n mare, calculul valorilor x, σ2f poate fi destul de greu, de aceea vom

face urmatoarele notatii:

ti = xi − a, a ∈ IR, fixat , i = 1, N

de undeN

i=1

ti =N

i=1

xi−

N

i=1

a =⇒

t = x−

a

sau x = t + a, ceea ce ne duce la urmatorul tabel pentru calcularea mediei:

xi ki ti = xi − ax1 k1 t1 = x1 − a...

......

xi ki ti = xi − a...

......

xn kn tn = xn − a

10.2 Corelatie si regresie

Corelatia studiaza legatura care exista intre o caracteristica dependenta si una sau maimulte caracteristici independente. Regresia furnizeaza o metoda pentru a determina aceastarelatie.

Fie P o populatie, f : P −→ IR, g : P −→ IR doua caracteristici, ω(N ) = (ω1,...,ωN ) unesantion, xi, yi, i = 1, n valori observate.

(f, g)(ωi) = (f (ωi), g(ωi)) = (xi, yi), i = 1, N

Fie (xi, yi), i = 1, m , j = 1, n datele statistice distincte, kij frecventa absoluta a perechii

(xi, y j ).m

i=1

n j=1

kij = N, ki· =n

j=1

kij, k· j =m

i=1

kij

f \g y1 · · · yi · · · yn

x1 k11 · · · k1 j · · · k1n

......

......

xi ki1 · · · kij · · · kin

......

......

xm km1 · · · kmj · · · kmn

54

Page 55: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 55/68

Definitie 4. Fie r1, r2 ∈ IN . Scalarul

ν r1r2 =1

N

N i=1

(xi)r1(yi)r2 (10.6)

se numeste momentul de ordin r1r2 al distributiei statistice bidimensionale (f, g). In plus,avem si

ν r1r2 =1

N

mi=1

n j=1

xr1i yr2

j (10.7)

Observatie 3. Avem

ν r10 =1

N

mi=1

n j=1

kijxr1i =

1

N

mi=1

ki· xr1i = ν r1f

ν 0r2 = 1N

mi=1

n j=1

kijyr2 j = 1

N

n j=1

k· j yr2 j = ν r2g

Definitie 5. Scalarul

µr1r2=

1

N

N i=1

(xi − x)r1(yi − y)r2 (10.8)

se numeste momentul centrat de ordin r1r2 al distributiei bidimensionale (f, g). In plus

µr1r2=

1

N

m

i=1

n

j=1

(xi

−x)r1(y j

−y)r2kij (10.9)

Observatie 4. Avemµ11 = ν 11 − ν 10ν 01

Definitie 6. Numim coeficient de corelatie al caracteristicii bidimensionale (f, g) scalarul

r =µ11

σf σg

=µ11 σ2

f σ2g

(10.10)

Observatie 5. Deoarece

r =

mi=1

n j=1 kij(xi − x)(y j − y) m

i=1 ki·(xi − x)2n

j=1 k· j (y j − y)

obtinem ca |r| ≤ 1 si |r| = 1 daca si numai daca intre f si g exista o relatie de dependenta liniara . Daca |r| = 0 atunci f si g sunt necorelate.

Definitie 7. Numim dispersia lui g conditionata de f = xi, i = 1, m scalarul

σ2g|xi =

1

ki

·

n

j=1

kij(y j − y)2 (10.11)

55

Page 56: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 56/68

Analog, dispersia lui f conditionata de g = y j, j = 1, n este

σ2f |yj =

1

k· j

mi=1

kij(xi − x)2 (10.12)

Numim media lui g conditionata de f = xi, i = 1, n scalarul

yi =1

ki·

n j=1

kijy j (10.13)

iar media lui f conditionata de g = y j, j = 1, n este

x j =1

k· j

mi=1

kijxi (10.14)

Numim dispersia lui g conditionata de f scalarul

σ2g|f =

1

N

mi=1

ki·σ2g|xi (10.15)

iar dispersia lui f conditionata de g este

σ2f |g =

1

N

n j=1

k· jσ2f |yj (10.16)

Definitie 8. Curba y = y(x) pe care se gasesc punctele (xi, yi), i = 1, m se numestecurba de regresie a lui g asupra lui f . Analog, curba x = x(y) pe care se gasesc punctele(x j, y j), j = 1, n se numeste curba de regresie a lui f asupra lui g.

Consideram

y = y(x) = h(x, α1,...,αs), α1,...,αs ∈ IR parametri.

Vom determina parametrii αi astfel incat functia H definita prin

H (α1,...,αs) =

N

i=1 (y

i − h(x

i, α1,...,αs))

2

(10.17)

sa fie minima. Observam ca

H (α1,...,αs) =m

i=1

n j=1

kij(y j − h(xi, α1,...,αs))2

Parametrii (α1,...,αs) se obtin ca solutie a sistemului

∂H

∂α1= 0, ...,

∂H

∂αs

= 0. (10.18)

56

Page 57: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 57/68

10.2.1 Drepte de regresie

Sa consideram acum ca ecuatia curbei de regresie a lui g asupra lui f este de forma

y = h(x; a, b) = ax + b,

caz in care curba de regresie este o dreapta sau o portiune de dreapta. Pentru a determinaa si b procedam ca mai sus, adica rezolvam sistemul:

∂H ∂a

= 0∂H ∂b

= 0

unde

H (a, b) =m

i=1

n j=1

kij(y j − h(xi; a, b))2 =m

i=1

n j=1

kij(y j − axi − b)2

Inlocuind, obtinem sistemul −2m

i=1

n j=1 kijxi(y j − axi − b) = 0

−2m

i=1

n j=1 kij(y j − axi − b) = 0

mi=1

n j=1 kijxiy j − x

mi=1

n j=1 kijx2

i − bm

i=1

n j=1 kijxi = 0m

i=1

n j=1 kijy j − a

mi=1

n j=1 kijxi − b

mi=1

n j=1 kij = 0

Inmultind ambele ecuatii cu 1N

si tinand seama de definitiile momentelor de sondaj obtinem:

ν 11 − ν 20a − ν 10b = 0

ν 01 − ν 10a − b = 0

=

⇒ ν 20a + ν 10b = ν 11

ν 10a + b = ν 01

ceea ce conduce la

a = rσg

σf

, b = ν 01 − ν 10r = y − rσg

σf

x (10.19)

de unde se obtine ca dreapta de regresie a lui g asupra lui f are expresia

d1 : y − y = rσg

σf

(x − x) (10.20)

Analog dreapta de regresie a lui f asupra lui g are expresia

d2 : x − x = r σf

σg

(y − y) (10.21)

Observatie 6. Daca r = 0 atunci dreptele de regresie sunt y = y respectiv x = x. Dacar = 1 sau r = −1 atunci d1 = d2.

Observatie 7. Dreptele d1 si d2 trec prin G(x, y), centrul de greutate al norului de puncte(xi, y j) |i = 1,m, j = 1, n.

57

Page 58: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 58/68

Capitolul 11

Cursul XI

11.1 Caracteristici de sondaj

Fie P o populatie, (Ω, F , P ) spatiul de probabilitate asociat, f : Ω −→ IR o caracteristica.Efectuam un sondaj(bernoullian), ω(n) = (ω1,...,ωn), xi = f (ωi) valori de selectie. Acestevalori pot fi privite ca valorile a n variabile aleatoare independente, identic repartizate cu f unde

f i : Ωn −→ IR, i = 1, n f i(ω(n)) = f (ωi) = xi, i = 1, n

Definitie 1. Fie r ∈ IN ∗. Variabila aleatoare

M n,r(f ) =1

n

mi=1

f ri (11.1)

se numeste moment de sondaj de volum n si ordin r corespunzator variabilei aleatoare f .Numim medie de sondaj de ordin n variabila aleatoare

f =1

n

ni=1

f i (11.2)

Numim moment centrat de sondaj de volum n si ordin r corespunzator lui f variabilaaleatoare:

M cn,r(f ) =1

n

n

i=1

(f i − f )r (11.3)

Momentul centrat de sondaj de ordin 2 se numeste dispersie de sondaj de volum n corespun-zatoare lui f si se noteaza cu S 2n:

S 2n =1

n

ni=1

(f i − f )2 (11.4)

Observatie 1. Calcule elementare conduc la egalitatea:

S 2n =1

n

n

i=1

f 2i − f 2

= M n,2(f ) − f 2

(11.5)

58

Page 59: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 59/68

Propozitie 1. Daca M (f ) = m, D2(f ) = σ2, atunci

M (f ) = m, D2(f ) =σ2

n, M (S 2n) =

n − 1

nσ2, D2(S 2n) =

(n − 1)2

n3M (f 4)−(n − 1)(n − 3)

n3σ4

Demonstrat ie. Avem

M (f ) = M

1

n

ni=1

f i

=

1

n

ni=1

M (f i) = m

D2(f ) = M ((f − m)2) = M

1

n

ni=1

(f i − m)2

=

=1

n2M

n

i=1

(f i − m)2 + 2

1

≤i<j

≤n

(f i − m)(f j − m)

=

=1

n2

ni=1

M ((f i − m)2) +2

n2

1≤i<j≤n

M (f i − m)M (f j − m) =1

n2nσ2 =

n

σ2

deoarece M (f i − m) = M (f j − m) = 0 iar M ((f i − m)2) = σ2.

Observatie 2. Fie ω(n) = (ω1,....,ωn) ∈ Ωn si xi = f i(ω(n)) = f (ωi), i = 1, n Atunci,

M n,r(f )(ω(n)) =1

n

ni=1

f ri (ω(n)) =1

n

ni=1

xri

facem notatiile

mr =1

n

ni=1

xri , m1 =

1

n

ni=1

xi = x,

si

S 2n(ω(n)) =1

n

ni=1

(f i(ω(n)) − f (ω(n)))2 =1

n

ni=1

(xi − x)2 = σ2f .

11.2 Elemente de teoria estimatiei punctuale

Fie P o populatie, modelata prin spatiul de probabilitate (Ω, F , P ), f : Ω −→ IR o variabilaaleatoare a carei repartitie o cunoastem, θ ∈ Θ ⊆ IRk. Fie F (·, θ) functia de repartitieasociata, si functia de densitate ρ(·, θ) daca f e de tip continuu, sau functia ρ(·, θ) = P (f =·) daca f e de tip discret. Θ se numeste spatiul parametrilor, iar θ ∈ Θ se numesteparametru.

Exemplu 1. Fie f ∼ N (m, σ2) o variabila aleatoare normala (de tip ontinuu). Atunciθ = (m, σ2), Θ = IR × (0, ∞). Densitatea este:

ρ(x; m, σ2) =1

σ√

2πe−

(x−m)2

2σ2

59

Page 60: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 60/68

Exemplu 2. Fie f ∼ P λ, Θ = (0, ∞), o variabila aleatoare de tip discret(Poisson).

ρ(x; λ) = P (f = x) =e−λλx

x!, x ∈ IN

Definitie 2. Fie T : IRn

−→IRk o functie masurabila. Atunci

T n = T (f 1,...,f n),

unde f 1,...,f n variabile aleatoare de sondaj de colum n corespunzatoare lui f , se numesteestimator pentru parametrul θ ∈ Θ. Daca ω(n) = (ω1,..,.ωn), xi = f i(ω(n)) = f (ωi), i = 1, n,

T n(ω(n)) = T (f 1(ω(n)),...,f n(ω(n))) = T (x1,...,xn)

se numeste estimatie a parametrului θ pe baza esantionului ω(n).

Definitie 3. Spunem ca estimatorul T n al parametrului θ este nedeplasat daca

M (T n) = θ,

∀θ

∈Θ. (11.6)

Spunem ca T n este asimptotic nedeplasat pentru θ daca

limn−→∞

M (T n) = θ, ∀θ ∈ Θ. (11.7)

Definitie 4. Spunem ca estimatorul T n este absolut corect pentru θ daca T n este nedeplasatsi

limn−→∞

Γ(T n) = 0k (11.8)

Daca estimatorul T n este asimptotic nedeplasat si in plus are loc relatia (11.8), atunci T n senumeste estimator corect pentru parametrul θ.

Observatie 3. Daca k = 1, estimatorul T n este absolut corect dacaM (T n) = θ, ∀θ ∈ Θ si lim

n−→∞D2(T n) = 0

si este corect daca

limn−→∞

M (T n) = θ, ∀θ ∈ Θ si limn−→∞

D2(T n) = 0

Observatie 4. Daca f este o caracteristica, M (f ) = m, D2(f ) = σ2, M (f ) = m, ∀m ∈ IR,atunci f este estimator nedeplasat pentru media teoretica m.

Dar, in plus, avem si D2(f ) = σ2

n−→ 0 pentru n −→ ∞, deci f este chiar un estimator

absolut corect pentru media teoretica m.

Pentru

S 2n =1

n − 1

ni=1

(f i − f )2

avem

M (S 2n) = M

1

n − 1

ni=1

(f i − f )2

=

n

n − 1M

1

n

ni=1

(f i − f )2

=

n

n − 1M (S 2n) =

=n

n − 1

n − 1

nσ2 = σ2, ∀σ > 0

deci, S 2n

este estimator nedeplasat pentru dispersia teoretica σ2.

60

Page 61: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 61/68

Pentru o caracteristica f : Ω −→ IR, si ρ(·; θ) densitatea de repartitie (in cazul continuu),respectiv functia de frecventa (in cazul discret), θ ∈ Θ ⊆ IRk. Daca f 1,...,f k sunt variabilelealeatoare de sondaj de volum n corespunzatoare lui f , atunci densitatea de repartitie a lui(f 1,...,f n) in cazul continuu, respectiv functia sa de frecventa in cazul discret, este

L : IRn × Θ −→ IR, L(x1,...,xn; θ) =n

j=1

ρ(x j; θ) (11.9)

deoarece f 1,...,f n sunt independente. Fie x(n) = (x1,...,xn) ∈ IRn.

Definitie 5. Functia L(x(n); ·) se numeste functia de verosimilitate corespunzatoare lui f .

Exemplu 3. f ∼ N (m, σ2),

ρ(x; m, σ2) =1

σ√2π

e−(x−m)2

2σ2

deci

L(x(n); θ) =n

j=1

1

σ√

2πe−

(x−m)2

2σ2 =

1

σ√

n

e−n

j=1

(xj−m)2

2σ2 (11.10)

11.3 Metoda verosimilitatii maxime

Fie P , (Ω, F , P ), f : Ω −→ IR, ρ(·; θ), θ = (θ1,...,θk) ∈ Θ ⊆ IRk, si functia de verosimilitateasociata lui f :

L(x(n); θ) =

n j=1

ρ(x j; θ), θ ∈ Θ.

Metoda verosimilitatii maxime pentru estimarea parametrului θ ∈ Θ consta in prele-varea unui esantion de volum n, cu valorile de selectie x1,...,xn. Pe baza acestora se deter-mina θ : IRn −→ IRk astfel incat

L(x(n); θ(x(n))) = maxθ∈Θ

L(x(n); θ) (11.11)

Definitie 6. θ(x(n)) se numeste estimatie de verosimilitate maxima pentru parametrul θ,bazata pe valorile de selectie x1,...,xn.

θn = θ(f 1,...,f n) se numeste estimator de verosimilitate maxima pentru parametrul θ.

Observatie 5. Presupunem Θ este o multime deschisa si L(x(n); ·) este o functie de clasa C 1

(derivabila si cu derivata continua). Cum ln este o functie crescatoare si concava pe (0, ∞),functiile L(x(n); ·) si ln L(x(n); θ) isi ating extremele in aceleasi puncte. Prin urmare pentrua gasi estimatorul de verosimilitate maxima este suficient sa gasim maximul pentru functialn L(x(n); ·).

Avem

ln L(x(n); θ) =n

j=1

ln ρ(x j; θ)

61

Page 62: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 62/68

si se obtine sistemul de verosimilitate maxima:

∂ lnL(x(n);θ)∂θ1

= 0...

∂ lnL(x(n);θ)∂θk = 0

(11.12)

Prin rezolvarea sistemului anterior se obtine punctul θ(x1,...,xn) in care se atinge maximulfunctiei L(x(n); ·).

Exemplu 4. Fie f ∼ N (m, σ2). Dorim sa determinam estimatorul de verosimilitate maximapentru θ = (m, σ2). Urmand pasii descrisi mai devreme avem:

ln L(x(n); m, σ2) = −n ln σ − n ln 2π − 1

2σ2

n j=1

(x j − m)2

Avand doi parametri de estimat (k = 2), vom avea un sistem de doua ecuatii:∂ lnL(x(n);m,σ2)

∂m= 0

∂ lnL(x(n);m,σ2)∂σ2 = 0

=⇒

1σ2

n j=1(x j − m) = 0

−n2

1σ2

+ 12σ4

n j=1(x j − m)2 = 0

adica mai departe n j=1 x j − nm = 0

−n + 1σ2

n j=1(x j − m)2 = 0

=⇒

m = 1n

n j=1 x j = x

σ2 = 1n

n j=1(x j − x)2 = σ2

f

deci estimatorul de verosimilitate maxima pentru θ este

θ(x(n)) = (m(x(n)), σ2(x(n))) = (x, σ2f ).

11.4 Metoda momentelor

Fie P , (Ω, F , P ) si f : Ω −→ IR care admite mr = M (f r), r ∈ 1, k, θ = (θ1,...,θk) ∈ Θ ⊆ IRk.Metoda momentelor pentru estimarea parametrilor θ1,...,θk presupune urmatorii pasi:

• efectuarea unui sondaj de volum n, ω = (ω1,...,ωn)

• obtinerea valorilor de selectie x1,...,xn

• calcularea cantitatilor

mr =1

n

ni=1

xri , r ∈ 1, n

• rezolvarea sistemuluimr = mr, r = 1, k (11.13)

obtinut prin egalarea momentelor de selectie cu cele teoretice, de la ordinul 1 pana laordinul k.

62

Page 63: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 63/68

Exemplu 5. Fie f ∼ N (m, σ2), θ = (m, σ2) ∈ IR × (0, ∞), x1,...,xn valorile de sondaj.Sistemul (11.13) devine:

m1 = mm2 = m2 + σ2 unde

m1 = 1n

ni=1 xi = x

m2 = 1nn

i=1 x2i

de unde obtinem mai departex = m1n

ni=1 x2

i = m2 + σ2

m = xσ2 = 1

n

ni=1 x2

i − m2 = 1n

ni=1 x2

i − x2 = 1n

ni=1(xi − x)2

Astfel, estimatia pentru (m, σ2) prin metoda momentelor pe baza valorilor de selectie x1,...,xn

este (m, σ2) = (x, σ2f ).

63

Page 64: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 64/68

Capitolul 12

Cursul XII

12.1 Verificarea ipotezelor statistice

Fie (Ω, F , P ) spatiu de probabilitate, f : Ω −→ IR o variabila aleatoare, α ∈ (0, 1).

Definitie 1. Un numar real cα se numeste cuantila de ordin α pentru f daca

P (f ≤ cα) ≥ α si P (f ≥ cα) ≥ 1 − α (12.1)

Observatie 1. cα este cuantilka de ordin α pentru f daca si numai daca

F f (cα + 0) ≥ α si 1 − P (f < cα) ≥ 1 − α

adica F f (cα + 0)

≥α si F f (cα)

≤α, sau

F f (cα) ≤ α ≤ F f (cα + 0) (12.2)

Observatie 2. Daca F f e continua atunci cα e cunatila pentru f daca si numai daca

F f (cα) = α (12.3)

Observatie 3. Daca f ∼ N (0, 1) atunci cuantila de ordin 1−α satistace relatia c1−α = −cα.

F f (−cα) = 1 − F f (cα) = 1 − α = F f (c1−α) = F f (c1−α)

Cum F f e strict crescatoare, −cα = c1−α.

Definitie 2. Fie f o variabila aleatoare de tip continuu si cu densitatea de repartitie

ρn(x) =Γ

n+12

nπΓ

n2

1 +x2

n

−n+12

, ∀x ∈ IR, n > 0, fixat. (12.4)

Spunem ca f are repartitia Student cu n grade de libertate, si notam f ∼ S (n).

Definitie 3. Notam cu tn,α cuantila de ordin α a variabilei f ce are repartitia Student S (n).Ca in cazul precedent, avem tn,1−α = −tn,α.

64

Page 65: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 65/68

Sa consideram o populatie statistica modelata prin campul de probabilitate (Ω, F , P ) sif : Ω −→ IR o caracteristica a acestei populatii. Presupunem ca se cunoaste repartitia luif , abstractie facand de un parametru θ ∈ Θ ⊆ IRk, F (·; θ) (sau densitatea ρ(·; θ) )

Exemplu 1. f

∼N (m, σ2):

ρf (x) = ρ(x; m, σ2) =1

σ√

2πe−

(x−m)2

2σ2 , ∀x ∈ IR

f ∼ P λ:

ρf (x) = ρ(x; λ) = e−λ λx

x!, ∀x ∈ IN

Definitie 4. Orice presupunere relativa la repartitia variabilei aleatoare f se numeste ipoteza statistica . Orice metoda pentru verificarea unei ipoteze statistice se numeste test sau criteriu .Atunci cand o ipoteza statistica se refera la un parametru spunem ca ipoteza statistica este

parametrica , iar un test pentru verificarea unei ipoteze parametrice se numeste test parame-tric. In caz contrar avem o ipoteza statistica neparametrica , respectiv un test neparametric.O ipoteza statistica formata dintr-un singur element se numeste ipoteza simpla , si in cazcontrar se spune ca este compusa .

Definitie 5. Daca repartitia lui f depinde de θ ∈ Θ ⊆ IRk si Θ = Θ0 ∪ Θ1, Θ0 ∩ Θ1 = ∅,Θ0 = ∅, Θ1 Θ, atunci

H 0 : θ ∈ Θ0 se numeste ipoteza nula H 1 : θ ∈ Θ1 se numeste ipoteza alternativa

Exemplu 2. a) Pentru f ∼ N (m, σ2

), σ > 0 dat, m ∈ IR parametru, si m0 ∈ IR fixat,

H 0 : m = m0 ipoteza parametrica simplaH 1 : m = m0 ipoteza parametrica compusa

b) Consideram acum σ > 0 necunoscut, m ∈ IR parametri.

H 0 : m = m0, σ > 0 ipoteza parametrica compusaH 1 : m = m0, σ > 0 ipoteza parametrica compusa

Definitie 6. A construi un test pentru verificarea ipotezei nule H 0 : θ

∈Θ0 cu alternativa

H 1 : θ ∈ Θ1 revine la a determina o submultime C IRn, numita regiune critica cu nivelulde semnificatie α ∈ (0, 1), foarte mic, astfel incat

P ((f 1,...,f n) ∈ C |H 0 adevarata ) = α

unde (f 1,...,f n) sunt variabilele aleatoare de sondaj de volum n corespunzatoare lui f .O data determinat un astfel de C , convenim sa respingem ipoteza nula H 0 si sa acceptam

ipoteza alternativa H 1 daca (x1,...,xn) ∈ C . Daca (x1,...,xn) ∈ C acceptam H 0 si respingemH 1. Acest test se numeste test pentru verificarea ipotezei nule H 0 : θ ∈ Θ0 cu alternativa H 1 :θ ∈ Θ1, cu nivelul de semnificatie α. In practica se considera α = 0.1, 0.01, 0.05, 0.02,...

65

Page 66: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 66/68

12.2 Testul Z

Presupunem f ∼ N (m, σ2), σ > 0, cunoscut, si m ∈ IR, parametru necunoscut. Ne prop-unem sa construim un test cu nivelul de semnificatie α ∈ (0, 1) pentru verificarea ipotezeinule H 0 : m = m0 cu una din alternativele H 1 : m

= m0, H 1 : m > m0, H 1 : m < m0.

Fie pentru aceasta f 1,...,f n variabilele aleatoare de sondaj de volum n corespunzatoare luif . Consideram

Z =f − m

σ/√

n, f =

1

n

ni=1

f i.

Se stie ca Z ∼ N (0, 1). Vom determina (z1, z2) ⊂ IR astfel incat

P (z1 < z < z2| H 0- adevarata ) = α

Perechea (z1, z2) nu este unica.

1. H 0 : m = m0

H 1 : m = m0

Consideram (z1, z2) = (−z1−α2

, z1−α2

), unde z p = cuantila de ordin β pentru N (0, 1).

P (z1 < Z < z2 | H 0 - adevarata) = P (−z1−α2

< Z < z1−α2| H 0 - adevarata ) =

= P

−z1−α

2<

f − m0

σ/√

n< z1−α

2

= φ(z1−α

2)−φ(−z1−α

2) = 1−α

2−

1 −

1 − α

2

= 1−α

Deci

P

(f 1,...,f n) ∈ (x1,...,xn) ∈ IRn | x − m0σ/√n

< z1−α2

= 1 − α

adica

P

(f 1,...,f n) ∈

(x1,...,xn) ∈ IRn |

x − m0

σ/√

n

≥ z1−α2

= α

de unde rezulta ca regiunea critica pentru verificarea ipotezei nule H 0 cu alternativaH 1 la nivelul de semnificatie α este

C =

(x1,...,xn) ∈ IRn |

x − m0

σ/√

n

≥ z1−α

2

(12.5)

Daca valorile masurate (x1,..,xn) ∈ C respingem ipoteza nula H 0 si acceptam H 1.Daca (x1,...,xn) ∈ C acceptam H 0 si respingem H 1. Testul astfel construit se numestetestul Z bilateral .

2.H 0 : m = m0

H 1 : > m0

Alegem (z1, z2) = (−∞, z1−α) si obtinem

P (

−∞< Z < z1

−α

|H 0 - adevarata ) = P f − m0

σ/√n ≤z1−

α = φ(z1−

α) = 1

−α

66

Page 67: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 67/68

adica

P

f − m0

σ/√

n≥ z1−α

= α

Vom alege deci regiunea critica pentru verificarea ipotezei nule H 0 cu alternativa H 1 :

n > m0, la nivelul de semnificatie α:

C =

(x1,...,xn) ∈ IRn | x − m0

σ/√

n≥ z1−α

(12.6)

Daca valorile masurate (x1,..,xn) ∈ C respingem ipoteza nula H 0 si acceptam H 1.Daca (x1,...,xn) ∈ C acceptam H 0 si respingem H 1. Testul astfel construit se numestetestul Z unilateral dreapta.

3. Pentru cazul in care ipoteza alternativa este H 1 : m < m0, se obtine regiunea critica

C = (x1,...,xn) ∈ IRn | x − m0

σ/√

n≤ zα (12.7)

12.3 Testul T

Fie f ∼ N (m, σ2), m ∈ IR, σ > 0 necunoscut, si fie (f 1,...,f n) variabilele aleatoare de sondajde volum n corespunzatoare lui f . Notam

s2n =1

n − 1

nk=1

(f k − f )2.

Atunci se poate demonstra caf

−m

sn/√n ∼ S (n − 1)

Ca si in cazul testului Z se arata ca regiunea critica pentru verificarea ipotezei nule H 0 :m = m0 cu alternativa H 1 : m = m0 la nivelul de semnificatie α este

C =

(x1,...,xn) ∈ IRn |

x − m0

sn/√

n

≥ tn−1;1−α2

(12.8)

unde

s2n =1

n − 1

ni=1

(xi − x)2

iar tn−1;β este cuantila de ordin β pentru S (n − 1).Daca (x1,...,xn) ∈ C respingem H 0 si acceptam H 1, altfel acceptam H 0 si respingem

H 1. Testul astfel construit se numeste testul T bilateral . Asemanator cu testul Z , construimregiunile critice pentru ipotezele alternative H 1 : m > m0 (testul T unilateral dreapta)respectiv H 1 : m < m0 (testul T unilateral stanga):

C =

(x1,...,xn) ∈ IRn | x − m0

sn/√

n≥ tn−1;1−α

(12.9)

si

C = (x1,...,xn) ∈ IRn | x − m0

sn/√

n≤ tn−1;α (12.10)

67

Page 68: Curs Probabilitati

5/17/2018 Curs Probabilitati - slidepdf.com

http://slidepdf.com/reader/full/curs-probabilitati 68/68

12.4 Puterea unui test

Atunci cand folosim un test pentru verificarea ipotezelor statistice putem face doua tipuride erori:

a) de tipul 1, atunci cand respingem H 0 cu toate ca ea este adevarata

b) de tipul 2 , atunci cand acceptam H 0 desi este falsa

Definitie 7. Functia

π : Θ1 −→ (0, 1), π(θ) = P ((f 1,...,f n) ∈ C | H 1), θ ∈ Θ1 (12.11)

se numeste puterea testului caracterizat de regiunea critica C .

Sa observam ca un test este cu atat mai bun cu cat puterea sa este mai mare.

Definitie 8. Un test cu puterea maxima, pentru verificarea ipotezei nule H 0 : θ ∈ Θ0 cualternativa H 1 : θ ∈ Θ1, la nivelul de semnificatie α, se numeste cel mai puternic.

Exemplu 3. Sa calculam puterea testului Z bilateral:

π : IR \ m0 −→ (0, 1),

π(m) = P ((f 1,...,f n) ∈ C | H 1) = P ((f 1,...,f n) ∈ C | m = m0) =

= P

f − m0

σ/√

n

≥ z1−α

2| m = m0

= 1 − P

f − m0

σ/√

n

< z1−α2|H 1

=

= 1−P

−z1−α

2<

f − m0

σ/√

n< z1−α

2|H 1

= 1−P

m0 − σ√

nz1−α

2< f < m0 +

σ√n

z1−α2|H 1

=

= 1 − P

m0 − m − σ√

nz1−α

2

σ/√

n<

f − m

σ/√

n<

m0 − m + σ√n

z1−α2

σ/√

n

=

= 1 − P

m0 − m

σ/√

n− z1−α

2<

f − m

σ/√

n<

m0 − m

σ/√

n+ z1−α

2

=

= 1 − φ

m0 − m

σ/√

n+ z1−α

2

+ φ

m0 − m

σ/√

n− z1−α

2

, m = m0.

68