intrebari set 1 sociologie

21
1. Prin variabila se întelege o anumita categorie care a fost cuantificata sau masurata. 2. Clasificarea variabilelor: - Calitative: - Cantitative (numerice): 3. Variabilele calitative sunt nominale (categoriale) si ordinale 4. Variabilele cantitative (numerice) sunt de tip interval si de tip raport. 5. Scalele nominale sunt calitative si presupun o categorizare a variabilei fara a indica o anumita ordine ori cantitate. 6. Scalele ordinale sunt calitative, numerele sunt ierarhii si exprima locul sau ordinea într-un sir de date. 7. În cazul datelor ordinale, diferenta numerica într-un clasament nu este necesar egala cu diferenta numerica exprimata în unitatea de masura utilizata. 8. Scalele nominale si ordinale presupun totdeauna utilizarea unor teste statistice neparametrice. 9. Scala de tip interval permite comparatia dintre date. 10. Scalele de tip raport poseda toate calitatile unei scale de interval si au în plus doua calitati noi : permit multiplicarea sau divizarea datelor indica valoarea zero absolut, care arata lipsa totala a cantitatii masurate. 11. Scalele de interval, respectiv de raport sunt expresii cantitative ale variabilelor care pot fi supuse analizei statisticii parametrice cu mici exceptii.

Upload: aaron-witt

Post on 04-Oct-2015

96 views

Category:

Documents


0 download

DESCRIPTION

sociologie

TRANSCRIPT

1

1. Prin variabila se ntelege o anumita categorie care a fost cuantificata sau masurata. 2. Clasificarea variabilelor:

Calitative:

Cantitative (numerice):

3. Variabilele calitative sunt nominale (categoriale) si ordinale

4. Variabilele cantitative (numerice) sunt de tip interval si de tip raport. 5. Scalele nominale sunt calitative si presupun o categorizare a variabilei fara a indica o anumita ordine ori cantitate. 6. Scalele ordinalesunt calitative, numerele sunt ierarhii si exprima locul sau ordinea ntr-un sir de date. 7. n cazul datelor ordinale, diferenta numerica ntr-un clasament nu este necesar egala cu diferenta numerica exprimata n unitatea de masura utilizata.

8. Scalele nominale si ordinale presupun totdeauna utilizarea unor teste statistice neparametrice.9. Scala de tip interval permite comparatia dintre date. 10. Scalele de tip raport poseda toate calitatile unei scale de interval si au n plus doua calitati noi:

permit multiplicarea sau divizarea datelor

indica valoarea zero absolut, care arata lipsa totala a cantitatii masurate.

11. Scalele de interval, respectiv de raport sunt expresii cantitative ale variabilelor care pot fi supuse analizei statisticii parametrice cu mici exceptii.12. Datele variabilelor pot fi prezentate (organizate) simplu sau grupat .

13. Pentru datele variabilelor organizate simplu se stabileste frecventa de aparitie a fiecarei valori;

14. Pentru datele variabilelor organizate grupat se tine cont de distributia grupata a datelor, fiind necesara mpartirea valorilor n clase de intervale egale.

15. Metoda lui Spatz in patru pasi de mpartire a datelor pe intervale pentru variabilele grupate: 1. Numarul de intervale trebuie sa fie ntre 10 si 20. Aceasta conditie are rolul de a maximiza grafic conceptul de distributie normala a datelor:

2. Stabilirea marimii intervalului (notat cu i).

3. Primul interval ncepe cu o valoare multiplu de i ales.

4. In tabel valorile sunt trecute ntr-o ordine descrescatoare.

16. Metoda lui Sturges de mpartire a datelor pe intervale pentru variabilele grupote utilizeaza formula

unde: i este lungimea recomandata a intervalului;

Xmax si Xmin extremele valorilor sirului de date

lg n este logaritm zecimal din numarul de date a sirului (volumul esantionului).

17. Frecventa cumulata a unei clase este egala cu: suma frecventelor din clasa respectiva si frecventele din toate clasele cu valori inferioare.

18. Poligonul frecventeloreste un grafic utilizat n cazul variabilelor cantitative. 19. Histogramele - pot fi utilizate pentru variabile exprimate att cantitativ ct si calitativ. 20. Cercurile de tip "placinta" - pot fi utilizate pentru variabile calitative, nominale.

21. Mediana este parametrul care prin pozitia sa, se afla n mijlocul seriei de date. 22. Mediana reprezinta punctul central al seriei, deoarece la stnga si la dreapta ei se situeaza cte 50% din totalitatea datelor. 23. Mediana coincide cu media n cazul unei distributii teoretice normale si se ndeparteaza mult de aceasta daca distributia este asimetrica.

24. In cazul distributiei simple a datelor pentru n impar locul medianei = (n+1) / 2, iar valoarea medianei este data de valoarea existenta in sir pe acel loc.25. In cazul distributiei simple a datelor pentru n par valoarea medianei se obtine prin adunarea valorilor din centrul seriei si mpartirea sumei obtinute la doi.

26. n cazul n care sirul de date este prezentat ntr-un tabel de frecvente pentru calculul valorii medianei se aplica formula:

unde: l este limita inferioara a intervalului de clasa care contine mediana;

fc este frecventa cumulata precednd clasa care contine mediana;

fi este frecventa clasei intervalului care contine mediana;

N este numarul total al cazurilor;

j este marimea intervalului (i) care cuprinde mediana.

27. Mediana tine seama de toate cazurile, dar nu este afectata de cazurile (valorile) extreme. 28. Modul este parametrul care corespunde celei mai mari frecvente (valoarea cea mai frecvent ntlnita). 29. Pentru date grupate valoarea modala este egala cu valoarea gasita n centrul intervalului care are cea mai mare frecventa.

30. Media este recomandata n cazul variabilelor numerice care ndeplinesc conditiile parametrice (distributie normala, omogenitate s.a.).

31. Mediana se recomanda pentru cazurile n care nu sunt ndeplinite conditiile parametrice (distributii asimetrice, etrogenitate crescuta etc) si n cazul variabilelor de tip ordinal.

32. Modul este utilizat mai rar pentru date numerice, fiind nsa foarte util n cazul variabilelor de tip categorial (date calitative, nominale), deoarece nu putem calcula ceilalti parametrii centrali.

33. Amplitudinea - parametru care arata distanta dintre valoarea minima si valoarea maxima din cadrul unui sir de date

34. Notam cuabaterea standard a populatiei.

35. Notam cus estimatorul abaterii standard a populatiei.

36. Notam cuSabaterea standard a esantionului unei populatii.

37. Amplitudinea este de obicei de doua pna la cinci, sase ori mai mare dect abaterea standard.

38. Dispersia este egala cu abaterea standard la patrat. 39. Coeficientul de variabilitate este utilizat n scopul stabilirii gradului de omogenitate a unui esantion 40. In literatura de specialitate, pentru un coeficient de variabilitate mai mic decat 35%, se admite ca, media este reprezentativa pentru colectivitatea respectiva iar colectivitatea este omogena. (A. Novac)41. Coeficientul de variabilitate este aplicabil doar n cazul variabilelor masurate pe scala de raport, cu origine naturala zero.

42. Indicele de asimetrie (de oblicitate) - arata n ce masura media se ndeparteaza de mediana, si n ce masura curba de distributie normala a datelor se departeaza de la mijloc spre stnga sau dreapta.

43. Sunt considerate distributii relativ normale cazurile n care indicii de asimetrie nu depasesc 1,96.

44. Asimetria este pozitiva daca media este mai mare dect mediana (indicele de asimetrie ia valori pozitive si datele se distribuie spre stnga). 45. Asimetria este negativa daca media este mai mica dect mediana (indicele de asimetrie ia valori negative si datele se distribuie spre dreapta). 46. Figura de mai jos prezinta cazul unei asimetrii pozitive.

47. Figura de mai jos prezinta cazul unei asimetrii negative.

48. Boltirea se refera la naltimea curbei, comparativ cu cea normala. 49. In boltire distributiile pot fi leptocurtice (cu cocoasa nalta) si platicurtice (mai aplatizate). 50. Parametrii tendintei centrale si ai variantei ajuta la descrierea caracteristicilor unui esantion sau a populatiei.

51. Cotele z reprezinta elementele necesare descrierii unui rezultat individual din cadrul esantionului ori populatiei n cauza. 52. Convertirea unui rezultat n cote z ne arata pozitia valorii obtinute n distributia datelor pentru caracteristica masurata din cadrul esantionului.

53. De obicei cotele z sunt cuprinse ntre 3,5. 54. Cota z = 0 arata ca valoarea gasita este egala cu media (ntr-o distributie normala).

55. Pentru cotele T se propune media 50 si abaterea standard 10, astfel toate punctajele sunt pozitive si distribuite pe o scala de la 20 la 80 n peste 99% din cazuri.

56. Coeficientul de corelatie este o valoare cantitativa ce descrie relatia dintre doua sau mai multe variabile si variaza ntre 1.

57. Valorile extreme ale coeficientului de corelatie presupun o relatie perfecta ntre variabile.58. Valoarea zero a coeficientului de corelatie nseamna o lipsa totala de relatie liniara. 59. O interpretare corecta a coeficientului de corelatie se face prin compararea rezultatului obtinut cu anumite valori prestabilite n tabele de corelatii n functie de numarul de subiecti, tipul de legatura si pragul de semnificatie dorit. 60. Principalele conditii ce trebuie ndeplinite pentru a utiliza probe parametrice sunt:

1. distributia normala a variabilei de interes din cadrul esantionului cercetarii; 2. omogenitatea dispersiei esntionului cercetarii referitor la variabila supusa studiului

61. Tipuri de corelatii parametrice:

- coeficientul de corelatie simpla (Bravais-Pearson);

- coeficientul de corelatie eneahoric;

- coeficientul de corelatie partiala;

- coeficientii de corelatie biserial si triserial.

62. n utilizarea tabelului lui r putem alege diferite praguri de semnificatie. La nivelul comunitatii stiintifice internationale pragul minim acceptat pentru a considera o relatie semnificativa statistic este 0,05.63. n utilizarea tabelului lui r putem alege diferite praguri de semnificatie. Pentru pragul de semnificatie 0,01 relatia este puternica, iar eroarea are loc numai ntr-un singur caz din 100 de experimente.64. Valorile foarte mici ale coeficientilor de corelatie pot fi semnificative numai daca se lucreaza cu grupe mari de subiecti65. Coeficientul de determinare indica partea din dispersia totala a masurarii unei variabile care poate fi explicata sau justificata de dispersia valorilor din cealalta variabila, sau altfel spus, el determina partea de asociere comuna a factorilor care influenteaza cele doua variabile.66. Pentru un coeficient de corelatie r = 0,5 avem coeficientul de determinare 0,25Coeficientul de corelatie simpla se utilizeaza in cazul in care avem doua variabile continue , deci date numerice continue. 67. Coeficientul de corelatie partiala se utilizeasa atunci cnd ntre doua variabile exista o a treia, responsabila de dependenta comuna a celor doua si deci corelatia dintre cele doua variabile poate induce n eroare si este dificil de interpretat.

68. Coeficientul de corelatie biserial se utilizeasa in cazul in care avem o variabila continua si una categoriala dihotomica. 69. Coeficientul de corelatie triserial se utilizeasa in cazul in care avem o variabila continua si una categoriala trihotomica.70. Coeficientul eneahoric se utilizeasa in cazul in care avem doua variabile categoriale, cu date numerice grupate pe categorii.

71. In cazul utilizarii coeficientilor de corelatie biserial si triserial trebuie ca numarul de subiecti cuprinsi n esantion sa fie mai mare de 50;

72. In cazul utilizarii coeficientului de corelatie triserial, pentru a nu obtine un rezultat distorsionat, marimea claselor de subiecti luate n calcul trebuie sa fie n jurul a 33% din totalul subiectilor. 73. Cu ajutorul regresiei se pot face predictii ale unei variabile, n functie de valoarea alteia.

74. Predictia este procesul de estimare a valorii unei variabile cunoscnd valoarea unei alte variabile.

75. Prin regresie simpla liniara intelegem regresia dintre o variabila dependenta si una independenta astfel incat relatia dintre cele doua variabile poate fi descrisa printr-o dreapta n cadrul norului de puncte.

76. Forma generala a ecuatiei de regresie este:

Unde:

este rezultatul estimat;

a este locul pe ordonata unde dreapta de regresie se intersecteaza cu OY (valoarea lui Y pentru X=0);b este panta de regresie (arata cu ct se modifica Y atunci cnd X creste (scade) cu o unitate;X este variabila criteriu (cunoscuta).

77. Coeficientul a din forma generala a ecuatiei de regresie arata valoarea lui Y cnd X este zero.

78. Coeficientul b din forma generala a ecuatiei de regresie arata cu ct este influentat Y atunci cnd X creste cu o unitate.

79. Coeficientul de corelatie (fi) este o proba corelationala neparametrica utilizata pentru variabile dihotomice obtinute nu datorita unei regrupari ci prin nsasi natura variabilei.

80. Coeficientul de contingenta C al lui Pearson este o proba corelationala neparametrica utilizata pentru date categoriale nominale.

81. Coeficientul V al lui Cramer este o proba corelationala neparametrica utilizata pentru date categoriale nominale.

82. Testul Spearman al corelatiei diferentei rangurilor este o proba corelationala neparametrica utilizata pentru date ordinale;

83. Coeficientul a lui Kendall este o proba corelationala neparametrica utilizata pentru date ordinale.

84. Interpretarea coeficientul de corelatie se face la fel ca cea a coeficientului de corelatie r, deoarece coeficientul de corelatie este n esenta o varianta a acestui coeficient.85. Semnul coeficientului de corelatie (fi) calculat dupa formula:

se stabileste n functie de numarul de subiecti aflati pe cele doua diagonale. Daca diagonala principala numara mai multi subiecti atunci semnul este plus, daca diagonala secundara numara mai multi subiecti semnul coeficientului este minus.

86. Deficienta coeficientului C a lui Pearson - nu poate lua niciodata valoarea 1, chiar n cazul unei asocieri perfecte. 87. Coeficientul C a lui Pearson pentru un tabel de tip 3 x 3 poate lua valoarea maxima de 0,82.

88. Coeficientul C a lui Pearson pentru un tabel de tip 4 x 4 poate lua valoarea maxima de 0,87. 89. Limita coeficientului C se deplaseaza spre 1, pe masura ce dimensiunea tabelului creste, astfel se recomanda utilizarea coeficientului C n special n cazul tabelelor de contingenta de dimensiuni mari , de la 7-8 linii sau coloane n sus. 90. Pentru a depasi impasul valorii subunitare a coeficientului C al lui Pearson, se utilizeaza coeficientul de asociere V al lui Cramer a carui marime poate atinge valoarea 1.

91. Interpretarea coeficientilor C, respectiv V se face teoretic astfel: un rezultat cat mai apropiat de 1 indica o corelatie pozitiva, iar un coeficient negativ indica o asociere inversa.

92. Testul Spearman al corelatiei diferentei rangurilor se aplica atunci cnd conditiile privind parametrii statistici nu pot fi ndeplinite, din cauza neomogenitatii grupului sau a numarului prea mic de subiecti (sub 20).93. Atunci cand este utilizat testul Spearman rangurile arata locul fiecarui individ ntr-un clasament

94. Testul Spearman al corelatiei diferentei rangurilor poate fi folosit daca nu exista un numar prea mare de ranguri egale (sub 25 la suta din totalul rangurilor celor doua grupe).95. Atunci cand este utilizat testul Spearman, daca doi subiecti sunt clasati pe locul patru, ei vor primi rangul 4,5. 96. Atunci cand este utilizat testul Spearman, daca trei subiecti sunt clasati la egalitate pe locul 2, ei vor primi rangul 3, aflat la mijlocul dintre locurile 2,3 si 4, iar urmatorul rang ce va fi acordat va fi rangul 5.97. Daca mai mult de 25% din rangurile unui esantion sunt egale se utilizeaza formula coeficientilor (tau) a lui Kendall.98. Atunci cand este utilizat coeficientul (tau) b a lui Kendall pentru variabile ordinale asocierea este pozitiva daca indivizii plasati pe locuri fruntase dupa o variabila, se afla mai n fata si dupa cealalta.

99. Atunci cand este utilizat coeficientul (tau) b a lui Kendall pentru variabile ordinale asocierea va fi negativa daca aceiasi indivizi plasati bine dupa prima variabila se vor regasi mai curnd spre coada clasamentului dupa cea de a doua variabila.

100. In cazul corelatiilor de date nominale:

- daca cele doua variabile sunt dihotomice de tip 2 x 2 se utilizeaza coeficientul de corelatie .

- daca cele doua variabile sunt categoriale, peste 2 x 2 se utilizeaza coeficientul V a lui Cramer, respectiv coeficientul de contingenta C a lui Pearson (util n special pentru tabele peste 5 x 5).

101. In cazul corelatiilor de date ordinale (ordonate sub forma de ranguri):

- daca cele doua variabile au putine ranguri egale se utilizeaza coeficientul de corelatie a lui Spearman.

- daca cele doua variabile au mai multe ranguri egale se utilizeaza coeficientul a lui Kendall.

102. Pentru a analiza daca un esantion de subiecti difera de o populatie mai mare se utilizeaza testul z daca:

se cunoaste abaterea standard a variabilei dependente la nivelul populatiei; numarul de subiecti cuprinsi n esantionul comparativ este suficient de mare (de regula peste 30 de subiecti).

103. Daca in cadrul analizei unui esantion de subiecti fata de o populatie mai mare, una din urmatoarele doua conditii :

se cunoaste abaterea standard a variabilei dependente la nivelul populatiei; numarul de subiecti cuprinsi n esantionul comparativ este suficient de mare (de regula peste 30 de subiecti).

nu este ndeplinita, se utilizeaza testul t pentru un esantion.

104. Testul t valideaza sau infirma ipoteza nula potrivit careia, nu exista nici o diferenta ntre media (m) obtinuta pe esantion de subiecti si media (m ) obtinuta pe populatia din care a fost extras esantion105. Testul t pentru un esantion . Daca avem motive sa credem ca datorita unor caracteristici speciale media esantionului comparativ este mai mare (sau mai mica) dect media populatiei din care face parte esantionul vom utiliza valorile testului t unilateral din tabel. 106. Testul t pentru un esantion . Daca consideram ca cele doua medii, media esantionului comparativ si media populatiei din care face parte esantionul difera semnificativ, fara a putea anticipa ca una ar fi mai mare dect cealalta dintr-o perspectiva teoretica exprimata n ipoteza de lucru vom utiliza valorile testului t bilateral din tabelul lui t.107. Daca se luceraza cu testul t pentru un esantion, marimea efectului propusa de Cohen si notata cu d are o importante deosebita in determinarea puterii experimentului si n calcularea marimii esantionului necesar pentru a da credibilitate cercetarii efectuate.

108. Interpretarea valorii d (marimea efectului) obtinuta se face prin raportarea ei la conventia propusa de Cohen si adoptata de cercetatori:

Efect mic d = 0,20;

Efect mediu d = 0,50;

Efect mare d = 0,80

109. Interpretarea valorii obtinuta cu testul z se face raportnd aceasta valoare la valorile standardizate ale lui z. Spre deosebire de testul t, pentru care trebuie consultat tabelul lui t pentru a putea admite sau respinge ipoteza nula, n cazul testului z bilateral, valoarea obtinuta se compara cu doua valori standardizate:

z = 1,96 pentru un p .05

z = 2,58 pentru un p .01

110. Interpretarea valorii obtinuta cu testul z se face raportnd aceasta valoare la valorile standardizate ale lui z. Spre deosebire de testul t, pentru care trebuie consultat tabelul lui t pentru a putea admite sau respinge ipoteza nula, n cazul testului z unilateral, valoarea obtinuta se compara cu doua valori standardizate:

z = 1,65 pentru un p .05

z = 2,33 pentru un p .01

111. Testele z si t pentru doua esantioane dependente sau independente se aplica pentru a determina daca mediile a doua esantioane difera semnificativ112. Criteriul hotartor n alegerea tipului de test (t sau z) in cazul a doua esantioane dependente sau independente, este volumul esantionului. Se considera si se accepta de majoritatea cercetatorilor ca:

a. Daca n1 30 (numarul de subiecti din prima grupa) si n2 30 (numarul de subiecti din a doua grupa) se aplica testul t.

b. Daca n1 30 si n2 30 se aplica testul z.

113. Pentru cazul a doua esantioane dependente exista trei situatii n care se aplica testele de comparatie t si z:

a. Perechile naturale (nu sunt realizate de experimentator ci exista n mod natural).

b. Perechile artificiale (sunt realizate de catre experimentator pentru a egaliza ct mai mult grupele de subiecti).

c. Masuratori repetate (ntlnite n special n terapie si recuperare, un singur grup de subiecti testati de doua ori: nainte si dupa introducerea variabilei independente. 114. Testul t independent este un tip special de ANOVA simpla n care sunt implicate doar doua grupe. 115. ANOVA simpla permite compararea simultana a trei sau mai multe grupe mentinnd nivelul (nivelul de ncredere pentru fiecare test t efectuat) la valoarea de maxim 0,05.

116. Procedeul matematic implicat n ANOVA simpla consta n analiza dispersiei variabilei dependente. 117. In ANOVA simpla dispersia datorata esantionarii aleatoare se mai numeste si dispersia erorii, 118. In ANOVA simpla dispersia datorata variabilei independente se mai numeste si dispersie adevarata.

119. Simbolul rezultatului obtinut prin ANOVA este F.

120. La aplicarea testului ANOVA simpla numarul de subiecti din grupe poate sa nu fie egal cu conditia respectarii unei dispersii omogene n grupe.O masura a marimii asocierii ntre variabila independenta si cea dependenta n cazul ANOVA simpla este omogenitatea dispersiei ( omega patrat). 121. In cazul ANOVA simpla, omogenitatea dispersiei indica proportia din dispersia variabilei dependente care poate fi pusa pe seama variatiei variabilei independente. Masura este similara coeficientului de determinare (r) discutat n cadrul studiului corelational.

122. Marimea efectului n cazul ANOVA se noteaza cu f. Cohen (1992) propune urmatoarele valori ale lui f:

Efect slab f = 0,10

Efect mediu f = 0,25

Efect mare f =0,40

123. Testul t dependent este un tip special de ANOVA cu masuratori repetate.

124. Testul t independent este un tip special de ANOVA simpla n care sunt implicate doar doua grupe.

125. Orice test parametric necesita ndeplinirea mai multor conditii pentru a putea fi utilizat.

Conditii pentru tehnica ANOVA simpla:

1. Esantionul sa fie selectat randomizat din populatie (sau macar randomizarea subiectilor n grupele experimentale).

2. Variabila dependenta sa fie distribuita normal (greu de demonstrat n conditiile n care in general cercetarile care utilizeaza ANOVA se realizeaza cu un numar mic de subiecti. ncalcarea acestei conditii are nsa efecte reduse asupra erorii de tip.)

3. Dispersia subiectilor mpartiti pe grupe de tratament diferite sa fie egala Testul ANOVA este o tehnica robusta, destul de rezistenta la violarile prezentate.

126. Orice test parametric necesita ndeplinirea mai multor conditii pentru a putea fi utilizat. Conditii pentru testul ANOVA cu masuratori repetate

1. Esantionul sa fie selectat randomizat din populatie (sau macar randomizarea subiectilor n grupele experimentale).

2. Variabila dependenta sa fie distribuita normal (greu de demonstrat n conditiile n care in general cercetarile care utilizeaza ANOVA se realizeaza cu un numar mic de subiecti. ncalcarea acestei conditii are nsa efecte reduse asupra erorii de tip.)

3. Dispersia subiectilor mpartiti pe grupe de tratament diferite sa fie egala 4. Coeficientii de corelatie ntre diferitele evaluari repetate sa fie aproximativ egali.

127. Daca omogenitatea dispersiei si egalitatea aproximativa a coeficientilor de corelatie sunt ncalcate in testul ANOVA cu masuratori repetate, eroarea de tip I poate fi afectata. Totusi, se poate continua aplicarea tehnicii parametrice daca se procedeaza la aplicarea unei corectii prealabile referitoare la gradele de libertate.

128. Testul ANOVA factorial, studiaza influenta simultana a doua sau mai multe variabile independente asupra unei variabile dependente129. Raporturile F stabilite n cazurile ANOVA simpla, ANOVA cu masuratori repetate si ANOVA factorial se numesc si teste omnibus.130. Exista doua mari categorii de comparatii multiple: comparatii post-hoc (realizate dupa calcularea lui F din ANOVA), comparatii a priori (tehnici alternative ANOVA care pornesc de la alte ipoteze nule si care sunt planificate nainte de desfasurarea experimentului pe baze rationale).

131. Exista doua criterii dupa care sunt selectate metodele post-hoc folosite: numarul egal de subiecti din fiecare grupa si tipul de contrast realizat. Astfel, testul Tukey si testul Newman-Keuls se aplica n cazul grupelor egale si al comparatiilor perechi (cte doua medii comparate); 132. Exista doua criterii dupa care sunt selectate metodele post-hoc folosite: numarul egal de subiecti din fiecare grupa si tipul de contrast realizat. Astfel, testul Tukey-Kramer se aplica n cazul grupelor de subiecti inegale si al comparatiilor perechi; 133. Exista doua criterii dupa care sunt selectate metodele post-hoc folosite: numarul egal de subiecti din fiecare grupa si tipul de contrast realizat. Astfel, testul Scheffe se aplica n cazul contrastelor complexe (pot fi comparate combinatii de medii, depasind nivelul contrastului dintre doua medii). Prin contrast se ntelege compararea de date n vederea evidentierii diferentelor dintre ele134. Metoda Tukey, simbolizata HSD, denumita si testul diferentei semnificative oneste realizeaza comparatii ntre toate perechile de medii n timp ce mentine eroarea experimentului la valorile alfa stabilite.

135. Metoda Scheffe este procedeeul post-hoc cel mai conservator (sesizeaza cele mai putine diferente), nsa este foarte utila cand se doreste realizarea de comparatii complexe ce depasesc nivelul perechilor de medii.

136. Limita contrastelor ortogonale planificate care pot fi generate de cercetator la nceputul studiului este k-1, unde k reprezinta numarul de grupe din studiu.137. Analiza contrastelor ortogonale se aplica daca variabila independenta din ANOVA este exprimata, fie cantitativ fie calitativ .138. Procedurile analizei directionale pornesc de la dubla conditie:

treptele variabilei independente sunt egal distantate, numarul de subiecti este egal. Aceasta dubla conditie poate fi ncalcata, dar procedeul matematic se complica foarte mult.139. In cazul analizei multiple a priori directionala exista patru tipuri de directii a datelor: liniara (doua sau mai multe grupe); curbilinie (trei sau mai multe grupe); exponentiala sau cubica (patru sau mai multe grupe); cuartica ( cinci sau mai multe grupe).

140. Testul Tukey , testul Newman-Keuls, testul Tukey-Kramer , testul Scheffe , analiza contrastelor ortogonale si analiza directionala se aplica att n cazul ANOVA simpla, ct si n cazul ANOVA cu masuratori repetate. Rezultatele obtinute insa n cazul ANOVA cu masuratori repetate sunt mai mari si mai des semnificative statistic, facand din aceasta un test mai eficient si mai puternic.141. Exemple de teste statistice neparametrice:

tehnica lui 2 (hi patrat);

testul U a lui Mann-Whitney;

testul Wilcoxon al rangurilor pereche;

testul ANOVA Kruskal-Wallis al rangurilor;

testul Friedman ANOVA biunivoc al rangurilor.

142. Testul neparametric U a lui Mann-Whitney este echivalentul testului parametric t independent.143. Testul neparametric Wilcoxon al rangurilor pereche este echivalentul testului parametric ANOVA cu masuratori repetate ori al testului t dependent.

144. Testul neparametric ANOVA Kruskal-Wallis al rangurilor este echivalentul testului parametric ANOVA simpla, nsa datele sunt convertite n ranguri.

145. Testul neparametric Friedman ANOVA biunivoc al rangurilor este echivalentul testului parametric ANOVA cu masuratori repetate.

146. Testul hi patrat este un test statistic asupra semnificatiei deosebirii dintre rezultatele observate (distributia reala) si cele asteptate (distributia teoretica).

147. Gradele de libertate pentru tabelul de contingenta sunt (r-1) (c-1), unde r este numarul de rnduri iar c numarul de coloane.148. La utilizarea testului hi patrat observatiile trebuie sa fie independente si categoriile formate trebuie sa se excluda reciproc. Este vorba de eliminarea raspunsurilor multiple si de alegerea unui singur raspuns la ntrebare. 149. Testul hi patrat nu se poate aplica daca mai mult de 20 la suta din casute au valorile teoretice ale frecventelor mai mici de cinci (n astfel de situatii este se combine casutele adiacente, marind valoarea frecventei teoretice). 150. La utilizarea testului hi patrat pentru tabelele de contingenta de tip 2 x 2 este necesara aplicarea corectiei Yates pentru continuitate. 151. Testul ANOVA Kruskal-Wallis si testul U a lui Mann-Whitney sunt tehnici ce utilizeaza date ordinale, existnd si posibilitatea unor ranguri egale. Daca acest numar de ranguri egale este peste 30 la suta nu se recomanda utilizarea lor. 152. Testul neparametric folosit pentru comparatii de date nominale este testul hi patrat (analiza de contingenta). 153. Testul neparametric folosit pentru comparatii de date ordinale (ordonate pe ranguri) in doua grupe independente este testul U a lui Mann-Whitney .154. Testul neparametric folosit pentru comparatii de date ordinale (ordonate pe ranguri) in mai mult de doua grupe independente este ANOVA Kruskal-Wallis .155. Testul neparametric folosit pentru comparatii de date ordinale (ordonate pe ranguri) in doua grupe dependente este Wilcoxon perechi .156. Testul neparametric folosit pentru comparatii de date ordinale (ordonate pe ranguri) in mai mult de doua grupe dependente este ANOVA Friedman .157. Analiza factoriala gseste variabilele care au ct mai mult variaie (informaie) comun, astfel nct, prin condensare s se piard ct mai puin informaie util.158. Aplicaiile analizei factoriale sunt urmtoarele:

Detectarea structurii n relaiile dintre variabile, ceea ce este similar cu clasificarea variabilelor.

Reducerea numrului variabilelor la un numr mai mic de factori, cu putere de descriere mai general asupra realitii investigate. 159. Analiza componentelor principale a lui Hotteling este o metod care se bazeaz pe analiza varianei totale dintre variabile. Soluia generat va include atia factori cte variabile sunt disponibile. Prin aceast metod se ofer o soluie unic, astfel nct datele originale pot fi reconstruite din rezultatele obinute. 160. Analiza factorilor comuni a lui Thurstone const n estimarea varianei comune la nivelul variabilelor originale. Ca rezultat al acestei tehnici de analiz vor rezulta ntotdeauna mai puini factori dect numrul variabilelor existente.

_1192774115.unknown