muestreo probabil´ıstico. estimadores - departamento de...

26
Cap´ ıtulo 1 Muestreo probabil´ ıstico. Estimadores Como hemos definido anteriormente, el muestreo es el proceso que nos per- mite la extracci´ on de una muestra a partir de una poblaci´ on. Dentro de este muestreo vamos a tratar en concreto con el denominado muestreo probabil´ ıstico. Bajo este tipo de muestreo, la probabilidad de seleccionar un elemento de la poblaci´ on se conoce o puede calcularse. El objetivo fundamental de cualquier estudio de muestreo consiste en rea- lizar inferencias sobre una poblaci´ on de inter´ es. Estas inferencias se basan en la informaci´ on contenida en una muestra seleccionada de la poblaci´ on. Gene- ralmente estos estudios se centran en la investigaci´ on de ciertas caracter´ ısticas de la poblaci´ on dependientes de una variable objetivo. Estas caracter´ ısticas se denominan par´ ametros poblacionales. La estimaci´ on de estos par´ ametros se rea- lizar´ a mediante una funci´ on de los valores contenidos en la muestra. Esta funci´ on se denomina estimador y, por utilizar muestreo probabil´ ıstico, es una variable aleatoria. 1.1. Dise˜ no muestral Para un tama˜ no de muestra fijo, n, existen numerosos dise˜ nos o procedimien- tos de muestreo para obtener las n observaciones en la muestra. En esta secci´ on se abordar´ a el fundamento matem´ atico que lleva consigo la extracci´ on de mues- tras dentro de una poblaci´ on. Para ello, revisaremos tambi´ en ciertos conceptos de c´ alculo de probabilidades que necesitaremos a lo largo del cap´ ıtulo. 1.1.1. Espacio muestral Antes de comenzar con la exposici´ on de esta secci´ on, repasaremos algunos conceptos b´ asicos del c´ alculo de probabilidades. 1

Upload: ngobao

Post on 16-Oct-2018

222 views

Category:

Documents


0 download

TRANSCRIPT

Capıtulo 1

Muestreo probabilıstico.Estimadores

Como hemos definido anteriormente, el muestreo es el proceso que nos per-mite la extraccion de una muestra a partir de una poblacion. Dentro de estemuestreo vamos a tratar en concreto con el denominado muestreo probabilıstico.Bajo este tipo de muestreo, la probabilidad de seleccionar un elemento de lapoblacion se conoce o puede calcularse.

El objetivo fundamental de cualquier estudio de muestreo consiste en rea-lizar inferencias sobre una poblacion de interes. Estas inferencias se basan enla informacion contenida en una muestra seleccionada de la poblacion. Gene-ralmente estos estudios se centran en la investigacion de ciertas caracterısticasde la poblacion dependientes de una variable objetivo. Estas caracterısticas sedenominan parametros poblacionales. La estimacion de estos parametros se rea-lizara mediante una funcion de los valores contenidos en la muestra. Esta funcionse denomina estimador y, por utilizar muestreo probabilıstico, es una variablealeatoria.

1.1. Diseno muestral

Para un tamano de muestra fijo, n, existen numerosos disenos o procedimien-tos de muestreo para obtener las n observaciones en la muestra. En esta seccionse abordara el fundamento matematico que lleva consigo la extraccion de mues-tras dentro de una poblacion. Para ello, revisaremos tambien ciertos conceptosde calculo de probabilidades que necesitaremos a lo largo del capıtulo.

1.1.1. Espacio muestral

Antes de comenzar con la exposicion de esta seccion, repasaremos algunosconceptos basicos del calculo de probabilidades.

1

Entendemos por experimento la observacion de un fenomeno fısico. De ca-da realizacion (ensayo o prueba) de dicho experimento se obtiene un resultado.Por ejemplo, la hora de salida del sol, la velocidad con la que un objeto cae, latemperatura con la que el agua se evapora. En la vida real existen experimen-tos cuyo resultado puede predecirse con exactitud si se conocen las condicionesen las que se desarrolla. Por ejemplo, con una presion atmosferica de 760 mmsi se calienta agua a 100 grados centıgrados entonces se transforma en vapor.A estos experimentos se les denomina determinısticos. Por el contrario existenexperimentos cuyo resultado final no se puede predecir con exactitud aunquepodemos afirmar algo con respecto a la frecuencia con que se producen. Porejemplo, el lanzamiento de una moneda, la seleccion de una carta en la bara-ja, ... Si arrojamos una moneda un gran numero de veces y esta moneda noesta trucada aproximadamente la mitad de las veces se obtendrıa cara y la otramitad cruz. Y cuanto mayor sea el numero de lanzamientos, mas proxima a 0.5sera la relacion de caras cruces obtenidas respecto al numero de lanzamientosefectuados. Estos son los denominados experimentos aleatorios.

El primer paso para construir un modelo matematico de un experimentoaleatorio se basa en definir el conjunto de todos los posibles resultados asociadosa dicho experimento y definir un conjunto con todos ellos. A este conjunto sele denomina espacio muestral. Se llama suceso elemental a cada uno de losposibles resultados de un experimento aleatorio, siempre que estos resultadossean mutuamente excluyentes y equiprobables (no pueden aparecer dos a la vezy la probabilidad de cada uno de ellos es la misma). Si Ω es el espacio muestralasociado a un experimento aleatorio llamamos suceso a cualquier subconjuntos tal que s ⊂ Ω.

Si consideramos como fenomeno o experimento aleatorio la extraccion alea-toria de muestras dentro de una poblacion por un procedimiento o metodo demuestreo dado, podemos considerar como sucesos las muestras obtenidas. Enlo sucesivo, denotaremos por S al conjunto formado por todas las muestrasextraıdas mediante un procedimiento de muestreo determinado.

Ejemplo 1 Definir el conjunto S, es decir, el conjunto formado por todas lasmuestras que resultan de la extraccion sin reemplazamiento de dos unidades deuna poblacion de 4 elementos sin tener en cuenta el orden de los elementos.

Considerando la poblacion Ω = u1, u2, u3, u4, el conjunto S viene dado por

S = (u1, u2), (u1, u3), (u1, u4), (u2, u3), (u2, u4), (u3, u4)

Como comentabamos en el tema anterior, mediante muestreo probabilısticoes posible asignar a cada muestra una probabilidad conocida de ser seleccionadade manera que podemos construir una funcion P definida en el conjunto de todaslas muestras S y que toma valores en el intervalo [0, 1],

P (·) : S −→ [0, 1] (1.1)

tal que

2

P (s) ≥ 0, ∀s ∈ S∑s∈S P (s) = 1.

En numerosas ocasiones, al par (S, P (·)) se le denomina diseno muestral.

Ejemplo 2 Volvamos al ejemplo 1 y supongamos que todas las muestras sonequiprobables (es decir, tienen la misma probabilidad de ser seleccionadas). Ob-tener el diseno muestral asociado a este experimento.

En este caso, la funcion P viene dada por

P (·) : S −→ [0, 1]

donde S = (u1, u2), (u1, u3), (u1, u4), (u2, u3), (u2, u4), (u3, u4) y

P (s) =16, s ∈ S.

Ejemplo 3 En una poblacion de 3 unidades Ω = u1, u2, u3 se extraen mues-tras de tamano 1 mediante el siguiente metodo de muestreo: Se extrae al azar 1bola de una urna que contiene 6 bolas (tres con el numero 1, dos con el numero2 y una con el numero 3), y se extrae de la poblacion la unidad que tenga elmismo numero que la bola extraıda. Determinar el diseno muestral para esteprocedimiento de muestreo.

Solucion Como se extrae una unica bola de la urna, cada una de las mues-tras serıan las unidades S = u1, u2 y u3 y la probabilidad de seleccion decada muestra viene dada por

P (u1) =36, P (u2) =

26, P (u3) =

16.

Ejemplo 4 En una poblacion de 3 unidades numeradas Ω = u1, u2, u3 seextraen muestras de tamano 2 mediante el siguiente metodo de muestreo: Seextraen al azar 2 bolas de una urna que contiene 6 bolas (tres con el numero1, dos con el numero 2 y una con el numero 3) considerando la extraccionde las bolas en una urna con reposicion, y se extraen de la poblacion las dosunidades que tengan los mismos numeros que las dos bolas extraıdas. Determinarel diseno muestral para este procedimiento de muestreo considerando muestrasno ordenadas.

Solucion En este caso extraemos dos unidades de la poblacion y ademasdicha extraccion es sin reemplazamiento. Como el muestreo es con reposicion,el conjunto de todas las muestras es igual a

S = u1, u1, u2, u2, u3, u3, u1, u2, u1, u3, u2, u3,

3

y las probabilidades de seleccion de cada muestra vienen dadas por

P (u1, u1) =36

36, P (u2, u2) =

26

26, P (u3, u3) =

16

16

P (u1, u2) = 236

26, P (u2, u3) = 2

26

16, P (u1, u3) = 2

36

16

1.1.2. Probabilidades de inclusion

Dada una poblacion Ω = u1, u2, . . . , uN y dado un diseno muestral deter-minado (S, P (·)) asociado a dicha poblacion, para cualquier muestra s ∈ S, unelemento cualquiera de la poblacion uk k ∈ 1, . . . , N puede pertenecer o noa la muestra. Para representar la pertenencia o no a la muestra, se define lavariable indicador de pertenencia a la muestra como la siguiente aplicacion

Ik : S −→ 0, 1

de manera que

Ik(s) = 1, si uk ∈ s Ik(s) = 0 si uk /∈ s ∀s ∈ S, ∀uk ∈ Ω,

por lo tanto, Ik es una variable aleatoria definida sobre S y su distribucion deprobabilidad viene dada por

P [Ik = 1] =∑

s∈S;uk∈sP (s) = πk P [Ik = 0] = 1− πk.

De esta forma, πk es la probabilidad de que el elemento uk este en la muestra y sedenomina probabilidad de inclusion de primer orden. Ademas, como la variableIk es de tipo Bernouilli, su esperanza y su varianza vienen dadas por

E[Ik] = πk, V ar(Ik) = πk(1− πk).

Ejemplo 5 Calcular las probabilidades de inclusion de primer orden para cadauna de los elementos de la poblacion dados en los ejemplos 3 y 4

Solucion. Calculamos la probabilidad de inclusion de primer orden para elEjemplo 3. En este caso, tenemos que calcular π1, π2 y π3 donde πk, k = 1, 2, 3es la probabilidad de que el elemento uk este en una muestra determinada. Eneste caso,

π1 =∑

s∈S;u1∈S

P (s) = P (u1) =36

π2 =∑

s∈S;u2∈S

P (s) = P (u2) =26

π3 =∑

s∈S;u3∈S

P (s) = P (u3) =16.

4

En este caso, tenemos que π1 + π2 + π3 = 1 pero no siempre sucede ası. Para elEjemplo 4, tenemos que

π1 =∑

s∈S;u1∈S

P (s) = P (u1, u1) + P (u1, u2) + P (u1, u3) =2736

π2 =∑

s∈S;u2∈S

P (s) = P (u2, u2) + P (u1, u2) + P (u2, u3) =2036

π3 =∑

s∈S;u3∈S

P (s) = P (u3, u3) + P (u1, u3) + P (u2, u3) =1136

.

Para las probabilidades obtenidas en este ejemplo, notar que π1 + π2 + π3 6= 1.

De manera analoga a las propiedades de primer orden, dadas dos unidadesdistintas ui y uj de la poblacion Ω, i 6= j, se define la variable indicador depertenencia a la muestra, Iij , como

Iij : S −→ 0, 1

de manera que

Iij(s) = 1, si ui, uj ∈ s Iij(s) = 0 en otro caso ∀s ∈ S, ∀ui, uj ∈ Ω,

por lo tanto Iij es una variable aleatoria definida sobre S que toma los valores0 y 1 con la siguiente probabilidad

P [Iij = 1] =∑

s∈S;ui,uj∈S

P (s) = πij

P [Iij = 0] = 1− πij ,

o lo que es lo mismo, sigue una distribucion de Bernouilli de parametro πij . Alas probabilidades πij se le denomina probabilidad de inclusion de segundo orden

A partir de las probabilidades de inclusion de primer y segundo orden, po-demos definir la matriz del diseno muestral como la siguiente matriz simetrica

π = (πij)1≤i,j≤N ,

donde πii = πi, ∀i. La importancia de esta matriz radica en el hecho de quela mayorıa de los estimadores de los parametros usuales y de sus varianzas sonfunciones de los elementos de esta matriz.

Ejemplo 6 Calcular las probabilidades de inclusion de segundo orden para cadauna de los elementos de la poblacion dados en los ejemplos 3 y 4

Solucion. Para el Ejemplo 3, las probabilidades de inclusion de segundoorden vienen dadas por

πij = 0, ∀i, j ∈ 1, 2, 3.

5

En el caso del Ejemplo 4, las probabilidades de inclusion de segundo orden vienendadas por

π12 = P (u1, u2) = 236

26

π13 = P (u1, u3) = 236

16

π23 = P (u2, u3) = 226

16.

Ejemplo 7 Para la poblacion Ω = u1, u2, u3 consideramos el siguiente pro-ceso de seleccion de muestras de tamano 2. Se extraen una primera unidad conprobabilidades iguales de seleccion entre las 3 unidades y si esta resulta ser u1

se extrae la segunda unidad entre las dos restantes tambien con probabilidadesiguales; pero si la primera no es u1, la segunda se extrae de las tres que com-ponen la poblacion asignando doble probabilidad a u1 que a cada una de lasotras dos. Hallar el espacio muestral y las probabilidades asociadas a cada unade las muestras. Obtener las probabilidades de primera inclusion para todas lasunidades que forman la poblacion y las probabilidades de inclusion de segundoorden.

Solucion. El conjunto de todas las muestras asociadas a este procedimientode muestreo vienen dadas por

S = (u1, u3), (u1, u2), (u2, u2), (u2, u1), (u2, u3), (u3, u1), (u3, u2), (u3, u3),

y las probabilidades asociadas a cada muestra vienen dadas por

P (u1, u3) = P (u1, u2) =16

P (u2, u2) = P (u2, u3) = P (u3, u2) = P (u3, u3) =112

P (u2, u1) = P (u3, u1) =212

.

Las probabilidades de primera inclusion para cada una de las unidades vienendadas como

π1 = P (u1, u3) + P (u1, u2) + P (u2, u1) + P (u3, u1) =812

π2 = P (u1, u2) + P (u2, u2) + P (u2, u3) + P (u3, u2) + P (u2, u1) =712

π3 = P (u1, u3) + P (u2, u3) + P (u3, u2) + P (u3, u3) + P (u3, u1) =712

.

En el caso de las probabilidades de segunda inclusion vienen dadas por

πij = P (ui, uj)

6

1.2. Estadısticos y estimadores

El objetivo fundamental de cualquier estudio de muestreo consiste en rea-lizar inferencias sobre la poblacion de interes. Esta inferencia se basa en lainformacion contenida en la muestra seleccionada de la poblacion utilizando unprocedimiento de muestreo determinado.

Recordemos que denotamos por Ω = u1, u2, . . . , uN al conjunto de Nunidades que forman la poblacion de estudio y por s = u1, u2, . . . , un alsubconjunto de n unidades que forman la muestra s, seleccionada del espaciomuestral Ω segun un determinado procedimiento de muestreo.

Generalmente, el investigador pretende la estimacion de ciertas caracterısti-cas de la poblacion y que dependen de la variable de estudio.

Llamamos X a la variable o caracterıstica de estudio medida sobre cadauno de los elementos de la poblacion X1, X2, . . . , XN donde Xi representa elvalor de la caracterıstica X sobre el elemento i-esimo de la poblacion. En la ma-yorıa de las ocasiones estamos interesados en ciertas funciones de los elementosX1, X2, . . . , XN como son

Total de la caracterıstica X sobre todos los elementos de la poblacionN∑

i=1

Xi,

Media aritmetica de los valores de X sobre todos los elementos de lapoblacion

1N

N∑i=1

Xi,

Estas funciones se denominan parametros poblacionales.

Definicion 1.1 Cualquier funcion de las observaciones de la variable objetivosobre los elementos de la poblacion se denomina parametro poblacional o sim-plemente parametro y lo representamos por θ.

A partir de los datos observados de la variable X sobre las unidades de lamuestra X1, X2, . . . , Xn, podemos construir funciones matematicas que vamosa denominar estadısticos y que nos van a ayudar a estimar el valor del parametropoblacional desconocido.

Definicion 1.2 Una funcion de las observaciones de la variable objetivo sobrelos elementos de una muestra se denomina estadıstico. Si este estadıstico seutiliza para estimar un parametro, se denomina estimador.

El valor particular que el estimador toma para una muestra dada se deno-mina estimacion o estimacion puntual. De manera formal, el estimador puedeexpresarse como

θ : S −→ R

s = (u1, u2, . . . , un) −→ θ(X1, X2, . . . , Xn) = t

7

Como ejemplo de estimadores que se utilizan normalmente para aproximarlos valores poblacionales dados anteriormente se utilizan el total de los valo-res o la media de los valores de una realizacion muestral que se expresarıanrespectivamente como

θ(u1, u2, . . . , un) = X =n∑

i=1

Xi

θ(u1, u2, . . . , un) = X =

n∑i=1

Xi

n.

Por lo tanto, las estimaciones son numeros que resumen informacion sobrela muestra y los parametros son numeros que resumen informacion sobre lapoblacion.

Ejemplo 8 Para medir la variable X nivel de precipitacion atmosferica en unadeterminada region disponemos de un marco de 4 zonas climaticas de la mismacuyos niveles de precipitacion actual son de 6, 4, 3, y 8 decenas de litros pormetro cuadrado. Se trata de estimar en decenas de litros por metro cuadrado elnivel actual medio de precipitacion atmosferica en la region extrayendo muestrasde tamano 2 sin reposicion y sin tener en cuenta el orden de colocacion de suselementos utilizando el estimador media aritmetica de la muestra. Se supone quetodas las zonas climaticas tienen la misma probabilidad de ser seleccionadas.Especificar el diseno muestral y las estimaciones correspondientes para cadamuestra.

Solucion. Para este ejemplo se tiene una poblacion de 4 unidades Ω =u1, u2, u3, u4 que corresponde a cada una de las regiones que conforma lapoblacion. Denotamos por X la variable “nivel de precipitacion” y sea Xi el valorque toma la variable X sobre la unidad ui con i = 1, 2, 3, 4. El procedimiento demuestreo considerado consiste en extraer muestras de tamano 2 sin reposicion ysin tener en cuenta el orden de los elementos. Por lo tanto, el diseno muestralpara este estudio de muestreo viene dado por (S, P (·)) donde

S = (u1, u2), (u1, u3), (u1, u4), (u2, u3), (u2, u4), (u3, u4),

y P (s) = 1/6 para todo s ∈ S. Para estimar el parametro poblacional

X =14

4∑i=1

Xi,

el problema considera el estimador media muestral

X =12

2∑i=1

Xi.

Los valores que toma este estimador sobre cada una de las muestras se representaen la siguiente tabla

8

S p(s) X(s) X(u1, u2) 1/6 (6,4) 5(u1, u3) 1/6 (6,3) 4.5(u1, u4) 1/6 (6,8) 7(u2, u3) 1/6 (4,3) 3.5(u2, u4) 1/6 (4,8) 6(u3, u4) 1/6 (3,8) 5.5

Las estimaciones basadas en observaciones muestrales difieren de muestraa muestra y tambien del valor del parametro poblacional. El estimador, porlo tanto, es una variable aleatoria. Esto nos lleva a introducir el concepto dedistribucion en el muestreo del estimador.

Definicion 1.3 Dada una poblacion y un procedimiento de muestro, fijado eltamano muestral, el conjunto de valores posibles de un estimador con su proba-bilidad de ocurrencia se denomina distribucion muestral de dicho estimador.

Un estimador puede representarse como la siguiente aplicacion

θ : S −→ R

(u1, u2, . . . , un) −→ θ(X1, X2, . . . , Xn) = t

Formalmente, la distribucion del estimador en el muestreo puede representarsecomo sigue. Sea

T = t ∈ R/∃s = (u1, u2, . . . , un) ∈ S; θ(X1, X2, . . . , Xn) = t.

El conjunto T ∈ R constituye el conjunto de valores del estimador. Ahora vamosa definir las probabilidades de que el estimador tome estas valores como sigue

PT (θ(X1, X2, . . . , Xn) = t)∑

s∈S/θ(s)=t

P (s).

Al par T, PT formado por el conjunto de todos los posibles valores delestimador y por las probabilidades de que el estimador tome esos valores se ledenomina distribucion del estimador en el muestreo.

Ejemplo 9 Considerando el Ejemplo 8, obtener la distribucion en el muestreodel estimador media muestral para ese procedimiento de muestreo.

Solucion. Los valores que toma el estimador son 5, 4.5, 7, 3.5, 6, 5.5 conla siguiente probabilidad

P [ X = t] =16, t = 5, 4.5, 7, 3.5, 6, 5.5.

9

Ejemplo 10 En una poblacion de N = 10 unidades se encuentran estas for-mando 4 subconjuntos A(i) i = 1, 2, 3, 4. Los valores de una caracterıstica Xmedida sobre los elementos de la poblacion se presenta en la siguiente tablaadjunta.

A(i) A(1) A(2) A(3) A(4)X 1, 2, 3 4, 6 9, 11 2, 2, 5

Se considera un procedimiento de muestreo que consiste en elegir cada subcon-junto A(i) con probabilidades proporcionales a sus tamanos. Se considera elestimador T1 “media aritmetica de los muestra” para estimar la media pobla-cional y se considera el estimador T2 “total de los elementos de la muestra” paraestimar el total poblacional. Especificar el diseno muestral y las distribucionesde probabilidades en el muestreo de los estimadores T1 y T2.

Solucion. En este estudio estadıstico, el procedimiento de muestreo consisteen elegir cada subconjunto con probabilidades proporcionales al tamano de cadasubconjunto. Luego la muestra seleccionada sera alguno de los subconjuntos A(i)con i = 1, 2, 3, 4, es decir

S = A(1), A(2), A(3), A(4),

estos subconjuntos no tienen el mismo tamano y la probabilidad de seleccionarcada una de estas muestras depende de ese tamano. Sea n(A(i)) el numero deelementos de A(i), es decir,

n(A(1)) = 3, n(A(2)) = 2, n(A(3)) = 2, n(A(4)) = 3.

La probabilidad de eleccion de cada uno de estos bloques es proporcional a sunumero de elementos, luego,

P (A(1)) = 3x, P (A(2)) = 2x, P (A(3)) = 2x, P (A(4)) = 3x,

y la suma de las probabilidades de cada una de las muestras es 1, entonces

4∑i=1

P (A(i)) = 1 ⇒ x =110

,

y finalmente

P (A(1)) =310

, P (A(2)) =210

, P (A(3)) =210

, P (A(4)) =310

.

Consideramos los estimadores T1 y T2, para cada una de las muestras obtenidasutilizando este procedimiento de muestreo el valor de este estimador es igual a

10

S P(s) X(s) T1 T2

A(1) 3/10 (1,2,3) 2 6A(2) 2/10 (4,6) 5 10A(3) 2/10 (9,11) 10 20A(4) 3/10 (2,2,5) 3 9

y la distribucion de probabilidad del estimador en el muestreo es igual a

P [T1 = 2] =310

, P [T1 = 5] =210

, P [T1 = 10] =210

, P [T1 = 3] =310

P [T2 = 6] =310

, P [T2 = 10] =210

, P [T2 = 20] =210

, P [T2 = 9] =310

.

Hasta ahora los parametros poblacionales que hemos considerado son

Total poblacional para la variable X, X,

θ = θ(X1, X2, . . . , XN ) =N∑

i=1

Xi

Media poblacional para la caracterıstica X,

θ = θ(X1, X2, . . . , XN ) =N∑

i=1

Xi/N

Sin embargo, estos parametros poblacionales tienen sentido definirlos si la va-riable de estudio X es cuantitativa (cuantificable numericamente) como puedeser el peso, la altura, ingresos, etc. Sin embargo, para variables que no seancuantitativas, sino que sean cualitativas, tambien pueden definirse parametrospoblacionales analogos. Para ello, al contrario de lo que sucede con variablescuantitativas, no medimos el valor que toma la variable X sobre cada unidad dela poblacion sino lo que se hace es analizar sobre cada unidad de la poblacionsu pertenencia o no a una determinada clase.

Si para cada unidad ui i = 1, 2, . . . , N de la poblacion definimos la carac-terıstica Ai que toma el valor 1 si la unidad ui pertenece a la clase A y quetoma el valor 0 si la unidad ui no pertenece a la clase A podemos definir el totalde elementos de la poblacion que pertenecen a la clase A (total de la clase) y laproporcion de elementos de la poblacion que pertenecen a la clase A (proporcionde clase) del siguiente modo:

Total de clase,

θ = θ(A1, A2, . . . , AN ) =N∑

i=1

Ai = A

11

Proporcion de clase,

θ = θ(A1, A2, . . . , AN ) =N∑

i=1

Ai/N = P.

Ejemplo 11 Consideramos una poblacion de 15 personas y queremos estimarel total de personas y la proporcion de personas que tienen los ojos verdes.Se alinean estas 15 personas y se les anota el color de sus ojos que vienenrepresentados por el siguiente vector

C,A,N, N,A, A, V, V, A, V,N, C, C, C, A,

donde C es el color de ojos castanos, A el color de ojos azules, N , color de ojosnegros y V el color de ojos verdes. Para realizar la estimacion seleccionamosmuestras de tamano 5 utilizando un muestreo sistematico y consideramos comoestimador del total de personas que tiene los ojos verdes en la poblacion el totalde personas en la muestra con los ojos verdes y como estimador de la proporcionde personas que tienen los ojos verdes en la poblacion, la proporcion de personasen la muestra que tienen los ojos verdes. Si todas las muestras son equiprobables,obtener el diseno muestral para este estudio y la distribucion de probabilidad delos estimadores.

Solucion. El diseno muestral y los valores que los estimadores toman encada muestra vienen dados en el siguiente cuadro

S p(s) X(s) A P

(u1, u4, u7, u10, u13) 1/3 (C,N,V,V,C) 2 2/5(u2, u5, u8, u11, u14) 1/3 (A,A,V,N,C) 1 1/5(u3, u6, u9, u12, u15) 1/3 (N,A,A,C,A) 0 0

Para cada parametro poblacional es posible construir numerosos estima-dores. Sin embargo es deseable que estos estimadores verifiquen una serie depropiedades. En la siguiente seccion analizaremos alguna de estas propiedades.

1.2.1. Propiedades de los estimadores

El estimador θ de un parametro poblacional θ es una variable aleatoria yaque, aunque depende unıvocamente de los valores de la muestra observados(X = xi), la eleccion de la muestra es un proceso aleatorio. De un buen estimadorse espera que verifique dos propiedades importantes. Una de estas propiedadesse denomina insesgadez. La otra propiedad es que los valores del estimador nose alejen del verdadero valor del parametro poblacional.

Antes de analizar estas propiedades, nos vamos a centrar en el analisis deciertas caracterısticas de centralizacion y dispersion de dichos estimadores, par-ticularmente su esperanza, su varianza y sus momentos ası como otras medidasrelativas a su precision.

12

Definicion 1.4 Sea θ un estimador del parametro poblacional θ. Se define laesperanza de dicho estimador como

E[θ] =∑t∈R

tP (θ = t).

Es decir, la esperanza matematica de un estimador coincide con la esperanzade la variable aleatoria θ.

Definicion 1.5 Sea θ un estimador del parametro poblacional θ. El estimadorθ es insesgado para el parametro poblacional θ si E[θ] = θ.

En el caso en el que E[θ] no es igual al valor del parametro poblacional θ, elestimador θ se dice que es sesgado con respecto a θ.

Definicion 1.6 Si para un estimador θ, E[θ] 6= θ, el estimador θ se denominaestimador sesgado de θ. La magnitud de este sesgo en θ viene dado por

B(θ) = E[θ]− θ.

El cociente

RB(θ) =B(θ)

θ,

se denomina sesgo relativo del estimador θ.

Ejemplo 12 Considerando el Ejemplo 11, calcular la esperanza de los estima-dores P y A.

Solucion. Tenemos que la distribucion de los estimadores P y A viene dadapor

P [A = 2] = P [A = 1] = P [A = 0] =13

P [P = 2/5] = P [P = 1/5] = P [P = 0] =13,

luego la esperanza para cada uno de estos estimadores es igual a

E[A] = 1, E[P ] =15.

Los valores poblacionales en este caso son A = 3 y P = 1/5 de manera queel estimador P es insesgado y el estimador A es sesgado. El sesgo de estosestimadores es igual a

B(P ) = 0, B(A) = E[A]−A = 1− 3 = −2.

Los sesgos relativos para ambos estimadores vienen dados por

RB(P ) = 0, RB(A) = −23.

Ademas de la insesgadez, una propiedad importante que deben de verificarlos estimadores es que tengan una varianza pequena.

13

Definicion 1.7 Sea θ un estimador del parametro poblacional θ. Se define lavarianza de θ, y se denota por V ar(θ), a la siguiente expresion

V ar(θ) = E(θ − E(θ))2

=∑t∈R

(t− E(θ))2P (θ = t)

= E(θ2)− (E(θ))2.

Es decir, la varianza es una medida que cuantifica la concentracion de lasestimaciones alrededor de su valor medio.

Definicion 1.8 Sea θ un estimador del parametro poblacional θ. Se define elerror de muestreo o error de estimacion del estimador θ como su desviacion tıpica,es decir, la raız cuadrada de su varianza. Su expresion es la siguiente

σ(θ) = +√

V (θ).

Ejemplo 13 Obtener los errores de estimacion asociados a los estimadores Py A del ejercicio 11.

Solucion. La varianza para el estimador A viene dado por

V ar(A) =∑

x

x2P [A = x]− (E[A])2

= 22 13

+ 12 13− 1

=23

luego el error de estimacion asociado a A viene dado por

σ(A) =√

2/3 = 0,8165.

En el caso del estimador P , su varianza viene dada por

V ar(P ) =∑

x

x2P [P = x]− (E[P ])2

=(

25

)2 13

+(

15

)2 13−(

15

)2

=275

,

luego el error de estimacion asociado a P viene dado por

σ(P ) =√

2/75 = 0,1633.

En numerosas ocasiones, la varianza y el error del estimador θ no son practi-cos debido a que sus valores dependen de los valores de la variable en estudio

14

para todos los elementos de la poblacion y generalmente estos datos no estandisponibles. Para tener una idea de la magnitud del error involucrado en losvalores de θ, necesitamos estimar V (θ) y σ(θ) a partir de los datos muestrales.Sus estimadores se denotan por V (θ) y σ(θ). El termino σ(θ), denominado esti-macion del error estandar del estimador θ, es la raız cuadrada positiva de V (θ).De este modo,

σ(θ) = +√

V (θ).

Definicion 1.9 Sea θ un estimador del parametro poblacional θ. Se define elerror relativo de muestreo del estimador θ como el cociente entre su desviaciontıpica y su valor esperado y la expresion viene dada por

CV (θ) =σ(θ)

E(θ).

A diferencia del error de estimacion o error de muestreo, es una medida adi-mensional lo que nos va a permitir comparar estimadores entre sı sin tener encuenta las unidades de medida.

Ejemplo 14 Obtener los errores relativos de estimacion asociados a los esti-madores P y A del ejercicio 11.

Solucion. En este caso,

CV (A) =σ(A)

E[A]= 0,8165, CV (P ) =

σ(P )

E[P ]= 0,8165

En el caso en que el estimador sea sesgado, se utiliza el denominado comoerror cuadratico medio para medir la variabilidad del estimador.

Definicion 1.10 Sea θ un estimador del parametro poblacional θ. El errorcuadratico medio mide la divergencia de los valores del estimador con respectoal verdadero valor del parametro, es decir,

ECM(θ) = E[(θ − θ)2]

=∑t∈R

(t− θ)2P (θ = t).

Ejemplo 15 Obtener el error cuadratico medio asociados a los estimadores Py A del ejercicio 11.

Solucion. En el caso del estimador A, se tiene que

ECM(A) = E[(A−A)2]

= (2− 3)213

+ (1− 3)213

+ (0− 3)213

=143

.

15

Para el estimador P ,

ECM(P ) = E[(P − P )2]

=(

25− 1

5

)2 13

+(

15− 1

5

)2 13

+(

0− 15

)2 13

=275

.

La raız cuadrada positiva del error cuadratico medio se denomina raız delerror cuadratico medio. El error cuadratico medio y la varianza muestral serelacionan mediante la siguiente expresion

ECM(θ) = σ(θ)2 + B(θ)2,

donde B(θ) es el sesgo del estimador θ. De este modo, para un estimador inses-gado, el error cuadratico medio y la varianza de un estimador son equivalentes.

Ejemplo 16 Comprobar la relacion existente entre el error cuadratico medio,la varianza y el sesgo para los estimadores A y P .

Solucion. Como el estimador P es insesgado, se tiene que su varianza coincidecon su error cuadratico medio, es decir,

ECM(P ) = σ2(P ).

El estimador A es sesgado, luego

ECM(A) = σ2(A) + B(A).

La introduccion del error cuadratico medio, nos permite hablar de eficienciarelativa de un parametro.

Definicion 1.11 Si θ1 y θ2 son dos estimadores del estimador θ, la eficienciarelativa del estimador θ2 con respecto al estimador θ1, se define como

ER =ECM(θ1)

ECM(θ2

. (1.2)

Ejemplo 17 Se tiene una urna con tres bolas numerados con los valores1, 2, 3 respectivamente. La probabilidad de obtener cada una de las bolas esla misma

1. Determinar todas las posibles muestras de tamano 2 que se pueden obtenercon reemplazo y teniendo en cuenta la ordenacion de los elementos en lamuestra.

2. Determinar la distribucion en el muestreo de la variable media muestral.

16

3. Calcular la esperanza, el sesgo, la varianza y el error cuadratico medio dela media muestral.

Ejemplo 18 Para medir la variable “nivel de concentracion de sustancias toxi-cas en suspension” en una determinada zona industrial, se dispone de un marcode 4 zonas industriales cuyos niveles de concentracion de sustancias toxicas ensuspension actuales son 6, 4, 3 y 8 gramos/m3. Estimar el nivel medio de con-centracion de sustancias toxicas en suspension extrayendo muestras de tamano2 sin reposicion y sin tener en cuenta el orden de los elementos de la mues-tra. Considerando como posibles estimadores para este parametro las mediasaritmetica, armonica y geometrica se pide

Especificar el espacio muestral, las probabilidades asociadas a cada muestray la distribucion en el muestreo de los tres estimadores.

Identificar los estimadores insesgados y calcular el error cuadratico medioasociado a cada uno y justificar que estimador es el mas adecuado paraestimar el nivel medio de concentracion de sustancias toxicas en suspen-sion.

Ejemplo 19 Crespo 1 Para la poblacion A = A1, A2, A3, A4, A5 considera-mos el siguiente proceso de seleccion de muestras de tamano 3. De una urnacon 3 bolas numeradas del 1 al 3 se extraen al azar y sin reposicion 2 bolas. Acontinuacion de otra urna con 2 bolas numeradas con el 4 y el 5 se extrae unabola. Se pide:

Espacio muestral asociado a este experimento de muestreo y probabilida-des de las muestras. Consideremos el estimador por analogıa θ “suma delos subındices de unidades de las muestras para estimar la caracterısti-ca poblacional” para estimar la caracterıstica poblacional θ “suma de lossubındices de las unidades de la poblacion”. Calcular la precision del esti-mador.

Se considera el estimador por analogıa θ “media de los subındices de uni-dades de las muestras” para estimar la caracterıstica poblacional θ “mediade los subındices de las unidades de la poblacion”. Calcular la precision deeste estimador, ¿que estimador es mejor?

1.3. Estimacion por intervalos de confianza

Hasta ahora hemos utilizado la estimacion puntual para estimar el valor deun parametro desconocido. Es decir, hemos estimado el valor del parametro po-blacional θ mediante un unico valor obtenido de los datos de la muestra. En estaseccion analizaremos otro tipo de estimacion que denominaremos estimacion porintervalos de confianza. Una estimacion por intervalos de confianza es una reglao procedimiento que nos permite calcular, basados en los datos de la muestra,

17

un intervalo dentro del cual se espera que este el parametro poblacional con unadeterminada probabilidad.

Para hallar los intervalos de confianza de un parametro poblacional θ separtira de un estimador puntual θ de dicho parametro, generalmente insesgado;a partir de el se construira el intervalo (θ− ε, θ+ ε), de amplitud 2ε, imponiendoque la probabilidad de que el parametro poblacional desconocido θ se encuentreen dicho intervalo sea 1− α con 0 < α < 1.

P [θ − ε ≤ θ ≤ θ + ε] = 1− α. (1.3)

Al termino ε se le conoce como termino de error para dicho intervalo deconfianza y nos indica el margen de error o precision de la estimacion de θ. Ala diferencia 1− α se le denomina nivel de confianza.

Los valores mas utilizados de α son 0.1, 0.05 y 0.01 lo que corresponde conniveles de confianza (o coeficiente de confianza) del 90%, 95 % y 99% respecti-vamente.

El termino nivel de confianza, por ejemplo 89 %, se refiere a que si considera-mos un numero elevado de muestras y para cada una de ellas construimos dichointervalo de confianza para un parametro poblacional desconocido θ, tendremosque θ se encuentra en al menos el 89 % de los intervalos construidos.

1.3.1. Intervalos de confianza para estimadores insesgados

Se trata de estimar el parametro poblacional θ mediante un intervalo deconfianza basado en el estimador θ insesgado para θ (E(θ)) = θ). Para estima-dores insesgados es necesario distinguir entre el caso en que la distribucion delestimador pueda aproximarse mediante una distribucion normal y en el caso enque dicha distribucion no puede asegurarse que sea normal.

El estimador θ tiene una distribucion normal

Supongamos queθ −→ N(E(θ), V ar(θ)).

En este caso, se tiene que

Z =θ − E[θ]

σ(θ)=

θ − θ

σ(θ),

se distribuye como una N(0, 1). La varianza del estimador puede conocerse dealgun estudio anterior o de una muestra piloto. Por lo tanto,

P [−z1−α/2 ≤ Z ≤ z1−α/2] = 1− α,

donde z1−α/2 = F−1N(0,1)(1−α/2) donde zu denota el cuantil u de la distribucion

normal estandar, es decir, el valor que verifica

P (Z ≤ zu) = u,

18

o dicho de otra manera, el valor que deja a su izquierda un area igual a u debajode la curva de la densidad normal estandar. Por lo tanto,

P

[−z1−α/2 ≤

θ − E[θ]

σ(θ)≤ z1−α/2

]= 1− α,

y por ser θ un estimador insesgado del parametro poblacional θ, se tiene que

P

[−z1−α/2 ≤

θ − θ

σ(θ)≤ z1−α/2

]= 1− α.

En este caso, un intervalo de confianza para un coeficiente de confianza dado1− α viene dado por

[θ − z1−α/2σ(θ), θ + z1−α/2σ(θ)].

En particular usaremos de manera repetida los cuantiles siguientes: z0,95, z0,975

y z0,995. Estos cuantiles se utilizaran para calcular intervalos de confianza conun nivel de confianza al 90 %, al 95% y al 99 % respectivamente. Mirando en latabla de la normal, encontramos que z0,95 = 1,64, z0,975 = 1,96 y z0,995 = 2,56.Es decir, los intervalos

[θ − 1,64σ(θ), θ + 1,64σ(θ)], [θ − 1,96σ(θ), θ + 1,96σ(θ)]

[θ − 2,56σ(θ), θ + 2,56σ(θ)],

representan los intervalos de confianza con niveles de confianza de 90%, 95 % y99 % respectivamente para el estimador θ.

Como hemos dicho, el intervalo de confianza al 100(1− α) % para θ es

[θ − z1−α/2σ(θ), θ + z1−α/2σ(θ)],

o bien se suele expresar como

θ ± z1−α/2σ(θ).

Al termino z1−α/2σ(θ) se le denomina termino de error. Notar que los extremosde este intervalo dependen de la muestra escogida.

Comentarios importantes:

La construccion del intervalo de confianza esta basada en la hipotesis deque la distribucion de θ es normal. Sin embargo, si la distribucion de θ no esnormal, el intervalo no es valido, es decir, que no podemos garantizar quela confianza especificada sea cierta. Sin embargo, si la muestra es grande,posibilita que los intervalos sean aproximadamente validos (la confianza nosera exacta pero casi). ¿A partir de cuantas observaciones consideraremosuna muestra como grande? Se suele considerar n ≥ 30.

19

Es usual que no se conozca el valor de σ(θ) porque en sus calculos in-tervienen datos poblacionales no conocidos, pero se utiliza en su lugar suestimacion σ(θ) que depende unicamente de datos muestrales.

Ejemplo 20 Para el ejemplo 17, construir un intervalo de confianza al 95 %para el estimador media aritmetica suponiendo que dicho estimador sigue unadistribucion normal.

Solucion. En este caso, la esperanza del estimador E[ X] y la varianza dedicho estimador σ2( X) vienen dados por

E[ X] = 2, σ2( X) =13, σ( X) = 0,5774.

Luego, el intervalo de confianza para el estimador X basado en el estimador Xviene dado por

( X − z1−α/2σ( X), X + z1−α/2σ( X)),

luego el intervalo de confianza resulta ser

( X − 1,96 · 0,5774, X + 1,96 · 0,5774).

Para cada una de las muestras obtenidas se obtienen diferentes intervalos deconfianza. Por ejemplo, consideramos la muestra formada por los elementos(u1, u1), de manera que para esa muestra particular el estimador media muestrales igual a X = 1 y el intervalo de confianza es

(1− 1,96 · 0,5774, 1 + 1,96 · 0,5774) = (−0,1317, 2,1317).

Para la muestra formada por los elementos (u1, u2), el intervalo de confianza es

(1,5− 1,96 · 0,5774, 1,5 + 1,96 · 0,5774) = (0,3683, 2,6317).

Si realmente es dudoso que el estimador θ siga una distribucion normal,puede utilizarse la distribucion t de Student con n-1 grados de libertad paracalcular el intervalo de confianza para θ. En este caso el intervalo de confianzaviene dado por

[θ − tn−1,1−α/2σ(θ), θ + tn−1,1−α/2σ(θ)],

donde t1−α/2 = F−1tn−1

(1− α/2).

Ejemplo 21 Para el ejemplo 17, construir un intervalo de confianza al 95 %para el estimador media aritmetica de la media poblacional suponiendo que dichoestimador no sigue una distribucion normal.

20

Solucion. En este caso, el intervalo de confianza viene dado por

( X − tn−1,1−α/2σ( X), X + tn−1,1−α/2σ( X)),

luego el intervalo de confianza resulta ser

( X − 12,7062·0,5774, X + 12,7062·0,5774).

Para cada una de las muestras obtenidas se obtienen diferentes intervalos deconfianza. Por ejemplo, consideramos la muestra formada por los elementos(u1, u1), de manera que para esa muestra particular el estimador media muestrales igual a X = 1 y el intervalo de confianza es

(1− 12,7062·0,5774, 1 + 12,7062·0,5774) = (−6,3366, 8,3366).

Para la muestra formada por los elementos (u1, u2), el intervalo de confianza es

(1,5− 12,7062·0,5774, 1,5 + 12,7062·0,5774) = (−5,8366, 8,8366).

El estimador θ no es normal

En el caso en el que la distribucion del estimador θ no siga una distribucionnormal, puede encontrarse un intervalo de confianza utilizando la desigualdadde Chebyshev. Esta desigualdad afirma que para cualquier variable aleatoria Xcon media y varianza finita, se verifica la siguiente propiedad

P|X − E(X)| ≤ Kσ(X) ≥ 1− 1K2

, ∀K ≥ 0.

Si tomamos como variable aleatoria el estimador θ, y si ademas θ es un estimadorinsesgado para el parametro poblacional θ, se tiene que

P

[|θ − θ| ≤ K

√V (θ)

]= P

[θ −K

√V (θ) ≤ θ ≤ θ + K

√V (θ)

]≥ 1− 1

K2

Para un nivel de confianza 1 − α deseado, basta con considerar K =√

1/α ypor lo tanto el intervalo de confianza viene dado por(

θ − σ(θ)√α

, θ +σ(θ)√

α

)

Este intervalo suele ser mas ancho que el obtenido cuando la distribucion deθ es normal. A medida que θ se aleja mas de la normalidad, la anchura de esteintervalo es mucho mayor respecto del obtenido para normalidad. Ya sabemosque una estimacion por intervalos es tanto mejor cuanto mas reducido sea elintervalo de confianza correspondiente

21

Ejemplo 22 Para el ejemplo 17, construir un intervalo de confianza al 95 %para el estimador media aritmetica utilizando la desigualdad de Chebyshev.

Solucion. En este caso particular, el intervalo de confianza al 95 % vienedado por (

θ − σ(θ)√α

, θ +σ(θ)√

α

),

luego utilizando los datos del problema, el intervalo de confianza es igual a(θ − 0,5774√

0,05, θ +

0,5774√0,05

).

Si utilizamos la muestra (u1, u1), el intervalo de confianza resulta ser(1− 0,5774√

0,05, 1 +

0,5774√0,05

)= (−1,5822, 3,5822).

1.3.2. Intervalos de confianza en estimadores sesgados

Ahora vamos a considerar el caso en que el estimador θ es sesgado para θ, esdecir, existe un sesgo B(θ) = E(θ)− θ. Ahora partimos de que, por el TeoremaCentral del Lımite, y para un tamano de muestra suficientemente grande, setiene que

θ − E(θ)

σ(θ)→ N(0, 1).

Por lo tanto, para un nivel α de significacion podemos calcular

zα/2 = F−1N(0,1)(1− α/2),

tal que

P

−zα/2 ≤

θ − E(θ)

σ(θ)≤ zα/2

= 1− α.

Ahora, como E(θ) = B(θ) + θ, se tiene que

P

−zα/2 ≤

θ −B(θ)− θ

σ(θ)≤ zα/2

= 1− α,

de esta manera resulta que

P

−zα/2 ≤

θ − θ

σ(θ)− B(θ)

σ(θ)≤ zα/2

= 1− α.

En caso de que ∣∣∣∣∣B(θ)

σ(θ)

∣∣∣∣∣ < 110

, (1.4)

22

ya sabemos que la influencia del sesgo es despreciable, con lo que el intervalode confianza es el mismo que para el caso del estimador insesgado. Pero si nose cumple (1.4), el sesgo de θ influye en el intervalo de confianza. Operando enlos conjuntos, se tiene que

−σ(θ)zα/2 ≤ θ −B(θ)− θ ≤ σ(θ)zα/2

= −σ(θ)zα/2 − θ + B(θ) ≤ −θ ≤ σ(θ)zα/2 − θ + B(θ),

de manera que el conjunto anterior puede expresarse como

θ −B(θ)− zα/2σ(θ) ≤ θ ≤ θ −B(θ) + zα/2σ(θ),

con lo que el intervalo de confianza para θ basado en el estimador θ en presenciadel sesgo no despreciable B(θ) = E(θ)− θ es el siguiente

[θ −B(θ)− zα/2σ(θ), θ −B(θ) + zα/2σ(θ)]

El intervalo de confianza para θ basado en el estimador θ en presencia delsesgo no despreciable es el siguiente

[θ − z1−α/2σ(θ)− |B(θ)|, θ + z1−α/2σ(θ)− |B(θ)|].

1.4. Determinacion de estimadores insesgados

Supongamos que tenemos definida una caracterıstica X en una poblacionΩ = u1, u2, . . . , uN que toma el valor numerico Xi sobre la unidad ui,i = 1, 2, . . . , N dando lugar al conjunto de valores X1, X2, . . . , XN. Con-sideramos ahora una cierta funcion θ de los N valores Xi que suele de-nominarse parametro poblacional. Seleccionamos una muestra s de unidadess = u1, u2, . . . , un mediante un procedimiento de muestreo dado y considera-mos los valores X1, X2, . . . , Xn que toma la caracterıstica X en estudio sobrelos elementos de la muestra. A partir de estos valores estimamos puntualmenteel parametro poblacional θ mediante un estimador θ, con θ(s) basada en losvalores Xi i = 1, 2, . . . , n que toma la caracterıstica X sobre las unidades de lamuestra s.

Los parametros poblacionales que trataremos en este curso son los siguientes:

Total poblacional

X = θ(X1, X2, . . . , XN ) =N∑

i=1

Xi

Media poblacional

X = θ(X1, X2, . . . , XN ) =N∑

i=1

Xi/N

23

Total de clase

A = θ(A1, A2, . . . , AN ) =N∑

i=1

Ai

Proporcion de clase

P = θ(A1, A2, . . . , AN ) =N∑

i=1

Ai/N

Vemos que en general, un parametro poblacional θ puede expresarse comouna suma de elementos Yi

θ =N∑

i=1

Yi,

dondeYi = Xi para el total poblacionalYi = Xi/N para la media poblacionalYi = Ai para el total de claseYi = Ai/N para la proporcion de clase.

Ahora bien, ¿Que forma debe de tener el estimador? En general, se ha de-mostrado que las mejores propiedades de estos estimadores suelen presentarlaslos estimadores lineales insesgados en los valores de la muestra s es decir,

θ =n∑

i=1

αiYi, (1.5)

y dependiendo de que el muestreo a realizar sea con reposicion o sin reposicionobtendremos unos valores determinados αi. A los valores αi se les denominapesos o factores de elevacion.

Consideremos una poblacion de tamano N y una muestra s de tamano n.En este esquema de seleccion, cada unidad ui de la poblacion puede pertenecera la muestra una sola vez. Ahora bien, para cada i = 1, 2, . . . , N consideremosla variable aleatoria ei definida de la siguiente forma

ei =

1 si ui ∈ s con probabilidad πi

0 si ui /∈ s con probabilidad 1− πi

De esta forma estamos considerando una variable aleatoria definida en funcionde la probabilidad πi de que la i-esima unidad de la poblacion pertenezca a lamuestra. La varianza y la esperanza de ei viene dada por

E[ei] = πi, V ar[ei] = πi(1− πi).

Utilizando el estimador θ dado en (1.5), para que θ sea un estimador inses-gado de θ, se tiene que cumplir que

E

(n∑

i=1

αiYi

)= E

(N∑

i=1

αiYiei

)=

N∑i=1

αiYiπi,

24

y por tanto los valores αi que determinan la expresion del estimador se obtienende la siguiente igualdad

N∑i=1

αiYiπi =N∑

i=1

Yi ⇐⇒ 1 = αiπi ⇐⇒ αi =1πi

, ∀i,

donde πi es la probabilidad de que un individuo i este en la muestra de tamanon y por tanto la expresion del estimador lineal e insesgado para θ es

θHT =n∑

i=1

1πi

Yi. (1.6)

Este tipo de estimadores se conoce como estimadores de Horvitz-Thompson yfueron propuestos en 1952. Aplicamos estos estimadores de Horvitz-Thompsona los parametros poblacionales θ

θ =N∑

i=1

Xi ⇒ θHT =n∑

i=1

Xi

πi

θ =N∑

i=1

Xi

N⇒ θHT =

n∑i=1

Xi

Nπi

θ =N∑

i=1

Ai ⇒ θHT =n∑

i=1

Ai

πi

θ =N∑

i=1

Ai

N⇒ θHT =

n∑i=1

Ai

Nπi

Ahora, para cada i, j = 1, 2, . . . , N con i 6= j consideramos la variable alea-toria producto eiej , es decir,

eiej =

1 si (ui, uj) ∈ s con probabilidad πij

0 si (ui, uj) /∈ s con probabilidad 1− πij

de manera queE[eiej ] = πij , Cov[eiej ] = πij − πiπj .

En este caso, vamos a obtener la varianza del estimador dado en (1.6).

V ar(θHT ) = V

(n∑

i=1

1πi

Yi

)= V

(N∑

i=1

1πi

Yiei

)

=N∑

i=1

V

(Yi

πiei

)+ 2

N∑i=1

N∑j>i

Cov

(Yi

πiei,

Yj

πjej

)

=N∑

i=1

Y 2i

π2i

V (ei) + 2N∑

i=1

N∑j>i

Yi

πi

Yj

πjCov(ei, ej)

=N∑

i=1

Y 2i

πi(1− πi) + 2

N∑i=1

N∑j>i

Yi

πi

Yj

πj(πij − πiπj)

25

Como la expresion de la varianza del estimador de Horvitz-Thompson extien-de sus ındices hasta el valor N , y dados que los unicos datos seran generalmentelos muestrales, sera necesario estimar dicha varianza de forma que dependa uni-camente de los valores muestrales (ındices de la suma hasta n). La raız cuadradade esta estimacion de la varianza se utiliza como error de muestreo del estimadorde Horvitz-Thompson. Un estimador insesgado para V (θHT ) viene dada por

V (θHT ) =n∑

i=1

Y 2i

π2i

(1− πi) + 2n∑

i=1

n∑j>i

Yi

πi

Yj

πj

(πij − πiπj)πij

(1.7)

Para comprobar la insesgadez del estimador dado en (1.7), es necesario probarque

E[V (θHT )] = V (θHT ).

Para ello, se tiene que

E[V (θHT )] = E

(n∑

i=1

Y 2i

π2i

(1− πi)

)+ 2E

n∑i=1

n∑j>i

Yi

πi

Yj

πj

(πij − πiπj)πij

= E

(N∑

i=1

Y 2i

π2i

(1− πi)ei

)+ 2E

N∑i=1

N∑j>i

Yi

πi

Yj

πj

(πij − πiπj)πij

eiej

=

N∑i=1

Y 2i

πi(1− πi) + 2

N∑i=1

N∑j>i

Yi

πi

Yj

πj(πij − πiπj).

Luego V (θHT ) es un estimador insesgado para V (θHT ).

Ejemplo 23 Consideramos un procedimiento de muestreo que consiste en obte-ner la muestra unidad a unidad de forma aleatoria sin reposicion a la poblacionde las unidades previamente seleccionadas, teniendo presente ademas que el or-den de colocacion de los elementos en la muestra no interviene, es decir, mues-tras con los mismos elementos colocados en distinto orden se consideran iguales.Calcular el estimador de Horvitz-Thompson para los parametros poblacionalestotal poblacional, media poblacional, total de clase y proporcion de clase.

26