Cuando deseamos estudiar una determinada característica de una
población concreta, ya sea una cualidad, una enfermedad, etc, no nos es
posible trabajar con toda esa población (no tendríamos ni tiempo ni
recursos económicos suficientes para la recogida de datos). Por ejemplo,
si queremos estudiar la relación entre tabaco y cáncer de pulmón, no
podemos estudiar a todos los fumadores de un país para hacer un estudio
prospectivo, ni tampoco estarán a nuestra disposición todos los
pacientes con cáncer de pulmón para hacer un estudio retrospectivo. Es
por ello necesario tomar una muestra que sea representativa de la
población que queremos estudiar.
No es el momento de estudiar cómo debe ser la recogida de esta muestra, pero valga aquí decir que precisaremos tomar una muestra aleatoria, mediante una técnica u otra, pues la única forma por la cual nos garantizaremos que la muestra que tomemos será representativa de la población que queremos estudiar y evitaremos la presencia de sesgos de selección. Podremos entender pues, que la muestra que vamos a seleccionar para nuestro estudio no es la única muestra que podríamos tomar, y que si repitiéramos la selección de la muestra una y otra vez, en cada ocasión la misma tendría una composición diferente de indivíduos. De la misma forma, si realizáramos en cada una de estas muestras la medición de una característica (porcentaje del color de ojos azules, presencia de tabaquismo, media de edad, etc), ésta no nos daría el mismo resultado. Sabemos así que al tomar una muestra de la población objeto de estudio y realizar una medición estamos cometiendo un error (llamado error aleatorio), cuya magnitud dependerá, lógicamente, del tamaño de la muestra: a mayor tamaño, menor error. No podemos, sin embargo, caer en la tentación de pensar "entonces, mientras más mejor"; existen técnicas para saber el número mínimo de una muestra para realizar un estudio según un planteamiento previo a la realización del mismo.
La inferencia estadística es el conjunto de técnicas estadísticas que nos permiten llegar a conclusiones sobre una población a partir de una muestra de dicha población.
El objetivo de las técnicas de inferencia estadística es contrastar (esto es, decidir o evaluar), dos hipótesis acerca del parámetro de interés. Estas dos hipótesis son la hipótesis nula (llamada H0) y la hipótesis alternativa (llamada H1).
En el momento de la decisión podemos cometer dos tipos de error. Podemos rechazar la hipótesis nula, siendo esa hipótesis la verdadera (error tipo I o error α), o bien podemos rechazar la hipótesis alternativa siendo la misma verdadera (error tipo II o error β). La probabilidad complementaria del error tipo II (1 - β) es el llamado poder del contraste.
Se debe colocar como hipótesis nula aquélla que no interesa al investigador, mientras que la hipótesis alternativa será la que el investigador quiere demostrar. Esto es así pues rechazar la hipótesis nula es lo mismo que decir que hemos llegado a tener pruebas de que la misma es falsa. Por el contrario no poder rechazar la hipótesis nula es lo mismo que decir que no tenemos pruebas suficientes como para llegar a saber que la hipótesis nula es falsa, y por tanto, tampoco tenemos la suficiente certeza de que dicha hipótesis sea cierta.
Supongamos que deseamos conocer algún parámetro poblacional, por ejemplo la edad media de una población. En el contexto de la estadística clásica (frecuentista), podríamos extraer al azar múltiples y diferentes muestras representativas de forma sucesiva y determinar el estimador más apropiado en cada una de esas muestras. Para este caso, el estimador más apropiado para la media poblacional es la media muestral. Cada una de las medias de estas muestras tomarían un determinado valor diferente para cada muestra (o lo que es lo mismo, el estimador es tratado como una variable en sí mismo). Suponiendo la normalidad de la variable "edad", los valores que irían tomando estas medias muestrales se distribuirían según una curva de Gauss (algunos de estos valores se darían con mayor frecuencia y otros con menor frecuencia). El área bajo dicha curva de distribución de frecuencias del estimador es la probabilidad total, es decir, la unidad.
Por tanto, los valores que podrían tomar estas medias muestrales se concentrarían en la zona central de la curva de distribución (es decir, serían los valores más frecuentes del estimador)
Nos centraremos ahora en el extremo derecho de esta curva
Cualquier valor que tome la media muestral dejará por encima de él un área bajo la curva de un determinado valor. Supongamos que tenemos un valor X0 que deja el 95% del área por debajo y el 5% del área por encima.
Esto es lo mismo que decir que cualquier valor de media muestral por encima de X0 es un valor “muy raro” de la distribución (lo encontraríamos con una frecuencia inferior al 5%). Supongamos también que deseamos contrastar nuestras hipótesis nula y alternativa con un error máximo del 5% (error α o error tipo I). Entonces, X0 sería ese valor crítico tal que si obtenemos una muestra y efectuamos nuestro experimento (medición de la media) bajo la perspectiva de la hipótesis nula, el obtener cualquier valor X2 de media por encima de X0 nos llevaría al rechazo de la hipótesis nula y la aceptación de la hipótesis alternativa.
Así mismo, si realizada la experiencia obtuviéramos un valor X1 menor que X0, o lo que es lo mismo, un área bajo la curva para X1 mayor que α, esto nos llevaría a no rechazar la hipótesis nula.
Este valor de probabilidad, de área bajo la curva por encima de X1, es lo que llamamos valor de p. Es decir, p es la probabilidad de que un valor tan extremo o más que el obtenido de nuestros datos pueda observarse en la población si la H0 es cierta.
Un resumen de lo que hemos hecho hasta ahora se aprecia en la siguiente figura
Tenemos una población de la que desconocemos un parámetro que nos interesa conocer; para ello extraemos al azar una muestra representativa de la misma; a partir de esta muestra obtenemos el estimador muestral más apropiado para el parámetro poblacional que se desconoce; planteamos la hipótesis de trabajo que deseamos contrastar, y bajo un modelo de probabilidades en el que el parámetro poblacional es considerado constante y el estimador (datos muestrales) es considerado variable determinamos un valor de p; con el resultado de p realizamos conclusiones acerca de nuestra hipótesis, es decir, acerca del parámetro poblacional.
Dado que no es posible dar un valor exacto de los parámetros poblacionales desconocidos, sino sólo una aproximación a los mismos a través de las muestras que extraemos de la población, siempre será más adecuado proporcionar intervalos de confianza que estimaciones puntuales. Un intervalo de confianza al 95% es un rango de valores tal que, si repitiéramos infinidad de veces el experimento, el 95% de las estimaciones del parámetro poblacional estarían contenidas en él. Para la construcción de intervalos de confianza utilizamos nuestra estimación y el error estándar del estimador que hayamos empleado. El error estándar es el grado de error que toleramos en nuestra estimación. Estos son algunos errores estándares frecuentemente usados:
Continuemos construyendo nuestro intervalo de confianza. Éste debe contener al menos el 95% de las posibles estimaciones (p < 0.05). Si nuestra muestra es sufiencientemente grande y nuestro estimador sigue una distribución normal, sumaremos y restaremos a nuestra estimación puntual 1.96 veces el error estándar del estimador (en una curna de Gauss con media 0 y desviación típica 1 el 95% de su área bajo la curva se encuentra entre -1.96 y +1.96). Si siguiera una distribución t de Student (por ejemplo para medias de muestras de muestras de menos de 30 indivíduos), nuestro intervalo de confianza sería la estimación puntual más y menos tn-1;0.05 veces el error estándar (siendo tn-1;0.05 el valor de una t de Student en una muestra de n indivíduos para un valor de p de 0.05).
Pues bien, contrastar nuestra hipótesis nula y alternativa no será más que comprobar si nuestro intervalo de confianza incluye o no el valor que nos interese.
Observemos la siguiente figura. En ella vemos un ejemplo en el que se contrasta el valor del peso de los recién nacidos en una población. El valor que se desea contrastar es 3.2 Kg. Nuestra estimación realizada a partir de una muestra de dicha población es 2.8 Kg. Como ya sabemos, el error estándar de la media será tanto mayor cuanto menor sea el tamaño muestral. En la figura vemos como para dos tamaños muestrales diferentes nuestro intervalo de confianza varía en su amplitud, y mientras que con el inferior (n = 20), contiene el valor que se está contrastando, lo que no llevaría a no rechazar la hipótesis nula (p > 0.05), con el intervalo superior (n = 100), el valor contrastado está fuera del intervalo de confianza, lo que nos llevaría al rechazo de la hipótesis nula (p < 0.05).
Por lo tanto, una característica de p es que su valor depende del tamaño de la muestra a partir de la cual se determina: a mayor tamaño muestral mayor es la probabilidad de encontrar diferencias significativas entre los grupos que se comparan. De ahí la importancia de que en todo estudio deba realizarse el cálculo del tamaño muestral necesario en base a las caractrísticas de dicho estudio con anterioridad a la recogida y el análisis de los datos.
No es el momento de estudiar cómo debe ser la recogida de esta muestra, pero valga aquí decir que precisaremos tomar una muestra aleatoria, mediante una técnica u otra, pues la única forma por la cual nos garantizaremos que la muestra que tomemos será representativa de la población que queremos estudiar y evitaremos la presencia de sesgos de selección. Podremos entender pues, que la muestra que vamos a seleccionar para nuestro estudio no es la única muestra que podríamos tomar, y que si repitiéramos la selección de la muestra una y otra vez, en cada ocasión la misma tendría una composición diferente de indivíduos. De la misma forma, si realizáramos en cada una de estas muestras la medición de una característica (porcentaje del color de ojos azules, presencia de tabaquismo, media de edad, etc), ésta no nos daría el mismo resultado. Sabemos así que al tomar una muestra de la población objeto de estudio y realizar una medición estamos cometiendo un error (llamado error aleatorio), cuya magnitud dependerá, lógicamente, del tamaño de la muestra: a mayor tamaño, menor error. No podemos, sin embargo, caer en la tentación de pensar "entonces, mientras más mejor"; existen técnicas para saber el número mínimo de una muestra para realizar un estudio según un planteamiento previo a la realización del mismo.
La inferencia estadística es el conjunto de técnicas estadísticas que nos permiten llegar a conclusiones sobre una población a partir de una muestra de dicha población.
El objetivo de las técnicas de inferencia estadística es contrastar (esto es, decidir o evaluar), dos hipótesis acerca del parámetro de interés. Estas dos hipótesis son la hipótesis nula (llamada H0) y la hipótesis alternativa (llamada H1).
En el momento de la decisión podemos cometer dos tipos de error. Podemos rechazar la hipótesis nula, siendo esa hipótesis la verdadera (error tipo I o error α), o bien podemos rechazar la hipótesis alternativa siendo la misma verdadera (error tipo II o error β). La probabilidad complementaria del error tipo II (1 - β) es el llamado poder del contraste.
Se debe colocar como hipótesis nula aquélla que no interesa al investigador, mientras que la hipótesis alternativa será la que el investigador quiere demostrar. Esto es así pues rechazar la hipótesis nula es lo mismo que decir que hemos llegado a tener pruebas de que la misma es falsa. Por el contrario no poder rechazar la hipótesis nula es lo mismo que decir que no tenemos pruebas suficientes como para llegar a saber que la hipótesis nula es falsa, y por tanto, tampoco tenemos la suficiente certeza de que dicha hipótesis sea cierta.
Supongamos que deseamos conocer algún parámetro poblacional, por ejemplo la edad media de una población. En el contexto de la estadística clásica (frecuentista), podríamos extraer al azar múltiples y diferentes muestras representativas de forma sucesiva y determinar el estimador más apropiado en cada una de esas muestras. Para este caso, el estimador más apropiado para la media poblacional es la media muestral. Cada una de las medias de estas muestras tomarían un determinado valor diferente para cada muestra (o lo que es lo mismo, el estimador es tratado como una variable en sí mismo). Suponiendo la normalidad de la variable "edad", los valores que irían tomando estas medias muestrales se distribuirían según una curva de Gauss (algunos de estos valores se darían con mayor frecuencia y otros con menor frecuencia). El área bajo dicha curva de distribución de frecuencias del estimador es la probabilidad total, es decir, la unidad.
Por tanto, los valores que podrían tomar estas medias muestrales se concentrarían en la zona central de la curva de distribución (es decir, serían los valores más frecuentes del estimador)
Nos centraremos ahora en el extremo derecho de esta curva
Cualquier valor que tome la media muestral dejará por encima de él un área bajo la curva de un determinado valor. Supongamos que tenemos un valor X0 que deja el 95% del área por debajo y el 5% del área por encima.
Esto es lo mismo que decir que cualquier valor de media muestral por encima de X0 es un valor “muy raro” de la distribución (lo encontraríamos con una frecuencia inferior al 5%). Supongamos también que deseamos contrastar nuestras hipótesis nula y alternativa con un error máximo del 5% (error α o error tipo I). Entonces, X0 sería ese valor crítico tal que si obtenemos una muestra y efectuamos nuestro experimento (medición de la media) bajo la perspectiva de la hipótesis nula, el obtener cualquier valor X2 de media por encima de X0 nos llevaría al rechazo de la hipótesis nula y la aceptación de la hipótesis alternativa.
Así mismo, si realizada la experiencia obtuviéramos un valor X1 menor que X0, o lo que es lo mismo, un área bajo la curva para X1 mayor que α, esto nos llevaría a no rechazar la hipótesis nula.
Este valor de probabilidad, de área bajo la curva por encima de X1, es lo que llamamos valor de p. Es decir, p es la probabilidad de que un valor tan extremo o más que el obtenido de nuestros datos pueda observarse en la población si la H0 es cierta.
Un resumen de lo que hemos hecho hasta ahora se aprecia en la siguiente figura
Tenemos una población de la que desconocemos un parámetro que nos interesa conocer; para ello extraemos al azar una muestra representativa de la misma; a partir de esta muestra obtenemos el estimador muestral más apropiado para el parámetro poblacional que se desconoce; planteamos la hipótesis de trabajo que deseamos contrastar, y bajo un modelo de probabilidades en el que el parámetro poblacional es considerado constante y el estimador (datos muestrales) es considerado variable determinamos un valor de p; con el resultado de p realizamos conclusiones acerca de nuestra hipótesis, es decir, acerca del parámetro poblacional.
Dado que no es posible dar un valor exacto de los parámetros poblacionales desconocidos, sino sólo una aproximación a los mismos a través de las muestras que extraemos de la población, siempre será más adecuado proporcionar intervalos de confianza que estimaciones puntuales. Un intervalo de confianza al 95% es un rango de valores tal que, si repitiéramos infinidad de veces el experimento, el 95% de las estimaciones del parámetro poblacional estarían contenidas en él. Para la construcción de intervalos de confianza utilizamos nuestra estimación y el error estándar del estimador que hayamos empleado. El error estándar es el grado de error que toleramos en nuestra estimación. Estos son algunos errores estándares frecuentemente usados:
- Proporción (muestras grandes):
- Media:
Continuemos construyendo nuestro intervalo de confianza. Éste debe contener al menos el 95% de las posibles estimaciones (p < 0.05). Si nuestra muestra es sufiencientemente grande y nuestro estimador sigue una distribución normal, sumaremos y restaremos a nuestra estimación puntual 1.96 veces el error estándar del estimador (en una curna de Gauss con media 0 y desviación típica 1 el 95% de su área bajo la curva se encuentra entre -1.96 y +1.96). Si siguiera una distribución t de Student (por ejemplo para medias de muestras de muestras de menos de 30 indivíduos), nuestro intervalo de confianza sería la estimación puntual más y menos tn-1;0.05 veces el error estándar (siendo tn-1;0.05 el valor de una t de Student en una muestra de n indivíduos para un valor de p de 0.05).
Pues bien, contrastar nuestra hipótesis nula y alternativa no será más que comprobar si nuestro intervalo de confianza incluye o no el valor que nos interese.
Observemos la siguiente figura. En ella vemos un ejemplo en el que se contrasta el valor del peso de los recién nacidos en una población. El valor que se desea contrastar es 3.2 Kg. Nuestra estimación realizada a partir de una muestra de dicha población es 2.8 Kg. Como ya sabemos, el error estándar de la media será tanto mayor cuanto menor sea el tamaño muestral. En la figura vemos como para dos tamaños muestrales diferentes nuestro intervalo de confianza varía en su amplitud, y mientras que con el inferior (n = 20), contiene el valor que se está contrastando, lo que no llevaría a no rechazar la hipótesis nula (p > 0.05), con el intervalo superior (n = 100), el valor contrastado está fuera del intervalo de confianza, lo que nos llevaría al rechazo de la hipótesis nula (p < 0.05).
Por lo tanto, una característica de p es que su valor depende del tamaño de la muestra a partir de la cual se determina: a mayor tamaño muestral mayor es la probabilidad de encontrar diferencias significativas entre los grupos que se comparan. De ahí la importancia de que en todo estudio deba realizarse el cálculo del tamaño muestral necesario en base a las caractrísticas de dicho estudio con anterioridad a la recogida y el análisis de los datos.
Ficha bibliográfica
- Título:
- Inferencia estadística según el modelo frecuentista
- Dirección:
- http://epidemiologia-estadistica.blogspot.com/2013/02/inferencia-estadistica-segun-el-modelo_17.html
- Descripción:
- Se describen los conceptos necesarios para saber el desarrollo intelectual que subyace a la inferencia estadística clásica y se aportan ejemplos.
- Palabras clave:
- estadística; inferencia; valor p; error estándar; hipótesis nula; hipótesis alternativa
- Código de idioma:
- es
- Autor:
- Fco. Javier Caballero Granado
- Editor:
- Fco. Javier Caballero Granado
- Derechos:
- Fco. Javier Caballero Granado
- Publicado:
- 2006-02-30
- Modificado:
- 2007-02-17
- Forma parte de:
- Notas sobre estadística
- Cómo citar:
- Caballero-Granado FJ. Inferencia estedística según el modelo frecuentista [en línea]. Caballero-Granado FJ Ed. Creado el 30/02/2006; actualizado el 17/02/2007. Disponible en web: http://epidemiologia-estadistica.blogspot.com/2013/02/inferencia-estadistica-segun-el-modelo_17.html [consultado el ...]
No hay comentarios:
Publicar un comentario