miércoles, 23 de febrero de 2011

Técnicas de comparación de dos grupos

1) Variables continuas

a) Muestras independientes

i. Poblaciones normales

Varianzas iguales: Test de la t de Student para varianzas iguales

Varianzas desiguales: Test de la t de Student para varianzas desiguales

ii. Poblaciones no normales: Test de Mann Whitney

b) Muestras relacionadas

i. Población normal: Test de la t de Student de datos apareados

ii. Población no normal: Test de los signos

2) Variables dicotómicas: Test de proporciones

martes, 22 de febrero de 2011

Indice

1. Introducción (1-8)

2. Técnicas de descripción (9-151)

a. Muestreo (9-16 y 147-151)

b. Estadística descriptiva (17-68)

c. Intervalos de confianza (69-146)

3. Técnicas de relación (152-432)

a. Correlación (158-227)

b. Significación (183-225, 276-294 y 393-432)

c. Regresión simple (228-297)

d. Ji-cuadrado (298-324)

e. Odds ratio (325-432)

4. Técnicas de comparación (433-499, de momento)

a. Intruducción a la comparación (433-454)

b. Significación (455-468)

c. Determinación del tamaño muestral (469-499)

domingo, 20 de febrero de 2011

Tamaño de muestra


Observemos en los tres experimentos que se muestran en la fotografía que las dispersiones de las muestras y las diferencias de medias son iguales en las tres comparaciones. La única diferencia está, ahora, en los tamaños muestrales. Arriba, el tamaño muestral es 3, en medio 5 y, abajo, es muy grande. Ante los datos mostrados arriba la técnica estadística debe mantener la H0 de igualdad de medias a nivel poblacional. La diferencia de medias muestrales no es significativa, en este caso, está basada en muestras de tamaño ridículo (n=3) y, por lo tanto, ante la duda, proporciona un p-valor superior a 0,05. Ante los datos de abajo, por el contrario, la técnica estadística verá que la H0 no puede mantenerse. De ser ésta cierta es muy poco probable ver unas muestras como las que se ven abajo. En este caso las medias muestrales son muy fiables, están basadas en muestras grandes y difícilmente obtendríamos resultados muy distintos si volviéramos a hacer el mismo experimento de nuevo. Parece que en este caso la posibilidad de equivocarse al decir que hay diferencia de medias es muy baja. Por esto el p-valor es inferior a 0,05. En la situación del medio estamos en un caso dudoso, por esto no ponemos p-valor. Pero arriba y abajo los resultados son muy claros.

Dispersión


Observemos en los tres experimentos que se muestran en la fotografía que, ahora, los tamaños muestrales (n=5) y las diferencias de medias son iguales en las tres comparaciones. La única diferencia está en la dispersión que, arriba, es grande, en medio, intermedia, y, abajo, es muy pequeña. Ante los datos de arriba la técnica estadística debe mantener la H0 de igualdad de medias a nivel poblacional. La diferencia de medias muestrales no es significativa, las muestras están muy solapadas, y, por lo tanto, la técnica estadística proporciona un p-valor superior a 0,05. Ante los datos de abajo, por el contrario, la técnica estadística verá que la H0 no puede mantenerse. De ser ésta cierta es muy poco probable ver unas muestras como las que se ven abajo, tan distanciadas la una de la otra como efecto de la pequeñísima dispersión. Parece que en este caso la posibilidad de equivocarse al decir que hay diferencia de medias es muy baja. Por esto el p-valor es inferior a 0,05. En la situación del medio estamos en un caso dudoso, por esto no ponemos p-valor. Pero arriba y abajo los resultados son muy claros.

Diferencia de medias


Observemos en los tres experimentos de comparación de dos muestras que se dibujan en la fotografía que los tamaños muestrales (n=5) y las dispersiones de las muestras son iguales en las tres comparaciones. Vemos en cruces los valores muestrales y en una línea la media muestral. Cada color hace referencia a un grupo distinto. La única diferencia está, en este caso, en la diferencia de medias: Arriba, es perqueña, en medio, intermedia, y, abajo, es muy grande. Ante los datos de arriba la técnica estadística debe mantener la hipótesis nula (H0) de igualdad de medias a nivel poblacional. La diferencia de medias muestrales no es significativa. Se trata de una diferencia muestral no fiable porque podría ser perfectamente el fruto del azar del muestreo. La técnica estadística proporciona, en este caso, un p-valor superior a 0,05. Ante los datos de abajo, por el contrario, la técnica estadística verá que la H0 no puede mantenerse. De ser ésta cierta es muy poco probable ver unas muestras como las que se ven abajo. Parece que, en este caso, la posibilidad de equivocarse al decir que hay diferencia de medias, a nivel poblacional, es muy baja. Por esto el p-valor es inferior a 0,05. En la situación del medio estamos ante un caso dudoso, por esto no ponemos p-valor. Pero arriba y abajo los resultados son muy claros.


miércoles, 9 de febrero de 2011

Técnicas y objetivos

En Estadística es muy importante diferenciar entre técnicas y objetivos. Es como en Medicina: una cosa son las técnicas (radiología, medicina nuclear, etc.) y otra los objetivos (diagnósticos o terapéuticos).
1) Técnicas: Descripción, Relación y Comparación.
2) Objetivos: Describir, Pronosticar y Contrastar.

-- Desde Mi iPhone

domingo, 6 de febrero de 2011

La significación estadística

Significación en Estadística significa algo así como fiabilidad. Un resultado significativo es un resultado por el que podemos apostar. Ante una afirmación estadísticamente significativa podemos pensar que si volviésemos a hacer lo mismo, si volviésemos a empezar todo lo que habíamos hecho y que nos ha llevado a tales afirmaciones, y lo hiciésemos en las mismas circunstancias, pero con otra muestra, acabaríamos diciendo algo similar, algo equivalente.

Podemos pensar, pues, que estamos ante una muestra tipo, ante una buena muestra de muestras, una muestra representativa del conjunto de muestras que hubiéramos podido tener.

Una afirmación si es estadísticamente significativa representa que la Estadística cree en este resultado, cree que es muy poco probable que sea fruto del azar del muestreo. Si una técnica estadística duda de la representatividad de un muestreo dice: "esto no significativo".

La significación estadística se mide mediante el p-valor. Éste es un valor que va del 0 al 1, con dos sectores bien diferenciados: del 0 al 0,05 y del 0,05 al 1. Una metáfora posible, en esta situación, es la de las notas: En nuestro sistema educativo las notas van del 0 al 10, y es bien distinto el sector de notas que va del 0 al 5 que el que va del 5 al 10. Esto mismo sucede con el p-valor. La frontera del 0,05 en el p-valor es, en cierto modo, equivalente al 5 en las notas. Pero cuidado: 0,05, no 0,5.

Por ejemplo: Una correlación será significativa si su p-valor es inferior a 0,05. Si no es significativa hemos de presuponer que r = 0. Siguiendo la metáfora de las notas, es como si se examinara la afirmación r = 0: si el p-valor es igual o superior a 0,05 aprueba, si el p-valor es inferior a 0,05 suspende, decidimos, entonces, que la r no es 0 y nos quedamos con el signo y la magnitud de la r calculada. De esta forma podemos decir que una r = 0,8 con un p-valor de 0,26 es, en realidad, una correlación más baja que una r = 0,4 con p = 0,001. Porque, en este caso, la r = 0,8, al no ser significativa, no podemos fiarnos de ella. Puede ser un efecto del azar del muestreo. Esto quiere decir que de la misma forma que en esta muestra hemos calculado una r = 0,8 en otra muestra tomada en las mismas condiciones podríamos tener r = -0,8. Por eso ante esta posibilidad la técnica estadística nos dice: “Ante la duda mejor afirmar que no hay relación; o sea, que r es igual a 0”.

Al basarse la decisión en un número entre 0 y 1 y en una frontera (0,05), el paralelismo con la enseñanza es claro: En la enseñanaza, en España, las notas son un número del 0 al 10, con una frontera muy clara en el 5. Como puede verse la frontera en el p-valor está relativamente mucho más a favor del aprobado. Esto es para que cuando suspenda r = 0 tengamos muy pocas posibilidades de errar. Observemos que el margen de la afirmación r = 0 es muy amplio (0,95). Esto es lo que permite hablar de "significativo" cuando suspende. Por eso, entonces, hablamos de correlación significativa. Porque le hemos dado mucho margen a r = 0 y acabamos viendo que no es coherente mantener esta afirmación a la luz de lo que estamos viendo en la muestra que tenemos.

La significación tiene mucho que ver con el tamaño de muestra. Si ese tamaño es pequeño es difícil que la Estadística se fíe de ella. Las muestras de tamaño pequeño son muy imprevisibles porque las diferentes muestras posibles son muy diversas entre ellas. En muestras grandes hay mucha homogeneidad entre las diferentes muestras posibles. Por eso será más fiable lo que una de ellas diga.

Entender este razonamiento es fundamental en Estadística. Estamos abordando, con esto, en realidad, el núcleo básico de la Estadística.

En Estadística a todo esto que estamos viendo le denominamos "Contraste de hipótesis". Vamos a ver, ahora, la terminología que usamos. En Contraste de hipótesis se habla de Hipótesis nula: H0, y de Hipótesis alternativa: H1. Y de que hemos de decidirnos por una u otra. La decisión no es como cuando compramos una camisa poniendo una al lado de la otra para ver cuál nos gusta más. La H0 parte como cierta y sólo nos decantaremos por la H1 si la H0 es absurdo mantenerla viendo lo que vemos en la muestra. Por eso H1 se le denomina alternativa, porque es la alternativa de la nula cuando no es lógico mantenerla tras analizar la muestra. En todo lo visto con la correlación podemos ahora conectar: H0 es r = 0 y H1 es r distinta de 0. El p-valor es el criterio objetivo basado en el análisis de la muestra que nos permite decidirnos por mantener H0 o pasarnos a la alternativa, a H1.

Esta lógica de funcionamiento es el tema nuclear de casi todas las técnicas estadísticas.

Siempre digo que la estructura de la Estadística es como la del Bolero de Ravel: un mismo tema que va repitiéndose machaconamente. El tema machacón del Bolero de Ravel de la Estadística es esta noción de contraste de hipótesis y el p-valor como criterio de decisión.

El contraste de hipótesis en el caso de la regresión lineal es: Ho: a = 0, H1: a < > 0 (distinto de cero). Con la b lo mismo: Ho: b = 0, H1: b < > 0. Obsérvese el paralelismo con el contraste de la correlación: Ho: r = 0, H1: r < > 0. En la hipótesis nula siempre tenemos lo que podemos decir antes de hacer cualquier cosa(lo que podemos presuponer): que no hay relación.

El paralelismo de la Estadística con el mundo judicial es sorprendente. En un juicio también hay dos hipótesis a contrastar: inocencia y culpabilidad. Y las dos no parten paralelas. Una parte como cierta: la inocencia ("presunción de inocencia"), y sólo si durante el juicio, mediante las pruebas y testigos, se ve que la inocencia no se puede mantener se pasará a la culpabilidad.

En Estadística podemos decir que existe la presunción de no relación entre las variables. Presunción de r = 0, de a = 0, de b = 0. Y más tarde, cuando veamos las técnicas de comparación hableremos de la presunción de igualdad de medias, de proporciones, de varianzas, etc. Únicamente si es incoherente mantener esas presunciones, a la luz de la muestra (nuestras pruebas y testigos), diremos que hay relación. Pero cuando lo hagamos, cuando digamos que hay relación, o que hay diferencias de medias o de proporciones, como lo habremos hecho tras darle mucho margen de confianza a la presunción de no relación, o a la de igualdad, podemos decir que aquella relación es significativa, es fiable, que existen pocas posibilidades de que no sea así.

En el fondo los estadísticos somos un poco como el Tribunal constitucional. El Tribunal constitucional tiene como objetivo básico analizar las leyes y acabar dictaminando si se adaptan o no a la constitución. Al final sus sentencias son, en esencia, decir "constitucional" o "no constitucional". Y lo que dice este tribunal es la última palabra. Con la Estadística sucede un poco lo mismo. Analiza unos datos y acaba dando un veredicto: "significativo" o "no significativo". Y la comunidad científica está muy pendiente de estos veredictos, por su fundamental trascendencia. Podemos decir algo así como que la Estadística es el Tribunal de la significación de la ciencia.

viernes, 4 de febrero de 2011

274. Gráfico de regresión

Aquí puede verse el gráfico del ejemplo planteado. La recta azul es la recta de regresión. Las curvas rojas y rosas dibujan intervalos de confianza.











Ejemplo de correlación y regresión


Tenemos diez alumnos con sus notas de matemáticas y de física. Las notas son las siguientes (cada paréntesis recoge las notas de un alumno, la primera nota es la de matemáticas y la segunda es la de física):

(7, 8), (2, 4), (8, 8), (6, 7), (5, 6), (8, 9), (9, 9), (1, 3), (2, 3), (3, 4)

La correlación de Pearson es 0,98 y su p-valor es menor que 0,0001, lo que significa que se trata de una correlación significativa, positiva y de alta magnitud.

Vamos a hacer una regresión lineal a través del modelo y=ax+b+e, donde la y es la nota de física y la x la nota de matemáticas. Esto nos puede interesar, por ejemplo, si somos profesores de física y queremos algún día pronosticar las notas que tendrán de física nuestros alumnos sabiendo las notas que han obtenido previamente de matemáticas.

Si aplicamos a estos datos la técnica de los mínimos cuadrados vemos que los parámetros de la recta son: a=0,8179 y b=1,9284. La DE de la e es 0,4.

Esto significa que podemos escribir el modelo:

Nota de física=0,8179*Nota de matemáticas+1,9284+e

donde la e sigue una distribución N(0, 0.4).