Unidad didáctica 6: Estadística no paramétrica

Introducción

En unidades anteriores se revisaron las pruebas paramétricas como la pruebas t, coeficientes de correlación y regresión, pruebas de leve, contrastes de medias, otras. En el proceso de aprendizaje se indicó que estas pruebas tienen tres características en común: permiten comprobar hipótesis, exigen determinadas características de las poblaciones originales y analizan datos obtenidos con una escala de medida de intervalo de razón. Por otra parte, puede afirmarse que son las técnicas estadísticas más utilizadas, sin embargo, no se puede desconocer que presentan dos limitantes que es necesario mencionar: la primera es que no siempre son aplicables por las exigencias que se requieren, respecto a las características del grupo que se está estudiado; la segunda es que en la práctica surgen muchas situaciones en las cuales no es posible hacer de forma segura ningún supuesto sobre el valor de un parámetro y en las ciencias sociales de la salud, constantemente se trabaja en niveles de medida, por lo que la mayoría de las pruebas descritas en las unidades anteriores no son muy útiles o no resulta fácil analizar esta información.

Por lo descrito en el párrafo anterior, en esta última unidad se revisarán las pruebas no paramétricas que permiten poner a prueba una hipótesis sin tener parámetros poblacionales. Existen pruebas no paramétricas más flexibles, no dependen de un solo tipo de distribución o de valores de parámetros específicos; además, no requieren trabajarse con datos obtenidos o con escalas de medida o razón. El software SPSS ofrece una clasificación de pruebas no paramétricas, ordenadas por el número de muestras que permite analizar el tipo de alteración de las observaciones.

Competencias

  • Analiza los fundamentos de la estadística no paramétrica, su importancia, desarrollo y evolución, así como su aplicación en los diferentes casos que se le presentan en el área de la ciencia de la salud, tanto en su profesión como en el ejercicio de la misma.

Elementos de la competencia:

  • Analiza los fundamentos de la estadística no paramétrica.
  • Utiliza datos de captura de forma adecuada en el software estadístico, con la finalidad de analizarlos posteriormente.
  • Aplica lo aprendido, en su profesión y ejercicio de la misma.

CONTENIDO

6.1 Pruebas para dos muestras independientes.

Las pruebas que se van a analizar se encuentran en el Software del SPSS en la opción Pruebas no paramétricas del menú analizar. Aparecen ordenadas por el número de muestras que permiten analizar y por el tipo de aleatorización de las observaciones. Se inicia la unidad con el estudio de 4 pruebas para una muestra, estas son: Chi-cuadrado, (bondad de ajuste con variables categóricas), Binominal (proporciones y cuantiles), Rachas (aleatoriedad) y kolmogorov-Smirnov (bondad de ajuste con variables cuantitativas).

6.1.1 Chi-cuadrada

Esta prueba nos permite averiguar si la distribución empírica de una variable categórica se parece o no a una determinada distribución uniforme, binominal, multinominal, entre otras. Esto es lo que se conoce como ajuste de bondad, se utiliza para comparar las frecuencias observadas o empíricas con las esperadas o teóricas de cada categoría.

Con el fin de realizar un ejemplo sobre esta prueba y poder entender los alcances que tiene en el análisis de frecuencias categóricas, seguimos este procedimiento: se abre la base de datos survey_sample.sav, contiene datos de encuestas, demográficos y diferentes medidas de actitud. Se basa en un subconjunto de variables de NORC General Social Survey de 1999, ubicada en la carpeta de anexos de la unidad. Para obtener la prueba chi-cuadrado: se selecciona en el SPSS la opción >Pruebas no paramétricas…>Chi-cuadrado del menú Analizar para acceder al Cuadro de diálogo antiguos>chi-cuadrado…al dar clic se nos abrirá un cuadro de dialogo que tiene cuatro secciones:

  • La primera es la lista de variables contenida en la base de datos, elegimos la que se requiere para realizar la prueba.
  • La segunda se refiere a la Lista contrastar variables, se muestran las que se someterán a la prueba de Chi-cuadrado.
  • En la parte inferior izquierda encontramos la tercera, con el nombre de Rango de los datos, se puede especificar si se quiere obtener automáticamente el rango esperado por medio de la prueba o si se desea ingresar un rango especifico, con base en la teoría en el cual se especifica el límite inferior y superior del rango. Los que no entren en esto se excluyen.
  • Finalmente encontramos la cuarta sección correspondiente a los Valores Especificados, se puede indicar si los valores esperados para cada una de las categorías de las variables, son iguales para todas. Esto se obtiene dividiendo el número de casos validos entre el número de categorías. Al habilitar la opción valores se pueden precisar las frecuencias esperadas, basadas en la teoría; cada valor que se agregue es una proporción y no una frecuencia absoluta. El Software divide cada valor entre la suma de todos los valores esperados, por ejemplo, si tenemos tres categorías y se introducen el 3, 4 y 7 en ese orden, el programa interpreta el 3 como el valor esperado de la primera categoría como 3/14, el siguiente 4/14 y el último 7/14. Para fines de este ejercicio solamente agregaremos la variable Mayor grado Educativo a la Lista Contrastar variables y dejaremos las demás secciones por defecto. Lo mencionado se puede ver en la imagen siguiente:
Imagen 1. Prueba de Chi-cuadrado.

El botón opciones… permite obtener algunos estadísticos descriptivos y decir qué tratamiento se desea dar a los valores perdidos: se pulsa el botón opciones para acceder al cuadro de diálogo, encontramos dos secciones, estas son:

  1. La primera Estadisticos. Las opciones de este recuadro permiten obtener algunos estadísticos descriptivos como estos:
    • Descriptivos. Ofrece el número de casos válidos, la media, la desviación típica, el valor mínimo y el valor máximo.
    • Cuartiles. Nos proporciona los cortes de la frecuencia al 25, 50 y 75 por ciento de los datos.
  2. La segunda sección se refiere a Valores Perdidos. Este recuadro permite decidir qué tratamiento se desea dar a los valores perdidos en el caso de que se haya seleccionado más de una variable, casos como: excluir casos según prueba¸ se excluyen de cada contraste los casos con valore perdido en la variable que se está contrastando. Es la opción por defecto. Excluir casos según pareja. Se excluyen de todos los contrastes solicitados los casos con algún valor perdido en cualquiera de las variables seleccionadas. Para continuar con el ejercicio propuesto, activamos las dos casillas de selección Estadísticos y Cuartiles, se da clic en Continuar, enseguida regresamos al cuadro de Dialogo Prueba de Chi-cuadrado y finalmente en aceptar para que el SPSS no arroje los resultados, tal como se muestra en la siguiente imagen:
Imagen 2. Prueba de Chi-cuadrado, opciones.

La primera tabla que aparece es la referente a Estadísticos descriptivos, observamos la media, desviación típica, el mínimo y el máximo; así como, los cuartiles que le indicamos al software que realizara, (observar la figura que sigue).

Tabla 1. Estadísticos descriptivos.

La segunda tabla de resultados, denominada Mayor grado educativo, nos muestra las frecuencias observadas y las esperadas, así como las diferencias entre ambas (residual). Se puede observar en la siguiente tabla:

Tabla 2. Frecuencias observadas y esperadas.

La tercera tabla, por último, ofrece la información necesaria para tomar una decisión sobre la hipótesis bondad de ajuste: el valor del estadístico chi-cuadrado (724.642), sus grados de libertad (gl=número de categorías menos uno) y su nivel crítico (Sig.=0,000). Puesto que el nivel crítico es menor que 0.05, podemos rechazar la hipótesis de bondad de ajuste y concluir que la variable educ (nivel educativo) no se ajusta a una distribución uniforme, lo observamos en la imagen:

Tabla 3. Estadísticos de contraste.

6.1.2 Prueba binominal

La prueba binominal permite averiguar si una variable dicotómica, sigue o no un determinado modelo de probabilidad. Las variables dicotómicas son aquellas que sólo toman dos valores: sí o no, aceptado o rechazado, afirmativo o negativo, otros. Podemos llamar, de forma genérica, acierto y error a los dos niveles de una variable de este tipo. En otras palabras, estas variables permiten contrastar la hipótesis de que la proporción observada de aciertos se ajusta a la proporción teórica de una distribución binominal. Para entenderlo con más profundidad seguimos con el ejemplo propuesto: seleccionar la opción Pruebas no paramétricas>Cuadro de dialogo antiguos>binomial… del menú analizar para acceder al cuadro de diálogo, aquí se visualizan tres secciones:

a) La primera corresponde a la lista de variables del archivo de datos, ofrece un listado de todas las variables con formato numérico.

b) La segunda sesión denominada Listas Contrastar variables. Si se selecciona más de una variable, el SPSS ofrece un contraste por cada variable seleccionada. Debajo de esta, se encuentra un recuadro donde se especifica la proporción a que se contrastará la variable.

c) La sección Definir de dicotomía. Las opciones de este recuadro permiten definir qué valores de la variable seleccionada van a utilizarse como categorías, estas pueden ser:

  • Obtener de los datos. Si la variable seleccionada es dicotómica, esta opción deja las cosas como están, es decir, deja que sean los propio0s valores de la variable los que definan la dicotomía. En este caso, la hipótesis que permite contrastar la prueba binominal es si la proporción observada en la primera categoría se ajusta (se parece) a la proporción teórica propuesta en Contrastar proporción.
  • Punto de corte. Sirve para cuando las variables no están dicotomizadas, es necesario dicotomizarlas. Para ello, debe indicarse el valor del cuartil que utilizará para efectuar el corte de los valores menores o iguales que el punto de corte. Para este ejercicio, escogemos la variable cree en la vida después de la muerte, en cuya teoría nos dice que el 80% de las personas creen en la vida después de la muerte, por lo cual agregarnos a la lista de constar variables:  la variable cree en la vida después de la muerte [más allá] y en la casilla Proporción de prueba especificamos 0.85, ahora nos dirigimos al botón opciones. (Observar la siguiente imagen).
Imagen 3. Prueba binominal.

En este cuadro de diálogo Prueba Binominal: Opciones, encontramos las mismas opciones que en el recuadro de la prueba de Chi-cuadrado. Activamos las dos casillas de Estadísticos: descriptivos y cuartiles; enseguida damos clic en el botón Continuar y regresáramos al cuadro de diálogo de la Prueba binominal y para terminar se da clic en el botón de Aceptar. Como se visualiza en la imagen:

Imagen 4. Opciones, prueba binominal.

El programa nos abrirá en el visor de resultados dos tablas:

  • La primera corresponde a las pruebas descriptivas y a los cuartiles, esta tabla es igual a la de la prueba de Chi cuadrado.
Tabla 5. Estadísticos descriptivos.
  • La segunda tabla llamada Prueba binominal, nos permite observar una proporción del .8 en la frecuencia 1687/2066. Esto significa que el 80% de las personas implicadas en este estudio, creen que es correcta la hipótesis de que hay vida después de la muerte.
Tabla 6. Prueba binominal.

6.1.3 Prueba de Rachas

La prueba de las rachas sirve para determinar si una muestra de observaciones es o no aleatoria, es decir, para determinar si las observaciones de una determinada secuencia son independientes entre sí. El término racha hace referencia a las secuencias de repeticiones que tiene una variable, por ejemplo, al lanzar un dado 10 veces, teniendo estas 6 caras, de las cuales 3 son azules y 3 rojas, se pueden obtener estos resultados:

Rojo, rojo, azul, rojo, azul, azul, azul, rojo, rojo, azul

Podemos observar que contamos con 6 rachas ya que las repeticiones se separan de la siguiente forma:

(rojo, rojo) (azul) (rojo) (azul, azul) (rojo, rojo)

Con estos resultados podemos concluir que la secuencia obtenida es aleatoria, si una variable tiene muy pocas rachas o demasiadas quiere decir que la muestra no es aleatoria. En otras palabras, La prueba de Rechas del SPSS nos permite determinar si el número de rachas no es muy grande ni muy pequeña para determinar si la muestra es independiente o aleatoria.

Con la finalidad de entender el tema con más profundidad, se propone este ejercicio de la prueba de rachas que encontramos en el software estadístico SPSS, para ello, abrimos el Archivo survey_sample.sav que se encuentra en la carpeta de anexos de la unidad, nos dijimos al menú Análisis> Pruebas no paramétricas> Cuadros de Diálogos Antiguos>Rachas… se abrirá un cuadro de dialogo en el que podemos observar tres sesiones, estas son:

  • La primera corresponde a la lista de variables disponible en la base de datos; ofrece un listado de todas las variables con formato numérico. Se utiliza para contrastar la hipótesis de aleatoriedad o independencia referida a una variable.
  • El punto de corte es la opción que permite dicotomizar la variable, por ejemplo, si queremos saber si una variable de escala como puede ser el sueldo en una empresa, se puede utilizar la media como punto de corte y los valores del primer grupo serán los inferiores a la media, y el segundo grupo a contrastar serán los de mayores de la media. Para fines de este ejercicio analizaremos la variable Genero [sexo], por lo cual la agregamos a la Lista Contratar variables; escogemos un punto de corte personalizado y agregamos 1.5, ya que la variable cuanta con dos categorías: 1 (hombre) y 2 (mujer); el punto medio de estas dos variables es 1.5 así el software leerá a todos los hombres como un grupo y todas las mujeres como otro grupo. Hecho lo anterior, seleccionamos el botón opciones y observamos que es el mismo que se utilizó en las dos pruebas pasadas. Seleccionamos las pruebas descriptivas y cuartiles, para hacerlo, damos clic en continuar y aceptar para que SPSS realice la prueba de rachas en la variable especificada. (Ver la imagen siguiente).
Imagen 5. Prueba de rachas.

Para continuar con el procedimiento, observamos que se abre el visor de resultados, mostrándonos estas dos tablas:

a) La primera nos muestra los resultados de las medidas descriptivas y cuartiles, tal como lo especificamos en el botón de Opciones y que podemos observar en la siguiente imagen:

  • En la segunda tabla visualizamos las Pruebas de rachas, se observa en el primer resultado denominado Valor de Prueba, el mismo valor que especificamos en el cuadro de diálogo, en este caso, 1.5; el segundo rubro de la tabla corresponde a casos en total, en el ejemplo son 2832, indica los datos validos de acuerdo al análisis de la prueba; el tercer resultado indica el Número de rachas, corresponde al número de secuencias que encontró el sistema, en esta caso 1417; el siguiente resultado es el correspondiente a “Z”, indica un nivel estadístico constante de .914, y por último Sig. Asintót. (bilateral) que es el nivel crítico de la relación entre las categorías y nos da la misma información que la prueba bilateral, que para este caso es .361 y como es mayor 0.05 nos refiere a que la muestra es aleatoria por lo tanto comprueba la hipótesis de interdependencia de la variable. Se muestra en la imagen.
Tabla 7. Prueba de rachas.

6.1.3 Prueba de Kolmogorov-Sminov para muestra

Esta es una prueba de bondad de ajuste, sirve para contrastar la hipótesis nula de que la distribución de una variable se ajusta a una determinada distribución teórica de probabilidad. Lo que tiene de diferente es que ha sido diseñada para variables de escala y no de categóricas como las otras dos; esta prueba toma en cuenta la diferencia de la distribución teórica con la distribución obtenida, y a este procedimiento se le conoce como Z de Kolmogorov-Smirnov. Para obtenerlo mediante el SPSS, se pide abrir el archivo  survey_sample.sav, seleccionamos la opción Análisis> Pruebas no paramétricas> Cuadros de Diálogos Antiguos> K-S de una muestra… se abrirá un cuadro de dialogo en el cual podemos observar la lista de variables disponibles en la base de datos y se elige la que va a ser sometida a esta prueba, en la parte inferior encontramos la opción correspondiente aDistribución de contraste, aquí se seleccionará la distribución teórica con la cual se desea ajustar la distribución observada de la variable a analizar.

Para fines de este ejercicio se toma en cuenta y se agrega la variable horas diarias viendo tv [horastv] a la Lista contrastarvariables y en la Distribución de contraste dejamos seleccionada la opción por defecto Normal. A continuación, damos clic en aceptar para indicar al software que realice la prueba. (Observar la imagen que sigue).

Imagen 6. Prueba de Kolmogorov-Smirnov para una muestra.

Realizado lo anterior, el programa permite ver los resultados en la tabla llamada Prueba de Kolmogorov-Smirnov para una muestra. Se observa en primer lugar el número de casos válidos y los parámetros de la distribución seleccionada, es decir, de la distribución normal (Media y Desviación típica). A continuación, ofrece las Diferencias más extremas, entre las frecuencias acumuladas empíricas y teóricas (la más grande de las positivas, la más pequeña de las negativas y la más grande de las dos en valor absoluto). En la parte final ofrece el estadístico de K-S, o sea, la Z de Kolmogorov-Smirnov, en este caso equivale a 9.085 y su   nivel crítico (Significación asintótica bilateral= a 0.05). Sig. Asintot. (bilateral), este permite comprobar la hipótesis de ajuste de bondad de los datos de la variable, como fue menor a 0.05 puede afirmarse que la hipótesis de ajuste de bondad es nula ya que no se parece la distribución a la distribución normal. (Ver la imagen siguiente).

Tabla 8. Prueba de Kolmogorov-Smirnov.

6.2 Pruebas para dos muertos independientes

El Software estadístico SPSS nos ofrece varias pruebas no paramétricas, todas ellas diseñadas para analizar datos provenientes de diseños con variable categórica independiente y una variable dependiente cuantitativa. Para conocer y profundizar en el procedimiento de pruebas no paramétricas para dos muestras independientes, sugiero abrir el archivo survey_sample.sav que se encuentra en la carpeta de anexos de esta unidad. Se selecciona la opción Análisis> Pruebas no paramétricas> Cuadros de Diálogos Antiguos> 2 muestras independientes para acceder al cuadro de diálogo, se observan 3 secciones, organizadas así:

  • Las dos primeras corresponden a la lista de variables disponibles para el análisis y la otra contiene la lista de variables que se van a analizar, es decir, tanto la Lista de Contrastar variables, como la de Variable de agrupación, en la primera seleccionamos las variables cuantitativas con las que se realizará el procedimiento y en la Variable de Agrupación se verificará la hipótesis de interdependencia de las variables seleccionadas.

En la parte inferior de este recuadro se visualiza el botón de Definir grupos, damos clic para acceder al subcuadro de diálogo Dos muestras independientes el cual permite indicar cuáles son los dos códigos de la variable de agrupación que corresponden a los grupos (muestras) que interesa comparar. (Ver la imagen).

Imagen 7. Pruebas para dos muestras independientes.

Por último, encontramos la sección llamada Tipo de prueba, en la cual se nos da la opción de elegir entre cuatro pruebas diferentes. Conviene tener presente que no todas ellas permiten contrastar la misma hipótesis.  las cuales hay que tener en cuenta que no todas sirven para comprobar el mismo tipo de hipótesis, por tanto, es conveniente explicar cada una de ellas.  por lo cual explicaremos cada una de ellas:

  • Prueba de U de Mann-Whitney: esta prueba es una excelente alternativa a la prueba t sobre diferencias de medias cuando: 1) no se cumplen los supuestos en los que se basa la prueba t (normalidad y homocedasticidad), o 2) no es apropiado utilizar la prueba t porque el nivel de medida de los datos es ordinal. Esta prueba permite obtener el estadístico U que es un promedio poblacional de dos grupos definidos por la variable de agrupación. Tiene la función de comparar y si U1 del (primer grupo) y U2 (segundo grupo) son aproximadamente iguales, se asume que las dos muestras se han extraído de dos poblaciones idénticas. Si U1 o U2 son muy distintos, existirá cierta evidencia de que las muestras proceden de poblaciones distintas. Por tanto, la hipótesis nula de que ambos promedios poblacionales son iguales podría rechazarse si U1 o U2 es demasiado pequeño o demasiado grande.
  • Pruebas de reacciones Extremas de Moses: sirve para estudiar si existe diferencia en el grado de dispersión o variabilidad de dos distribuciones.

Supongamos que vamos a evaluar la eficiencia de un medicamento en dos grupos de pacientes con problemas cardiacos distintos. Si estamos interesados simplemente en constatar cuál de los dos grupos de pacientes a ha alcanzado, en promedio, mayor nivel de mejoría, podemos limitarnos a comparar los promedios de ambos grupos con alguno de los procedimientos (paramétricos o no paramétricos) ya estudiados. Sin embargo, esta forma de proceder pasaría por alto una cuestión de gran importancia: podría ocurrir que uno de los medicamentos consiguiera mejorar a los pacientes de manera generalizada y que el otro medicamento consiguiera lo mismo con pocos pacientes, aunque de forma más marcada, o podría ocurrir que consiguiera mejorar en mucho la salud de unos pacientes y muy poco la de los otros (reacciones extremas). Estas diferencias entre métodos no quedarían reflejadas en las medias, pero si en la variabilidad, por lo que sólo acompañado el contraste de medias con un contraste de varianzas podríamos obtener información real sobre lo que está ocurriendo. El SPSS calcula la probabilidad tanto para r=0 como para r=0.005n. si esta probabilidad es demasiado pequeña, podremos rechazar la hipótesis de que ambas muestras proceden de poblaciones con la misma amplitud.

  • Prueba de Kolmogorov-Smirnov para nos muestras: sirve para contrastar la hipótesis de que dos muestras proceden de la misma población. Para ello, compara las funciones de distribución (funciones de probabilidad acumuladas) de ambas muestras. A diferencia de lo que ocurre con la prueba U de Mann-Whitney, que permite comparar dos promedios poblacionales, la prueba de Kolmogorov-Smirnov es sensible a cualquier tipo de diferencia entre dos distribuciones 8Tendencia central, simetría, variabilidad, etc.). El SPSS utiliza el método de Smirnov para obtener las probabilidades concretas asociadas a los valores del estadístico Z. Este método difiere del estándar, pero es equivalente. Si la probabilidad de obtener una diferencia tan grande como la observada es muy pequeña (generalmente, menor que o,05), podremos rechazar la hipótesis de que ambas muestras proceden de la misma población.
  • Prueba de Rachas de Wald-Wolfowitz: es similar a la prueba de las rachas que estudiamos en las pruebas no-paramétricas de una muestra, pero en este caso está referida a dos muestras independientes, permite contratar la hipótesis de que ambas muestras proceden de la misma población. Si las dos muestras proceden de la misma población, las observaciones de ambas muestras estarán entremezcladas y el número de rachas será alto. Por el contrario, si las muestras proceden de poblaciones distintas, una de ellas tendrá valores más altos que la otra y, al ordenar las observaciones, no estarán tan entremezcladas. Así pues, un número alto de rachas indica que las muestras proceden de la misma población y un número bajo de rachas indica que las muestras proceden de poblaciones distintas.

Para afianzar el tema, escogemos como variable a contrastar las horas diarias viendo TV [horastv] y como variable de agrupación Cree en la vida después de la muerte [masalla]. Se pincha el botón Definir grupos… para acceder al subcuadro de diálogo Dos muestras independientes: especificar los grupos, en el grupo 1 introducimos el 1, corresponde al valor “si”; en la base de datos y en el grupo 2 definimos 2 que corresponde a “no”, en las etiquetas de esta variable. Ahora en Tipo de prueba se marcan las cuatro opciones disponibles. Finalmente damos clic en aceptar, para que el programa realice las pruebas con estas variables.

El visor ofrece los resultados, mediante las tablas que se despliegan. La primera de ellas ofrece el tamaño de cada grupo, el rango promedio que resulta de la asignación de rangos a cada grupo y la suma de esos rangos. (Visualizar la imagen que sigue).

Tabla 9. Rangos.

En la segunda tabla podemos observar el estadístico U de Mann-Whitney, así como la tipificación de ambos que vale Z igual a -0.09 y el nivel crítico bilateral que es mayor a 0.05, de donde se deduce que la hipótesis de igualdad de promedios es verdadera, por consiguiente, los grupos de personas definidos por la variable creen en la vida después de la muerte, por tanto, proceden de poblaciones con un parecido promedio.

Tabla 10. Estadísticos de contraste a.

La siguiente tabla muestra el resumen de las variables analizadas, así como sus frecuencias. La que sigue lleva el nombre de Estadísticos de contraste, en ella se muestran los resultados de la prueba de Moses. Las variables de [masalla] y [horastv] no son muy adecuadas para esta prueba, sirven para interpretar los resultados. (Visualizar la imagen).

Tabla 11. Estadísticos de contraste a, b.

La tabla que vuelve a mostrar el resumen del análisis obtenido no la analizaremos de nuevo, visualizamos la que se denomina Estadísticos de contraste, nos muestra la prueba Kolmogorov. Smirnov. En primer lugar, aparecen las diferencias más extremas entre las funciones de distribución de ambas muestras. Y a continuación se muestra el resultado de la tipificación de la diferencia más extrema en valor absoluto (Z de Kolmogorov-Smirnov que corresponde a .576) junto con el nivel crítico bilateral. Puesto que el nivel crítico es mayor 0.05, podemos aceptar la hipótesis de igualdad de distribuciones y concluir que los dos grupos comparados son muy parecidos en ver horas de televisión al día. (Ver la imagen).

Tabla 12. Estadísticos de contraste a, variable de agrupacion.

La siguiente tabla recoge el resultado de la prueba de rachas de Wald-wolfowitz, ofrece el número mínimo y máximo de rachas, el valor del estadístico Z en cada supuesto y el nivel crítico unilateral, en el ejemplo, el número de rachas es de 16, es muy bajo y muy diferente al otro. (observar la imagen).

Tabla 13. Estadísticos de contraste a, b.

6.3. Pruebas para dos muertos dependientes

Las pruebas que se estudiarán en este apartado, permiten analizar datos provenientes de diseños con medidas repetidas. Algunas de estas pruebas (Wilcoxon y signos) sirven para contrastar hipótesis sobre igualdad de medianas; la prueba de Mcnemar sirve para contrastar hipótesis sobre igualdad de proporciones. Todas ellas se ajustan a diseños del tipo antes-después, pero difieren en el tipo variables que permiten analizar.

Para aplicarlas, seguimos este procedimiento: abrir el archivo dietstudy.sav que se encuentra en la carpeta de anexos, contiene datos hipotéticos, que son el resultado de un estudio sobre la «dieta Stillman» (Rickman, Mitchell, Dingman, y Dalen, 1974). Cada caso corresponde a un sujeto distinto y registra su peso en libras, tomando en cuenta el antes y el después de la dieta, toma en cuenta el nivel de triglicéridos en mg/100 ml.

Seleccionamos la opción Pruebas no paramétricas < 2 muestras relacionadas del menú   Analizar para acceder al cuadro de dialogo Pruebas para dos muestras relacionadas. Aquí encontramos la sección donde se enlistan todas las variables y otro recuadro donde agregaremos las variables a contrastar, es muy importante aclarar que estos se tienen que especificar en pares. En este ejemplo seleccionamos la variable peso[peso0] y peso final [peso4]. En la parte inferior encontraremos una lista con cuatro pruebas diferentes que procesa el SPSS con esta herramienta, para fines de esta unidad solo revisaremos estas dos:

  1. Prueba de Wilcoxon: esta prueba requiere que el software realice empates de las medias de dos variables relacionadas, durante el proceso pueden ocurrir dos cosas:
  • Primero, demostrar que las medias de dichas variables son homogéneas, para ello, se deben encontrar los valores que sean mayores en ambas variables. El número de valores que son mayores en una variable son igual en proporción a la otra variable. Pero, además, si la distribución de las diferencias es simétrica (lo cual exige escala de intervalo o razón), la igualdad de las medias y la distribución de las diferencias es simétrica, por tanto, tomarán valores parecidos. El SPSS ofrece el nivel crítico bilateral resultante de multiplicar por 2 la probabilidad de obtener valores menores o iguales a Z.
  • Prueba de los Signos: guarda una muy estrecha relación con la prueba binominal ya estudiada en esta misma unidad. Al igual que la prueba de Wilcoxon, la prueba de los signos permite contrastar la hipótesis de igualdad entre dos medianas poblacionales. Pero mientras la prueba de Wilcoxon aprovecha la información ordinal de los datos (aunque exige nivel de medida de intervalo o razón), la prueba de los signos sólo aprovecha de los datos sus propiedades nominales (aunque exige nivel de medida al menos ordinal). Utilizando las probabilidades de la distribución binomial, calcula el nivel crítico bilateral resultante de multiplicar por 2 la probabilidad de obtener valores iguales o menores de k.

Si n es mayor que 25, el SPSS tipifica el valor de K (utilizando corrección por continuidad) y ofrece el nivel crítico resultante de multiplicar por 2 la probabilidad de encontrar valores iguales o menores que Z.

Para realizar el siguiente ejercicio vamos a seleccionar las dos Pruebas que acabamos de explicar, para ello, damos clic en el botón Opciones y en el cuadro de diálogo que se abre, seleccionemos Descriptivos y Cuartiles, ahora clic en el botón continuary regresamos al cuadro de dialogo de 2 muestras relacionadas y para finalizar seleccionamos continuar.

El visor de resultados nos muestra dos tablas para la prueba de rangos con signo de Wilcoxon, en la primera observamos el número, media y suma de los rangos negativos y de los rangos positivos. Las notas a pie de tabla permiten conocer el significado de los mismos. (Observar la siguiente imagen).

Tabla 14. Rangos.

En la segunda tabla se muestra el estadístico de Wilcoxon (Z) y su nivel crítico bilateral. Puesto que el valor de nivel crítico (0,00) es menor que 0,05, podemos rechazar la hipótesis de igualdad de promedios, y concluir que las variables comparadas (Peso inicial y peso actual) difieren significativamente. (Ver tabla siguiente).

Tabla 5. Estadísticos de contraste a.

Las dos tablas siguientes contienen la información relacionada con la prueba de los signos. La primera muestra las diferencias negativas, las positivas y los empates. (Observar imagen).

Tabla 16. Frecuencias.

La segunda tabla ofrece el estadístico Z, (pues el tamaño muestral es mayor a 25) y su correspondiente nivel crítico bilateral. Puesto que el valor del nivel crítico (0,000) es menor que 0.05, podemos rechazar la hipótesis de igualdad de promedios y concluir que las variables comparadas difieren significativamente. (Ver imagen siguiente).

Tabla 17. Estadísticas de contraste a.

Conclusiones

A manera de conclusión se afirma que las pruebas estadísticas no paramétricas facilitan la toma de decisiones para la investigación de Ciencias de la Salud, sobre todo en los casos donde la estadística paramétrica no puede aplicarse y las pruebas de criterio resultan insuficientes. Esto es fundamental sobre todo cuando no se cuenta con una base estadística y no se pueden aplicar las pruebas paramétricas típicas, en ocasiones porque no se tiene el suficiente conocimiento de los datos, la información es incompleta o porque las suposiciones del modelo no pueden cumplirse; en estos casos el investigador tiene la posibilidad de recurrir a una prueba no paramétrica para no guiarse solamente por pruebas empíricas o de criterio personal.

Es importante señalar que las pruebas no paramétricas aportan a las ciencias de la conducta, y por lo mismo a las de la salud, la utilización de escalas débiles de medición y la independencia de la distribución de la población. Mediante la primera se pueden medir gustos en diferentes grados, reacciones a tratamientos, peso, otros. Se pueden medir en estas categorías, malo, regular, bueno, excelente. Por la independencia de la distribución se puede liberar a la prueba de una suposición que en ocasiones no se puede hacer.

Otra característica de las pruebas no paramétricas que puede incluirse a manera de conclusión es el hecho de que a pesar de que las pruebas no paramétricas son desarrolladas bajo la teoría de hipótesis, su uso por este medio no se encuentra reducida, debido a que cualquiera de ellas puede ampliarse a una prueba de hipótesis mediante un replanteamiento correcto del problema.

Como conclusión final, enfatizamos en la idea de que la estadística no paramétrica puede aplicarse dentro de la investigación, para medir aquellas situaciones que son difíciles de procesarse mediante la aplicación de la estadística paramétrica.

Bibliografía consultada

  1. Landero H. René (2009). Estadística con SPSS, y metodología de la investigación. 1ra ed. Editorial Trillas
  2. www.spssfree.com
  3. Pallat, Juliet (2002). SPSS Suvirval Manual. 2end ed. Allen&Unwin,
  4. Carrasco, J.L. (1989) “El método estadístico en la investigación médica». Editorial
  5. Esperanza Bausela Herreras (2005). SPSS: Un instrumento de análisis de dato cuantitativos. Revista de Informática Educativa y Medios Audiovisuales. Vol. 2 (4), ISSN 1667-8338
  6. Gardner, C. R. (2003). Estadística para psicología usando SPSS para Windows. México: Prentice Hall.

Internet:

Capítulo XIX, Análisis no paramétrico: el procedimiento Pruebas no paramétricas.

Tomado de:
http://pendientedemigracion.ucm.es/info/socivmyt/paginas/D_departamento/materiales/analisis_datosyMultivariable/19nparam_SPSS.pdf