Introducción
La importancia de conocer la normalidad de los datos en los trabajos de investigación es fundamental en la elección de los métodos adecuados para analizarlos y obtener conclusiones válidas y confiables. Una prueba de normalidad estadística es un método que se usa para evaluar si los datos de una muestra se ajustan a una distribución normal, que es una de las suposiciones más comunes en muchos análisis estadísticos. Una distribución normal es un modelo matemático que describe el comportamiento de una variable aleatoria continua que se distribuye de forma simétrica alrededor de su media (Cabrera et al., 2017). La forma de la distribución normal se parece a una campana, y se caracteriza por dos parámetros: la media (μ) (Dagnino, 2015), y la desviación estándar (σ). La media indica el valor central de la distribución, y la desviación estándar mide la dispersión o variabilidad de los datos.
La investigación científica se basa en la recolección y análisis de datos, los cuales son importante para validar hipótesis y obtener conclusiones significativas. Sin embargo, uno de los problemas más críticos que enfrentan los investigadores es la normalidad de los datos utilizados en sus estudios. La falta de verificación de esta normalidad puede llevar a la aplicación inapropiada de pruebas estadísticas, lo que a su vez puede resultar en interpretaciones erróneas y conclusiones poco confiables. Este problema es especialmente relevante en contextos donde se utilizan métodos estadísticos paramétricos, que asumen que los datos siguen una distribución normal. Por lo tanto, es esencial abordar la importancia de conocer la normalidad de los datos, así como las consecuencias de no hacerlo, para mejorar la rigurosidad y la validez de los trabajos de investigación.
La normalidad de los datos es un concepto fundamental en el ámbito de la investigación científica, ya que influye directamente en la validez y fiabilidad de los análisis estadísticos. En muchas disciplinas, los investigadores recurren a pruebas estadísticas paramétricas que asumen que los datos siguen una distribución normal. No obstante, la falta de verificación de esta normalidad puede resultar en interpretaciones erróneas y conclusiones poco confiables. Este problema plantea la necesidad de investigar y resaltar la importancia de conocer y verificar la normalidad de los datos en los trabajos de investigación, con el fin de asegurar la validez y confiabilidad de los resultados obtenidos.
La investigación se desarrolló con el objetivo de conocer la importancia de la prueba de normalidad en los trabajos de investigación como protocolo previo a la elección de la prueba estadística para el contraste de la hipótesis, buscando dar respuesta a la interrogante ¿cuál es la importancia de conocer la normalidad de los datos utilizados en los trabajos de investigación por tesistas?
Metodología
Para dar respuesta al objetivo planteado, la investigación se enmarco en el paradigma Positivista, como señala Durkheim (2001), este paradigma se fundamenta en la idea de que el conocimiento se puede obtener a través de la observación y la experiencia; bajo el método Hipotético-Deductivo, el cual según Popper (1991), es fundamental para la ciencia, pues enfatiza la importancia de la falsabilidad de las teorías científicas; con enfoque cuantitativo, según Barrantes (2002) permite la recolección y análisis de datos para medir a las variables; con diseño no experimental, no se manipulan las variables, se observa los hechos en un contexto natural (Ríos, 2017, p. 84), de corte transversal, se recogen los datos en una sola oportunidad y en un punto específico en el tiempo (Bernal, 2016, p. 157); de tipo descriptivo, con la finalidad de la descripción de los factores que identifican los diferentes elementos y componentes de un universo de investigación (Méndez, 2020, p. 122).
Este estudio se desarrolló con una población de 10 investigaciones recientes (ver Tabla 1) que abordan como tema principal la normalidad estadística de los datos utilizados en los trabajos de investigación, que fueron seleccionados mediante un muestreo no probabilístico de forma intencional, lo que significa que se eligieron estudios específicos que cumplen con criterios relevantes para el tema. Este método de muestreo es útil en investigaciones documentales, ya que permite seleccionar casos significativos, según lo mencionado por Hernández González, (2021).
Las técnicas e instrumentos utilizados en esta investigación incluyen la revisión bibliográfica y el análisis de contenido. La revisión bibliográfica permite evaluar la calidad y relevancia de los estudios seleccionados, mientras que el análisis de contenido facilita la extracción de información significativa sobre la normalidad de los datos. Según Bardin (2002), el análisis de contenido es un método eficaz para interpretar y clasificar la información presente en los textos revisados, contribuyendo a una comprensión más profunda del fenómeno estudiado.
Tabla 1 Estudios Utilizados en la Investigación.
Titulo | Autores | Año |
---|---|---|
¿Cómo escoger la prueba estadística? |
|
2023 |
¿Cómo determinar efectivamente si una serie de datos sigue una distribución normal cuando el tamaño muestral es pequeño? |
|
2023 |
Histograma y distribución normal: Shapiro-Wilk y Kolmogorov-Smirnov aplicado en SPSS. |
|
2023 |
Cuando no se cumplen los supuestos de las pruebas paramétricas, en el contexto de la investigación de la cultura física. |
|
2022 |
Contrastes de normalidad |
|
2021 |
Pruebas para comprobar la normalidad de datos en procesos productivos: anderson-darling, ryan-joiner, shapiro-wilk y Kolmogórov-Smirnov. |
|
2021 |
Estudio de potencia de pruebas de normalidad usando distribuciones desconocidas con distintos niveles de normalidad. |
|
2019 |
La hipótesis en la investigación |
|
2018 |
El protocolo de investigación VI: cómo elegir la prueba estadística adecuada. Estadística inferencial |
|
2017 |
Comparación de potencias en pruebas estadísticas de normalidad, con datos escasos |
|
2017 |
Nota. Estudios de los últimos años que abordan el tema de normalidad de datos, elaboración propia (2024).
Entonces, conocer la normalidad estadística de los datos en los trabajos de investigación es importante para elegir los métodos y técnicas estadísticas para la prueba de hipótesis, los intervalos de confianza, el análisis de varianza y la regresión lineal. Si los datos no cumplen con esta suposición, se pueden obtener resultados erróneos o inválidos. Asimismo, permite realizar inferencias sobre la población a partir de la muestra de estudio (Flores-Ruiz et al., 2017).
Por estas razones, es conveniente evaluar la normalidad de los datos antes de realizar un análisis estadístico, y aplicar técnicas adecuadas para manejar los datos que no siguen una distribución normal, como las transformaciones, las pruebas no paramétricas (Villavicencio-Caparó et al., 2023), o los métodos robustos. Existen varias pruebas comunes para verificar la normalidad de los datos, a continuación, se describen las más utilizadas:
Pruebas de Normalidad
Prueba de Anderson-Darling. Esta prueba se debe usar cuando se quiere evaluar si una muestra de datos se ajusta a una distribución de probabilidad determinada, como la normal, la exponencial o la de Weibull. Esta prueba puede no ser adecuada cuando se trabaja con muestras pequeñas, ya que puede tener poca potencia para detectar desviaciones de la normalidad en tales casos (Flores Tapia & Flores Cevallos, 2021). Además, al igual que otras pruebas de normalidad, la interpretación de los resultados debe considerar el contexto específico de los datos y el propósito del análisis.
Prueba de Lilliefors. Esta prueba se debe usar cuando se quiere evaluar si una muestra de datos se ajusta a una distribución normal o exponencial, sin conocer los parámetros de la población, asume que la varianza y la media poblacional son desconocidas (Flores Muñoz et al., 2019), y constituye una alternativa a la prueba de Shapiro-Wilk cuando el tamaño de la muestra es superior a 50. Sin embargo, su resultado debe interpretarse con cautela, ya que puede ser poco potente con muestras pequeñas.
Prueba de Shapiro-Wilk. Esta prueba es una de las más utilizadas y fiables para evaluar la normalidad, fue publicada en 1965 por Shapiro y Wilk, y es considerada una de las pruebas más robustas para el contraste de normalidad. Esta prueba es adecuada para muestras pequeñas, pero su precisión disminuye con muestras más grandes. El valor obtenido de la prueba indica si los datos siguen una distribución normal o no, lo que es útil para determinar si es necesario realizar transformaciones antes de realizar pruebas estadísticas adicionales (Barrios Palacios et al., 2022).
Prueba de Kolmogorov-Smirnov. Esta prueba es otra herramienta analítica utilizada para comprobar la distribución normal de los datos. Esta prueba compara la función de distribución acumulada observada de una variable con una distribución teórica determinada (Sánchez Espejo, 2022), que puede ser la normal, la uniforme, la de Poisson o la exponencial. La Z de Kolmogorov-Smirnov se calcula a partir de la diferencia mayor (en valor absoluto) entre las funciones de distribución acumuladas teórica y observada. La hipótesis nula de la prueba es que los datos provienen de la distribución especificada, y se rechaza si el valor p es menor que un nivel de significancia elegido.

Nota. Extraído del libro el instrumento y su estadística en una tesis, elaborado por Sánchez Espejo (2022).
Figura 1 Criterios para la Selección de la Prueba de Normalidad.
Según la información presentada en la Figura 1, Sánchez Espejo (2022) recomienda tener en cuenta dos criterios en la selección de una prueba de normalidad; si los datos son menores a 50 observaciones, utilizar Shapiro-Wilk, del contrario hacer uso de Kolmogorov-Smirnov. Finalmente, este articulo busca plasmar la importancia de la prueba de normalidad en los trabajos de investigación como protocolo previo a la elección de la prueba estadística para el contraste de la hipótesis, con la finalidad de garantizar que los resultados sean validos (Espinoza Freire, 2018), y acorde con la teoría estadística para poder generalizar conclusiones obtenidas mediante la muestra de estudio hacia una población.
Resultados
La combinación de métodos numéricos y gráficos proporciona una evaluación más robusta de la normalidad de los datos. Mientras que los métodos gráficos ofrecen una visualización fácil de interpretar, los métodos numéricos proporcionan un análisis estadístico riguroso. Es recomendable utilizar ambos enfoques para obtener una comprensión completa de la distribución de los datos para tomar decisiones informadas.
Métodos para Calcular la Normalidad de los Datos en los Trabajos de Investigación
1.1. Métodos Numéricos
a)Indicadores de Asimetría y Curtosis. La asimetría y la curtosis son medidas estadísticas que describen la forma de una distribución de datos sin necesidad de representarla gráficamente.
Asimetría. Es la medida que indica la simetría de la distribución de una variable respecto a la media aritmética, sin necesidad de hacer la representación gráfica (Platas García, 2021). Los coeficientes de asimetría señalan si existen equivocadamente números de elementos a la derecha e izquierda de la media, existen tres tipos (ver Figura 2):
Asimetría positiva, la cola de la distribución se alarga hacia el lado derecho para valores superiores a la media.
Simétrica, existen el mismo número de elementos hacia el lado izquierdo y derecho de la media. Tienen la característica que, la media, la mediana y la moda coinciden, y describen la forma de la campana de Gauss.
Asimetría negativa, la distribución se alarga para valores que caen por debajo de la mediana hacia el lado izquierdo.

Nota. Tipos de asimetría en distribuciones de probabilidad, elaboración propia (2024).
Figura 2 Tipos de Asimetría.
Curtosis. Es una medida estadística que informa sobre la forma de la distribución de una variable, indicando el grado de concentración de los valores alrededor de su media (Platas García, 2021). Según los resultados de la búsqueda, existen tres tipos de curtosis (ver Figura 3):
Leptocúrtica, esta distribución es muy puntiaguda, lo que indica que los datos están muy concentrados alrededor de la media. Es decir, hay un alto nivel de concentración de valores alrededor de su media.
Mesocúrtica, en este caso se presenta una curtosis similar a la distribución y una concentración normales de los valores en torno a su media.
Platicúrtica, aquí, la distribución es muy aplanada, lo que indica una baja concentración de valores alrededor de su media.
Pasos para Calcular la Normalidad Mediante los Indicadores de Asimetría y Curtosis
Tabla 2 Valores de Distribución Normal Estándar.
Nivel de confianza | Valor z |
---|---|
90 % | 1.64 |
91 % | 1.69 |
92 % | 1.75 |
93 % | 1.81 |
94 % | 1.88 |
95 % | 1.96 |
96 % | 2.05 |
97 % | 2.17 |
98 % | 2.32 |
99 % | 2.57 |
Nota. Tabla de distribución normal para los niveles de confianza, elaboración propia (2024).
Quinto paso: comparar si los valores estandarizados de la asimetría y curtosis se sitúan dentro del intervalo construido por los valores Z, si los valores estandarizados están comprendidos dentro del intervalo construido, podemos concluir que los datos siguen una distribución normal (ver Tabla 2).
b)Prueba de Kolmogorov-Smirnov. La prueba de Kolmogorov-Smirnov se utiliza para contrastar si un conjunto de datos se ajusta o no a una distribución normal, es recomendable utilizarlo en datos mayores a 50 observaciones (Roco-Videla et al., 2023).
Pasos para Calcular la Normalidad Mediante la Prueba de Kolmogorov-Smirnov
-
Primer paso: Determinar los supuestos de normalidad
Segundo paso: Determinar la regla de decisión, utilizando el p - valor. Se rechaza la Ho si el p - valor calculado es menor que la significancia estadística (α) = 0.05 (este valor varía según la significancia estadística del estudio que se está desarrollando, pudiendo ser: 90%, 95%, 99% respectivamente).
Tercer paso: Se realiza el cálculo de la prueba de Kolmogorov-Smirnov
Cuarto paso: Se realiza la comparación del p - valor calculado y la significancia estadística elegida para la investigación: p - valor < α
Quinto paso: Tomar la decisión de rechazar o aceptar la Ho según corresponda.
Test de Shapiro-Wilk. La prueba de Shapiro-Wilk es especialmente adecuada cuando se quiere evaluar la normalidad de los datos en una muestra pequeña. Además, es recomendable utilizarla cuando se tengan muestras menores a 50 observaciones para contrastar la normalidad (Roco-Videla et al., 2023).
Pasos para Calcular la Normalidad Mediante el Test de Shapiro-Wilk
-
Primer paso: Determinar los supuestos de normalidad
Segundo paso: Determinar la regla de decisión, utilizando el p - valor. Se rechaza la Ho si el p - valor calculado es menor que la significancia estadística (α) = 0.05 (este valor varía según la significancia estadística del estudio que se está desarrollando, pudiendo ser: 90%, 95%, 99% respectivamente).
Tercer paso: Se realiza el cálculo del Test de Shapiro-Wilk
Cuarto paso: Se realiza la comparación del p - valor calculado y la significancia estadística elegida para la investigación: p - valor < α
Quinto paso: Tomar la decisión de rechazar o aceptar la Ho según corresponda.
1.2. Métodos Gráficos
Histograma. Es un gráfico utilizado para representar la distribución de frecuencias de una variable. Consiste en un conjunto de barras que simbolizan intervalos de datos y sus frecuencias respectivas (ver Figura 4). En otras palabras, es una representación visual de la distribución de un conjunto de datos, mostrando la frecuencia con la que aparecen los valores en diferentes rangos o intervalos. La normalidad en un histograma se determina visualmente al verificar si se ajustan a una distribución normal (Luzuriaga Jaramillo et al., 2023). Es importante tener en cuenta que la forma del histograma puede variar según el tamaño de la muestra. A veces, incluso con datos normales, los histogramas pueden llevar a conclusiones erróneas sobre la normalidad de los datos, especialmente con muestras pequeñas. Aumentar el tamaño de la muestra puede hacer que la forma del histograma se aproxime a la campana de Gauss, lo que facilita la evaluación de la normalidad de los datos.

Nota. Contrastes de normalidad, elaboración propia (2024).
Figura 4 Comparación entre un Histograma con Normalidad y otro sin Normalidad.
b) Gráfico Q-Q. Es un método gráfico utilizado en estadística para diagnosticar la normalidad visualmente comparando los cuantiles teóricos que deberían tener los datos si estuvieran perfectamente distribuidos con normalidad, y los cuantiles de los valores medidos (Luzuriaga Jaramillo et al., 2023). Se podría deducir que la distribución es normal cuando los datos estuvieran perfectamente distribuidos y todos los puntos se situarían sobre la línea (ver Figura 5). Por lo tanto, la cercanía de los puntos a la diagonal en el gráfico Q-Q indica la normalidad de la distribución de los datos. Este método gráfico es útil para evaluar si la distribución de los datos se ajusta a una distribución normal estándar.
Discusiones
El análisis de los resultados obtenidos en los estudios revisados resalta la importancia de seleccionar la prueba estadística adecuada para evaluar la normalidad de los datos, especialmente en contextos donde el tamaño de la muestra es pequeño. Los estudios revisados presentan una variedad de pruebas estadísticas, como Shapiro-Wilk (SW) y Kolmogorov-Smirnov (KS), utilizadas para determinar la normalidad de los datos, cada una con sus fortalezas y limitaciones. Uno de los principales hallazgos es la limitación del test de Kolmogorov-Smirnov para muestras pequeñas, debido a su bajo poder para detectar la no normalidad, como lo señalan Roco-Videla et al. (2023) y Saculinggan et al. (2023). Para tamaños muestrales menores a 50, se recomienda la prueba de Shapiro-Wilk, que tiende a mostrar una mayor capacidad para detectar la normalidad o no normalidad, aunque también presenta limitaciones para tamaños menores de 30, donde puede aceptar incorrectamente la hipótesis de normalidad.
Los estudios también destacan la utilidad de combinar métodos estadísticos con visuales, como histogramas y gráficos Q-Q, para una evaluación más robusta de la normalidad. Luzuriaga Jaramillo et al. (2023) señalan que estos métodos gráficos pueden complementar las pruebas estadísticas, ofreciendo una representación visual que puede confirmar o cuestionar los resultados numéricos. En el ámbito de las investigaciones aplicadas, como las realizadas por Barrios Palacios et al. (2022), se enfatiza la importancia de verificar los supuestos de normalidad antes de aplicar pruebas paramétricas como ANOVA o t de Student.
La transformación de datos puede ser necesaria, aunque no siempre suficiente para cumplir con los supuestos de normalidad, lo cual subraya la importancia de elegir la prueba adecuada y considerar transformaciones matemáticas cuando sea necesario. Por lo tanto, no existe un enfoque único para evaluar la normalidad de los datos, especialmente cuando se trabaja con tamaños muestrales pequeños. Es preciso considerar tanto pruebas estadísticas como métodos visuales para una evaluación completa, y adaptar el enfoque según el contexto específico de la investigación. Además, las investigaciones futuras podrían beneficiarse de explorar nuevas pruebas o enfoques que combinen lo mejor de los métodos actuales, especialmente en escenarios complejos y con limitaciones de tamaño muestral.
Conclusión
La prueba de normalidad es importante para la elección correcta del procedimiento estadístico en la contrastación de hipótesis en un trabajo de investigación, lo que influye en la validez de los resultados obtenidos. Si el valor p es menor que un nivel de significancia elegido (por ejemplo, 0.05), se rechaza la hipótesis de normalidad y se concluye que los datos no son normales. Si el valor p es mayor que el nivel de significancia, no se rechaza la hipótesis de normalidad y se asume que los datos son normales.
Para poder conocer la normalidad de los datos que se usan en los trabajos de investigación, se recomienda a los estudiantes utilizar la prueba de Shapiro-Wilk cuando se va a trabajar con muestras menores a 50 observaciones (algunos autores lo consideran como muestra pequeña), y trabajar con prueba de Kolmogorov-Smirnov cuando se dispone de una muestra con datos mayores a 50 observaciones.
Los datos cualitativos no requieren una prueba de normalidad porque la normalidad se refiere a la distribución de los datos, y los datos cualitativos no tienen una distribución numérica que pueda ser evaluada en términos de normalidad. Por lo tanto, la noción de normalidad no es aplicable a los datos cualitativos. Entonces, cuando trabajamos con datos de naturaleza cualitativa, se asume que no tienen normalidad y se utilizan pruebas no paramétricas para el contraste de hipótesis.
Este articulo prioriza lograr el entendimiento del estudiante universitario que está desarrollando su trabajo de investigación sobre la importancia como primer paso la prueba de normalidad como punto de partida, sin embargo, queda pendiente otro tema trascendental; las pruebas paramétricas y no paramétricas, las cuales articulan en función al objetivo que persigue cada estudio. Dada su trascendencia es necesario abordarlo en otro artículo.