El estudio de la probabilidad se originó en el siglo XVII, cuando pioneros matemáticos como Blaise Pascal y Pierre de Fermat resolvieron problemas fundamentales relacionados con el azar y los juegos de azar. En 1654, Pascal y Fermat discutieron el problema puntual, un precursor de la teoría de la probabilidad que estableció los conceptos iniciales para comprender la incertidumbre y la variabilidad en eventos aleatorios. Aunque su trabajo no se centró directamente en la normalidad estadística, sentó una base conceptual importante para el desarrollo posterior de la teoría de la probabilidad.

Figura 1El encuentro entre Pascal y Fermat. En dos cartas, Fermat solicita a Pascal reunirse a mitad de camino entre Toulouse y París, a lo que Pascal responde que su salud se lo impide. Al final, estos dos ilustres personajes nunca llegaron a conocerse en persona; Fermat falleció en 1665 y Pascal en 1662. Imagen generada por IA.

El siglo XVIII marcó la consolidación de la estadística como disciplina independiente, con importantes aportaciones de matemáticos como Daniel Bernoulli. En 1738, Bernoulli introdujo el concepto de esperanza matemática en el Juego de San Petersburgo, un modelo teórico que sirvió para examinar el comportamiento de las personas frente a las decisiones bajo incertidumbre y riesgo y que se convertiría un avance clave que permitió asignar valores numéricos a resultados probabilísticos. Estos desarrollos sentaron las bases para comprender la variabilidad en términos matemáticos y servirían para establecer futuras investigaciones sobre la normalidad estadística.

Figura 2. Daniel Bernoulli. Fue un matemático y médico nacido en Groninga a comienzos del siglo XVII y forma parte de una dinastía familiar a los que se les atribuye grandes avances desde la Cátedra de la Universidad Basilea. Bernoulli compartiría, durante su estancia en Suiza, apartamento con el matemático suizo Leonhard Euler, responsable del desarrollo matemático de la teoría de grafos. Imagen generada por IA.

A medida que avanzaba el siglo XVIII, las contribuciones de Daniel Bernoulli y otros matemáticos permitieron la formalización de la teoría de la probabilidad y su aplicación en el estudio de la normalidad estadística en los siglos posteriores. Bernoulli introdujo conceptos como la expectativa matemática y aplicó la teoría de la probabilidad a los problemas económicos que devendría en una mejora en la capacidad de descripción y el análisis de datos.

El énfasis de Bernoulli en la aplicación práctica de la teoría de la probabilidad a los problemas económicos fue revolucionario para su época. Al enfatizar la relevancia de estos principios en el análisis de datos en el campo económico, promovió la comprensión de cómo las herramientas estadísticas pueden revelar fenómenos complejos. Su enfoque pionero sentó las bases para la posterior integración de la estadística en diversas disciplinas, demostrando que la probabilidad y la expectativa matemática no eran sólo conceptos abstractos sino herramientas prácticas para comprender la variabilidad y tomar decisiones informadas.

En el siglo XIX, las contribuciones fundamentales de Karl Friedrich Gauss revolucionaron el campo de la estadística con el desarrollo de la distribución normal o gaussiana que establecía el axioma que la suma de un gran número de variables aleatorias independientes e idénticamente distribuidas tiende a tener una distribución normal, incluso si las variables originales no son normalmente distribuidas. El famoso matemático alemán Gauss propuso que éste,teorema del límite central, es un modelo poderoso y eficaz para describir la variabilidad de diversos fenómenos naturales y sociales. 

Figura 3. Karl Friedrich Gauss. J. B. Büttner, maestro de un colegio alemán de la baja Sajonia (Brunswick), castigó a todos los niños de una escuela de primaria con calcular la suma de los 100 primeros números naturales. Karl, alumno de la entonces Katherinen Volkschule resolvió en unos breves segundos, dando a su maestro la respuesta 5050. Imagen generada por IA.

La distribución normal se caracteriza por tener forma de campana, con la mayoría de los datos concentrados alrededor de la media, y su curva simétrica refleja la probabilidad de que ocurran diferentes valores. El impacto de la distribución normal fue enorme y proporcionaría a los estadísticos y científicos una herramienta poderosa para comprender la difusión de datos y predecir patrones en conjuntos de datos. El reloj gaussiano, publicado en 1801, en ‘Disquisitiones Arithmeticae’, se convirtió en un concepto central en la teoría de probabilidad porque no sólo describe la distribución de datos en muchos campos, sino que también permite hacer inferencias sobre la probabilidad de que ocurra un evento específico. Este enfoque probabilístico no sólo simplifico el análisis estadístico, sino que también resultó crucial en la formulación de las leyes naturales del campo de la física y la biología hasta la economía y la psicología que aún siguen vigentes la actualidad.

A finales del siglo XIX y principios del XX, Sir Francis Galton y Sir Karl Pearson desempeñaron un papel crucial en el desarrollo de la estadística e hicieron importantes contribuciones para hacer de la estadística una disciplina independiente. Karl Pearson, en particular, desempeñó un papel destacado al centrarse en la teoría de la correlación y la regresión, proporcionando herramientas fundamentales que cambiaron la forma en que entendemos las relaciones entre variables. 

Figura 4Francis Galton y Karl Pearson compartiendo una cerveza. Los británicos serían decisivos en el desarrollo de numerosas técnicas de análisis estadísticos que empleaban la probabilidad. Pero sin duda, la fundación de la revista Biometrika se convertiría en un importante hito que permitiría a partir de 1901 constituir un medio para la publicación de investigaciones estadísticas y biométricas de alta calidad. Imagen generada por IA.

El trabajo de Pearson sobre la teoría de la correlación y la regresión proporcionó a los estadísticos y científicos métodos sistemáticos para medir y cuantificar la relación entre dos o más variables. La introducción del coeficiente de correlación de Pearson permitió, a partir de ese momento,  evaluar linealmente la fuerza y ​​dirección de la relación entre variables, proporcionando así una medida cuantitativa de la asociación. Estos avances no sólo facilitaron la interpretación de conjuntos de datos complejos, sino que también proporcionaron la base para el desarrollo de análisis estadísticos y modelos predictivos modernos. La aplicación de estos métodos no sólo convirtió la estadística una disciplina poderosa, sino que también allanó el camino para futuros desarrollos en la inferencia estadística y el análisis de grandes conjuntos de datos.

A lo largo del siglo XX, el uso generalizado de distribución de “la normal” se basaba en la idea de que muchos fenómenos naturales pueden describirse mediante tales distribuciones, lo que permite cuantificar la probabilidad de eventos específicos. A partir de entonces,  las tablas Z proporcionan valores críticos asociados con diferentes niveles de confianza, lo que facilita la comparación de datos y la toma de decisiones basadas en la probabilidad. La segunda mitad del siglo XX vio un aumento significativo en el énfasis en la estadística inferencial y las aplicaciones prácticas de la normalidad estadística. Los avances en técnicas de muestreo, pruebas de hipótesis y análisis de regresión permiten a los investigadores hacer inferencias más sólidas sobre poblaciones basadas en muestras limitadas de datos. 

Sebastián Martin Pérez 

Miembro Grupo de Investigación en Dolor musculoesquelético y control motor @terapiamanualUE

Lecturas recomendadas

  1. Hald, A. (2003). A History of Probability and Statistics and Their Applications before 1750. John Wiley & Sons.
  2. Todhunter, I. (1865). A History of the Mathematical Theory of Probability from the Time of Pascal to That of Laplace. Macmillan and Company.
  3. Bernoulli, D. (1738). Specimen theoriae novae de mensura sortis. Commentarii Academiae Scientiarum Imperialis Petropolitanae, 5, 175-192.
  4. Stigler, S. M. (1986). The History of Statistics: The Measurement of Uncertainty before 1900. Harvard University Press.
  5. Pearson, K. (1895). «Contributions to the Mathematical Theory of Evolution.» Philosophical Transactions of the Royal Society of London. Series A, Containing Papers of a Mathematical or Physical Character, 186, 343-414.
  6. Pearson, K. (1901). «On Lines and Planes of Closest Fit to Systems of Points in Space.» Philosophical Magazine, 2(11), 559-572.
  7. Pearson, K. (1901). «On the Probable Errors of Frequency Constants.» Biometrika, 1(3), 290-323.
  8. Fisher, R. A. (1925). «Statistical Methods for Research Workers.» Genesis Publishing Pvt Ltd.

Deja un comentario