HISTORIA DE LA ESTADÍSTICA

ANTECEDENTES DE LA ESTADÍSTICA EN LA ANTIGÜEDAD

La estadística surgió en épocas muy remotas, y como todas las ciencias, no surgió de improviso, sino mediante un proceso largo de desarrollo y evolución, desde hechos de simple recolección de datos hasta la diversidad y rigurosa interpretación de los datos que se dan hoy en día. Así pues, el origen de la Estadística se remonta a los comienzos de la historia y esto se sabe tanto a través de crónicas, datos escritos, como de restos arqueológicos, y esto es explicable por cuanto en ese tiempo se estaba formado recién la sociedad y es algo inherente la necesidad de saber cosas elementales como: cuántos habitantes tiene a tribu, con cuantos bienes cuenta, etc.

3050 a.C.

En los antiguos monumentos egipcios se encontraron interesantes documentos en que demuestran la sabia organización y administración de este pueblo; ellos llevaban cuenta de los movimientos poblacionales y continuamente hacían censos, que ponían bajo la protección la diosa Safnkit, diosa de los libros y las cuentas.

2238 a.C.

En China Confucio, en uno de sus clásicos "Shu-King" escrito hacia el año 550 a.C., nos narra cómo el Rey Yao en el año 2238 mandó hacer una estadística agrícola, industrial y comercial.

1800 a.C.

Su origen empieza posiblemente en la isla de Cerdeña, donde existen monumentos prehistóricos pertenecientes a los nuragas, los primeros habitantes de la isla; estos monumentos formados por bloques de basalto superpuestos sin mortero y en cuyas paredes de encontraban grabados toscos signos que servían para llevar la cuenta del ganado y la caza. Poco a poco conforme fue evolucionando la sociedad, estos hechos fueron más frecuentes y menos inciertos.

1450 a.C.

En la Biblia observamos en uno de los libros del Pentateuco, bajo el nombre de Números, el censo que realizó Moisés después de la salida de Egipto. Textualmente dice: "Censo de las tribus: El día primero del segundo año después de la salida de Egipto, habló Yahvé a Moisés en el desierto de Sinaí en el tabernáculo de la reunión, diciendo: "Haz un censo general de toda la asamblea de los hijos de Israel, por familias y por linajes, describiendo por cabezas los nombres de todos los varones aptos para el servicio de armas en Israel…". Igual tipos de datos en varios libros que conforman la Biblia.

721 a.C.

Fue Sargón II, rey de Asiria, quien fundó una biblioteca que guardaba tablillas de ladrillo de arcilla cocida de 25 por 16 cm., teniendo sólo en una de sus caras inscripciones cuneiformes. En esta biblioteca no se guardaban poemas u obras literarias; sino simplemente era una recopilación de hechos históricos, religiosos, importantes datos estadísticos sobre producción, cuentas; así como también datos de medicina, astronomía, etc.

594 a.C.

Grecia también tuvo importantes observaciones estadísticas en lo que refiere a distribución de terreno, servicio militar, etc. También cabe citar entre los griegos principalmente a Sócrates, Herodoto y Aristóteles, quienes a través de sus escritos incentivaron la estadística por su importancia para el Estado.

César Augusto.

27 a.C.

El Imperio Romano fue el primer gobierno que recopiló de manera sistemática una gran cantidad de datos sobre la población, superficie y renta de todos los territorios bajo su control. Durante la época de César Augusto, se decretó que todos los súbditos tenían que tributar y por tanto exigió a todas las personas que se presentaran al estadístico más cercano que era entonces el recaudador de impuestos. Los censos se realizaban cada cinco años, y los funcionarios públicos tenían la obligación de anotar nacimientos, defunciones y matrimonios, sin olvidar los recuentos periódicos del ganado y de las riquezas contenidas en las tierras conquistadas. En la época del nacimiento de Cristo sucedía uno de estos empadronamientos de la población bajo la autoridad del Imperio.

AUGE DE LA ESTADÍSTICA DESCRIPTIVA

758

Durante los mil años posteriores a la caída del Imperio Romano se realizaron muy pocas operaciones estadísticas, con la notable excepción de las relaciones de tierras pertenecientes a la Iglesia, compiladas por Pipino el Breve y por Carlomagno en los años 758 y 762, respectivamente. En Francia se realizaron algunos censos parciales de siervos durante el siglo IX.

1532

Debido al temor que Enrique VII tenía de la peste, en el año 1532 empezaron a registrarse en Inglaterra las defunciones causadas por esta enfermedad. En Francia, más o menos por la misma época, la ley exigía a los clérigos registrar los bautismos, fallecimientos y matrimonios.

1540

Alrededor del año 1540, el alemán Sebastián Muster realizó una compilación estadística de los recursos nacionales, que comprendía datos acerca de la organización política, instrucciones sociales, comercio y poderío militar.

1632

Durante un brote de peste que apareció a fines del siglo XVI, el gobierno inglés comenzó a publicar estadísticas semanales de los decesos. Esa costumbre continuó muchos años, y en 1632 los llamados Bills of Mortality (Cuentas de Mortalidad) ya contenían datos sobre los nacimientos y fallecimientos por sexo. En 1662, el capitán John Graunt compiló documentos que abarcaban treinta años, mediante los cuales efectuó predicciones sobre el número de personas que morirían de diversas enfermedades, así como de las proporciones de nacimientos de hombres y mujeres que cabía esperar. El trabajo de Graunt, condensado en su obra Natural and political observations… made upon the Bills of Mortality (Observaciones políticas y naturales…hechas a partir de las Cuentas de Mortalidad), fue un esfuerzo de inferencia y teoría estadística.

1691

Gaspar Neumann, un profesor alemán que vivía en Breslau, se propuso destruir la antigua creencia popular de que en los años terminados en 7 moría más gente que en los restantes, y para lograrlo hurgó pacientemente en los archivos parroquiales de la ciudad. Después de revisar miles de partidas de defunción, pudo demostrar que en tales años no fallecían más personas que en los demás. Los procedimientos de Neumann fueron conocidos por el astrónomo inglés Halley, descubridor del cometa que lleva su nombre, quien los aplicó al estudio de la vida humana. Sus cálculos sirvieron de base para las tablas de mortalidad que hoy utilizan todas las compañías de seguros.

1760

Godofredo Achenwall, profesor de la Universidad de Gotinga, acuñó en 1760 la palabra estadística, que extrajo del término italiano statista (estadista). Creía, y con sobrada razón, que los datos de la nueva ciencia serían el aliado más eficaz del gobernante consciente. La raíz remota de la palabra se halla en el término latino status, que significa “estado” o “situación”. Esta etimología aumenta el valor intrínseco de la palabra por cuanto que la estadística revela el sentido cuantitativo de las más variadas situaciones.

EL ESTUDIO DE LAS PROBABILIDADES

1487

El cálculo de las probabilidades se inició como solución a problemas relativos a los juegos de azar. El problema más importante era el conocido como “problema del reparto de apuestas” que distribuía las ganancias entre jugadores cuando la partida se interrumpía antes de finalizar. Este problema fue abordado por Luca Pacioli en 1487, por Niccolo Tartaglia en 1556, y por Girolamo Cardano en 1565. En ninguno de los casos la solución fue satisfactoria, pero contribuyó al desarrollo de la probabilidad.

1654


Blaise Pascal.
En correspondencia entablada entre los matemáticos franceses Blaise Pascal y Pierre de Fermat se plantea el problema del reparto de apuestas cuando el juego se suspende, y llegaron ambos de manera independiente a la misma solución, que consistió en darse cuenta de que el reparto de las apuestas debe hacerse en función de la probabilidad de ganar que tuviese cada jugador en el momento de interrumpirse el juego. Pascal y Fermat resolvieron este problema y otros muchos y fueron los que empezaron a formalizar la teoría de las probabilidades.

1657

Ni Pascal ni Fermat expusieron sus resultados por escrito y fue el físico-matemático holandés Christian Huygens quien en 1657 publicó un breve tratado titulado ”De Ratiocinnis in ludo aleae” (sobre los razonamientos relativos a los juegos de dados) inspirado en la correspondencia sostenida entre los dos creadores de la teoría de la probabilidad.

1665

Blaise Pascal publicaba Tratado sobre el triángulo aritmético, la más importante contribución realizada hasta la fecha en el ámbito de la combinatoria. El libro se basa en la construcción y propiedades combinatorias del posteriormente llamado triángulo de Pascal.

1687

El primero en dar la definición clásica de probabilidad fue Jacob Bernoulli, matemático suizo que trabajó en la universidad de Basilea en 1687, en su obra “Ars conjectandi” (El arte de la conjetura) que fue publicada algunos años después de la muerte del autor. En esta obra encontramos entre otras cosas la importante proposición conocida como el Teorema de Bernoulli mediante el cual se dió a la teoría de la probabilidad por primera vez el status de ciencia
Otro de los descubrimientos importantes de Bernoulli fue el saber obtener la probabilidad de ocurrencia de un suceso sin necesidad de contar los casos favorables (bien por omisión de datos o bien por la imposibilidad de contarlos). Para ello inventó la probabilidad a posteriori, es decir: “mediante la observación múltiple de los resultados de pruebas similares…” De esta manera, introdujo el concepto de probabilidad ‘estadística’: asignar como probabilidad de un suceso el resultado que se obtendría si el proceso se repitiera en condiciones similares un número grande de veces.

1718

Más adelante, el matemático francés exiliado en Inglaterra Abraham De Moivre aceptó la definición dada por Bernoulli y la reformuló en términos más modernos para la época: «una fracción en la que el numerador es igual al número de apariciones del suceso y el denominador es igual al número total de casos en los que es suceso pueda o no pueda ocurrir. Tal fracción expresa la probabilidad de que ocurra el suceso».
Abraham De Moivre también enunció el Teorema de la multiplicación de probabilidades y presentó el importante concepto de independencia de sucesos aleatorios,

1763

El trabajo de De Moivre fue seguido y difundido en la mayoría de los círculos científicos importantes de Europa y fue el reverendo británico, Thomas Bayes, probablemente alumno de De Moivre en Londres, quien extendió el trabajo del francés y expresó la probabilidad condicional en función de la probabilidad de la intersección. La regla o el Teorema de Bayes fue publicado en 1763 en un ensayo titulado An Essay Toward Solving a Problem in the Doctrine of Chances

1812


Pierre Simon Laplace.
Pierre S. Laplace publicó un gran tratado, titulado "Théorie Analytique des probabilités", donde no se limita a ocuparse de problemas de probabilidades discretas, que son los que corresponden a los juegos de azar, sino que se encarga también de estudiar problemas de probabilidades continuas.
A él le corresponde, además, el mérito de haber descubierto y demostrado el papel desempeñado por la distribución normal en la teoría de la probabilidad. Sus aportaciones en este campo pueden cifrarse en dos: por un lado la creación de un método para lograr aproximaciones de una integral normal; por otro el descubrimiento y demostración de lo que ahora se llama el teorema del límite central.
Esta gran obra de Laplace contiene la formalización de la Teoría Clásica de la Probabilidad. Sus formulaciones son las primeras en las que los temas tratados no se refieren a los juegos de azar.
A partir, fundamentalmente, de Laplace las dos disciplinas más importantes dentro de la teoría de la probabilidad, que eran el cálculo de probabilidades y la estadística se fusionaron de manera que el cálculo de probabilidades se convirtió en el andamiaje matemático de la estadística.

1823

Esta fue sólo la primera de las modernizaciones que sufriría la probabilidad el el siglo XIX. Otra de las más importantes fue la que llevó a cabo el matemático alemán Karl Friedrich Gauss, que desarrolló la teoría de errores conjuntamente con Bessel y Laplace, llegando a establecer el método de mínimos cuadrados como el procedimiento más elemental para resolver los problemas de la teoría de errores.
El estudio por parte de Gauss de la Teoría de los errores le lleva al estudio de la distribución de probabilidad de errores, con lo que llega a la distribución Normal, hasta entonces obtenida como aproximación de otras distribuciones. Junto con el método de mínimos cuadrados, el estudio de la distribución normal fue la principal aportación de Gauss al Cálculo de Probabilidades. El renombre que poseía Gauss entre sus contemporáneos contribuyó a la difusión de estos métodos. Es por ello por lo que su nombre ha quedado asociado con el de esta curva.

1835

Jacques Quételect es quien aplica la estadística a las ciencias sociales. Interpretó la teoría de la probabilidad para su uso en esas ciencias y aplicó el principio de promedios y de la variabilidad a los fenómenos sociales. Quételect fue el primero en efectuar la aplicación práctica de todo el método estadístico entonces conocido a las diversas ramas de la ciencia.

LA ESTADÍSTICA MODERNA

1888

A finales del siglo XIX, Sir Francis Galton introdujo el concepto de correlación, que tiene por objeto medir la influencia relativa de los factores sobre las variables. De aquí partió el desarrollo del coeficiente de correlación creado por Karl Pearson y otros cultivadores de la ciencia biométrica, tales como J. Pease Norton, R. H. Hooker y G. Udny Yule, que efectuaron amplios estudios sobre la medida de las relaciones.

Karl Pearson.

1892

Una vez sentadas las bases de la teoría de probabilidades, podemos situar el nacimiento de la estadística moderna también conocida como inferencia estadística, y su empleo en el análisis de experimentos, en los trabajos de Sir Francis Galton y Karl Pearson. Este último publicó en 1892 el libro The Grammar of Science (La gramática de la ciencia), un clásico en la filosofía de la ciencia, y fue él quien ideó el conocido test de Chi-cuadrada. El hijo de Pearson, Egon, y el matemático nacido en Polonia, Jerzy Neyman pueden considerarse los fundadores de las pruebas modernas de contraste de hipótesis.

1908

William Sealey Gosset publica un artículo en el que aporta grandes resultados para el estudio de muestras pequeñas, y deduce la distribución t, que se conoce como "t de student", ya que este era el seudónimo con el que publicó dicho artículo

1922

Pero es sin lugar a dudas Ronald Arnold Fisher la figura más influyente de la estadística moderna, pues la situó como una poderosa herramienta para la planeación y análisis de experimentos. Contemporáneo de Pearson, desarrolló el análisis de varianza y fue pionero en el desarrollo de numerosas técnicas de análisis multivariante y en la introducción del método de máxima verosimilitud para la estimación de parámetros. Su libro Statistical Methods for Research Workers (Métodos estadísticos para los investigadores), publicado en 1925, ha sido probablemente el libro de estadística más utilizado a lo largo de muchos años.

1933


Andréi Kolmogórov.
Andréi Kolmogórov desarrolló una teoría de la probabilidad totalmente rigurosa basada en axiomas fundamentales. La construcción axiomática de la teoría de la probabilidad procede de las propiedades fundamentales de la probabilidad, observadas en los ejemplos que ilustran la definición clásica y la definición frecuentista. Así, la definición axiomática las incluye como casos particulares y supera las carencias de ambas.
En nuestros días, la estadística se ha convertido en un método efectivo para describir con exactitud los valores de los datos económicos, políticos, sociales, psicológicos, biológicos y físicos, y sirve como herramienta para relacionar y analizar dichos datos. El trabajo del experto estadístico no consiste ya sólo en reunir y tabular los datos, sino sobre todo en interpretar esa información.
El desarrollo de la teoría de la probabilidad ha aumentado el alcance de las aplicaciones de la estadística. Muchos conjuntos de datos se pueden estudiar con gran exactitud utilizando determinadas distribuciones probabilísticas. La probabilidad es útil para comprobar la fiabilidad de las inferencias estadísticas y para predecir el tipo y la cantidad de datos necesarios en un determinado estudio estadístico.

No hay comentarios: