LA PROBABILIDAD
Un poco de historia
La Probabilidad surge debido a la inquietud del hombre por buscar una solución a sucesos cuyo resultado depende en mayor o menor medida del azar. Nace con la simple inquietud de establecer una regla para dominar los juegos de azar, de buscar la fórmula mágica para conocer de antemano el resultado de dichos experimentos. Ya en el siglo XVI, a matemáticos como Pacioli, Cardano y Tartaglia se deben las primeras consideraciones sobre los juegos de azar.
Sin embargo, se considera que la teoría de la probabilidad tuvo como punto de partida cuando se intentó resolver un problema particular concerniente a una apuesta de juego de dados entre dos personas. El problema al que nos referimos involucraba una gran cantidad de dinero y puede plantearse de la siguiente forma:
Dos jugadores escogen cada uno de ellos un número del 1 al 6, distinto uno del otro, y apuestan 32 doblones de oro a que el número escogido por uno de ellos aparece en tres ocasiones antes que el número del contrario al lanzar sucesivamente un dado. Suponga que el número de uno de los jugadores ha aparecido dos veces y el número del otro una sola vez.
¿Cómo debe dividirse el total de la apuesta si el juego se suspende?
Uno de los apostadores, Antonio de Gombaud, popularmente conocido como el caballero De Mere, deseando conocer la respuesta al problema plantea a Blaise Pascal (1623-1662) la situación. Pascal a su vez consulta con Pierre de Fermat (1601-1665) e inician un intercambio de cartas a propósito del problema. Esto sucede en el año de 1654. Aquí se inician los esfuerzos por dar solución a ́este y otros problemas similares. Con el paso del tiempo, muchos otros matemáticos contribuyen con sus investigaciones para desarrollar una teoría matemática que posteriormente se llamaría "probabilidad".
Pierre S. Laplace.
En 1657 Christian Huyges, quién fuera profesor de Leibeniz, examinó la correspondencia entre Fermat y Pascal y de ahí publicó el primer libro sobre Teoría de Probabilidad titulado De Rationciniis in Ludo Aleae, que fué un tratado sobre problemas asociados con juegos de azar. Debido al interés qué se tenía sobre los juegos de azar, la Teoría de Probabilidad se volvió rápidamente muy popular, de manera que el tema se abordó mucho durante el siglo XVII; en ese período resaltan las contribuciones de Jakob Bernoulli (1654-1705) y de Abraham de Moivre (1667-1705). Posteriormente, en 1812, Pierre de Laplace (1749-1827) introdujo nuevas ideas y técnicas matemáticas en su libro Theorie Analytique des Probabilités. Antes de Pierre Pascal, la Teoría de Probabilidad solamente estudiaba la aleatoriedad en los juegos, por el contrario Pascal aplicó probabilidades a muchas áreas como genética, psicología y economía. Pascal desarrolló además una teoría de errores.
En los tiempos de Pascal hubo muchos que participaron en la teoría de la probabilidad y sus aplicaciones. Cabe mencionar al naturalista Buffon, quien planteó el famoso experimento que lleva su nombre, la aguja de Buffon, que consiste en representar el lanzamiento de una aguja sobre un cuadrado.
El Marqués de Condorcet (1743-1794) fue un líder político durante la Revolución Francesa que estaba interesado en aplicar Teoría de Probabilidades a economía y política. El calculaba la probabilidad de que un jurado que decidiera por mayoría, tomará una decisión correcta si cada miembro del jurado tenía la misma probabilidad de tomar la decisión correcta.
Karl Pearson.
En 1894, Karl Pearson analizó un gran número de resultados de una determinada ruleta no justa (con distribución no uniforme) y planteo los Métodos de Casinos. Pearsons sugirió utilizar los casinos como un laboratorio de teoría de probabilidades y realizar experimentos en ellos; esto condujo a Pearson a descubrir la prueba Chi-Cuadrada.
Para los experimentos que sugería Pearson se requerían números aleatorios. Esto llevó a L.H.C Tippet a encontrar métodos para generar números aleatorios y en 1927 publicó una tabla con alrededor de 40,000 números aleatorios (ó pseudoaleatorios). Años más tarde Von Neuman plantea el uso de los métodos de Pearson pero utilizando números aleatorios en combinación con funciones de distribución para simular procesos, naciendo así los famosos Métodos MonteCarlo aplicados hasta la fecha.
En 1926, Frank Ramsey Plumpton (1903-1930), un matemático inglés, en su artículo Truth and Probability (Verdad y probabilidad), analiza la probabilidad subjetiva.
En 1933, un matemático ruso, A. Kolmogorov desarrolló un enfoque axiomático de la Teoría de Probabilidad en su libro traducido al inglés, en 1950, Foundations of Probability Theory.
En 1954 el matemático norteamericano Leonard Jimmie Savage en su libro The Foundations of Statistics presentó la teoría de la probabilidad subjetiva.
¿Qué es la Probabilidad?
La palabra probabilidad viene del latín probabilitas, posibilitatis, formada del verbo probare (comprobar, probar), el sufijo -bilis (indica posibilidad), y el sufijo -tat- que indica cualidad. Entonces indica la cualidad (-dad) de poder (-able) probar.
Hoy podemos abordar el término probabilidad de dos formas, como una área del conocimiento o como una medición.
Y a la Probabilidad como área del conocimiento se le conoce como Teoría de la probabilidad.
Concepto de la Probabilidad según los diferentes enfoques.
La probabilidad basa sus fundamentos matemáticos en tres interpretaciones: la clásica, la frecuentista y la subjetiva. Las tres interpretaciones partes de un grupo de axiomas de los cuales se desprende una serie de análisis y herramientas que permiten establecer patrones de comportamiento de determinados experimentos.
Enfoque clásico
Este enfoque está basado en el principio de la razón insuficiente. El principio de la razón insuficiente, o principio de indiferencia, fue utilizado por el matemático Jacobo Bernoulli (1645 – 1705) para definir probabilidades. Este principio señala que cuando no hay fundamentos para preferir uno de los posibles resultados o sucesos a cualquier otro, todos deben considerarse que tienen la misma probabilidad de ocurrir.
Si en el caso del lanzamiento de un dado, se considera que cualquier cara tiene las mismas probabilidades de aparecer, dado que no hay elementos que indiquen lo contrario, a menos que se aclarara que se utilizará un dado cargado. El matemático francés Pierre Simon Laplace (1749 – 1827) estableció este principio en su libro A Philosophical Essay on Probabilities de esta manera:
“La teoría de la probabilidad consiste en reducir todos los elementos de la misma clase a un cierto número de casos igualmente posibles, es decir, nosotros debemos estar igualmente indecisos ante su existencia y para determinar la cantidad de casos favorables para el suceso que cuya probabilidad se busca. La relación de este número con el de todos los casos posibles, es la medida de la probabilidad, que es, por tanto, sencillamente una fracción cuyo denominador es el número de todos los casos posibles”.
Este principio de la razón insuficiente tiene varias características, una de las cuales es que supone una simetría entre los sucesos. Así se habla de un dado no cargado, de una moneda no cargada, de una baraja de cartas sin trucos, etc. La otra es que se basa en razonamientos abstractos y no depende de la experiencia.
La hipótesis de la simetría reduce el campo de aplicación de este principio, ya que, como se advertirá más adelante, muchos experimentos no poseen simetría. Por otra parte, puesto que los cálculos de la probabilidad no dependen de la experiencia, esto permite calcular las probabilidades sin realizar una gran serie de ensayos. Este tipo de experimentos se denominan algunas veces a priori.
La probabilidad, según el enfoque clásico, se calcula de la siguiente manera:
Enfoque frecuentista
Andréi N. Kolmogórov
Con esto podemos suponer (formar una opinión o juicio con evidencia insuficiente) que cuando el experimento Ei se repite una gran cantidad de veces, la frecuencia relativa de un experimento podría ser prácticamente igual a un valor P, con un elevado grado de certeza.
Siguiendo este tipo de razonamiento se construye un modelo matemático ideal y abstracto de este experimento que se postula como sigue: dado un experimento E y un evento A, podemos asignar un número P al evento A, el cual se denomina probabilidad del evento A. Ese número P tiene las siguientes características: Cuando el experimento E se repite una gran cantidad de veces (n) y el experimento sucede m veces, la frecuencia relativa m/n será prácticamente igual a ese número P.
El número P, que se llama probabilidad del evento A, se denota por P(A).
La P(A) cumple con ciertos preceptos: Primero, m ≤ n; es decir, el número de casos que aparece m es igual o menor al número de veces n que aparece el experimento. Es decir, la frecuencia relativa es igual o menor a la unidad.
Segundo, si no se presenta la ocurrencia de un águila, entonces m = 0 y
por lo tanto:
lo que equivale a:
Puede percibirse que el hecho de que P(A) = 0 no asegura que el evento A sea imposible. De la misma forma, P(A) = 1 no asegura la ocurrencia cierta del evento A.
Este enfoque posee cuatro características:
1. Supone una gran cantidad de ensayos.
2. Supone la regularidad estadística.
3. La P(A) se estima por la frecuencia relativa de A.
4. Está basada en la experiencia.
Este enfoque es el principio en el cual se fundamentan los estudios probabilísticos desarrollados en los años cincuenta, principalmente en Inglaterra y los Estados Unidos. No obstante, este enfoque presenta limitaciones, particularmente en lo que a sus valores extremos se refiere, frente a la necesidad de evaluar experimentos que no se producen realmente o no se pueden repetir.
Una corrección a este enfoque, citado en la literatura como segundo enfoque frecuentista, define a la probabilidad como el límite de m/n cuando n tiende a infinito:
Obsérvese que en el primer enfoque se dice sólo que P(A) y m/n son prácticamente iguales cuando n es grande, mientras que en el segundo enfoque se dice que P(A) es el límite de m/n cuando n tiende a infinito.
En el primer punto de vista se da un número P(A) para el evento A y se le llama probabilidad de A. En el segundo P(A) es el límite de un proceso.
Enfoque subjetivo
En el segundo cuarto del siglo XX surgió una nueva interpretación, llamada "subjetiva". Esta que fue propuesta por primera vez por el filósofo y matemático inglés Frank P. Ramsey, y después formulada por Leonard Jimmie Savage en su libro The Foundations of Statistics (1954) establece: “Un punto de vista personalista sostiene que la probabilidad mide la confianza que tiene un individuo determinado en la verdad de una proposición particular”.
Este punto de vista permite interpretar a las probabilidades como ponderaciones atribuidas conforme la confianza personal (o subjetiva) en el resultado de un experimento. Este enfoque se aplica a experimentos que todavía no ocurren o que lo hacen una sola vez y no requiere un experimento con gran cantidad de ensayos ni la hipótesis de regularidad estadística.
El primer enfoque frecuentista se puede interpretar con base en el enfoque subjetivista. El primer enfoque frecuentista asigna un número P(A) a la ocurrencia del evento A, que proviene de la frecuencia relativa m/n del evento A (cuando el experimento se realiza un número grande de veces). En el enfoque subjetivo, P(A) es la medida de la confianza que una persona razonable asigna a la ocurrencia del evento A. En ambos casos, la frecuencia relativa y la asignación con base en la confianza de ocurrencia, dependen de la experiencia.
Enfoque axiomático
La definición axiomática de probabilidad se debe a Kolmogorov (1933), quien consideró la relación entre la frecuencia relativa de un suceso y su probabilidad cuando el número de veces que se realiza el experimento es muy grande.
Dado un espacio muestral S, diremos que P es una probabilidad sobre un evento dado si las siguientes propiedades (axiomas) son verificadas:
Axioma 1
La probabilidad de que ocurra un evento A cualquiera se encuentra entre cero y uno.
Axioma 2
La probabilidad de que ocurra el espacio muestral es 1.
Axioma 3
Si A y B son eventos mutuamente exclusivos, es decir que no tienen elementos en común, entonces:
Si se tienen n eventos mutuamente exclusivos A1, A2,.....An, entonces:
No hay comentarios:
Publicar un comentario