Probability, Frequency and Reasonable Expectation

By R T. Cox


Summary

'Los teóricos de la probabilidad están principalmente divididos en dos campos. Ambos están preocupados por las frecuencias dentro de un marco predictivo y expectativas razonables. Pero cada lado prioriza uno sobre el otro como el concepto principal de la probabilidad. La interpretación de la frecuencia es más popular, pero el autor de este documento, Richard Cox, cree que esto es un error. Proporciona el ejemplo de una caja que contiene dos bolas blancas y una bola negra, idénticas excepto por el color. Luego explica cómo cada grupo interpretaría esta situación. La interpretación frecuentista evaluaría la probabilidad de que se extraiga una bola blanca como ⅔. Resuelven el problema imaginando sacar una bola de un número indefinido de cajas; o sacar repetidamente una bola de una caja y luego reemplazarla. En cualquier caso, durante un gran número de repeticiones, la frecuencia de que se extraiga una bola blanca convergería en ⅔. Según ellos, esto no es una predicción de la teoría de la probabilidad, sino una definición de la probabilidad. La probabilidad es una característica del "ensemble" (configuración de prueba) y no existe sin ella. En la segunda interpretación, la teoría de la probabilidad proporciona la expectativa razonable de sacar una bola blanca dos tercios del tiempo y una bola negra un tercio del tiempo. Esta medida de expectativa razonable es el significado principal de probabilidad según el segundo grupo. Las dos interpretaciones de probabilidad tienen mucho en común. Ambos métodos pueden calcular algebraicamente la probabilidad de que ocurra o no un evento, que ocurra uno u otro evento, o que ocurran ambos eventos. Cada uno también especifica que si es poco probable que ocurra un evento, entonces es más probable que no ocurra. Asimismo, la probabilidad de que dos eventos ocurran juntos es menor que la probabilidad del menos probable de los dos. Si las frecuencias y las expectativas razonables fueran perfectamente intercambiables, entonces la división entre los teóricos de la probabilidad sería puramente gramatical. Sin embargo, hay diferencias importantes. En algunos casos, es imposible imaginar un conjunto que pudiera probar repetidamente la frecuencia de un evento. Pero hay casos en los que una probabilidad no puede ser determinada por un conjunto. Por ejemplo, existe una noción en la ciencia de que una hipótesis simple es preferida a una compleja. Que dos o más postulados sean verdaderos es menos probable que un solo postulado de la misma probabilidad sea verdadero. Esta preferencia es una creencia razonable, pero no tiene una frecuencia comprobable. Cox argumenta que la debilidad de la interpretación frecuentista es que hay tantas situaciones en las que un conjunto definible no existe. Las reglas que se derivaron de las pruebas de frecuencias dentro de los conjuntos no se pueden justificar en usos fuera de este dominio. John Maynard Keynes desarrolló una teoría original de probabilidad que no depende de la frecuencia. Para Keynes, la teoría de la probabilidad es una forma de lógica que se aplica a las inferencias probables. La probabilidad es, por lo tanto, el grado de creencia racional correspondiente a una hipótesis y su conclusión. La probabilidad excluye la certeza absoluta y la imposibilidad (el dominio de la lógica deductiva), pero se preocupa por los valores entre estos extremos. La definición de la frecuencia de la incertidumbre es inválida porque trata la probabilidad como una propiedad de un objeto que tiene un cierto valor, como la distancia o el tiempo en la mecánica. Mientras que Cox está de acuerdo con las opiniones de Keynes sobre las probabilidades, sintió que todavía había trabajo que hacer en la definición de sus axiomas fundamentales. Muchos de los postulados de la teoría de la probabilidad keynesiana provienen del estudio de los juegos de azar (volteos de monedas, dados, juegos de cartas) y llevan las "marcas de herramientas" de este origen. El objetivo de Cox era derivar los axiomas fundamentales de la probabilidad independientemente de cualquier conjunto. Para hacer esto, Cox describe los fundamentos de la lógica simbólica y proporciona once axiomas fundamentales. De estos, seis son fundamentales y los cinco restantes pueden derivarse de los primeros. Estos axiomas proporcionan las reglas básicas por las cuales se pueden realizar manipulaciones algebraicas en expresiones de probabilidad lógica, que él define a continuación. Utiliza los símbolos b|a para describir la probabilidad de b si a se acepta como verdadero. Esto se reformula como "la credibilidad de b en la hipótesis a." Las fórmulas matemáticas pueden usarse para operar en expresiones de probabilidad en esta forma. Cox demuestra varias, incluyendo la multiplicación y los exponenciales. La suposición más importante de esta sección es que la probabilidad de c y b dado a (c·b|a) es igual a la probabilidad de c dado b y a y también b dado a (c·b|a = c|b·a , b|a). Cox explica esto con un ejemplo de la probabilidad de que un corredor pueda recorrer una cierta distancia y volver en una cierta pista sin parar. El valor a es lo que sabemos sobre la condición física del corredor y la pista. El valor b es la evidencia de que ha recorrido una cierta distancia sin parar. El valor c es que él''ha regresado de esa distancia sin parar. La probabilidad de que el corredor pueda correr la primera etapa sin detenerse dada lo que sabemos de a es: b|a. La probabilidad de que el corredor regrese sin detenerse dado que se completó la primera etapa y también dado lo que sabemos de a es: (c|b·a). Así, la probabilidad de que el corredor pueda correr una cierta distancia y regresar (c·b|a) es una función de las dos primeras probabilidades. Un segundo supuesto se refiere a la probabilidad de b y no-b dado a. El símbolo, ~b, se usa para significar “no b” en el sentido de que si b significa “el coche es blanco”, entonces ~b significa “el coche no es blanco”. El símbolo ~ no implica la contradicción, que sería “el coche es negro”. Una fórmula importante a saber de esta sección es que la probabilidad de b|a + ~b|a = 1. En otras palabras, la suma de probabilidades para b dado a y no-b dado a es 1 (un valor de probabilidad de 1 significa certeza completa). La primera parte de este papel argumentó que la probabilidad tiene un alcance más amplio más allá de lo que implica la definición de frecuencia. La segunda parte derivó las reglas básicas de probabilidad de axiomas fundamentales. La tercera parte del ensayo explica cómo este nuevo entendimiento de la probabilidad maneja la frecuencia de un evento. Cox da el ejemplo de dos muestras de radón. Una es más antigua que la otra, pero están sin etiquetar. Cada una está conectada a un contador de iones idéntico y el objetivo es predecir qué muestra alcanzará 1000 conteos de iones primero. Un físico con conocimiento de la mecánica cuántica estimaría que las dos muestras tienen la misma probabilidad de alcanzar 1000 conteos primero. Una persona ordinaria sin conocimiento derivaría la misma probabilidad, pero por ignorancia. La estimación del físico se llama probabilidad objetiva. La estimación de la no física se llama comúnmente probabilidad subjetiva, aunque Cox prefiere el término "probabilidad primaria". Este término describe mejor una situación en la que no se sabe nada sobre el problema. Luego Cox describe una situación en la que un dado se lanza muchas veces y puede o no tener dos lados con cuatro puntos. La frecuencia de lanzar un cuatro debería ser 1 en 6 o 1 en 3. En este caso, nunca se puede alcanzar una probabilidad estable, pero se puede estimar. Cox luego deriva que una estimación se vuelve “más aguda” cuantos más ensayos se hayan realizado. Aunque Cox no usa el término, esto a menudo se llama "the Law of Large Numbers". Luego se dirige a un supuesto de Laplace, que una probabilidad desconocida es igualmente probable que tenga cualquier valor entre 0 y 1. Este supuesto es generalmente cierto, excepto en casos donde el valor de probabilidad es 0 o 1, o cuando el número de ensayos es muy pequeño. Cox demuestra que Laplace estaba en lo correcto, pero con menos generalidad de la que supuso Laplace. Bajo la interpretación de expectativa razonable de la probabilidad de Cox, la frecuencia de un evento se acerca a una probabilidad estable a medida que aumenta el número de instancias y concluye: "eso es todo lo que deberíamos esperar de él". Una “verdadera” frecuencia nunca se puede alcanzar, ya que no se pueden realizar un número infinito de experimentos.'

Jump to original

'"La probabilidad mide cuánto sabemos sobre una situación incierta. Hay dos formas principales de pensar en esto. Una forma es mirar cuántas veces sucede algo si repites un experimento muchas veces. La otra forma es pensar en cuán razonable es esperar que algo suceda basado en lo que sabes. La mayoría de los científicos creen que la primera forma es correcta, llamada "frecuentismo", pero este documento de Richard Cox dice que la segunda forma es mejor. Para mostrar cómo cada opinión es diferente, el autor usó un ejemplo de seleccionar una bola de un box con una bola blanca y dos bolas negras. La primera forma diría que si sacaras una bola de este box muchas veces, obtendrías una bola blanca una de cada tres veces y esa frecuencia de ⅓ es la probabilidad. La segunda forma diría que es razonable esperar una bola blanca una de cada tres veces. Incluso si solo puedes escoger una bola una vez, sigue siendo razonable juzgar esto como la probabilidad. Estas dos formas en su mayoría están de acuerdo en cómo calcular las probabilidades. Pero hay algunos casos en los que la primera forma no funciona porque no puedes repetir un experimento infinitas veces. Un filósofo llamado John Maynard Keynes creó un sistema para calcular la probabilidad basado en la lógica (usando reglas para hacer juicios) en lugar de experimentos repetidos. El autor de este artículo quería encontrar reglas básicas de probabilidad para el sistema de Keynes. Usó símbolos de matemáticas y lógica para mostrar las probabilidades. Un ejemplo es "b|a" que significa "la probabilidad de b si a es verdadero". Muestra cómo puedes combinar probabilidades usando matemáticas, como sumándolas. Cox también habla de cómo a medida que repites un experimento más veces, obtienes una mejor idea de la probabilidad. Muestra cómo el filósofo Laplace tenía razón sobre esto, pero hizo algunas suposiciones que no eran completamente correctas. Al final, Cox dice que solo puedes acercarte a la verdadera probabilidad de algo midiendo su frecuencia. Pero hay muchas otras veces en las que no puedes medir una frecuencia, pero aún puedes hacer una suposición razonable."'

--------- Original ---------
The concept of probability has from the beginning of the theory involved two ideas: the idea of frequency in an ensemble and the idea of reasonable expectation. The choice of one or the other as the primary meaning of probability has distinguished the two main schools of thought in theory.

Jump to original

'La teoría de la probabilidad se divide entre dos perspectivas principales. Una es la interpretación de frecuencia, que observa la tasa en la que algo ocurre cuando se repite un experimento. La otra es la visión de expectativa razonable, que considera cuán probable es algo basándose en lo que sabes. El autor de este artículo es Richard Cox, un físico estadounidense. Argumenta que la interpretación de frecuencia es incorrecta y defiende la interpretación de expectativa razonable de la probabilidad. El artículo proporciona el ejemplo de sacar una bola blanca de una box que contiene una bola blanca y dos bolas negras. Si eliges una bola de la box muchas veces, escogerás una bola blanca 1 de cada 3 veces. Así, el lado de la frecuencia diría que la probabilidad de escoger una bola blanca es ⅓. La visión de expectativa razonable diría que es sensato esperar sacar una bola blanca 1/3 del tiempo porque ⅓ de las bolas son blancas. Estas perspectivas suelen calcular las probabilidades de manera similar. Pero hay algunas ideas que tienen una probabilidad, pero que no pueden ser probadas mediante experimentos repetidos. El filósofo John Maynard Keynes veía la probabilidad como algo que podía ser expresado usando lógica (reglas de cómo las ideas se relacionan entre sí). El autor de este papel quería crear reglas básicas de probabilidad, llamadas axiomas, que acompañaran a la filosofía de Keynes. Demostró que hay 11 axiomas fundamentales y que seis de ellos pueden ser creados a partir de los primeros cinco. También enseñó cómo símbolos como "b|a" pueden ser usados para significar "probabilidad de b si a es verdadera". Luego demostró cómo esos símbolos que representan probabilidades podrían ser manipulados con operaciones matemáticas. Cox también examinó una idea, a veces llamada "La Ley de los Grandes Números", que explica cómo una estimación de probabilidad se vuelve más precisa después de que un experimento se repite muchas veces. Demostró que el filósofo Laplace tenía razón sobre esto, pero hizo algunas suposiciones incorrectas. Al final, Cox dice que una estimación de la probabilidad de algo se vuelve más estable después de muchas mediciones, pero esto es lo máximo que se puede decir. Así que la interpretación de frecuencia de la probabilidad nunca puede alcanzar una verdadera frecuencia de probabilidad porque nunca puedes realizar un número infinito de experimentos. Y hay muchas ocasiones en las que ni siquiera puedes realizar múltiples experimentos, por lo que la interpretación de expectativas razonables tiene más sentido en más situaciones.'

--------- Original ---------
The concept of probability has from the beginning of the theory involved two ideas: the idea of frequency in an ensemble and the idea of reasonable expectation. The choice of one or the other as the primary meaning of probability has distinguished the two main schools of thought in theory.
The concept of probability has from the beginning of the theory involved two ideas: the idea of frequency in an ensemble and the idea of reasonable expectation. The choice of one or the other as the primary meaning of probability has distinguished the two main schools of thought in theory.