Probability, Frequency and Reasonable Expectation

By R T. Cox


Summary

'Teóricos da probabilidade são principalmente divididos em dois campos. Ambos se preocupam com as frequências dentro de um quadro preditivo e expectativas razoáveis. Mas cada lado prioriza um sobre o outro como o conceito principal de probabilidade. A interpretação de frequência é mais popular, mas o autor deste artigo, Richard Cox acredita que isso é um erro. Ele fornece o exemplo de uma box contendo duas bolas brancas e uma bola preta, idênticas exceto pela cor. Ele então explica como cada grupo interpretaria essa situação. A interpretação frequentista avaliaria a probabilidade de uma bola branca ser retirada como ⅔. Eles resolvem o problema imaginando retirar uma bola de um número indefinido de boxes; ou repetidamente retirar uma bola de uma box e depois substituí-la. Em qualquer caso, ao longo de um grande número de repetições, a frequência de uma bola branca ser retirada convergiria em ⅔. De acordo com eles, isso não é uma previsão da teoria da probabilidade, mas uma definição de probabilidade. A probabilidade é uma característica do "ensemble" (configuração de teste) e não existe sem ele. Na segunda interpretação, a teoria da probabilidade fornece a expectativa razoável de retirar uma bola branca dois terços do tempo e uma bola preta um terço do tempo. Esta medida de expectativa razoável é o principal significado de probabilidade de acordo com o segundo grupo. As duas interpretações da probabilidade têm muito em comum. Ambos os métodos podem calcular algebricamente a probabilidade de que um evento ocorra ou não, que um ou outro evento ocorrerá, ou que ambos os eventos ocorrerão. Cada um também especifica que se um evento é improvável de ocorrer, então é mais provável que não ocorra. Da mesma forma, a probabilidade de dois eventos ocorrerem juntos é menor do que a probabilidade do menos provável dos dois. Se as frequências e as expectativas razoáveis fossem perfeitamente intercambiáveis, então a divisão entre os teóricos da probabilidade seria puramente gramatical. No entanto, existem diferenças importantes. Em alguns casos, é impossível imaginar um ensemble que poderia testar repetidamente a frequência de um evento. Mas existem casos em que uma probabilidade não pode ser determinada por um ensemble. Por exemplo, existe uma noção na ciência de que uma hipótese simples é preferida a uma complexa. Duas ou mais postulações serem verdadeiras é menos provável do que uma única postulação da mesma probabilidade ser verdadeira. Esta preferência é uma crença razoável, mas não tem uma frequência testável. Cox argumenta que a fraqueza da interpretação frequentista é que existem tantas situações em que um ensemble definível não existe. As regras que foram derivadas do teste de frequências dentro dos ensembles não podem ser justificadas em usos fora deste domínio. John Maynard Keynes desenvolveu uma teoria original de probabilidade que não depende de frequência. Para Keynes, a teoria da probabilidade é uma forma de lógica que se aplica a inferências prováveis. A probabilidade é, assim, o grau de crença racional correspondente a uma hipótese e sua conclusão. A probabilidade exclui a certeza absoluta e a impossibilidade (o domínio da lógica dedutiva), mas se preocupa com os valores entre estes extremos. A definição de frequência de incerteza é inválida porque trata a probabilidade como uma propriedade de um objeto que tem um certo valor, como distância ou tempo em mecânica. Embora Cox concorde com as visões de Keynes sobre as probabilidades, ele sentiu que ainda havia trabalho a ser feito na definição de seus axiomas fundamentais. Muitos dos postulados da teoria da probabilidade keynesiana vêm do estudo de jogos de azar (flip de moedas, dados, jogos de cartas) e têm marcas de ferramenta de sua origem. O objetivo de Cox era derivar axiomas fundamentais da probabilidade independentes de qualquer ensemble. Para fazer isso, Cox descreve os conceitos básicos da lógica simbólica e fornece onze axiomas fundamentais. Destes, seis são fundamentais e os cinco restantes podem ser derivados dos anteriores. Estes axiomas fornecem as regras básicas pelas quais as manipulações algébricas podem ser realizadas em expressões de probabilidade lógica, que ele define a seguir. Ele usa os símbolos b|a para descrever a probabilidade de b se a é aceito como verdadeiro. Ele reafirma isto como "a credibilidade de b na hipótese a." Fórmulas matemáticas podem ser usadas para operar em expressões de probabilidade nesta forma. Cox demonstra várias, incluindo multiplicação e exponenciais. A suposição mais importante desta seção é que a probabilidade de c e b dado a (c·b|a) é igual à probabilidade de c dado b e a e também b dado a (c·b|a = c|b·a , b|a). Cox explica isso com um exemplo de probabilidade de que um corredor possa correr uma determinada distância e voltar em uma determinada pista sem parar. O valor a é o que sabemos sobre a condição física do corredor e da pista. O valor b é a evidência de que ele correu uma determinada distância sem parar. O valor c é que ele''retornou dessa distância sem parar. A probabilidade de o corredor poder correr a primeira perna sem parar, dado o que sabemos de a, é: b|a. A probabilidade de o corredor retornar sem parar, dado que a primeira perna foi concluída e também o que sabemos de a, é: (c|b·a). Assim, a probabilidade de o corredor poder correr uma certa distância e retornar (c·b|a) é uma função das duas primeiras probabilidades. Uma segunda suposição se relaciona com a probabilidade de b e não-b dado a. O símbolo, ~b, é usado para significar “não b” no sentido de que se b significa “o carro é branco”, então ~b significa “o carro não é branco”. O símbolo ~ não implica a contradição, que seria “o carro é preto”. Uma fórmula importante a saber desta seção é que a probabilidade de b|a + ~b|a = 1. Em outras palavras, a soma das probabilidades de b dado a e não-b dado a é 1 (um valor de probabilidade de 1 significa certeza completa). A primeira parte deste artigo argumentou que a probabilidade tem um alcance mais amplo além do que a definição de frequência implica. A segunda parte derivou as regras básicas de probabilidade de axiomas fundamentais. A terceira parte do ensaio explica como esse novo entendimento de probabilidade lida com a frequência de um evento. Cox dá o exemplo de duas amostras de radônio. Uma é mais velha que a outra, mas elas não estão rotuladas. Cada uma está ligada a um contador de íons idêntico e o objetivo é prever qual amostra atingirá 1000 contagens de íons primeiro. Um físico com conhecimento de mecânica quântica estimaria que as duas amostras têm igual probabilidade de atingir 1000 contagens primeiro. Uma pessoa comum sem conhecimento derivaria a mesma probabilidade, mas por ignorância. A estimativa do físico é chamada de probabilidade objetiva. A estimativa do não físico é comumente chamada de probabilidade subjetiva, embora Cox prefira o termo “probabilidade primária”. Este termo descreve melhor uma situação em que nada se sabe sobre o problema. Cox então descreve uma situação em que um dado é lançado muitas vezes e pode ou não ter dois lados com quatro pontos. A frequência de jogar um quatro deve ser 1 em 6 ou 1 em 3. Nesse caso, uma probabilidade estável nunca pode ser alcançada, mas pode ser estimada. Cox então deriva que uma estimativa fica “mais afiada” quanto mais testes foram conduzidos. Embora Cox não use o termo, isso é frequentemente chamado de "Lei dos Grandes Números". Ele então aborda uma suposição de Laplace, de que uma probabilidade desconhecida é igualmente provável de ter qualquer valor entre 0 e 1. Essa suposição é geralmente verdadeira, exceto em casos onde o valor da probabilidade é 0 ou 1, ou quando o número de testes é muito pequeno. Cox prova que Laplace estava correto, mas com menos generalidade do que Laplace supôs. Sob a interpretação de expectativa razoável de Cox de probabilidade, a frequência de um evento se aproxima de uma probabilidade estável à medida que o número de instâncias aumenta e ele conclui: “é tudo o que devemos esperar dela.” Uma “verdadeira” frequência nunca pode ser alcançada, pois um número infinito de experimentos não pode ser realizado.'

Jump to original

'A probabilidade mede o quanto sabemos sobre uma situação incerta. Existem duas principais maneiras de pensar sobre isso. Uma maneira é olhar para a frequência com que algo acontece se você repetir um experimento várias vezes. O outro modo é pensar sobre o quão razoável é esperar que algo aconteça com base no que você sabe. A maioria dos cientistas acredita que a primeira maneira é correta, chamada de "frequentismo", mas este artigo de Richard Cox diz que a segunda maneira é melhor. Para mostrar como cada opinião é diferente, o autor usou um exemplo de pegar uma bola de uma box com uma bola branca e duas bolas pretas. O primeiro método diria que se você pegasse uma bola desta box muitas vezes, obteria uma bola branca uma em cada três vezes e essa frequência de ⅓ é a probabilidade. O segundo método diria que é razoável esperar uma bola branca uma em cada três vezes. Mesmo que você só possa escolher uma bola uma vez, ainda é razoável julgar isso como a probabilidade. Essas duas maneiras concordam principalmente em como calcular probabilidades. Mas existem alguns casos em que a primeira maneira não funciona porque você não pode repetir um experimento infinitas vezes. Um filósofo chamado John Maynard Keynes criou um sistema para calcular a probabilidade com base na lógica (usando regras para fazer julgamentos) em vez de experimentos repetidos. O autor deste artigo queria criar regras básicas de probabilidade para o sistema de Keynes. Ele usou símbolos de matemática e lógica para mostrar probabilidades. Um exemplo é "b|a" que significa "a probabilidade de b se a é verdadeiro". Ele mostra como você pode combinar probabilidades usando matemática, como somá-las. Cox também fala sobre como, ao repetir um experimento mais vezes, você tem uma melhor ideia da probabilidade. Ele mostra como o filósofo Laplace estava certo sobre isso, mas fez algumas suposições que não eram completamente corretas. No final, Cox diz que você só pode se aproximar da verdadeira probabilidade de algo medindo sua frequência. Mas há muitas outras vezes em que você não pode medir uma frequência, mas ainda pode fazer um palpite razoável.'

--------- Original ---------
The concept of probability has from the beginning of the theory involved two ideas: the idea of frequency in an ensemble and the idea of reasonable expectation. The choice of one or the other as the primary meaning of probability has distinguished the two main schools of thought in theory.

Jump to original

'A teoria da probabilidade é dividida entre duas principais perspectivas. Uma é a interpretação da frequência, que observa a taxa em que algo ocorre ao repetir um experimento. A outra é a visão da expectativa razoável, que considera o quão provável algo é com base no que você sabe. O autor deste artigo é Richard Cox, um físico americano. Ele argumenta que a interpretação da frequência está errada e defende a interpretação da expectativa razoável da probabilidade. O artigo fornece o exemplo de tirar uma bola branca de uma box contendo uma bola branca e duas bolas pretas. Se você pegar uma bola da box muitas vezes, você escolherá uma bola branca 1 em cada 3 vezes. Portanto, o lado da frequência diria que a probabilidade de escolher uma bola branca é ⅓. A visão da expectativa razoável diria que é sensato esperar tirar uma bola branca 1/3 do tempo porque ⅓ das bolas são brancas. Essas perspectivas geralmente calculam probabilidades de maneira semelhante. Mas existem algumas ideias que têm uma probabilidade, mas não podem ser testadas por experimentos repetidos. O filósofo John Maynard Keynes via a probabilidade como algo que poderia ser expresso usando lógica (regras de como as ideias se relacionam umas com as outras). O autor deste artigo queria criar regras básicas de probabilidade, chamadas axiomas, para acompanhar a filosofia de Keynes. Ele demonstrou que existem 11 axiomas fundamentais e seis deles podem ser criados a partir dos primeiros cinco. Ele também ensinou como símbolos como "b|a" podem ser usados para significar "probabilidade de b se a for verdadeira". Em seguida, ele demonstrou como esses símbolos representando probabilidades poderiam ser manipulados com operações matemáticas. Cox também examinou uma ideia, às vezes chamada de “Lei dos Grandes Números”, que diz como uma estimativa de probabilidade fica mais precisa após um experimento ser repetido muitas vezes. Ele mostrou que o filósofo Laplace estava certo sobre isso, mas fez algumas suposições incorretas. No final, Cox diz que uma estimativa da probabilidade de algo se torna mais estável após muitas medições, mas isso é o máximo que se pode dizer. Portanto, a interpretação da frequência da probabilidade nunca pode atingir uma verdadeira frequência de probabilidade porque você nunca pode realizar um número infinito de experimentos. E há muitas vezes que você não pode nem mesmo realizar vários experimentos, então a interpretação da expectativa razoável faz mais sentido em mais situações.'

--------- Original ---------
The concept of probability has from the beginning of the theory involved two ideas: the idea of frequency in an ensemble and the idea of reasonable expectation. The choice of one or the other as the primary meaning of probability has distinguished the two main schools of thought in theory.
The concept of probability has from the beginning of the theory involved two ideas: the idea of frequency in an ensemble and the idea of reasonable expectation. The choice of one or the other as the primary meaning of probability has distinguished the two main schools of thought in theory.