A modern history of probability theory


Summary

'A apresentação de Kevin Knuth sobre a história da teoria da probabilidade começa com a famosa citação de Laplace, que "a teoria da probabilidade é basicamente apenas senso comum reduzido ao cálculo". A lógica tradicional se preocupa apenas com o que é absolutamente verdadeiro ou falso. O cientista James Clerk Maxwell defendeu que a probabilidade diz respeito à magnitude da verdade existente entre os extremos de verdadeiro e falso. A probabilidade é comumente apresentada como P(x|y), que se traduz na probabilidade de x ser verdadeiro dado que y é verdadeiro. Knuth introduz a visão de John Maynard Keynes de que a probabilidade deve ser interpretada como um grau de verdade ou o grau de crença que uma pessoa racional teria em uma hipótese. É em certo sentido subjetivo, mas não devido à influência do "capricho do homem". Uma terceira visão da probabilidade a explica como um "grau de implicação". Knuth prefere essa interpretação. Três sistemas fundamentais da teoria da probabilidade são explicados: o método de Bruno De Finetti calculava probabilidades como um grau de crença quantificado por quanto uma pessoa racional apostaria em um resultado previsto. A ênfase é na consistência. Knuth lamenta que esta é a fundação mais comumente apresentada. Anton Kolmogorov criou axiomas fundamentais da teoria da probabilidade que são especialmente populares entre os Bayesianos modernos. Com esses axiomas, as probabilidades podem ser calculadas algebricamente. Richard Cox generalizou a lógica booleana para graus de crença racional. Seus axiomas permitiam o cálculo de probabilidades de múltiplos eventos e incluíam a relação entre proposições e suas contraditórias. De Finetti e Kolmogorov criaram sistemas que eram completos e autocontidos. A criação de Cox estava certa o suficiente para ser útil, interessante o suficiente para ser convincente, e deixava espaço suficiente para melhorias futuras. Muito desse trabalho foi feito por E.T. Jaynes. Knuth apresenta então uma perspectiva moderna sobre a probabilidade. Principalmente, diz respeito a determinar quais tipos de conhecimento podem ser descritos por equações: as leis do universo e as restrições por uma ordem subjacente são exemplos primários. Ele introduz lattices como uma ferramenta para entender a probabilidade. Estes são conjuntos parcialmente ordenados de elementos com um limite superior mínimo e um limite inferior máximo (conceptualmente um teto e um chão). Quantificação e operações lógicas podem ser feitas em lattices enquanto preservam a ordem de sua estrutura. Knuth demonstra como a associatividade das operações lógicas (instâncias em que a ordem das operações lógicas não importa) pode ser usada para derivar os fundamentos da teoria da medida. Ele mostra como a aditividade das operações lógicas funciona e resulta na regra de soma ubíqua. A inferência também é demonstrada, começando com um exemplo do que podemos saber sobre o conteúdo de um carrinho de compras. Aprendemos que conhecimento de alto nível pode ser inferido a partir da estrutura de um lattice. Ele até deriva o teorema de Bayes a partir de operações matemáticas realizadas em um lattice. Lógica e matemática podem ser usadas para calcular probabilidades dentro de um lattice em aplicações tão variadas como carrinhos de compras e física quântica. Knuth conclui que os fundamentos da probabilidade atuam como uma base ampla a partir da qual teorias inovadoras podem ser feitas em domínios aparentemente díspares.'

Jump to original

'A probabilidade é sobre descobrir quão provável é que algo aconteça. Não é apenas verdadeiro ou falso. Existe toda uma gama no meio. Especialistas têm debatido o significado da probabilidade e alguns pensam que significa o quanto uma ideia é verdadeira ou o quanto uma pessoa deve acreditar numa ideia. O autor desta apresentação, Kevin Kneuth, acredita que a probabilidade deve ser o quanto uma ideia está implícita. A probabilidade é escrita assim: P(x|y). Significa "Quão provável é x se y for verdadeiro?" Três dos maiores especialistas em probabilidade surgiram com diferentes ideias de como ela deveria funcionar: Bruno de Finetti explicou a probabilidade pela quantidade que você apostaria em algo acontecer. Consistência é a chave. Anton Kolmogorov criou regras matemáticas para calcular probabilidades, como na álgebra. Richard Cox usou a lógica e a matemática para decidir quão provável uma ideia é ser verdadeira. O trabalho deles foi ótimo e as pessoas o melhoraram ainda mais depois. Uma visão moderna da probabilidade olha para que tipos de ideias podem ser descritas por equações matemáticas. As regras da natureza e ordem são exemplos importantes. Uma ferramenta para fazer matemática de probabilidade é um reticulado - conjuntos ordenados com limites superiores e inferiores. Sua estrutura permite que você venha com novas ideias sobre os itens em um reticulado. Você também pode fazer operações matemáticas neles sob algumas regras básicas como: A ordem de algumas operações não importa A adição funciona como esperado Você pode criar um conhecimento de nível superior (chamado de inferência) Estas regras permitem que você calcule probabilidades. Até mesmo o teorema de Bayes pode ser derivado desta maneira. Os princípios funcionam de forma ampla, desde listas de compras até a física quântica. Em resumo, os fundamentos da teoria da probabilidade fornecem uma base para novas teorias em muitas áreas. As regras da matemática e da lógica podem ajudar a descobrir as probabilidades.'

--------- Original ---------
“In deriving the laws of probability from more fundamental ideas, one has to engage with what ‘probability’ means. - Anthony J.M. Garrett, “Whence the Laws of Probability”, MaxEnt 1997 This is a notoriously contentious issue; fortunately, if you disagree with the definition that is proposed, there will be a get-out that allows other definitions to be preserved.”

Jump to original

'A teoria da probabilidade é toda sobre calcular o quão provável algo é de acontecer. No passado, a lógica lidava apenas com o que é absolutamente verdadeiro ou falso. Mas os cientistas perceberam que há uma gama completa de possibilidades entre esses extremos. A probabilidade geralmente é escrita como P(x|y). Isso significa "a probabilidade de que x seja verdade, assumindo que y seja verdade". Há algumas maneiras de pensar sobre o que a probabilidade realmente significa: O grau de verdade de uma ideia. Quão fortemente uma pessoa racional deve acreditar em uma ideia. Quão fortemente uma ideia é implicada para ser verdadeira ou falsa. O escritor desta apresentação, Kevin Knuth, prefere a terceira interpretação. Em seguida, ele apresenta três fundadores chave que desenvolveram sistemas de teoria da probabilidade: Bruno de Finetti focou em quanto uma pessoa apostaria em um certo resultado sendo verdadeiro. Consistência era a chave. Anton Kolmogorov criou regras matemáticas para calcular probabilidades. Richard Cox generalizou a lógica para lidar com graus de crença. Seu trabalho foi fundamental, mas ainda deixou espaço para melhoria. E.T. Jaynes e outros se basearam em suas ideias. Uma visão moderna olha para que tipos de conhecimento podem ser descritos por equações de probabilidade. As regras da natureza e ordem no mundo são exemplos principais. Uma ferramenta usada para entender probabilidades é chamada de treliça - conjuntos ordenados com limites superiores e inferiores. Você pode fazer matemática e operações lógicas nelas de uma maneira que preserva sua ordem. Isso leva às regras básicas da probabilidade: Associatividade - ordem de algumas operações lógicas não importa. Aditividade - somas funcionam como esperado. Inferência - conhecimento de alto nível pode ser derivado da estrutura de uma treliça. Essas regras permitem calcular probabilidades. Até mesmo o teorema de Bayes pode ser derivado dessas regras. Os princípios se aplicam amplamente, desde listas de supermercado até a física quântica. Em resumo, os fundamentos da teoria da probabilidade atuam como fundação para novas teorias em muitos campos. Consistência, regras de matemática e lógica, e inferência contribuem para calcular a probabilidade de ideias.'

--------- Original ---------
“In deriving the laws of probability from more fundamental ideas, one has to engage with what ‘probability’ means. - Anthony J.M. Garrett, “Whence the Laws of Probability”, MaxEnt 1997 This is a notoriously contentious issue; fortunately, if you disagree with the definition that is proposed, there will be a get-out that allows other definitions to be preserved.”
“In deriving the laws of probability from more fundamental ideas, one has to engage with what ‘probability’ means. - Anthony J.M. Garrett, “Whence the Laws of Probability”, MaxEnt 1997 This is a notoriously contentious issue; fortunately, if you disagree with the definition that is proposed, there will be a get-out that allows other definitions to be preserved.”