Tradução de: en.wikipedia.org - History of probability
Probabilidade tem um aspecto duplo: por um lado a probabilidade ou possibilidade de uma hipótese dada a evidência para ela, e, por outro lado, o comportamento de processos estocásticos, tais como o lançamento de dados ou moedas. O estudo da primeira é historicamente mais antigo, por exemplo, uma lei de evidência, enquanto o tratamento matemático dos dados começou com o trabalho de Cardano, Pascal e Fermat entre os século XVI e XVII.
Girolamo Cardano: Hieronymi Cardani artis magnae sive de regulis
algebraicis liber unus. Nürnberg, 1545. - www.library.ethz.ch
Probabilidade se distingue de estatística. (Veja a história da estatística). Enquanto a estatística lida com dados e inferências a partir deles, probabilidade (estocástica) trata dos processos estocásticos (aleatório)que estão por trás de dados ou resultados.
Etimologia
Provável e probabilidade e seus cognatos em outras línguas modernas derivam do latim ensinado medieval probabilis , derivando de Cícero e geralmente aplicado a um parecer ao dizer-se plausível ou geralmente aprovado.[1] O sentido matemático do termo é de 1718. No século XVIII, o termo oportunidade também foi usado no sentido matemático de "probabilidade" (e a teoria da probabilidade foi chamado Doutrina das Chances). Esta palavra é, em última análise originária a partir do termo cadentia do latim, ou seja, "uma queda". O adjetivo Inglês provável é de origem germânica, provavelmente a partir do termo likligr do Old Norse (língua nórdica antiga) , enquanto no Inglês Antigo teve o termo geliclic com o mesmo sentido, significando originalmente "ter a aparência de ser forte ou capaz" ou “tendo a aparência ou qualidades semelhantes”, com um significado de "provavelmente" gravado a partir do final do século XIV. Da mesma forma, o substantivo derivado likelihood tinha um significado de "similaridade, semelhança", mas assumiu um significado de "probabilidade" em meados do século XV.
Origens
A “lei de evidências“ antiga e medieval desenvolveu uma classificação dos graus de provas, probabilidades, presunções e meia-prova para lidar com as incertezas de evidências (provas) em tribunais.[2] Nos tempos da Renascença, as apostas foram discutidas em termos de probabilidades, como "dez a um" e prêmios de seguro marítimos foram estimados com base nos riscos intuitivos, mas não havia nenhuma teoria sobre a forma de calcular essas probabilidades ou prêmios.[3]
Os métodos matemáticos de probabilidade surgira na correspondência de Gerolamo Cardano, Pierre de Fermat e Blaise Pascal (1654) sobre questões como a divisão justa da participação em um jogo de azar interrompido. Christiaan Huygens (1657) deu um tratamento abrangente do assunto.[4][5]
De Games, Gods and Gambling ISBN 978-0-85264-171-2 por F. N. David:
Houve momentos na antiguidade de jogos jogados com o osso astrágalo, ou tálus. A cerâmica grega é uma evidência para mostrar que havia um círculo desenhado no chão e atirava-se o astrágalo para esse círculo, similarmente como se joga bolas de gude. No Egito, escavadores de túmulos descobriram um jogo chamado "cães de caça e os chacais", que se assemelha ao jogo moderno "cobras e escadas". Parece que esta é a fase inicial da criação dos dados de jogo.
Tabuleiro do jogo “cães de caça e os chacais” do túmulo de Reniseneb (MMA 1287/07/26)
Fim da 12° Dinastia - 13° Dinastia 13 (ca. 1810-1700 a.C.), - www.joanannlansberry.com
Primeiro jogo de dados mencionados na literatura da era cristã foi chamado Hazard (“perigo”). Jogado com 2 ou 3 dados. Considera-se que foi trazido para a Europa pelos cavaleiros que regressavam das Cruzadas.
Dante Alighieri (1265-1321) menciona este jogo. A comentário de Dante coloca ainda mais indagações sobre esse jogo: a ideia era que, com 3 dados, o número mais baixo você pode obter é 3, um ás para cada dado. A obtenção de um 4 pode ser feita com três dados por obter-se dois em um dados e ases nos outros dois dados.
Cardano também pensou sobre o lançamento de três dados. 3 dados são lançados: há o mesmo número de maneiras de obter-se um total de 9 como há de 10. Para um 9: (621) (531) (522) (441) (432) (333) e para 10: (631) (622) (541) (532) (442) (433). A partir disso, Cardano descobriu que a probabilidade de obter 9 é menor do que a obter-se um 10 (aqui, interessam também as permutaçoes envolvidas, os arranjos, a ordem em que os dados mostram seus resultados, e não só as combinações dos resultados possíveis dos dados, de onde, por exemplo, uma possibilidade - permutação - de 621, também implica em 612, 216, 261, 126 e 162). Ele também demonstrou a eficácia da definição de probabilidades como o razão entre favorável a evolução desfavorável (o que implica que a probabilidade de um evento é dada pela proporção de resultados favoráveis para o número total de possíveis resultados [6]).
Além disso, o famoso Galileo escreveu sobre o jogo de dados em algum momento entre 1613 e 1623. Essencialmente pensado sobre o problema de Cardano, sobre a probabilidade de obter-se um total de 9 é menor do que jogando um 10. Galileu teve o seguinte a dizer: Certos números têm a capacidade de serem jogados porque há mais maneiras de criar esse número. Embora 9 e 10 tenham o mesmo número de maneiras de ser criados, 10 é considerado por jogadores de dados como sendo um resultado mais comum do que 9.
Século dezoito
A obra de Jacob Bernoulli Ars Conjectandi (póstuma, 1713) e The Doctrine of Chances (A Doutrina de Chances 1718) de Abraham de Moivre colocou a probabilidade em um patamar de campo da matemática, mostrando como calcular uma ampla gama de probabilidades complexas. Bernoulli mostrou uma versão da lei fundamental de um grande número, o que indica que, num grande número de ensaios, a média dos resultados é susceptível de ser muito próximo do valor desejado - por exemplo, em 1000 lançamentos de uma moeda, é provável que ocorram cerca de 500 resultados “cara” (e quanto maior o número de lances, o mais perto de “metade” a proporção é provável que situe-se).
Século dezenove
O poder de métodos probabilísticos em lidar com a incerteza foi mostrado pela determinação de Gauss da órbita de Ceres com poucas observações. A teoria dos erros utilizou o método dos mínimos quadrados para corrigir observações propensas a erro, especialmente em astronomia, com base na hipótese de uma distribuição normal dos erros para determinar o verdadeiro valor mais provável. Em 1812, Laplace publicou seu Théorie analytique des probabilités em que consolidou e estabeleu muitos resultados fundamentais na probabilidade e estatística, tais como a função geradora de momentos, o método dos mínimos quadrados, a probabilidade indutiva e testes de hipóteses.
Perto do final do século XIX, um grande sucesso de explicação em termos de probabilidades era a mecânica estatística de Boltzmann e Ludwig J. Willard Gibbs que explicaram propriedades dos gases, tais como a temperatura em termos dos movimentos aleatórios de um grande número de partículas.
O campo da história da própria probabilidade foi estabelecido pela monumental obra de Isaac Todhunter, History of the Mathematical Theory of Probability from the Time of Pascal to that of Lagrange (Teoria Matemática da Probabilidade do Tempo de Pascal ao de Lagrange, 1865).
Século vinte
Probabilidade e estatística tornaram-se intimamente ligadas através do trabalho em testes de hipóteses de R.A. Fisher e Jerzy Neyman, que agora é amplamente aplicado em experimentos biológicos e psicológicos e em ensaios clínicos de drogas, bem como em economia e em outras atividades. Uma hipótese, por exemplo, que uma droga é geralmente eficaz, dá origem a uma distribuição de probabilidades que será observada se a hipótese for verdadeira. Se as observações aproximadamente concordarem com a hipótese, confirma-se, se não, a hipótese é rejeitada.[7]
A teoria de processos estocásticos ampliou-se em áreas como processos de Markov e movimento browniano, o movimento aleatório de partículas minúsculas suspensas em um líquido. Isso forneceu um modelo para o estudo de flutuações aleatórias nos mercados de ações, levando ao uso de modelos de probabilidade sofisticados em matemática financeira, incluindo sucessos como a amplamente usada fórmula Black–Scholes para a avaliação de opções.[8]
O século XX também viu longas disputas sobre as interpretações de probabilidade. O chamado frequentismo de meados do século era dominante, sustentando que a probabilidade significa freqüência relativa de longo prazo em um grande número de ocorrências. No final do século houve um renascimento da visão Bayesiana, de acordo com a qual a noção fundamental da probabilidade é como uma proposição é suportada pela evidência para ela.
O tratamento matemático de probabilidades, especialmente quando há infinitamente muitos resultados possíveis, foi facilitado pelo axiomas de Kolmogorov (1933).
Notas e referências
1. J. Franklin, The Science of Conjecture: Evidence and Probability Before Pascal, 113, 126.
2. Franklin, The Science of Conjecture, ch. 2.
3. Franklin, Science of Conjecture, ch. 11.
4. Ian Hacking, The Emergence of Probability
5. Franklin, Science of Conjecture, ch. 12.
7. Salsburg, The Lady Tasting Tea.
8. Bernstein, Against the Gods, ch. 18.
- Bernstein, Peter L. (1996). Against the Gods: The Remarkable Story of Risk. New York: Wiley. ISBN 0-471-12104-5.
- Daston, Lorraine (1988). Classical Probability in the Enlightenment. Princeton: Princeton University Press. ISBN 0-691-08497-1.
- Franklin, James (2001). The Science of Conjecture: Evidence and Probability Before Pascal. Baltimore, MD: Johns Hopkins University Press. ISBN 0-8018-6569-7.
- Hacking, Ian (2006). The Emergence of Probability (2nd ed). New York: Cambridge University Press. ISBN 978-0-521-86655-2. Ou Cambridge University Press, 2006. - books.google.com.br
- Hald, Anders (2003). A History of Probability and Statistics and Their Applications before 1750. Hoboken, NJ: Wiley. ISBN 0-471-47129-1.
- Hald, Anders (1998). A History of Mathematical Statistics from 1750 to 1930. New York: Wiley. ISBN 0-471-17912-4.
- Heyde, C. C.; Seneta, E. (eds) (2001). Statisticians of the Centuries. New York: Springer. ISBN 0-387-95329-9.
- McGrayne, Sharon Bertsch (2011). The Theory That Would Not Die: How Bayes' Rule Cracked the Enigma Code, Hunted Down Russian Submarines, and Emerged Triumphant from Two Centuries of Controversy. New Haven: Yale University Press. ISBN 9780300169690.
- von Plato, Jan (1994). Creating Modern Probability: Its Mathematics, Physics and Philosophy in Historical Perspective. New York: Cambridge University Press. ISBN 978-0-521-59735-7.
- Salsburg, David (2001). The Lady Tasting Tea: How Statistics Revolutionized Science in the Twentieth Century. ISBN 0-7167-4106-7
- Stigler, Stephen M. (1990). The History of Statistics: The Measurement of Uncertainty before 1900. Belknap Press/Harvard University Press. ISBN 0-674-40341-X.
Ligações externas
Nenhum comentário:
Postar um comentário