teorema de Bayes, também conhecido como lei de Bayes ou regra de Bayes, é um princípio matemático fundamental nomeado em homenagem a Thomas Bayes (). Ele fornece um método para inverter probabilidades condicionais, permitindo assim o cálculo da probabilidade de uma causa dado um efeito observado. Por exemplo, o teorema pode determinar a probabilidade de um paciente ter uma doença, dado um resultado de teste positivo, utilizando a probabilidade de o teste produzir um resultado positivo quando a doença está presente. Este teorema foi formulado de forma independente no século 18 por Bayes e Pierre-Simon Laplace.
Uma aplicação proeminente do teorema de Bayes é a inferência bayesiana, uma metodologia estatística que emprega o teorema para inverter a probabilidade de observações dada uma configuração de modelo específica (referida como função de verossimilhança). Essa inversão produz a probabilidade da configuração do modelo dadas as observações (conhecida como probabilidade posterior).
Histórico
O teorema leva o nome de Thomas Bayes, um notável ministro, estatístico e filósofo. Bayes empregou probabilidade condicional para desenvolver um algoritmo, designado como sua Proposição 9, que utilizou evidências para calcular limites para um parâmetro desconhecido. Seu trabalho significativo, An Essay Towards Solving a Problem in the Doctrine of Chances, foi publicado em 1763. Bayes investigou métodos para calcular uma distribuição para o parâmetro de probabilidade de uma distribuição binomial, um conceito agora compreendido através da terminologia moderna. Após a morte de Bayes, sua família legou seus documentos a seu amigo, Richard Price, que também era ministro, filósofo e matemático. Richard Price editou extensivamente o manuscrito não publicado durante um período de dois anos antes de ser apresentado por um colega da Royal Society em 23 de dezembro de 1763. Os esforços editoriais de Price levaram à publicação do trabalho seminal de Bayes, "An Essay Towards Solving a Problem na Doutrina das Chances" (1763), que foi apresentado em Transações Filosóficas e contém o teorema de Bayes. Price também redigiu uma introdução ao artigo, que elucidou alguns dos fundamentos filosóficos da estatística bayesiana e selecionou uma das duas soluções propostas por Bayes. Em 1765, Price foi eleito Fellow da Royal Society, reconhecendo suas contribuições significativas para o legado de Bayes. Em 27 de abril, uma carta que ele enviou a Benjamin Franklin foi lida na Royal Society e posteriormente publicada, ilustrando a aplicação desta pesquisa por Price à análise populacional e ao cálculo de 'anuidades vitalícias'. Pierre-Simon Laplace, independentemente de Bayes, empregou a probabilidade condicional para articular a relação entre uma probabilidade posterior atualizada e uma probabilidade anterior, dada a evidência empírica. Em 1774, ele reproduziu e expandiu com sucesso as descobertas de Bayes, aparentemente sem conhecimento prévio do trabalho de Bayes, e posteriormente sintetizou seus resultados em Théorie analytique des probabilités (1812). Laplace é amplamente creditado pelo desenvolvimento da interpretação bayesiana da probabilidade.
Aproximadamente dois séculos depois, Sir Harold Jeffreys forneceu uma base axiomática para o algoritmo de Bayes e a formulação de Laplace. Em uma publicação de 1973, ele afirmou que o teorema de Bayes "está para a teoria da probabilidade o que o teorema de Pitágoras está para a geometria". Stephen Stigler, utilizando um argumento bayesiano, propôs que Nicholas Saunderson, um matemático inglês cego, descobriu o teorema de Bayes antes de Bayes; no entanto, esta afirmação é contestada. F. Thomas Bruss posteriormente examinou "Um ensaio para resolver um problema na doutrina das chances" de Bayes, conforme comunicado por Price. Bruss concordou amplamente com a análise de Stigler, mas discordou quanto à questão da prioridade. Ele destacou os aspectos intuitivos da fórmula de Bayes e ofereceu argumentos independentes sobre as prováveis motivações de Bayes para seu trabalho. Bruss concluiu que, na ausência de provas em contrário, a nomenclatura "Teorema de Bayes" ou "fórmula de Bayes" permanece justificável.
Martyn Hooper e Sharon McGrayne afirmaram que a contribuição de Price foi substancial:
Pelos padrões modernos, deveríamos nos referir à regra de Bayes-Price. Price descobriu o trabalho de Bayes, reconheceu sua importância, corrigiu-o, contribuiu para o artigo e encontrou um uso para ele. A convenção moderna de empregar apenas o nome de Bayes é injusta, mas está tão arraigada que qualquer outra coisa faz pouco sentido.
O "fator de Bayes" ou "probabilidade", que se manifesta quando o teorema de Bayes é articulado na forma de probabilidades, foi observado pela primeira vez no trabalho de Alan Turing, no início da década de 1940, que o designou como "fator a favor de uma proposição". Mais tarde, em 1878, Charles Sanders Peirce utilizou o logaritmo deste fator, referindo-se a ele como o "peso da evidência" para uma proposição.
Declaração do teorema
O teorema de Bayes é expresso matematicamente pela seguinte equação:
Aqui, e representam eventos, com a condição de que .
- A expressão denota uma probabilidade condicional, especificamente a probabilidade do evento ocorrendo dado aquele evento é verdadeiro. Isso também é conhecido como probabilidade posterior de condicionado a .
- Da mesma forma, representa outra probabilidade condicional, indicando a probabilidade do evento ocorrendo quando o evento é verdadeiro. Este termo também pode ser entendido como a probabilidade de dado um .
- Os termos e representam as probabilidades incondicionais de observação de eventos e , respectivamente. A quantidade de interesse primário, , é frequentemente chamada de 'probabilidade anterior', significando seu status antes da introdução de novas evidências. Do ponto de vista técnico, ambos e podem ser categorizadas como probabilidades anteriores, incondicionadas ou marginais.
O teorema de Bayes pode ser derivado da relação fundamental entre probabilidades conjuntas e condicionais. A probabilidade conjunta de dois eventos,
Quando os eventos A§23§, A§67§, ..., são mutuamente exclusivos e exaustivos - o que significa que é garantido que precisamente um desses eventos ocorrerá, e dois não podem ocorrer simultaneamente - a lei da probabilidade total é articulada da seguinte forma:
Os eventos e seu complemento, não- (geralmente denotado como ), constituem um par mutuamente exclusivo e exaustivo. Consequentemente, a fórmula mencionada anteriormente pode ser aplicada, simplificando a soma no denominador para apenas dois termos:
Exemplos
Diagnóstico médico
Esta seção ilustra um cenário de diagnóstico médico em que um médico examina um paciente para detectar uma doença específica. O estado do paciente é binário (tem ou não a doença), e o resultado do teste também é binário (positivo ou negativo). Um falso positivo ocorre quando um paciente saudável recebe um resultado de teste positivo. Por outro lado, um verdadeiro positivo indica um resultado de teste positivo para um paciente que realmente tem a doença. O teorema de Bayes fornece uma estrutura para calcular a probabilidade de um paciente ter a doença com um resultado de teste positivo, incorporando a prevalência da doença na população e a eficácia do teste. Deixe representam o evento em que o paciente tem a doença. Consequentemente, denota a probabilidade prévia de o paciente ter a doença. Deixe significa o evento em que o teste do paciente é positivo. A probabilidade condicional de que o paciente tenha a doença após um resultado de teste positivo é expressa como .O teorema de Bayes é formalmente declarado como:Nesta fórmula, representa a taxa de prevalência da doença na população, enquanto indica a taxa de verdadeiros positivos ou a sensibilidade do teste.
Como exemplo ilustrativo, considere um cenário em que todos os indivíduos que sofrem de câncer de pâncreas apresentam sintomas específicos; entretanto, a presença desses sintomas não implica automaticamente no diagnóstico de câncer de pâncreas. Se a taxa de incidência de câncer de pâncreas for de 1 em 100.000, e 10 em 99.999 indivíduos saudáveis também apresentarem esses sintomas, a probabilidade de uma pessoa que apresenta esses sintomas realmente ter câncer de pâncreas é calculada em 9,1%.
Utilizando a taxa de incidência, a tabela a seguir delineia os valores numéricos correspondentes por 100.000 indivíduos.
Posteriormente, esses números facilitam o cálculo da probabilidade de que um paciente que apresenta os sintomas acima mencionados esteja de fato sofrendo de câncer.
Triagem Farmacológica
Considere um teste de drogas, por exemplo, para a Substância D, exibindo 99% de sensibilidade, o que indica uma taxa de verdadeiro positivo (TPR) de 0,99. Isto implica que o teste identifica com precisão 99% dos consumidores de drogas como positivos. Além disso, o teste demonstra especificidade de 99%, correspondendo a uma taxa de verdadeiro negativo (TNR) de 0,99. Consequentemente, embora 99% dos não utilizadores sejam corretamente identificados como negativos, o teste também produz uma taxa de falsos positivos de 1% (FPR = 0,01) entre os não utilizadores. Dada uma prevalência de 0,3% de uso de drogas na população, o teorema de Bayes pode ser aplicado para calcular a probabilidade de que um indivíduo com teste positivo seja, de fato, um usuário de drogas: {\text{Usuário}})P({\text{Usuário}})}{P({\text{Positivo}})}}\\&={\frac {P({\text{Positivo}}\vert {\text{Usuário}})P({\text{Usuário}})}{P({\text{Positivo}}\vert {\text{Usuário}})P({\text{Usuário}})+P({\text{Positivo}}\vert {\text{Não usuário}})P({\text{Não usuário}})}}\\[8pt]&={\frac {0,99\times 0,003}{0,99\times 0,003+0,01\times 0,997}}\aproximadamente 23\%.\end{aligned}}}" display="block" xmlns="w3.org/1998/Math/MathML">
Deformação da moeda
Uma urna contém três tipos distintos de moedas: A, B e C. As moedas do tipo A são justas, exibindo uma probabilidade de 0,5 de dar cara. As moedas do tipo B são tendenciosas, com probabilidade de 0,6 de dar cara, enquanto as moedas do tipo C têm probabilidade de 0,9 de dar cara. A composição da urna inclui duas moedas do tipo A, duas moedas do tipo B e uma moeda do tipo C. Ao selecionar e lançar aleatoriamente uma moeda desta urna, o teorema de Bayes pode ser aplicado para determinar a probabilidade de a moeda pertencer a um tipo específico, visto que resultou em cara:
Interpretações
A interpretação da regra de Bayes depende da estrutura probabilística específica aplicada aos seus termos constituintes. As duas categorias principais dessas interpretações serão detalhadas posteriormente.
Interpretações Bayesianas
Dentro das interpretações bayesianas, ou epistemológicas, a probabilidade quantifica um "grau de crença". O teorema de Bayes estabelece uma relação entre os graus iniciais e atualizados de crença em uma proposição, considerando novas evidências. Por exemplo, num contexto de diagnóstico médico, um resultado de teste positivo para uma doença aumentaria a crença do médico na probabilidade de o paciente ter essa condição.
Se A representa uma proposição e B significa a evidência ou antecedente B, então:
- representa a probabilidade anterior, que é o grau inicial de crença associado a A.
- denota o grau inicial correspondente de crença de que A é falso, expresso como .
- denota a probabilidade condicional ou verossimilhança, representando o grau de crença em B assumindo que A é verdadeiro.
- significa a probabilidade condicional ou verossimilhança, indicando o grau de crença em B sob a suposição de que A é falso.
- é definido como a probabilidade posterior, representando a probabilidade de A subsequente à incorporação de B.
Interpretações Frequentistas
Interpretações frequentistas
Nas interpretações frequentistas, a probabilidade quantifica uma "proporção de resultados". Por exemplo, se um experimento é conduzido repetidamente, P(A) significa a proporção de resultados que exibem a propriedade A (a probabilidade anterior), e P(B) denota a proporção que possui a propriedade B. Além disso, P(B|A) representa a proporção de resultados com propriedade B entre aqueles com propriedade A, enquanto P(A|B) indica a proporção de resultados com A entre aqueles com B (a probabilidade posterior).
Formulários
Prévio e probabilidade
Para eventos A e B, dado que P(B) ≠ 0, o seguinte é válido:
Em inúmeras aplicações, particularmente na inferência bayesiana, o evento B é mantido constante e o objetivo é avaliar o impacto de sua observação na confiança em vários eventos potenciais A. Nestas circunstâncias, o denominador da expressão anterior, que representa a probabilidade da evidência observada B, permanece constante. O elemento variável é A. Consequentemente, o teorema de Bayes demonstra que as probabilidades posteriores são diretamente proporcionais ao numerador, levando à seguinte equação:
Dito de outra forma, a probabilidade posterior é diretamente proporcional ao produto da probabilidade anterior e da verossimilhança.
Variáveis aleatórias
Para um par de variáveis aleatórias contínuas, especificamente X e Y, o teorema de Bayes pode ser derivado analogamente da definição estabelecida de densidade condicional:
O teorema de Bayes é formalmente expresso como:
Este princípio é aplicável a valores de e que estão dentro dos respectivos suportes de X e Y, necessitando assim que e .
Caso Geral
Seja denotam o distribuição condicional de dado que . Além disso, deixe representa a distribuição de . Consequentemente, a distribuição conjunta é expressa como . A distribuição condicional de dado é posteriormente definido por:
A existência e a unicidade da expectativa condicional necessária são estabelecidas pelo teorema de Radon-Nikodym. UM. Kolmogorov formalizou este conceito em 1933, enfatizando a importância das probabilidades e expectativas condicionais ao afirmar: "Desejo chamar a atenção para... a teoria das probabilidades condicionais e das expectativas condicionais." O teorema de Bayes é fundamental para derivar a distribuição posterior de uma dada distribuição anterior. Alcançar a exclusividade neste contexto normalmente requer suposições de continuidade específicas. Além disso, o teorema de Bayes pode ser estendido para acomodar distribuições anteriores impróprias, como a distribuição uniforme ao longo de toda a linha real. O advento dos modernos métodos de Monte Carlo da cadeia de Markov aumentou substancialmente a relevância do teorema de Bayes, particularmente em cenários que envolvem anteriores impróprios.
Representação de probabilidades
As probabilidades são ocasionalmente expressas como probabilidades. Para qualquer proposição , as probabilidades em são definidos como a razão da probabilidade de que é verdadeiro para a probabilidade de que é falso. O teorema de Bayes pode ser formulado usando probabilidades. Inicialmente, o teorema de Bayes é aplicado para determinar a probabilidade de que é verdadeira, dada outra proposição , como segue:
Considere, por exemplo, um cenário em que uma doença apresenta uma prevalência de 1%, o que implica que a probabilidade de um indivíduo selecionado aleatoriamente ser infectado é de 0,01. Além disso, suponha que um teste de diagnóstico para esta doença produza resultados precisos com 99% de probabilidade. As chances anteriores de um indivíduo ser infectado são então calculadas da seguinte forma:
A probabilidade condicional de um resultado de teste positivo, dada a presença de uma infecção, é de 99%:Da mesma forma, a probabilidade de um resultado negativo no teste, dada a ausência de infecção, é de 99%.Consequentemente,O fator Bayes é posteriormente calculado como a razão:Consequentemente, as chances posteriores de uma infecção, dado um resultado de teste positivo, são determinadas como:Isso implica que as chances posteriores de infecção são de um para um, resultando em uma probabilidade posterior de infecção de 50%.
Generalizações
Teorema de Bayes para três eventos
Uma formulação estendida do teorema de Bayes, aplicável a três eventos, é derivada da introdução de um terceiro evento, , desde que , ao qual todas as probabilidades subsequentes estão condicionadas:
Esse relacionamento pode ser obtido através das etapas a seguir, empregando a regra da cadeia.
Por outro lado,
O resultado desejado é alcançado igualando essas duas expressões e, posteriormente, isolando .
Regras de inferência
Dentro das interpretações subjetivas da teoria da probabilidade, a probabilidade de um evento é conceituada como o grau de crença de um agente na ocorrência desse evento. O teorema de Bayes é frequentemente empregado para racionalizar o processo pelo qual um agente deve revisar ou ajustar suas crenças após adquirir novas informações. Especificamente, se um agente atribuir inicialmente uma probabilidade para o evento , uma probabilidade para o evento e uma probabilidade condicional representando a probabilidade do evento " ocorrendo dado o evento já aconteceu", então o teorema de Bayes determina o valor de .Posteriormente, se o evento for observado após essas atribuições iniciais de probabilidade, um agente aderindo à atualização Bayesiana, também chamada de condicionalização, revisará sua probabilidade para o evento de seu valor anterior para o novo valor . É importante notar que a condicionalização não é universalmente considerada como a única regra de atualização racional. As suposições específicas permitidas para restringir as regras de atualização continuam a ser objeto de debate acadêmico.
Quantum
No âmbito da mecânica quântica, as distribuições de probabilidade são estendidas às matrizes de densidade, que são matrizes de valores complexos que caracterizam o estado de preparação de um sistema quântico. Uma regra quântica de Bayes correspondente pode ser formulada para descrever a atualização dessas matrizes de densidade na aquisição de novos dados experimentais pertencentes ao sistema.
Aplicativos selecionados
Estimativa de parâmetros
Na metodologia estatística bayesiana, um objeto ou sistema é conceituado por meio de um modelo matemático que incorpora um ou mais parâmetros numéricos. A informação existente relativa ao sistema é então utilizada para construir uma distribuição de probabilidade entre os valores potenciais destes parâmetros, significando assim a sua relativa plausibilidade. Posteriormente, o teorema de Bayes é aplicado para refinar esta distribuição de probabilidade à medida que novas evidências surgem.
Matemática recreativa
A regra de Bayes, em conjunto com o cálculo de probabilidades condicionais, oferece uma metodologia robusta para resolver vários quebra-cabeças matemáticos recreativos bem conhecidos, incluindo o problema dos Três Prisioneiros, o problema de Monty Hall, o paradoxo do Menino ou da Menina e o problema dos dois envelopes.
Criptoanálise
Durante a Segunda Guerra Mundial, Alan Turing e sua equipe em Bletchley Park foram fundamentais na aplicação do teorema de Bayes à criptoanálise. Em 1941, Turing desenvolveu materiais instrucionais que introduziam metodologias bayesianas para decifrar códigos, exemplificadas por sua aplicação a desafios menos complexos como a cifra de Vigenère, distintos de seu objetivo principal de descriptografar mensagens de máquinas Enigma. Além disso, o teorema de Bayes facilitou a descriptografia do código naval japonês JN 25.
Genética
No campo da genética, a regra de Bayes serve como uma ferramenta valiosa para estimar a probabilidade de um indivíduo possuir um genótipo específico. Os indivíduos frequentemente procuram determinar sua suscetibilidade a um distúrbio genético ou seu status como portadores de um gene recessivo. A análise bayesiana, aproveitando o histórico médico familiar ou testes genéticos, pode prever a propensão de um indivíduo a desenvolver uma doença ou transmiti-la aos seus descendentes. Este teste genético preditivo é particularmente prevalente entre casais que planejam a concepção e que estão preocupados com seu potencial status de portador de uma doença, especialmente em populações que apresentam diversidade genética limitada.
Biologia evolutiva
Na biologia evolutiva, o teorema de Bayes é utilizado para inferir árvores filogenéticas que representam de forma ideal as relações entre espécies com base em dados empíricos. A viabilidade desta metodologia foi significativamente melhorada pela integração dos métodos de Monte Carlo da cadeia de Markov.
Epistemologia Bayesiana
- Epistemologia Bayesiana
- Rede bayesiana
- Persuasão Bayesiana
- Probabilidade indutiva
- QBismo
- Probabilidade condicional regular
- Por que a maioria dos resultados de pesquisa publicados são falsos, um influente ensaio metacientífico de 2005, de autoria de John Ioannidis.
Notas
Referências
- Este artigo integra conteúdo de uma publicação de domínio público: Mitchell, John Malcolm (1911). "Preço, Ricardo". Em Chisholm, Hugh (ed.). Enciclopédia Britânica. Vol. 22 (11ª ed.). Imprensa da Universidade de Cambridge. pp. title="ctx_ver=Z39.88-2004&rft_val_fmt=info%3Aofi%2Ffmt%3Akev%3Amtx%3Abook&rft.genre=booki tem&rft.atitle=Price%2C+Richard&rft.btitle=Encyclop%C3%A6dia+Britannica&rft.pages=314- 315&rft.edition=11th&rft.pub=Cambridge+University+Press&rft.date=1911&rft.aulast=M itchell&rft.aufirst=John+Malcolm&rfr_id=info%3Asid%2Fen.</span></li></ul>
<h2 data-mw-anchor="> Bolstad, William M.; Curran, James M. (2017). "Logic, Probability, and Uncertainty". Introdução à Estatística Bayesiana (3ª ed.). Nova York: Wiley. pp. 59–82. ISBN 978-1-118-09156-2.
- Bolstad, William M.; Curran, James M. (2017). "Logic, Probability, and Uncertainty". Introdução à Estatística Bayesiana (3ª ed.). Nova York: Wiley. pp. 59–82. ISBN 978-1-118-09156-2.Joyce, James (30 de setembro de 2003). "Teorema de Bayes". Em Zalta, Edward N. (ed.). Enciclopédia de Filosofia de Stanford (edição do outono de 2003). ISSN 1095-5054. OCLC 429049174.Schmitt, Samuel A. (1969). "Acumulando evidências". Medindo a incerteza: uma introdução elementar à estatística bayesiana. Leitura: Addison-Wesley. pp. 61–99. OCLC 5013.Stigler, Stephen M. (agosto de 1986). "Memórias de Laplace de 1774 sobre probabilidade inversa". Ciência Estatística. §34§ (3): 359–363. doi:10.1214/ss/1177013620."The Bayesian Trap". Veritasium. 5 de abril de 2017 – via YouTube.
- "The Bayesian Trap". Veritasium.5 de abril de 2017 – via YouTube.Fonte: Arquivo da TORIma Academia
- Bolstad, William M.; Curran, James M. (2017). "Logic, Probability, and Uncertainty". Introdução à Estatística Bayesiana (3ª ed.). Nova York: Wiley. pp. 59–82. ISBN 978-1-118-09156-2.Joyce, James (30 de setembro de 2003). "Teorema de Bayes". Em Zalta, Edward N. (ed.). Enciclopédia de Filosofia de Stanford (edição do outono de 2003). ISSN 1095-5054. OCLC 429049174.Schmitt, Samuel A. (1969). "Acumulando evidências". Medindo a incerteza: uma introdução elementar à estatística bayesiana. Leitura: Addison-Wesley. pp. 61–99. OCLC 5013.Stigler, Stephen M. (agosto de 1986). "Memórias de Laplace de 1774 sobre probabilidade inversa". Ciência Estatística. §34§ (3): 359–363. doi:10.1214/ss/1177013620."The Bayesian Trap". Veritasium. 5 de abril de 2017 – via YouTube.