TORIma Academia Logo TORIma Academia
Teorema de Bayes (Bayes' theorem)' theorem
Ciências

Teorema de Bayes (Bayes' theorem)

TORIma Academia — Estatísticas

Bayes' theorem

Teorema de Bayes (Bayes' theorem)

O teorema de Bayes (alternativamente lei de Bayes ou regra de Bayes), em homenagem a Thomas Bayes (), fornece uma regra matemática para inverter probabilidades condicionais,…

O

teorema de Bayes, também conhecido como lei de Bayes ou regra de Bayes, é um princípio matemático fundamental nomeado em homenagem a Thomas Bayes (). Ele fornece um método para inverter probabilidades condicionais, permitindo assim o cálculo da probabilidade de uma causa dado um efeito observado. Por exemplo, o teorema pode determinar a probabilidade de um paciente ter uma doença, dado um resultado de teste positivo, utilizando a probabilidade de o teste produzir um resultado positivo quando a doença está presente. Este teorema foi formulado de forma independente no século 18 por Bayes e Pierre-Simon Laplace.

Uma aplicação proeminente do teorema de Bayes é a inferência bayesiana, uma metodologia estatística que emprega o teorema para inverter a probabilidade de observações dada uma configuração de modelo específica (referida como função de verossimilhança). Essa inversão produz a probabilidade da configuração do modelo dadas as observações (conhecida como probabilidade posterior).

Histórico

O teorema leva o nome de Thomas Bayes, um notável ministro, estatístico e filósofo. Bayes empregou probabilidade condicional para desenvolver um algoritmo, designado como sua Proposição 9, que utilizou evidências para calcular limites para um parâmetro desconhecido. Seu trabalho significativo, An Essay Towards Solving a Problem in the Doctrine of Chances, foi publicado em 1763. Bayes investigou métodos para calcular uma distribuição para o parâmetro de probabilidade de uma distribuição binomial, um conceito agora compreendido através da terminologia moderna. Após a morte de Bayes, sua família legou seus documentos a seu amigo, Richard Price, que também era ministro, filósofo e matemático. Richard Price editou extensivamente o manuscrito não publicado durante um período de dois anos antes de ser apresentado por um colega da Royal Society em 23 de dezembro de 1763. Os esforços editoriais de Price levaram à publicação do trabalho seminal de Bayes, "An Essay Towards Solving a Problem na Doutrina das Chances" (1763), que foi apresentado em Transações Filosóficas e contém o teorema de Bayes. Price também redigiu uma introdução ao artigo, que elucidou alguns dos fundamentos filosóficos da estatística bayesiana e selecionou uma das duas soluções propostas por Bayes. Em 1765, Price foi eleito Fellow da Royal Society, reconhecendo suas contribuições significativas para o legado de Bayes. Em 27 de abril, uma carta que ele enviou a Benjamin Franklin foi lida na Royal Society e posteriormente publicada, ilustrando a aplicação desta pesquisa por Price à análise populacional e ao cálculo de 'anuidades vitalícias'. Pierre-Simon Laplace, independentemente de Bayes, empregou a probabilidade condicional para articular a relação entre uma probabilidade posterior atualizada e uma probabilidade anterior, dada a evidência empírica. Em 1774, ele reproduziu e expandiu com sucesso as descobertas de Bayes, aparentemente sem conhecimento prévio do trabalho de Bayes, e posteriormente sintetizou seus resultados em Théorie analytique des probabilités (1812). Laplace é amplamente creditado pelo desenvolvimento da interpretação bayesiana da probabilidade.

Aproximadamente dois séculos depois, Sir Harold Jeffreys forneceu uma base axiomática para o algoritmo de Bayes e a formulação de Laplace. Em uma publicação de 1973, ele afirmou que o teorema de Bayes "está para a teoria da probabilidade o que o teorema de Pitágoras está para a geometria". Stephen Stigler, utilizando um argumento bayesiano, propôs que Nicholas Saunderson, um matemático inglês cego, descobriu o teorema de Bayes antes de Bayes; no entanto, esta afirmação é contestada. F. Thomas Bruss posteriormente examinou "Um ensaio para resolver um problema na doutrina das chances" de Bayes, conforme comunicado por Price. Bruss concordou amplamente com a análise de Stigler, mas discordou quanto à questão da prioridade. Ele destacou os aspectos intuitivos da fórmula de Bayes e ofereceu argumentos independentes sobre as prováveis ​​motivações de Bayes para seu trabalho. Bruss concluiu que, na ausência de provas em contrário, a nomenclatura "Teorema de Bayes" ou "fórmula de Bayes" permanece justificável.

Martyn Hooper e Sharon McGrayne afirmaram que a contribuição de Price foi substancial:

Pelos padrões modernos, deveríamos nos referir à regra de Bayes-Price. Price descobriu o trabalho de Bayes, reconheceu sua importância, corrigiu-o, contribuiu para o artigo e encontrou um uso para ele. A convenção moderna de empregar apenas o nome de Bayes é injusta, mas está tão arraigada que qualquer outra coisa faz pouco sentido.

O "fator de Bayes" ou "probabilidade", que se manifesta quando o teorema de Bayes é articulado na forma de probabilidades, foi observado pela primeira vez no trabalho de Alan Turing, no início da década de 1940, que o designou como "fator a favor de uma proposição". Mais tarde, em 1878, Charles Sanders Peirce utilizou o logaritmo deste fator, referindo-se a ele como o "peso da evidência" para uma proposição.

Declaração do teorema

O teorema de Bayes é expresso matematicamente pela seguinte equação:

Aqui, A{\displaystyle A} e B{\displaystyle B} representam eventos, com a condição de que P(B)§4950§{\displaystyle P(B)\neq 0}.

O teorema de Bayes pode ser derivado da relação fundamental entre probabilidades conjuntas e condicionais. A probabilidade conjunta de dois eventos,

Quando os eventos A§23§, A§67§, ..., são mutuamente exclusivos e exaustivos - o que significa que é garantido que precisamente um desses eventos ocorrerá, e dois não podem ocorrer simultaneamente - a lei da probabilidade total é articulada da seguinte forma:

Os eventos A {\displaystyle A} e seu complemento, não- A {\displaystyle A} (geralmente denotado como ¬ A {\displaystyle \neg A} ), constituem um par mutuamente exclusivo e exaustivo. Consequentemente, a fórmula mencionada anteriormente pode ser aplicada, simplificando a soma no denominador para apenas dois termos: P ( A | B ) = P ( B | A ) P ( A ) P ( B | A ) P ( A ) + P ( B | ¬ A ) P ( ¬ A ) . {\displaystyle P(A|B)={\frac {P(B|A)P(A)}{P(B|A)P(A)+P(B|\neg A)P(\neg A)}}.}

Exemplos

Diagnóstico médico

Esta seção ilustra um cenário de diagnóstico médico em que um médico examina um paciente para detectar uma doença específica. O estado do paciente é binário (tem ou não a doença), e o resultado do teste também é binário (positivo ou negativo). Um falso positivo ocorre quando um paciente saudável recebe um resultado de teste positivo. Por outro lado, um verdadeiro positivo indica um resultado de teste positivo para um paciente que realmente tem a doença. O teorema de Bayes fornece uma estrutura para calcular a probabilidade de um paciente ter a doença com um resultado de teste positivo, incorporando a prevalência da doença na população e a eficácia do teste. Deixe E {\displaystyle E} representam o evento em que o paciente tem a doença. Consequentemente, P ( E ) {\displaystyle P(E)} denota a probabilidade prévia de o paciente ter a doença. Deixe F {\displaystyle F} significa o evento em que o teste do paciente é positivo. A probabilidade condicional de que o paciente tenha a doença após um resultado de teste positivo é expressa como P ( E | F ) {\displaystyle P(E|F)} .O teorema de Bayes é formalmente declarado como: P ( E | F ) = P ( F | E ) P ( E ) P ( F | E ) P ( E ) + P ( F | ¬ E ) P ( ¬ E ) . {\displaystyle P(E|F)={\frac {P(F|E)P(E)}{P(F|E)P(E)+P(F|\neg E)P(\neg E)}}.} Nesta fórmula, P ( E ) {\displaystyle P(E)} representa a taxa de prevalência da doença na população, enquanto P ( F | E ) {\displaystyle P(F|E)} indica a taxa de verdadeiros positivos ou a sensibilidade do teste.

Como exemplo ilustrativo, considere um cenário em que todos os indivíduos que sofrem de câncer de pâncreas apresentam sintomas específicos; entretanto, a presença desses sintomas não implica automaticamente no diagnóstico de câncer de pâncreas. Se a taxa de incidência de câncer de pâncreas for de 1 em 100.000, e 10 em 99.999 indivíduos saudáveis também apresentarem esses sintomas, a probabilidade de uma pessoa que apresenta esses sintomas realmente ter câncer de pâncreas é calculada em 9,1%.

Utilizando a taxa de incidência, a tabela a seguir delineia os valores numéricos correspondentes por 100.000 indivíduos.

Posteriormente, esses números facilitam o cálculo da probabilidade de que um paciente que apresenta os sintomas acima mencionados esteja de fato sofrendo de câncer.

P ( Câncer | Sintomas ) = P ( Sintomas | Câncer ) P ( Câncer ) P ( Sintomas ) = P ( Sintomas | Câncer ) P ( Câncer ) P ( Sintomas | Câncer ) P ( Câncer ) + P ( Sintomas | Não-câncer ) P ( Não-câncer ) = §197198§ × 0,00001 §206207§ × 0,00001 + ( §217218§ / 99999 ) × 0,99999 = §239240§ §241242§ 9.1 % . {\displaystyle {\begin{aligned}P({\text{Câncer}}|{\text{Sintomas}})&={\frac {P({\text{Sintomas}}|{\text{Câncer}})P({\text{Câncer}})}{P({\text{Sintomas}})}}\\&={\frac {P({\text{Sintomas}}|{\text{Câncer}})P({\text{Câncer}})}{P({\text{Sintomas}}|{\text{Câncer}})P({\ text{Câncer}})+P({\text{Sintomas}}|{\text{Não-câncer}})P({\text{Não-câncer}})}}\\[8pt]&={\frac {1\vezes 0,00001}{1\vezes 0,00001+(10/99999)\vezes 0,99999}}={\frac {1}{11}}\aproximadamente 9,1\%.\end{aligned}}}

Triagem Farmacológica

Considere um teste de drogas, por exemplo, para a Substância D, exibindo 99% de sensibilidade, o que indica uma taxa de verdadeiro positivo (TPR) de 0,99. Isto implica que o teste identifica com precisão 99% dos consumidores de drogas como positivos. Além disso, o teste demonstra especificidade de 99%, correspondendo a uma taxa de verdadeiro negativo (TNR) de 0,99. Consequentemente, embora 99% dos não utilizadores sejam corretamente identificados como negativos, o teste também produz uma taxa de falsos positivos de 1% (FPR = 0,01) entre os não utilizadores. Dada uma prevalência de 0,3% de uso de drogas na população, o teorema de Bayes pode ser aplicado para calcular a probabilidade de que um indivíduo com teste positivo seja, de fato, um usuário de drogas: {\text{Usuário}})P({\text{Usuário}})}{P({\text{Positivo}})}}\\&={\frac {P({\text{Positivo}}\vert {\text{Usuário}})P({\text{Usuário}})}{P({\text{Positivo}}\vert {\text{Usuário}})P({\text{Usuário}})+P({\text{Positivo}}\vert {\text{Não usuário}})P({\text{Não usuário}})}}\\[8pt]&={\frac {0,99\times 0,003}{0,99\times 0,003+0,01\times 0,997}}\aproximadamente 23\%.\end{aligned}}}" display="block" xmlns="w3.org/1998/Math/MathML">

Deformação da moeda

Uma urna contém três tipos distintos de moedas: A, B e C. As moedas do tipo A são justas, exibindo uma probabilidade de 0,5 de dar cara. As moedas do tipo B são tendenciosas, com probabilidade de 0,6 de dar cara, enquanto as moedas do tipo C têm probabilidade de 0,9 de dar cara. A composição da urna inclui duas moedas do tipo A, duas moedas do tipo B e uma moeda do tipo C. Ao selecionar e lançar aleatoriamente uma moeda desta urna, o teorema de Bayes pode ser aplicado para determinar a probabilidade de a moeda pertencer a um tipo específico, visto que resultou em cara:

Interpretações

A interpretação da regra de Bayes depende da estrutura probabilística específica aplicada aos seus termos constituintes. As duas categorias principais dessas interpretações serão detalhadas posteriormente.

Interpretações Bayesianas

Dentro das interpretações bayesianas, ou epistemológicas, a probabilidade quantifica um "grau de crença". O teorema de Bayes estabelece uma relação entre os graus iniciais e atualizados de crença em uma proposição, considerando novas evidências. Por exemplo, num contexto de diagnóstico médico, um resultado de teste positivo para uma doença aumentaria a crença do médico na probabilidade de o paciente ter essa condição.

Se A representa uma proposição e B significa a evidência ou antecedente B, então:

Interpretações Frequentistas

Interpretações frequentistas

Nas interpretações frequentistas, a probabilidade quantifica uma "proporção de resultados". Por exemplo, se um experimento é conduzido repetidamente, P(A) significa a proporção de resultados que exibem a propriedade A (a probabilidade anterior), e P(B) denota a proporção que possui a propriedade B. Além disso, P(B|A) representa a proporção de resultados com propriedade B entre aqueles com propriedade A, enquanto P(A|B) indica a proporção de resultados com A entre aqueles com B (a probabilidade posterior).

Formulários

Prévio e probabilidade

Para eventos A e B, dado que P(B) ≠ 0, o seguinte é válido:

P ( A | B ) = P ( B | A ) P ( A ) P ( B ) . {\displaystyle P(A|B)={\frac {P(B|A)P(A)}{P(B)}}.}

Em inúmeras aplicações, particularmente na inferência bayesiana, o evento B é mantido constante e o objetivo é avaliar o impacto de sua observação na confiança em vários eventos potenciais A. Nestas circunstâncias, o denominador da expressão anterior, que representa a probabilidade da evidência observada B, permanece constante. O elemento variável é A. Consequentemente, o teorema de Bayes demonstra que as probabilidades posteriores são diretamente proporcionais ao numerador, levando à seguinte equação:

P ( A | B ) P ( A ) P ( B | A ) . {\displaystyle P(A|B)\propto P(A)\cdot P(B|A).}

Dito de outra forma, a probabilidade posterior é diretamente proporcional ao produto da probabilidade anterior e da verossimilhança.

Variáveis aleatórias

Para um par de variáveis aleatórias contínuas, especificamente X e Y, o teorema de Bayes pode ser derivado analogamente da definição estabelecida de densidade condicional:

f X | S = s ( x ) = f X , S ( x , s ) f S ( s ) {\displaystyle f_{X\vert Y=y}(x)={\frac {f_{X,Y}(x,y)}{f_{Y}(y)}}}
f S | X = x ( s ) = f X , S ( x , s ) f X ( x ) {\displaystyle f_{Y\vert X=x}(y)={\frac {f_{X,Y}(x,y)}{f_{X}(x)}}}

O teorema de Bayes é formalmente expresso como:

f X | S = s ( x ) = f S | X = x ( s ) f X ( x ) f S ( s ) . {\displaystyle f_{X\vert Y=y}(x)={\frac {f_{Y\vert X=x}(y)f_{X}(x)}{f_{Y}(y)}}.}

Este princípio é aplicável a valores de x {\displaystyle x} e s {\displaystyle y} que estão dentro dos respectivos suportes de X e Y, necessitando assim que f X ( x ) > §5859§ {\displaystyle f_{X}(x)>0} e f S ( s ) > §9091§ {\displaystyle f_{Y}(y)>0} .

Caso Geral

Seja PYx{\displaystyle P_{Y}^{x}} denotam o distribuição condicional de Y{\displaystyle Y} dado que X=x{\displaystyle X=x}. Além disso, deixe PX{\displaystyle P_{X}} representa a distribuição de X{\displaystyle X}. Consequentemente, a distribuição conjunta é expressa como PX,Y(dx,dy)=PYx(dy)PX(dx){\displaystyle P_{X,Y}(dx,dy)=P_{Y}^{x}(dy)P_{X}(dx)}. A distribuição condicional PXy{\displaystyle P_{X}^{y}} de X{\displaystyle X} dado Y=y{\displaystyle Y=y} é posteriormente definido por:

PXy(A)=E(§3132§A(X)|Y=y){\displaystyle P_{X}^{y}(A)=E(1_{A}(X)|Y=y)}

A existência e a unicidade da expectativa condicional necessária são estabelecidas pelo teorema de Radon-Nikodym. UM. Kolmogorov formalizou este conceito em 1933, enfatizando a importância das probabilidades e expectativas condicionais ao afirmar: "Desejo chamar a atenção para... a teoria das probabilidades condicionais e das expectativas condicionais." O teorema de Bayes é fundamental para derivar a distribuição posterior de uma dada distribuição anterior. Alcançar a exclusividade neste contexto normalmente requer suposições de continuidade específicas. Além disso, o teorema de Bayes pode ser estendido para acomodar distribuições anteriores impróprias, como a distribuição uniforme ao longo de toda a linha real. O advento dos modernos métodos de Monte Carlo da cadeia de Markov aumentou substancialmente a relevância do teorema de Bayes, particularmente em cenários que envolvem anteriores impróprios.

Representação de probabilidades

As probabilidades são ocasionalmente expressas como probabilidades. Para qualquer proposição A {\displaystyle A} , as probabilidades em A {\displaystyle A} são definidos como a razão da probabilidade de que A {\displaystyle A} é verdadeiro para a probabilidade de que A {\displaystyle A} é falso. O teorema de Bayes pode ser formulado usando probabilidades. Inicialmente, o teorema de Bayes é aplicado para determinar a probabilidade de que A {\displaystyle A} é verdadeira, dada outra proposição B {\displaystyle B} , como segue: P ( A | B ) = P ( B ) P ( B | A ) P ( A ) . {\displaystyle P(A|B)=P(B){\frac {P(B|A)}{P(A)}}.}

Considere, por exemplo, um cenário em que uma doença apresenta uma prevalência de 1%, o que implica que a probabilidade de um indivíduo selecionado aleatoriamente ser infectado é de 0,01. Além disso, suponha que um teste de diagnóstico para esta doença produza resultados precisos com 99% de probabilidade. As chances anteriores de um indivíduo ser infectado são então calculadas da seguinte forma:

A probabilidade condicional de um resultado de teste positivo, dada a presença de uma infecção, é de 99%: P ( positivo | infectado ) = 0,99. {\displaystyle P({\text{positivo}}|{\text{infectado}})=0,99.} Da mesma forma, a probabilidade de um resultado negativo no teste, dada a ausência de infecção, é de 99%.Consequentemente, P ( positivo | não infectado ) = §6263§ P ( negativo | não infectado ) = §8788§ 0,99 = 0,01. {\displaystyle P({\text{positivo}}|{\text{não infectado}})=1-P({\text{negativo}}|{\text{não infectado}})=1-0,99=0,01.} O fator Bayes é posteriormente calculado como a razão: P ( positivo | infectado ) P ( positivo | não infectado ) = 0,99 0,01 = §170171§ §172173§ . {\displaystyle {\frac {P({\text{positivo}}|{\text{infectado}})}{P({\text{positivo}}|{\text{não infectado}})}}={\frac {0,99}{0,01}}={\frac {99}{1}}.} Consequentemente, as chances posteriores de uma infecção, dado um resultado de teste positivo, são determinadas como: §194195§ §196197§ × §205206§ §207208§ = §215216§ §217218§ ; {\displaystyle {\frac {1}{99}}\times {\frac {99}{1}}={\frac {1}{1}};} Isso implica que as chances posteriores de infecção são de um para um, resultando em uma probabilidade posterior de infecção de 50%.

Generalizações

Teorema de Bayes para três eventos

Uma formulação estendida do teorema de Bayes, aplicável a três eventos, é derivada da introdução de um terceiro evento, C {\displaystyle C} , desde que P ( C ) > §3233§ , {\displaystyle P(C)>0,} , ao qual todas as probabilidades subsequentes estão condicionadas:

P ( A | B C ) = P ( B | A C ) P ( A | C ) P ( B | C ) {\displaystyle P(A\vert B\cap C)={\frac {P(B\vert A\cap C)\,P(A\vert C)}{P(B\vert C)}}}

Esse relacionamento pode ser obtido através das etapas a seguir, empregando a regra da cadeia.

P ( A B C ) = P ( A | B C ) P ( B | C ) P ( C ) {\displaystyle P(A\cap B\cap C)=P(A\vert B\cap C)\,P(B\vert C)\,P(C)}

Por outro lado,

P ( A B C ) = P ( B A C ) = P ( B | A C ) P ( A | C ) P ( C ) {\displaystyle P(A\cap B\cap C)=P(B\cap A\cap C)=P(B\vert A\cap C)\,P(A\vert C)\,P(C)}

O resultado desejado é alcançado igualando essas duas expressões e, posteriormente, isolando P ( A | B C ) {\displaystyle P(A\vert B\cap C)} .

Regras de inferência

Dentro das interpretações subjetivas da teoria da probabilidade, a probabilidade de um evento é conceituada como o grau de crença de um agente na ocorrência desse evento. O teorema de Bayes é frequentemente empregado para racionalizar o processo pelo qual um agente deve revisar ou ajustar suas crenças após adquirir novas informações. Especificamente, se um agente atribuir inicialmente uma probabilidade P ( A ) {\displaystyle P(A)} para o evento A {\displaystyle A} , uma probabilidade P ( B ) {\displaystyle P(B)} para o evento B {\displaystyle B} e uma probabilidade condicional P ( B | A ) {\displaystyle P(B|A)} representando a probabilidade do evento " B {\displaystyle B} ocorrendo dado o evento A {\displaystyle A} já aconteceu", então o teorema de Bayes determina o valor de P ( A | B ) {\displaystyle P(A|B)} .Posteriormente, se o evento B {\displaystyle B} for observado após essas atribuições iniciais de probabilidade, um agente aderindo à atualização Bayesiana, também chamada de condicionalização, revisará sua probabilidade para o evento A {\displaystyle A} de seu valor anterior P ( A ) {\displaystyle P(A)} para o novo valor P ( A ) = P ( A | B ) {\displaystyle P'(A)=P(A|B)} . É importante notar que a condicionalização não é universalmente considerada como a única regra de atualização racional. As suposições específicas permitidas para restringir as regras de atualização continuam a ser objeto de debate acadêmico.

Quantum

No âmbito da mecânica quântica, as distribuições de probabilidade são estendidas às matrizes de densidade, que são matrizes de valores complexos que caracterizam o estado de preparação de um sistema quântico. Uma regra quântica de Bayes correspondente pode ser formulada para descrever a atualização dessas matrizes de densidade na aquisição de novos dados experimentais pertencentes ao sistema.

Aplicativos selecionados

Estimativa de parâmetros

Na metodologia estatística bayesiana, um objeto ou sistema é conceituado por meio de um modelo matemático que incorpora um ou mais parâmetros numéricos. A informação existente relativa ao sistema é então utilizada para construir uma distribuição de probabilidade entre os valores potenciais destes parâmetros, significando assim a sua relativa plausibilidade. Posteriormente, o teorema de Bayes é aplicado para refinar esta distribuição de probabilidade à medida que novas evidências surgem.

Matemática recreativa

A regra de Bayes, em conjunto com o cálculo de probabilidades condicionais, oferece uma metodologia robusta para resolver vários quebra-cabeças matemáticos recreativos bem conhecidos, incluindo o problema dos Três Prisioneiros, o problema de Monty Hall, o paradoxo do Menino ou da Menina e o problema dos dois envelopes.

Criptoanálise

Durante a Segunda Guerra Mundial, Alan Turing e sua equipe em Bletchley Park foram fundamentais na aplicação do teorema de Bayes à criptoanálise. Em 1941, Turing desenvolveu materiais instrucionais que introduziam metodologias bayesianas para decifrar códigos, exemplificadas por sua aplicação a desafios menos complexos como a cifra de Vigenère, distintos de seu objetivo principal de descriptografar mensagens de máquinas Enigma. Além disso, o teorema de Bayes facilitou a descriptografia do código naval japonês JN 25.

Genética

No campo da genética, a regra de Bayes serve como uma ferramenta valiosa para estimar a probabilidade de um indivíduo possuir um genótipo específico. Os indivíduos frequentemente procuram determinar sua suscetibilidade a um distúrbio genético ou seu status como portadores de um gene recessivo. A análise bayesiana, aproveitando o histórico médico familiar ou testes genéticos, pode prever a propensão de um indivíduo a desenvolver uma doença ou transmiti-la aos seus descendentes. Este teste genético preditivo é particularmente prevalente entre casais que planejam a concepção e que estão preocupados com seu potencial status de portador de uma doença, especialmente em populações que apresentam diversidade genética limitada.

Biologia evolutiva

Na biologia evolutiva, o teorema de Bayes é utilizado para inferir árvores filogenéticas que representam de forma ideal as relações entre espécies com base em dados empíricos. A viabilidade desta metodologia foi significativamente melhorada pela integração dos métodos de Monte Carlo da cadeia de Markov.

Epistemologia Bayesiana

Notas

Referências

Sobre este artigo

Informações sobre Teorema de Bayes

Um breve guia sobre a vida, pesquisas, descobertas e importância científica de Teorema de Bayes.

Etiquetas de tema

Informações sobre Teorema de Bayes Quem foi Teorema de Bayes Vida de Teorema de Bayes Pesquisas de Teorema de Bayes Descobertas de Teorema de Bayes Contribuições científicas

Buscas comuns sobre este tema

  • Quem foi Teorema de Bayes?
  • O que Teorema de Bayes descobriu?
  • Quais foram as contribuições de Teorema de Bayes?
  • Por que Teorema de Bayes é importante?

Arquivo da categoria

Arquivo de Ciência

Mergulhe no fascinante universo da ciência. Aqui, você encontrará artigos detalhados, explicações claras e análises aprofundadas sobre os mais diversos temas, desde biologia e física até algoritmos e adaptação

Início Voltar para Ciências