teorema de Bayes, también conocido como ley de Bayes o regla de Bayes, es un principio matemático fundamental que lleva el nombre de Thomas Bayes (). Proporciona un método para invertir probabilidades condicionales, permitiendo así el cálculo de la probabilidad de una causa dado un efecto observado. Por ejemplo, el teorema puede determinar la probabilidad de que un paciente tenga una enfermedad, dado un resultado positivo de la prueba, utilizando la probabilidad de que la prueba arroje un resultado positivo cuando la enfermedad está presente. Este teorema fue formulado de forma independiente en el siglo XVIII por Bayes y Pierre-Simon Laplace.
Una aplicación destacada del teorema de Bayes es la inferencia bayesiana, una metodología estadística que emplea el teorema para invertir la probabilidad de observaciones dada una configuración de modelo específica (denominada función de verosimilitud). Esta inversión produce la probabilidad de la configuración del modelo dadas las observaciones (conocida como probabilidad posterior).
Historial
El teorema lleva el nombre de Thomas Bayes, un notable ministro, estadístico y filósofo. Bayes empleó la probabilidad condicional para desarrollar un algoritmo, denominado Proposición 9, que utilizaba evidencia para calcular los límites de un parámetro desconocido. Su importante obra, Un ensayo para resolver un problema en la doctrina de las posibilidades, se publicó en 1763. Bayes investigó métodos para calcular una distribución para el parámetro de probabilidad de una distribución binomial, un concepto que ahora se entiende a través de la terminología moderna. Después de la muerte de Bayes, su familia legó sus documentos a su amigo, Richard Price, quien también fue ministro, filósofo y matemático.
Richard Price editó extensamente el manuscrito inédito durante un período de dos años antes de que fuera presentado por un colega de la Royal Society el 23 de diciembre de 1763. Los esfuerzos editoriales de Price llevaron a la publicación del trabajo fundamental de Bayes, "Un ensayo para resolver un problema en el Doctrine of Chances" (1763), que apareció en Philosophical Transactions y contiene el teorema de Bayes. Price también compuso una introducción al artículo, que aclaraba algunos de los fundamentos filosóficos de la estadística bayesiana y seleccionó una de las dos soluciones que Bayes había propuesto. En 1765, Price fue elegido miembro de la Royal Society, reconociendo sus importantes contribuciones al legado de Bayes. El 27 de abril, se leyó en la Royal Society y luego se publicó una carta que envió a Benjamin Franklin, que ilustra la aplicación de Price de esta investigación al análisis de población y al cálculo de las 'rentas vitalicias'.
Pierre-Simon Laplace, independientemente de Bayes, empleó la probabilidad condicional para articular la relación entre una probabilidad posterior actualizada y una probabilidad previa, dada la evidencia empírica. En 1774, reprodujo y amplió con éxito los hallazgos de Bayes, aparentemente sin conocimiento previo del trabajo de Bayes, y posteriormente sintetizó sus resultados en Théorie analytique des probabilités (1812). A Laplace se le atribuye en gran medida el desarrollo de la interpretación bayesiana de la probabilidad.
Aproximadamente dos siglos después, Sir Harold Jeffreys proporcionó una base axiomática para el algoritmo de Bayes y la formulación de Laplace. En una publicación de 1973, afirmó que el teorema de Bayes "es para la teoría de la probabilidad lo que el teorema de Pitágoras es para la geometría".
Stephen Stigler, utilizando un argumento bayesiano, propuso que Nicholas Saunderson, un matemático inglés ciego, descubrió el teorema de Bayes antes que Bayes; sin embargo, esta afirmación es cuestionada. F. Thomas Bruss examinó posteriormente "Un ensayo para la solución de un problema en la doctrina de las posibilidades" de Bayes, tal como lo comunicó Price. Bruss estuvo en gran medida de acuerdo con el análisis de Stigler, pero no estuvo de acuerdo con respecto a la cuestión de la prioridad. Destacó los aspectos intuitivos de la fórmula de Bayes y ofreció argumentos independientes sobre las probables motivaciones de Bayes para su trabajo. Bruss concluyó que, a falta de evidencia en contrario, la nomenclatura "Teorema de Bayes" o "fórmula de Bayes" sigue siendo justificable.
Martyn Hooper y Sharon McGrayne han afirmado que la contribución de Price fue sustancial:
Según los estándares modernos, deberíamos referirnos a la regla de Bayes-Price. Price descubrió el trabajo de Bayes, reconoció su importancia, lo corrigió, contribuyó al artículo y le encontró un uso. La convención moderna de emplear únicamente el nombre de Bayes es injusta, pero está tan arraigada que cualquier otra cosa tiene poco sentido.
El "factor de Bayes" o "probabilidad", que se manifiesta cuando el teorema de Bayes se articula en forma de probabilidades, se observó por primera vez a principios de la década de 1940 en el trabajo de Alan Turing, quien lo designó como el "factor a favor de una proposición". Más tarde, en 1878, Charles Sanders Peirce utilizó el logaritmo de este factor, refiriéndose a él como el "peso de la evidencia" para una proposición.
Enunciado del teorema
El teorema de Bayes se expresa matemáticamente mediante la siguiente ecuación:
Aquí, y representan eventos, con la condición de que .
- La expresión denota una probabilidad condicional, específicamente la probabilidad del evento que ocurre dado ese evento es verdadero. Esto también se conoce como probabilidad posterior de condicionado a .
- Del mismo modo, representa otra probabilidad condicional, que indica la probabilidad del evento que ocurre cuando el evento es verdadero. Este término también puede entenderse como la probabilidad de dado un .
- Los términos y representan las probabilidades incondicionales de observar eventos y , respectivamente. La cantidad de interés primario, , frecuentemente se denomina 'probabilidad previa', lo que significa su estado antes de la introducción de nueva evidencia. Desde un punto de vista técnico, tanto y se pueden clasificar como probabilidades previas, incondicionadas o marginales.
El teorema de Bayes se puede derivar de la relación fundamental entre probabilidades conjuntas y condicionales. La probabilidad conjunta de dos eventos,
Cuando los eventos A§23§, A§67§, ..., son mutuamente excluyentes y exhaustivos, lo que significa que se garantiza que ocurrirá precisamente uno de estos eventos, y no pueden ocurrir dos simultáneamente, la ley de probabilidad total se articula de la siguiente manera:
Los eventos y su complemento, no- (a menudo indicado como ), constituyen un par mutuamente excluyente y exhaustivo. En consecuencia, se puede aplicar la fórmula mencionada anteriormente, simplificando la suma en el denominador a sólo dos términos:
Ejemplos
Diagnóstico médico
Esta sección ilustra un escenario de diagnóstico médico en el que un médico examina a un paciente para detectar una enfermedad específica. El estado del paciente es binario (tiene o no la enfermedad) y el resultado de la prueba también es binario (positivo o negativo). Un falso positivo ocurre cuando un paciente sano recibe un resultado positivo de la prueba. Por el contrario, un verdadero positivo indica un resultado positivo de la prueba para un paciente que realmente tiene la enfermedad. El teorema de Bayes proporciona un marco para calcular la probabilidad de que un paciente tenga la enfermedad si el resultado de la prueba es positivo, incorporando la prevalencia de la enfermedad en la población y la eficacia de la prueba. Sea representan el evento en el que el paciente tiene la enfermedad. En consecuencia, denota la probabilidad previa de que el paciente tenga la enfermedad. Sea significa el evento en el que el paciente da positivo. La probabilidad condicional de que el paciente tenga la enfermedad dado un resultado positivo de la prueba se expresa como .El teorema de Bayes se expresa formalmente como:En esta fórmula, representa la tasa de prevalencia de la enfermedad dentro de la población, mientras que denota la tasa de verdaderos positivos o la sensibilidad de la prueba.
Como ejemplo ilustrativo, considere un escenario en el que todos los individuos afectados por cáncer de páncreas presentan síntomas específicos; sin embargo, la presencia de estos síntomas no implica automáticamente un diagnóstico de cáncer de páncreas. Si la tasa de incidencia de cáncer de páncreas es de 1 entre 100.000 y 10 de 99.999 personas sanas también presentan estos síntomas, la probabilidad de que una persona que presente estos síntomas en realidad tenga cáncer de páncreas se calcula en 9,1 %.
Utilizando la tasa de incidencia, la siguiente tabla delinea los valores numéricos correspondientes por cada 100.000 personas.
Posteriormente, estas cifras facilitan el cálculo de la probabilidad de que un paciente que presenta los síntomas antes mencionados esté efectivamente aquejado de cáncer.
Cribado farmacológico
Considere una prueba de drogas, por ejemplo, para la Sustancia D, que muestra una sensibilidad del 99%, lo que indica una tasa de verdaderos positivos (TPR) de 0,99. Esto implica que la prueba identifica con precisión al 99% de los consumidores de drogas como positivos. Además, la prueba demuestra una especificidad del 99%, lo que corresponde a una tasa de verdaderos negativos (TNR) de 0,99. En consecuencia, si bien el 99% de los no usuarios se identifican correctamente como negativos, la prueba también produce una tasa de falsos positivos del 1% (FPR = 0,01) entre los no usuarios. Dada una prevalencia del 0,3% del consumo de drogas en la población, el teorema de Bayes se puede aplicar para calcular la probabilidad de que un individuo que dé positivo sea, de hecho, un consumidor de drogas:
Deformación de monedas
Una urna contiene tres tipos distintos de monedas: A, B y C. Las monedas del tipo A son justas y exhiben una probabilidad de 0,5 de salir cara. Las monedas tipo B están sesgadas, con una probabilidad de 0,6 de salir cara, mientras que las monedas tipo C tienen una probabilidad de 0,9 de salir cara. La composición de la urna incluye dos monedas tipo A, dos monedas tipo B y una moneda tipo C. Al seleccionar y lanzar al azar una moneda de esta urna, se puede aplicar el teorema de Bayes para determinar la probabilidad de que la moneda pertenezca a un tipo específico, dado que resultó en cara:
Interpretaciones
La interpretación de la regla de Bayes depende del marco probabilístico específico aplicado a sus términos constituyentes. Las dos categorías principales de estas interpretaciones se detallan a continuación.
Interpretaciones bayesianas
Dentro de las interpretaciones bayesianas o epistemológicas, la probabilidad cuantifica un "grado de creencia". El teorema de Bayes establece una relación entre los grados de creencia inicial y actualizado en una proposición, considerando nueva evidencia. Por ejemplo, en un contexto de diagnóstico médico, un resultado positivo en una prueba para una enfermedad aumentaría la creencia del médico en la probabilidad del paciente de padecer esa afección.
Si A representa una proposición y B significa la evidencia o el trasfondo B, entonces:
- representa la probabilidad previa, que es el grado inicial de creencia asociado con A.
- denota el grado inicial correspondiente de creencia de que A es falso, expresado como .
- denota la probabilidad condicional o verosimilitud, que representa el grado de creencia en B asumiendo que A es verdadero.
- significa la probabilidad condicional o verosimilitud, que indica el grado de creencia en B bajo el supuesto de que A es falso.
- se define como la probabilidad posterior, que representa la probabilidad de A posterior a la incorporación de B.
Interpretaciones frecuentistas
Interpretaciones frecuentistas
Dentro de las interpretaciones frecuentistas, la probabilidad cuantifica una "proporción de resultados". Por ejemplo, si un experimento se realiza repetidamente, P(A) significa la proporción de resultados que exhiben la propiedad A (la probabilidad previa), y P(B) denota la proporción que posee la propiedad B. Además, P(B|A) representa la proporción de resultados con la propiedad B entre aquellos con la propiedad A, mientras que P(A|B) indica la proporción de resultados con A entre aquellos con B (la probabilidad posterior).
Formularios
Previo y probabilidad
Para los eventos A y B, dado que P(B) ≠ 0, se cumple lo siguiente:
En numerosas aplicaciones, particularmente dentro de la inferencia bayesiana, el evento B se mantiene constante y el objetivo es evaluar el impacto de su observación en la confianza en varios eventos potenciales A. En estas circunstancias, el denominador de la expresión anterior, que representa la probabilidad de la evidencia observada B, permanece constante. El elemento variable es A. En consecuencia, el teorema de Bayes demuestra que las probabilidades posteriores son directamente proporcionales al numerador, lo que lleva a la siguiente ecuación:
Dicho de otra manera, la probabilidad posterior es directamente proporcional al producto de la probabilidad anterior y la verosimilitud.
Variables aleatorias
Para un par de variables aleatorias continuas, específicamente X e Y, el teorema de Bayes se puede derivar de manera análoga a partir de la definición establecida de densidad condicional:
El teorema de Bayes se expresa formalmente como:
Este principio es aplicable a valores de y que se encuentran dentro de los soportes respectivos de X e Y, por lo que es necesario que y .
Caso general
Sea denota el distribución condicional de dado que . Además, dejemos que representa la distribución de . En consecuencia, la distribución conjunta se expresa como . La distribución condicional de dado se define posteriormente por:
La existencia y unicidad de la expectativa condicional requerida se establecen mediante el teorema de Radon-Nikodym. UN. Kolmogorov formalizó este concepto en 1933, enfatizando la importancia de las probabilidades y expectativas condicionales al afirmar: "Deseo llamar la atención sobre... la teoría de las probabilidades condicionales y las expectativas condicionales". El teorema de Bayes es fundamental para derivar la distribución posterior a partir de una distribución previa dada. Lograr la unicidad en este contexto normalmente requiere supuestos de continuidad específicos. Además, el teorema de Bayes se puede ampliar para dar cabida a distribuciones previas impropias, como la distribución uniforme en toda la línea real. La llegada de los métodos Monte Carlo de cadena de Markov modernos ha mejorado sustancialmente la relevancia del teorema de Bayes, particularmente en escenarios que involucran antecedentes inadecuados.
Representación de probabilidades
Las probabilidades se expresan ocasionalmente como probabilidades. Para cualquier proposición , las probabilidades en se definen como la relación de la probabilidad de que es fiel a la probabilidad de que es falso. El teorema de Bayes se puede formular utilizando probabilidades. Inicialmente, se aplica el teorema de Bayes para determinar la probabilidad de que es verdadera, dada otra proposición , de la siguiente manera:
Considere, por ejemplo, un escenario en el que una enfermedad presenta una prevalencia del 1%, lo que implica que la probabilidad de que un individuo seleccionado al azar esté infectado es de 0,01. Además, suponga que una prueba de diagnóstico para esta enfermedad arroja resultados precisos con una probabilidad del 99%. Las probabilidades previas de que un individuo esté infectado se calculan de la siguiente manera:
La probabilidad condicional de un resultado positivo de la prueba, dada la presencia de una infección, es del 99%:Del mismo modo, la probabilidad de un resultado negativo de la prueba, dada la ausencia de infección, es del 99%.En consecuencia,El factor Bayes se calcula posteriormente como la relación:En consecuencia, las probabilidades posteriores de una infección, dado un resultado positivo de la prueba, se determinan como:Esto implica que las probabilidades posteriores de infección son de uno a uno, lo que da como resultado una probabilidad posterior de infección del 50 %.
Generalizaciones
Teorema de Bayes para tres eventos
Se deriva una formulación ampliada del teorema de Bayes, aplicable a tres eventos, introduciendo un tercer evento, , siempre que , al que se condicionan todas las probabilidades posteriores:
Esta relación se puede derivar mediante los siguientes pasos, empleando la regla de la cadena.
Por el contrario,
El resultado objetivo se logra equiparando estas dos expresiones y posteriormente aislando .
Reglas de inferencia
Dentro de las interpretaciones subjetivas de la teoría de la probabilidad, la probabilidad de un evento se conceptualiza como el grado de creencia de un agente en la ocurrencia de ese evento. El teorema de Bayes se emplea con frecuencia para racionalizar el proceso mediante el cual un agente debe revisar o ajustar sus creencias después de adquirir nueva información. Específicamente, si un agente asigna inicialmente una probabilidad al evento , una probabilidad al evento y una probabilidad condicional representa la probabilidad del evento " ocurre dado ese evento ya ha ocurrido", entonces el teorema de Bayes determina el valor de .Posteriormente, si el evento después de estas asignaciones de probabilidad iniciales, un agente que se adhiera a la actualización bayesiana, también denominada condicionalización, revisará su probabilidad para el evento de su valor anterior al nuevo valor . Es importante señalar que la condicionalización no se considera universalmente como la única regla racional de actualización. Los supuestos específicos permitidos para limitar las reglas de actualización siguen siendo un tema de debate académico.
Cuántico
En el marco de la mecánica cuántica, las distribuciones de probabilidad se extienden a las matrices de densidad, que son matrices de valores complejos que caracterizan el estado de preparación de un sistema cuántico. Se puede formular una regla cuántica de Bayes correspondiente para describir la actualización de estas matrices de densidad tras la adquisición de nuevos datos experimentales relacionados con el sistema.
Aplicaciones seleccionadas
Estimación de parámetros
En la metodología estadística bayesiana, un objeto o sistema se conceptualiza a través de un modelo matemático que incorpora uno o más parámetros numéricos. La información existente sobre el sistema se utiliza luego para construir una distribución de probabilidad entre los valores potenciales de estos parámetros, indicando así su plausibilidad relativa. Posteriormente, se aplica el teorema de Bayes para refinar esta distribución de probabilidad a medida que emerge nueva evidencia.
Matemáticas recreativas
La regla de Bayes, junto con el cálculo de probabilidades condicionales, ofrece una metodología sólida para resolver varios acertijos matemáticos recreativos bien conocidos, incluido el problema de los tres prisioneros, el problema de Monty Hall, la paradoja del niño o la niña y el problema de los dos sobres.
Criptoanálisis
Durante la Segunda Guerra Mundial, Alan Turing y su equipo en Bletchley Park desempeñaron un papel decisivo en la aplicación del teorema de Bayes al criptoanálisis. En 1941, Turing desarrolló materiales instructivos que introdujeron metodologías bayesianas para descifrar códigos, ejemplificadas por su aplicación a desafíos menos complejos como el cifrado Vigenère, distintos de su objetivo principal de descifrar mensajes de máquinas Enigma. Además, el teorema de Bayes facilitó el descifrado del código naval japonés JN 25.
Genética
Dentro del campo de la genética, la regla de Bayes sirve como una herramienta valiosa para estimar la probabilidad de que un individuo posea un genotipo particular. Los individuos frecuentemente buscan determinar su susceptibilidad a un trastorno genético o su condición de portadores de un gen recesivo. El análisis bayesiano, aprovechando el historial médico familiar o las pruebas genéticas, puede pronosticar la propensión de un individuo a desarrollar una enfermedad o transmitirla a su descendencia. Esta prueba genética predictiva es particularmente frecuente entre las parejas que planean concebir y que están preocupadas por su posible condición de portadores de una enfermedad, especialmente en poblaciones que exhiben una diversidad genética limitada.
Biología evolutiva
En biología evolutiva, el teorema de Bayes se utiliza para inferir árboles filogenéticos que representan de manera óptima las relaciones entre especies basándose en datos empíricos. La viabilidad de esta metodología mejoró significativamente mediante la integración de los métodos Monte Carlo de la cadena de Markov.
Epistemología bayesiana
- Epistemología bayesiana
- Red bayesiana
- Persuasión bayesiana
- Probabilidad inductiva
- QBismo
- Probabilidad condicional regular
- Por qué la mayoría de los resultados de las investigaciones publicadas son falsos, un influyente ensayo de metaciencia de 2005 escrito por John Ioannidis.
Notas
Referencias
- Este artículo integra contenido de una publicación de dominio público: Mitchell, John Malcolm (1911). "Precio, Richard". En Chisholm, Hugh (ed.). Encyclopædia Britannica. vol. 22 (11ª ed.). Prensa de la Universidad de Cambridge. págs. 314–315.Bolstad, William M.; Curran, James M. (2017). "Lógica, probabilidad e incertidumbre". Introducción a la estadística bayesiana (3.ª ed.). Nueva York: Wiley. págs. 59–82. ISBN 978-1-118-09156-2.
- Bolstad, William M.; Curran, James M. (2017). "Lógica, probabilidad e incertidumbre". Introducción a la estadística bayesiana (3.ª ed.). Nueva York: Wiley. págs. 59–82. ISBN 978-1-118-09156-2.Joyce, James (30 de septiembre de 2003). "Teorema de Bayes". En Zalta, Edward N. (ed.). Enciclopedia de Filosofía de Stanford (edición de otoño de 2003). ISSN 1095-5054. OCLC 429049174.Schmitt, Samuel A. (1969). "Accumulated Evidence". Medición de la incertidumbre: una introducción elemental a la estadística bayesiana. Lectura: Addison-Wesley. págs. 61–99. OCLC 5013.Stigler, Stephen M. (agosto de 1986). "Memorias de Laplace de 1774 sobre la probabilidad inversa". Ciencia estadística. §34§ (3): 359–363. doi:10.1214/ss/1177013620."La trampa bayesiana". Veritasium. 5 de abril de 2017, a través de YouTube.
- "La trampa bayesiana". Veritasium.5 de abril de 2017: a través de YouTube.Fuente: Archivo de la Academia TORIma
- Bolstad, William M.; Curran, James M. (2017). "Lógica, probabilidad e incertidumbre". Introducción a la estadística bayesiana (3.ª ed.). Nueva York: Wiley. págs. 59–82. ISBN 978-1-118-09156-2.Joyce, James (30 de septiembre de 2003). "Teorema de Bayes". En Zalta, Edward N. (ed.). Enciclopedia de Filosofía de Stanford (edición de otoño de 2003). ISSN 1095-5054. OCLC 429049174.Schmitt, Samuel A. (1969). "Accumulated Evidence". Medición de la incertidumbre: una introducción elemental a la estadística bayesiana. Lectura: Addison-Wesley. págs. 61–99. OCLC 5013.Stigler, Stephen M. (agosto de 1986). "Memorias de Laplace de 1774 sobre la probabilidad inversa". Ciencia estadística. §34§ (3): 359–363. doi:10.1214/ss/1177013620."La trampa bayesiana". Veritasium. 5 de abril de 2017, a través de YouTube.