2.1 Probabilidade condicional

A probabilidade condicional é uma nova medida de probabilidade, de forma a representar melhor as chances de eventos aleatórios a partir da observação da ocorrência ou não de um dado evento.

Definição 2.1 (Probabilidade Condicional).

Sejam (Ω,,)(\Omega,\mathcal{F},\mathbb{P}) espaço de probabilidade e A,BA,B\in\mathcal{F} eventos, com (B)>0\mathbb{P}(B)>0, definimos a probabilidade condicional de AA dado BB por

(A|B)=(AB)(B).\mathbb{P}(A\,|\,B)=\frac{\mathbb{P}(A\cap B)}{\mathbb{P}(B)}.

Quando (B)=0\mathbb{P}(B)=0, definimos (A|B)=(A)\mathbb{P}(A|B)=\mathbb{P}(A).

Observe que quando (B)=0\mathbb{P}(B)=0, a razão (AB)(B)\frac{\mathbb{P}(A\cap B)}{\mathbb{P}(B)} seria da forma “00\frac{0}{0}”. Alguns livros preferem não definir a probabilidade condicional (A|B)\mathbb{P}(A\,|\,B) quando (B)=0\mathbb{P}(B)=0, já outros optam por definir (A|B)\mathbb{P}(A\,|\,B) como 0 ou (A)\mathbb{P}(A). Esta última definição faz com que a maioria dos teoremas estabelecidos neste capítulo permaneçam válidos sem que tenhamos que supor que (B)>0\mathbb{P}(B)>0 ou considerar o caso (B)=0\mathbb{P}(B)=0 separadamente.

Proposição 2.2.

Dado BB\in\mathcal{F}, a função que leva AA em (A|B)\mathbb{P}(A|B) é uma medida de probabilidade em (Ω,)(\Omega,\mathcal{F}), isto é, satisfaz às condições da Definição 1.34.

Demonstração.

Se (B)=0\mathbb{P}(B)=0, não há nada a provar pois temos (A|B)=(A)\mathbb{P}(A|B)=\mathbb{P}(A) e \mathbb{P} é uma medida de probabilidade. Considerando que (B)>0\mathbb{P}(B)>0, pela definição de probabilidade condicional, (A|B)=(AB)(B)0\mathbb{P}(A|B)=\frac{\mathbb{P}(A\cap B)}{\mathbb{P}(B)}\geqslant 0, pois o denominador é positivo e o numerador é não-negativo;

(Ω|B)=(ΩB)(B)=(B)(B)=1;\mathbb{P}(\Omega|B)=\frac{\mathbb{P}(\Omega\cap B)}{\mathbb{P}(B)}=\frac{% \mathbb{P}(B)}{\mathbb{P}(B)}=1;

se (An)n(A_{n})_{n} é uma sequência de eventos disjuntos,

(nAn|B)\displaystyle\mathbb{P}(\cup_{n}A_{n}|B) =((nAn)B)(B)=(n(AnB))(B)\displaystyle=\frac{\mathbb{P}((\cup_{n}A_{n})\cap B)}{\mathbb{P}(B)}=\frac{% \mathbb{P}(\cup_{n}(A_{n}\cap B))}{\mathbb{P}(B)}
=n(AnB)(B)=n(An|B),\displaystyle=\frac{\sum_{n}\mathbb{P}(A_{n}\cap B)}{\mathbb{P}(B)}=\sum_{n}% \mathbb{P}(A_{n}|B),

onde na segunda igualdade utilizamos a distributividade da união com respeito à interseção e na terceira o fato dos eventos (AnB)n(A_{n}\cap B)_{n} também serem disjuntos. Isto conclui que a função que leva AA em (A|B)\mathbb{P}(A|B) é de fato uma medida de probabilidade. ∎

Exemplo 2.3.

Um dado é lançado. Sabendo-se que o resultado é maior que 33, qual a probabilidade de que seja par? Denotamos o primeiro evento por B={4,5,6}B=\{4,5,6\} e o segundo por A={2,4,6}A=\{2,4,6\}. Aplicando a definição, a probabilidade de ser par sabendo-se que o resultado é maior que 33 é dada por

(A|B)=(AB)(B)=({4,6})({4,5,6})=2/63/6=23.\mathbb{P}(A|B)=\frac{\mathbb{P}(A\cap B)}{\mathbb{P}(B)}=\frac{\mathbb{P}(\{4% ,6\})}{\mathbb{P}(\{4,5,6\})}=\frac{2/6}{3/6}=\frac{2}{3}.\qed
Exemplo 2.4.

Suponha que, numa dada população, aproximadamente 30% dos genes de cor de olhos seja para olho claro cc, e aproximadamente 70%70\% seja para olhos escuros CC. Suponha também que os casais se formam e decidem ter filhos aleatoriamente (sem nenhuma influência da cor dos olhos), de forma que os genes CC e cc estejam uniformemente espalhados por toda uma população. Assim, um indivíduo escolhido aleatoriamente nesta população terá os genes cccc com probabilidade 0,0900{,}090, ou CcCc com probabilidade 0,420{,}42, ou CCCC com probabilidade 0,490{,}49. Como ter olhos claros é uma característica genética recessiva, apenas o primeiro grupo terá olhos claros, enquanto os dois últimos terão o mesmo fenótipo, de olhos escuros. Uma pessoa de olhos escuros é selecionada ao acaso. Qual a probabilidade de que essa pessoa tenha o gene recessivo para olhos claros? Denotando B=B= “olhos escuros”={Cc,CC}=\{Cc,CC\} e A=A= “tem um gene de olhos claros”={cc,Cc}=\{cc,Cc\}, temos

(A|B)=(AB)(B)=({Cc})({Cc,CC})0,420,910,46,\mathbb{P}(A|B)=\frac{\mathbb{P}(A\cap B)}{\mathbb{P}(B)}=\frac{\mathbb{P}(\{% Cc\})}{\mathbb{P}(\{Cc,CC\})}\approx\frac{0{,}42}{0{,}91}\approx 0{,}46,

com dois algarismos significativos. ∎

2.1.1 Regra do Produto

A Regra do Produto permite expressar a probabilidade da ocorrência simultânea de diversos eventos a partir do valor de cada probabilidade condicional de cada um deles dados os eventos anteriores.

Teorema 2.5 (Regra do Produto).

Dados os eventos A1,A2,,AnA_{1},A_{2},\dots,A_{n},

(A1An)=(A1)(A2|A1)(A3|A1A2)(An|A1A2An1).\mathbb{P}(A_{1}\cap\cdots\cap A_{n})=\mathbb{P}(A_{1})\mathbb{P}(A_{2}|A_{1})% \mathbb{P}(A_{3}|A_{1}\cap A_{2})\cdots\mathbb{P}(A_{n}|A_{1}\cap A_{2}\cap% \cdots\cap A_{n-1}).
Demonstração.

Vamos provar por indução em nn. Para n=1n=1, a igualdade vale trivialmente. Para n=2n=2, se (A1)>0\mathbb{P}(A_{1})>0, então

(A2|A1)=(A2A1)(A1),\mathbb{P}(A_{2}|A_{1})=\frac{\mathbb{P}(A_{2}\cap A_{1})}{\mathbb{P}(A_{1})},

donde

(A1A2)=(A1)(A2|A1);\mathbb{P}(A_{1}\cap A_{2})=\mathbb{P}(A_{1})\mathbb{P}(A_{2}|A_{1});

se (A1)=0\mathbb{P}(A_{1})=0, então (A1A2)=0\mathbb{P}(A_{1}\cap A_{2})=0, logo a igualdade acima continua válida. Suponhamos, por hipótese de indução, que o teorema seja válido para n=mn=m. Neste caso, para n=m+1n=m+1 podemos desenvolver

(A1Am+1)\displaystyle\mathbb{P}(A_{1}\cap\cdots\cap A_{m+1}) =(A1Am)(Am+1|A1Am)\displaystyle=\mathbb{P}(A_{1}\cap\cdots\cap A_{m})\mathbb{P}(A_{m+1}|A_{1}% \cap\cdots\cap A_{m})
=(A1)(A2|A1)(A3|A1A2)\displaystyle=\mathbb{P}(A_{1})\mathbb{P}(A_{2}|A_{1})\mathbb{P}(A_{3}|A_{1}% \cap A_{2})\cdots
(Am|A1Am1)(Am+1|A1Am).\displaystyle\ \ \ \ \cdots\mathbb{P}(A_{m}|A_{1}\cap\cdots\cap A_{m-1})% \mathbb{P}(A_{m+1}|A_{1}\cap\cdots\cap A_{m}).

Com efeito, a primeira igualdade corresponde ao caso n=2n=2 já demonstrado, e a segunda corresponde ao caso n=mn=m, o que completa a prova. ∎

Exemplo 2.6.

Um móvel tem duas gavetas, a primeira gaveta contém três bolsas e a segunda contém quatro bolsas. A primeira bolsa da primeira gaveta contém duas bolas vermelhas e uma bola azul, e todas as demais bolsas contêm duas bolas azuis. Abre-se uma gaveta, escolhe-se uma bolsa e retira-se uma bola de dentro da bolsa, tudo ao acaso. Qual a probabilidade de que a bola retirada seja vermelha? Denotando A=A= “abre-se a primeira gaveta”, B=B= “escolhe-se a primeira bolsa” e C=C= “retira-se a bola vermelha”, pela Regra do Produto obtemos

(ABC)=(A)(B|A)(C|BA)=12×13×23=19.\mathbb{P}(A\cap B\cap C)=\mathbb{P}(A)\mathbb{P}(B|A)\mathbb{P}(C|B\cap A)=% \frac{1}{2}\times\frac{1}{3}\times\frac{2}{3}=\frac{1}{9}.\qed
Exemplo 2.7.

Selecionar 33 cartas de um baralho de 5252 cartas, ao acaso e sem reposição. Qual a probabilidade de tirar 3 reis? Seja Ak=A_{k}= “tirar rei na kk-ésima retirada” e A=A= “tirar 3 reis” =A1A2A3=A_{1}\cap A_{2}\cap A_{3}. Temos

(A)=(A1)(A2|A1)(A3|A1A2)=452351250=15525.\mathbb{P}(A)=\mathbb{P}(A_{1})\mathbb{P}(A_{2}|A_{1})\mathbb{P}(A_{3}|A_{1}% \cap A_{2})=\frac{4}{52}\frac{3}{51}\frac{2}{50}=\frac{1}{5525}.\qed
Exemplo 2.8.

Continuando o Exemplo 2.4, quando um casal tem um filho, cada um dos pais transmite um dos seus dois genes com mesma probabilidade. Seleciona-se uma criança ao acaso. Qual a probabilidade de a criança e o pai ambos terem olhos claros? Definindo A=A= “pai tem olhos claros”, B=B= “filho tem olhos claros”, D=D= “o gene transmitido pela mãe é cc”, temos

(AB)=(A)(B|A)=(A)(D)0,090×0,30=0,027,\mathbb{P}(A\cap B)=\mathbb{P}(A)\mathbb{P}(B|A)=\mathbb{P}(A)\mathbb{P}(D)% \approx 0{,}090\times 0{,}30=0{,}027,

com dois algarismos significativos. ∎

2.1.2 Lei da Probabilidade Total

Dizemos que B1,B2,B3,B_{1},B_{2},B_{3},\dots\in\mathcal{F} formam uma partição de Ω\Omega se são disjuntos e kBk=Ω\cup_{k}B_{k}=\Omega. Partições são particularmente úteis em contextos onde determinado aspecto divide os resultados possíveis em casos, e é possível expressar determinadas relações em cada um desses casos separadamente.

Teorema 2.9 (Lei da Probabilidade Total).

Sejam A,B1,B2,B3,A,B_{1},B_{2},B_{3},\dots eventos aleatórios em (Ω,,)(\Omega,\mathcal{F},\mathbb{P}) tais que B1,B2,B3,B_{1},B_{2},B_{3},\dots formam uma partição de Ω\Omega. Então

(A)=j=1(Bj)(A|Bj).\mathbb{P}(A)=\sum_{j=1}^{\infty}\mathbb{P}(B_{j})\mathbb{P}(A|B_{j}).
Demonstração.

Usando a Regra do Produto,

(A)=(j=1(ABj))=j=1(ABj)=j=1(Bj)(A|Bj).\mathbb{P}(A)=\mathbb{P}\big{(}\cup_{j=1}^{\infty}(A\cap B_{j})\big{)}=\sum_{j% =1}^{\infty}\mathbb{P}(A\cap B_{j})=\sum_{j=1}^{\infty}\mathbb{P}(B_{j})% \mathbb{P}(A|B_{j}).

A primeira igualdade vale porque A=A(j=1Bj)=j=1(ABj)A=A\cap(\cup_{j=1}^{\infty}B_{j})=\cup_{j=1}^{\infty}(A\cap B_{j}). Na segunda igualdade usamos que esses eventos são disjuntos. Na última igualdade usamos a Regra do Produto. ∎

A Lei da Probabilidade Total é particularmente útil quando um experimento tem duas etapas, e é possível expressar as probabilidades condicionais de determinado aspecto da etapa final dados os possíveis resultados da etapa inicial.

Exemplo 2.10.

Um armário tem duas gavetas, AABB. A gaveta AA tem 2 meias azuis e 3 meias pretas, e a gaveta BB tem 3 meias azuis e 3 meias vermelhas. Abre-se uma gaveta ao acaso e retira-se uma meia ao acaso da gaveta escolhida. Qual a probabilidade de a meia escolhida ser azul? Para a solução, comecemos observando os valores conhecidos de probabilidade: (A)=(B)=12\mathbb{P}(A)=\mathbb{P}(B)=\frac{1}{2}, (azul|A)=25\mathbb{P}(\text{azul}|A)=\frac{2}{5} e (azul|B)=36\mathbb{P}(\mbox{azul}|B)=\frac{3}{6}. Assim,

(azul)=(A)(azul|A)+(B)(azul|B)=1225+1236=920.\mathbb{P}(\text{azul})=\mathbb{P}(A)\mathbb{P}(\mbox{azul}|A)+\mathbb{P}(B)% \mathbb{P}(\mbox{azul}|B)=\frac{1}{2}\,\frac{2}{5}+\frac{1}{2}\,\frac{3}{6}=% \frac{9}{20}.\qed

2.1.3 Fórmula de Bayes

A Fórmula de Bayes

(B|A)=(A|B)(A)(B),\mathbb{P}(B|A)=\frac{\mathbb{P}(A|B)}{\mathbb{P}(A)}\cdot\mathbb{P}(B),

cuja demonstração é imediata, na verdade reflete uma forma de raciocinar extremamente profunda. Estamos interessados na chance de ocorrência do evento BB, quando na verdade temos acesso à ocorrência ou não do evento AA. Antes de se observar a ocorrência de AA ou AcA^{c}, a chance de ocorrência de BB, chamada de probabilidade a priori, é simplesmente (B)\mathbb{P}(B). Uma vez observada a ocorrência de AA ou AcA^{c}, procedemos a atualizar a chance do evento BB, multiplicando-a pelo fator de Bayes dado pela razão entre a probabilidade de se observar AA (ou AcA^{c}) no cenário em que BB ocorre e a probabilidade de se observar AA (ou AcA^{c}) em geral. O produto entre a probabilidade a priori e o fator de Bayes resulta no que chamamos de probabilidade a posteriori.

Claro que, usando essa fórmula, precisamos saber (A|B)\mathbb{P}(A|B) para calcular (B|A)\mathbb{P}(B|A), mas em muitas situações aquela é mais fácil de calcular do que esta. Entre os exemplos mais simples, estão os experimentos em várias etapas em que observamos apenas o resultado final e queremos estimar as chances de distintas possibilidades nas etapas iniciais. Ou seja, quando queremos determinar a probabilidade condicional de eventos que precedem aquele efetivamente observado.

Exemplo 2.11.

Continuando o Exemplo 2.8, se selecionamos uma criança de olhos escuros ao acaso, qual a probabilidade de que o pai tenha olhos claros? Tomando A=A= “a criança tem olhos claros”, B=B= “o pai tem olhos claros”, e D=D= “o pai transmite o gene de olhos claros”, temos

(A|B)=(A|DB)=(A|D)0,30\mathbb{P}(A|B)=\mathbb{P}(A|D\cap B)=\mathbb{P}(A|D)\approx 0{,}30

que representam a chance de a mãe também transmitir o gene de olhos claros. Pela Fórmula de Bayes,

(B|Ac)=(Ac|B)(Ac)(B)0,700,9100,0900,770,0900,069,\mathbb{P}(B|A^{c})=\frac{\mathbb{P}(A^{c}|B)}{\mathbb{P}(A^{c})}\mathbb{P}(B)% \approx\frac{0{,}70}{0{,}910}\cdot 0{,}090\approx 0{,}77\cdot 0{,}090\approx 0% {,}069,

com dois algarismos significativos. O valor 0,0900{,}090 é a probabilidade a priori de que o pai de uma criança selecionada ao acaso tenha olhos claros. O fator de Bayes resultante da observação de que a criança tem olhos escuros é 0,770{,}77, que por ser menor que 11 reduz a probabilidade a posteriori para 0,0690{,}069. ∎

Um uso particular da Fórmula de Bayes é quando conhecemos as probabilidades de uma sequência dos eventos BjB_{j} que particionam Ω\Omega e as probabilidades condicionais de um evento AA dados os eventos dessa partição. Neste caso, podemos calcular as probabilidades condicionais de ocorrência de cada BjB_{j} sabendo-se da ocorrência ou não do evento AA, pela fórmula

(Bj|A)=(A|Bj)(A)(Bj).\mathbb{P}(B_{j}|A)=\frac{\mathbb{P}(A|B_{j})}{\mathbb{P}(A)}\cdot\mathbb{P}(B% _{j}).

Os valores originais (Bj)\mathbb{P}(B_{j}) são as probabilidades a priori dos eventos BjB_{j}, e os valores (Bj|A)\mathbb{P}(B_{j}|A) são as probabilidades a posteriori desses eventos. Como estamos supondo que é possível calcular (Bk)\mathbb{P}(B_{k}) e (A|Bk)\mathbb{P}(A|B_{k}) para todo kk, muitas vezes o denominador na Fórmula de Bayes será calculado pela Lei da Probabilidade Total, dando origem à fórmula

(Bj|A)=(Bj)(A|Bj)k(Bk)(A|Bk).\mathbb{P}(B_{j}|A)=\frac{\mathbb{P}(B_{j})\mathbb{P}(A|B_{j})}{\sum_{k}% \mathbb{P}(B_{k})\mathbb{P}(A|B_{k})}.
Exemplo 2.12.

No Exemplo 2.10, sabendo-se que uma meia azul foi retirada, qual a probabilidade de ter sido aberta a gaveta AA? Pela Fórmula de Bayes,

(A|azul)=(A)(azul|A)(A)(azul|A)+(B)(azul|B)=151225+1236=49.\mathbb{P}(A|\text{azul})=\frac{\mathbb{P}(A)\mathbb{P}(\text{azul}|A)}{% \mathbb{P}(A)\mathbb{P}(\mbox{azul}|A)+\mathbb{P}(B)\mathbb{P}(\mbox{azul}|B)}% =\frac{\frac{1}{5}}{\ \frac{1}{2}\,\frac{2}{5}+\frac{1}{2}\,\frac{3}{6}\ }=% \frac{4}{9}.\qed