3.2 Variáveis aleatórias discretas

Dizemos que uma variável aleatória XX, sua função de distribuição FXF_{X} e sua lei X\mathbb{P}_{X} são discretas se existe um conjunto enumerável A={x1,x2,x3,}A=\{x_{1},x_{2},x_{3},\dots\}\subseteq\mathbb{R} tal que (XA)=1.\mathbb{P}(X\in A)=1.

Definimos a função de probabilidade de uma variável aleatória XX como

pX(x)=(X=x).p_{X}(x)=\mathbb{P}(X=x).

O tratamento de variáveis aleatórias discretas é feito em termos de somatórios com a função de probabilidade. Por exemplo, a lei de uma variável aleatória discreta é dada por

X(B)\displaystyle\mathbb{P}_{X}(B) =xBpX(x)B\displaystyle=\sum_{x\in B}p_{X}(x)\quad\forall B\in\mathcal{B}

e sua função de distribuição é dada por

FX(t)=xtpX(x)t.F_{X}(t)=\sum_{x\leqslant t}p_{X}(x)\quad\forall t\in\mathbb{R}.

Com efeito, esta última equação é um caso particular da anterior tomando-se B=(,t]B=(-\infty,t], e para justificar aquela usamos σ\sigma-aditividade da medida de probabilidade \mathbb{P}:

X(B)=X(BA)=(xBA{X=xk})=xBA(X=x)=xBpX(x).\mathbb{P}_{X}(B)=\mathbb{P}_{X}(B\cap A)=\mathbb{P}(\bigcup_{\mathclap{x\in B% \cap A}}\{X=x_{k}\})=\sum_{\mathclap{x\in B\cap A}}\mathbb{P}(X=x)=\sum_{x\in B% }p_{X}(x).

A primeira e última igualdades valem pois X(Ac)=0\mathbb{P}_{X}(A^{c})=0 e pX(x)=0p_{X}(x)=0 para todo xAx\not\in A.

A função de distribuição de uma variável aleatória discreta tipicamente se parece à da Figura 3.1, sendo constante por partes e dando um saltos de tamanho pX(t)p_{X}(t) em cada ponto tt\in\mathbb{R} com pX(t)>0p_{X}(t)>0. Como

pX(t)=FX(t)FX(t),p_{X}(t)=F_{X}(t)-F_{X}(t-),

a função de distribuição determina a função de probabilidade de uma variável aleatória, e pela equação anterior vale a recíproca. Portanto, para determinar o comportamento estatístico de uma variável aleatória discreta, é equivalente especificar pXp_{X}, FXF_{X}, ou X\mathbb{P}_{X}. A primeira normalmente é mais simples.

De forma geral, uma função de probabilidade é qualquer função p()p(\cdot) satisfazendo

p(x)0x,xp(x)=1.\displaystyle p(x)\geqslant 0\,\ \forall x\in\mathbb{R},\quad\sum_{x\in\mathbb% {R}}p(x)=1.

Dada uma função de probabilidade p()p(\cdot), existe um espaço de probabilidade onde está definida uma variável aleatória discreta cuja função de probabilidade é p()p(\cdot). Por certo, basta tomar Ω=\Omega=\mathbb{R}, =\mathcal{F}=\mathcal{B} e (A)=ωAp(ω)\mathbb{P}(A)=\sum_{\omega\in A}p(\omega) e X(ω)=ωX(\omega)=\omega.

Finalizamos esta seção com alguns exemplos conhecidos de variáveis aleatórias discretas.

Distribuição uniforme discreta

Seja I={x1,x2,,xk}I=\{x_{1},x_{2},\dots,x_{k}\} um conjunto finito, dizemos que XX tem distribuição uniforme discreta (ou equiprovável) em II, quando sua função de probabilidade for constante em II, isto é

pX(xj)=1k,para todo j=1,2,,k.p_{X}(x_{j})=\frac{1}{k},\quad\text{para todo }j=1,2,\dots,k.

Distribuição de Bernoulli

Dado p[0,1]p\in[0,1], dizemos que X:ΩX:\Omega\to\mathbb{R} é uma variável de Bernoulli com parâmetro pp, o que denotamos XBernoulli(p)X\sim\mathop{\mathrm{Bernoulli}}\nolimits(p), se pX(1)=pp_{X}(1)=p e pX(0)=1pp_{X}(0)=1-p.

Chamamos de ensaios de Bernoulli à realização sucessiva e independente de um mesmo experimento, sendo que cada realização resulta em “sucesso” com probabilidade pp e “fracasso” com probabilidade 1p1-p, e dizemos que pp é o parâmetro desses ensaios. O caso mais simples é quando realizamos apenas um ensaio, e tomamos XX como sendo a indicadora do evento de sucesso nessa única tentativa, e nesse caso temos XBernoulli(p)X\sim\mathop{\mathrm{Bernoulli}}\nolimits(p).

Distribuição geométrica

Considere uma sequência de ensaios de Bernoulli, com o mesmo parâmetro pp, e seja XX o número de ensaios realizados até que se obtenha o primeiro sucesso. Se denotamos por AnA_{n} o evento de sucesso na nn-ésima tentativa, podemos encontrar a função de probabilidade de XX como segue:

pX(n)=(X=n)=(A1cAn1cAn)=p(1p)n1,n.p_{X}(n)=\mathbb{P}(X=n)=\mathbb{P}(A_{1}^{c}\cap\dots\cap A_{n-1}^{c}\cap A_{% n})=p(1-p)^{n-1},\quad n\in\mathbb{N}.

Na última igualdade, utilizamos a independência dos eventos (An)n(A_{n})_{n}. Dizemos que XX tem distribuição geométrica de parâmetro pp, o que denotaremos por XGeom(p)X\sim\mathop{\mathrm{Geom}}\nolimits(p).

Exemplo 3.18.

Lançar um par de dados até obter números iguais. Se XX denota o número de lançamentos necessários, então XGeom(16)X\sim\mathop{\mathrm{Geom}}\nolimits(\frac{1}{6}). ∎

Observação 3.19.

Alguns textos definem a distribuição geométrica contando o número de falhas anteriores ao primeiro sucesso, ao invés de contar o número total de ensaios. Isso faz com que as distribuições sejam defasadas de uma unidade, pois a função de probabilidade passa a ser dada por p(1p)np(1-p)^{n} para n0n\in\mathbb{N}_{0}. ∎

Distribuição binomial

Agora, consideremos uma repetição de nn ensaios de Bernoulli com parâmetro pp e seja XX o número de sucessos obtidos nesses nn ensaios. Para calcularmos sua função de probabilidade, observemos que se há exatamente kk sucessos, então há nkn-k fracassos. Devido à independência dos ensaios, cada uma das sequências com nn sucessos e nkn-k fracassos ocorre com probabilidade pk(1p)nkp^{k}(1-p)^{n-k}. Logo, a probabilidade de haver exatamente kk sucessos é pk(1p)nkp^{k}(1-p)^{n-k} vezes o número de sequências binárias de comprimento nn onde o 11 aparece kk vezes e o 0 aparece nkn-k vezes. Isto é, a função de probabilidade de XX é dada por

pX(k)=(nk)pk(1p)nk,k=0,1,2,,n.p_{X}(k)=\textstyle\binom{n}{k}p^{k}(1-p)^{n-k},\quad k=0,1,2,\dots,n.

Neste caso, dizemos que XX tem distribuição binomial com parâmetros nn e pp, o que denotamos por XBinom(n,p)X\sim\mathop{\mathrm{Binom}}\nolimits(n,p). Pelo Teorema Binomial,

k=0npX(k)=[p+(1p)]n=1.\sum_{k=0}^{n}p_{X}(k)=[p+(1-p)]^{n}=1.

ou seja, pXp_{X} definida acima é de fato uma função de probabilidade.

Exemplo 3.20.

Lançar um dado 44 vezes e contar o número de vezes que se obtém um número múltiplo de 33. Neste caso, XBinom(4,13)X\sim\mathop{\mathrm{Binom}}\nolimits(4,\frac{1}{3}). A probabilidade de se obter um múltiplo de 33 duas vezes é dada por

(X=2)=pX(2)=(42)(13)2(23)42=4!2!(42)!2234=827.\mathbb{P}(X=2)=p_{X}(2)={\textstyle\binom{4}{2}(\frac{1}{3})^{2}(\frac{2}{3})% ^{4-2}}=\frac{4!}{2!(4-2)!}\,\frac{2^{2}}{3^{4}}=\frac{8}{27}.\qed

Distribuição de Poisson

Consideremos agora a repetição de nn ensaios de variáveis de Bernoulli, todas elas com o mesmo parâmetro pp. Suponha que nn é um número muito grande, e p=λnp=\frac{\lambda}{n}, isto é, a probabilidade de sucesso é inversamente proporcional ao número de repetições. Se XX é a variável que conta o número de sucessos, então XBinom(n,λn)X\sim\mathop{\mathrm{Binom}}\nolimits(n,\frac{\lambda}{n}). O que podemos afirmar sobre a função de probabilidade de XX quando nn\to\infty? Para todo kk fixo, vale

pX(k)\displaystyle p_{X}(k) =(X=k)=(nk)(λn)k(1λn)nk\displaystyle=\mathbb{P}(X=k)=\binom{n}{k}\left(\frac{\lambda}{n}\right)^{k}% \left(1-\frac{\lambda}{n}\right)^{n-k}
=λkk!(nnn1nnk+1n)(1λn)nkeλλkk!\displaystyle=\ \frac{\lambda^{k}}{k!}\left(\frac{n}{n}\frac{n-1}{n}\cdots% \frac{n-k+1}{n}\right)\left(1-\frac{\lambda}{n}\right)^{n-k}\to\frac{e^{-% \lambda}\lambda^{k}}{k!}

quando nn\to\infty. Ademais, podemos observar que k=0eλλkk!=1\sum_{k=0}^{\infty}\tfrac{e^{-\lambda}\lambda^{k}}{k!}=1, de modo que o limite acima define uma função de probabilidade.

Dizemos que uma variável aleatória ZZ tem distribuição de Poisson com parâmetro λ\lambda, o que denotaremos por ZPoisson(λ)Z\sim\mathop{\mathrm{Poisson}}\nolimits(\lambda), se sua função de probabilidade é dada por

pZ(k)=eλλkk!, para todo k=0,1,2,3,.p_{Z}(k)=\frac{e^{-\lambda}\lambda^{k}}{k!},\quad\text{ para todo }k=0,1,2,3,\dots.
Exemplo 3.21.

A padaria da esquina produz deliciosos panetones, cuja receita leva 50 uvas-passas por panetone, e a produção é feita em larga escala. Patrícia acaba de comprar um desses panetones. Qual a distribuição do número de uvas-passas do panetone adquirido por Patrícia? Se o panetone comprado por Patrícia foi produzido dentro de um lote de nn panetones, temos que o número de passas de seu panetone tem distribuição Binom(50n,1n)\mathop{\mathrm{Binom}}\nolimits(50n,\tfrac{1}{n}), pois 50n50n é o número de uvas-passas utilizadas e 1n\frac{1}{n} é a probabilidade de que cada uma dessas uvas-passas esteja justamente ne porção da massa que foi para o panetone de Patrícia. Porém, sabendo que a produção é feita em larga escala, o valor nn se torna irrelevante e tal distribuição é bem aproximada por uma distribuição de Poisson(50)\mathop{\mathrm{Poisson}}\nolimits(50). ∎

Distribuições hipergeométrica e binomial negativa

Considere uma urna contendo NN bolas, sendo KK bolas pretas e NKN-K bolas brancas. Retiramos, sem reposição, uma amostra de nn bolas. Seja XX a variável aleatória que denota o número de bolas pretas retiradas nas nn extrações. Observe que XX satisfaz 0XK0\leqslant X\leqslant K e 0nXNK0\leqslant n-X\leqslant N-K. A função de probabilidade de XX é dada por:

pX(k)=(Kk)(NKnk)(Nn)\displaystyle p_{X}(k)=\frac{\binom{K}{k}\binom{N-K}{n-k}}{\binom{N}{n}}

para kk tal que 0kK0\leqslant k\leqslant K e 0nkNK0\leqslant n-k\leqslant N-K. Dizemos que uma variável aleatória com essa função de probabilidade tem distribuição hipergeométrica de parâmetros NN, KK e nn, o que denotamos por XHgeo(N,K,n)X\sim\mathop{\mathrm{Hgeo}}\nolimits(N,K,n). Observe que, como as extrações são sem reposição, a independência é perdida. Caso contrário, o número de bolas pretas extraídas teria uma distribuição binomial de parâmetros nn e KN\frac{K}{N}.

Exemplo 3.22.

De um baralho comum extraímos, sem reposição, uma amostra de 13 cartas. Seja XX a variável que denota o quantidade de cartas retiradas com um número par. Então XHgeo(52,20,13)X\sim\mathop{\mathrm{Hgeo}}\nolimits(52,20,13). ∎

Considere uma sequência de ensaios de Bernoulli, com o mesmo parâmetro pp. Seja XX a variável aleatória que denota o número de ensaios realizados até que se obtenha kk sucessos, onde kk\in\mathbb{N} é outro parâmetro do experimento. Podemos observar que XX assume valores no conjunto {k,k+1,}\{k,k+1,\dots\}. A função de probabilidade de XX é dada por:

pX(n)\displaystyle p_{X}(n) =(X=n)=(Bn1,k1An)\displaystyle=\mathbb{P}(X=n)=\mathbb{P}(B_{n-1,k-1}\cap A_{n})
=(n1k1)pk(1p)nk,n{k,k+1,}.\displaystyle=\tbinom{n-1}{k-1}p^{k}(1-p)^{n-k},\quad n\in\{k,k+1,\dots\}.

Neste caso, dizemos que XX tem distribuição binomial negativa de parâmetros kk e pp.

Exemplo 3.23.

Lançar um par de dados até obter o oitavo par de números iguais. Se XX denota o número de lançamentos necessários, então XX tem distribuição binomial negativa de parâmetros 88 e 16\frac{1}{6}. ∎

Observação 3.24.

Alguns textos definem a distribuição binomial negativa contando o número de falhas anteriores ao kk-ésimo sucesso, ao invés de contar o número total de ensaios. ∎