5.1 Variáveis aleatórias simples

Uma variável aleatória XX é dita simples se assume apenas finitos valores.

Definição 5.1.

Dada uma variável aleatória simples XX, definimos a esperança de XX, ou média de XX, denotada por 𝔼X\mathbb{E}X, por

𝔼X=xx(X=x).\mathbb{E}X=\sum_{x}x\cdot\mathbb{P}(X=x).

Note que na soma acima há apenas finitos termos não-nulos.88 8 Sempre que aparecer “x\sum_{x}”, a soma é realizada sobre todos os valores de xx para os quais o termo da soma é não-nulo.

A esperança de XX pode ser pensada como o “centro de massa” da variável aleatória XX, como ilustrado na Figura 5.1.

A esperança de
Figura 5.1: A esperança de XX como o centro de massa de pXp_{X}.

Outra interpretação de 𝔼X\mathbb{E}X é dada pelo valor médio após muitas realizações de um mesmo experimento. Sejam a1,,aka_{1},\dots,a_{k} os possíveis valores recebidos em uma rodada de um jogo e XX o resultado efetivamente ganho após a rodada. Suponhamos também que jogaremos esse jogo nn vezes, e denotamos o resultado de cada jogada por X1,,XnX_{1},\dots,X_{n}, independentes e com a mesma distribuição de XX. A noção intuitiva de probabilidade como frequência relativa diz que a proporção dentre essas nn repetições em que o resultado é ara_{r} se aproxima de (X=ar)\mathbb{P}(X=a_{r}) para nn grande, ou seja,

1nj=1n𝟙{Xj=ar}(X=ar).\frac{1}{n}\sum_{j=1}^{n}\mathds{1}_{\{X_{j}=a_{r}\}}\approx\mathbb{P}(X=a_{r}).

Dessa forma, para o ganho total dividido pelo número de jogadas, obtemos

1nj=1nXj=1nj=1nr=1kar𝟙{Xj=ar}==r=1kar(1nj=1n𝟙{Xj=ar})r=1kar(X=ar)=𝔼X.\frac{1}{n}\sum_{j=1}^{n}X_{j}=\frac{1}{n}\sum_{j=1}^{n}\sum_{r=1}^{k}a_{r}% \mathds{1}_{\{X_{j}=a_{r}\}}=\\ =\sum_{r=1}^{k}a_{r}\left(\frac{1}{n}\sum_{\smash{j=1}}^{n}\mathds{1}_{\{X_{j}% =a_{r}\}}\right)\approx\sum_{r=1}^{k}a_{r}\cdot\mathbb{P}(X=a_{r})=\mathbb{E}X.

Vejamos alguns exemplos simples.

Exemplo 5.2.

Ao lançar um dado, seja XX o valor observado em sua face superior. Neste caso,

𝔼X=1×(X=1)++6×(X=6)=16+26++66=216=72.\mathbb{E}X=1\times\mathbb{P}(X=1)+\cdots+6\times\mathbb{P}(X=6)=\frac{1}{6}+% \frac{2}{6}+\cdots+\frac{6}{6}=\frac{21}{6}=\frac{7}{2}.\qed
Exemplo 5.3.

Lançamos uma moeda 44 vezes, seja XX a variável aleatória que conta quantas vezes saem cara. Neste caso,

𝔼X=0×116+1×416+2×616+3×416+4×116=3216=2.\mathbb{E}X=0\times\frac{1}{16}+1\times\frac{4}{16}+2\times\frac{6}{16}+3% \times\frac{4}{16}+4\times\frac{1}{16}=\frac{32}{16}=2.\qed
Exemplo 5.4.

Seja XX dada por X=𝟙AX=\mathds{1}_{A} para algum AA\in\mathcal{F}. Neste caso, 𝔼X=0×(Ac)+1×(A)=(A)\mathbb{E}X=0\times\mathbb{P}(A^{c})+1\times\mathbb{P}(A)=\mathbb{P}(A). Ou seja,

𝔼[𝟙A]=(A).\mathbb{E}[\mathds{1}_{A}]=\mathbb{P}(A).

Reciprocamente, se XBernoulli(p)X\sim\mathop{\mathrm{Bernoulli}}\nolimits(p) então podemos considerar o evento AA dado por A={ω:X(ω)=1}A=\{\omega:X(\omega)=1\}, de forma que X=𝟙AX=\mathds{1}_{A} e 𝔼X=p\mathbb{E}X=p. ∎

Exemplo 5.5.

Ao lançar um dado duas vezes, seja XX a soma dos valores observados. Neste caso,

𝔼X\displaystyle\mathbb{E}X =2×136+3×236+4×336+5×436+6×536+7×636+\displaystyle=2\times\frac{1}{36}+3\times\frac{2}{36}+4\times\frac{3}{36}+5% \times\frac{4}{36}+6\times\frac{5}{36}+7\times\frac{6}{36}+{}
+8×536+9×436+10×336+11×236+12×136=7.\displaystyle\qquad+8\times\frac{5}{36}+9\times\frac{4}{36}+10\times\frac{3}{3% 6}+11\times\frac{2}{36}+12\times\frac{1}{36}=7.\qed
Exemplo 5.6.

Retiramos 33 cartas de um baralho comum, seja XX o número de reis retirados. Neste caso,

𝔼X\displaystyle\mathbb{E}X =0×484746525150+1×348474525150+\displaystyle=0\times\frac{48\cdot 47\cdot 46}{52\cdot 51\cdot 50}+1\times% \frac{3\cdot 48\cdot 47\cdot 4}{52\cdot 51\cdot 50}+{}
+2×34843525150+3×432525150=313.\displaystyle\qquad+2\times\frac{3\cdot 48\cdot 4\cdot 3}{52\cdot 51\cdot 50}+% 3\times\frac{4\cdot 3\cdot 2}{52\cdot 51\cdot 50}=\frac{3}{13}.\qed
Exemplo 5.7.

Se XBinom(n,p)X\sim\mathop{\mathrm{Binom}}\nolimits(n,p), então

𝔼X\displaystyle\mathbb{E}X =k=0nk(nk)pk(1p)nk=k=1nn(n1k1)pk(1p)nk\displaystyle=\sum_{k=0}^{n}k\tbinom{n}{k}p^{k}(1-p)^{n-k}=\sum_{k=1}^{n}n% \tbinom{n-1}{k-1}p^{k}(1-p)^{n-k}
=nj=0n1(n1j)pj+1(1p)nj1=npj=0n1(n1j)pj(1p)n1j\displaystyle=n\sum_{j=0}^{n-1}\tbinom{n-1}{j}p^{j+1}(1-p)^{n-j-1}=np\sum_{j=0% }^{n-1}\tbinom{n-1}{j}p^{j}(1-p)^{n-1-j}
=np[p+(1p)]n1=np.\displaystyle=np[p+(1-p)]^{n-1}=np.\qed
Exemplo 5.8.

Seja XX a variável que denota o produto dos valores observados ao lançarmos um dado duas vezes.

𝔼X\displaystyle\mathbb{E}X =136(11+22+32+43+52+64+\displaystyle=\frac{1}{36}\big{(}1\cdot 1+2\cdot 2+3\cdot 2+4\cdot 3+5\cdot 2+% 6\cdot 4+{}
+82+91+102+124+152+161+\displaystyle\ \ \ \ \ \ \ \ \ +8\cdot 2+9\cdot 1+10\cdot 2+12\cdot 4+15\cdot 2% +16\cdot 1+{}
+182+202+242+251+302+361)=494.\displaystyle\ \ \ \ \ \ \ \ \ +18\cdot 2+20\cdot 2+24\cdot 2+25\cdot 1+30% \cdot 2+36\cdot 1\big{)}=\frac{49}{4}.\qed

Uma propriedade fundamental da esperança é a seguinte.

Teorema 5.9 (Linearidade).

Sejam XX e YY variáveis aleatórias simples e a,ba,b\in\mathbb{R}. Então 𝔼[aX+bY]=a𝔼X+b𝔼Y\mathbb{E}[aX+bY]=a\,\mathbb{E}X+b\,\mathbb{E}Y.

Antes da demonstração, vejamos alguns exemplos do uso da linearidade.

Exemplo 5.10.

No Exemplo 5.3, podemos escrever X=X1+X2+X3+X4X=X_{1}+X_{2}+X_{3}+X_{4}, onde XkX_{k} denota a função indicadora de que saiu cara no kk-ésimo lançamento. Logo, 𝔼X=𝔼X1+𝔼X2+𝔼X3+𝔼X4=412=2\mathbb{E}X=\mathbb{E}X_{1}+\mathbb{E}X_{2}+\mathbb{E}X_{3}+\mathbb{E}X_{4}=4% \cdot\frac{1}{2}=2. ∎

Exemplo 5.11.

No Exemplo 5.5, observamos que X=Y+ZX=Y+Z, onde YY e ZZ representam os valores observados no primeiro e no segundo lançamentos do dado. Logo,

𝔼X=𝔼Y+𝔼Z=72+72=7.\mathbb{E}X=\mathbb{E}Y+\mathbb{E}Z=\frac{7}{2}+\frac{7}{2}=7.\qed
Exemplo 5.12.

No Exemplo 5.6, observamos que X=X1+X2+X3X=X_{1}+X_{2}+X_{3}, onde XkX_{k} é a indicadora de que a kk-ésima carta retirada é rei. Ao contrário dos exemplos anteriores, aqui X1X_{1}, X2X_{2} e X3X_{3} não são independentes. Ainda assim, cada uma individualmente satisfaz 𝔼Xk=113\mathbb{E}X_{k}=\frac{1}{13}, e podemos calcular

𝔼X=𝔼X1+𝔼X2+𝔼X3=313.\mathbb{E}X=\mathbb{E}X_{1}+\mathbb{E}X_{2}+\mathbb{E}X_{3}=\frac{3}{13}.\qed
Exemplo 5.13.

No Exemplo 5.7, observamos que XX tem a mesma distribuição de X1++XnX_{1}+\cdots+X_{n}, com XkX_{k} i.i.d. Bernoulli(p)\mathop{\mathrm{Bernoulli}}\nolimits(p), e portanto

𝔼X=𝔼X1++𝔼Xn=np.\mathbb{E}X=\mathbb{E}X_{1}+\cdots+\mathbb{E}X_{n}=np.\qed

Nos exemplos anteriores, é mais curto calcular a esperança usando linearidade do que usando a distribuição de XX diretamente. Existem muitos outros casos em que descrever a distribuição de XX é muito difícil ou até mesmo impossível, mas ainda assim é possível calcular a esperança usando linearidade.

Exemplo 5.14.

Uma gaveta contém 1010 pares de meias, todos diferentes. Abre-se a gaveta no escuro e retiram-se 66 meias. Qual é a esperança do número de pares XX formados pelas meias retiradas? Se numeramos as meias retiradas, e contamos a quantidade NN de meias cujo par também foi retirado, estaremos contando cada par duas vezes, portanto N=2XN=2X. A probabilidade de que o par da primeira meia retirada também seja retirado é 519\frac{5}{19}. Somando sobre as 66 meias, obtemos 𝔼[2X]=𝔼N=6×519\mathbb{E}[2X]=\mathbb{E}N=6\times\frac{5}{19}, e portanto 𝔼X=1519\mathbb{E}X=\frac{15}{19}. ∎

Uma prova curta do Teorema 5.9 utiliza a seguinte propriedade.

Teorema 5.15.

Sejam XX e YY variáveis aleatórias simples. Então,

𝔼[g(X,Y)]=xyg(x,y)(X=x,Y=y)\mathbb{E}[g(X,Y)]=\sum_{x}\sum_{y}g(x,y)\cdot\mathbb{P}(X=x,Y=y)

para qualquer função g:2g:\mathbb{R}^{2}\to\mathbb{R}. Em particular,

𝔼[g(X)]=xg(x)(X=x)\mathbb{E}[g(X)]=\sum_{x}g(x)\cdot\mathbb{P}(X=x)

para qualquer função g:g:\mathbb{R}\to\mathbb{R}.

Demonstração.

Particionando Ω\Omega segundo os valores de XX e YY,

𝔼[g(X,Y)]\displaystyle\mathbb{E}[g(X,Y)] =zz(g(X,Y)=z)\displaystyle=\sum_{z}z\cdot\mathbb{P}\big{(}g(X,Y)=z\big{)}
=zzxy𝟙g(x,y)=z(X=x,Y=y)\displaystyle=\sum_{z}z\cdot\sum_{x}\sum_{y}\mathds{1}_{g(x,y)=z}\cdot\mathbb{% P}\big{(}X=x,Y=y\big{)}
=xy(zz𝟙g(x,y)=z)(X=x,Y=y)\displaystyle=\sum_{x}\sum_{y}\Big{(}\sum_{z}z\cdot\mathds{1}_{g(x,y)=z}\Big{)% }\cdot\mathbb{P}\big{(}X=x,Y=y\big{)}
=xyg(x,y)(X=x,Y=y).\displaystyle=\sum_{x}\sum_{y}g(x,y)\cdot\mathbb{P}\big{(}X=x,Y=y\big{)}.

A segunda parte é um caso particular tomando-se YY constante. ∎

Exemplo 5.16.

Se XBinom(n,p)X\sim\mathop{\mathrm{Binom}}\nolimits(n,p), então

𝔼[2X+X2X]\displaystyle\mathbb{E}[2^{X}+X^{2}-X] =k=0n(2k+k(k1))(nk)pk(1p)nk\displaystyle=\sum_{k=0}^{n}(2^{k}+k(k-1))\cdot\tbinom{n}{k}p^{k}(1-p)^{n-k}
=k=0n((nk)(2p)k(1p)nk+n(k1)(n1k1)pk(1p)nk)\displaystyle=\sum_{k=0}^{n}\Big{(}\tbinom{n}{k}(2p)^{k}(1-p)^{n-k}+n(k-1)% \tbinom{n-1}{k-1}p^{k}(1-p)^{n-k}\Big{)}
=(2p+1p)n+k=0nn(n1)(n2k2)pk(1p)nk\displaystyle=(2p+1-p)^{n}+\sum_{k=0}^{n}n(n-1)\tbinom{n-2}{k-2}p^{k}(1-p)^{n-k}
=(1+p)n+n(n1)p2j=0n2(n2j)pj(1p)n2j\displaystyle=(1+p)^{n}+n(n-1)p^{2}\sum_{j=0}^{n-2}\tbinom{n-2}{j}p^{j}(1-p)^{% n-2-j}
=(1+p)n+(np)2np2.\displaystyle=(1+p)^{n}+(np)^{2}-np^{2}.\qed
Demonstração do Teorema 5.9.

Usando o Teorema 5.15 três vezes,

𝔼[aX+bY]\displaystyle\mathbb{E}[aX+bY] =xy(ax+by)(X=x,Y=y)\displaystyle=\sum_{x}\sum_{y}(ax+by)\cdot\mathbb{P}(X=x,Y=y)
=axyx(X=x,Y=y)+bxyy(X=x,Y=y)\displaystyle=a\sum_{x}\sum_{y}x\cdot\mathbb{P}(X=x,Y=y)+b\sum_{x}\sum_{y}y% \cdot\mathbb{P}(X=x,Y=y)
=a𝔼X+b𝔼Y,\displaystyle=a\,\mathbb{E}X+b\,\mathbb{E}Y,

o que conclui a prova. ∎

Teorema 5.17.

Se XX e YY são simples e independentes, então

𝔼[XY]=𝔼X𝔼Y.\mathbb{E}[XY]=\mathbb{E}X\cdot\mathbb{E}Y.
Demonstração.

Usando o Teorema 5.15 e a independência,

𝔼[XY]\displaystyle\mathbb{E}[XY] =xyxy(X=x,Y=y)\displaystyle=\sum_{x}\sum_{y}xy\cdot\mathbb{P}(X=x,Y=y)
=xyxy(X=x)(Y=y)\displaystyle=\sum_{x}\sum_{y}xy\cdot\mathbb{P}(X=x)\mathbb{P}(Y=y)
=(xx(X=x))(yy(Y=y))=𝔼X𝔼Y,\displaystyle=\Big{(}\sum_{x}x\cdot\mathbb{P}(X=x)\Big{)}\Big{(}\sum_{y}y\cdot% \mathbb{P}(Y=y)\Big{)}=\mathbb{E}X\cdot\mathbb{E}Y,

o que conclui a prova. ∎

Exemplo 5.18.

No Exemplo 5.8, observemos que X=YZX=YZ, onde YY e ZZ denotam o primeiro e segundo valores observados nos lançamentos do dado. Logo,

𝔼X=𝔼Y𝔼Z=7272=494.\mathbb{E}X=\mathbb{E}Y\cdot\mathbb{E}Z=\frac{7}{2}\cdot\frac{7}{2}=\frac{49}{% 4}.

Repare como o cálculo foi simplificado. ∎