5.2 Esperança matemática

Nesta seção vamos definir a esperança de uma variável aleatória qualquer, e estudar suas principais propriedades. Vimos na seção anterior que 𝔼X\mathbb{E}X representa a média dos valores que XX pode tomar, ponderada por sua probabilidade. A generalização dessa mesma ideia seria, por analogia,

𝔼X=xxpX(x)\mathbb{E}X=\sum_{x}x\cdot p_{X}(x)

no caso de XX ser discreta e

𝔼X=+xfX(x)dx\mathbb{E}X=\int_{-\infty}^{+\infty}x\cdot f_{X}(x)\,\mathrm{d}x

no caso de XX ter densidade.

No lado esquerdo, a esperança de uma variável aleatória simples, vista como uma área determinada pela função de distribuição. No lado direito, a generalização do mesmo conceito para uma variável aleatória qualquer.
No lado esquerdo, a esperança de uma variável aleatória simples, vista como uma área determinada pela função de distribuição. No lado direito, a generalização do mesmo conceito para uma variável aleatória qualquer.
Figura 5.2: No lado esquerdo, a esperança de uma variável aleatória simples, vista como uma área determinada pela função de distribuição. No lado direito, a generalização do mesmo conceito para uma variável aleatória qualquer.

As fórmulas acima são a forma correta de pensar na esperança como valor médio, mas elas se restringem ao caso de variáveis discretas ou que tenham densidade. Além disso, dificilmente permitiriam comparar uma variável discreta com uma contínua, e não cobrem o caso de variáveis que não são nem de um tipo nem de outro (como será feito na prova da Desigualdade de Tchebyshev). Em particular, uma das propriedades fundamentais da esperança, a linearidade, não pode ser demonstrada a partir das fórmulas acima (de fato, a soma de duas variáveis com densidade pode não ser de nenhum desses dois tipos). Por isso, daremos uma definição unificada de 𝔼X\mathbb{E}X, que não usa fXf_{X} nem pXp_{X}.

Para motivar a definição, reparemos que a esperança de uma variável aleatória simples é dada pela diferença entre as áreas cinza-clara e cinza-escura no lado esquerdo da Figura 5.2. A esperança de uma variável aleatória qualquer é definida por analogia, como mostrado no lado direito da mesma figura.

Definição 5.19.

Definimos a esperança de uma variável aleatória XX por

𝔼X=0+(X>x)dx0(X<x)dx\mathbb{E}X\ =\ \int_{0}^{+\infty}\mathbb{P}(X>x)\,\mathrm{d}x\ -\ \int_{-% \infty}^{0}\mathbb{P}(X<x)\,\mathrm{d}x

se pelo menos uma das duas integrais impróprias acima for finita. Caso contrário, dizemos que 𝔼X\mathbb{E}X não está definida. Quando ambas as integrais forem finitas, dizemos que a variável aleatória XX é integrável. Observe que essas integrais impróprias de Riemann sempre estão definidas pois o integrando é uma função monótona e não-negativa (Teorema A.4).

Pela definição acima, XX é integrável quando 𝔼X\mathbb{E}X é um número real. Entretanto, essa definição permite que 𝔼X\mathbb{E}X assuma os valores -\infty ou ++\infty quando apenas uma das integrais acima for finita, e neste caso XX não será integrável.

Exemplo 5.20 (Exponencial).

Se XExp(λ)X\sim\mathop{\mathrm{Exp}}\nolimits(\lambda), então

𝔼X=0+(X>x)dx=0+eλxdx=1λ.\mathbb{E}X=\int_{0}^{+\infty}\mathbb{P}(X>x)\,\mathrm{d}x=\int_{0}^{+\infty}e% ^{-\lambda x}\mathrm{d}x=\frac{1}{\lambda}.

Ou seja, XX é integrável e sua esperança é 1λ\frac{1}{\lambda}. ∎

Exemplo 5.21 (Normal).

Seja X𝒩(0,1)X\sim\mathcal{N}(0,1). Então

0+(X>x)dx\displaystyle\int_{0}^{+\infty}\mathbb{P}(X>x)\,\mathrm{d}x =02(X>x)dx+2+x+fX(t)dtdx\displaystyle=\int_{0}^{2}\mathbb{P}(X>x)\,\mathrm{d}x+\int_{2}^{+\infty}\int_% {x}^{+\infty}f_{X}(t)\,\mathrm{d}t\,\mathrm{d}x
2+2+x+fX(t)dtdx\displaystyle\leqslant 2+\int_{2}^{+\infty}\int_{x}^{+\infty}f_{X}(t)\,\mathrm% {d}t\,\mathrm{d}x
2+2+x+etdtdx=2+e2<.\displaystyle\leqslant 2+\int_{2}^{+\infty}\int_{x}^{+\infty}e^{-t}\,\mathrm{d% }t\,\mathrm{d}x=2+e^{-2}<\infty.

Qualquer que seja o valor dessa integral, é um número finito e, por simetria, será igual a 0(X<x)dx\int_{-\infty}^{0}\mathbb{P}(X<x)\,\mathrm{d}x. Portanto, XX é integrável e 𝔼X=0\mathbb{E}X=0. ∎

Exemplo 5.22.

Seja XX com densidade fX(x)=x2𝟙(,2][2,+)(x)f_{X}(x)=x^{-2}\mathds{1}_{(-\infty,-2]\cup[2,+\infty)}(x). Este exemplo tem simetria como o anterior, porém não podemos chegar à mesma conclusão pois as integrais não são finitas. Com efeito,

0+(X>x)dx\displaystyle\int_{0}^{+\infty}\mathbb{P}(X>x)\,\mathrm{d}x 2+x+fX(t)dtdx=2+x1dx=+.\displaystyle\geqslant\int_{2}^{+\infty}\int_{x}^{+\infty}f_{X}(t)\,\mathrm{d}% t\,\mathrm{d}x=\int_{2}^{+\infty}x^{-1}\,\mathrm{d}x=+\infty.

Uma estimativa idêntica mostra que 0(X<x)dx=+\int_{-\infty}^{0}\mathbb{P}(X<x)\,\mathrm{d}x=+\infty. Assim sendo, a esperança de XX não está definida, apesar da simetria. ∎

Exemplo 5.23.

Seja XX com densidade fX(x)=x2𝟙(,2](x)+x3𝟙[1,+)(x)f_{X}(x)=x^{-2}\mathds{1}_{(-\infty,-2]}(x)+x^{-3}\mathds{1}_{[1,+\infty)}(x). Como no exemplo acima, para a parte negativa temos 0(X<x)dx=+\int_{-\infty}^{0}\mathbb{P}(X<x)\,\mathrm{d}x=+\infty. Por outro lado, para a parte positiva,

0+(X>x)dx\displaystyle\int_{0}^{+\infty}\mathbb{P}(X>x)\,\mathrm{d}x =12+1+x+fX(t)dtdx=12+1+x22dx=1\displaystyle=\frac{1}{2}+\int_{1}^{+\infty}\int_{x}^{+\infty}f_{X}(t)\,% \mathrm{d}t\,\mathrm{d}x=\frac{1}{2}+\int_{1}^{+\infty}\frac{x^{-2}}{2}\,% \mathrm{d}x=1

e, portanto, 𝔼X=1(+)=\mathbb{E}X=1-(+\infty)=-\infty. Neste exemplo, XX não é integrável. ∎

Observação 5.24.

A esperança de uma variável aleatória depende apenas da sua distribuição. Mais precisamente, se XX e YY têm a mesma distribuição e 𝔼X\mathbb{E}X está definida, então 𝔼Y=𝔼X\mathbb{E}Y=\mathbb{E}X. Em particular, se (X=Y)=1\mathbb{P}(X=Y)=1 e 𝔼X\mathbb{E}X está definida, então 𝔼Y=𝔼X\mathbb{E}Y=\mathbb{E}X. ∎

Observação 5.25.

Uma variável aleatória XX é integrável se, e somente se, 𝔼|X|<\mathbb{E}|X|<\infty, pois

𝔼|X|=0+(|X|>x)dx=0+(X>x)dx+0(X<x)dx.\mathbb{E}|X|=\ \int_{0}^{+\infty}\mathbb{P}(|X|>x)\,\mathrm{d}x=\ \int_{0}^{+% \infty}\mathbb{P}(X>x)\,\mathrm{d}x\ +\ \int_{-\infty}^{0}\mathbb{P}(X<x)\,% \mathrm{d}x.

A esperança de uma variável aleatória não-negativa sempre está definida, podendo assumir um valor finito ou ++\infty. ∎

A seguir veremos as principais propriedades da esperança, fórmulas para calcular 𝔼X\mathbb{E}X no caso de XX ser discreta ou absolutamente contínua, bem como a esperança de funções de variáveis aleatórias desses tipos.

Teorema 5.26 (Variáveis aleatórias discretas).

Se XX é discreta, então

𝔼X=x<0xpX(x)+x>0xpX(x)\mathbb{E}X=\sum_{x<0}x\cdot p_{X}(x)+\sum_{x>0}x\cdot p_{X}(x)

caso uma das duas séries convirja. Caso contrário, 𝔼X\mathbb{E}X não está definida.

Demonstração.

Já sabemos que a identidade vale se XX assume finitos valores. Podemos mostrar que também vale para XX discreta aproximando-a por variáveis que assumem finitos valores. Uma prova completa será dada na Seção 5.3. ∎

Exemplo 5.27 (Poisson).

Se XPoisson(λ)X\sim\mathop{\mathrm{Poisson}}\nolimits(\lambda), então

𝔼X=n=0nλneλn!=n=1λneλ(n1)!==λeλn=1λn1(n1)!=λeλn=0λnn!=λeλeλ=λ.\mathbb{E}X=\sum_{n=0}^{\infty}n\frac{\lambda^{n}e^{-\lambda}}{n!}=\sum_{n=1}^% {\infty}\frac{\lambda^{n}e^{-\lambda}}{(n-1)!}=\\ =\lambda e^{-\lambda}\sum_{n=1}^{\infty}\frac{\lambda^{n-1}}{(n-1)!}=\lambda e% ^{-\lambda}\sum_{n=0}^{\infty}\frac{\lambda^{n}}{n!}=\lambda e^{-\lambda}e^{% \lambda}=\lambda.

Portanto, a esperança de uma variável aleatória Poisson com parâmetro λ\lambda é o próprio λ\lambda. ∎

Vejamos agora como calcular a esperança de uma variável com densidade.

Teorema 5.28 (Variáveis aleatórias absolutamente contínuas).

Seja XX uma variável aleatória absolutamente contínua com densidade fXf_{X}. Então

𝔼X=0+xfX(x)dx+0xfX(x)dx\mathbb{E}X=\int_{0}^{+\infty}x\cdot f_{X}(x)\,\mathrm{d}x\ +\ \int_{-\infty}^% {0}x\cdot f_{X}(x)\,\mathrm{d}x

caso uma das duas integrais seja finita. Caso contrário, 𝔼X\mathbb{E}X não está definida.

Demonstração.

A prova completa será dada na Seção 5.5.5, mas aqui damos dois argumentos que ajudam a entender de onde vem a fórmula. O primeiro supõe que podemos inverter as integrais:

0+(X>s)ds=0+s+fX(x)dxds\displaystyle\int_{0}^{+\infty}\mathbb{P}(X>s)\,\mathrm{d}s=\int_{0}^{+\infty}% \int_{s}^{+\infty}f_{X}(x)\,\mathrm{d}x\,\mathrm{d}s
=0+0xfX(x)dsdx=0+xfX(x)dx.\displaystyle=\int_{0}^{+\infty}\int_{0}^{x}f_{X}(x)\,\mathrm{d}s\,\mathrm{d}x% =\int_{0}^{+\infty}x\cdot f_{X}(x)\,\mathrm{d}x.

Vejamos uma prova mais gráfica supondo que fXf_{X} é contínua e vale zero fora de [0,M][0,M] para algum MM. Integrando por partes, obtemos

0+(X>x)dx\displaystyle\int^{+\infty}_{0}\mathbb{P}(X>x)\,\mathrm{d}x =0+[1FX(x)]dx=0+xFX(x)dx\displaystyle=\int_{0}^{+\infty}[1-F_{X}(x)]\,\mathrm{d}x=\int_{0}^{+\infty}x% \cdot F_{X}^{\prime}(x)\,\mathrm{d}x
=0+xfX(x)dx.\displaystyle=\int_{0}^{+\infty}x\cdot f_{X}(x)\,\mathrm{d}x.

A integral 0(X<x)dx\int_{-\infty}^{0}\mathbb{P}(X<x)\,\mathrm{d}x é tratada de forma análoga. ∎

Exemplo 5.29 (Uniforme).

Se X𝒰[a,b]X\sim\mathcal{U}[a,b], então

𝔼X=abx1badx=a+b2.\mathbb{E}X=\int_{a}^{b}x\,\tfrac{1}{b-a}\,\mathrm{d}x=\frac{a+b}{2}.

Isto é, a esperança de uma variável aleatória com distribuição uniforme em um intervalo é o ponto médio deste intervalo. ∎

Teorema 5.30.

Sejam XX e YY variáveis aleatórias e a,ba,b\in\mathbb{R}. Então valem as seguintes propriedades:

  1. (1)

    Unitariedade: se X=𝟙AX=\mathds{1}_{A} para algum AA\in\mathcal{F}, então 𝔼X=(A)\mathbb{E}X=\mathbb{P}(A).

  2. (2)

    Monotonicidade: se 0XY0\leqslant X\leqslant Y para todo ω\omega, então 0𝔼X𝔼Y0\leqslant\mathbb{E}X\leqslant\mathbb{E}Y.

  3. (3)

    Linearidade: vale 𝔼[aX+bY]=a𝔼X+b𝔼Y\mathbb{E}[aX+bY]=a\,\mathbb{E}X+b\,\mathbb{E}Y, supondo que YY seja integrável e 𝔼X\mathbb{E}X esteja definida.

Demonstração.

Para provar (1), observamos que se X=𝟙AX=\mathds{1}_{A}, então XX é uma variável aleatória simples, donde 𝔼X=1(X=1)=(A)\mathbb{E}X=1\cdot\mathbb{P}(X=1)=\mathbb{P}(A). Para (2), basta desenvolver

𝔼X\displaystyle\mathbb{E}X =0+(X>x)dx0+(Y>x)dx=𝔼Y.\displaystyle=\int_{0}^{+\infty}\mathbb{P}(X>x)\,\mathrm{d}x\leqslant\int_{0}^% {+\infty}\mathbb{P}(Y>x)\,\mathrm{d}x=\mathbb{E}Y.

Já sabemos que (3) vale se XX e YY são variáveis aleatórias simples, podemos mostrar que continua válido para XX e YY quaisquer aproximando-as por variáveis desse tipo. Uma prova completa será dada na Seção 5.3. ∎

Diversas propriedades da esperança decorrem do teorema acima.

Proposição 5.31.

Dada uma variável aleatória XX e a,b,ca,b,c\in\mathbb{R}, valem:

  1. (1)

    Se X=cX=c para todo ω\omega, então 𝔼X=c\mathbb{E}X=c.

  2. (2)

    Se aXba\leqslant X\leqslant b para todo ω\omega, então a𝔼Xba\leqslant\mathbb{E}X\leqslant b.

  3. (3)

    Se X0X\geqslant 0 para todo ω\omega, então 𝔼X0\mathbb{E}X\geqslant 0.

  4. (4)

    Se X0X\geqslant 0 para todo ω\omega e 𝔼X=0\mathbb{E}X=0, então (X=0)=1\mathbb{P}(X=0)=1.

Demonstração.

Vamos mostrar apenas a última, deixando as demais como exercício. Para todo ε>0\varepsilon>0, temos Xε𝟙{Xε}X\geqslant\varepsilon\cdot\mathds{1}_{\{X\geqslant\varepsilon\}}. Por monotonicidade, 𝔼X𝔼[ε𝟙{Xε}]=ε(Xε).\mathbb{E}X\geqslant\mathbb{E}\big{[}\varepsilon\mathds{1}_{\{X\geqslant% \varepsilon\}}\big{]}=\varepsilon\mathbb{P}(X\geqslant\varepsilon). Logo, (Xε)=0\mathbb{P}(X\geqslant\varepsilon)=0 para todo ε>0\varepsilon>0, donde (X>0)=limk(Xk1)=0\mathbb{P}(X>0)=\lim_{k}\mathbb{P}(X\geqslant k^{-1})=0, pois {Xk1}{X>0}\{X\geqslant k^{-1}\}\uparrow\{X>0\}. ∎

Há situações em que somente podemos afirmar que algo ocorre com probabilidade 11, mesmo que não ocorra para todo ω\omega. Um exemplo é o item (4) da proposição acima. Daqui para frente, diremos que um evento AA ocorre quase certamente, abreviado por q.c., quando (A)=1\mathbb{P}(A)=1. Usando a Observação 5.24, podemos obter uma versão mais forte da proposição acima, trocando “para todo ω\omega” por “quase certamente” em cada item.

Proposição 5.32 (Esperança de variáveis aleatórias independentes).

Se XX e YY são independentes e não-negativas, então

𝔼[XY]=𝔼X𝔼Y.\mathbb{E}[XY]=\mathbb{E}X\cdot\mathbb{E}Y.

A mesma identidade vale supondo XX e YY independentes e integráveis.

Demonstração.

Já sabemos que a identidade vale se XX e YY assumem finitos valores. Podemos mostrar o caso geral aproximando-as por variáveis desse tipo. Uma prova completa será dada na Seção 5.3. ∎

Proposição 5.33.

Se XX assume valores em 0\mathbb{N}_{0}, então

𝔼X=n=1(Xn).\mathbb{E}X=\sum_{n=1}^{\infty}\mathbb{P}(X\geqslant n).
Demonstração.

Basta ver que

0n(X>x)dx=k=1nk1k(X>x)dx=k=1n(Xk)\int_{0}^{n}\mathbb{P}(X>x)\,\mathrm{d}x=\sum_{k=1}^{n}\int_{k-1}^{k}\mathbb{P% }(X>x)\,\mathrm{d}x=\sum_{k=1}^{n}\mathbb{P}(X\geqslant k)

e tomar o limite com nn\to\infty. ∎

Exemplo 5.34 (Geométrica).

Se XGeom(p)X\sim\mathop{\mathrm{Geom}}\nolimits(p) então

𝔼X=n=1(Xn)=n=1(1p)n1=j=0(1p)j=11(1p)=1p.\mathbb{E}X=\sum_{n=1}^{\infty}\mathbb{P}(X\geqslant n)=\sum_{n=1}^{\infty}(1-% p)^{n-1}=\sum_{j=0}^{\infty}(1-p)^{j}=\frac{1}{1-(1-p)}=\frac{1}{p}.\qed
Proposição 5.35 (Critério de integrabilidade).

Uma variável aleatória XX é integrável se, e somente se, n=1(|X|n)<\sum_{n=1}^{\infty}\mathbb{P}(|X|\geqslant n)<\infty.

Demonstração.

Sabemos que XX é integrável se, e somente se, 𝔼|X|<\mathbb{E}|X|<\infty. Seja Y=|X|Y=\big{\lfloor}|X|\big{\rfloor}. Como 0Y|X|Y+10\leqslant Y\leqslant|X|\leqslant Y+1, segue que 𝔼Y𝔼|X|1+𝔼Y\mathbb{E}Y\leqslant\mathbb{E}|X|\leqslant 1+\mathbb{E}Y. E como YY assume valores em 0\mathbb{N}_{0}, segue da Proposição 5.33 que

n=1(Yn)𝔼|X|1+n=1(Yn).\sum_{n=1}^{\infty}\mathbb{P}(Y\geqslant n)\leqslant\mathbb{E}|X|\leqslant 1+% \sum_{n=1}^{\infty}\mathbb{P}(Y\geqslant n).

Observando que (Yn)=(|X|n)\mathbb{P}(Y\geqslant n)=\mathbb{P}(|X|\geqslant n), concluímos a demonstração. ∎

Suponha que queiramos calcular a esperança de uma variável aleatória descrita explicitamente como uma função de outra. Mais precisamente, suponha que Y=g(X),Y=g({X}), para alguma função gg. Certamente, uma forma de obter 𝔼Y\mathbb{E}Y é calcular FY(y)F_{Y}(y) para todo yy\in\mathbb{R}, a partir da distribuição de XX, e depois calcular a esperança usando os Teoremas 5.26 e 5.28 ou a própria Definição 5.19, aplicados a YY. Entretanto, existe outra maneira, que pode ser mais conveniente.

Teorema 5.36 (Funções de variáveis aleatórias discretas).

Sejam XX uma variável aleatória discreta e g:g:\mathbb{R}\to\mathbb{R} uma função não-negativa. Então

𝔼[g(X)]=xg(x)pX(x).\mathbb{E}[g(X)]=\sum_{x}g(x)\cdot p_{X}(x).

Se XX toma apenas finitos valores, a identidade acima é a segunda parte do Teorema 5.15. O caso geral será tratado na Seção 5.3.

Exemplo 5.37.

Se XPoisson(λ)X\sim\mathop{\mathrm{Poisson}}\nolimits(\lambda), então

𝔼X2\displaystyle\mathbb{E}X^{2} =n=0n2λneλn!=n=1nλneλ(n1)!=n=1λneλ(n1)!+n=2λneλ(n2)!\displaystyle=\sum_{n=0}^{\infty}n^{2}\frac{\lambda^{n}e^{-\lambda}}{n!}=\sum_% {n=1}^{\infty}n\frac{\lambda^{n}e^{-\lambda}}{(n-1)!}=\sum_{n=1}^{\infty}\frac% {\lambda^{n}e^{-\lambda}}{(n-1)!}+\sum_{n=2}^{\infty}\frac{\lambda^{n}e^{-% \lambda}}{(n-2)!}
=λeλn=1λn1(n1)!+λ2eλn=2λn2(n2)!=λ+λ2.\displaystyle=\lambda e^{-\lambda}\sum_{n=1}^{\infty}\frac{\lambda^{n-1}}{(n-1% )!}+\lambda^{2}e^{-\lambda}\sum_{n=2}^{\infty}\frac{\lambda^{n-2}}{(n-2)!}=% \lambda+\lambda^{2}.\qed
Exemplo 5.38.

Seja XGeom(p)X\sim\mathop{\mathrm{Geom}}\nolimits(p). Vamos calcular

𝔼X2=n=1n2(1p)n1p\mathbb{E}X^{2}=\sum_{n=1}^{\infty}n^{2}(1-p)^{n-1}p

derivando séries de potência. Para isso, escrevemos q=1pq=1-p e

𝔼X2\displaystyle\mathbb{E}X^{2} =pn=1nqn1+pqn=1n(n1)qn2\displaystyle=p\sum_{n=1}^{\infty}nq^{n-1}+pq\sum_{n=1}^{\infty}n(n-1)q^{n-2}
=pddqn=0qn+pqd2dq2n=0qn\displaystyle=p\frac{\mathrm{d}}{\mathrm{d}q}\sum_{n=0}^{\infty}q^{n}+pq\frac{% \mathrm{d}^{2}}{\mathrm{d}q^{2}}\sum_{n=0}^{\infty}q^{n}
=p1(1q)2+pq2(1q)3\displaystyle=p\frac{1}{(1-q)^{2}}+pq\frac{2}{(1-q)^{3}}
=1p+21pp2=2pp2.\displaystyle=\frac{1}{p}+2\cdot\frac{1-p}{p^{2}}=\frac{2-p}{p^{2}}.

Admitimos a propriedade de que séries de potência podem ser derivadas termo a termo, dentro do seu raio de convergência, neste caso |q|<1|q|<1. ∎

Teorema 5.39 (Funções de variáveis absolutamente contínuas).

Seja X{X} uma variável aleatória absolutamente contínua com densidade fXf_{{X}}. Seja gg uma função não-negativa e contínua por partes. Então

𝔼[g(X)]=+g(x)fX(x)dx.\mathbb{E}[g(X)]=\int_{-\infty}^{+\infty}g({x})\,f_{{X}}({x})\,\mathrm{d}{x}.

Observe que, pelo Teorema A.5, a função gfXg\cdot f_{X} é integrável.

Demonstração.

Provaremos aqui supondo que gg é uma função-degrau que assume finitos valores. A prova do caso geral será dada na Seção 5.5.5. Sejam y1,,yny_{1},\dots,y_{n} os valores assumidos por gg, e Ak={x:g(x)=yk}A_{k}=\{x\in\mathbb{R}:g(x)=y_{k}\}. Assim, podemos escrever g(x)=kyk𝟙Ak(x)g(x)=\sum_{k}y_{k}\mathds{1}_{A_{k}}(x), logo Y=k=1nyk𝟙{XAk}Y=\sum_{k=1}^{n}y_{k}\mathds{1}_{\{X\in A_{k}\}}. Portanto,

𝔼Y\displaystyle\mathbb{E}Y =k=1nyk(XAk)=k=1nAkykfX(x)dx=+g(x)fX(x)dx,\displaystyle=\sum_{k=1}^{n}y_{k}\mathbb{P}(X\in A_{k})=\sum_{k=1}^{n}\int_{A_% {k}}y_{k}f_{{X}}({x})\,\mathrm{d}{x}=\int_{-\infty}^{+\infty}g({x})\,f_{{X}}({% x})\,\mathrm{d}{x},

pois g(x)=ykg(x)=y_{k} para todo xAkx\in A_{k}. ∎

Exemplo 5.40.

Se XExp(λ)X\sim\mathop{\mathrm{Exp}}\nolimits(\lambda), então

𝔼X2=0+x2λeλxdx=2λ2.\mathbb{E}X^{2}=\int_{0}^{+\infty}x^{2}\lambda e^{-\lambda x}\,\mathrm{d}x=% \frac{2}{\lambda^{2}}.\qed
Exemplo 5.41.

Se X𝒩(0,1)X\sim\mathcal{N}(0,1), então

𝔼X2=+x2ex2/22πdx=1,\mathbb{E}X^{2}=\int_{-\infty}^{+\infty}x^{2}\frac{e^{-x^{2}/2}}{\sqrt{2\pi}}% \mathrm{d}x=1,

onde usamos o fato de que +ex2/2dx=2π\int_{-\infty}^{+\infty}{e^{-x^{2}/2}}\mathrm{d}x={\sqrt{2\pi}}. Ademais,

𝔼|X|=+|x|ex2/22πdx=2π.\mathbb{E}|X|=\int_{-\infty}^{+\infty}|x|\frac{e^{-x^{2}/2}}{\sqrt{2\pi}}% \mathrm{d}x=\sqrt{\frac{2}{\pi}}.\qed
Observação 5.42.

O teorema anterior tem seu análogo multidimensional. Se um vetor aleatório 𝑿=(X1,,Xn){{\boldsymbol{X}}}=(X_{1},\dots,X_{n}) possui densidade conjunta f𝑿f_{{\boldsymbol{X}}} e se g:ng:\mathbb{R}^{n}\to\mathbb{R} é uma função não-negativa e contínua, então

𝔼[g(𝑿)]=++g(x1,,xn)f𝑿(x1,,xn)dx1dxn.\mathbb{E}[g({{\boldsymbol{X}}})]=\int_{-\infty}^{+\infty}\dots\int_{-\infty}^% {+\infty}g(x_{1},\dots,x_{n})\,f_{{\boldsymbol{X}}}(x_{1},\dots,x_{n})\,% \mathrm{d}{x_{1}}\cdots\mathrm{d}{x_{n}}. (5.43)

Esta fórmula será usada em alguns exemplos e exercícios e será provada no final deste capítulo. ∎

Os Teoremas 5.365.39 valem supondo que 𝔼[g(X)]\mathbb{E}[g(X)] está definida, ao invés de supor gg não-negativa. Para justificar essa extensão, basta separar os pontos onde gg é positiva e negativa. A parte positiva e a parte negativa de um número z[,+]z\in[-\infty,+\infty] são denotadas por

z+={z,z0,0,z0,z={0,z0,z,z0.z^{+}=\begin{cases}z,&z\geqslant 0,\\ 0,&z\leqslant 0,\end{cases}\qquad z^{-}=\begin{cases}0,&z\geqslant 0,\\ -z,&z\leqslant 0.\end{cases}

Com essa definição, z=z+zz=z^{+}-z^{-} e |z|=z++z|z|=z^{+}+z^{-}. Da mesma forma, podemos definir g+(x)=[g(x)]+g^{+}(x)=[g(x)]^{+} e g(x)=[g(x)]g^{-}(x)=[g(x)]^{-} de forma que g=g+gg=g^{+}-g^{-}. Observe que 𝔼[g+(X)]\mathbb{E}[g^{+}(X)] e 𝔼[g(X)]\mathbb{E}[g^{-}(X)] sempre estão definidas. Ademais,

𝔼[g(X)]=𝔼[g+(X)]𝔼[g(X)]\mathbb{E}[g(X)]=\mathbb{E}[g^{+}(X)]-\mathbb{E}[g^{-}(X)]

se uma das duas for finita, e 𝔼[g(X)]\mathbb{E}[g(X)] não está definida caso contrário. Em geral, não sabemos de antemão se uma variável aleatória é integrável; assim sendo, a abordagem mais simples é de fato separar as partes positiva e negativa e usar esses dois teoremas tal como foram enunciados.

Existem outras formas de se definir a esperança, todas elas equivalentes. Isso também se reflete em distintas notações, que aparecem em diferentes bibliografias:

𝔼X=ΩXd,𝔼X=xdX,𝔼X=xdFX(x).\mathbb{E}X=\int_{\Omega}X\,\mathrm{d}\mathbb{P},\qquad\mathbb{E}X=\int_{% \mathbb{R}}x\,\mathrm{d}\mathbb{P}_{X},\qquad\mathbb{E}X=\int_{\mathbb{R}}x\,% \mathrm{d}F_{X}(x).

A definição que usamos aqui corresponde à primeira, que se refere à integral de Lebesgue no espaço de probabilidade Ω\Omega visto como um espaço de medida. A segunda integral também é uma integral de Lebesgue, porém no espaço de probabilidade (,,X)(\mathbb{R},\mathcal{B},\mathbb{P}_{X}) onde X\mathbb{P}_{X} é a lei de XX. A terceira integral é conhecida como integral de Stieltjes com função integradora dada por FXF_{X}.

A fórmula que usamos na Definição 5.19 é um atalho pouco utilizado porém mais curto e acessível para definir a integral de Lebesgue da função XX com respeito à medida \mathbb{P}, sem usar esse nome. Essa forma é equivalente à definição mais comum de integral de Lebesgue a partir de funções simples, que será vista na Seção 5.5. A terceira fórmula é equivalente à segunda, porém definida de uma forma mais explícita no caso de integrandos contínuos, o que torna alguns cálculos mais transparentes. A igualdade entre a primeira e a segunda fórmulas acima é assegurada pelo Teorema 5.66.