5.3 Aproximação e convergência da esperança

Em inúmeras situações estaremos interessados no limite de 𝔼Xn\mathbb{E}X_{n} para uma sequência X1,X2,X3,X_{1},X_{2},X_{3},\dots de variáveis aleatórias. Mais precisamente, gostaríamos de poder comutar a esperança com um limite em nn, e por isso queremos estabelecer condições sob as quais 𝔼[limnXn]=limn𝔼Xn\mathbb{E}[\lim_{n}X_{n}]=\lim_{n}\mathbb{E}X_{n}. Vale lembrar que derivadas e integrais também são limites.

Para ler o livro em um nível mais básico, esta seção pode ser omitida. Para a leitura em um nível intermediário, as ferramentas desta seção serão usadas principalmente nas Seções 7.4, 8.310.3. A leitura em nível mais avançado requer o conteúdo da Seção 5.5, que inclui essas ferramentas.

5.3.1 Teorema da Convergência Monótona

Começamos pelo Teorema da Convergência Monótona, que tem menos pré-requisitos técnicos, e o usaremos para demonstrar várias propriedades da esperança enunciadas na seção anterior, usando aproximação por variáveis aleatórias simples e separando as partes positiva e negativa. Este teorema também será usado na Seção 8.3.

Teorema 5.44 (Teorema da Convergência Monótona).

Sejam XX e (Xn)n(X_{n})_{n} variáveis aleatórias não-negativas, tais que, para todo ω\omega, (Xn(ω))n(X_{n}(\omega))_{n} é não-decrescente e converge para X(ω)X(\omega). Então 𝔼Xn𝔼X\mathbb{E}X_{n}\to\mathbb{E}X quando nn\to\infty.

Demonstração.

Como 0XnXn+1X0\leqslant X_{n}\leqslant X_{n+1}\leqslant X, temos que limn𝔼Xn\lim_{n}\mathbb{E}X_{n} existe e limn𝔼Xn𝔼X\lim_{n}\mathbb{E}X_{n}\leqslant\mathbb{E}X, restando mostrar a desigualdade oposta. Seja M<𝔼XM<\mathbb{E}X qualquer, e tome KK tal que 0K(X>x)dx>M\int_{0}^{K}\mathbb{P}(X>x)\,\mathrm{d}x>M. Seja NN\in\mathbb{N}. Escrevemos

𝔼Xn=0+(Xn>x)dx0K(Xn>x)dx==j=1N(j1)KNjKN(Xn>x)dxj=1NKN(Xn>jKN)j=1NKN(X>jKN),\mathbb{E}X_{n}=\int_{0}^{+\infty}\mathbb{P}(X_{n}>x)\,\mathrm{d}x\geqslant% \int_{0}^{K}\mathbb{P}(X_{n}>x)\,\mathrm{d}x=\\ =\sum_{j=1}^{N}\int_{(j-1)\frac{K}{N}}^{j\frac{K}{N}}\mathbb{P}(X_{n}>x)\,% \mathrm{d}x\geqslant\sum_{j=1}^{N}\tfrac{K}{N}\mathbb{P}(X_{n}>j\tfrac{K}{N})% \to\sum_{j=1}^{N}\tfrac{K}{N}\mathbb{P}(X>j\tfrac{K}{N}),

pois {Xn>a}{X>a}\{X_{n}>a\}\uparrow\{X>a\}. De forma análoga,

M0K(X>x)dxj=0N1KN(X>jKN)KN+j=1NKN(X>jKN).M\leqslant\int_{0}^{K}\mathbb{P}(X>x)\,\mathrm{d}x\leqslant\sum_{j=0}^{N-1}% \tfrac{K}{N}\mathbb{P}(X>j\tfrac{K}{N})\leqslant\tfrac{K}{N}+\sum_{j=1}^{N}% \tfrac{K}{N}\mathbb{P}(X>j\tfrac{K}{N}).

Combinando as desigualdades acima, limn𝔼XnMKN\lim_{n}\mathbb{E}X_{n}\geqslant M-\frac{K}{N}. Como isso vale para todo NN\in\mathbb{N}, segue que limn𝔼XnM\lim_{n}\mathbb{E}X_{n}\geqslant M. Como isso vale para todo M<𝔼XM<\mathbb{E}X, segue que limn𝔼Xn𝔼X\lim_{n}\mathbb{E}X_{n}\geqslant\mathbb{E}X, concluindo a prova. ∎

Uma primeira aplicação deste teorema é a fórmula para esperança de funções de variáveis aleatórias discretas.

Demonstração do Teorema 5.36.

Seja B={x1,x2,x3,}B=\{x_{1},x_{2},x_{3},\dots\}\subseteq\mathbb{R} tal que (XB)=0\mathbb{P}(X\not\in B)=0. Podemos supor que X(ω)BX(\omega)\in B para todo ωΩ\omega\in\Omega, pois caso contrário bastaria considerar X~=X𝟙{XB}\tilde{X}=X\mathds{1}_{\{X\in B\}}. Defina gn(x)=k=1ng(xk)𝟙{xk}(x)g_{n}(x)=\sum_{k=1}^{n}g(x_{k})\mathds{1}_{\{x_{k}\}}(x) e observe que gn(x)g(x)g_{n}(x)\uparrow g(x) para todo xBx\in B, donde gn(X)g(X)g_{n}(X)\uparrow g(X). Usando o Teorema 5.15 e o Teorema da Convergência Monótona,

𝔼[g(X)]=limn𝔼[gn(X)]=limnk=1ng(xk)(X=xk)=xg(x)(X=x),\displaystyle\mathbb{E}[g(X)]=\lim_{n}\mathbb{E}[g_{n}(X)]=\lim_{n}\sum_{k=1}^% {n}g(x_{k})\mathbb{P}(X=x_{k})=\sum_{x}g(x)\mathbb{P}(X=x),

provando o Teorema 5.36. ∎

Demonstração do Teorema 5.26.

Como 𝔼X=𝔼X+𝔼X\mathbb{E}X=\mathbb{E}X^{+}-\mathbb{E}X^{-}, basta aplicar o Teorema 5.36 com g(x)=x+g(x)=x^{+} e g(x)=xg(x)=x^{-}, respectivamente. ∎

Para provar a propriedade de linearidade do Teorema 5.30, usaremos linearidade para variáveis aleatórias simples combinada com o fato de que sempre é possível aproximar variáveis não-negativas por variáveis simples.

Proposição 5.45.

Existe uma sequência de funções não-decrescentes (ψn)n:++(\psi_{n})_{n}:\mathbb{R}_{+}\to\mathbb{R}_{+}, cada uma das quais assumindo finitos valores, e tais que ψn(x)x\psi_{n}(x)\uparrow x para todo x0x\geqslant 0.

Demonstração.

Para nn\in\mathbb{N}, seja ψn\psi_{n} definida por

ψn(x)=2nmax{j{0,1,,2nn}: 2njx},\psi_{n}(x)=2^{-n}\cdot\max\left\{j\in\{0,1,\dots,2^{n}n\}\,:\,2^{-n}j% \leqslant x\right\}, (5.46)

ilustrada na Figura 5.3.

Gráfico de
Figura 5.3: Gráfico de ψ2\psi_{2} e a aproximação ψn(z)z\psi_{n}(z)\uparrow z para um zz fixo.

Observe que cada ψn\psi_{n} assume finitos valores. Ademais, dado x0x\geqslant 0, temos que xψn+1(x)ψn(x)x\geqslant\psi_{n+1}(x)\geqslant\psi_{n}(x) para todo nn\in\mathbb{N}, e para nxn\geqslant x temos também ψn(x)x2n\psi_{n}(x)\geqslant x-2^{-n}. Portanto, esta sequência de funções satisfaz às propriedades enunciadas. ∎

Demonstração do Teorema 5.30.

Já provamos unitariedade e monotonicidade. Para a linearidade, primeiro observamos que da definição de esperança segue que 𝔼[aX]=a𝔼X\mathbb{E}[aX]=a\,\mathbb{E}X, restando apenas mostrar que 𝔼[X+Y]=𝔼X+𝔼Y\mathbb{E}[X+Y]=\mathbb{E}X+\mathbb{E}Y.

Suponha inicialmente que XX e YY sejam não-negativas. Seja (ψn)n(\psi_{n})_{n} a sequência de funções monótonas dadas pela Proposição 5.45. Usando o Teorema 5.9 e o Teorema da Convergência Monótona três vezes,

𝔼[X+Y]=limn𝔼[ψn(X)+ψn(Y)]=limn(𝔼[ψn(X)]+𝔼[ψn(Y)])=𝔼X+𝔼Y.\mathbb{E}[X+Y]=\lim_{n}\mathbb{E}[\psi_{n}(X)+\psi_{n}(Y)]=\lim_{n}(\mathbb{E% }[\psi_{n}(X)]+\mathbb{E}[\psi_{n}(Y)])=\mathbb{E}X+\mathbb{E}Y.

Finalmente, sejam XX e YY duas variáveis aleatórias quaisquer. Expandindo,

(X+Y)+(X+Y)=X+Y=X+X+Y+Y,(X+Y)^{+}-(X+Y)^{-}=X+Y=X^{+}-X^{-}+Y^{+}-Y^{-},

donde

(X+Y)++X+Y=(X+Y)+X++Y+.(X+Y)^{+}+X^{-}+Y^{-}=(X+Y)^{-}+X^{+}+Y^{+}.

Como todas as variáveis aleatórias acima são não-negativas, pelo caso anterior temos

𝔼(X+Y)++𝔼X+𝔼Y=𝔼(X+Y)+𝔼X++𝔼Y+.\mathbb{E}(X+Y)^{+}+\mathbb{E}X^{-}+\mathbb{E}Y^{-}=\mathbb{E}(X+Y)^{-}+% \mathbb{E}X^{+}+\mathbb{E}Y^{+}.

Como estamos supondo que 𝔼X\mathbb{E}X está definida, temos 𝔼X<\mathbb{E}X^{-}<\infty ou 𝔼X+<\mathbb{E}X^{+}<\infty. Suponhamos que valha o primeiro caso (se for o segundo, o argumento será análogo). Como YY é integrável, 𝔼Y<\mathbb{E}Y^{-}<\infty e 𝔼(X+Y)𝔼X+𝔼Y<\mathbb{E}(X+Y)^{-}\leqslant\mathbb{E}X^{-}+\mathbb{E}Y^{-}<\infty. Assim, podemos subtrair esses três termos, obtendo

𝔼(X+Y)+𝔼(X+Y)=(𝔼X+𝔼X)+(𝔼Y+𝔼Y),\mathbb{E}(X+Y)^{+}-\mathbb{E}(X+Y)^{-}=(\mathbb{E}X^{+}-\mathbb{E}X^{-})+(% \mathbb{E}Y^{+}-\mathbb{E}Y^{-}),

o que conclui a prova da linearidade. ∎

Demonstração da Proposição 5.32.

Suponha que XX e YY são não-negativas. Seja (ψn)n(\psi_{n})_{n} a sequência de funções monótonas dadas pela Proposição 5.45. Usando o Teorema 5.17 e o Teorema da Convergência Monótona três vezes,

𝔼[XY]=limn𝔼[ψn(X)ψn(Y)]=limn(𝔼[ψn(X)]𝔼[ψn(Y)])=𝔼X𝔼Y.\mathbb{E}[XY]=\lim_{n}\mathbb{E}[\psi_{n}(X)\psi_{n}(Y)]=\lim_{n}(\mathbb{E}[% \psi_{n}(X)]\cdot\mathbb{E}[\psi_{n}(Y)])=\mathbb{E}X\cdot\mathbb{E}Y.

Suponha agora que XX e YY são integráveis. Usando o caso anterior,

𝔼[XY]\displaystyle\mathbb{E}[XY] =𝔼[X+Y+X+YXY++XY]\displaystyle=\mathbb{E}[X^{+}Y^{+}-X^{+}Y^{-}-X^{-}Y^{+}+X^{-}Y^{-}]
=𝔼X+𝔼Y+𝔼X+𝔼Y𝔼X𝔼Y++𝔼X𝔼Y\displaystyle=\mathbb{E}X^{+}\cdot\mathbb{E}Y^{+}-\mathbb{E}X^{+}\cdot\mathbb{% E}Y^{-}-\mathbb{E}X^{-}\cdot\mathbb{E}Y^{+}+\mathbb{E}X^{-}\cdot\mathbb{E}Y^{-}
=(𝔼X+𝔼X)(𝔼Y+𝔼Y)=𝔼X𝔼Y.\displaystyle=(\mathbb{E}X^{+}-\mathbb{E}X^{-})(\mathbb{E}Y^{+}-\mathbb{E}Y^{-% })=\mathbb{E}X\cdot\mathbb{E}Y.\qed

5.3.2 Teorema da Convergência Dominada

Veremos agora o Teorema da Convergência Dominada, cuja demonstração exige ferramentas um pouco mais avançadas. Isto nos permitirá, por exemplo, dar condições para tomar derivadas dentro da esperança, o que será usado nas Seções 10.110.2.

Teorema 5.47 (Teorema da Convergência Dominada).

Sejam (Xn)n,X(X_{n})_{n},X e YY variáveis aleatórias. Se (XnX)=1\mathbb{P}(X_{n}\to X)=1 e (|Xn|Y)=1\mathbb{P}(|X_{n}|\leqslant Y)=1 para todo nn\in\mathbb{N}, com YY integrável, então 𝔼Xn𝔼X\mathbb{E}X_{n}\to\mathbb{E}X quando nn\to\infty.

Demonstração.

A prova usa o seguinte fato. Dada uma sequência (Zn)n(Z_{n})_{n} de variáveis aleatórias não-negativas tais que lim infnZn(ω)\liminf_{n}Z_{n}(\omega) é finito para todo ωΩ\omega\in\Omega, vale

𝔼[lim infnZn]lim infn𝔼Zn.\mathbb{E}[\liminf_{n}Z_{n}]\leqslant\liminf_{n}\mathbb{E}Z_{n}. (5.48)

Com efeito, tomando Yn=infknZkY_{n}=\inf_{k\geqslant n}Z_{k} e definindo Y=lim infnZnY=\liminf_{n}Z_{n}, obtemos 0YnY0\leqslant Y_{n}\uparrow Y. Pelo Teorema da Convergência Monótona, limn𝔼Yn=𝔼Y.\lim_{n}\mathbb{E}Y_{n}=\mathbb{E}Y. Como YnZnY_{n}\leqslant Z_{n}, temos lim infn𝔼Znlim infn𝔼Yn=𝔼Y=𝔼[lim infnZn]\liminf_{n}\mathbb{E}Z_{n}\geqslant\liminf_{n}\mathbb{E}Y_{n}=\mathbb{E}Y=% \mathbb{E}[\liminf_{n}Z_{n}], provando a desigualdade acima.

Passemos à prova do teorema. Sem perda de generalidade, podemos supor que XnXX_{n}\to X e supn|Xn|Y\sup_{n}|X_{n}|\leqslant Y para todo ωΩ\omega\in\Omega (exercício!). Como XnYX_{n}\leqslant Y, temos YXn0Y-X_{n}\geqslant 0, e portanto podemos aplicar (5.48), obtendo

lim infn𝔼[YXn]𝔼[lim infn(YXn)]=𝔼[YX]\liminf_{n}\mathbb{E}[Y-X_{n}]\geqslant\mathbb{E}[\liminf_{n}(Y-X_{n})]=% \mathbb{E}[Y-X]

Como YY é integrável, vale 𝔼[YXn]=𝔼Y𝔼Xn\mathbb{E}[Y-X_{n}]=\mathbb{E}Y-\mathbb{E}X_{n}, 𝔼[YX]=𝔼Y𝔼X\mathbb{E}[Y-X]=\mathbb{E}Y-\mathbb{E}X e

lim supn𝔼Xn𝔼X.\limsup_{n}\mathbb{E}X_{n}\leqslant\mathbb{E}X.

Aplicando o mesmo argumento com Xn-X_{n} no lugar de XnX_{n}, obtemos a desigualdade oposta lim infn𝔼Xn𝔼X, e portanto 𝔼Xn𝔼X.\liminf_{n}\mathbb{E}X_{n}\geqslant\mathbb{E}X,\text{ e portanto }\mathbb{E}X_% {n}\to\mathbb{E}X.

Uma das aplicações desse teorema é quando estamos considerando uma grandeza expressa em termos de uma variável aleatória e um parâmetro real. Sob certas condições, podemos derivar dentro da esperança.

Teorema 5.49.

Seja f:[a,b]×f:[a,b]\times\mathbb{R}\to\mathbb{R} contínua, com tf(t,x)\frac{\partial}{\partial t}f(t,x) também contínua, e seja XX uma variável aleatória. Suponha que f(t,X)f(t,X) é integrável para todo t[a,b]t\in[a,b], e que existe uma variável aleatória integrável YY tal que

|tf(t,X)|Y q.c., para todo t[a,b].\Big{\lvert}\tfrac{\partial}{\partial t}f(t,X)\Big{\rvert}\leqslant Y\text{ q.% c., para todo }t\in[a,b].

Então 𝔼[f(t,X)]\mathbb{E}[f(t,X)] é diferenciável em [a,b][a,b] e

ddt𝔼[f(t,X)]=𝔼[tf(t,X)].\tfrac{\mathrm{d}}{\mathrm{d}t}\,\mathbb{E}[f(t,X)]=\mathbb{E}\Big{[}\tfrac{% \partial}{\partial t}f(t,X)\Big{]}.

Em t=at=a e t=bt=b, as derivadas acima são derivadas laterais. O mesmo vale se consideramos o intervalo aberto (a,b)(a,b).

Demonstração.

Pelo Teorema do Valor Médio, para todos xx\in\mathbb{R} e todos s,t[a,b]s,t\in[a,b] tais que sts\neq t,

f(s,x)f(t,x)st=tf(θ,x),\frac{f(s,x)-f(t,x)}{s-t}=\tfrac{\partial}{\partial t}f(\theta,x),

onde θ=θ(s,t,x)\theta=\theta(s,t,x) está entre tt e ss. Portanto,

|f(s,X)f(t,X)st|=|tf(θ,X)|Y q.c.\Big{\lvert}\frac{f(s,X)-f(t,X)}{s-t}\Big{\rvert}=\Big{\lvert}\tfrac{\partial}% {\partial t}f(\theta,X)\Big{\rvert}\leqslant Y\text{ q.c.}

Tomando uma sequência snts_{n}\to t qualquer, podemos usar o Teorema da Convergência Dominada, obtendo

limst𝔼[f(s,X)f(t,X)st]=𝔼[limstf(s,X)f(t,X)st].\displaystyle\lim_{s\to t}\mathbb{E}\Big{[}\frac{f(s,X)-f(t,X)}{s-t}\Big{]}=% \mathbb{E}\Big{[}\lim_{s\to t}\frac{f(s,X)-f(t,X)}{s-t}\Big{]}.

O termo da esquerda é igual a ddt𝔼[f(t,X)]\tfrac{\mathrm{d}}{\mathrm{d}t}\,\mathbb{E}[f(t,X)] e o termo da direita é 𝔼[tf(t,X)]\mathbb{E}\big{[}\frac{\partial}{\partial t}f(t,X)\big{]}. Caso t=at=a ou t=bt=b, tomamos st±s\to t^{\pm}. Isso conclui a prova. ∎