7.3 Relações entre os modos de convergência

Veremos nesta seção que alguns dos modos de convergência, definidos na Seção 7.1, são mais fortes que outros. Mostraremos todas as implicações possíveis e ilustraremos com exemplos quando um determinado modo de convergência não implica algum outro.

Proposição 7.25 (q.c.\text{q.c.}\Rightarrow\mathbb{P}).

Se Xnq.c.XX_{n}\overset{\mathrm{q.c.}}{\rightarrow}X, então XnXX_{n}\overset{\mathbb{P}}{\rightarrow}X.

Demonstração.

Para qualquer ε>0\varepsilon>0, pela Proposição 7.16,

(|XnX|ε i.v.)=0.\mathbb{P}(|X_{n}-X|\geqslant\varepsilon\text{ i.v.})=0.

Pela Proposição 7.24 segue que (|XnX|ε)0\mathbb{P}(|X_{n}-X|\geqslant\varepsilon)\to 0, ou seja, XnXX_{n}\overset{\mathbb{P}}{\rightarrow}X. ∎

Contra-exemplo 7.26 (p⇏q.c.\mathcal{L}^{p}\not\Rightarrow\text{q.c.}).

No Exemplo 7.3,

(Xnlognε infinitas vezes)=1\mathbb{P}\big{(}\tfrac{X_{n}}{\log n}\geqslant\varepsilon\text{ infinitas % vezes}\big{)}=1

para 0<ε<10<\varepsilon<1. Portanto não vale que Xnlognq.c.0\frac{X_{n}}{\log n}\overset{\mathrm{q.c.}}{\rightarrow}0. Por outro lado, 𝔼|Xnlogn|p=𝔼|X1logn|p0\mathbb{E}|\frac{X_{n}}{\log n}|^{p}=\mathbb{E}|\frac{X_{1}}{\log n}|^{p}\to 0, donde concluímos que Xnlogn0\frac{X_{n}}{\log n}\to 0 em p\mathcal{L}^{p}. ∎

Proposição 7.27 (p\mathcal{L}^{p}\Rightarrow\mathbb{P}).

Se XnpXX_{n}\overset{\mathcal{L}^{p}}{\rightarrow}X para algum p1p\geqslant 1, então XnXX_{n}\overset{\mathbb{P}}{\rightarrow}X.

Demonstração.

Pela desigualdade de Markov,

(|XnX|ε)𝔼|XnX|pεp0.\mathbb{P}(|X_{n}-X|\geqslant\varepsilon)\leqslant\frac{\mathbb{E}|X_{n}-X|^{p% }}{\varepsilon^{p}}\to 0.\qed
Proposição 7.28 (qp\mathcal{L}^{q}\Rightarrow\mathcal{L}^{p}).

Se qp1q\geqslant p\geqslant 1 e XnqXX_{n}\overset{\mathcal{L}^{q}}{\rightarrow}X, então XnpXX_{n}\overset{\mathcal{L}^{p}}{\rightarrow}X.

Demonstração.

Pela Desigualdade de Lyapunov,

(𝔼|XnX|p)1p(𝔼|XnX|q)1q0\left(\mathbb{E}\left|\mathclap{\phantom{\big{|}}}X_{n}-X\right|^{p}\right)^{% \frac{1}{p}}\leqslant\left(\mathbb{E}\left|\mathclap{\phantom{\big{|}}}X_{n}-X% \right|^{q}\right)^{\frac{1}{q}}\to 0

e 𝔼|Xn|p(𝔼|Xn|q)p/q<\mathbb{E}|X_{n}|^{p}\leqslant(\mathbb{E}|X_{n}|^{q})^{p/q}<\infty. ∎

Contra-exemplo 7.29 (q.c.⇏p\text{q.c.}\not\Rightarrow\mathcal{L}^{p}).

Suponha que (Xn=n3)=1n2=1(Xn=0)\mathbb{P}(X_{n}=n^{3})=\frac{1}{n^{2}}=1-\mathbb{P}(X_{n}=0). Então, para ε>0\varepsilon>0, temos (Xnε)1n2\mathbb{P}(X_{n}\geqslant\varepsilon)\leqslant\frac{1}{n^{2}}, portanto Xnq.c.0X_{n}\overset{\mathrm{q.c.}}{\rightarrow}0. Entretanto, 𝔼Xn=n\mathbb{E}X_{n}=n, logo não podemos ter Xn10X_{n}\overset{\mathcal{L}^{1}}{\rightarrow}0, e pela proposição acima não podemos ter convergência em p\mathcal{L}^{p} para nenhum p1p\geqslant 1. ∎

Contra-exemplo 7.30 (p⇏q.c.\mathcal{L}^{p}\not\Rightarrow\text{q.c.}).

No Exemplo 7.2,

𝔼|Xn0|p=𝔼Xnp=(Xn=1)=1n0,\mathbb{E}|X_{n}-0|^{p}=\mathbb{E}X_{n}^{p}=\mathbb{P}(X_{n}=1)=\frac{1}{n}\to 0,

portanto Xnp0X_{n}\overset{\mathcal{L}^{p}}{\rightarrow}0 para todo pp. No entanto,

(Xn=1 infinitas vezes)=1\mathbb{P}(X_{n}=1\text{ infinitas vezes})=1

pelo Lema de Borel-Cantelli. Portanto, não vale Xnq.c.0X_{n}\overset{\mathrm{q.c.}}{\rightarrow}0. ∎

Exemplo 7.31 (q.c. ⇏1\not\Rightarrow\mathcal{L}^{1}).

Sejam U𝒰[0,1]U\sim\mathcal{U}[0,1] e Xn=n𝟙{U1n}X_{n}=n\mathds{1}_{\{U\leqslant\frac{1}{n}\}}. Então Xn0X_{n}\to 0 q.c., embora XnX_{n} não convirja a 0 em 1\mathcal{L}^{1}, pois 𝔼|Xn|=1\mathbb{E}|X_{n}|=1. ∎

Os Exemplos 7.87.31 ilustram que convergência q.c. não implica convergência em p\mathcal{L}^{p} e nem convergência em p\mathcal{L}^{p} implica convergência q.c. Observando as Proposições 7.257.27, convergência em probabilidade não implica convergência q.c. ou p\mathcal{L}^{p}.

Proposição 7.32 (Convergência por subsequências).

Se XnXX_{n}\overset{\mathbb{P}}{\rightarrow}X então existe uma subsequência nkn_{k}\to\infty tal que Xnkq.c.XX_{n_{k}}\overset{\mathrm{q.c.}}{\rightarrow}X.

Demonstração.

Como (|XnX|ε)0\mathbb{P}(|X_{n}-X|\geqslant\varepsilon)\to 0 para todo ε>0\varepsilon>0, podemos tomar n1>0n_{1}>0 tal que (|Xn1X|1)<12\mathbb{P}(|X_{n_{1}}-X|\geqslant 1)<\frac{1}{2}. Novamente, podemos tomar n2>n1n_{2}>n_{1} tal que (|Xn2X|12)<14\mathbb{P}(|X_{n_{2}}-X|\geqslant\frac{1}{2})<\frac{1}{4}. Sucessivamente, podemos tomar nk>nk1n_{k}>n_{k-1} tal que (|XnkX|1k)<12k\mathbb{P}(|X_{n_{k}}-X|\geqslant\frac{1}{k})<\frac{1}{2^{k}}.

Vamos ver que essa sequência nkn_{k} satisfaz Xnkq.c.XX_{n_{k}}\overset{\mathrm{q.c.}}{\rightarrow}X. Seja ε>0\varepsilon>0. Temos que (|XnkX|ε)(|XnkX|1k)\mathbb{P}(|X_{n_{k}}-X|\geqslant\varepsilon)\leqslant\mathbb{P}(|X_{n_{k}}-X|% \geqslant\frac{1}{k}) para todo kε1k\geqslant\varepsilon^{-1}. Por outro lado, k(|XnkX|1k)<\sum_{k}\mathbb{P}(|X_{n_{k}}-X|\geqslant\frac{1}{k})<\infty, logo k(|XnkX|ε)<\sum_{k}\mathbb{P}(|X_{n_{k}}-X|\geqslant\varepsilon)<\infty. Pelo Lema de Borel-Cantelli, XnkXq.c.0X_{n_{k}}-X\overset{\mathrm{q.c.}}{\rightarrow}0, ou seja, Xnkq.c.XX_{n_{k}}\overset{\mathrm{q.c.}}{\rightarrow}X. ∎

Teorema 7.33 (Teorema da Convergência Dominada em p\mathcal{L}^{p}).

Seja p1p\geqslant 1. Se XnXX_{n}\overset{\mathbb{P}}{\rightarrow}X e existe uma variável aleatória YY tal que 𝔼Yp<\mathbb{E}Y^{p}<\infty e |Xn|Y|X_{n}|\leqslant Y q.c. para todo nn, então XnpXX_{n}\overset{\mathcal{L}^{p}}{\rightarrow}X.

Demonstração.

Suponha inicialmente que XnXX_{n}{\to}X quase certamente. Então |X|Y|X|\leqslant Y q.c. e |XnX|p(|Xn|+|X|)p(2Y)p,|X_{n}-X|^{p}\leqslant(|X_{n}|+|X|)^{p}\leqslant(2Y)^{p}, que é integrável. Por outro lado, como |XnX|pq.c.0|X_{n}-X|^{p}\overset{\mathrm{q.c.}}{\rightarrow}0, pelo Teorema da Convergência Dominada, 𝔼|XnX|p0\mathbb{E}|X_{n}-X|^{p}{\to}0.

Finalmente, suponhamos que XnXX_{n}\to X em probabilidade. Queremos mostrar que a sequência numérica (𝔼|XnX|p)n\left(\mathbb{E}|X_{n}-X|^{p}\right)_{n} converge para zero. Isto é equivalente a dizer que qualquer subsequência tem uma subsubsequência que converge a zero (Teorema A.8). Seja (Xnk)k(X_{n_{k}})_{k} uma subsequência qualquer de (Xn)n(X_{n})_{n}. Como limnXn=X\lim_{n}X_{n}=X em probabilidade, segue que limkXnk=X\lim_{k}X_{n_{k}}=X em probabilidade e, pela Proposição 7.32, podemos tomar uma subsubsequência (Xnkj)j(X_{n_{k_{j}}})_{j} tal que limjXnkj=X\lim_{j}X_{n_{k_{j}}}=X q.c. Aplicando o caso anterior, obtemos limj𝔼|XnkjX|p=0\lim_{j}\mathbb{E}|X_{n_{k_{j}}}-X|^{p}=0, concluindo a prova. ∎

Proposição 7.34 (d\mathbb{P}\Rightarrow\mathrm{d}).

Se XnXX_{n}\overset{\mathbb{P}}{\rightarrow}X, então XndXX_{n}\overset{\smash{\mathrm{d}}}{\rightarrow}X.

Demonstração.

Seja xx\in\mathbb{R} ponto de continuidade de FXF_{X}. Temos que mostrar que FXn(x)FX(x)F_{X_{n}}(x)\to F_{X}(x) quando nn\to\infty. Seja ε>0\varepsilon>0. Tome δ>0\delta>0 tal que

FX(x)ε<FX(xδ)FX(x)FX(x+δ)<FX(x)+ε.F_{X}(x)-\varepsilon<F_{X}(x-\delta)\leqslant F_{X}(x)\leqslant F_{X}(x+\delta% )<F_{X}(x)+\varepsilon.

Como {Xnx}{|XnX|δ}{Xx+δ}\{X_{n}\leqslant x\}\subseteq\{|X_{n}-X|\geqslant\delta\}\cup\{X\leqslant x+\delta\} e XnXX_{n}\overset{\mathbb{P}}{\rightarrow}X, temos, para todo nn suficientemente grande,

FXn(x)FX(x+δ)+ε<FX(x)+2ε.F_{X_{n}}(x)\leqslant F_{X}(x+\delta)+\varepsilon<F_{X}(x)+2\varepsilon.

Da mesma forma, como {Xxδ}{|XnX|δ}{Xnx}\{X\leqslant x-\delta\}\subseteq\{|X_{n}-X|\geqslant\delta\}\cup\{X_{n}% \leqslant x\} e XnXX_{n}\overset{\mathbb{P}}{\rightarrow}X, temos, para todo nn suficientemente grande,

FXn(x)FX(xδ)ε>FX(x)2ε.F_{X_{n}}(x)\geqslant F_{X}(x-\delta)-\varepsilon>F_{X}(x)-2\varepsilon.

Portanto, FXn(x)FX(x)F_{X_{n}}(x)\to F_{X}(x), como queríamos demonstrar. ∎

Diagrama de implicações entre os tipos de convergência.
Figura 7.2: Diagrama de implicações entre os tipos de convergência.

A convergência em probabilidade implica a convergência em distribuição, mas a recíproca é falsa. De fato a recíproca nem faz muito sentido já que convergência em distribuição não necessita que as variáveis estejam definidas no mesmo espaço de probabilidade.

Exemplo 7.35 (d⇏d\not\Rightarrow\mathbb{P}).

Sejam X,(Xn)nX,(X_{n})_{n} variáveis aleatórias i.i.d. com distribuição normal padrão, todas definidas em um mesmo espaço de probabilidade. Observe que XndXX_{n}\overset{\smash{\mathrm{d}}}{\rightarrow}X quando nn\to\infty trivialmente. Por outro lado, como XnX𝒩(0,2)X_{n}-X\sim\mathcal{N}(0,2) para todo nn\in\mathbb{N},

(|XnX|ε)=(|𝒩(0,2)|ε)>0, para todo ε>0.\mathbb{P}(|X_{n}-X|\geqslant\varepsilon)=\mathbb{P}(|\mathcal{N}(0,2)|% \geqslant\varepsilon)>0,\ \text{ para todo }\varepsilon>0.

Logo, (Xn)n(X_{n})_{n} não converge em probabilidade para XX. ∎

Conforme vimos nos exemplos acima, em geral convergência quase certa não implica convergência em p\mathcal{L}^{p}, e vice-versa, mas a implicação pode valer sob condições particulares. O mesmo vale para a relação entre convergência em distribuição e em probabilidade.

Proposição 7.36.

Seja (Xn)n(X_{n})_{n} uma sequência de variáveis aleatórias definidas no mesmo espaço de probabilidade. Se XndcX_{n}\overset{\smash{\mathrm{d}}}{\rightarrow}c para cc\in\mathbb{R} constante, então XncX_{n}\overset{\mathbb{P}}{\rightarrow}c.

Demonstração.

Convergência em distribuição a uma variável constante quer dizer que limnFXn(t)=0\lim_{n}F_{X_{n}}(t)=0 se t<ct<c e limnFXn(t)=1\lim_{n}F_{X_{n}}(t)=1 se t>ct>c. Seja ε>0\varepsilon>0. Veja que

(|Xnc|ε)(Xncε)+(Xn>c+ε2)==FXn(cε)+1FXn(c+ε2)0 quando n.\mathbb{P}(|X_{n}-c|\geqslant\varepsilon)\leqslant\mathbb{P}(X_{n}\leqslant c-% \varepsilon)+\mathbb{P}(X_{n}>c+\tfrac{\varepsilon}{2})=\\ =F_{X_{n}}(c-\varepsilon)+1-F_{X_{n}}(c+\tfrac{\varepsilon}{2})\to 0\text{ % quando }n\to\infty.

Como isso vale para todo ε>0\varepsilon>0, isso conclui a demonstração. ∎

Completamos assim o diagrama de implicações da Figura 7.2.