9.4 Teorema do Limite Central de Lindeberg

Nesta seção provaremos a versão mais geral do Teorema do Limite Central no contexto de sequências de variáveis independentes, o chamado Teorema de Lindeberg.

Ao longo desta seção, sempre suporemos que (Xn)n(X_{n})_{n} é sequência de variáveis aleatórias definidas em um mesmo espaço de probabilidade, para cada nn\in\mathbb{N} denotamos Sn=k=1nXkS_{n}=\sum_{k=1}^{n}X_{k}, μk=𝔼Xk\mu_{k}=\mathbb{E}X_{k}, σn2=𝕍Xn\sigma_{n}^{2}=\mathbb{V}X_{n}, sn2=𝕍Sns_{n}^{2}=\mathbb{V}S_{n} e assumiremos que sn+s_{n}\to+\infty.

Definição 9.8 (Condição de Lindeberg).

Dizemos que a sequência de variáveis aleatórias (Xn)n(X_{n})_{n} satisfaz à condição de Lindeberg se

limn1sn2k=1n{|Xkμk|>εsn}(Xkμk)2d=0\lim_{n\to\infty}\frac{1}{s_{n}^{2}}\sum_{k=1}^{n}\int_{\{|X_{k}-\mu_{k}|>% \varepsilon s_{n}\}}\left(X_{k}-\mu_{k}\right)^{2}\,\mathrm{d}\mathbb{P}=0

para todo ε>0\varepsilon>0.

Agora estamos prontos para enunciar o Teorema de Lindeberg.

Teorema 9.9 (Teorema de Lindeberg).

Seja (Xn)n(X_{n})_{n} uma sequência de variáveis aleatórias independentes. Se a condição de Lindeberg é satisfeita, então

Sn𝔼Sn𝕍Snd𝒩(0,1).\frac{S_{n}-\mathbb{E}S_{n}}{\sqrt{\mathbb{V}S_{n}}}\overset{\smash{\mathrm{d}% }}{\rightarrow}\mathcal{N}(0,1)\text{.}

Ao final desta seção, enunciaremos uma versão mais geral, em que as variáveis X1,,XnX_{1},\dots,X_{n} que compõem SnS_{n} serão denotadas Xn,1,,Xn,nX_{n,1},\dots,X_{n,n} porque podem ser diferentes para cada nn.

Demonstração do Teorema 9.1.

Basta verificar que, no caso i.i.d. com segundo momento finito, a condição de Lindeberg é satisfeita. Escrevemos μ=𝔼X1\mu=\mathbb{E}X_{1} e σ2=𝕍X1\sigma^{2}=\mathbb{V}X_{1}, assim sn2=nσ2s^{2}_{n}=n\sigma^{2}. Usando o Teorema da Convergência Dominada,

1sn2k=1n{|Xkμ|>εsn}(Xkμ)2d=1σ2{|X1μ|>εσn}(X1μ)2d0,\frac{1}{s_{n}^{2}}\sum_{k=1}^{n}\int_{\{|X_{k}-\mu|>\varepsilon s_{n}\}}\left% (X_{k}-\mu\right)^{2}\,\mathrm{d}\mathbb{P}=\frac{1}{\sigma^{2}}\int_{\{|X_{1}% -\mu|>\varepsilon\sigma\sqrt{n}\}}\left(X_{1}-\mu\right)^{2}\,\mathrm{d}% \mathbb{P}\to 0,

pois {|X1μ|>εσn}∅︀\{|X_{1}-\mu|>\varepsilon\sigma\sqrt{n}\}\downarrow\emptyset quando nn\to\infty. ∎

Para o Teorema do Limite Central de Lyapunov, obtemos a versão abaixo que é mais geral do que aquela provada na Seção 9.3.

Corolário 9.10 (Teorema do Limite Central de Lyapunov).

Seja (Xn)n(X_{n})_{n} uma sequência de variáveis aleatórias independentes. Se existe δ>0\delta>0 tal que

limn1sn2+δk=1n𝔼|Xkμk|2+δ=0,\lim_{n\to\infty}\frac{1}{s_{n}^{2+\delta}}\sum_{k=1}^{n}\mathbb{E}\left|X_{k}% -\mu_{k}\right|^{2+\delta}=0,

então

Sn𝔼Sn𝕍Snd𝒩(0,1).\frac{S_{n}-\mathbb{E}S_{n}}{\sqrt{\mathbb{V}S_{n}}}\overset{\smash{\mathrm{d}% }}{\rightarrow}\mathcal{N}(0,1)\text{.}
Demonstração.

Observe que

1sn2+δk=1n𝔼|Xkμk|2+δ\displaystyle\frac{1}{s_{n}^{2+\delta}}\sum_{k=1}^{n}\mathbb{E}\left|X_{k}-\mu% _{k}\right|^{2+\delta} 1sn2+δk=1n{|Xkμk|>εsn}|Xkμk|2+δd\displaystyle\geqslant\frac{1}{s_{n}^{2+\delta}}\sum_{k=1}^{n}\int_{\{|X_{k}-% \mu_{k}|>\varepsilon s_{n}\}}\left|X_{k}-\mu_{k}\right|^{2+\delta}\,\mathrm{d}% \mathbb{P}
=1sn2+δk=1n{|Xkμk|>εsn}(Xkμk)2|Xkμk|δd\displaystyle=\ \frac{1}{s_{n}^{2+\delta}}\sum_{k=1}^{n}\int_{\{|X_{k}-\mu_{k}% |>\varepsilon s_{n}\}}\left(X_{k}-\mu_{k}\right)^{2}|X_{k}-\mu_{k}|^{\delta}\,% \mathrm{d}\mathbb{P}
εδsn2k=1n{|Xkμk|>εsn}(Xkμk)2d\displaystyle\geqslant\ \frac{\varepsilon^{\delta}}{s_{n}^{2}}\sum_{k=1}^{n}% \int_{\{|X_{k}-\mu_{k}|>\varepsilon s_{n}\}}\left(X_{k}-\mu_{k}\right)^{2}\,% \mathrm{d}\mathbb{P}

para todo ε>0\varepsilon>0 e, portanto, vale a condição de Lindeberg. ∎

Apesar de ser mais simples de ser verificada na prática, a condição de Lyapunov é mais restritiva que a de Lindeberg, como vemos no seguinte exemplo.

Exemplo 9.11.

Seja (Xn)n(X_{n})_{n} uma sequência de variáveis aleatórias i.i.d. com distribuição comum (X=k)=Ck3log2k\mathbb{P}(X=k)=\frac{C}{k^{3}\log^{2}k} para todo kk\in\mathbb{N}, onde CC é a constante tal que C1=k=11k3log2kC^{-1}=\sum_{k=1}^{\infty}\frac{1}{k^{3}\log^{2}k}. Podemos verificar que 𝔼X2<\mathbb{E}X^{2}<\infty, logo a sequência (Xn)n(X_{n})_{n} satisfaz à condição de Lindeberg conforme visto na demonstração do Teorema 9.1. Por outro lado, 𝔼|X|2+δ=+\mathbb{E}|X|^{2+\delta}=+\infty para todo δ>0\delta>0, portanto a condição de Lyapunov nunca é satisfeita. ∎

A condição de Lindeberg é uma forma de quantificar a ideia de que a contribuição de cada parcela Xkμksn\frac{X_{k}-\mu_{k}}{s_{n}} na soma Sn𝔼Snsn\frac{S_{n}-\mathbb{E}S_{n}}{s_{n}} é pequena quando nn se torna grande. Mais precisamente, ela diz que as contribuições para a esperança do desvio quadrático, mesmo quando somadas, provêm de desvios relativamente pequenos se comparados com o desvio-padrão de SnS_{n}. A proposição abaixo diz que, neste caso, a contribuição de cada parcela na variância de SnS_{n} é desprezível.

Proposição 9.12.

Seja (Xn)n(X_{n})_{n} uma sequência de variáveis aleatórias satisfazendo à condição de Lindeberg. Então, σn2sn20\frac{\sigma_{n}^{2}}{s_{n}^{2}}\to 0.

Omitimos a prova pois será um caso particular da Proposição 9.15.

Exemplo 9.13.

Seja (Xn)n(X_{n})_{n} uma sequência de variáveis aleatórias independentes, com X1𝒩(0,1)X_{1}\sim\mathcal{N}(0,1) e Xn𝒩(0,2n2)X_{n}\sim\mathcal{N}(0,2^{n-2}) para todo n2n\geqslant 2. Como sn2=2n1s^{2}_{n}=2^{n-1},

limnσn2sn2=limn2n22n1=12.\lim_{n\to\infty}\frac{\sigma^{2}_{n}}{s_{n}^{2}}=\lim_{n\to\infty}\frac{2^{n-% 2}}{2^{n-1}}=\frac{1}{2}.

Pela Proposição 9.12, a condição de Lindeberg não é satisfeita. Entretanto, vale (9.2), pois SnS_{n} tem distribuição normal para todo nn. ∎

O exemplo acima ilustra que a condição de Lindeberg não é necessária para que valha a conclusão do Teorema do Limite Central. O Teorema de Feller, que enunciaremos abaixo sem prova, diz que esse tipo de exemplo somente pode ocorrer quando σn2\sigma_{n}^{2} é responsável por uma fração não-desprezível de sn2s_{n}^{2}. A prova desse teorema encontra-se na Seção III.4 de [SHI96] ou na Seção XV.6 de [FEL71].

Teorema 9.14 (Teorema de Feller).

Seja (Xn)n(X_{n})_{n} uma sequência de variáveis aleatórias independentes. Se Sn𝔼Sn𝕍Snd𝒩(0,1)\frac{S_{n}-\mathbb{E}S_{n}}{\sqrt{\mathbb{V}S_{n}}}\overset{\smash{\mathrm{d}% }}{\rightarrow}\mathcal{N}(0,1) e σn2sn20\frac{\sigma^{2}_{n}}{s_{n}^{2}}\to 0 quando nn\to\infty, então a condição de Lindeberg é satisfeita.

Concluímos esta seção com a versão do Teorema de Lindeberg para arranjos triangulares de variáveis aleatórias. Para isso, a partir de agora consideremos uma família de variáveis aleatórias da forma (Xk,n)n,k=1,,n(X_{k,n})_{n\in\mathbb{N},k=1,\dots,n}. Definimos μk,n=𝔼Xk,n\mu_{k,n}=\mathbb{E}X_{k,n}, σk,n2=𝕍Xk,n\sigma^{2}_{k,n}=\mathbb{V}X_{k,n}, Sn=k=1nXk,nS_{n}=\sum_{k=1}^{n}X_{k,n} e sn2=𝕍Sns^{2}_{n}=\mathbb{V}S_{n}.

Dizemos que o arranjo (Xk,n)n,k(X_{k,n})_{n,k} satisfaz à condição de Lindeberg se

limn1sn2k=1n{|Xk,nμk,n|>εsn}(Xk,nμk,n)2d=0\lim_{n\to\infty}\frac{1}{s_{n}^{2}}\sum_{k=1}^{n}\int_{\{|X_{k,n}-\mu_{k,n}|>% \varepsilon s_{n}\}}\left(X_{k,n}-\mu_{k,n}\right)^{2}\,\mathrm{d}\mathbb{P}=0

para todo ε>0\varepsilon>0.

Observe que, dada uma sequência (Xn)n(X_{n})_{n\in\mathbb{N}} de variáveis aleatórias satisfazendo à condição de Lindeberg para sequências, definida no início desta seção, podemos definir a família (Zk,n)n,k(Z_{k,n})_{n,k} por Zk,n=XkZ_{k,n}=X_{k}, e esse arranjo satisfará à condição de Lindeberg para arranjos triangulares, definida logo acima. Assim, o Teorema 9.9 é corolário desse que enunciaremos e provaremos mais abaixo. Para isso, vamos precisar da seguinte generalização da Proposição 9.12.

Proposição 9.15.

Seja (Xk,n)n,k(X_{k,n})_{n,k} um arranjo triangular de variáveis aleatórias satisfazendo à condição de Lindeberg. Então,

limnmax1knσk,n2sn2=0.\lim_{n\to\infty}\max_{1\leqslant k\leqslant n}\frac{\sigma^{2}_{k,n}}{s_{n}^{% 2}}=0.
Demonstração.

Defina Yk,n=Xk,nμk,nsnY_{k,n}=\frac{X_{k,n}-\mu_{k,n}}{s_{n}} para k=1,,nk=1,\dots,n. Dado qualquer ε>0\varepsilon>0,

max1knσk,n2sn2\displaystyle\max_{1\leqslant k\leqslant n}\frac{\sigma^{2}_{k,n}}{s_{n}^{2}} =max1kn𝔼Yk,n2\displaystyle=\max_{1\leqslant k\leqslant n}\mathbb{E}Y^{2}_{k,n}
ε2+max1kn{|Yk,n|>ε}Yk,n2d\displaystyle\leqslant\varepsilon^{2}+\max_{1\leqslant k\leqslant n}\int_{\{|Y% _{k,n}|>\varepsilon\}}Y_{k,n}^{2}\,\mathrm{d}\mathbb{P}
ε2+k=1n{|Yk,n|>ε}Yk,n2d\displaystyle\leqslant\varepsilon^{2}+\sum_{k=1}^{n}\int_{\{|Y_{k,n}|>% \varepsilon\}}Y_{k,n}^{2}\,\mathrm{d}\mathbb{P}
=ε2+1sn2k=1n{|Xk,nμk,n|>εsn}(Xk,nμk,n)2d.\displaystyle=\varepsilon^{2}+\frac{1}{s_{n}^{2}}\sum_{k=1}^{n}\int_{\{|X_{k,n% }-\mu_{k,n}|>\varepsilon s_{n}\}}\left(X_{k,n}-\mu_{k,n}\right)^{2}\,\mathrm{d% }\mathbb{P}.

Como a condição de Lindeberg é satisfeita,

lim supnmax1knσk,n2sn2ε2,para todo ε>0,\limsup_{n\to\infty}\max_{1\leqslant k\leqslant n}\frac{\sigma^{2}_{k,n}}{s_{n% }^{2}}\leqslant\varepsilon^{2},\ \text{para todo }\varepsilon>0,

o que conclui a prova dessa proposição. ∎

Teorema 9.16 (Teorema de Lindeberg para arranjos triangulares).

Seja (Xk,n)n,k(X_{k,n})_{n,k} um arranjo triangular de variáveis aleatórias independentes. Se a condição de Lindeberg é satisfeita, então

Sn𝔼Sn𝕍Snd𝒩(0,1).\frac{S_{n}-\mathbb{E}S_{n}}{\sqrt{\mathbb{V}S_{n}}}\overset{\smash{\mathrm{d}% }}{\rightarrow}\mathcal{N}(0,1).
Demonstração.

Sem perda de generalidade, podemos supor que μk,n=0\mu_{k,n}=0 e sn=1s_{n}=1 para todos nn\in\mathbb{N} e k=1,,nk=1,\dots,n. Queremos mostrar que Snd𝒩(0,1)S_{n}\overset{\smash{\mathrm{d}}}{\rightarrow}\mathcal{N}(0,1). Pelo Teorema de Helly-Bray, é suficiente mostrar que 𝔼[f(Sn)]𝔼[f(N)]\mathbb{E}[f(S_{n})]\to\mathbb{E}[f(N)], para toda função f:f:\mathbb{R}\to\mathbb{R} tal que f,f,f′′,f′′′f,f^{\prime},f^{\prime\prime},f^{\prime\prime\prime} são contínuas e limitadas, onde N𝒩(0,1)N\sim\mathcal{N}(0,1). Fixe ff com tais propriedades.

Seja (Nk,n)n,k(N_{k,n})_{n,k} um arranjo triangular de variáveis aleatórias independentes entre si, independentes de (Xk,n)n,k(X_{k,n})_{n,k} e tais que Nk,n𝒩(0,σk,n2)N_{k,n}\sim\mathcal{N}(0,\sigma^{2}_{k,n}). Tomando um espaço produto, podemos supor que todas essas variáveis estão definidas no mesmo espaço de probabilidade que (Xn,k)n,k(X_{n,k})_{n,k}. Observe que, para todo nn\in\mathbb{N},

k=1nNk,n𝒩(0,1),\sum_{k=1}^{n}N_{k,n}\sim\mathcal{N}(0,1),

donde

𝔼[f(k=1nNk,n)]=𝔼[f(N)].\mathbb{E}\left[f\bigg{(}\sum_{k=1}^{n}N_{k,n}\bigg{)}\right]=\mathbb{E}[f(N)].

Fixado nn\in\mathbb{N}, para cada k=1,,nk=1,\dots,n, defina a variável

Zk,n=j=1k1Xj,n+j=k+1nNj,nZ_{k,n}=\sum_{j=1}^{k-1}X_{j,n}+\sum_{j=k+1}^{n}N_{j,n}

e observe que Zn,n+Xn,n=SnZ_{n,n}+X_{n,n}=S_{n} e Z1,n+N1,n𝒩(0,1)Z_{1,n}+N_{1,n}\sim\mathcal{N}(0,1). Observando também que Zk,n+Xk,n=Zk+1,n+Nk+1,nZ_{k,n}+X_{k,n}=Z_{k+1,n}+N_{k+1,n}, obtemos

|𝔼[f(Sn)]𝔼[f(N)]|\displaystyle\left|\mathbb{E}[f(S_{n})]-\mathbb{E}[f(N)]\right| =|𝔼[f(Zn,n+Xn,n)]𝔼[f(Z1,n+N1,n)]|\displaystyle=\left|\mathbb{E}\big{[}f(Z_{n,n}+X_{n,n})\big{]}-\mathbb{E}\big{% [}f(Z_{1,n}+N_{1,n})\big{]}\right|
=|k=1n𝔼[f(Zk,n+Xk,n)]𝔼[f(Zk,n+Nk,n)]|\displaystyle=\left|\sum_{k=1}^{n}\mathbb{E}\big{[}f\left(Z_{k,n}+X_{k,n}% \right)\big{]}-\mathbb{E}\big{[}f(Z_{k,n}+N_{k,n})\big{]}\right|
k=1n|𝔼[f(Zk,n+Xk,n)]𝔼[f(Zk,n+Nk,n)]|.\displaystyle\leqslant\sum_{k=1}^{n}\left|\mathclap{\phantom{\Big{|}}}\mathbb{% E}[f(Z_{k,n}+X_{k,n})]-\mathbb{E}[f(Z_{k,n}+N_{k,n})]\right|.

A ideia é mostrar que, ao trocarmos as variáveis da sequência (Xk,n)(X_{k,n}) pelas de (Nk,n)(N_{k,n}), uma de cada vez para k=1,,nk=1,\dots,n, a distância entre Zk,n+Xk,nZ_{k,n}+X_{k,n} e Zk,n+Nk,nZ_{k,n}+N_{k,n} será pequena, mesmo depois de somar sobre kk.

Defina g:g:\mathbb{R}\to\mathbb{R} como

g(h)=supx|f(x)f(x+h)f(x)hf′′(x)h22|.g(h)=\sup_{x\in\mathbb{R}}\ \left|f(x)-f(x+h)-f^{\prime}(x)h-\frac{f^{\prime% \prime}(x)h^{2}}{2}\right|.

Pela Fórmula de Taylor com resto de Lagrange de terceira ordem,

f(x)f(x+h)f(x)hf′′(x)2h2=f′′′(y)3!h3,f(x)-f(x+h)-f^{\prime}(x)h-\frac{f^{\prime\prime}(x)}{2}h^{2}=\frac{f^{\prime% \prime\prime}(y)}{3!}h^{3},

para algum y(xh,x+h)y\in(x-h,x+h). Como f′′′f^{\prime\prime\prime} é limitada, existe constante C>0C>0, tal que g(h)C|h|3g(h)\leqslant C|h|^{3} para todo hh\in\mathbb{R}.

Agora, pela fórmula de Taylor com resto de Lagrange de segunda ordem,

f(x)f(x+h)f(x)hf′′(x)2h2=f′′(y)f′′(x)2h2,f(x)-f(x+h)-f^{\prime}(x)h-\frac{f^{\prime\prime}(x)}{2}h^{2}=\frac{f^{\prime% \prime}(y)-f^{\prime\prime}(x)}{2}h^{2},

para algum y(xh,x+h)y\in(x-h,x+h). Novamente, como f′′f^{\prime\prime} é limitada, existe uma outra constante M>0M>0 tal que g(h)M|h|2g(h)\leqslant M|h|^{2} para todo hh\in\mathbb{R}. Essa cota é melhor que a anterior quando hh não é muito pequeno.

Por outro lado, a partir da definição de gg, podemos verificar que

|f(x+h1)f(x+h2)f(x)(h2h1)f′′(x)(h22h12)2|g(h1)+g(h2).\left|f(x+h_{1})-f(x+h_{2})-f^{\prime}(x)(h_{2}-h_{1})-\frac{f^{\prime\prime}(% x)(h_{2}^{2}-h_{1}^{2})}{2}\right|\leqslant g(h_{1})+g(h_{2}).

Aplicando à diferença das esperanças que queremos estimar, usaremos as cotas acima com x=Zk,nx=Z_{k,n}, h1=Xk,nh_{1}=X_{k,n}, e h2=Nk,nh_{2}=N_{k,n}. Da desigualdade acima,

|𝔼[f(Zk,n+Xk,n)f(Zk,n+Nk,n)]|𝔼[g(Xk,n)+g(Nk,n)]+\displaystyle\left|\mathbb{E}\left[f\left(Z_{k,n}+X_{k,n}\right)-f\left(Z_{k,n% }+N_{k,n}\right)\right]\right|\leqslant\mathbb{E}\left[g\left(X_{k,n}\right)+g% \left(N_{k,n}\right)\right]+\quad
+|𝔼[f(Zk,n)(Xk,nNk,n)]|+|𝔼[12f′′(Zk,n)(Xk,n2Nk,n2)]|.\displaystyle+\left|\mathbb{E}\left[f^{\prime}\left(Z_{k,n}\right)\left(X_{k,n% }-N_{k,n}\right)\right]\right|+\left|\mathbb{E}\left[\tfrac{1}{2}f^{\prime% \prime}\left(Z_{k,n}\right)\left(X^{2}_{k,n}-N^{2}_{k,n}\right)\right]\right|.

Observe que Zk,nZ_{k,n} é independente de Xk,nX_{k,n} e Nk,nN_{k,n}. Como 𝔼[Xk,nNk,n]=𝔼[Xk,n2Nk,n2]=0\mathbb{E}[X_{k,n}-N_{k,n}]=\mathbb{E}[X^{2}_{k,n}-N^{2}_{k,n}]=0, as parcelas envolvendo ff^{\prime} e f′′f^{\prime\prime} na estimativa acima são nulas. Portanto,

|𝔼[f(Sn)]𝔼[f(N)]|k=1n(𝔼[g(Xk,n)]+𝔼[g(Nk,n)]).\left|\mathbb{E}[f(S_{n})]-\mathbb{E}[f(N)]\right|\leqslant\sum_{k=1}^{n}\left% (\mathclap{\phantom{\big{|}}}\mathbb{E}[g(X_{k,n})]+\mathbb{E}[g(N_{k,n})]% \right).

Dessa forma, para concluir a demonstração basta mostrar que

limnk=1n𝔼[g(Xk,n)]=0 e limnk=1n𝔼[g(Nk,n)]=0.\lim_{n\to\infty}\sum_{k=1}^{n}\mathbb{E}[g(X_{k,n})]=0\quad\text{ e }\quad% \lim_{n\to\infty}\sum_{k=1}^{n}\mathbb{E}[g(N_{k,n})]=0.

Comecemos pelo primeiro limite. Seja ε>0\varepsilon>0. Vamos estimar separando valores de XX pequenos dos demais:

𝔼[g(Xk,n)]\displaystyle\mathbb{E}[g\left(X_{k,n}\right)] ={|Xk,n|ε}g(Xk,n)d+{|Xk,n|>ε}g(Xk,n)d\displaystyle=\int_{\{|X_{k,n}|\leqslant\varepsilon\}}g\left(X_{k,n}\right)\,% \mathrm{d}\mathbb{P}+\int_{\{|X_{k,n}|>\varepsilon\}}g\left(X_{k,n}\right)\,% \mathrm{d}\mathbb{P}
C{|Xk,n|ε}|Xk,n|3d+M{|Xk,n|>ε}Xk,n2d\displaystyle\leqslant\ C\int_{\{|X_{k,n}|\leqslant\varepsilon\}}|X_{k,n}|^{3}% \,\mathrm{d}\mathbb{P}+M\int_{\{|X_{k,n}|>\varepsilon\}}X_{k,n}^{2}\,\mathrm{d% }\mathbb{P}
εCΩXk,n2d+M{|Xk,n|>ε}Xk,n2d\displaystyle\leqslant\varepsilon C\int_{\Omega}X_{k,n}^{2}\,\mathrm{d}\mathbb% {P}+M\int_{\{|X_{k,n}|>\varepsilon\}}X_{k,n}^{2}\,\mathrm{d}\mathbb{P}
εCσk,n2+M{|Xk,n|>ε}Xk,n2d.\displaystyle\leqslant\varepsilon C\sigma_{k,n}^{2}+M\int_{\{|X_{k,n}|>% \varepsilon\}}X_{k,n}^{2}\,\mathrm{d}\mathbb{P}.

Na primeira desigualdade, utilizamos a cota g(h)C|h|3g(h)\leqslant C|h|^{3} para a primeira integral e g(h)Mh2g(h)\leqslant Mh^{2} para a segunda. Somando em kk, tomando o limite nn\to\infty e usando a condição de Lindeberg, obtemos

lim supnk=1n𝔼[g(Xk,n)]εC+Mlimnk=1n{|Xk,n|>ε}Xk,n2d=εC.\limsup_{n\to\infty}\sum_{k=1}^{n}\mathbb{E}[g(X_{k,n})]\leqslant\varepsilon C% +M\lim_{n\to\infty}\sum_{k=1}^{n}\int_{\{|X_{k,n}|>\varepsilon\}}X_{k,n}^{2}\,% \mathrm{d}\mathbb{P}=\varepsilon C.

Como a desigualdade acima é válida para todo ε>0\varepsilon>0,

limnk=1n𝔼[g(Xk,n)]=0.\lim_{n\to\infty}\sum_{k=1}^{n}\mathbb{E}[g\left(X_{k,n}\right)]=0.

Para a estimativa do segundo limite, com Nk,nN_{k,n} no lugar de Xk,nX_{k,n}, procedemos de modo idêntico e obtemos

limnk=1n𝔼[g(Nk,n)]εC+Mlimnk=1n{|Nk,n|>ε}Nk,n2d.\lim_{n\to\infty}\sum_{k=1}^{n}\mathbb{E}[g(N_{k,n})]\leqslant\varepsilon C+M% \lim_{n\to\infty}\sum_{k=1}^{n}\int_{\{|N_{k,n}|>\varepsilon\}}N_{k,n}^{2}\,% \mathrm{d}\mathbb{P}.

Apesar de não sabermos de antemão se (Nk,n)n,k(N_{k,n})_{n,k} satisfaz à condição de Lindeberg, podemos fazer a seguinte estimativa

k=1n{|Nk,n|>ε}Nk,n2d1εk=1n𝔼|Nk,n|3=𝔼|N|3εk=1nσk,n3\displaystyle\sum_{k=1}^{n}\int_{\{|N_{k,n}|>\varepsilon\}}N_{k,n}^{2}\,% \mathrm{d}\mathbb{P}\leqslant\frac{1}{\varepsilon}\sum_{k=1}^{n}\mathbb{E}|N_{% k,n}|^{3}=\frac{\mathbb{E}|N|^{3}}{\varepsilon}\sum_{k=1}^{n}\sigma_{k,n}^{3}
𝔼|N|3ε(max1knσk,n)k=1nσk,n2=𝔼|N|3ε(max1knσk,n)0,\displaystyle\leqslant\frac{\mathbb{E}|N|^{3}}{\varepsilon}\left(\max_{1% \leqslant k\leqslant n}\sigma_{k,n}\right)\sum_{k=1}^{n}\sigma_{k,n}^{2}=\frac% {\mathbb{E}|N|^{3}}{\varepsilon}\left(\max_{1\leqslant k\leqslant n}\sigma_{k,% n}\right)\to 0,

pois como vale a condição de Lindeberg para (Xk,n)n,k(X_{k,n})_{n,k}, podemos evocar a Proposição 9.15. Isto mostra que

limnk=1n𝔼[g(Nk,n)]=0,\lim_{n\to\infty}\sum_{k=1}^{n}\mathbb{E}[g(N_{k,n})]=0,

o que conclui a prova do Teorema de Lindeberg. ∎