9.1 Teorema do Limite Central

Continuando a discussão do preâmbulo deste capítulo, não é difícil adivinhar a escala em que ocorre essa flutuação. De fato, sabemos que 𝔼Sn=n𝔼X1=nμ\mathbb{E}S_{n}=n\,\mathbb{E}X_{1}=n\mu e, denotando σ2=𝕍X1\sigma^{2}=\mathbb{V}X_{1}, temos 𝕍Sn=n𝕍X1=nσ2\mathbb{V}S_{n}=n\,\mathbb{V}X_{1}=n\sigma^{2}, logo

σ(Sn)=σn.\sigma(S_{n})=\sigma\sqrt{n}.

Ou seja, a esperança da média observada é μ\mu e seu desvio-padrão é σn\frac{\sigma}{\sqrt{n}}. Isso é uma indicação de que tipicamente as flutuações assumem valores da ordem σn\frac{\sigma}{\sqrt{n}}. Vamos supor que esse argumento está correto para tentar entender qual poderia ser o comportamento estatístico das flutuações nessa escala. Primeiro escrevemos

Snn=μ+σnYn,\frac{S_{n}}{n}=\mu+\frac{\sigma}{\sqrt{n}}\,Y_{n},

de forma que 𝔼Yn=0\mathbb{E}Y_{n}=0 e 𝕍Yn=1\mathbb{V}Y_{n}=1. Será que a distribuição de YnY_{n} se aproxima de alguma distribuição que não depende de nn? Observe que, se Xn𝒩(μ,σ2)X_{n}\sim\mathcal{N}(\mu,\sigma^{2}), vimos na Seção 4.3 que Sn𝒩(nμ,nσ2)S_{n}\sim\mathcal{N}(n\mu,n\sigma^{2}), logo Yn𝒩(0,1)Y_{n}\sim\mathcal{N}(0,1). Ou seja, pelo menos neste caso, Ynd𝒩(0,1)Y_{n}\overset{\smash{\mathrm{d}}}{\rightarrow}\mathcal{N}(0,1). Uma das razões pelas quais a distribuição normal é tão importante é que essa aproximação vale para qualquer distribuição com segundo momento finito.

Teorema 9.1 (Teorema do Limite Central, caso i.i.d.).

Seja (Xn)n(X_{n})_{n\in\mathbb{N}} uma sequência de variáveis aleatórias i.i.d. não-degeneradas com segundo momento finito. Tome Sn=X1+X2++XnS_{n}=X_{1}+X_{2}+\dots+X_{n}. Então,

Sn𝔼Sn𝕍Snd𝒩(0,1).\frac{S_{n}-\mathbb{E}S_{n}}{\sqrt{\mathbb{V}S_{n}}}\overset{\smash{\mathrm{d}% }}{\rightarrow}\mathcal{N}(0,1). (9.2)

Podemos reescrever o limite acima e obter, informalmente,

Snnμ+σnZ,\frac{S_{n}}{n}\approx\mu+\frac{\sigma}{\sqrt{n}}\,Z,

com Z𝒩(0,1)Z\sim\mathcal{N}(0,1). Ou seja, a escala em que a média observada Snn\frac{S_{n}}{n} flutua em torno de μ\mu é de fato dada por σn\frac{\sigma}{\sqrt{n}}. Ademais, seu comportamento nessa escala possui forte regularidade estatística, e sua distribuição se aproxima de uma normal padrão. Dito de outra forma, a distribuição de SnS_{n} pode ser aproximada por uma normal com mesma média e variância: Sn𝒩(𝔼Sn,𝕍Sn).S_{n}\approx\mathcal{N}(\mathbb{E}S_{n},\mathbb{V}S_{n}).

Enfatizamos que o teorema acima é muito abrangente, pois ele vale para qualquer distribuição com segundo momento finito. Ainda assim, ele não dá uma ideia do verdadeiro nível de generalidade com que o fenômeno de aproximação à normal é observado na prática. Apesar de a hipótese 𝔼Xk2<\mathbb{E}X_{k}^{2}<\infty ser necessária para que (9.2) faça sentido, e abandonar a hipótese de independência estaria acima dos nossos objetivos, podemos questionar a necessidade de as variáveis da sequência (Xn)n(X_{n})_{n} terem a mesma distribuição.

Como regra geral, se nn é grande e cada uma das XkX_{k} é pequena se comparada a 𝕍Sn\sqrt{\mathbb{V}S_{n}}, então a distribuição de Sn𝔼Sn𝕍Sn\frac{S_{n}-\mathbb{E}S_{n}}{\sqrt{\mathbb{V}S_{n}}} é aproximadamente uma normal padrão. Esse fenômeno ocorre em diversas situações, quando uma grandeza é determinada pela contribuição de muitíssimos fatores, cada um deles pequeno se comparado com o todo, e ocorre mesmo que esses fatores não tenham a mesma distribuição. Por isso a distribuição normal surge em tantos contextos: erros de medidas em experimentos feitos com cuidado profissional, altura das pessoas em uma população homogênea em sexo e etnia, erros de horário em relógios de alto padrão, etc…

O enunciado abaixo, ainda simples, vai além do caso de distribuições idênticas, aceitamos em troca a hipótese de terceiros momentos limitados.

Teorema 9.3.

Seja (Xn)n(X_{n})_{n\in\mathbb{N}} uma sequência de variáveis aleatórias independentes tais que, para algum ε>0\varepsilon>0 e algum M<M<\infty, vale 𝔼|Xn3|M\mathbb{E}|X_{n}^{3}|\leqslant M e 𝕍Xnε\mathbb{V}X_{n}\geqslant\varepsilon para todo nn. Então,

Sn𝔼Sn𝕍Snd𝒩(0,1).\frac{S_{n}-\mathbb{E}S_{n}}{\sqrt{\mathbb{V}S_{n}}}\overset{\smash{\mathrm{d}% }}{\rightarrow}\mathcal{N}(0,1).

O enunciado acima é um corolário do Teorema do Limite Central de Lyapunov, que será visto na Seção 9.3. Esse teorema é suficiente para a grande maioria das aplicações práticas. Sua prova é simples e bastante transparente.

Ainda sem questionar a hipótese de independência, poderíamos perguntar-nos se as hipóteses do Teorema de Lyapunov com respeito a variância e terceiro momento são realmente necessárias. A resposta é dada pelo Teorema do Limite Central de Lindeberg, visto na Seção 9.4. Ali vamos demonstrar o limite (9.2) sob hipóteses mínimas. Concluímos este capítulo com a Seção 9.5, onde provamos os Teoremas de Slutsky e o Método Delta, que têm importantes aplicações em Estatística.

Se ao Teorema 9.1 agregarmos a hipótese de terceiro momento finito, ele passa a ser um corolário do Teorema 9.3. Sem essa hipótese, será obtido como aplicação do Teorema do Limite Central de Lindeberg na Seção 9.4, ou como aplicação do Teorema da Continuidade de Lévy para funções características, que será vista mais adiante, no Capítulo 10.

O caso mais simples do Teorema do Limite Central é para distribuição de Bernoulli, conhecido como Teorema de De Moivre-Laplace. Sua demonstração requer apenas conhecimentos de Cálculo e alguma perseverança com contas, e este será o primeiro que veremos neste capítulo.

As três seções seguintes são independentes entre si, é possível ler qualquer uma delas mesmo tendo saltado as anteriores.


Função de probabilidade de
Figura 9.1: Função de probabilidade de Snnμσn\smash{\frac{S_{n}-n\mu}{\sigma\sqrt{n}}} para SnS_{n} com distribuições Binom(4,12)\mathop{\mathrm{Binom}}\nolimits(4,\frac{1}{2})Binom(16,12)\mathop{\mathrm{Binom}}\nolimits(16,\frac{1}{2}) para valores entre 3-3 e 33. A área de cada retângulo é dada pela função de probabilidade. O terceiro gráfico é a função de densidade de uma normal padrão, assim como as linhas pontilhadas. O quarto gráfico representa as frequências relativas de Snnμσn\smash{\frac{S_{n}-n\mu}{\sigma\sqrt{n}}} para SnS_{n} com distribuição Binom(16,12)\mathop{\mathrm{Binom}}\nolimits(16,\frac{1}{2}), em um experimento real com 200200 amostras.