10.1 Função geradora de momentos

Definição 10.1.

Seja XX uma variável aleatória. Define-se a função geradora de momentos de XX como a função MX:[0,+]M_{X}:\mathbb{R}\to[0,+\infty] dada por

MX(t)=𝔼[etX].M_{X}(t)=\mathbb{E}[e^{tX}].

Pelo Teorema 5.36, podemos calcular a função geradora de momentos por

MX(t)=xetx(X=x)M_{X}(t)=\sum_{x}e^{tx}\cdot\mathbb{P}(X=x)

se XX é discreta. Pelo Teorema 5.39,

MX(t)=etxfX(x)dxM_{X}(t)=\int_{-\infty}^{\infty}e^{tx}f_{X}(x)\,\mathrm{d}x

se XX é absolutamente contínua com densidade fXf_{X}.

Exemplo 10.2 (Bernoulli).

Se XBernoulli(p)X\sim\mathop{\mathrm{Bernoulli}}\nolimits(p), então

MX(t)\displaystyle M_{X}(t) =pet+1p=1+p(et1).\displaystyle=pe^{t}+1-p=1+p(e^{t}-1).\qed
Exemplo 10.3 (Geométrica).

Se XGeom(p)X\sim\mathop{\mathrm{Geom}}\nolimits(p), então

MX(t)\displaystyle M_{X}(t) =n=1etnp(1p)n1={pet+p1,t<log11p,+,tlog11p.\displaystyle=\sum_{n=1}^{\infty}e^{tn}p(1-p)^{n-1}=\begin{cases}\frac{p}{e^{-% t}+p-1},&t<\log\tfrac{1}{1-p},\\ +\infty,&t\geqslant\log\tfrac{1}{1-p}.\end{cases}\qed
Exemplo 10.4 (Poisson).

Se XPoisson(λ)X\sim\mathop{\mathrm{Poisson}}\nolimits(\lambda), então

MX(t)\displaystyle M_{X}(t) =n=0etneλλnn!=eλn=0(λet)nn!=eλeλet=eλ(et1).\displaystyle=\sum_{n=0}^{\infty}e^{tn}\frac{e^{-\lambda}\lambda^{n}}{n!}=e^{-% \lambda}\sum_{n=0}^{\infty}\frac{(\lambda e^{t})^{n}}{n!}=e^{-\lambda}e^{% \lambda e^{t}}=e^{\lambda(e^{t}-1)}.\qed
Proposição 10.5.

Se XX e YY são independentes, então

MX+Y(t)=MX(t)MY(t)M_{X+Y}(t)=M_{X}(t)\cdot M_{Y}(t)

para todo tt\in\mathbb{R}.

Demonstração.

Como XX e YY são independentes, etXe^{tX} e etYe^{tY} também o são, pela Observação 4.13. Logo, podemos escrever

MX+Y(t)=𝔼[et(X+Y)]=𝔼[etXetY]=𝔼[etX]𝔼[etY]=MX(t)MY(t).M_{X+Y}(t)=\mathbb{E}[e^{t(X+Y)}]=\mathbb{E}[e^{tX}\cdot e^{tY}]=\mathbb{E}[e^% {tX}]\mathbb{E}[e^{tY}]=M_{X}(t)\cdot M_{Y}(t).\qed
Exemplo 10.6 (Binomial).

Se XBinom(n,p)X\sim\mathop{\mathrm{Binom}}\nolimits(n,p), então XX é distribuída como a soma de nn variáveis X1,,XnX_{1},\dots,X_{n} independentes com distribuição Bernoulli(p)\mathop{\mathrm{Bernoulli}}\nolimits(p). Portanto,

MX(t)=MX1(t)MXn(t)=[1+p(et1)]n.M_{X}(t)=M_{X_{1}}(t)\cdots M_{X_{n}}(t)=[1+p(e^{t}-1)]^{n}.\qed

A proposição abaixo explica o porquê do nome função geradora de momentos.

Proposição 10.7.

Se MXM_{X} é finita em algum intervalo (ε,+ε)(-\varepsilon,+\varepsilon), então os momentos de XX podem ser obtidos através das derivadas de MXM_{X} por

𝔼Xk=MX(k)(0),k=1,2,3,.\mathbb{E}X^{k}=M_{X}^{(k)}(0),\quad k=1,2,3,\dots.
Demonstração.

Para lembrar da fórmula, fazemos informalmente

dkdtkMX(t)=dkdtk𝔼[etX]=𝔼[dkdtketX]=𝔼[XketX].\left.\tfrac{\mathrm{d}^{k}}{\mathrm{d}t^{k}}M_{X}(t)\right.=\left.\tfrac{% \mathrm{d}^{k}}{\mathrm{d}t^{k}}\,\mathbb{E}[e^{tX}]\right.=\mathbb{E}\left[% \left.\tfrac{\mathrm{d}^{k}}{\mathrm{d}t^{k}}\,e^{tX}\right.\right]=\mathbb{E}% [X^{k}e^{tX}].

No caso de XX ser uma variável aleatória simples, essa é a demonstração, pois a esperança é uma soma finita e podemos derivar dentro da soma. No caso geral, há que se justificar passagem da derivada para dentro da esperança.

Para continuar a demonstração, o leitor tem que ter passado pela Seção 5.3, pois vamos usar o Teorema 5.49.

Vamos mostrar, por indução em kk, que a fórmula acima vale para todo t(ε,+ε)t\in(-\varepsilon,+\varepsilon). Para k=0k=0, a identidade vale trivialmente. Suponhamos a identidade acima válida para algum k0k\in\mathbb{N}_{0}. Queremos mostrar que

ddt𝔼[XketX]=𝔼[Xk+1etX]\tfrac{\mathrm{d}}{\mathrm{d}t}\mathbb{E}[X^{k}e^{tX}]=\mathbb{E}[X^{k+1}e^{tX}] (10.8)

para todo t(ε,ε)t\in(-\varepsilon,\varepsilon). Sejam bb e δ\delta tais que 0<b<δ<ε0<b<\delta<\varepsilon. Definimos f(t,x)=xketxf(t,x)=x^{k}e^{tx}, de forma que tf(t,x)=xk+1etx\frac{\partial}{\partial t}f(t,x)=x^{k+1}e^{tx}. Observe que, para t[b,b]t\in[-b,b],

|tf(t,X)|=|Xk+1|etX|Xk+1|eb|X|Ceδ|X|C(eδX+eδX),\Big{\lvert}\tfrac{\partial}{\partial t}f(t,X)\Big{\rvert}=|X^{k+1}|\,e^{t\,X}% \leqslant|X^{k+1}|\,e^{b\,|X|}\leqslant Ce^{\delta\,|X|}\leqslant C(e^{\delta X% }+e^{-\delta X}),

onde CC depende de kk, bb e δ\delta. Como o último termo das desigualdades acima é integrável, pelo Teorema 5.49 temos (10.8) para todo t[b,b]t\in[-b,b]. Como b<εb<\varepsilon é arbitrário, o mesmo vale para todo t(ε,ε)t\in(-\varepsilon,\varepsilon), o que conclui a prova. ∎

Nos exemplos abaixo, ilustramos como calcular 𝔼X\mathbb{E}X e 𝕍X\mathbb{V}X para algumas distribuições cujas funções geradoras de momento já nos são conhecidas.

Exemplo 10.9 (Geométrica).

Se XGeom(p)X\sim\mathop{\mathrm{Geom}}\nolimits(p), então

𝔼X=MX(0)=1p,𝔼X2=MX′′(0)=2p21p,𝕍X=𝔼X2(𝔼X)2=1pp2.\mathbb{E}X=M_{X}^{\prime}(0)=\tfrac{1}{p},\ \mathbb{E}X^{2}=M_{X}^{\prime% \prime}(0)=\tfrac{2}{p^{2}}-\tfrac{1}{p},\ \mathbb{V}X=\mathbb{E}X^{2}-(% \mathbb{E}X)^{2}=\tfrac{1-p}{p^{2}}.\qed
Exemplo 10.10 (Poisson).

Se XPoisson(λ)X\sim\mathop{\mathrm{Poisson}}\nolimits(\lambda), então

𝔼X=MX(0)=λ,𝔼X2=MX′′(0)=λ2+λ,𝕍X=𝔼X2(𝔼X)2=λ.\mathbb{E}X=M_{X}^{\prime}(0)=\lambda,\ \mathbb{E}X^{2}=M_{X}^{\prime\prime}(0% )=\lambda^{2}+\lambda,\ \mathbb{V}X=\mathbb{E}X^{2}-(\mathbb{E}X)^{2}=\lambda.\qed

O teorema abaixo nos diz que a função geradora de momentos determina a distribuição de modo único. A demonstração envolve aspectos técnicos acima dos nossos objetivos, e de fato é difícil encontrá-la em livros-texto (veja a Seção 30 de [BIL95]).

Teorema 10.11 (Unicidade).

Dadas XX e YY variáveis aleatórias, se existe ε>0\varepsilon>0 tal que MX(t)=MY(t)<M_{X}(t)=M_{Y}(t)<\infty para todo t(ε,+ε)t\in(-\varepsilon,+\varepsilon), então XYX\sim Y.

Exemplo 10.12 (Soma de variáveis Poisson independentes).

Se XPoisson(λ)X\sim\mathop{\mathrm{Poisson}}\nolimits(\lambda) e YPoisson(μ)Y\sim\mathop{\mathrm{Poisson}}\nolimits(\mu) são independentes, então

MX+Y(t)=MX(t)MY(t)=eλ(et1)eμ(et1)=e(λ+μ)(et1)=MZ(t),M_{X+Y}(t)=M_{X}(t)\cdot M_{Y}(t)=e^{\lambda(e^{t}-1)}e^{\mu(e^{t}-1)}=e^{(% \lambda+\mu)(e^{t}-1)}=M_{Z}(t),

onde ZPoisson(λ+μ)Z\sim\mathop{\mathrm{Poisson}}\nolimits(\lambda+\mu). Portanto, X+YPoisson(λ+μ)X+Y\sim\mathop{\mathrm{Poisson}}\nolimits(\lambda+\mu). ∎

Concluímos esta seção com uma generalização da Proposição 10.7 para o caso k=1k=1, que considera apenas a derivada lateral.

Proposição 10.13.

Se MXM_{X} é finita em algum intervalo (ε,0](-\varepsilon,0], então a esperança de XX pode ser obtida como derivada lateral

𝔼X=MX(0).\mathbb{E}X=M_{X}^{\prime}(0^{-}).
Demonstração.

A prova exige familiaridade com as Seções 5.35.4. Sem perda de generalidade, podemos supor que ε>1\varepsilon>1. Seja (tn)n(t_{n})_{n} uma sequência de números reais estritamente crescente, tal que t1=1t_{1}=-1 e tn0t_{n}\to 0. Temos que mostrar que

𝔼[etnX]1tn𝔼X.\frac{\mathbb{E}[e^{t_{n}X}]-1}{t_{n}}\to\mathbb{E}X.

Por clareza, vamos considerar primeiro dois casos particulares. Suponhamos inicialmente que X0X\geqslant 0 q.c. Observe que, se X0X\geqslant 0, então a sequência (etnX1tn)n\big{(}\frac{e^{t_{n}X}-1}{t_{n}}\big{)}_{n} é não-decrescente, como consequência do fato de que função que leva tt em etXe^{tX} é convexa. Pelo Teorema da Convergência Monótona, obtemos o limite desejado, provando a proposição no caso não-negativo, incluindo o caso em que 𝔼X=+\mathbb{E}X=+\infty.

Suponhamos agora que X0X\leqslant 0 q.c. Observamos que, se X0X\leqslant 0, então a sequência acima é não-crescente, também por convexidade. Assim, os termos da sequência são dominados pelo primeiro termo, 1eX1-e^{-X}, que é integrável por hipótese. Pelo Teorema da Convergência Dominada, obtemos o limite desejado também neste caso.

Finalmente, consideramos o caso geral. Aplicando os casos anteriores às esperanças condicionais, obtemos

𝔼[etnX|X<0]1tn𝔼[X|X<0]\frac{\mathbb{E}[e^{t_{n}X}|X<0]-1}{t_{n}}\to\mathbb{E}[X|X<0]

e

𝔼[etnX|X0]1tn𝔼[X|X0].\frac{\mathbb{E}[e^{t_{n}X}|X\geqslant 0]-1}{t_{n}}\to\mathbb{E}[X|X\geqslant 0].

Usando novamente a hipótese, temos que

(X<0)𝔼[X|X<0]=𝔼X𝔼[eX]<,\mathbb{P}(X<0)\,\mathbb{E}[X|X<0]=\mathbb{E}X^{-}\leqslant\mathbb{E}[e^{-X}]<\infty,

logo podemos combinar os limites acima e obter

𝔼[etnX]1tn\displaystyle\frac{\mathbb{E}[e^{t_{n}X}]-1}{t_{n}} =(X<0)𝔼[etnX|X<0]+(X0)𝔼[etnX|X0]1tn\displaystyle=\frac{\mathbb{P}(X<0)\mathbb{E}[e^{t_{n}X}|X<0]+\mathbb{P}(X% \geqslant 0)\mathbb{E}[e^{t_{n}X}|X\geqslant 0]-1}{t_{n}}
(X<0)𝔼[X|X<0]+(X0)𝔼[X|X0]=𝔼X,\displaystyle\to\mathbb{P}(X<0)\mathbb{E}[X|X<0]+\mathbb{P}(X\geqslant 0)% \mathbb{E}[X|X\geqslant 0]=\mathbb{E}X,

onde também usamos a Proposição 5.55, concluindo esta prova. ∎