10.2 Função característica

Do ponto de vista teórico, a função característica é bem mais robusta e funcional que a função geradora de momentos: está definida para qualquer distribuição; sempre determina a distribuição; determina também a convergência em distribuição; não bastasse, ainda gera momentos. Entretanto, a função característica envolve a manipulação de números complexos. Ressaltamos, porém, que o estudo de funções características não requer conhecimentos de cálculo em uma variável complexa. Isso porque as integrais são calculadas em dx\mathrm{d}x para xx\in\mathbb{R} e não em dz\mathrm{d}z para caminhos γ\gamma\subseteq\mathbb{C}.

Definição 10.14 (Variável aleatória complexa).

Uma variável aleatória complexa é uma função Z:ΩZ:\Omega\to\mathbb{C} tal que Z=X+iYZ=X+i\,Y, onde XX e YY são variáveis aleatórias reais. Se XX e YY são integráveis, dizemos que ZZ é integrável e definimos

𝔼Z=𝔼X+i𝔼Y.\mathbb{E}Z=\mathbb{E}X+i\,\mathbb{E}Y.

A integração de funções complexas em domínios reais pode ser feita, para todos os fins práticos, como no caso real. Ou seja, se F:F:\mathbb{R}\to\mathbb{C} satisfaz ddxF(x)=f(x)\frac{\mathrm{d}}{\mathrm{d}x}F(x)=f(x) para x[a,b]x\in[a,b], então

abf(x)dx=F(b)F(a).\int_{a}^{b}f(x)\,\mathrm{d}x=F(b)-F(a). (10.15)

Vamos utilizar a fórmula de Euler, que define

eiy=cosy+isenye^{iy}=\cos y+i\mathop{\mathrm{sen}}\nolimits y

para yy\in\mathbb{R}. Usaremos sem demonstração os seguintes fatos:

ez=nznn!,ez+w=ezew,e^{z}=\sum_{n}\frac{z^{n}}{n!},\qquad e^{z+w}=e^{z}e^{w},
(eg)=egg,(1+znn)nez se znz,(e^{g})^{\prime}=e^{g}g^{\prime},\qquad\left(1+\frac{z_{n}}{n}\right)^{n}\to e% ^{z}\text{ se }z_{n}\to z,

onde z,w,znz,w,z_{n}\in\mathbb{C}.

Proposição 10.16.

Se ZZ e WW são variáveis aleatórias complexas integráveis, então Z+WZ+W é integrável com 𝔼[Z+W]=𝔼Z+𝔼W\mathbb{E}[Z+W]=\mathbb{E}Z+\mathbb{E}W, e para zz\in\mathbb{C} tem-se zZzZ integrável com 𝔼[zZ]=z𝔼Z\mathbb{E}[zZ]=z\,\mathbb{E}Z. Se, além disso, ZZ e WW são independentes, então ZWZW é integrável com 𝔼[ZW]=𝔼Z𝔼W\mathbb{E}[ZW]=\mathbb{E}Z\cdot\mathbb{E}W.

Demonstração.

Sejam z=x+iyz=x+iy\in\mathbb{C}, com x,yx,y\in\mathbb{R}, e Z=X+iY,W=A+iBZ=X+i\,Y,\ W=A+iB com X,Y,AX,Y,A e BB variáveis aleatórias reais integráveis. Observe que Z+W=(X+A)+i(Y+B)Z+W=(X+A)+i(Y+B) e zZ=(xXyY)+i(xY+yX)zZ=(xX-yY)+i(xY+yX). Logo, a integrabilidade de Z+WZ+W e zZzZ segue da integrabilidade de suas respectivas partes real e imaginária. Portanto,

𝔼[Z+W]=𝔼[X+A]+i𝔼[Y+B]=(𝔼X+i𝔼Y)+(𝔼A+i𝔼B)=𝔼Z+𝔼W\mathbb{E}[Z+W]=\mathbb{E}[X+A]+i\,\mathbb{E}[Y+B]=(\mathbb{E}X+i\,\mathbb{E}Y% )+(\mathbb{E}A+i\,\mathbb{E}B)=\mathbb{E}Z+\mathbb{E}W

e

𝔼[zZ]=𝔼[xXyY]+i𝔼[xY+yX]=(x+iy)𝔼X+i(x+iy)𝔼Y=z𝔼Z.\mathbb{E}[zZ]=\mathbb{E}[xX-yY]+i\,\mathbb{E}[xY+yX]=(x+iy)\mathbb{E}X+i(x+iy% )\mathbb{E}Y=z\,\mathbb{E}Z.

Se ZZ e WW são independentes, então (X,Y)(X,Y) e (A,B)(A,B) são independentes. Logo

𝔼[ZW]\displaystyle\mathbb{E}[ZW] =𝔼[XAYB]+i𝔼[XB+YA]\displaystyle=\mathbb{E}[XA-YB]+i\,\mathbb{E}[XB+YA]
=(𝔼X𝔼A𝔼Y𝔼B)+i(𝔼X𝔼B+𝔼Y𝔼A)\displaystyle=\left(\mathbb{E}X\cdot\mathbb{E}A-\mathbb{E}Y\cdot\mathbb{E}B% \right)+i\left(\mathbb{E}X\cdot\mathbb{E}B+\mathbb{E}Y\cdot\mathbb{E}A\right)
=(𝔼X+i𝔼Y)(𝔼A+i𝔼B)=𝔼Z𝔼W,\displaystyle=\ \left(\mathbb{E}X+i\,\mathbb{E}Y\right)\left(\mathbb{E}A+i\,% \mathbb{E}B\right)=\mathbb{E}Z\cdot\mathbb{E}W,

onde a hipótese de independência foi usada na segunda igualdade. ∎

Proposição 10.17.

Se 𝔼|Z|<\mathbb{E}|Z|<\infty, então ZZ é integrável e |𝔼Z|𝔼|Z||\mathbb{E}Z|\leqslant\mathbb{E}|Z|.

Demonstração.

Escreva Z=X+iYZ=X+i\,Y. Como |X||Z||X|\leqslant|Z| e |Y||Z||Y|\leqslant|Z|, segue que XX e YY são integráveis, logo ZZ é integrável. Se 𝔼Z\mathbb{E}Z\in\mathbb{R}, então |𝔼Z|=|𝔼X|𝔼|X|𝔼|Z||\mathbb{E}Z|=|\mathbb{E}X|\leqslant\mathbb{E}|X|\leqslant\mathbb{E}|Z|. No caso geral, escrevemos |𝔼Z|=w𝔼Z|\mathbb{E}Z|=w\,\mathbb{E}Z, com |w|=1|w|=1, de forma que 𝔼[wZ]=w𝔼Z=|𝔼Z|\mathbb{E}[wZ]=w\,\mathbb{E}Z=|\mathbb{E}Z|\in\mathbb{R} e, pelo caso anterior, |𝔼Z|=|w𝔼Z|=|𝔼[wZ]|𝔼|wZ|=𝔼|Z||\mathbb{E}Z|=|w\,\mathbb{E}Z|=|\mathbb{E}[wZ]|\leqslant\mathbb{E}|wZ|=\mathbb% {E}|Z|. ∎

A seguir definiremos a função característica de uma variável aleatória.

Definição 10.18 (Função característica).

A função característica de uma variável aleatória XX, denotada por φX\varphi_{X}, é a função φX:\varphi_{X}:\mathbb{R}\to\mathbb{C} definida como

φX(t)=𝔼[eitX]=𝔼[cos(tX)]+i𝔼[sen(tX)],t.\varphi_{X}(t)=\mathbb{E}[e^{itX}]=\mathbb{E}[\cos(tX)]+i\mathbb{E}[\mathop{% \mathrm{sen}}\nolimits(tX)],\quad t\in\mathbb{R}.

Observe que a função característica de uma variável aleatória depende de fato apenas de sua distribuição. Quando a variável for absolutamente contínua com função densidade ff, sua função característica é simplesmente a transformada de Fourier da função ff.

Observação 10.19.

Como |eitX|=1|e^{itX}|=1, φX(t)\varphi_{X}(t) está definida para todo tt\in\mathbb{R}. ∎

Exemplo 10.20 (Uniforme).

Se X𝒰[a,b]X\sim\mathcal{U}[a,b], então

φX(t)\displaystyle\varphi_{X}(t) =𝔼[eitX]=𝔼[cos(tX)]+i𝔼[sen(tX)]\displaystyle=\mathbb{E}[e^{itX}]=\mathbb{E}[\cos(tX)]+i\,\mathbb{E}[\mathop{% \mathrm{sen}}\nolimits(tX)]
=abcos(tx)1badx+iabsen(tx)1badx\displaystyle=\int_{a}^{b}\cos(tx)\frac{1}{b-a}\mathrm{d}x+i\int_{a}^{b}% \mathop{\mathrm{sen}}\nolimits(tx)\frac{1}{b-a}\mathrm{d}x
=sen(tb)sen(ta)t(ba)icos(tb)cos(ta)t(ba)\displaystyle=\frac{\mathop{\mathrm{sen}}\nolimits(tb)-\mathop{\mathrm{sen}}% \nolimits(ta)}{t(b-a)}-i\frac{\cos(tb)-\cos(ta)}{t(b-a)}
=ieitb+ieitat(ba)=eitbeitait(ba).\displaystyle=\frac{-ie^{itb}+ie^{ita}}{t(b-a)}=\frac{e^{itb}-e^{ita}}{it(b-a)}.

Ou, usando (10.15):

φX(t)\displaystyle\varphi_{X}(t) =abeitxbadx=eitbeitait(ba).\displaystyle=\int_{a}^{b}\frac{e^{itx}}{b-a}\mathrm{d}x=\frac{e^{itb}-e^{ita}% }{it(b-a)}.\qed
Exemplo 10.21 (Poisson).

Se XPoisson(λ)X\sim\mathop{\mathrm{Poisson}}\nolimits(\lambda), então:

φX(t)\displaystyle\varphi_{X}(t) =𝔼[eitX]=n=0eitneλλnn!=eλn=0(eitλ)nn!=eλeeitλ=eλ(eit1).\displaystyle=\mathbb{E}[e^{itX}]=\sum_{n=0}^{\infty}e^{itn}\frac{e^{-\lambda}% \lambda^{n}}{n!}=e^{-\lambda}\sum_{n=0}^{\infty}\frac{({e^{it}\lambda})^{n}}{n% !}=e^{-\lambda}e^{e^{it}\lambda}=e^{\lambda(e^{it}-1)}.\qed
Exemplo 10.22 (Geométrica).

Se XGeom(p)X\sim\mathop{\mathrm{Geom}}\nolimits(p), então

φX(t)\displaystyle\varphi_{X}(t) =n=1eitnp(1p)n1=eitpm=0[(eit)(1p)]m=peit+p1.\displaystyle=\sum_{n=1}^{\infty}e^{itn}\cdot p(1-p)^{n-1}=e^{it}p\sum_{m=0}^{% \infty}[(e^{it})(1-p)]^{m}=\frac{p}{e^{-it}+p-1}.\qed
Proposição 10.23.

Para todo tt\in\mathbb{R}, vale |φX(t)|1|\varphi_{X}(t)|\leqslant 1. Além disso, φ(0)=1\varphi(0)=1. Ademais, φaX+b(t)=eitbφX(at)\varphi_{aX+b}(t)=e^{itb}\varphi_{X}(at) para a,ba,b\in\mathbb{R}.

Demonstração.

Basta observar que

|φX(t)|=|𝔼[eitX]|𝔼|eitX|=𝔼[sen2(tX)+cos2(tX)]=1,|\varphi_{X}(t)|=|\mathbb{E}[e^{itX}]|\leqslant\mathbb{E}|e^{itX}|=\mathbb{E}[% \mathop{\mathrm{sen}}\nolimits^{2}(tX)+\cos^{2}(tX)]=1,
φX(0)=𝔼[e0]=1,\varphi_{X}(0)=\mathbb{E}[e^{0}]=1,

e

φaX+b(t)=𝔼[eit(aX+b)]=eitb𝔼[eitaX]=eitbφX(at).\varphi_{aX+b}(t)=\mathbb{E}[e^{it(aX+b)}]=e^{itb}\,\mathbb{E}[e^{itaX}]=e^{% itb}\varphi_{X}(at).\qed
Proposição 10.24 (Independência).

Se XX e YY são independentes, então

φX+Y(t)=φX(t)φY(t)\varphi_{X+Y}(t)=\varphi_{X}(t)\cdot\varphi_{Y}(t)

para todo tt\in\mathbb{R}.

Demonstração.

Observe que, se XX e YY são independentes, então eitXe^{itX} e eitYe^{itY} também o são. Logo podemos escrever

φX+Y(t)=𝔼[eit(X+Y)]=𝔼[eitXeitY]=φX(t)φY(t),\varphi_{X+Y}(t)=\mathbb{E}[e^{it(X+Y)}]=\mathbb{E}\left[e^{itX}e^{itY}\right]% =\varphi_{X}(t)\cdot\varphi_{Y}(t),

onde a independência foi utilizada na última igualdade. ∎

Proposição 10.25 (Cálculo de Momentos).

Se 𝔼|Xk|<\mathbb{E}|X^{k}|<\infty, então φX\varphi_{X} tem kk-ésima derivada, e ademais

φX(k)(0)=ik𝔼Xk.\varphi^{(k)}_{X}(0)=i^{k}\,\mathbb{E}X^{k}.
Demonstração.

Assim como fizemos para a função geradora de momentos, gostaríamos de derivar dentro da esperança de modo que possamos escrever

φX(k)(t)=𝔼[ikXkeitX],\varphi^{(k)}_{X}(t)=\mathbb{E}[i^{k}X^{k}e^{itX}], (10.26)

obtendo assim φX(k)(0)=ik𝔼Xk\varphi^{(k)}_{X}(0)=i^{k}\,\mathbb{E}X^{k}. Vamos mostrar, por indução em kk, que, se 𝔼|Xk|<\mathbb{E}|X^{k}|<\infty, então vale (10.26) para todo tt\in\mathbb{R}.

O caso k=0k=0 é trivial. Suponha que a afirmação vale para algum kk, e seja XX tal que 𝔼|Xk+1|<\mathbb{E}|X^{k+1}|<\infty. Observe que 𝔼|Xk|<\mathbb{E}|X^{k}|<\infty, pois |xk|1+|xk+1||x^{k}|\leqslant 1+|x^{k+1}|, logo vale (10.26). Defina f(t,x)=ikXkeitxf(t,x)=i^{k}X^{k}e^{itx}. Observe que

|tf(t,X)|=|Xk+1|eit|X||Xk+1|,\Big{\lvert}\tfrac{\partial}{\partial t}f(t,X)\Big{\rvert}=|X^{k+1}|\,e^{it\,|% X|}\leqslant|X^{k+1}|,

e este último é integrável por hipótese. Pelo Teorema 5.49,

φX(k+1)(t)=ddtφX(k)(t)=ddt𝔼[ikXkeitX]=𝔼[ik+1Xk+1eitX]\varphi^{(k+1)}_{X}(t)=\tfrac{\mathrm{d}}{\mathrm{d}t}\varphi^{(k)}_{X}(t)=% \tfrac{\mathrm{d}}{\mathrm{d}t}\mathbb{E}[i^{k}X^{k}\,e^{itX}]=\mathbb{E}[i^{k% +1}X^{k+1}\,e^{itX}]

para todo tt\in\mathbb{R}, o que conclui a prova por indução. ∎

Exemplo 10.27 (Normal).

Se X𝒩(0,1)X\sim\mathcal{N}(0,1), então φX(t)=et22\varphi_{X}(t)=e^{-\frac{t^{2}}{2}}. Usando (10.26), podemos derivar dentro da integral, e integrando por partes obtemos

φX(t)=+ixeitxx222πdx=+i2teitxx222πdx=tφX(t).\varphi^{\prime}_{X}(t)=\int_{-\infty}^{+\infty}\frac{ixe^{itx-\frac{x^{2}}{2}% }}{\sqrt{2\pi}}\mathrm{d}x=\int_{-\infty}^{+\infty}\frac{i^{2}te^{itx-\frac{x^% {2}}{2}}}{\sqrt{2\pi}}\mathrm{d}x=-t\,\varphi_{X}(t).

As soluções da equação φX(t)=tφX(t)t\varphi^{\prime}_{X}(t)=-t\,\varphi_{X}(t)\ \forall t\in\mathbb{R} são dadas por φX(t)=cet22\varphi_{X}(t)=c\,e^{-\frac{t^{2}}{2}}, com cc\in\mathbb{C}. Avaliando no ponto t=0t=0, obtemos φX(t)=et22\varphi_{X}(t)=e^{-\frac{t^{2}}{2}}, como anunciado acima.

Ademais, se X𝒩(μ,σ2)X\sim\mathcal{N}(\mu,\sigma^{2}), então φX(t)=eitμσ2t22\varphi_{X}(t)=e^{it\mu-\frac{\sigma^{2}t^{2}}{2}} pela Proposição 10.23. ∎

Corolário 10.28 (Expansão de Taylor).

Se 𝔼|Xk|<\mathbb{E}|X^{k}|<\infty, então

φX(t)\displaystyle\varphi_{X}(t) =φX(0)+φX(0)t+φX′′(0)t22+φX′′′(0)t36++φX(k)tkk!+rk(t)\displaystyle=\varphi_{X}(0)+\varphi_{X}^{\prime}(0)\cdot t+\varphi_{X}^{% \prime\prime}(0)\,\frac{t^{2}}{2}+\varphi_{X}^{\prime\prime\prime}(0)\,\frac{t% ^{3}}{6}+\cdots+\varphi_{X}^{(k)}\,\frac{t^{k}}{k!}+r_{k}(t)
=1+i𝔼Xt𝔼X22t2i𝔼X36t3++ik𝔼Xkk!tk+rk(t),\displaystyle=1+i\mathbb{E}X\cdot t-\frac{\mathbb{E}X^{2}}{2}t^{2}-i\frac{% \mathbb{E}X^{3}}{6}t^{3}+\cdots+i^{k}\frac{\mathbb{E}X^{k}}{k!}t^{k}+r_{k}(t),

onde o resto rk(t)r_{k}(t) satisfaz rk(t)tk0\frac{r_{k}(t)}{t^{k}}\to 0 quando t0t\to 0.

Demonstração.

Imediato da Proposição 10.25 e Teorema A.6. ∎

Exemplo 10.29 (Poisson).

Calculando os momentos da Poisson: 𝔼X=iφX(0)=λ\mathbb{E}X=-i\,\varphi_{X}^{\prime}(0)=\lambda, 𝔼X2=φX′′(0)=λ2+λ\mathbb{E}X^{2}=-\varphi_{X}^{\prime\prime}(0)=\lambda^{2}+\lambda, 𝕍X=𝔼X2(𝔼X)2=λ\mathbb{V}X=\mathbb{E}X^{2}-(\mathbb{E}X)^{2}=\lambda. ∎

Outra grande utilidade da função característica é que permite determinar a distribuição de determinada variável aleatória. Enunciaremos agora este fato, mas sua prova será dada na seção seguinte.

Teorema 10.30 (Teorema da Unicidade).

Se duas variáveis aleatórias têm a mesma função característica, então têm a mesma distribuição.

Exemplo 10.31 (Soma de variáveis Poisson independentes).

Se XPoisson(λ)X\sim\mathop{\mathrm{Poisson}}\nolimits(\lambda) e YPoisson(μ)Y\sim\mathop{\mathrm{Poisson}}\nolimits(\mu) são independentes, então

φX+Y(t)=φX(t)φY(t)=eλ(eit1)eμ(eit1)=e(λ+μ)(eit1)=φZ(t),\varphi_{X+Y}(t)=\varphi_{X}(t)\cdot\varphi_{Y}(t)=e^{\lambda(e^{it}-1)}e^{\mu% (e^{it}-1)}=e^{(\lambda+\mu)(e^{it}-1)}=\varphi_{Z}(t),

onde ZPoisson(λ+μ)Z\sim\mathop{\mathrm{Poisson}}\nolimits(\lambda+\mu). Portanto, X+YPoisson(λ+μ)X+Y\sim\mathop{\mathrm{Poisson}}\nolimits(\lambda+\mu). ∎

A seguir enunciaremos uma versão simplificada do mais importante teorema deste capítulo, o Teorema da Continuidade de Lévy, que relaciona convergência de funções características com a convergência em distribuição estudada no Capítulo 7. Daremos alguns exemplos de sua grande aplicabilidade. Na Seção 10.3, enunciaremos e provaremos uma versão um pouco mais geral que a enunciada abaixo.

Teorema 10.32 (Teorema da Continuidade de Lévy).

Sejam XX e (Xn)n(X_{n})_{n\in\mathbb{N}} variáveis aleatórias. Então XnX_{n} converge em distribuição para XX se, e somente se, φXn(t)φX(t)\varphi_{X_{n}}(t)\to\varphi_{X}(t) para todo t.t\in\mathbb{R}.

Como exemplos da força do Teorema da Continuidade, forneceremos novas provas da convergência de binomial a Poisson, da Lei Fraca dos Grandes Números e do Teorema do Limite Central para o caso i.i.d.

Exemplo 10.33 (Binomial Converge para Poisson).

Seja λ>0\lambda>0 e para n>λ1n>\lambda^{-1} considere XnBinom(n,λn)X_{n}\sim\mathop{\mathrm{Binom}}\nolimits(n,\frac{\lambda}{n}). Então XndPoisson(λ).X_{n}\overset{\smash{\mathrm{d}}}{\rightarrow}\mathop{\mathrm{Poisson}}% \nolimits(\lambda). Com efeito, analisando a função característica das XnX_{n} obtemos φXn(t)=[1+λn(eit1)]neλ(eit1)=φX(t)\varphi_{X_{n}}(t)=[1+\tfrac{\lambda}{n}(e^{it}-1)]^{n}\to e^{\lambda(e^{it}-1% )}=\varphi_{X}(t), onde XPoisson(λ)X\sim\mathop{\mathrm{Poisson}}\nolimits(\lambda) . ∎

Exemplo 10.34 (Lei Fraca dos Grandes Números para o caso i.i.d.).

Faremos uma demonstração curta do Teorema 8.3. Como as XnX_{n} são i.i.d.,

φSnn(t)=φSn(tn)=φX1(tn)φXn(tn)=[φX1(tn)]n=[1+iμtn+r1(tn)]n,\varphi_{\frac{S_{n}}{n}}(t)=\varphi_{{S_{n}}}(\tfrac{t}{n})=\varphi_{{X_{1}}}% (\tfrac{t}{n})\cdots\varphi_{{X_{n}}}(\tfrac{t}{n})=\left[\varphi_{X_{1}}\left% (\tfrac{t}{n}\right)\right]^{n}=\left[1+i\frac{\mu t}{n}+r_{1}\left(\tfrac{t}{% n}\right)\right]^{n},

onde r1()r_{1}(\cdot) é tal que r1(w)w0\frac{r_{1}(w)}{w}\to 0 quando w0w\to 0. Segue que φSnn(t)eitμ\varphi_{\frac{S_{n}}{n}}(t)\to e^{it\mu} quando nn\to\infty, para todo tt\in\mathbb{R}. Pelo Teorema da Continuidade de Lévy, Snndμ\frac{S_{n}}{n}\overset{\smash{\mathrm{d}}}{\rightarrow}\mu. Como μ\mu é constante, segue da Proposição 7.36 que Snnμ\frac{S_{n}}{n}\overset{\mathbb{P}}{\rightarrow}\mu. ∎

Exemplo 10.35 (Teorema do Limite Central).

Faremos uma demonstração curta do Teorema 9.1. Supomos sem perda de generalidade que μ=0\mu=0. Como as XnX_{n} são i.i.d.,

φSnσn(t)=φSn(tσn)=[φX1(tσn)]n=[1t22n+r2(tσn)]n,\varphi_{\frac{S_{n}}{\sigma\sqrt{n}}}(t)=\varphi_{S_{n}}(\tfrac{t}{\sigma% \sqrt{n}})=\left[\varphi_{X_{1}}\left(\tfrac{t}{\sigma\sqrt{n}}\right)\right]^% {n}=\left[1-\frac{t^{2}}{2n}+r_{2}\left(\tfrac{t}{\sigma\sqrt{n}}\right)\right% ]^{n},

onde r2()r_{2}(\cdot) é tal que r2(w)w20\frac{r_{2}(w)}{w^{2}}\to 0 quando w0w\to 0. Segue que φSnσn(t)et22\varphi_{\frac{S_{n}}{\sigma\sqrt{n}}}(t)\to e^{-\frac{t^{2}}{2}} quando nn\to\infty, para todo tt\in\mathbb{R}. Como et2/2e^{-t^{2}/2} é a função característica de uma normal padrão (Exemplo 10.27), pelo Teorema da Continuidade de Lévy, segue que Snσnd𝒩(0,1)\frac{S_{n}}{\sigma\sqrt{n}}\overset{\smash{\mathrm{d}}}{\rightarrow}\mathcal{% N}(0,1). ∎