12.2 Tempos de parada

Ao participar de rodadas sucessivas de um jogo de azar, ou mesmo ao investir dinheiro em um determinado ativo financeiro, surgem perguntas bastante naturais. Em que momento devemos parar de jogar? Em que momento devemos vender o ativo? A resposta óbvia seria quando obtivermos o maior lucro possível! A questão é que para sabermos que estamos passando por este momento, devemos ter informação acerca do futuro, pois se hoje é o dia que obterei o maior lucro com meu ativo financeiro é porque amanhã ele se desvalorizará. Ou seja, há tempos aleatórios que somente conseguimos determinar se olharmos para o futuro. A seguinte definição caracteriza aqueles tempos aleatórios factíveis, isto é, aqueles que conseguimos determinar apenas com a informação contida até o presente.

Definição 12.14.

Seja τ\tau uma variável aleatória estendida que toma valores em 0{+}\mathbb{N}_{0}\cup\{+\infty\}. Dizemos que a variável τ\tau é um tempo de parada com respeito à filtração (n)n0(\mathcal{F}_{n})_{n\in\mathbb{N}_{0}} se {τn}n\{\tau\leqslant n\}\in\mathcal{F}_{n} para todo n0n\in\mathbb{N}_{0}.

Alguns livros definem tempo de parada pedindo que {τ=n}n\{\tau=n\}\in\mathcal{F}_{n} para todo n0n\in\mathbb{N}_{0}, o que é equivalente (verifique!). Se interpretamos que a σ\sigma-álgebra n\mathcal{F}_{n} carrega toda a informação disponível até o tempo nn, temos que, τ\tau ser um tempo de parada significa que o evento {τ=n}\{\tau=n\} pode ser determinado com base na informação contida apenas até esse tempo nn.

Exemplo 12.15.

Sejam (Xn)n(X_{n})_{n} um processo adaptado e BB\in\mathcal{B}. É frequente estarmos interessados no primeiro tempo de passagem pelo conjunto BB (por exemplo, gostaríamos de vender determinado ativo financeiro quando ele atinge determinado preço pela primeira vez). Isto é, estamos interessados na variável aleatória

τB=inf{n:XnB},\tau_{B}=\inf\{n:X_{n}\in B\},

com a convenção inf∅︀=+\inf\emptyset=+\infty. Como

{τBn}=k=0n{XkB}n\{\tau_{B}\leqslant n\}=\cup_{k=0}^{n}\{X_{k}\in B\}\in\mathcal{F}_{n}

para todo n0n\in\mathbb{N}_{0}, segue que τB\tau_{B} é um tempo de parada. ∎

Dados um processo estocástico (Xn)n0(X_{n})_{n\in\mathbb{N}_{0}} e um tempo aleatório τ\tau assumindo valores em 0\mathbb{N}_{0}, definimos a variável XτX_{\tau} que corresponde ao processo (Xn)n(X_{n})_{n} observado no tempo n=τn=\tau. Definimos o processo parado em τ\tau como (Xnτ)n(X_{n\wedge\tau})_{n}, onde ab=min{a,b}a\wedge b=\min\{a,b\}, que geralmente representa um processo que para de evoluir quando uma determinada condição é cumprida.

Teorema 12.16 (Teorema do Martingale Parado).

Sejam (Xn)n0(X_{n})_{n\in\mathbb{N}_{0}} um submartingale e τ\tau um tempo de parada, com respeito à mesma filtração. Então o processo parado (Xnτ)n(X_{n\wedge\tau})_{n} também é um submartingale. Em particular, se (Xn)n(X_{n})_{n} é um martingale, então (Xnτ)n(X_{n\wedge\tau})_{n} também é martingale.

Demonstração.

Como

Xnτ=Xn𝟙{τn}+k=0n1Xk𝟙{τ=k},X_{n\wedge\tau}=X_{n}\cdot\mathds{1}_{\{\tau\geqslant n\}}+\sum_{k=0}^{n-1}X_{% k}\cdot\mathds{1}_{\{\tau=k\}},

e todas as variáveis na equação acima são n\mathcal{F}_{n}-mensuráveis, XnτX_{n\wedge\tau} é n\mathcal{F}_{n}-mensurável, e como |Xnτ||X1|++|Xn||X_{n\wedge\tau}|\leqslant|X_{1}|+\dots+|X_{n}|, também é integrável. Para verificar (12.8), veja que

𝔼[X(n+1)τXnτ|n]\displaystyle\mathbb{E}[X_{(n+1)\wedge\tau}-X_{n\wedge\tau}|\mathcal{F}_{n}] =𝔼[(Xn+1Xn)𝟙{τ>n}|n]\displaystyle=\mathbb{E}[(X_{n+1}-X_{n})\cdot\mathds{1}_{\{\tau>n\}}|\mathcal{% F}_{n}]
=𝟙{τ>n}𝔼[(Xn+1Xn)|n]0.\displaystyle=\mathds{1}_{\{\tau>n\}}\cdot\mathbb{E}[(X_{n+1}-X_{n})|\mathcal{% F}_{n}]\geqslant 0.\quad

Na segunda igualdade utilizamos o fato de que {τ>n}n\{\tau>n\}\in\mathcal{F}_{n}, pois τ\tau é tempo de parada. Na desigualdade usamos a propriedade de submartingale. ∎

Exemplo 12.17 (O segundo valete).

Retiramos cartas do baralho ao acaso e sucessivamente, até que não reste nenhuma carta. Sabemos que, para cada n=1,,52n=1,\dots,52, a probabilidade de que a nn-ésima carta retirada seja um valete é igual a 113\frac{1}{13}. Uma propriedade talvez surpreendente é que a probabilidade de os dois primeiros valetes aparecerem juntos também é 113\frac{1}{13}!

Para justificar essa afirmação, definimos YnY_{n} como a indicadora do evento em que a nn-ésima carta retirada é um valete, e τ\tau como o número de cartas retiradas até que saia um valete. Queremos mostrar que 𝔼[Yτ+1]=113\mathbb{E}[Y_{\tau+1}]=\frac{1}{13}.

Tomamos (n)n(\mathcal{F}_{n})_{n} como a filtração natural de (Yn)n(Y_{n})_{n} e definimos XnX_{n} como a proporção de valetes restantes no baralho após a nn-ésima retirada, isto é,

Xn=4Y1Yn52n.X_{n}=\frac{4-Y_{1}-\dots-Y_{n}}{52-n}.

Observe que, para cada nn fixo, 𝔼[Yn+1|n]=Xn\mathbb{E}[Y_{n+1}|\mathcal{F}_{n}]=X_{n}, ou seja, a probabilidade condicional de que a próxima carta seja um valete é igual à proporção de valetes restantes no baralho. Multiplicando por 𝟙{τ=n}\mathds{1}_{\{\tau=n\}}, somando sobre nn e tomando a esperança, obtemos a identidade 𝔼[Yτ+1]=𝔼Xτ\mathbb{E}[Y_{\tau+1}]=\mathbb{E}X_{\tau}. Assim, queremos mostrar que 𝔼Xτ=113\mathbb{E}X_{\tau}=\frac{1}{13}.

Afirmamos que (Xn)n=0,,49(X_{n})_{n=0,\dots,49} é um martingale com respeito a (n)n(\mathcal{F}_{n})_{n}, com 0={∅︀,Ω}\mathcal{F}_{0}=\{\emptyset,\Omega\} Com efeito,

Xn+1=(52n)Xn152n1Yn+1+(52n)Xn52n1(1Yn+1)X_{n+1}=\frac{(52-n)X_{n}-1}{52-n-1}Y_{n+1}+\frac{(52-n)X_{n}}{52-n-1}(1-Y_{n+% 1})

e, como XnX_{n} é n\mathcal{F}_{n}-mensurável e 𝔼[Yn+1|n]=Xn\mathbb{E}[Y_{n+1}|\mathcal{F}_{n}]=X_{n},

𝔼[Xn+1|n]=(52n)Xn152n1Xn+(52n)Xn52n1(1Xn)=Xn\mathbb{E}[X_{n+1}|\mathcal{F}_{n}]=\frac{(52-n)X_{n}-1}{52-n-1}X_{n}+\frac{(5% 2-n)X_{n}}{52-n-1}(1-X_{n})=X_{n}

e, portanto, (Xn)n(X_{n})_{n} é de fato um martingale. Pelo Teorema do Martingale Parado, 𝔼Xτ=𝔼X49τ=𝔼X0=113\mathbb{E}X_{\tau}=\mathbb{E}X_{49\wedge\tau}=\mathbb{E}X_{0}=\frac{1}{13}. ∎

Proposição 12.18.

Sejam (Xn)n0(X_{n})_{n\in\mathbb{N}_{0}} um submartingale e τ\tau um tempo de parada, com respeito à mesma filtração. Então

𝔼[Xnτ]𝔼[Xn].\mathbb{E}[X_{n\wedge\tau}]\leqslant\mathbb{E}[X_{n}].
Demonstração.

Basta expandir

𝔼[XnXnτ]\displaystyle\mathbb{E}[X_{n}-X_{n\wedge\tau}] =𝔼[k=τn1Xk+1Xk]=k=0n1𝔼[(Xk+1Xk)𝟙{τk}]\displaystyle=\mathbb{E}\Big{[}\sum_{k=\tau}^{n-1}X_{k+1}-X_{k}\Big{]}=\sum_{k% =0}^{n-1}\mathbb{E}\big{[}(X_{k+1}-X_{k})\mathds{1}_{\{\tau\leqslant k\}}\big{]}
=k=0n1𝔼[𝔼[(Xk+1Xk)𝟙{τk}|k]]\displaystyle=\sum_{k=0}^{n-1}\mathbb{E}\big{[}\mathbb{E}[(X_{k+1}-X_{k})% \mathds{1}_{\{\tau\leqslant k\}}|\mathcal{F}_{k}]\big{]}
=k=0n1𝔼[𝟙{τk}𝔼[Xk+1Xk|k]]0,\displaystyle=\sum_{k=0}^{n-1}\mathbb{E}\big{[}\mathds{1}_{\{\tau\leqslant k\}% }\cdot\mathbb{E}[X_{k+1}-X_{k}|\mathcal{F}_{k}]\big{]}\geqslant 0,

onde na desigualdade usamos a propriedade de submartingale. ∎

Essas propriedades de martingales parados permitem estender desigualdades envolvendo a posição final para desigualdades sobre toda a trajetória.

Teorema 12.19.

Seja (Sn)n(S_{n})_{n} um submartingale. Então, para cada λ>0\lambda>0 valem

(maxj=1,,nSjλ)𝔼Sn+λ\mathbb{P}\Big{(}\max_{j=1,\dots,n}S_{j}\geqslant\lambda\Big{)}\leqslant\frac{% \mathbb{E}S_{n}^{+}}{\lambda}

e

(minj=1,,nSjλ)𝔼Sn+𝔼S1λ.\mathbb{P}\Big{(}\min_{j=1,\dots,n}S_{j}\leqslant-\lambda\Big{)}\leqslant\frac% {\mathbb{E}S_{n}^{+}-\mathbb{E}S_{1}}{\lambda}.
Demonstração.

Seja τ=inf{j=1,,n:Sjλ}n.\tau=\inf\{j=1,\dots,n:S_{j}\geqslant\lambda\}\wedge n. Então τ\tau é tempo de parada e nτ=τn\wedge\tau=\tau. Pela Proposição 12.12, Sn+S^{+}_{n} também é submartingale. Pela Proposição 12.18, 𝔼Sτ+𝔼Sn+\mathbb{E}S^{+}_{\tau}\leqslant\mathbb{E}S^{+}_{n}, logo

λ(Sτλ)𝔼Sτ+𝔼Sn+.\lambda\,\mathbb{P}(S_{\tau}\geqslant\lambda)\leqslant\mathbb{E}S^{+}_{\tau}% \leqslant\mathbb{E}S_{n}^{+}.

Analogamente, definindo τ=inf{j=1,,n:Sjλ}n,\tau=\inf\{j=1,\dots,n:S_{j}\leqslant-\lambda\}\wedge n, obtemos

𝔼S1𝔼Sτ=𝔼Sτ+𝔼Sτ𝔼Sn+λ(Sτλ)\displaystyle\mathbb{E}S_{1}\leqslant\mathbb{E}S_{\tau}=\mathbb{E}S^{+}_{\tau}% -\mathbb{E}S^{-}_{\tau}\leqslant\mathbb{E}S^{+}_{n}-\lambda\,\mathbb{P}(S_{% \tau}\leqslant-\lambda)

onde a primeira desigualdade é novamente dada pelo Teorema do Martingale Parado. ∎

Teorema 12.20 (Desigualdade de Doob-Kolmogorov).

Seja (Sn)n(S_{n})_{n} um martingale. Então, para cada λ>0\lambda>0 e p1p\geqslant 1 vale

(maxj=1,,n|Sj|λ)𝔼|Sn|pλp.\mathbb{P}\Big{(}\max_{j=1,\dots,n}|S_{j}|\geqslant\lambda\Big{)}\leqslant% \frac{\mathbb{E}|S_{n}|^{p}}{\lambda^{p}}.
Demonstração.

Caso 𝔼|Sn|p=+\mathbb{E}|S_{n}|^{p}=+\infty, a desigualdade vale trivialmente. Caso contrário, como a função ||p|\cdot|^{p} é convexa, (|Sn|p)n(|S_{n}|^{p})_{n} é um submartingale e aplicamos o teorema anterior com λp\lambda^{p} no lugar de λ\lambda. ∎

Com algum esforço extra e usando a Desigualdade de Hölder (Apêndice D.7), é possível provar o seguinte.

Teorema 12.21 (Desigualdade de Doob em p\mathcal{L}^{p}).

Seja (Mn)n(M_{n})_{n} um martingale, ou um submartingale não-negativo. Então para todo p>1p>1 vale

𝔼[maxj=1,,n|Mj|p](pp1)p𝔼|Mn|p.\mathbb{E}\Big{[}\max_{j=1,\dots,n}|M_{j}|^{p}\Big{]}\leqslant(\tfrac{p}{p-1})% ^{p}\,\mathbb{E}|M_{n}|^{p}.

A demonstração do teorema acima pode ser encontrada na Seção 14.11 de [WIL91], e em [DUR19, GUT13, KLE14].