Capítulo 5 Soluções de exercícios

Solução de 3.3 Primeiramente, vamos ver qual é a distribuição de R0R_{0}. Vamos escrever R0=E0+D0R_{0}=E_{0}+D_{0}, onde E0E_{0} é o número de casas acessíveis à esquerda e D0D_{0} à direita. Note que E0E_{0} e D0D_{0} são independentes e identicamente distribuídas, com

P[D0=l]=P[Xl=1,Xi=0 para i=0,,l1]=p(1p)l.P[D_{0}=l]=P[X_{l}=1,X_{i}=0\text{ para $i=0,\dots,l-1$}]=p(1-p)^{l}. (5.1)

Podemos agora calcular

P[R0=k]=l=0kP[D0=l,E0=kl]=l=0kp2(1p)k=p2k(1p)k.P[R_{0}=k]=\sum_{l=0}^{k}P[D_{0}=l,E_{0}=k-l]=\sum_{l=0}^{k}p^{2}(1-p)^{k}=p^{% 2}k(1-p)^{k}. (5.2)

Além disso,

E(R0)=2E(D0)=l=0lP[D0=l]=2pl=0l(1p)l=2(1p)p=:m.E(R_{0})=2E(D_{0})=\sum_{l=0}^{\infty}lP[D_{0}=l]=2p\sum_{l=0}^{\infty}l(1-p)^% {l}=\frac{2(1-p)}{p}=:m. (5.3)

O que resolve o primeiro item.

A grande dificuldade do segundo item é que as variáveis RiR_{i} não são independentes, veja por exemplo que P[R0=0,R1=2,R2=0]=0P[R_{0}=0,R_{1}=2,R_{2}=0]=0. Nesse caso, o método do segundo momento deve ser feito com atenção. Chamando de Sn=i=1nRiS_{n}=\sum_{i=1}^{n}R_{i}, temos

P[|1nSnE(R0)|>a]Var(Sn)a2n2,P\Big{[}\Big{|}\frac{1}{n}S_{n}-E(R_{0})\Big{|}>a\Big{]}\leq\frac{\text{Var}(S% _{n})}{a^{2}n^{2}}, (5.4)

mas a variância da soma não se torna a soma das variâncias. De fato

Var(Sn)=E((i=1n(RiE(Ri)))2)=i=1nj=1nE((RiE(Ri))(RjE(Rj)))=i=1nj=1nCov(Ri,Rj)=nVar(R0)+2k=1n1(nk)Cov(R0,Rk).\begin{split}\text{Var}(S_{n})&=E\Big{(}\big{(}\sum_{i=1}^{n}(R_{i}-E(R_{i}))% \big{)}^{2}\Big{)}=\sum_{i=1}^{n}\sum_{j=1}^{n}E\Big{(}\big{(}R_{i}-E(R_{i})% \big{)}\big{(}R_{j}-E(R_{j})\big{)}\Big{)}\\ &=\sum_{i=1}^{n}\sum_{j=1}^{n}\text{Cov}(R_{i},R_{j})=n\text{Var}(R_{0})+2\sum% _{k=1}^{n-1}(n-k)\text{Cov}(R_{0},R_{k}).\end{split} (5.5)

Aqui já temos metade da estimativa resolvida, mas ainda falta obter uma estimativa explícita.

Então precisamos estimar superiormente Cov(Ri,Rj)=Cov(R0,Rj1)\text{Cov}(R_{i},R_{j})=\text{Cov}(R_{0},R_{j-1}). Podemos calcular essa quantidade explicitamente, mas vamos evitar contas chatas fazendo uma estimativa do tipo

Cov(R0,Rk)cexp{ck}, para todo k1.\text{Cov}(R_{0},R_{k})\leq c\exp\{-c^{\prime}k\},\text{ para todo $k\geq 1$}. (5.6)

O que nos daria que

Var(Sn)nVar(R0)+2k=1n1(nk)cexp{ck}c′′n.\text{Var}(S_{n})\leq n\text{Var}(R_{0})+2\sum_{k=1}^{n-1}(n-k)c\exp\{-c^{% \prime}k\}\leq c^{\prime\prime}n. (5.7)

Donde a probabilidade que queríamos estimar é no máximo c/a2n{c}/{a^{2}n}, como no caso independente.

Para obter a prometida cota para a covariância, observe que podemos truncar D0D_{0} e EkE_{k} para obter independência. Definindo

R0~=E0+(D0k/2) e R~k=Dk+(Ekk/2),\tilde{R_{0}}=E_{0}+(D_{0}\wedge\lfloor k/2\rfloor)\text{ e }\tilde{R}_{k}=D_{% k}+(E_{k}\wedge\lfloor k/2\rfloor), (5.8)

temos que R~0\tilde{R}_{0} e R~k\tilde{R}_{k} são independentes (pois dependem de elos disjuntos). Daí

Cov(R0,Rk)=E(R0Rk)m2=E(R~0Rk~)+E(R0Rk\1[R0R~0][RkR~k])m2E(R~0)2m2+E((E0+D0)(Ek+Dk)\1[R0R~0][RkR~k])E((E0+k+Dk)2\1[R0R~0][RkR~k])=E((E0+k+Dk)2)P([R0R~0][RkR~k])(2E(E02)+k2+2kE(E0)+E(E0)2)2P[R0R~0]ck2(1p)k/2cexp{ck}.\begin{split}\text{Cov}(R_{0},R_{k})&=E(R_{0}R_{k})-m^{2}\\ &=E(\tilde{R}_{0}\tilde{R_{k}})+E(R_{0}R_{k}\1{[R_{0}\neq\tilde{R}_{0}]\cup[R_% {k}\neq\tilde{R}_{k}]})-m^{2}\\ &\leq E(\tilde{R}_{0})^{2}-m^{2}+E\big{(}(E_{0}+D_{0})(E_{k}+D_{k})\1{[R_{0}% \neq\tilde{R}_{0}]\cup[R_{k}\neq\tilde{R}_{k}]}\big{)}\\ &\leq E\big{(}(E_{0}+k+D_{k})^{2}\1{[R_{0}\neq\tilde{R}_{0}]\cup[R_{k}\neq% \tilde{R}_{k}]}\big{)}\\ &=E\big{(}(E_{0}+k+D_{k})^{2}\big{)}P\big{(}[R_{0}\neq\tilde{R}_{0}]\cup[R_{k}% \neq\tilde{R}_{k}]\big{)}\\ &\leq\big{(}2E(E_{0}^{2})+k^{2}+2kE(E_{0})+E(E_{0})^{2}\big{)}\cdot 2\cdot P[R% _{0}\neq\tilde{R}_{0}]\\ &\leq ck^{2}(1-p)^{\lfloor k/2\rfloor}\leq c\exp\{-c^{\prime}k\}.\end{split} (5.9)

Finalizando a cota para a covariância.