Tópico: Processos de Poisson em \mathbb{R}

Nessa seção aplicaremos o conceito de Probabilidade Condicional Regular e do Princípio da Substituição para estudarmos um importante processo de chegadas chamado Processo de Poisson.

O Tenente Boavista está encarregado de vigiar o Sargento Pimenta, que frequentemente dorme durante sua vigília. Para isso, Boavista tem que decidir os momentos t1,t2,t_{1},t_{2},\dots\in\mathbb{R} que ele irá verificar se Pimenta está cochilando. Uma primeira estratégia poderia ser tomar intervalos igualmente espaçados, t1=1,,tk=kt_{1}=1,\dots,t_{k}=k, mas o Sargento certamente iria dormir nos intevalos (k+ε,k+1ε)(k+\varepsilon,k+1-\varepsilon) sem se preocupar.

Dado esse problema, o Tenente decide escolher tempos aleatórios T1,T2,T_{1},T_{2},\dots Mas é importante lembrar que não são todas as distribuições que funcionarão bem, por exemplo se TkTk1aT_{k}-T_{k-1}\geq a quase certamente o Sargento irá se aproveitar desse intervalinho.

A primeira simplificação que o Tenente imagina para esse problema é a seguinte: dado que houve uma vistoria no instante tkt_{k}, então o que acontecerá à partir daí será o mesmo processo com o qual ele começou. Isso pode ser traduzido de maneira rigorosa como

P[(Tk+1tk,Tk+2tk,)A|Tk=tk]=P[(T1,T2,)A],P\big{[}(T_{k+1}-t_{k},T_{k+2}-t_{k},\dots)\in A|T_{k}=t_{k}\big{]}=P\big{[}(T% _{1},T_{2},\dots)\in A\big{]}, (4.57)

TkPT_{k}\circ P-quase certamente. Não iremos entrar muito em detalhes sobre qual é essa esperança condicional, pois no momento ainda estamos trabalhando heuristicamente, mas já podemos dizer que:

P[T1A1,T2T1A2]=E[\1T1A1P[T2T1A2|T1=t1]T1]=(4.57)E[\1T1A1P[T1A2]]=P[T1A1]P[T1A2].\begin{split}P\big{[}T_{1}\in A_{1},T_{2}-T_{1}\in A_{2}\big{]}&=E\big{[}\1_{T% _{1}\in A_{1}}P[T_{2}-T_{1}\in A_{2}|T_{1}=t_{1}]\circ T_{1}\big{]}\\ &\overset{\eqref{e:Poisson_incr_ind}}{=}E\big{[}\1_{T_{1}\in A_{1}}P[T_{1}\in A% _{2}]\big{]}=P[T_{1}\in A_{1}]P[T_{1}\in A_{2}].\end{split} (4.58)

Procedendo de maneira análoga, podemos concluir que (T1,T2T1,T3T2,)(T_{1},T_{2}-T_{1},T_{3}-T_{2},\dots) são uma coleção \iid. Agora o Tenente Boavista somente precisa escolher a distribuição de T1T_{1}.

Para essa escolha, ele sabe que se ele não chegar em tempo tt, então o Sargento Pimenta sabe que sua próxima chegada terá distribuição P[T1tA|T1>t]P[T_{1}-t\in A|T_{1}>t]. Como o Tenente Boavista gostaria que essa essa informação fosse inútil para o Sargento Pimenta, ele escolherá

P[T1tA|T1>t]=P[T1A].P[T_{1}-t\in A|T_{1}>t]=P[T_{1}\in A]. (4.59)

E sabemos que as distribuições \Exp(λ)\Exp(\lambda), para λ>0\lambda>0 satisfazem isso, portanto já temos um candidato ao nosso processo de vistorias, mas antes vamos introduzir algumas notações.

Já podemos perceber por (4.58) que mais importante que os tempos TkT_{k}, serão os intervalos entre visitas Xk=TkTk1X_{k}=T_{k}-T_{k-1}.

Seja 𝒟([0,))\mathcal{D}\big{(}[0,\infty)\big{)} o espaço de todas as funções càdlàg em \mathbb{N}, ou seja

𝒟([0,))={f:+:f é contínua à direita e com limite à esquerda}.\mathcal{D}\big{(}[0,\infty)\big{)}=\big{\{}f:\mathbb{R}_{+}\to\mathbb{N}:f% \text{ \'{e} cont\'{\i}nua \`{a} direita e com limite \`{a} esquerda}\big{\}}.

Definiremos Γ:𝒟([0,))\Gamma:\mathbb{R}^{\mathbb{N}}\to\mathcal{D}\big{(}[0,\infty)\big{)} da seguinte forma: dados (x1,x2,)(x_{1},x_{2},\dots)\in\mathbb{R}^{\mathbb{N}}, seja Γ(x1,)=N\Gamma(x_{1},\dots)=N, tal que

Nt=max{n;i=1nxit},N_{t}=\max\{n;\sum_{i=1}^{n}x_{i}\leq t\}, (4.60)

que conta quantas visitas ocorreram antes de tt, veja Figura 4.2.

t1t_{1}t2t_{2}t3t_{3}t4t_{4}t5t_{5}t6t_{6}t7t_{7}
Figura 4.2: A função NtN_{t} definindo o número de chegadas do Processo de pontos de Poisson. Note que NN é càdlàg.

Poderíamos nos perguntar qual é a σ\sigma-álgebra que estamos considerando no espaço 𝒟([0,))\mathcal{D}\big{(}[0,\infty)\big{)}, essa é uma interessante questão que deve ser abordada em estudos mais profundos desse espaço. Mas por enquanto será suficiente considerarmos a σ\sigma-álgebra induzida pelo mapa Γ\Gamma (a maior que ainda o deixa mensurável).

Estamos prontos agora pra definir o nosso processo.

{definition}

Fixado λ>0\lambda>0, definimos um Processo de Poisson em \mathbb{R} com parâmetro λ\lambda como a lei λ\mathbb{P}_{\lambda} em 𝒟([0,))\mathcal{D}\big{(}[0,\infty)\big{)}, dada por Γ\Exp(λ)\Gamma\circ\Exp(\lambda)^{\otimes\mathbb{N}}. Ou em outras palavras, o processo de contagem de chegadas NtN_{t}, no qual os intervalos entre chegadas são independentes e distribuídos como \Exp(λ)\Exp(\lambda).

Lembramos que como de costume definimos X1,X2,X_{1},X_{2},\dots como sendo as projeções canônicas em \mathbb{R}^{\mathbb{N}} onde definimos \Exp(λ)\Exp(\lambda)^{\otimes\mathbb{N}}. Como esses representam os intervalos entre chegadas, definimos também

Tk=i=1kXi, para k1.T_{k}=\sum_{i=1}^{k}X_{i},\text{ para $k\geq 1$}. (4.61)

Podemos agora enunciar o primeiro lema, que nos fornece a distribuição do número de chegadas em um dado tempo t0t\geq 0.

{lemma}

Se λ>0\lambda>0 e t0t\geq 0, então Nt\distr\Poisson(λt)N_{t}\distr\Poisson(\lambda t) sob λ\mathbb{P}_{\lambda}.

Demonstração.

Vamos primeiramente ver que

λ[Nt=0]=λ[X1>t]=eλt,\mathbb{P}_{\lambda}[N_{t}=0]=\mathbb{P}_{\lambda}[X_{1}>t]=e^{-\lambda t}, (4.62)

que coincide com o caso poissoniano.

Para verificar o caso arbitrário [Nt=k][N_{t}=k], utilizaremos indução e os resultados de esperança condicional regular que vimos anteriormente. Primeiro, observe que se x1>sx_{1}>s, então

Γ(x1,x2,)(rs)=Γ(x1s,x2,)(r).\Gamma(x_{1},x_{2},\dots)(r-s)=\Gamma(x_{1}-s,x_{2},\dots)(r). (4.63)

Logo,

λ[Nt=k]=λ[X1t,Γ(X2,X3,)(tX1)=k1]=𝔼λ[\1X1tλ[Γ(X2,X3,)(tX1)=k1|X1]]=Subst.𝔼λ[\1X1tλ[Γ(X2,X3,)(tx1)=k1|X1=x1]X1]=induc.𝔼λ[\1X1t(\Poisson(λ(tx1))({k1}))X1]=𝔼λ[\1X1t(λ(tX1))k1eλ(tX1)(k1)!]=0t(λ(tx1))k1eλ(tx1)(k1)!λeλx1x1=λkeλt(k1)!tkk,\begin{array}[]{e}\mathbb{P}_{\lambda}[N_{t}=k]&=&\mathbb{P}_{\lambda}[X_{1}% \leq t,\Gamma(X_{2},X_{3},\dots)(t-X_{1})=k-1]\\ &=&\mathbb{E}_{\lambda}\Big{[}\1_{X_{1}\leq t}\mathbb{P}_{\lambda}[\Gamma(X_{2% },X_{3},\dots)(t-X_{1})=k-1|X_{1}]\Big{]}\\ &\overset{\textnormal{Subst.}}{=}&\mathbb{E}_{\lambda}\Big{[}\1_{X_{1}\leq t}% \mathbb{P}_{\lambda}[\Gamma(X_{2},X_{3},\dots)(t-x_{1})=k-1|X_{1}=x_{1}]\circ X% _{1}\Big{]}\\ &\overset{\textnormal{induc.}}{=}&\mathbb{E}_{\lambda}\Big{[}\1_{X_{1}\leq t}% \big{(}\Poisson(\lambda(t-x_{1}))(\{k-1\})\big{)}\circ X_{1}\Big{]}\\ &=&\mathbb{E}_{\lambda}\Big{[}\1_{X_{1}\leq t}\frac{(\lambda(t-X_{1}))^{k-1}e^% {-\lambda(t-X_{1})}}{(k-1)!}\Big{]}\\ &=&\int_{0}^{t}\frac{(\lambda(t-x_{1}))^{k-1}e^{-\lambda(t-x_{1})}}{(k-1)!}% \lambda e^{-\lambda x_{1}}\d{x}_{1}=\frac{\lambda^{k}e^{-\lambda t}}{(k-1)!}% \frac{t^{k}}{k},\end{array}

como queríamos demonstrar. ∎

Um outro resultado importante sobre esses processos se relaciona ao fato de reiniciar o sistema em tempo t>0t>0. Isso é feito com o seguinte mapa θt:𝒟([0,))𝒟([0,))\theta_{t}:\mathcal{D}\big{(}[0,\infty)\big{)}\to\mathcal{D}\big{(}[0,\infty)% \big{)}, que leva NN em

θt(N)(s)=Ns+tNt.\theta_{t}(N)(s)=N_{s+t}-N_{t}. (4.64)
{exercise}

Mostre que o mapa θt\theta_{t} é mensurável.

{lemma}

Fixe λ,t>0\lambda,t>0 e seja NN um processo de Poisson de taxa λ\lambda. Então, para k+k\in\mathbb{Z}_{+} e AA mensurável,

λ[Nt=k,θtNA]=λ[Nt=k]λ[NA].\mathbb{P}_{\lambda}[N_{t}=k,\theta_{t}\circ N\in A]=\mathbb{P}_{\lambda}[N_{t% }=k]\mathbb{P}_{\lambda}[N\in A]. (4.65)

Em particular, isso mostra que a distribuição do processo de Poisson NN é invariante pelo mapa θt\theta_{t}.

Demonstração.

Começamos reescrevendo o evento e condicionando em TkT_{k} como abaixo

λ[Nt=k,θtNA]=λ[Tkt,Tk+1>t,θtNA]=𝔼λ[𝟏Tkt𝔼λ[Xk+1>ttk,θtNA|Tk=tk]Tk]=𝔼λ[𝟏Tkt𝔼λ[Xk+1>ttk,Γ(Xk+1(ttk),Xk+2,Xk+3,)A|Tk=tk]Tk],que, usando que X i são independentes e X + k 1 não tem sem memória, é igual a=𝔼λ[𝟏Tktλ[Xk+1>ttk|Tk=tk]Tk]λ[NA]=λ[Nt=t]λ[NA],\begin{split}\mathbb{P}_{\lambda}&[N_{t}=k,\theta_{t}\circ N\in A]\\ &=\mathbb{P}_{\lambda}[T_{k}\leq t,T_{k+1}>t,\theta_{t}\circ N\in A]\\ &=\mathbb{E}_{\lambda}\big{[}{\bf 1}_{T_{k}\leq t}\mathbb{E}_{\lambda}[X_{k+1}% >t-t_{k},\theta_{t}\circ N\in A|T_{k}=t_{k}]\circ T_{k}\big{]}\\ &=\mathbb{E}_{\lambda}\Big{[}{\bf 1}_{T_{k}\leq t}\mathbb{E}_{\lambda}\big{[}X% _{k+1}>t-t_{k},\Gamma(X_{k+1}-(t-t_{k}),X_{k+2},X_{k+3},\dots)\in A|T_{k}=t_{k% }\big{]}\circ T_{k}\Big{]},\\ \intertext{que, usando que $X_{i}$ s\~{a}o independentes e $X_{k+1}$ n\~{a}o % tem sem mem\'{o}ria, \'{e} igual a}&=\mathbb{E}_{\lambda}\Big{[}{\bf 1}_{T_{k}% \leq t}\mathbb{P}_{\lambda}\big{[}X_{k+1}>t-t_{k}|T_{k}=t_{k}\big{]}\circ T_{k% }\Big{]}\mathbb{P}_{\lambda}[N\in A]\\ &=\mathbb{P}_{\lambda}[N_{t}=t]\mathbb{P}_{\lambda}[N\in A],\end{split}

terminando a prova do lema. ∎

Como corolário do lema acima, podemos deduzir que um processo de Poisson possui incrementos independentes. Mais precisamente,

{corollary}

Seja NN um Processo de Poisson NN com taxa λ>0\lambda>0. Considerando também tempos 0=t0<t1<<tj0=t_{0}<t_{1}<\dots<t_{j}, e inteiros k1,,kj0k_{1},\dots,k_{j}\geq 0 temos

λ[Nt1=k1,,NtjNtj1=kj]=λ[Nt1=k1]λ[Ntjtj1=kj]\mathbb{P}_{\lambda}\big{[}N_{t_{1}}=k_{1},\dots,N_{t_{j}}-N_{t_{j-1}}=k_{j}% \big{]}=\mathbb{P}_{\lambda}[N_{t_{1}}=k_{1}]\cdots\mathbb{P}_{\lambda}[N_{t_{% j}-t_{j-1}}=k_{j}]
Demonstração.

Basta observar que

[Nt2Nt1,,NtjNtj1]=[Nt2t1,,Ntjt1Ntj1t1]θt1[N_{t_{2}}-N_{t_{1}},\dots,N_{t_{j}}-N_{t_{j-1}}]=[N_{t_{2}-t_{1}},\dots,N_{t_% {j}-t_{1}}-N_{t_{j-1}-t_{1}}]\circ\theta_{t_{1}} (4.66)

e aplicar o lema para obter

λ[Nt1=k1,,NtjNtj1=kj]=λ[Nt1=k1]λ[Nt2t1=k2,Ntjt1Ntj1t1=kj].\begin{split}\mathbb{P}_{\lambda}\big{[}&N_{t_{1}}=k_{1},\dots,N_{t_{j}}-N_{t_% {j-1}}=k_{j}\big{]}\\ &=\mathbb{P}_{\lambda}[N_{t_{1}}=k_{1}]\mathbb{P}_{\lambda}[N_{t_{2}-t_{1}}=k_% {2},\dots N_{t_{j}-t_{1}}-N{t_{j-1}-t_{1}}=k_{j}].\end{split}

Repetindo essa operação iterativamente, obtemos o resultado desejado. ∎

T1,,Tk under λt,k𝑑T_{1},\dots,T_{k}\text{ under }\mathbb{P}^{t,k}_{\lambda}\overset{d}{\sim} (4.67)

x1=t1x_{1}=t_{1}, x2=t2t1,,xk=tktk1x_{2}=t_{2}-t_{1},\dots,x_{k}=t_{k}-t_{k-1}

ρρt,k(t1,,tk)=𝟏0t1tkt1λ[Nt=k]λeλx1λeλx2eλxkeλ(ttk)=𝟏0t1tktk!eλt(λt)kλkeλt=𝟏0t1tktk!tk.\begin{split}\rho^{t,k}_{\rho}(t_{1},\dots,t_{k})&={\bf 1}_{0\leq t_{1}\leq% \dots\leq t_{k}\leq t}\;\frac{1}{\mathbb{P}_{\lambda}[N_{t}=k]}\lambda e^{-% \lambda x_{1}}\lambda e^{-\lambda x_{2}}\cdots e^{-\lambda x_{k}}e^{-\lambda(t% -t_{k})}\\ &={\bf 1}_{0\leq t_{1}\leq\dots\leq t_{k}\leq t}\;\frac{k!}{e^{-\lambda t}(% \lambda t)^{k}}\lambda^{k}e^{-\lambda t}={\bf 1}_{0\leq t_{1}\leq\dots\leq t_{% k}\leq t}\;\frac{k!}{t^{k}}.\end{split} (4.68)

Note que não depende de λ\lambda.

Considere variáveis uniformes U1,,UkU_{1},\dots,U_{k} no intervalo [0,t][0,t]

ρt,k(u1,,uk)=𝟏u~1,,u~k[0,t]1tk\rho^{t,k}(u_{1},\dots,u_{k})={\bf 1}_{\tilde{u}_{1},\dots,\tilde{u}_{k}\in[0,% t]}\;\frac{1}{t^{k}} (4.69)

Seja U~1<<U~k\tilde{U}_{1}<\dots<\tilde{U}_{k} a versão ordenada das UiU_{i}’s.

(U~1,,U~k)=q.c.σ perm. de {1,,k}(Uσ1,,Uσk)𝟏0Uσ1Uσkt(\tilde{U}_{1},\dots,\tilde{U}_{k})\overset{q.c.}{=}\sum_{\sigma\text{ perm. % de $\{1,\dots,k\}$}}(U_{\sigma_{1}},\dots,U_{\sigma_{k}}){\bf 1}_{0\leq U_{% \sigma_{1}}\leq\dots\leq U_{\sigma_{k}}\leq t} (4.70)

Então,

ρ~t,k=𝟏0u~1u~kt1tkσ perm. de {1,,k}ρt,k(u~σ1,,u~σk)=𝟏0u~1u~ktk!tk\begin{split}\tilde{\rho}^{t,k}&={\bf 1}_{0\leq\tilde{u}_{1}\leq\dots\leq% \tilde{u}_{k}\leq t}\;\frac{1}{t^{k}}\sum_{\sigma\text{ perm. de $\{1,\dots,k% \}$}}\rho^{t,k}(\tilde{u}_{\sigma_{1}},\dots,\tilde{u}_{\sigma_{k}})\\ &={\bf 1}_{0\leq\tilde{u}_{1}\leq\dots\leq\tilde{u}_{k}\leq t}\;\frac{k!}{t^{k% }}\end{split} (4.71)
\todosec

Tópico: Processos de Markov em tempo contínuofazer…

\todosec

Tópico: Sistemas de partículasfazer…