Capítulo 3 Fase Subcrítica: Decaimento Exponencial

Poderíamos definir outros pontos críticos no modelo de percolação. Por exemplo, lembrando que χp\chi_{p} é o valor esperado do volume do aglomerado aberto da origem, seja

p~=sup{p:χp<}.\tilde{p}=\sup\{p:\chi_{p}<\infty\}. (3.1)

A prova da Proposição 1.2.1 mostra que p~\tilde{p} está bem definido e é positivo. É claro que p~pc\tilde{p}\leq p_{c} (pois se θ(p)=Pp(|C|=)>0)\theta(p)=P_{p}(|C|=\infty)>0) então χp=\chi_{p}=\infty).

Neste capítulo, veremos que p~=pc\tilde{p}=p_{c}, eliminando a existência de uma fase intermediária (p~,pc)(\tilde{p},p_{c}) e estabelecendo a assim chamada unicidade do ponto crítico.

Este resultado foi provado independentemente por Menshikov [4] e Aizenman e Barsky [5] por argumentos diferentes (para dd geral; em 2 dimensões foi provado por Kesten [3] como conseqüência de que, neste caso, pc=1/2p_{c}=1/2). Mostraremos a seguir o argumento de Menshikov (com uma melhoria de Kesten, não publicada).

Sejam SnS_{n} a esfera L1L_{1} em d\mathbb{Z}^{d} de raio nn com centro na origem, isto é

Sn={xd:x1n}S_{n}=\{x\in\mathbb{Z}^{d}:||x||_{1}\leq n\}

e AnA_{n} o evento de que existe um caminho aberto da origem à fronteira de SnS_{n}.

Teorema 3.1 (Menshikov)

Se p<pcp<p_{c}, então para algum ψp>0\psi_{p}>0

Pp(An)eψpnpara todo n.P_{p}(A_{n})\leq e^{-\psi_{p}n}\quad\mbox{para todo $n$.} (3.2)
Corolário 3.1

χp<\chi_{p}<\infty se p<pcp<p_{c}.

Observação 3.1

Na fase supercrítica χp=\chi_{p}=\infty, obviamente. Prova-se também [8] que

limppcχp=.\lim_{p\uparrow p_{c}}\chi_{p}=\infty.

Prova do Corolário 3.1.

O Teorema 3.1 estabelece o decaimento exponencial da distribuição do raio de CC. De (3.2) concluimos que

Pp(|C|n)eψpn1/d,P_{p}(|C|\geq n)\leq e^{-\psi_{p}^{\prime}n^{1/d}}, (3.3)

com ψp>0\psi_{p}^{\prime}>0. Logo,

χp=n1Pp(|C|n)<.\chi_{p}=\sum_{n\geq 1}P_{p}(|C|\geq n)<\infty.\quad\triangle
Observação 3.2

(3.3) estabelece decaimento subexponencial da distribuição de |C||C|. Com um pouco mais de trabalho, mostra-se o decaimento exponencial desta distribuição (vide [8]).

A prova do Teorema 3.1 será apresentada em uma introdução mais três partes.

Introdução

Defina

gp(n)=Pp(An).g_{p}(n)=P_{p}(A_{n}). (3.4)

Note que gp(n)θ(p)g_{p}(n)\downarrow\theta(p) quando nn\uparrow\infty. Logo, se p<pcp<p_{c}, existe pp^{\prime} satisfazendo p<p<pcp<p^{\prime}<p_{c} e portanto

limngp(n)=θ(p)=0.\lim_{n\to\infty}g_{p^{\prime}}(n)=\theta(p^{\prime})=0.

O problema é mostrar que para algum pp^{\prime}, se limngp(n)=0\lim_{n\to\infty}g_{p^{\prime}}(n)=0 então para p<pp<p^{\prime}

gp(n)eψpn.g_{p}(n)\leq e^{-\psi_{p}n}.

Queremos limitar gp(n)g_{p}(n) superiormente em termos de gp(n)g_{p^{\prime}}(n) e mais alguma coisa (é preciso melhorar a cota trivial gp(n)gp(n)g_{p}(n)\leq g_{p^{\prime}}(n)).

Parte 1

Como já vimos no Capítulo 2, Seção 3, a fórmula de Russo produz a seguinte desigualdade para 0<αβ10<\alpha\leq\beta\leq 1.

gα(n)gβ(n)exp(αβEp(N(An)|An)𝑑p),g_{\alpha}(n)\leq g_{\beta}(n)\exp\left(-\int_{\alpha}^{\beta}E_{p}(N(A_{n})|A% _{n})dp\right), (3.5)

onde N(An)N(A_{n}) é o número de elos pivotais para o evento AnA_{n}.

Parte 2

Para um dado β\beta, seja MM o raio (aleatório) do aglomerado aberto da origem (isto é, maxxCx1\max_{x\in C}||x||_{1} ou, equivalentemente, max{k:Ak\max\{k:A_{k} ocorre}). Note que se θ(p)>0\theta(p)>0, então M=M=\infty com probabilidade positiva e se θ(p)=0\theta(p)=0 então MM é uma variável aleatória finita com valores inteiros.

Sejam M1,M2,M_{1},M_{2},\ldots variáveis aleatórias independentes com a mesma distribuição de MM. Mostraremos mais adiante que

Pp(N(An)k|An)P((1+M1)++(1+Mk)n),P_{p}(N(A_{n})\geq k|A_{n})\geq P((1+M_{1})+\ldots+(1+M_{k})\leq n), (3.6)

para todo k0k\geq 0, o que relaciona N(An)N(A_{n}) (condicionado a AnA_{n}) a um processo de renovação. Usando métodos usuais em tais processos, conclui-se que

Ep(N(An)|An)\displaystyle E_{p}(N(A_{n})|A_{n}) =\displaystyle= k=1Pp(N(An)k|An)\displaystyle\sum_{k=1}^{\infty}P_{p}(N(A_{n})\geq k|A_{n}) (3.7)
\displaystyle\geq k=1P((1+M1)++(1+Mk)n)\displaystyle\sum_{k=1}^{\infty}P((1+M_{1})+\ldots+(1+M_{k})\leq n)
\displaystyle\geq nE(1+Mn)1=ni=0ngp(i)1.\displaystyle\frac{n}{E(1+M\wedge n)}-1=\frac{n}{\sum_{i=0}^{n}g_{p}(i)}-1.

Parte 3

Combinam-se as partes 1 e 2 para obter para 0<αβ10<\alpha\leq\beta\leq 1:

gα(n)gβ(n)exp[(βα)(βα)ni=0ngβ(i)].g_{\alpha}(n)\leq g_{\beta}(n)\exp\left[(\beta-\alpha)-(\beta-\alpha)\frac{n}{% \sum_{i=0}^{n}g_{\beta}(i)}\right]. (3.8)

Da desigualdade acima, concluiremos que

i=0gβ(i)<,\sum_{i=0}^{\infty}g_{\beta}(i)<\infty, (3.9)

do que segue o teorema.

Em seguida apresentaremos as partes 2 e 3 em detalhes.

Parte 2

Sejam {e1,e2,,em}\{e_{1},e_{2},\ldots,e_{m}\} os elos pivotais abertos para AnA_{n} na ordem com que são atingidos por um caminho aberto da origem até Sn\partial S_{n}. (Note que a ordem é a mesma para qualquer tal caminho devido à pivotalidade.) Escreva eje_{j} como (xj,yj)(x_{j},y_{j}) (Na ”ordem correta”. Veja a Figura 3.1.).

Figura do aglomerado da origem em
Figura 3.1: Figura do aglomerado da origem em S7S_{7}. Há exatamente 4 elos pivotais para A7A_{7} nesta configuração, denotados e1e_{1}, e2e_{2}, e3e_{3} e e4e_{4}.

Os elos do aglomerado da origem entre os elos pivotais sucessivos formam salsichas. O aglomerado da origem em SnS_{n} pode ser visto então como como salsichas de elos conectadas por elos pivotais.

Sejam

ρ1\displaystyle\rho_{1} =\displaystyle= x11\displaystyle||x_{1}||_{1}
ρ2\displaystyle\rho_{2} =\displaystyle= y1x21\displaystyle||y_{1}-x_{2}||_{1}
\displaystyle\vdots
ρm\displaystyle\rho_{m} =\displaystyle= ym1xm1,\displaystyle||y_{m-1}-x_{m}||_{1},

e ρi=\rho_{i}=\infty para i>mi>m. ρ1,,ρm\rho_{1},\ldots,\rho_{m} representam os raios das salsichas sucessivas.

Então N(An)kN(A_{n})\geq k se

(ρ1+1)+(ρ2+1)++(ρk+1)n,(\rho_{1}+1)+(\rho_{2}+1)+\ldots+(\rho_{k}+1)\leq n,

ou seja,

ρ1++ρknk.\rho_{1}+\ldots+\rho_{k}\leq n-k.

Logo,

Pp(N(An)k|An)Pp(ρ1++ρknk|An).P_{p}(N(A_{n})\geq k|A_{n})\geq P_{p}(\rho_{1}+\ldots+\rho_{k}\leq n-k|A_{n}). (3.10)

Queremos mostrar que

Pp(ρ1++ρknk|An)Pp(M1++Mknk),P_{p}(\rho_{1}+\ldots+\rho_{k}\leq n-k|A_{n})\geq P_{p}(M_{1}+\ldots+M_{k}\leq n% -k), (3.11)

para todo nn e kk, onde M1,M2,M_{1},M_{2},\ldots são variáveis aleatórias independentes com distribuição comum igual àquela do raio do aglomerado da origem (vamos denotar esta última v.a. por MM).

Para obter a última desigualdade, seria bom se bastasse provar desigualdades envolvendo probabilidades condicionais do tipo

Pp(ρkrk|ρ1=r1,,ρk1=rk1,An)P(Mkrk),P_{p}(\rho_{k}\leq r_{k}|\rho_{1}=r_{1},\ldots,\rho_{k-1}=r_{k-1},A_{n})\geq P% (M_{k}\leq r_{k}), (3.12)

para todo nn, kk e r1++rknkr_{1}+\ldots+r_{k}\leq n-k.

O próximo lema mostra que este é o caso.

Lema 3.1

A desigualdade (3.12) implica a desigualdade (3.11)

Portanto é suficiente provar o seguinte.

Lema 3.2

A desigualdade (3.12) é válida.

Antes de provarmos os lemas acima, vejamos porque (3.11) implica no resultado da parte 2.

De (3.10) e (3.11), temos

Pp(N(An)k|An)P((1+M1)++(1+Mk)n).P_{p}(N(A_{n})\geq k|A_{n})\geq P((1+M_{1})+\ldots+(1+M_{k})\leq n). (3.13)

Consideremos M1,M2,M_{1}^{\prime},M_{2}^{\prime},\ldots v.a.’s independentes com a mesma distribuição de M=1+MnM^{\prime}=1+M\wedge n. Temos

Pp(N(An)k|An)P(M1++Mkn).P_{p}(N(A_{n})\geq k|A_{n})\geq P(M_{1}^{\prime}+\ldots+M_{k}^{\prime}\leq n).

Agora usamos um pouco da teoria da renovação elementar. Considere um processo de renovação com ”tempos de vida”M1,M2,M_{1}^{\prime},M_{2}^{\prime},\ldots (e portanto instantes de renovação M1M_{1}^{\prime}, M1+M2,,M1++Mk,M_{1}^{\prime}+M_{2}^{\prime},\ldots,M_{1}^{\prime}+\ldots+M_{k}^{\prime},\ldots)

Defina a v.a. KK como 1 mais o número de renovações até o instante nn, isto é,

K=min{k:M1++Mk>n}.K=\min\{k:M_{1}^{\prime}+\ldots+M_{k}^{\prime}>n\}.

Temos então

P(M1++Mkn)=P(Kk+1)=P(K1k).P(M_{1}^{\prime}+\ldots+M_{k}^{\prime}\leq n)=P(K\geq k+1)=P(K-1\geq k).

Somando sobre k1k\geq 1:

Ep(N(An)|An)E(K1)=E(K)1.E_{p}(N(A_{n})|A_{n})\geq E(K-1)=E(K)-1.

Para obter uma cota inferior para E(K)E(K) usamos a Identidade de Wald [9], que diz que

E(M1++MK)=E(K)E(M).E(M_{1}^{\prime}+\ldots+M_{K}^{\prime})=E(K)E(M^{\prime}).

Como, claramente, M1++MKn+1>n,M_{1}^{\prime}+\ldots+M_{K}^{\prime}\geq n+1>n, temos imediatamente que

E(K)1>nE(M)1,E(K)-1>\frac{n}{E(M^{\prime})}-1,

como queríamos.

Vamos agora às demonstrações dos lemas.

Prova do Lema 3.1

Pp(ρ1++ρknk|An)\displaystyle P_{p}(\rho_{1}+\ldots+\rho_{k}\leq n-k|A_{n})
=\displaystyle= r1,,rk1Pp(ρknki=1k1ri|ρ1=r1,,ρk1=rk1,An)\displaystyle\!\!\!\!\!\!\sum_{r_{1},\ldots,r_{k-1}}\!\!\!\!\!\!P_{p}(\rho_{k}% \leq n-k-\sum_{i=1}^{k-1}r_{i}|\rho_{1}=r_{1},\ldots,\rho_{k-1}=r_{k-1},A_{n})
×Pp(ρ1=r1,,ρk1=rk1|An)\displaystyle\mbox{}\hskip 42.67912pt\times P_{p}(\rho_{1}=r_{1},\ldots,\rho_{% k-1}=r_{k-1}|A_{n})
\displaystyle\geq r1,,k1Pp(Mknki=1k1ri)Pp(ρ1=r1,,ρk1=rk1|An)\displaystyle\!\!\!\!\!\!\sum_{r_{1},\ldots,k-1}\!\!\!\!\!\!P_{p}(M_{k}\leq n-% k-\sum_{i=1}^{k-1}r_{i})P_{p}(\rho_{1}=r_{1},\ldots,\rho_{k-1}=r_{k-1}|A_{n})
=\displaystyle= Pp(ρ1++ρk1+Mknk|An)\displaystyle P_{p}(\rho_{1}+\ldots+\rho_{k-1}+M_{k}\leq n-k|A_{n})
=\displaystyle= r1,,rk2,rkPp(ρk1nki=1,ik1kri|ρ1=r1,,ρk2=rk2,\displaystyle\!\!\!\!\!\!\sum_{r_{1},\ldots,r_{k-2},r_{k}}\!\!\!\!\!\!P_{p}(% \rho_{k-1}\leq n-k-\!\!\!\!\!\!\sum_{i=1,i\neq k-1}^{k}\!\!\!\!\!\!r_{i}|\rho_% {1}=r_{1},\ldots,\rho_{k-2}=r_{k-2},
Mk=rk,An)Pp(ρ1=r1,,ρk2=rk2,Mk=rk|An)\displaystyle\mbox{}\hskip 56.9055ptM_{k}=r_{k},A_{n})P_{p}(\rho_{1}=r_{1},% \ldots,\rho_{k-2}=r_{k-2},M_{k}=r_{k}|A_{n})
\displaystyle\geq r1,,rk2,rkPp(Mk1nki=1,ik1kri)\displaystyle\!\!\!\!\!\!\sum_{r_{1},\ldots,r_{k-2},r_{k}}\!\!\!\!\!\!P_{p}(M_% {k-1}\leq n-k-\!\!\!\!\!\!\sum_{i=1,i\neq k-1}^{k}\!\!\!\!\!\!r_{i})
×Pp(ρ1=r1,,ρk2=rk2,Mk=rk|An)\displaystyle\mbox{}\hskip 42.67912pt\times P_{p}(\rho_{1}=r_{1},\ldots,\rho_{% k-2}=r_{k-2},M_{k}=r_{k}|A_{n})
=\displaystyle= Pp(ρ1++ρk2+Mk1+Mknk|An)\displaystyle P_{p}(\rho_{1}+\ldots+\rho_{k-2}+M_{k-1}+M_{k}\leq n-k|A_{n})
\displaystyle\vdots
\displaystyle\geq Pp(M1++Mknk),\displaystyle P_{p}(M_{1}+\ldots+M_{k}\leq n-k),

as desigualdades acima todas seguindo de (3.12).

Prova do Lema 3.2

Queremos provar que

Pp(ρkrk|ρ1=r1,,ρk1=rk1,An)Pp(Mrk)P_{p}(\rho_{k}\leq r_{k}|\rho_{1}=r_{1},\ldots,\rho_{k-1}=r_{k-1},A_{n})\geq P% _{p}(M\leq r_{k}) (3.14)

quando r1++rknk.r_{1}+\ldots+r_{k}\leq n-k. Isto é equivalente a (denotando o evento {ρ1=r1,,ρk1=rk1}\{\rho_{1}=r_{1},\ldots,\rho_{k-1}=r_{k-1}\} por BB)

Pp(ρk>rk,B,An)Pp(M>rk)Pp(B,An).P_{p}(\rho_{k}>r_{k},B,A_{n})\leq P_{p}(M>r_{k})P_{p}(B,A_{n}). (3.15)

Note que {M>rk}=Ark+1\{M>r_{k}\}=A_{r_{k}+1}. Para k=1k=1 a desigualdade se torna

Pp(ρ1>r1,An)Pp(Ar1+1)Pp(An)P_{p}(\rho_{1}>r_{1},A_{n})\leq P_{p}(A_{r_{1}+1})P_{p}(A_{n}) (3.16)

para r1n1r_{1}\leq n-1.

No evento em que {ρ1>r1}\{\rho_{1}>r_{1}\}, a origem está conectada por dois caminhos disjuntos a x1x_{1} e x1x_{1} está a distância pelo menos r1+1r_{1}+1 da origem (veja a Figura 3.2).

Os elos pivotais são
Figura 3.2: Os elos pivotais são ei=(xi,yi)e_{i}=(x_{i},y_{i}) para i=1,2,3,4.i=1,2,3,4. Note que x3=y2x_{3}=y_{2} nesta configuração. A linha tracejada é a superfície Sρ1\partial S_{\rho_{1}} de Sρ1S_{\rho_{1}}. Note os caminhos disjuntos da origem a Sρ1\partial S_{\rho_{1}}.

No evento {ρ1>r1}An\{\rho_{1}>r_{1}\}\cap A_{n}, há dois caminhos disjuntos, um de OO a Sr1+1\partial S_{r_{1}+1} e outro de OO a Sn\partial S_{n}. Portanto,

{ρ1>r1}AnAr1+1An\{\rho_{1}>r_{1}\}\cap A_{n}\subset A_{r_{1}+1}\circ A_{n}

e a desigualdade de BK produz a desigualdade (3.16).

Para k>1k>1, escreva

B=ΓBΓ,B=\bigcup_{\Gamma}B_{\Gamma},

união disjunta sobre configurações (detalhadas) das salsichas até yk1y_{k-1}. Então

Pp(B,An)=ΓPp(An|BΓ)Pp(BΓ)P_{p}(B,A_{n})=\sum_{\Gamma}P_{p}(A_{n}|B_{\Gamma})P_{p}(B_{\Gamma}) (3.17)

e

Pp(ρk>rk,B,An)=ΓPp(ρk>rk,An|BΓ)Pp(BΓ).P_{p}(\rho_{k}>r_{k},B,A_{n})=\sum_{\Gamma}P_{p}(\rho_{k}>r_{k},A_{n}|B_{% \Gamma})P_{p}(B_{\Gamma}). (3.18)

Logo é suficiente mostrar para cada Γ\Gamma:

Pp(ρk>rk,An|BΓ)Pp(Ark+1)Pp(An|BΓ).P_{p}(\rho_{k}>r_{k},A_{n}|B_{\Gamma})\leq P_{p}(A_{r_{k}+1})P_{p}(A_{n}|B_{% \Gamma}). (3.19)

Mas a probabilidade à esquerda é menor ou igual a

Pp(há caminhos disjuntos abertos de yk1 a S(yk1,rk+1) e de yk1\displaystyle P_{p}(\mbox{há caminhos disjuntos abertos de $y_{k-1}$ a $\partial S(y_{k-1},r_{k}+1)$ e de $y_{k-1}$}
Sn que não usam elos dos fechos das salsichas anteriores),\displaystyle\mbox{}\mbox{a $\partial S_{n}$ que não usam elos dos fechos das % salsichas anteriores}),

onde S(yk1,rk+1)S(y_{k-1},r_{k}+1) é a esfera de centro em yk1y_{k-1} e raio rk+1r_{k}+1.

Como no caso k=1k=1, da desigualdade de BK, desta vez aplicada substituindo 𝔼d\mathbb{E}^{d} por 𝔼d\\mathbb{E}^{d}\backslash(elos dos fechos das salsichas anteriores), segue que a probabilidade acima é menor ou igual a

Pp(yk1S(yk1,rk+1)sem usar elos anteriores)\displaystyle P_{p}(y_{k-1}\leftrightarrow\partial S(y_{k-1},r_{k}+1)\,\,\mbox% {sem usar elos anteriores})
×Pp(yk1Snsem usar elos anteriores).\displaystyle\times P_{p}(y_{k-1}\leftrightarrow\partial S_{n}\,\,\mbox{sem % usar elos anteriores}).

A última probabilidade é igual a Pp(An|BΓ)P_{p}(A_{n}|B_{\Gamma}). A primeira é menor ou igual a

Pp(yk1S(yk1,rk+1))P_{p}(y_{k-1}\leftrightarrow\partial S(y_{k-1},r_{k}+1))

que, pela invariância translacional do modelo, é igual a Pp(Ark+1).P_{p}(A_{r_{k}+1}).\quad\triangle

A conclusão de que (3.9), e portanto o Teorema 3.1, segue de (3.8) se dá através do próximo lema, um resultado puramente analítico, cuja prova será apresentada no apêndice a estas notas.

Lema 3.3

Para p<pcp<p_{c}, existe uma constante δ(p)\delta(p) tal que

gp(n)δ(p)n1/2.g_{p}(n)\leq\delta(p)n^{-1/2}. (3.20)

Prova do Teorema 3.1 De (3.20), temos que

i=0ngp(i)Δ(p)n1/2,\sum_{i=0}^{n}g_{p}(i)\leq\Delta(p)n^{1/2}, (3.21)

para algum Δ(p)\Delta(p).

Substituindo (3.21) em (3.8), obtemos

gα(n)gβ(n)exp[(βα)c(βα)n1/2],g_{\alpha}(n)\leq g_{\beta}(n)\exp\left[(\beta-\alpha)-c(\beta-\alpha)n^{1/2}% \right], (3.22)

onde cc é uma constante positiva, o que implica (3.9).\quad\triangle

É uma conseqüência imediata do Teorema 3.1 o decaimento exponencial da função de conectividade.

Corolário 3.2
τp(x,y)eϕpxy1,\tau_{p}(x,y)\leq e^{-\phi_{p}||x-y||_{1}}, (3.23)

com ϕp>0\phi_{p}>0 para p<pcp<p_{c}.

(Verifique!)

Em seguida apresentamos outro corolário ao Teorema 3.1 estabelecendo a suavidade de χp\chi_{p} na fase subcrítica.

Corolário 3.3

χp\chi_{p} é kk vezes diferenciável em p<pcp<p_{c} para todo k1k\geq 1.

Prova.

Como p<pcp<p_{c}, podemos escrever χp\chi_{p} como

χp=n=1nPp(|C|=n).\chi_{p}=\sum_{n=1}^{\infty}nP_{p}(|C|=n). (3.24)

A última probabilidade pode ser expressa como

Pp(|C|=n)=m,banmbpm(1p)b,P_{p}(|C|=n)=\sum_{m,b}a_{nmb}p^{m}(1-p)^{b}, (3.25)

onde anmba_{nmb} é o número de animais de rede com nn sítios, mm elos e bb elos de fronteira. Por animal de rede denotamos conjuntos conexos de sítios da rede contendo a origem.

Para nn fixo, são válidas as seguintes cotas para mm e bb (verifique-as!)

n1mdneb2dn.n-1\leq m\leq dn\quad\mbox{e}\quad b\leq 2dn. (3.26)

Estas produzem a seguinte cota para m,banmb\sum_{m,b}a_{nmb}

1m,banmbpm(1p)b\displaystyle 1\geq\sum_{m,b}a_{nmb}p^{m}(1-p)^{b} \displaystyle\geq m,banmbpdn(1p)2dn\displaystyle\sum_{m,b}a_{nmb}p^{dn}(1-p)^{2dn}
=\displaystyle= (p(1p)2)dnm,banmb,\displaystyle(p(1-p)^{2})^{dn}\sum_{m,b}a_{nmb},

do que temos

m,banmb(p(1p)2)dn7dn.\sum_{m,b}a_{nmb}\leq(p(1-p)^{2})^{-dn}\leq 7^{dn}. (3.27)

Voltando a (3.25), temos

χp=nm=n1dnb=12dnnanmbpm(1p)b.\chi_{p}=\sum_{n}\sum_{m=n-1}^{dn}\sum_{b=1}^{2dn}na_{nmb}p^{m}(1-p)^{b}. (3.28)

Vamos dividir o argumento em dois. Para p=0p=0, provaremos o fato mais forte de que χp\chi_{p} é analítica (isto é, pode ser escrita como série de potências convergente de pp, o que implica em suavidade). Em seguida, provaremos suavidade para 0<p<pc0<p<p_{c}.

Estendendo χp\chi_{p} formalmente ao plano complexo a partir de (3.28), temos

K(z)=nm=n1dnb=12dnnanmbzm(1z)b.K(z)=\sum_{n}\sum_{m=n-1}^{dn}\sum_{b=1}^{2dn}na_{nmb}z^{m}(1-z)^{b}. (3.29)

Para provarmos analiticidade de χp\chi_{p} na origem, basta mostrarmos (pelo Teorema de Vitali), que a série acima é uniformemente convergente numa região do plano complexo contendo a origem.

De (3.27) temos

|m=n1dnb=12dnnanmbzm(1z)b|\displaystyle\left|\sum_{m=n-1}^{dn}\sum_{b=1}^{2dn}na_{nmb}z^{m}(1-z)^{b}\right| \displaystyle\leq m=n1dnb=12dnnanmb|z|m(1+|z|)b\displaystyle\sum_{m=n-1}^{dn}\sum_{b=1}^{2dn}na_{nmb}|z|^{m}(1+|z|)^{b}
\displaystyle\leq n7dn|z|n1(1+|z|)2dn\displaystyle n7^{dn}|z|^{n-1}(1+|z|)^{2dn}
\displaystyle\leq Anc(z)n1\displaystyle Anc(z)^{n-1}

se |z|1|z|\leq 1, onde AA depende apenas de dd e c(z)=|z|{7(1+|z|)2}c(z)=|z|\{7(1+|z|)^{2}\}.

Para |z||z| suficientemente pequeno, c(z)<1c(z)<1 e concluimos que a série definindo K(z)K(z) é uniformemente convergente numa vizinhança complexa da origem e portanto χp\chi_{p} é analítica em p=0p=0.

Em seguida, vamos diferenciar χp\chi_{p} formalmente kk vezes usando (3.28) para obter

dkdpkχp=nm=n1dnb=12dnnanmbdkdpk(pm(1p)b).\frac{d^{k}}{dp^{k}}\chi_{p}=\sum_{n}\sum_{m=n-1}^{dn}\sum_{b=1}^{2dn}na_{nmb}% \frac{d^{k}}{dp^{k}}(p^{m}(1-p)^{b}). (3.30)

Para obter a diferenciabilidade de χp\chi_{p} em I:=(0,pc)I:=(0,p_{c}), basta mostrar que a série acima é uniformemente convergente num intervalo fechado arbitrário de II. Para isto notemos que

|dkdpk(pm(1p)b)|\displaystyle\left|\frac{d^{k}}{dp^{k}}(p^{m}(1-p)^{b})\right| =\displaystyle= |r=0k(kr)mrbkrpmr(1)kr(1p)b(kr)|\displaystyle\left|\sum_{r=0}^{k}{k\choose r}m_{r}b_{k-r}p^{m-r}(-1)^{k-r}(1-p% )^{b-(k-r)}\right|
\displaystyle\leq pm(1p)br=0k(kr)(m/p)r(b/(1p))kr\displaystyle p^{m}(1-p)^{b}\sum_{r=0}^{k}{k\choose r}(m/p)^{r}(b/(1-p))^{k-r}
=\displaystyle= pm(1p)b(mp+b1p)k,\displaystyle p^{m}(1-p)^{b}\left(\frac{m}{p}+\frac{b}{1-p}\right)^{k},

onde xr=x!/r!x_{r}=x!/r!. Logo,

nN|m=n1dnb=12dnnanmbdkdpk(pm(1p)b)|\displaystyle\sum_{n\geq N}\left|\sum_{m=n-1}^{dn}\sum_{b=1}^{2dn}na_{nmb}% \frac{d^{k}}{dp^{k}}(p^{m}(1-p)^{b})\right|
\displaystyle\leq (2dp(1p))knNnkm=n1dnb=12dnnanmbpm(1p)b\displaystyle\left(\frac{2d}{p(1-p)}\right)^{k}\sum_{n\geq N}n^{k}\sum_{m=n-1}% ^{dn}\sum_{b=1}^{2dn}na_{nmb}p^{m}(1-p)^{b}
=\displaystyle= (2dp(1p))knNnkPp(|C|=n)\displaystyle\left(\frac{2d}{p(1-p)}\right)^{k}\sum_{n\geq N}n^{k}P_{p}(|C|=n)

e, portanto, (3.3) implica na convergência uniforme de (3.30) em intervalos fechados de II. \quad\triangle

Observação 3.3

Um argumento semelhante ao da prova acima, mas usando o decaimento exponencial da distribuição de |C||C| (como discutido na Observação 3.2), prova analiticidade de χp\chi_{p} em (0,pc)(0,p_{c}). (Vide [8].)