3.1 Esperança

{definition}

Se XX é uma variável aleatória com Ω|X|ω<\int_{\Omega}|X|\d{\omega}<\infty, dizemos que XX é integrável e definimos

E(X)=ΩX(ω)P(ω),E(X)=\int_{\Omega}X(\omega)P(\d{\omega}), (3.1)

a chamada esperança de XX. Nesse caso também dizemos que X1X\in\mathcal{L}^{1}.

Quando X0X\geq 0, também podemos supor que E(X)E(X) está bem definida, mesmo que possivelmente tomando valor infinito.

Não demonstraremos algumas propriedades conhecidas da integração de Lebesgue, tais como

  1.  a)

    E(X+αY)=E(X)+αE(Y)E(X+\alpha Y)=E(X)+\alpha E(Y) (se estiverem bem definidas),

  2.  b)

    Valem os Teoremas de Convergência (Monótona e Limitada).

{exercise}

Mostre que se X1X\in\mathcal{L}^{1} e P[X>x]=0P[X>x]=0, então E(X)xE(X)\leq x.

{lemma}

A esperança de uma variável aleatória X1X\in\mathcal{L}^{1} depende somente de sua distribuição. Mais precisamente

E(X)=xPX(x).E(X)=\int x\;P_{X}(\d{x}). (3.2)
Demonstração.

Vamos mostrar que

E(f(X))=f(x)(XP)(x),E\big{(}f(X)\big{)}=\int f(x)(X\circ P)(\d{x}), (3.3)

para toda f:f:\mathbb{R}\to\mathbb{R} mensurável tal que f(X)1f(X)\in\mathcal{L}^{1}.

Para f=\1Af=\1_{A}, temos

E(f(X))=P[XA]=(XP)(A),E\big{(}f(X)\big{)}=P[X\in A]=(X\circ P)(A), (3.4)

por definição de XPX\circ P.

Agora podemos extender o teorema para funções ff simples por linearidade, depois para funções positivas usando o Teorema da Convergência Monótona e finalmente escrevemos x=x\1[0,)(x)\1(,0)x=x\1_{[0,\infty)}-(-x)\1_{(-\infty,0)}. ∎

Vamos mostrar uma fórmula bastante simples de integração de variáveis tomando valores em um conjunto enumerável. Se X{x1,x2,}X\in\{x_{1},x_{2},\dots\} PP-quase certamente, então

E(X)=ΩXP(ω)=i\1[X=xi]XP(ω)+{x1,x2,}cXP(ω)=i[X=xi]xiP(ω)+0=ixiP[X=xi].\begin{split}E(X)&=\int_{\Omega}XP(\d{\omega})=\int\sum_{i}\1_{[X=x_{i}]}XP(\d% {\omega})+\int_{\{x_{1},x_{2},\dots\}^{c}}XP(\d{\omega})\\ &=\sum_{i}\int_{[X=x_{i}]}x_{i}P(\d{\omega})+0=\sum_{i}x_{i}P[X=x_{i}].\end{split} (3.5)

Para nos acostumar à notação de probabilidade, vamos agora mostrar o mesmo resultado da seguinte forma

E(X)=E(iX\1[X=xi])+E(X\1{x1,x2,}c)=iE[X;X=xi]+0=ixiP[X=xi].\begin{split}E(X)&=E\Big{(}\sum_{i}X\1_{[X=x_{i}]}\Big{)}+E(X\1_{\{x_{1},x_{2}% ,\dots\}^{c}})\\ &=\sum_{i}E[X;X=x_{i}]+0=\sum_{i}x_{i}P[X=x_{i}].\end{split} (3.6)

Que é certamente muito útil quando nos habituamos a ela.

Observe que acima usamos a notação E[X;𝒬]=E(X\1[𝒬])E[X;\mathcal{Q}]=E(X\1_{[\mathcal{Q}]}). Também utilizaremos E[X;𝒬1,𝒬2,]=E(X\1[𝒬1,𝒬2,])E[X;\mathcal{Q}_{1},\mathcal{Q}_{2},\dots]=E(X\1_{[\mathcal{Q}_{1},\mathcal{Q}% _{2},\dots]})

{example}

Se X𝑑\Ber(p)X\overset{d}{\sim}\Ber(p), então E(X)=0P[X=0]+1P[X=1]=0+p=pE(X)=0\cdot P[X=0]+1P[X=1]=0+p=p.

{example}

Seja X𝑑\Bin(n,p)X\overset{d}{\sim}\Bin(n,p), então, para calcular E(X)E(X), basta calcular E(Y)E(Y) onde X𝑑YX\overset{d}{\sim}Y. Como vimos anteriormente, se Z1,Z2,,ZnZ_{1},Z_{2},\dots,Z_{n} são variáveis \iid(relembrando: independentes e identicamente distribuídos) com Z1𝑑\Ber(p)Z_{1}\overset{d}{\sim}\Ber(p), então Y=iZi𝑑\Bin(n,p)Y=\sum_{i}Z_{i}\overset{d}{\sim}\Bin(n,p). Logo

E(X)=E(Y)=iE(Zi)=np.E(X)=E(Y)=\sum_{i}E(Z_{i})=np. (3.7)

Se d(XP)=ρ(x)xd(X\circ P)=\rho(x)\d{x} (com ρ0\rho\geq 0 e ρ(x)x=1\int\rho(x)\d{x}=1), então

E(X)=x(XP)(x)=xρ(x)x.E(X)=\int x(X\circ P)(\d{x})=\int x\rho(x)\d{x}. (3.8)
{example}

Se X𝑑U[0,1]X\overset{d}{\sim}U_{[0,1]}, então sua densidade com respeito a Lebesgue é dada por d(XP)=\1[0,1]xd(X\circ P)=\1_{[0,1]}\d{x}, donde E(X)=01xx=1/2E(X)=\int_{0}^{1}x\d{x}=1/2.

{proposition}

Se X0X\geq 0 PP-q.c., então

E(X)=0P[X>x]x)=01F(x)x.E(X)=\int_{0}^{\infty}P[X>x]\d{x})=\int_{0}^{\infty}1-F(x)\d{x}. (3.9)
Demonstração.
E(X)=E(0X1x)=E(0\1[x<X]x)=Fubini0E(\1[x<X])x=0P[x<X]x.\begin{split}E(X)&=E\Big{(}\int_{0}^{X}1\d{x}\Big{)}=E\Big{(}\int_{0}^{\infty}% \1_{[x<X]}\d{x}\Big{)}\\ &\overset{\text{Fubini}}{=}\int_{0}^{\infty}E(\1_{[x<X]})\d{x}=\int_{0}^{% \infty}P[x<X]\d{x}.\end{split} (3.10)

{example}

Se X𝑑\Exp(λ)X\overset{d}{\sim}\Exp(\lambda), então

P[Xx]=xλeλtt=eλx,P[X\geq x]=\int_{x}^{\infty}\lambda e^{-\lambda t}\d{t}=e^{-\lambda x}, (3.11)

donde

E(X)=0eλxx=1λ.E(X)=\int_{0}^{\infty}e^{-\lambda x}\d{x}=\frac{1}{\lambda}. (3.12)
{exercise}

Se X1X\in\mathcal{L}^{1} e P[Xx]=P[Xx]P[X\geq x]=P[X\leq-x] para todo x0x\geq 0, então E(X)=0E(X)=0.

{exercise}

Marcelo coleciona figurinhas de futebol. O álbum completo conterá NN figurinhas. No ii-ésimo dia, ele compra uma nova carta Xi{1,,N}X_{i}\in\{1,\dots,N\}. A coleção (Xi)i0(X_{i})_{i\geq 0} é distribuida de maneira \iide uniforme nas figurinhas.

  1.  a)

    Para j=1,,Nj=1,\dots,N, seja TjT_{j} o tempo passado até a aquisição da jj-ésima nova figurinha, i.e.

    T1=1 e Tj=inf{i,Xi{XTj;j<j}}.T_{1}=1\quad\text{ e }\quad T_{j}=\inf\{i,X_{i}\not\in\{X_{T_{j^{\prime}}};j^{% \prime}<j\}\}. (3.13)

    Mostre que TjT_{j} é finito quase certamente, para todo jNj\leq N.

  2.  b)

    Calcule a distribuição conjunta de (T1,T2T1,,TNTN1)(T_{1},T_{2}-T_{1},\dots,T_{N}-T_{N-1}).

  3.  c)

    Calcule a esperança de TNT_{N} (o dia em que Marcelo completa seu álbum).

{exercise}

Sejam X1,X2,X_{1},X_{2},\dots variáveis aleatórias \iide defina o primeiro tempo de récorde como

R=inf{i2;XiX1}.R=\inf\{i\geq 2;X_{i}\geq X_{1}\}. (3.14)

Supondo que X1X_{1} é absolutamente contínua com respeito à medida de Lebesgue, encontre E(R)E(R).

3.1.1 Desigualdade de Markov

{theorem}

Se X0X\geq 0 PP-q.c., então para todo x>0x>0,

P[Xx]E(X)x.P[X\geq x]\leq\frac{E(X)}{x}. (3.15)
Demonstração.

Sabemos que Xx\1[Xx]X\geq x\1_{[X\geq x]}, logo

E(X)xE(\1[Xx])=xP[Xx],E(X)\geq xE(\1_{[X\geq x]})=xP[X\geq x], (3.16)

que termina a prova. ∎

O próximo exemplo serve muito bem para mostrar porque estamos interessados em desigualdades como a do Teorema 3.1.1 acima.

Em vários exemplos importantes, podemos ter dificuldade de calcular probabilidades explicitamente. Nesses casos, poderíamos gastar nossas energias tentando calculá-las a qualquer custo, ou podemos nos contentar em obter cotas superiores e inferiores para as probabilidades nas quais estamos interessados.

Em vários casos, a segunda estratégia tem uma grande vantagem sobre a primeira, por possibilitar que estudemos problemas mais complexos (e consequentemente mais importantes/interessantes) e muitas vezes sem nos afastarmos da realidade (em vários exemplos as cotas superiores e inferiores são próximas o suficiente para que não nos preocupemos).

{example}

Sejam nn patos e mm caçadores. Cada caçador escolhe um pato aleatorea e uniformemente e atira (abatendo-o com probabilidade pp). Seja X=#{patos vivos}X=\#\{\text{patos vivos}\}, que pode ter uma distribuição complicada de calcular, mas

E(X)=E(i=1n\1[pato i vive])=i=1nP[pato i vive]=nP[pato 1 vive]=P(\mcapj=1m[caçador j não mata pato 1])=nP[caçador j não mata pato 1]m=n(1pn).\begin{split}E(X)&=E\Big{(}\sum_{i=1}^{n}\1_{[\text{pato $i$ vive}]}\Big{)}=% \sum_{i=1}^{n}P[\text{pato $i$ vive}]\\ &=nP[\text{pato $1$ vive}]=P\Big{(}\mcap_{j=1}^{m}[\text{ca\c{c}ador $j$ n\~{a% }o mata pato $1$}]\Big{)}\\ &=nP[\text{ca\c{c}ador $j$ n\~{a}o mata pato $1$}]^{m}=n\Big{(}1-\frac{p}{n}% \Big{)}.\end{split} (3.17)

Observe que

  1.  a)

    acima obtivemos uma igualdade e

  2.  b)

    [pato i vive][\text{pato $i$ vive}], i=1,,ni=1,\dots,n não são independentes.

Finalmente estimamos (digamos para nn par)

P[patos para o jantarn/2]=P[Xn/2]E(X)n/2=2nn(1pn)m2exp{pmn}.\begin{split}&P[\text{patos para o jantar}\leq n/2]=P[X\geq n/2]\leq\frac{E(X)% }{n/2}\\ &\qquad=2\frac{n}{n}\Big{(}1-\frac{p}{n}\Big{)}^{m}\leq 2\exp\{-\frac{pm}{n}\}% .\end{split} (3.18)
\todosec

Tópico: Grafos Aleatóriosfazer erdos renyi…

\todosec

Tópico: Currie Weissfazer…

3.1.2 Esperança e independência

{proposition}

Sejam XX e YY variáveis aleatórias independentes e em 2\mathcal{L}^{2}, então

E(XY)=E(X)E(Y).E(XY)=E(X)E(Y). (3.19)
Demonstração.

Obviamente o resultado acima é válido para funções indicadoras, pois \1A\1B=\1AB\1_{A}\1_{B}=\1_{A\cap B}. Por linearidade, o resultado também vale para funções simples e usando o Teorema da Convergência Monótona podemos extendê-lo para funções positivas. Finalmente, decompomos X=X+XX=X_{+}-X_{-} e Y=Y+YY=Y_{+}-Y_{-} e lembramos que ambas estão em 2\mathcal{L}^{2} para concluir a prova. ∎

{exercise}

Mostre que E(XY)E(XY), E(X/Y)E(X/Y), E(X+Y)E(X+Y)… dependem apenas da distribuição de (X,Y)2(X,Y)\in\mathbb{R}^{2}.

{exercise}

Mostre que se X,Y1X,Y\in\mathcal{L}^{1}, então também vale E(XY)=E(X)E(Y)E(XY)=E(X)E(Y).