6 Esperança

Se lançarmos um dado justo muitas vezes, esperamos que cada um dos seis resultados possíveis apareça cerca de um sexto do tempo, e assim a média dos números obtidos seria aproximadamente

161+162+163+164+165+166=72.\frac{1}{6}\cdot 1+\frac{1}{6}\cdot 2+\frac{1}{6}\cdot 3+\frac{1}{6}\cdot 4+% \frac{1}{6}\cdot 5+\frac{1}{6}\cdot 6=\frac{7}{2}.

Chamamos esse número de esperança de XX.

6.1 Definição e exemplos

Definição 6.1 (Esperança).

Seja XX uma variável aleatória discreta. Definimos a esperança de XX, denotada por 𝔼[X]\mathbb{E}[X], como o número real dado por

𝔼[X]=x:(X=x)>0x(X=x),\mathbb{E}[X]=\sum_{x:\mathbb{P}(X=x)>0}x\cdot\mathbb{P}(X=x),

desde que essa soma convirja absolutamente, caso contrário 𝔼[X]\mathbb{E}[X] não está definida.

Terminologia.

Dizer que nan\sum_{n}a_{n} converge absolutamente significa que n|an|\sum_{n}|a_{n}| converge.

Definição 6.2 (Integrável).

Dizemos que uma variável aleatória discreta XX é integrável se a sua esperança estiver definida, ou seja, se a soma

x:(X=x)>0|x|(X=x)\sum_{x:\mathbb{P}(X=x)>0}|x|\cdot\mathbb{P}(X=x)

for convergente.

Notação.

O fato de que 𝔼[X]\mathbb{E}[X] depende de XX fica evidente pelo fato de "X"aparecer em "𝔼[X]\mathbb{E}[X]"e o fato de que depende de \mathbb{P} fica em parte aparente pelo uso da mesma fonte em "𝔼\mathbb{E}"e "\mathbb{P}".

Exemplo 6.3.

Lance uma moeda justa 44 vezes e conte o número de caras.

𝔼[X]\displaystyle\mathbb{E}[X] =0(X=0)+1(X=1)+2(X=2)+\displaystyle=0\cdot\mathbb{P}(X=0)+1\cdot\mathbb{P}(X=1)+2\cdot\mathbb{P}(X=2% )+{} (6.4)
+3(X=3)+4(X=4)\displaystyle\quad\quad+3\cdot\mathbb{P}(X=3)+4\cdot\mathbb{P}(X=4) (6.5)
=0116+1416+2616+3416+4116\displaystyle=0\cdot\frac{1}{16}+1\cdot\frac{4}{16}+2\cdot\frac{6}{16}+3\cdot% \frac{4}{16}+4\cdot\frac{1}{16} (6.6)
=2.\displaystyle=2. (6.7)
Exemplo 6.8 (Função indicadora).

Seja AA\in\mathcal{F} e defina XX como

X(ω)={1,ωA,0,ωAc.X(\omega)=\begin{cases}1,&\omega\in A,\\ 0,&\omega\in A^{c}.\end{cases}

Uma função assim é chamada de função indicadora do conjunto AA e é denotada por 𝟙A\mathds{1}_{A}. Nesse caso, 𝔼[X]=0×(Ac)+1×(A)=(A)\mathbb{E}[X]=0\times\mathbb{P}(A^{c})+1\times\mathbb{P}(A)=\mathbb{P}(A). Ou seja,

𝔼[𝟙A]=(A).\mathbb{E}[\mathds{1}_{A}]=\mathbb{P}(A).
Exemplo 6.9.

Lance um dado justo duas vezes e some os valores observados.

𝔼[X]\displaystyle\mathbb{E}[X] =2×136+3×236+4×336+5×436+6×536+7×636+\displaystyle=2\times\frac{1}{36}+3\times\frac{2}{36}+4\times\frac{3}{36}+5% \times\frac{4}{36}+6\times\frac{5}{36}+7\times\frac{6}{36}+{} (6.10)
+8×536+9×436+10×336+11×236+12×136=7.\displaystyle\qquad+8\times\frac{5}{36}+9\times\frac{4}{36}+10\times\frac{3}{3% 6}+11\times\frac{2}{36}+12\times\frac{1}{36}=7. (6.11)
Exemplo 6.12.

Pegue 33 cartas de um baralho de 5252 cartas, uma após a outra e sem reposição, e conte quantas são damas de ouros.

𝔼[X]=0×484746525150\displaystyle\mathbb{E}[X]=0\times\frac{48\cdot 47\cdot 46}{52\cdot 51\cdot 50} +1×348474525150+\displaystyle+1\times\frac{3\cdot 48\cdot 47\cdot 4}{52\cdot 51\cdot 50}+{} (6.13)
+2×34843525150+3×432525150=313.\displaystyle+2\times\frac{3\cdot 48\cdot 4\cdot 3}{52\cdot 51\cdot 50}+3% \times\frac{4\cdot 3\cdot 2}{52\cdot 51\cdot 50}=\frac{3}{13}. (6.14)
Exemplo 6.15 (Poisson).

Se XPoisson(λ)X\sim\mathrm{Poisson}(\lambda), então

𝔼[X]\displaystyle\mathbb{E}[X] =n=0nλneλn!=n=1λneλ(n1)!=\displaystyle=\sum_{n=0}^{\infty}n\frac{\lambda^{n}e^{-\lambda}}{n!}=\sum_{n=1% }^{\infty}\frac{\lambda^{n}e^{-\lambda}}{(n-1)!}= (6.16)
=λeλn=1λn1(n1)!=λeλk=0λkk!=λeλeλ=λ.\displaystyle=\lambda e^{-\lambda}\sum_{n=1}^{\infty}\frac{\lambda^{n-1}}{(n-1% )!}=\lambda e^{-\lambda}\sum_{k=0}^{\infty}\frac{\lambda^{k}}{k!}=\lambda e^{-% \lambda}e^{\lambda}=\lambda. (6.17)

Portanto, a esperança de uma variável aleatória distribuída como Poisson(λ)\mathrm{Poisson}(\lambda) é λ\lambda.

Exemplo 6.18 (Binomial).

Se XBinom(n,p)X\sim\mathrm{Binom}(n,p), então

𝔼[X]\displaystyle\mathbb{E}[X] =k=0nk(nk)pk(1p)nk=k=1nn(n1k1)pk(1p)nk\displaystyle=\sum_{k=0}^{n}k\binom{n}{k}p^{k}(1-p)^{n-k}=\sum_{k=1}^{n}n% \binom{n-1}{k-1}p^{k}(1-p)^{n-k} (6.19)
=nj=0n1(n1j)pj+1(1p)nj1=npj=0n1(n1j)pj(1p)n1j\displaystyle=n\sum_{j=0}^{n-1}\binom{n-1}{j}p^{j+1}(1-p)^{n-j-1}=np\sum_{j=0}% ^{n-1}\binom{n-1}{j}p^{j}(1-p)^{n-1-j} (6.20)
=np[p+(1p)]n1=np.\displaystyle=np[p+(1-p)]^{n-1}=np. (6.21)
Exemplo 6.22 (Geométrica).

Suponha que XGeom(p)X\sim\mathrm{Geom}(p). Vamos calcular

𝔼[X]=n=1n(1p)n1p\mathbb{E}[X]=\sum_{n=1}^{\infty}n(1-p)^{n-1}p

através da diferenciação de uma série de potências. Escrevendo x=1px=1-p, podemos desenvolver da seguinte forma:

𝔼[X]\displaystyle\mathbb{E}[X] =n=1np(1p)n1=pn=0nxn1\displaystyle=\sum_{n=1}^{\infty}n\cdot p\cdot(1-p)^{n-1}=p\sum_{n=0}^{\infty}% n\cdot x^{n-1} (6.23)
=pn=0ddx[xn]=pddx[n=0xn]=pddx[11x]\displaystyle=p\sum_{n=0}^{\infty}\frac{\mathrm{d}}{\mathrm{d}x}\big{[}x^{n}% \big{]}=p\cdot\frac{\mathrm{d}}{\mathrm{d}x}\Big{[}\sum_{n=0}^{\infty}x^{n}% \Big{]}=p\cdot\frac{\mathrm{d}}{\mathrm{d}x}\,\Big{[}\frac{1}{1-x}\Big{]} (6.24)
=p((1x)2)(1)=1p.\displaystyle=p\cdot\Big{(}-(1-x)^{-2}\Big{)}\cdot(-1)=\frac{1}{p}. (6.25)

Portanto, a esperança de uma variável aleatória distribuída como Geom(p)\mathrm{Geom}(p) é 1p\frac{1}{p}. Sabemos que a série de potências nxn\sum_{n}x^{n} converge se |x|<1|x|<1, e estamos aceitando uma propriedade que diz que a série de potências pode ser diferenciada termo a termo dentro desse intervalo.

6.2 Propriedades da esperança

Nos exemplos acima, 2=12+12+12+122=\frac{1}{2}+\frac{1}{2}+\frac{1}{2}+\frac{1}{2}, 7=72+727=\frac{7}{2}+\frac{7}{2}, 313=113+113+113\frac{3}{13}=\frac{1}{13}+\frac{1}{13}+\frac{1}{13}, e np=p++pnp=p+\dots+p. Isso não é uma coincidência. Vem do fato de que

𝔼[X+Y]=𝔼[X]+𝔼[Y]\mathbb{E}[X+Y]=\mathbb{E}[X]+\mathbb{E}[Y]

para variáveis aleatórias discretas integráveis XX e YY.

Teorema 6.26.

Sejam XX e YY variáveis aleatórias discretas integráveis definidas no mesmo espaço de probabilidade (Ω,,)(\Omega,\mathcal{F},\mathbb{P}). Então:

  1. (a)

    𝔼[𝟙A]=(A)\mathbb{E}[\mathds{1}_{A}]=\mathbb{P}(A) para todo AA\in\mathcal{F},

  2. (b)

    Se 0ZX0\leqslant Z\leqslant X para todo ωΩ\omega\in\Omega, então 0𝔼[Z]𝔼[X]0\leqslant\mathbb{E}[Z]\leqslant\mathbb{E}[X],

  3. (c)

    𝔼[aX+bY]=a𝔼[X]+b𝔼[Y]\mathbb{E}[aX+bY]=a\mathbb{E}[X]+b\mathbb{E}[Y].

Dizemos que a expectativa é unitária, monótona e linear.

Veremos uma prova mais adiante.

Exemplo 6.27.

No Exemplo 6.3, podemos definir X1X_{1}, X2X_{2}, X3X_{3} e X4X_{4} como a função indicadora dos eventos em que o primeiro, segundo, terceiro e quarto lançamentos da moeda resultaram em Caras, respectivamente. Como X=X1+X2+X3+X4X=X_{1}+X_{2}+X_{3}+X_{4}, podemos obter a expectativa usando a linearidade, como em

𝔼[X]=𝔼[X1]+𝔼[X2]+𝔼[X3]+𝔼[X4]=12+12+12+12=2,\mathbb{E}[X]=\mathbb{E}[X_{1}]+\mathbb{E}[X_{2}]+\mathbb{E}[X_{3}]+\mathbb{E}% [X_{4}]=\frac{1}{2}+\frac{1}{2}+\frac{1}{2}+\frac{1}{2}=2,

em vez de calcular a função de massa de probabilidade de XX.

Exemplo 6.28.

No Exemplo 6.9, observe que X=Y+ZX=Y+Z, onde YY e ZZ representam o resultado do primeiro e do segundo dados. Assim,

𝔼[X]=𝔼[Y]+𝔼[Z]=72+72=7.\mathbb{E}[X]=\mathbb{E}[Y]+\mathbb{E}[Z]=\frac{7}{2}+\frac{7}{2}=7.
Exemplo 6.29.

No Exemplo 6.12, observe que X=X1+X2+X3X=X_{1}+X_{2}+X_{3}, onde XkX_{k} é a indicadora de se a kk-ésima carta é uma rainha. Diferentemente dos exemplos anteriores, observe que aqui X1X_{1}, X2X_{2} e X3X_{3} não são "independentes"(uma noção precisa de independência será introduzida mais adiante). No entanto, cada uma delas individualmente satisfaz 𝔼[Xk]=113\mathbb{E}[X_{k}]=\frac{1}{13}, e podemos calcular

𝔼[X]=𝔼[X1]+𝔼[X2]+𝔼[X3]=313.\mathbb{E}[X]=\mathbb{E}[X_{1}]+\mathbb{E}[X_{2}]+\mathbb{E}[X_{3}]=\frac{3}{1% 3}.
Exemplo 6.30.

No Exemplo 6.18, observe que XX tem a mesma distribuição que X1++XnX_{1}+\cdots+X_{n}, onde cada XkX_{k} é distribuída como Bernoulli(p)\mathrm{Bernoulli}(p), e, portanto,

𝔼[X]=𝔼[X1]++𝔼[Xn]=(p++p)=np.\mathbb{E}[X]=\mathbb{E}[X_{1}]+\cdots+\mathbb{E}[X_{n}]=(p+\cdots+p)=np.

Nos exemplos anteriores, foi mais fácil calcular a expectativa usando a linearidade do que usando a distribuição de XX. Em muitos outros casos, descrever a distribuição de XX de uma forma que nos permita calcular a expectativa pode ser muito difícil ou até mesmo impraticável, mas ainda assim pode ser possível calcular a expectativa usando a linearidade.

Exemplo 6.31.

Uma gaveta contém 1010 pares de meias, todos diferentes entre si. Alguém abre a gaveta no escuro e retira 66 meias dela. Qual é a expectativa de XX, o número de pares formados pelas meias retiradas? É mais conveniente supor que as meias sejam retiradas em ordem, da 11-ª à 66-ª. Vamos contar quantas delas têm um par que também foi retirado. Isso dará um número NN que é o dobro do número de pares, porque cada par será contado duas vezes, então N=2XN=2X. Observe que N=X1++X6N=X_{1}+\cdots+X_{6}, onde Xk=𝟙AkX_{k}=\mathds{1}_{A_{k}} e AkA_{k} é o evento de que o par da kk-ésima meia retirada também foi retirado. Então (Ak)=519\mathbb{P}(A_{k})=\frac{5}{19} (exercício!) e, portanto, 𝔼[N]=𝔼[X1]++𝔼[X6]=6519\mathbb{E}[N]=\mathbb{E}[X_{1}]+\dots+\mathbb{E}[X_{6}]=6\cdot\frac{5}{19}. Portanto, 𝔼[X]=𝔼[N2]=1519\mathbb{E}[X]=\mathbb{E}[\frac{N}{2}]=\frac{15}{19}. A combinatorial envolvida em mostrar que (Ak)=519\mathbb{P}(A_{k})=\frac{5}{19} pode não ser muito fácil, mas é muito mais fácil do que descrever a distribuição de NN.

6.3 Função de uma variável aleatória

Proposição 6.32.

Seja XX uma variável aleatória discreta e g:g:\mathbb{R}\to\mathbb{R} uma função qualquer. Então

𝔼[g(X)]=xDXg(x)(X=x),\mathbb{E}[g(X)]=\sum_{x\in D_{X}}g(x)\cdot\mathbb{P}(X=x),

se esta soma convergir absolutamente, e 𝔼[g(X)]\mathbb{E}[g(X)] é indefinida se não convergir. Na soma, DXD_{X} denota o suporte discreto de XX.

Exemplo 6.33.

Suponha que pX(x)=13p_{X}(x)=\frac{1}{3} para x=1,2,3x=1,2,3. Vamos calcular 𝔼[(X2)2]\mathbb{E}[(X-2)^{2}] de duas maneiras. Para a função g(x)=(x2)2g(x)=(x-2)^{2}, queremos calcular 𝔼[g(X)]\mathbb{E}[g(X)].

A primeira maneira é a seguinte. Defina a variável aleatória Z=g(X)=(X2)2Z=g(X)=(X-2)^{2} e calcule 𝔼[Z]\mathbb{E}[Z] a partir da definição. Começamos calculando pZ(0)=(X{2})=13p_{Z}(0)=\mathbb{P}(X\in\{2\})=\frac{1}{3} e pZ(1)=(X{1,3})=23p_{Z}(1)=\mathbb{P}(X\in\{1,3\})=\frac{2}{3}, obtendo a tabela

zpZ(z)013123\begin{array}[]{c|c}z&p_{Z}(z)\\ \hline\cr 0&\frac{1}{3}\\ 1&\frac{2}{3}\end{array}

e, finalmente, 𝔼[Z]=013+123=23\mathbb{E}[Z]=0\cdot\frac{1}{3}+1\cdot\frac{2}{3}=\frac{2}{3}. Para a segunda maneira, basta escrever

xg(x)pX(x)111320133113\begin{array}[]{c|c|c}x&g(x)&p_{X}(x)\\ \hline\cr 1&1&\frac{1}{3}\\ 2&0&\frac{1}{3}\\ 3&1&\frac{1}{3}\end{array}

e calcular 𝔼[g(X)]=113+013+113=23\mathbb{E}[g(X)]=1\cdot\frac{1}{3}+0\cdot\frac{1}{3}+1\cdot\frac{1}{3}=\frac{2% }{3}.

Exemplo 6.34.

Se XPoisson(λ)X\sim\mathrm{Poisson}(\lambda), então

𝔼[X2]\displaystyle\mathbb{E}[X^{2}] =n=0n2λneλn!=n=1nλneλ(n1)!\displaystyle=\sum_{n=0}^{\infty}n^{2}\frac{\lambda^{n}e^{-\lambda}}{n!}=\sum_% {n=1}^{\infty}n\frac{\lambda^{n}e^{-\lambda}}{(n-1)!} (6.35)
=n=1λneλ(n1)!+n=1(n1)λneλ(n1)!\displaystyle=\sum_{n=1}^{\infty}\frac{\lambda^{n}e^{-\lambda}}{(n-1)!}+\sum_{% n=1}^{\infty}(n-1)\frac{\lambda^{n}e^{-\lambda}}{(n-1)!} (6.36)
=n=1λneλ(n1)!+n=2λneλ(n2)!\displaystyle=\sum_{n=1}^{\infty}\frac{\lambda^{n}e^{-\lambda}}{(n-1)!}+\sum_{% n=2}^{\infty}\frac{\lambda^{n}e^{-\lambda}}{(n-2)!} (6.37)
=λeλn=1λn1(n1)!+λ2eλn=2λn2(n2)!\displaystyle=\lambda e^{-\lambda}\sum_{n=1}^{\infty}\frac{\lambda^{n-1}}{(n-1% )!}+\lambda^{2}e^{-\lambda}\sum_{n=2}^{\infty}\frac{\lambda^{n-2}}{(n-2)!} (6.38)
=λeλk=0λkk!+λ2eλm=0λmm!\displaystyle=\lambda e^{-\lambda}\sum_{k=0}^{\infty}\frac{\lambda^{k}}{k!}+% \lambda^{2}e^{-\lambda}\sum_{m=0}^{\infty}\frac{\lambda^{m}}{m!} (6.39)
=λ+λ2.\displaystyle=\lambda+\lambda^{2}. (6.40)

Embora tenha havido muita computação algébrica envolvida, a alternativa seria pior: definir Z=X2Z=X^{2}, descrever o suporte discreto de ZZ, encontrar uma expressão para pZ(z)p_{Z}(z), escrever 𝔼[Z]=zzpZ(z)\mathbb{E}[Z]=\sum_{z}z\cdot p_{Z}(z) e, em seguida, tentar avaliar a soma.

Exemplo 6.41.

Suponha que XGeom(p)X\sim\mathrm{Geom}(p). Como antes, calcularemos

𝔼[X2]=n=1n2(1p)n1p\mathbb{E}[X^{2}]=\sum_{n=1}^{\infty}n^{2}(1-p)^{n-1}p

por meio da diferenciação de duas séries de potência. Para fazer isso, escrevemos x=1px=1-p e desenvolvemos da seguinte maneira:

𝔼[X2]\displaystyle\mathbb{E}[X^{2}] =n=1n2pxn1\displaystyle=\sum_{n=1}^{\infty}n^{2}\cdot p\cdot x^{n-1} (6.42)
=pn=1nxn1+pn=1n(n1)xn1\displaystyle=p\sum_{n=1}^{\infty}n\cdot x^{n-1}+p\sum_{n=1}^{\infty}n\cdot(n-% 1)\cdot x^{n-1} (6.43)
=pn=0nxn1+pxn=0n(n1)xn2\displaystyle=p\sum_{n=0}^{\infty}n\cdot x^{n-1}+px\sum_{n=0}^{\infty}n\cdot(n% -1)\cdot x^{n-2} (6.44)
=pn=0ddx[xn]+pxn=0d2dx2[xn]\displaystyle=p\sum_{n=0}^{\infty}\frac{\mathrm{d}}{\mathrm{d}x}[x^{n}]+px\sum% _{n=0}^{\infty}\frac{\mathrm{d}^{2}}{\mathrm{d}x^{2}}[x^{n}] (6.45)
=pddx[n=0xn]+pxd2dx2[n=0xn]\displaystyle=p\cdot\frac{\mathrm{d}}{\mathrm{d}x}\Big{[}\sum_{n=0}^{\infty}x^% {n}\Big{]}+px\cdot\frac{\mathrm{d}^{2}}{\mathrm{d}x^{2}}\Big{[}\sum_{n=0}^{% \infty}x^{n}\Big{]} (6.46)
=p1(1x)2+px2(1x)3\displaystyle=p\frac{1}{(1-x)^{2}}+px\frac{2}{(1-x)^{3}} (6.47)
=1p+21pp2\displaystyle=\frac{1}{p}+2\cdot\frac{1-p}{p^{2}} (6.48)
=2pp2.\displaystyle=\frac{2-p}{p^{2}}. (6.49)

Como antes, sabemos que a série de potência nxn\sum_{n}x^{n} converge se |x|<1|x|<1, e estamos aceitando uma propriedade que diz que a série de potência pode ser diferenciada termo a termo dentro desse intervalo.

Exemplo 6.50.

Suponha que XGeom(p)X\sim\mathrm{Geom}(p). Para quais valores de tt a função etXe^{tX} é integrável e qual é o valor de 𝔼[etX]\mathbb{E}[e^{tX}]? Podemos escrever

𝔼[etX]=n=1etnp(1p)n1=petk=0[et(1p)]n1=pet1[et(1p)].\mathbb{E}[e^{tX}]=\sum_{n=1}^{\infty}e^{tn}\cdot p\cdot(1-p)^{n-1}=pe^{t}\sum% _{k=0}^{\infty}[e^{t}\cdot(1-p)]^{n-1}=\frac{pe^{t}}{1-[e^{t}\cdot(1-p)]}.

Isso pode ser reescrito como

𝔼[etX]=pet+p1,\mathbb{E}[e^{tX}]=\frac{p}{e^{-t}+p-1},

e é definido se et(1p)<1e^{t}\cdot(1-p)<1, ou alternativamente t<ln11pt<\ln\frac{1}{1-p}, e é indefinido caso contrário.

6.4 Variância

Aqui introduzimos outra quantidade fundamental que descreve a distribuição de uma variável aleatória. Enquanto 𝔼[X]\mathbb{E}[X] fornece o número médio de XX, agora definimos uma quantidade que quantifica o grau de dispersão de XX em relação ao seu valor médio.

Definição 6.51 (Variáveis aleatórias quadrado-integráveis).

Dizemos que uma variável aleatória discreta XX é quadrado-integrável se X2X^{2} for integrável, o que significa que a soma

x:(X=x)>0x2(X=x)\sum_{x:\mathbb{P}(X=x)>0}x^{2}\cdot\mathbb{P}(X=x)

é convergente. Observe que variáveis aleatórias quadrado-integráveis são automaticamente integráveis, pois |x|1+x2|x|\leqslant 1+x^{2}.

Definição 6.52 (Variância).

Seja XX uma variável aleatória discreta quadrado-integrável e denote μ=𝔼[X]\mu=\mathbb{E}[X]. Definimos a variância de XX como

Var(X)=𝔼[(Xμ)2].\mathrm{Var}(X)=\mathbb{E}\big{[}(X-\mu)^{2}\big{]}.

Embora esta fórmula seja a melhor definição para entender as propriedades da variância, muitas vezes existe uma maneira mais conveniente de calculá-la:

Var(X)=𝔼[X2](𝔼[X])2,\mathrm{Var}(X)=\mathbb{E}[X^{2}]-(\mathbb{E}[X])^{2},

que obtemos expandindo 𝔼[(Xμ)2]=𝔼[X22μX+μ2]\mathbb{E}[(X-\mu)^{2}]=\mathbb{E}[X^{2}-2\mu X+\mu^{2}] = 𝔼[X2]μ2\mathbb{E}[X^{2}]-\mu^{2}.

Exemplo 6.53 (Poisson).

Suponha que XPoisson(λ)X\sim\mathrm{Poisson}(\lambda). Então

Var(X)=𝔼[X2](𝔼[X])2=λ+λ2λ=λ,\mathrm{Var}(X)=\mathbb{E}[X^{2}]-(\mathbb{E}[X])^{2}=\lambda+\lambda^{2}-% \lambda=\lambda,

portanto, a variância de uma variável aleatória de Poisson é igual à sua expectativa.

Exemplo 6.54 (Geométrica).

Suponha que XGeom(p)X\sim\mathrm{Geom}(p). Então

Var(X)=𝔼[X2](𝔼[X])2=2pp21p2=1pp2.\mathrm{Var}(X)=\mathbb{E}[X^{2}]-(\mathbb{E}[X])^{2}=\frac{2-p}{p^{2}}-\frac{% 1}{p^{2}}=\frac{1-p}{p^{2}}.
Exemplo 6.55 (Bernoulli).

Suponha que XBernoulli(p)X\sim\mathrm{Bernoulli}(p). Então

Var(X)=𝔼[X2](𝔼[X])2=pp2=p(1p).\mathrm{Var}(X)=\mathbb{E}[X^{2}]-(\mathbb{E}[X])^{2}=p-p^{2}=p\cdot(1-p).

Observe que

Var(aX)=a2Var(X)\mathrm{Var}(aX)=a^{2}\cdot\mathrm{Var}(X)

o que significa que Var(X)\mathrm{Var}(X) não está na mesma unidade de medida que XX. Por exemplo, se XX é medido em metros, então 𝔼[X]\mathbb{E}[X] também é medido em metros, mas Var(X)\mathrm{Var}(X) é medido em metros quadrados.

Para quantificar a dispersão de XX nas mesmas unidades de medida que XX, precisamos calcular a raiz quadrada.

Definição 6.56 (Desvio padrão).

Seja XX uma variável aleatória discreta quadrado-integrável. Definimos o desvio padrão de XX como

σ(X)=Var(X).\sigma(X)=\sqrt{\mathrm{Var}(X)}.

Ao contrário da variância, o desvio padrão satisfaz σ(aX)=|a|σ(X)\sigma(aX)=|a|\cdot\sigma(X).

O desvio padrão de uma variável aleatória de Poisson é λ\sqrt{\lambda}, de uma variável aleatória de Bernoulli é p(1p)\sqrt{p(1-p)}, e de uma variável aleatória geométrica é p2p1\sqrt{p^{-2}-p^{-1}}.