10 Desigualdade de Chebyshev

Agora veremos como a média e o desvio padrão de uma variável aleatória nos permitem fazer algumas estimativas sobre probabilidades envolvendo a variável aleatória.

10.1 Desigualdade de Markov

Para chegarmos lá, começamos com algo mais modesto: a Desigualdade de Markov. Ela nos permite dizer algo sobre a distribuição de uma variável aleatória com base no conhecimento de sua expectativa.

Teorema 10.1 (Desigualdade de Markov).

Seja XX uma variável aleatória discreta integrável não negativa. Então,

(X>x)𝔼[X]x\mathbb{P}(X>x)\leqslant\frac{\mathbb{E}[X]}{x}

para todo x>0x>0.

Demonstração.

Fixe x>0x>0. Defina a variável aleatória

Y:={xse Xx;0caso contrário.\displaystyle Y:=\begin{cases}x&\text{se }X\geqslant x;\\ 0&\text{caso contr\'{a}rio.}\end{cases} (10.2)

Temos que XYX\geqslant Y, porque:

  • se XxX\geqslant x, então Y=xY=x, então XYX\geqslant Y;

  • se X[0,x)X\in[0,x), então Y=0Y=0, então XYX\geqslant Y.

Isso também nos dá 𝔼[X]𝔼[Y]\mathbb{E}[X]\geqslant\mathbb{E}[Y]. Em seguida, observe que YY é uma variável aleatória discreta (ela assume apenas os valores 0 e xx) com

pY(x)=(Xx),pY(0)=(X<x).\displaystyle p_{Y}(x)=\mathbb{P}(X\geqslant x),\qquad p_{Y}(0)=\mathbb{P}(X<x). (10.3)

Portanto,

𝔼[X]𝔼[Y]=0pY(0)+xpY(x)=xpY(x)=x(Xx).\mathbb{E}[X]\geqslant\mathbb{E}[Y]=0\cdot p_{Y}(0)+x\cdot p_{Y}(x)=x\cdot p_{% Y}(x)=x\cdot\mathbb{P}(X\geqslant x).

Rearranjando isso, obtemos a desigualdade desejada. ∎

Exemplo 10.4.

Suponha que uma empresa produza em média 50 itens por semana. Você pode estimar a probabilidade de que a produção de uma semana específica exceda 75 itens? Seja XX o número de itens que a empresa produz a cada semana. Pela afirmação, sabemos que X0X\geqslant 0 e 𝔼[X]=50\mathbb{E}[X]=50. Portanto, as premissas da Desigualdade de Markov são satisfeitas e podemos deduzir uma estimativa sobre a probabilidade solicitada, que é (X75)\mathbb{P}(X\geqslant 75). Portanto,

(X75)𝔼[X]75=5075=23.\mathbb{P}(X\geqslant 75)\leqslant\frac{\mathbb{E}[X]}{75}=\frac{50}{75}=\frac% {2}{3}\,. (10.5)

É interessante notar que a Desigualdade de Markov nem sempre fornece uma limitação útil. De fato, se XX for uma variável aleatória não negativa com expectativa igual a μ\mu, e x(0,μ]x\in(0,\mu], então na desigualdade

(Xx)μx,\mathbb{P}(X\geqslant x)\leqslant\frac{\mu}{x},

o lado direito é maior que 1, então a limitação apenas nos diz que a probabilidade é menor ou igual a 1, mas já sabíamos disso!

10.2 Desigualdade de Chebyshev

Enquanto a Desigualdade de Markov fornece uma limitação sobre a probabilidade de uma variável aleatória ser grande, a Desigualdade de Chebyshev fornece uma limitação sobre a probabilidade de uma variável aleatória estar longe de sua expectativa.

Teorema 10.6 (Desigualdade de Chebyshev).

Seja XX uma variável aleatória discreta de variância quadrática integrável. Então,

(|X𝔼[X]|a)Var(X)a2\mathbb{P}(|X-\mathbb{E}[X]|\geqslant a)\leqslant\frac{\mathrm{Var}(X)}{a^{2}}

para todo a>0a>0.

É importante destacar que aqui não fazemos suposições quanto ao sinal de XX.

Demonstração.

Seja a>0a>0. Defina Y:=(X𝔼[X])2Y:=\left(X-\mathbb{E}[X]\right)^{2}. Portanto, YY é não negativa e

𝔼[Y]=𝔼[(X𝔼[X])2]=Var(X).\mathbb{E}[Y]=\mathbb{E}\left[\left(X-\mathbb{E}[X]\right)^{2}\right]=\mathrm{% Var}(X).

Em particular, YY é integrável. A seguir, observe que os seguintes eventos são os mesmos:

{|X𝔼[X]|a}={(X𝔼[X])2a2}={Ya2}.\{|X-\mathbb{E}[X]|\geqslant a\}=\{(X-\mathbb{E}[X])^{2}\geqslant a^{2}\}=\{Y% \geqslant a^{2}\}.

Portanto, pela Desigualdade de Markov, temos

(|X𝔼[X]|a)=(Ya2)𝔼[Y]a2=Var(X)a2.\mathbb{P}(|X-\mathbb{E}[X]|\geqslant a)=\mathbb{P}(Y\geqslant a^{2})\leqslant% \frac{\mathbb{E}[Y]}{a^{2}}=\frac{\mathrm{Var}(X)}{a^{2}}.

Isso conclui a prova do teorema. ∎

Exemplo 10.7.

Suponha que 𝔼[X]=10\mathbb{E}[X]=10 e σ(X)=2\sigma(X)=2. Vamos encontrar uma estimativa da probabilidade de que 6X146\leqslant X\leqslant 14. Tomando x=4x=4 na Desigualdade de Chebyshev,

(6X14)(6<X<14)=1(|X𝔼[X]|4)12242=34.\mathbb{P}(6\leqslant X\leqslant 14)\geqslant\mathbb{P}(6<X<14)=1-\mathbb{P}(|% X-\mathbb{E}[X]|\geqslant 4)\geqslant 1-\frac{2^{2}}{4^{2}}=\frac{3}{4}.

10.3 Prova da lei das médias

Lembrando que X1,X2,X3,X_{1},X_{2},X_{3},\dots são variáveis aleatórias discretas de variância quadrática integrável independentes duas a duas com a mesma média μ\mu e mesma variância σ2\sigma^{2}.

Queremos mostrar que, para todo a>0a>0 e nn\in\mathbb{N},

(μaX1++Xnnμ+a)1σ2a2n.\mathbb{P}\Big{(}\mu-a\leqslant\frac{X_{1}+\dots+X_{n}}{n}\leqslant\mu+a\Big{)% }\geqslant 1-\frac{\sigma^{2}}{a^{2}\,n}.

Usando a linearidade da expectativa e o fato de que todos os XkX_{k} têm a mesma média μ\mu,

𝔼[X1++Xnn]=1n𝔼[X1++Xn]=1n(𝔼[X1]++𝔼[Xn])=μ.\mathbb{E}\Big{[}\frac{X_{1}+\dots+X_{n}}{n}\Big{]}=\frac{1}{n}\mathbb{E}\big{% [}X_{1}+\dots+X_{n}\big{]}=\frac{1}{n}\cdot\big{(}\mathbb{E}[X_{1}]+\dots+% \mathbb{E}[X_{n}]\big{)}=\mu.

Usando o Corolário 9.24 e o fato de que todos os XkX_{k} têm a mesma variância σ2\sigma^{2},

Var(X1++Xnn)\displaystyle\mathrm{Var}\Big{(}\frac{X_{1}+\dots+X_{n}}{n}\Big{)} =1n2Var(X1++Xn)\displaystyle=\frac{1}{n^{2}}\mathrm{Var}\big{(}X_{1}+\dots+X_{n}\Big{)} (10.8)
=1n2(Var(X1)++Var(Xn))\displaystyle=\frac{1}{n^{2}}\big{(}\mathrm{Var}(X_{1})+\dots+\mathrm{Var}(X_{% n})\big{)} (10.9)
=1n2nσ2\displaystyle=\frac{1}{n^{2}}\cdot n\sigma^{2} (10.10)
=σ2n.\displaystyle=\frac{\sigma^{2}}{n}. (10.11)

Usando a Desigualdade de Chebyshev, obtemos:

(μaX1++Xnnμ+a)\displaystyle\mathbb{P}\Big{(}\mu-a\leqslant\tfrac{X_{1}+\dots+X_{n}}{n}% \leqslant\mu+a\Big{)} =1(|X1++Xnnμ|>a)\displaystyle=1-\mathbb{P}\Big{(}\Big{|}\frac{X_{1}+\dots+X_{n}}{n}-\mu\Big{|}% >a\Big{)} (10.12)
1Var(X1++Xnn)a2\displaystyle\geqslant 1-\frac{\mathrm{Var}(\frac{X_{1}+\dots+X_{n}}{n})}{a^{2}} (10.13)
=1σ2a2n,\displaystyle=1-\frac{\sigma^{2}}{a^{2}\cdot n}, (10.14)

o que conclui a prova.