14 Uma única teoria para discretas e contínuas

14.1 Função de distribuição cumulativa

Uma maneira de especificar uma distribuição de probabilidade em \mathbb{R} é dizer o quanto de probabilidade está à esquerda de cada ponto xx. Em termos de uma variável aleatória XX com a distribuição dada, essa probabilidade é uma função de xx.

Definição 14.1.

Seja XX uma variável aleatória. A função de distribuição cumulativa de XX é a função FX:[0,)F_{X}:\mathbb{R}\to[0,\infty) definida por

FX(x)=(Xx)F_{X}(x)=\mathbb{P}(X\leqslant x)

para todo xx\in\mathbb{R}.

Outras probabilidades a partir de FXF_{X}

Agora, observamos que, embora FX(x)F_{X}(x) seja definido como (Xx)\mathbb{P}(X\leqslant x), é possível usar FXF_{X} para obter outras probabilidades envolvendo XX. Fórmulas importantes são

(X>x)=1(Xx)=1FX(x)\mathbb{P}(X>x)=1-\mathbb{P}(X\leqslant x)=1-F_{X}(x)

e, para x<yx<y,

(x<Xy)=(Xy)(Xx)=FX(y)FX(x).\mathbb{P}(x<X\leqslant y)=\mathbb{P}(X\leqslant y)-\mathbb{P}(X\leqslant x)=F% _{X}(y)-F_{X}(x).

Observe também que

(X=x)>0se e somente seFX tem um salto em x\mathbb{P}(X=x)>0\quad\text{se e somente se}\quad F_{X}\text{ tem um salto em% \leavevmode\nobreak\ $x$}

e, nesse caso, o tamanho do salto é a probabilidade de X=xX=x.

FXF_{X} determina X\mathbb{P}_{X}

Proposição 14.2.

Se XXYY são duas variáveis aleatórias com FX=FYF_{X}=F_{Y}, então XXYY têm a mesma distribuição.

Essa proposição nos diz que a função de distribuição cumulativa realmente codifica a distribuição de uma variável aleatória (no sentido de que, dada a função de distribuição cumulativa, há apenas uma distribuição correspondente a ela).

Já vimos que FXF_{X} determina X({x})\mathbb{P}_{X}(\{x\}) para cada xx\in\mathbb{R} e X((a,b])\mathbb{P}_{X}((a,b]) para todo a<ba<b\in\mathbb{R}.

Faltam-nos as ferramentas necessárias para provar que ela determina X(B)\mathbb{P}_{X}(B) para todo BB\in\mathcal{B}.

14.2 Casos discretos e contínuos

Refer to caption
Figura 14.1: Função de distribuição cumulativa de uma variável aleatória discreta.

Para obter uma primeira ideia de como se parece uma função de distribuição cumulativa, consideremos o caso em que XX é discreto e tem suporte discreto contido em 0\mathbb{N}_{0}, de modo que

k=0(X=k)=1.\sum_{k=0}^{\infty}\mathbb{P}(X=k)=1.

Em seguida, observe primeiro que FX(x)=(Xx)=0F_{X}(x)=\mathbb{P}(X\leqslant x)=0 para todos os x<0x<0. A seguir, e para todo x[0,1)x\in[0,1),

FX(x)=(Xx)=(X<0)+(X=0)+(0<Xx)=0+pX(0)+0=pX(0).F_{X}(x)=\mathbb{P}(X\leqslant x)=\mathbb{P}(X<0)+\mathbb{P}(X=0)+\mathbb{P}(0% <X\leqslant x)=0+p_{X}(0)+0=p_{X}(0).

Ao argumentar de maneira semelhante, concluímos que

FX(x)={0se x<0,pX(0)se x[0,1),pX(0)+pX(1)se x[1,2),pX(0)+pX(1)+pX(2)se x[2,3)F_{X}(x)=\begin{cases}0&\text{se }x<0,\\ p_{X}(0)&\text{se }x\in[0,1),\\ p_{X}(0)+p_{X}(1)&\text{se }x\in[1,2),\\ p_{X}(0)+p_{X}(1)+p_{X}(2)&\text{se }x\in[2,3)\\ \cdots\end{cases}

O gráfico de FXF_{X} se parece com o da Figura 14.1.

Refer to caption
Figura 14.2: Função de distribuição cumulativa de uma variável aleatória uniforme.
Refer to caption
Figura 14.3: Função de distribuição cumulativa de uma variável aleatória exponencial.

Se XX for contínuo, então

FX(x)=(Xx)=(X(,x])=xfX(y)dy.F_{X}(x)=\mathbb{P}(X\leqslant x)=\mathbb{P}(X\in(-\infty,x])=\int_{-\infty}^{% x}f_{X}(y)\mathrm{d}y.

O teorema fundamental do Cálculo implica então que, nos pontos onde fXf_{X} é contínuo,

fX(x)=ddxFX(x),f_{X}(x)=\tfrac{\mathrm{d}}{\mathrm{d}x}F_{X}^{\prime}(x),

ou seja, a função de distribuição cumulativa é diferenciável e sua derivada é a função de densidade de probabilidade. O gráfico de FXF_{X} se parece com o das Figuras 14.214.3.

14.3 Esperança e variância

É possível fornecer uma definição unificada de esperança de uma variável aleatória, sem assumir que ela seja discreta ou que tenha uma densidade. Há uma fórmula mágica usando FXF_{X} que funciona simultaneamente para qualquer tipo de variável aleatória. Não vamos nos preocupar em fornecer tal fórmula, mas é importante ter em mente que a esperança é algo que pode ser definido para qualquer variável aleatória limitada (e, desde que algumas somas ou integrais sejam convergentes, também pode ser definida para variáveis aleatórias ilimitadas). Novamente, dizemos que XX é integrável se 𝔼[X]\mathbb{E}[X] for definido e finito.

Essa definição geral de esperança ainda satisfaz as três propriedades:

  • Unitária: 𝔼[𝟙A]=(A)\mathbb{E}[\mathds{1}_{A}]=\mathbb{P}(A),

  • Monótona: Se 0ZX0\leqslant Z\leqslant X para todo ωΩ\omega\in\Omega, então 0𝔼[Z]𝔼[X]0\leqslant\mathbb{E}[Z]\leqslant\mathbb{E}[X],

  • Linear: 𝔼[aX+bY]=a𝔼[X]+b𝔼[Y]\mathbb{E}[aX+bY]=a\mathbb{E}[X]+b\mathbb{E}[Y]

desde que XX e YY sejam integráveis.

Não provaremos essas propriedades. Claro, não poderíamos possivelmente prová-las, pois nem mesmo fornecemos a definição geral de esperança. Mas mesmo que tivéssemos escrito a fórmula, com as ferramentas atuais não seríamos capazes de provar que a esperança é linear em geral. A ideia da prova é a seguinte: quaisquer variáveis aleatórias XX e YY podem ser aproximadas por variáveis aleatórias discretas XX^{\prime} e YY^{\prime} e, uma vez que 𝔼[X+Y]=𝔼[X]+𝔼[Y]\mathbb{E}[X^{\prime}+Y^{\prime}]=\mathbb{E}[X^{\prime}]+\mathbb{E}[Y^{\prime}], concluímos que 𝔼[X+Y]=𝔼[X]+𝔼[Y]\mathbb{E}[X+Y]=\mathbb{E}[X]+\mathbb{E}[Y].

Mais uma vez, e XX é quadraticamente integrável se 𝔼[X2]\mathbb{E}[X^{2}] for finito, e observe que se XX é quadraticamente integrável, então ele é automaticamente integrável (porque |x|1+x2|x|\leqslant 1+x^{2}).

Definição 14.3 (Variância).

A variância de uma variável aleatória quadraticamente integrável XX é definida como

Var(X)=𝔼[(X𝔼[X])2].\mathrm{Var}(X)=\mathbb{E}[(X-\mathbb{E}[X])^{2}].

Observamos que a desigualdade de Chebyshev é válida para qualquer variável aleatória quadraticamente integrável. De fato, na prova dada na Seção 10.2, usamos apenas as propriedades de esperança mencionadas acima e nada mais.

Definição 14.4 (Covariância).

Também definimos a covariância de duas variáveis aleatórias quadraticamente integráveis como

Cov(X,Y)=𝔼[(X𝔼[X])(Y𝔼[Y])]\mathrm{Cov}(X,Y)=\mathbb{E}[(X-\mathbb{E}[X])(Y-\mathbb{E}[Y])]

e dizemos que elas são não correlacionadas se sua covariância for zero.

Observe que a covariância possui todas as propriedades mencionadas na Seção 9.2. De fato, a prova dessas propriedades usou apenas as três propriedades de esperança mencionadas acima e nada mais. Em particular, o Corolário 9.23 vale em geral, ou seja,

Var(X1++Xn)=Var(X1)++Var(Xn)\mathrm{Var}(X_{1}+\dots+X_{n})=\mathrm{Var}(X_{1})+\dots+\mathrm{Var}(X_{n})

desde que X1,,XnX_{1},\dots,X_{n} sejam não correlacionados.

A independência é discutida na próxima seção.