13 Variáveis aleatórias contínuas

13.1 Função de densidade de probabilidade

Considere a variável aleatória XX definida informalmente da seguinte maneira: "Seja XX um número escolhido no intervalo (0,1)(0,1) de forma uniforme ao acaso."Ao pensarmos com cuidado, percebemos que essa descrição é um pouco desconcertante. A palavra "uniforme"deveria significar que qualquer número x(0,1)x\in(0,1) tem igual probabilidade de ser escolhido, ou seja, (X=x)\mathbb{P}(X=x) deveria ser o mesmo para cada xx. No entanto, existem infinitos x(0,1)x\in(0,1), o que forçaria (X=x)\mathbb{P}(X=x) a ser zero. Isso de fato acontecerá para todas as variáveis aleatórias com distribuições contínuas, que definimos agora.

Definição 13.1.

Dizemos que uma variável aleatória XX é contínua, com função de densidade de probabilidade fX:f_{X}:\mathbb{R}\to\mathbb{R}, se

(aXb)=abfX(x)dx\mathbb{P}(a\leqslant X\leqslant b)=\int_{a}^{b}f_{X}(x)\,\mathrm{d}x (13.2)

para todo a<ba<b\in\mathbb{R}.

Uma densidade fXf_{X} especifica a "probabilidade por unidade de comprimento."É algo análogo à função de probabilidade de massa, mas não exatamente. A probabilidade de XX estar em um pequeno intervalo de comprimento Δx\Delta x é dada por fX(x)Δxf_{X}(x)\Delta x, em vez de fX(x)f_{X}(x), e fXf_{X} em si pode assumir valores muito grandes em pequenos intervalos. Portanto, é "fX(x)Δxf_{X}(x)\Delta x "que é análogo a pX(x)p_{X}(x).

Uma função de densidade deve satisfazer necessariamente

+fX(x)dx=1.\int_{-\infty}^{+\infty}f_{X}(x)\,\mathrm{d}x=1.

13.2 Variáveis Uniformes

Sejam aa e bb em \mathbb{R} com a<ba<b. Uma variável aleatória XX tem a distribuição uniforme (contínua) em (a,b)(a,b) se

fX(x)={1base a<x<b,0caso contrário.f_{X}(x)=\begin{cases}\frac{1}{b-a}&\text{se }a<x<b,\\ 0&\text{caso contr\'{a}rio.}\end{cases}

Escrevemos X𝒰(a,b)X\sim\mathcal{U}(a,b).

Observe que, para qualquer intervalo [c,d][a,b][c,d]\subseteq[a,b], temos

(X[c,d])=cd1badx=dcba,\mathbb{P}(X\in[c,d])=\int_{c}^{d}\frac{1}{b-a}\,\mathrm{d}x=\frac{d-c}{b-a},

ou seja, o intervalo [c,d][c,d] tem uma probabilidade dada pela proporção do seu comprimento dentro do intervalo [a,b][a,b]. Por outro lado, se c<ac<a e d[a,b]d\in[a,b], então

(X[c,d])=daba\mathbb{P}(X\in[c,d])=\frac{d-a}{b-a}

porque a parte do intervalo [c,d][c,d] que não se sobrepõe com [a,b][a,b] não conta.

13.3 Distribuição Normal

Seja μ\mu\in\mathbb{R} e σ>0\sigma>0. Uma variável aleatória XX tem distribuição normal (ou gaussiana) com parâmetros μ\mu e σ2\sigma^{2} se tiver uma função de densidade de probabilidade dada por

fX(x)=12πσ2e(xμ)22σ2f_{X}(x)=\frac{1}{\sqrt{2\pi\sigma^{2}}}\cdot e^{-\frac{(x-\mu)^{2}}{2\sigma^{% 2}}}

para todo xx\in\mathbb{R}. Escrevemos X𝒩(μ,σ2)X\sim\mathcal{N}(\mu,\sigma^{2}).

O parâmetro μ\mu dá o centro da função de densidade, e o parâmetro σ2\sigma^{2} especifica a escala com que essa densidade está sendo alongada. Através de uma mudança de variáveis na integral, podemos ver que X𝒩(μ,σ2)X\sim\mathcal{N}(\mu,\sigma^{2}) é equivalente a X=μ+σZX=\mu+\sigma\cdot Z com Z𝒩(0,1)Z\sim\mathcal{N}(0,1). De fato, definindo Z=XμσZ=\frac{X-\mu}{\sigma},

(aZb)\displaystyle\mathbb{P}(a\leqslant Z\leqslant b) =(μ+aσXμ+bσ)\displaystyle=\mathbb{P}(\mu+a\sigma\leqslant X\leqslant\mu+b\sigma) (13.3)
=μ+aσμ+aσ12πσ2e(xμ)22σ2dx\displaystyle=\int_{\mu+a\sigma}^{\mu+a\sigma}\frac{1}{\sqrt{2\pi\sigma^{2}}}% \cdot e^{-\frac{(x-\mu)^{2}}{2\sigma^{2}}}\,\mathrm{d}x (13.4)
=ab12πez22dz.\displaystyle=\int_{a}^{b}\frac{1}{\sqrt{2\pi}}\cdot e^{-\frac{z^{2}}{2}}\,% \mathrm{d}z. (13.5)
Observação 6.

Não é fácil ver que +fX(x)dx=1\int_{-\infty}^{+\infty}f_{X}(x)\,\mathrm{d}x=1. Ao substituir, obtemos

+12πσ2e(xμ)22σ2dx=+1πeu2du.\int_{-\infty}^{+\infty}\frac{1}{\sqrt{2\pi\sigma^{2}}}\cdot e^{-\frac{(x-\mu)% ^{2}}{2\sigma^{2}}}\,\mathrm{d}x=\int_{-\infty}^{+\infty}\frac{1}{\sqrt{\pi}}% \cdot e^{-u^{2}}\,\mathrm{d}u.

Portanto, é suficiente verificar que +ex2=π\int_{-\infty}^{+\infty}e^{-x^{2}}=\sqrt{\pi}. Na maioria dos livros didáticos, isso é feito usando coordenadas polares para integrais em 2\mathbb{R}^{2}, mas não queremos usar esse método. Em vez disso, usamos um truque diferente: trocamos as integrais iteradas em

0+(0+ye(1+x2)y2dy)dx=0+(0+yex2y2ey2dx)dy,\int_{0}^{+\infty}\left(\int_{0}^{+\infty}ye^{-(1+x^{2})y^{2}}\mathrm{d}y% \right)\mathrm{d}x=\int_{0}^{+\infty}\left(\int_{0}^{+\infty}ye^{-x^{2}y^{2}}e% ^{-y^{2}}\mathrm{d}x\right)\mathrm{d}y,

o que podemos fazer porque o integrando é não-negativo. A primeira integral pode ser calculada como

limz+0zye(1+x2)y2dy=limz+12(1+x2)[e(1+x)2y2]0z=12(1+x2)\lim_{z\to{+\infty}}\int_{0}^{z}ye^{-(1+x^{2})y^{2}}\mathrm{d}y=\lim_{z\to{+% \infty}}\frac{-1}{2(1+x^{2})}\Big{[}e^{-(1+x)^{2}y^{2}}\Big{]}_{0}^{z}=\frac{1% }{2(1+x^{2})}

e

0+(0+ye(1+x2)y2dy)dx=limz+0z12(1+x2)dx=limz+arctanz2=π4.\int_{0}^{+\infty}\left(\int_{0}^{+\infty}ye^{-(1+x^{2})y^{2}}\mathrm{d}y% \right)\mathrm{d}x=\lim_{z\to{+\infty}}\int_{0}^{z}\frac{1}{2(1+x^{2})}\mathrm% {d}x=\lim_{z\to{+\infty}}\frac{\arctan z}{2}=\frac{\pi}{4}.

A segunda integral pode ser reescrita como

0+(0+eu2du)ey2dy.\int_{0}^{+\infty}\left(\int_{0}^{+\infty}e^{-u^{2}}\mathrm{d}u\right)e^{-y^{2% }}\mathrm{d}y.

Desta forma, concluímos que 0+ex2=π2\int_{0}^{+\infty}e^{-x^{2}}=\frac{\sqrt{\pi}}{2}. Por simetria, +ex2=π\int_{-\infty}^{+\infty}e^{-x^{2}}=\sqrt{\pi}, que era o que queríamos.

13.4 Tempo de Vida Exponencial

Seja λ>0\lambda>0. Uma variável aleatória XX tem distribuição exponencial com parâmetro λ\lambda se

fX(x)={λeλxse x>0,0se x0.f_{X}(x)=\begin{cases}\lambda e^{-\lambda x}&\text{se }x>0,\\ 0&\text{se }x\leqslant 0.\end{cases}

Escrevemos XExp(λ)X\sim\mathrm{Exp}(\lambda).

Observe que

(X>t)=eλt.\mathbb{P}(X>t)=e^{-\lambda t}.

A distribuição exponencial é comumente usada para modelar a vida útil de entidades que têm a propriedade de falta de memória, normalmente objetos inanimados que não sofrem efeitos de envelhecimento. Para explicar o que isso significa, vamos pensar nas lâmpadas. Suponhamos que a vida útil das lâmpadas de uma determinada marca tem uma distribuição Exponencial(λ\lambda) (vamos assumir que ligamos a luz e não a desligamos até a lâmpada queimar). Então, a propriedade de falta de memória significa que, independentemente de a lâmpada ter sido ativada recentemente ou ter estado ativa por um certo período de tempo, a distribuição do tempo restante de vida é a mesma. Matematicamente, isso é expresso pela seguinte identidade, que vale para todos s,t0s,t\geqslant 0:

(X>t+s|X>t)=(X>s).\mathbb{P}(X>t+s\,|\,X>t)=\mathbb{P}(X>s).

13.5 Esperança

Definição 13.6 (Esperança).

Seja XX uma variável aleatória contínua com densidade fXf_{X}. Definimos a esperança de XX, denotada por 𝔼[X]\mathbb{E}[X], como o número real dado por

𝔼[X]=+xfX(x)dx,\mathbb{E}[X]=\int_{-\infty}^{+\infty}x\,f_{X}(x)\,\mathrm{d}x,

desde que esta integral convirja absolutamente. Se a integral convergir absolutamente, dizemos que XX é integrável; caso contrário, 𝔼[X]\mathbb{E}[X] não está definida.

Exemplo 13.7 (Uniforme).

Se X𝒰[a,b]X\sim\mathcal{U}[a,b], então

𝔼[X]=abx1badx=a+b2.\mathbb{E}[X]=\int_{a}^{b}x\,\frac{1}{b-a}\,\mathrm{d}x=\frac{a+b}{2}.

Isso significa que a esperança de uma variável aleatória com distribuição uniforme no intervalo [a,b][a,b] é o ponto médio do intervalo.

Exemplo 13.8 (Exponencial).

Se XExp(λ)X\sim\mathrm{Exp}(\lambda), então, integrando por partes,

𝔼[X]=0+xλeλxdx=limu+[xeλx1λeλx]0u=1λ.\mathbb{E}[X]=\int_{0}^{+\infty}x\lambda e^{-\lambda x}\,\mathrm{d}x=\lim_{u% \to{+\infty}}\Big{[}{-x}e^{-\lambda x}-\tfrac{1}{\lambda}e^{-\lambda x}\Big{]}% _{0}^{u}=\frac{1}{\lambda}.
Exemplo 13.9 (Normal).

Suponha que X𝒩(0,1)X\sim\mathcal{N}(0,1), Então, substituindo u=x2/2u=x^{2}/2,

0+xex2/22πdx=limz+[ex2/22π]0z=12π.\int_{0}^{+\infty}x\frac{e^{-x^{2}/2}}{\sqrt{2\pi}}\mathrm{d}x=\lim_{z\to{+% \infty}}\Big{[}\frac{-e^{-x^{2}/2}}{\sqrt{2\pi}}\Big{]}_{0}^{z}=\frac{1}{\sqrt% {{2\pi}}}.

Por simetria,

0xex2/22πdx=12π\int_{-\infty}^{0}x\frac{e^{-x^{2}/2}}{\sqrt{2\pi}}\mathrm{d}x=-\frac{1}{\sqrt% {{2\pi}}}

e, portanto, 𝔼[X]=0\mathbb{E}[X]=0.

Exemplo 13.10 (Cauchy).

Suponha que XX é uma variável aleatória com densidade

fX(x)=1π(1+x2).f_{X}(x)=\frac{1}{\pi\cdot(1+x^{2})}.

Então

0+xfX(x)dx=0+xπ(1+x2)dx1+xπ(1+x2)dx,\int_{0}^{+\infty}xf_{X}(x)\,\mathrm{d}x=\int_{0}^{+\infty}\frac{x}{\pi\cdot(1% +x^{2})}\mathrm{d}x\geqslant\int_{1}^{+\infty}\frac{x}{\pi\cdot(1+x^{2})}% \mathrm{d}x,

e assim

0+xfX(x)dx1+12πxdx=12πlimzlnz=+.\int_{0}^{+\infty}xf_{X}(x)\,\mathrm{d}x\geqslant\int_{1}^{+\infty}\frac{1}{2% \pi x}\mathrm{d}x=\frac{1}{2\pi}\lim_{z\to\infty}\ln z=+\infty.

Neste caso, 𝔼[X]\mathbb{E}[X] não é definida, apesar da simetria. Finalmente, temos um exemplo de uma variável aleatória que não é integrável!

13.6 Variância

Proposição 13.11.

Seja XX uma variável aleatória contínua com densidade fXf_{X}. Seja g:g:\mathbb{R}\to\mathbb{R} uma função piecewise contínua. Então

𝔼[g(X)]=+g(x)fX(x)dx\mathbb{E}[g(X)]=\int_{-\infty}^{+\infty}g(x)\,f_{X}(x)\,\mathrm{d}x

se a integral convergir absolutamente, e 𝔼[g(X)]\mathbb{E}[g(X)] é indefinida se não convergir absolutamente.

A analogia com a função de massa de probabilidade está resumida na Tabela 1.

Exemplo 13.12 (Uniforme).

Se X𝒰[a,b]X\sim\mathcal{U}[a,b], então

𝔼[X2]=abx2badx=a2+ab+b23.\mathbb{E}[X^{2}]=\int_{a}^{b}\frac{x^{2}}{b-a}\,\mathrm{d}x=\frac{a^{2}+ab+b^% {2}}{3}.
pXp_{X} fXf_{X}
pX:p_{X}:\mathbb{R}\to\mathbb{R} fX:f_{X}:\mathbb{R}\to\mathbb{R}
pX(x)0p_{X}(x)\geqslant 0 x\forall\,x\in\mathbb{R} fX(x)0f_{X}(x)\geqslant 0 x\forall\,x\in\mathbb{R}
(X=x)=pX(x)\mathbb{P}(X=x)=p_{X}(x) (X=x)=0\mathbb{P}(X=x)=0
(aXb)=axbpX(x)\mathbb{P}(a\leqslant X\leqslant b)=\sum_{a\leqslant x\leqslant b}p_{X}(x) (aXb)=abfX(x)dx\mathbb{P}(a\leqslant X\leqslant b)=\int_{a}^{b}f_{X}(x)\mathrm{d}x
pX(x)=(X=x)p_{X}(x)=\mathbb{P}(X=x) definido implicitamente acima
xpX(x)=1\sum_{x}p_{X}(x)=1 fX(x)𝑑x=1\int_{-\infty}^{\infty}f_{X}(x)\,dx=1
pX(x)1p_{X}(x)\leqslant 1 x\forall\,x fX(x)f_{X}(x) pode ser >1>1
𝔼[g(X)]=xg(x)pX(x)\mathbb{E}[g(X)]=\sum_{x}g(x)p_{X}(x) 𝔼[g(X)]=+g(x)fX(x)dx\mathbb{E}[g(X)]=\int_{-\infty}^{+\infty}g(x)f_{X}(x)\mathrm{d}x
Tabela 1: Função de massa de probabilidade e função de densidade de probabilidade.
Exemplo 13.13 (Exponencial).

Se XExp(λ)X\sim\mathrm{Exp}(\lambda), então, integrando por partes duas vezes,

𝔼[X2]=0+x2λeλxdx=limz+[x2eλx2xλeλx2λ2eλx]0z=2λ2.\mathbb{E}[X^{2}]=\int_{0}^{+\infty}x^{2}\lambda e^{-\lambda x}\,\mathrm{d}x=% \lim_{z\to{+\infty}}\Big{[}{-x^{2}}e^{-\lambda x}-\tfrac{2x}{\lambda}e^{-% \lambda x}-\tfrac{2}{\lambda^{2}}e^{-\lambda x}\Big{]}_{0}^{z}=\frac{2}{% \lambda^{2}}.
Exemplo 13.14 (Normal).

Se X𝒩(0,1)X\sim\mathcal{N}(0,1), então, integrando por partes,

𝔼[X2]\displaystyle\mathbb{E}[X^{2}] =+x2ex2/22πdx\displaystyle=\int_{-\infty}^{+\infty}x^{2}\frac{e^{-x^{2}/2}}{\sqrt{2\pi}}% \mathrm{d}x (13.15)
=212π0+x(xex2/2)dx\displaystyle=2\cdot\frac{1}{\sqrt{2\pi}}\int_{0}^{+\infty}x\cdot(x{e^{-x^{2}/% 2}})\,\mathrm{d}x (13.16)
=22πlimu+[xex2/2+0uex2/2dx]0u\displaystyle=\frac{2}{\sqrt{2\pi}}\lim_{u\to+\infty}\Big{[}{-x}{e^{-x^{2}/2}}% +\int_{0}^{u}e^{-x^{2}/2}\,\mathrm{d}x\Big{]}_{0}^{u} (13.17)
=22π0+ex2/2dx=1.\displaystyle=\frac{2}{\sqrt{2\pi}}\int_{0}^{+\infty}{e^{-x^{2}/2}}\,\mathrm{d% }x=1. (13.18)
Definição 13.19 (Quadrado-integrável).

Como no caso de variáveis aleatórias discretas, dizemos que uma variável aleatória contínua é quadrado-integrável se X2X^{2} for integrável.

Assim como no caso discreto, se uma variável aleatória for quadrado-integrável, ela será automaticamente integrável (porque |x|1+x2|x|\leqslant 1+x^{2}).

Definição 13.20 (Variância).

Seja XX uma variável aleatória contínua quadrado-integrável com densidade fXf_{X} e média μ=𝔼[X]\mu=\mathbb{E}[X]. Definimos a variância de XX como

Var(X)=𝔼[(Xμ)2].\mathrm{Var}(X)=\mathbb{E}\big{[}(X-\mu)^{2}\big{]}.

Como fizemos no caso de variáveis aleatórias discretas, podemos expandir a definição de variância para obter uma fórmula alternativa:

Var(X)=𝔼[X2](𝔼[X])2,\mathrm{Var}(X)=\mathbb{E}[X^{2}]-(\mathbb{E}[X])^{2},

que usamos nos exemplos a seguir.

Exemplo 13.21 (Uniforme).

Se X𝒰[a,b]X\sim\mathcal{U}[a,b], então

Var(X)=a2+ab+b23a2+2ab+b24=(ba)212.\mathrm{Var}(X)=\frac{a^{2}+ab+b^{2}}{3}-\frac{a^{2}+2ab+b^{2}}{4}=\frac{(b-a)% ^{2}}{12}.
Exemplo 13.22 (Exponencial).

Se XExp(λ)X\sim\mathrm{Exp}(\lambda), então

Var(X)=2λ2(1λ)2=1λ2.\mathrm{Var}(X)=\frac{2}{\lambda^{2}}-\Big{(}\frac{1}{\lambda}\Big{)}^{2}=% \frac{1}{\lambda^{2}}.
Exemplo 13.23 (Normal).

Se X𝒩(0,1)X\sim\mathcal{N}(0,1), então

Var(X)=102=1.\mathrm{Var}(X)=1-0^{2}=1.