15 Distribuições Conjuntas e Independência

15.1 Função de Densidade Conjunta

Agora explicaremos o que significa para duas variáveis aleatórias seguirem uma distribuição conjunta contínua.

Definição 15.1 (Densidade Conjunta).

Duas variáveis aleatórias XXYY definidas no mesmo espaço de probabilidade são chamadas de conjuntamente contínuas com uma função de densidade conjunta fX,Y:2+f_{X,Y}:\mathbb{R}^{2}\to\mathbb{R}_{+} se

(a1Xa2,b1Yb2)=a1a2(b1b2fX,Y(x,y)dy)dx\mathbb{P}(a_{1}\leqslant X\leqslant a_{2},\;b_{1}\leqslant Y\leqslant b_{2})=% \int_{a_{1}}^{a_{2}}\Big{(}\int_{b_{1}}^{b_{2}}f_{X,Y}(x,y)\;\mathrm{d}y\Big{)% }\mathrm{d}x

para todo a1<a2a_{1}<a_{2}b1<b2b_{1}<b_{2}.

As funções de densidade marginal são dadas por:

fX(x)=fX,Y(x,y)dyefY(y)=fX,Y(x,y)dx.f_{X}(x)=\int_{-\infty}^{\infty}f_{X,Y}(x,y)\mathrm{d}y\qquad\text{e}\qquad f_% {Y}(y)=\int_{-\infty}^{\infty}f_{X,Y}(x,y)\mathrm{d}x.

Em resumo, densidades marginais são obtidas da densidade conjunta "integrando"a outra variável.

Exemplo 15.2.

Considere o quadrado Q={(x,y)2:|x|+|y|<1}Q=\{(x,y)\in\mathbb{R}^{2}:|x|+|y|<1\}, e suponha que a função de densidade conjunta de XX e YY seja fX,Y(x,y)=12𝟙Q(x,y)f_{X,Y}(x,y)=\frac{1}{2}\mathds{1}_{Q}(x,y). Podemos determinar a função de densidade marginal de XX integrando:

fX(x)=+12𝟙Q(x,y)dy=(1|x|)𝟙[1,1](x).f_{X}(x)=\int_{-\infty}^{+\infty}\tfrac{1}{2}\mathds{1}_{Q}(x,y)\,\mathrm{d}y=% (1-|x|)\mathds{1}_{[-1,1]}(x).

Se integrarmos em relação a xx, obtemos fY(y)=(1|y|)𝟙[1,1](y)f_{Y}(y)=(1-|y|)\mathds{1}_{[-1,1]}(y).

15.2 Função de Distribuição Conjunta

Definição 15.3.

Sejam X,YX,Y variáveis aleatórias. A função de distribuição conjunta de (X,Y)(X,Y) é a função FX,Y:2[0,1]F_{X,Y}:\mathbb{R}^{2}\to[0,1] dada por

FX,Y(x,y)=(Xx,Yy)F_{X,Y}(x,y)=\mathbb{P}(X\leqslant x,\;Y\leqslant y)

para todo x,yx,y\in\mathbb{R}.

Para variáveis discretas, essa definição se reduz a

FX,Y(x,y)=sxtypX,Y(s,t)F_{X,Y}(x,y)=\sum_{s\leqslant x}\sum_{t\leqslant y}p_{X,Y}(s,t)

para todo x,yx,y\in\mathbb{R}. Para variáveis aleatórias conjuntamente contínuas, a função de distribuição conjunta é dada por

FX,Y(x,y)=xyfX,Y(s,t)dtds.F_{X,Y}(x,y)=\int_{-\infty}^{x}\int_{-\infty}^{y}f_{X,Y}(s,t)\;\mathrm{d}t\;% \mathrm{d}s.

De qualquer forma, é possível recuperar a função de massa de probabilidade conjunta e a função de densidade de probabilidade conjunta a partir da função de distribuição conjunta, mas não entraremos em detalhes sobre isso.

15.3 Independência

Definição 15.4 (Independência de Duas Variáveis Aleatórias).

Dadas duas variáveis aleatórias XX e YY, dizemos que XX e YY são independentes se

(XA,YB)=(XA)(YB)\mathbb{P}(X\in A,Y\in B)=\mathbb{P}(X\in A)\mathbb{P}(Y\in B)

para todos os conjuntos A,BA,B\in\mathcal{B}.

Para variáveis aleatórias discretas, essa definição é equivalente a

pX,Y(x,y)=pX(x)pY(y)p_{X,Y}(x,y)=p_{X}(x)\cdot p_{Y}(y)

para todos os valores x,yx,y\in\mathbb{R}, conforme explicado na Seção 7.3.

Surpreendentemente, a função de distribuição conjunta é capaz de capturar se duas variáveis aleatórias são independentes ou não.

Proposição 15.5.

Duas variáveis aleatórias XX e YY são independentes se e somente se

FX,Y(x,y)=FX(x)FY(y)F_{X,Y}(x,y)=F_{X}(x)F_{Y}(y)

para todo x,yx,y\in\mathbb{R}.

Fragmento da prova.

Para A=(a,b]A=(a,b] e B=(c,d]B=(c,d], expandimos para obter

(a<Xb,c<Yd)=(a<Xb,Yd)(a<Xb,Yc)\displaystyle\mathbb{P}(a<X\leqslant b,c<Y\leqslant d)=\mathbb{P}(a<X\leqslant b% ,Y\leqslant d)-\mathbb{P}(a<X\leqslant b,Y\leqslant c) (15.6)
=(Xb,Yd)(Xa,Yd)(a<Xb,Yc)\displaystyle=\mathbb{P}(X\leqslant b,Y\leqslant d)-\mathbb{P}(X\leqslant a,Y% \leqslant d)-\mathbb{P}(a<X\leqslant b,Y\leqslant c) (15.7)
=FX,Y(b,d)FX,Y(a,d)[FX,Y(b,c)FX,Y(a,c)]\displaystyle=F_{X,Y}(b,d)-F_{X,Y}(a,d)-[F_{X,Y}(b,c)-F_{X,Y}(a,c)] (15.8)
=FX(b)FY(d)FX(a)FY(d)[FX(b)FY(c)FX(a)FY(c)]\displaystyle=F_{X}(b)F_{Y}(d)-F_{X}(a)F_{Y}(d)-[F_{X}(b)F_{Y}(c)-F_{X}(a)F_{Y% }(c)] (15.9)
=[FX(b)FX(a)][FY(d)FY(c)]\displaystyle=[F_{X}(b)-F_{X}(a)]\cdot[F_{Y}(d)-F_{Y}(c)] (15.10)
=(a<Xb)(c<Yd).\displaystyle=\mathbb{P}(a<X\leqslant b)\mathbb{P}(c<Y\leqslant d). (15.11)

Portanto, (XA,YB)=(XA)(YB)\mathbb{P}(X\in A,Y\in B)=\mathbb{P}(X\in A)\mathbb{P}(Y\in B) quando tanto AA quanto BB são compostos por uma união de intervalos finitos desse tipo (abertos à esquerda e fechados à direita). O caso de conjuntos mais gerais AA e BB requer ferramentas que atualmente não possuímos. ∎

Para variáveis aleatórias conjuntamente contínuas, a situação é um pouco mais complicada. Suponha que XX e YY tenham fXf_{X} e fYf_{Y} como funções de densidade. Então, elas são independentes se e somente se forem conjuntamente contínuas com uma função de densidade conjunta dada por

fX,Y(x,y)=fX(x)fY(y)f_{X,Y}(x,y)=f_{X}(x)f_{Y}(y)

para todo x,yx,y\in\mathbb{R}. No entanto, se nos for fornecida uma função de densidade conjunta fX,Yf_{X,Y} e desejarmos mostrar que XX e YY não são independentes, não basta encontrar um único ponto (x,y)(x,y) tal que fX,Y(x,y)fX(x)fY(y)f_{X,Y}(x,y)\neq f_{X}(x)f_{Y}(y). Precisamos verificar que fX,Y(x,y)fX(x)fY(y)f_{X,Y}(x,y)\neq f_{X}(x)f_{Y}(y) para todos os x[a,b]x\in[a,b] e todos os y[c,d]y\in[c,d] para alguns intervalos não degenerados [a,b][a,b] e [c,d][c,d]. Isso ocorre porque, ao contrário da função de massa de probabilidade, as funções de densidade de probabilidade não são únicas, e podemos modificá-las em um único ponto, fazendo com que a identidade mostrada acima deixe de ser válida.

Teorema 15.12.

Se XX e YY são variáveis aleatórias independentes integráveis, então XYXY é integrável e

𝔼[XY]=𝔼[X]𝔼[Y].\mathbb{E}[XY]=\mathbb{E}[X]\cdot\mathbb{E}[Y].

Em particular, variáveis aleatórias independentes quadrado-integráveis são não correlacionadas.

Nós fornecemos uma prova assumindo que XX e YY são discretas. Uma prova que funcione no caso geral requer ferramentas que atualmente não temos. Quanto à linearidade da esperança, ela se baseia no fato de que qualquer variável aleatória pode ser aproximada por variáveis aleatórias discretas, reduzindo o problema ao caso que já conhecemos.

Definição 15.13 (Independência par a par).

Dizemos que uma coleção de variáveis aleatórias X1,X2,X3,X_{1},X_{2},X_{3},\dots é independente par a par se XjX_{j} e XkX_{k} forem independentes para todo jkj\neq k.

Definição 15.14 (Independência mútua).

Dizemos que uma coleção de variáveis aleatórias discretas X1,X2,X3,X_{1},X_{2},X_{3},\dots é mutuamente independentes se, para todo kk e todo A1,,AkA_{1},\dots,A_{k}\in\mathcal{B}, tivermos

(X1A1,,XkAk)=(X1A1)(XkAk).\mathbb{P}(X_{1}\in A_{1},\dots,X_{k}\in A_{k})=\mathbb{P}(X_{1}\in A_{1})% \cdots\mathbb{P}(X_{k}\in A_{k}).

Existem condições análogas para independência mútua quando as variáveis aleatórias são contínuas ou discretas, e também uma condição equivalente em termos de funções de distribuição cumulativa conjunta. Mas não entraremos em detalhes sobre isso.

15.4 Covariância e a lei das médias

Como mencionado na seção anterior, se X1,,XnX_{1},\dots,X_{n} são variáveis aleatórias não correlacionadas, então

Var(X1++Xn)=Var(X1)++Var(Xn).\mathrm{Var}(X_{1}+\dots+X_{n})=\mathrm{Var}(X_{1})+\dots+\mathrm{Var}(X_{n}).

Usando isso e a desigualdade de Chebyshev, podemos novamente provar a lei das médias para qualquer sequência de variáveis aleatórias não correlacionadas com a mesma média μ\mu e a mesma variância σ2\sigma^{2}, sem assumir que sejam discretas. A prova é idêntica à vista na Seção 10.3.

O Teorema do Limite Central também se aplica a qualquer sequência de variáveis aleatórias quadrado-integráveis mutuamente independentes com a mesma distribuição, sem assumir que sejam discretas.