7 Distribuições discretas multivariadas

7.1 Função de massa de probabilidade conjunta de duas variáveis

Definição 7.1 (Função de massa de probabilidade conjunta).

Dadas duas variáveis aleatórias discretas XX e YY, definimos a função de massa de probabilidade conjunta de XX e YY, denotada por pX,Y:2p_{X,Y}:\mathbb{R}^{2}\to\mathbb{R}, e dada por

pX,Y(x,y)=(X=x,Y=y),p_{X,Y}(x,y)=\mathbb{P}(X=x,Y=y),

ou, mais formalmente, ({ωΩ:X(ω)=x,Y(ω)=y})\mathbb{P}(\{\omega\in\Omega:X(\omega)=x,Y(\omega)=y\}).

Exemplo 7.2.

Lance dois dados, e seja XX o valor maior e YY o valor menor. Então, pX,Y(x,y)p_{X,Y}(x,y) para x=1,,6x=1,\dots,6 e y=1,,6y=1,\dots,6 é dado pela tabela

123456113623623623623623620361362362362362363036036136236236236403603603613623623650360360360361362366036036036036036136,\begin{array}[]{r|rrrrrr}&1&2&3&4&5&6\\ \hline\cr 1&\frac{1}{36}&\frac{2}{36}&\frac{2}{36}&\frac{2}{36}&\frac{2}{36}&% \frac{2}{36}\\ 2&\frac{0}{36}&\frac{1}{36}&\frac{2}{36}&\frac{2}{36}&\frac{2}{36}&\frac{2}{36% }\\ 3&\frac{0}{36}&\frac{0}{36}&\frac{1}{36}&\frac{2}{36}&\frac{2}{36}&\frac{2}{36% }\\ 4&\frac{0}{36}&\frac{0}{36}&\frac{0}{36}&\frac{1}{36}&\frac{2}{36}&\frac{2}{36% }\\ 5&\frac{0}{36}&\frac{0}{36}&\frac{0}{36}&\frac{0}{36}&\frac{1}{36}&\frac{2}{36% }\\ 6&\frac{0}{36}&\frac{0}{36}&\frac{0}{36}&\frac{0}{36}&\frac{0}{36}&\frac{1}{36% }\\ \end{array},

e p(x,y)=0p(x,y)=0 se xx ou yy não pertencerem a {1,2,3,4,5,6}\{1,2,3,4,5,6\}.

Observe que

pX(x)\displaystyle p_{X}(x) =(X=x)\displaystyle=\mathbb{P}(X=x) (7.3)
=yDY(X=x,Y=y)+(X=x,YDY)\displaystyle=\sum_{y\in D_{Y}}\mathbb{P}(X=x,Y=y)+\mathbb{P}(X=x,Y\not\in D_{% Y}) (7.4)
=yDY(X=x,Y=y)\displaystyle=\sum_{y\in D_{Y}}\mathbb{P}(X=x,Y=y) (7.5)
=yDYpX,Y(x,y)\displaystyle=\sum_{y\in D_{Y}}p_{X,Y}(x,y) (7.6)

para cada xx\in\mathbb{R}, onde DYD_{Y} denota o suporte discreto de YY.

Terminologia (Função de massa de probabilidade marginal).

A fórmula acima para calcular a função de massa de probabilidade de XX a partir da função de massa de probabilidade conjunta de XX e YY é chamada de função de massa de probabilidade marginal.

Exemplo 7.7.

Uma sacola contém 1 bola vermelha, 2 verdes e 2 azuis. Retiramos 2 bolas da sacola, sem reposição. Seja XX o número de bolas verdes retiradas, e YY o número de bolas vermelhas retiradas. Então, a função de massa de probabilidade conjunta de XX e YY é dada pela célula central da tabela abaixo:

y\x012total00.10.40.10.610.20.200.4total0.30.60.11.\begin{array}[]{r|rrr|r}y\backslash x&0&1&2&\text{total}\\ \hline\cr 0&0.1&0.4&0.1&0.6\\ 1&0.2&0.2&0&0.4\\ \hline\cr\text{total}&0.3&0.6&0.1&1\end{array}\ .

Somando cada coluna, encontramos a função de massa de probabilidade marginal de XX, que é dada por pX(0)=0.3p_{X}(0)=0.3, pX(1)=0.6p_{X}(1)=0.6, e pX(2)=0.1p_{X}(2)=0.1. Somando cada linha, encontramos a função de massa de probabilidade marginal de YY, que é dada por pX(0)=0.6p_{X}(0)=0.6 e pX(1)=0.4p_{X}(1)=0.4.

7.2 Esperança no caso bivariado discreto

Proposição 7.8 (Esperança no caso bivariado).

Sejam XX e YY variáveis aleatórias discretas e g:2g:\mathbb{R}^{2}\to\mathbb{R} uma função qualquer. Então

𝔼[g(X,Y)]=xDXyinDYg(x,y)(X=x,Y=y),\mathbb{E}[g(X,Y)]=\sum_{x\in D_{X}}\sum_{y\ inD_{Y}}g(x,y)\cdot\mathbb{P}(X=x% ,Y=y),

se essa soma convergir absolutamente, e 𝔼[g(X,Y)]\mathbb{E}[g(X,Y)] é indefinida caso contrário. Os conjuntos DXD_{X} e DYD_{Y} na fórmula denotam os suportes discretos de XX e YY.

Demonstração.

Seja Z=g(X,Y)Z=g(X,Y). Primeiro, observamos que, para cada zz\in\mathbb{R},

(Z=z)\displaystyle\mathbb{P}(Z=z) =(g(X,Y)=z)\displaystyle=\mathbb{P}\big{(}g(X,Y)=z\big{)} (7.9)
=((X,Y)g1(z))\displaystyle=\mathbb{P}\big{(}(X,Y)\in g^{-1}(z)\big{)} (7.10)
=(x,y)g1(z)D(X=x,Y=y),\displaystyle=\sum_{(x,y)\in g^{-1}(z)\cap D}\mathbb{P}\big{(}X=x,Y=y\big{)}, (7.11)

onde D={(x,y):(X=x,Y=y)>0}D=\{(x,y):\mathbb{P}(X=x,Y=y)>0\}. O suporte de ZZ é dado pela imagem DZ=g(D)D_{Z}=g(D), que é contável. Finalmente,

Esperança[Z]\displaystyle\text{Esperan\c{c}a}[Z] =zinDZz(Z=z)\displaystyle=\sum_{z\ inD_{Z}}z\cdot\mathbb{P}(Z=z) (7.12)
=zDZ(x,y)ing1(z)Dz(X=x,Y=y)\displaystyle=\sum_{z\in D_{Z}}\sum_{(x,y)\ ing^{-1}(z)\cap D}z\cdot\mathbb{P}% \big{(}X=x,Y=y\big{)} (7.13)
=zDZ(x,y)ing1(z)Dg(x,y)(X=x,Y=y)\displaystyle=\sum_{z\in D_{Z}}\sum_{(x,y)\ ing^{-1}(z)\cap D}g(x,y)\cdot% \mathbb{P}\big{(}X=x,Y=y\big{)} (7.14)
=(x,y)inDg(x,y)(X=x,Y=y)\displaystyle=\sum_{(x,y)\ inD}g(x,y)\cdot\mathbb{P}\big{(}X=x,Y=y\big{)} (7.15)
=xinDXyinDYg(x,y)(X=x,Y=y),\displaystyle=\sum_{x\ inD_{X}}\sum_{y\ inD_{Y}}g(x,y)\cdot\mathbb{P}(X=x,Y=y), (7.16)

e a soma converge absolutamente se e somente se ZZ for integrável. Isso conclui a prova. ∎

Prova da Proposição 6.32.

Se tomarmos Y=0Y=0 e aplicarmos a Proposição 7.8 com g~(x,y)=g(x)\tilde{g}(x,y)=g(x), obtemos

Esperança[X]\displaystyle\text{Esperan\c{c}a}[X] =Esperança[g~(X,Y)]\displaystyle=\text{Esperan\c{c}a}[\tilde{g}(X,Y)] (7.17)
=xinDXyin{0}g~(x,y)(X=x,Y=y)\displaystyle=\sum_{x\ inD_{X}}\sum_{y\ in\{0\}}\tilde{g}(x,y)\cdot\mathbb{P}(% X=x,Y=y) (7.18)
=xinDXg(x)(X=x),\displaystyle=\sum_{x\ inD_{X}}{g}(x)\cdot\mathbb{P}(X=x), (7.19)

e as somas convergem absolutamente se e somente se Esperança[X]\text{Esperan\c{c}a}[X] estiver definida. Isso conclui a prova da Proposição 6.32. ∎

Corolário 7.20.

A esperança é linear.

Demonstração.

Suponhamos que XX e YY são integráveis, e que a,ba,b\in\mathbb{R}. Usando a Proposição 7.8 com g(x,y)=ax+byg(x,y)=ax+by, g(x,y)=xg(x,y)=x e g(x,y)=yg(x,y)=y, obtemos

𝔼[aX+bY]=xDXyDY(ax+by)(X=x,Y=y)\displaystyle\mathbb{E}[aX+bY]=\sum_{x\in D_{X}}\sum_{y\in D_{Y}}(ax+by)\cdot% \mathbb{P}(X=x,Y=y) (7.21)
=axDXyDYx(X=x,Y=y)+bxDXyDYy(X=x,Y=y)\displaystyle=a\sum_{x\in D_{X}}\sum_{y\in D_{Y}}x\cdot\mathbb{P}(X=x,Y=y)+b% \sum_{x\in D_{X}}\sum_{y\in D_{Y}}y\cdot\mathbb{P}(X=x,Y=y) (7.22)
=a𝔼[X]+b𝔼[Y],\displaystyle=a\,\mathbb{E}[X]+b\,\mathbb{E}[Y], (7.23)

o que é o que queríamos provar. ∎

7.3 Variáveis aleatórias discretas independentes

Definição 7.24 (Independência).

Duas variáveis aleatórias discretas XX e YY são independentes se

pX,Y(x,y)=pX(x)pY(y)p_{X,Y}(x,y)=p_{X}(x)\cdot p_{Y}(y)

para todo x,yx,y\in\mathbb{R}.

Exemplo 7.25.

Lance uma moeda justa 5 vezes. Seja XX o número de Caras nos três primeiros lances e YY o número de Caras nos dois últimos lances. Então, a função de massa de probabilidade conjunta é mostrada na tabela

y\x0123total01/323/323/321/321/412/326/326/322/321/221/323/323/321/321/4total1/83/83/81/81\begin{array}[]{c|cccc|c}y\backslash x&0&1&2&3&\text{total}\\ \hline\cr 0&1/32&3/32&3/32&1/32&1/4\\ 1&2/32&6/32&6/32&2/32&1/2\\ 2&1/32&3/32&3/32&1/32&1/4\\ \hline\cr\text{total}&1/8&3/8&3/8&1/8&1\\ \end{array}

Observe como cada entrada no meio da tabela é dada pelo produto de sua soma de coluna e soma de linha, o que significa exatamente que pX,Y(x,y)=pX(x)pY(y)p_{X,Y}(x,y)=p_{X}(x)\cdot p_{Y}(y).

Definição 7.26 (Independência par a par).

Dizemos que uma coleção de variáveis aleatórias discretas X1,X2,X3,X_{1},X_{2},X_{3},\dots é independente par a par se XjX_{j} e XkX_{k} forem independentes para todo jkj\neq k.

Definição 7.27 (Independência mútua).

Dizemos que uma coleção de variáveis aleatórias discretas X1,X2,X3,X_{1},X_{2},X_{3},\dots é mutuamente independentes se, para todo kk e todo x1,x2,,xkx_{1},x_{2},\dots,x_{k}, tivermos

(X1=x1,X2=x2,,Xk=xk)=(X1=x1)(X2=x2)(Xk=xk).\mathbb{P}(X_{1}=x_{1},X_{2}=x_{2},\dots,X_{k}=x_{k})=\mathbb{P}(X_{1}=x_{1})% \cdot\mathbb{P}(X_{2}=x_{2})\cdots\mathbb{P}(X_{k}=x_{k}).
Teorema 7.28 (Esperança de variáveis aleatórias independentes).

Se XX e YY são variáveis aleatórias discretas independentes integráveis, então XYXY é integrável e

𝔼[XY]=𝔼[X]𝔼[Y].\mathbb{E}[XY]=\mathbb{E}[X]\cdot\mathbb{E}[Y].
Demonstração.

Usando a Proposição 7.8, temos:

𝔼[XY]\displaystyle\mathbb{E}[XY] =xDXyDYxy(X=x,Y=y)\displaystyle=\sum_{x\in D_{X}}\sum_{y\in D_{Y}}xy\cdot\mathbb{P}(X=x,Y=y) (7.29)
=xDXx(yDYy(X=x)(Y=y))\displaystyle=\sum_{x\in D_{X}}x\cdot\left(\sum_{y\in D_{Y}}y\cdot\mathbb{P}(X% =x)\mathbb{P}(Y=y)\right) (7.30)
=xDXx(X=x)(yDYy(Y=y))\displaystyle=\sum_{x\in D_{X}}x\cdot\mathbb{P}(X=x)\cdot\left(\sum_{y\in D_{Y% }}y\cdot\mathbb{P}(Y=y)\right) (7.31)
=(yDYy(Y=y))(xDXx(X=x))\displaystyle=\left(\sum_{y\in D_{Y}}y\cdot\mathbb{P}(Y=y)\right)\cdot\left(% \sum_{x\in D_{X}}x\cdot\mathbb{P}(X=x)\right) (7.32)
=𝔼[X]𝔼[Y].\displaystyle=\mathbb{E}[X]\cdot\mathbb{E}[Y]. (7.33)

Para usar a Proposição 7.8, deveríamos ter sabido que XYXY era integrável desde o início. Isso pode ser verificado usando exatamente o mesmo desenvolvimento com |x||x| em vez de xx e |y||y| em vez de yy. Isso prova o teorema. ∎

Exemplo 7.34.

Lance um dado justo duas vezes e multiplique os valores observados.

𝔼[X]=136(11+22+32+43+52+64+82+91+102+\displaystyle\mathbb{E}[X]=\frac{1}{36}\big{(}1\cdot 1+2\cdot 2+3\cdot 2+4% \cdot 3+5\cdot 2+6\cdot 4+8\cdot 2+9\cdot 1+10\cdot 2+ (7.35)
+124+152+161+182+202+242+251+302+361)\displaystyle\quad+12\cdot 4+15\cdot 2+16\cdot 1+18\cdot 2+20\cdot 2+24\cdot 2% +25\cdot 1+30\cdot 2+36\cdot 1\big{)} (7.36)
=494.\displaystyle=\frac{49}{4}. (7.37)

Uma solução mais simples é observar que X=YZX=YZ, onde YY e ZZ representam o primeiro e o segundo lançamento do dado. Usando o teorema acima,

𝔼[X]=𝔼[Y]𝔼[Z]=7272=494.\mathbb{E}[X]=\mathbb{E}[Y]\cdot\mathbb{E}[Z]=\frac{7}{2}\cdot\frac{7}{2}=% \frac{49}{4}.

Observe como o cálculo foi simplificado.

Proposição 7.38.

Se X1,,XnX_{1},\dots,X_{n} são variáveis aleatórias discretas integráveis independentes duas a duas, então

Var(i=1nXi)=i=1nVar(Xi).\mathrm{Var}\left(\sum_{i=1}^{n}X_{i}\right)=\sum_{i=1}^{n}\mathrm{Var}(X_{i})\,. (7.39)
Demonstração.

Seja μi:=𝔼[Xi],i=1,2,,n\mu_{i}:=\mathbb{E}[X_{i}],\,\,i=1,2,\dots,n e defina μ:=i=1nμi=𝔼[i=1nXi]\mu:=\sum_{i=1}^{n}\mu_{i}=\mathbb{E}\left[\sum_{i=1}^{n}X_{i}\right] pela linearidade da esperança. Então,

Var(i=1nXi)\displaystyle\mathrm{Var}\left(\sum_{i=1}^{n}X_{i}\right) =𝔼[(i=1nXiμ)2]\displaystyle=\mathbb{E}\left[\left(\sum_{i=1}^{n}X_{i}-\mu\right)^{2}\right] (7.40)
=𝔼[(i=1n(Xiμi))2]\displaystyle=\mathbb{E}\left[\left(\sum_{i=1}^{n}(X_{i}-\mu_{i})\right)^{2}\right] (7.41)
=𝔼[i=1nj=1n(Xiμi)(Xjμj)]\displaystyle=\mathbb{E}\left[\sum_{i=1}^{n}\sum_{j=1}^{n}(X_{i}-\mu_{i})(X_{j% }-\mu_{j})\right] (7.42)
=𝔼[i=1n(Xiμi)2]+𝔼[ij(Xiμ)(Xjμj)]\displaystyle=\mathbb{E}\left[\sum_{i=1}^{n}(X_{i}-\mu_{i})^{2}\right]+\mathbb% {E}\left[\sum_{i\neq j}(X_{i}-\mu)(X_{j}-\mu_{j})\right] (7.43)
=i=1n𝔼[(Xiμi)2]+ij𝔼[(Xiμi)(Xjμj)]\displaystyle=\sum_{i=1}^{n}\mathbb{E}[(X_{i}-\mu_{i})^{2}]+\sum_{i\neq j}% \mathbb{E}[(X_{i}-\mu_{i})(X_{j}-\mu_{j})] (7.44)
=i=1nVar(Xi)+ij(𝔼[XiXj]μiμj)\displaystyle=\sum_{i=1}^{n}\text{Var}(X_{i})+\sum_{i\neq j}\Big{(}\mathbb{E}[% X_{i}X_{j}]-\mu_{i}\mu_{j}\Big{)} (7.45)
=i=1nVar(Xi).\displaystyle=\sum_{i=1}^{n}\text{Var}(X_{i}).\qed (7.46)