15 Distribuições Conjuntas e Independência
15.1 Função de Densidade Conjunta
Agora explicaremos o que significa para duas variáveis aleatórias seguirem uma distribuição conjunta contínua.
Definição 15.1 (Densidade Conjunta).
Duas variáveis aleatórias e definidas no mesmo espaço de probabilidade são chamadas de conjuntamente contínuas com uma função de densidade conjunta se
para todo e .
As funções de densidade marginal são dadas por:
Em resumo, densidades marginais são obtidas da densidade conjunta "integrando"a outra variável.
Exemplo 15.2.
Considere o quadrado , e suponha que a função de densidade conjunta de e seja . Podemos determinar a função de densidade marginal de integrando:
Se integrarmos em relação a , obtemos .
15.2 Função de Distribuição Conjunta
Definição 15.3.
Sejam variáveis aleatórias. A função de distribuição conjunta de é a função dada por
para todo .
Para variáveis discretas, essa definição se reduz a
para todo . Para variáveis aleatórias conjuntamente contínuas, a função de distribuição conjunta é dada por
De qualquer forma, é possível recuperar a função de massa de probabilidade conjunta e a função de densidade de probabilidade conjunta a partir da função de distribuição conjunta, mas não entraremos em detalhes sobre isso.
15.3 Independência
Definição 15.4 (Independência de Duas Variáveis Aleatórias).
Dadas duas variáveis aleatórias e , dizemos que e são independentes se
para todos os conjuntos .
Para variáveis aleatórias discretas, essa definição é equivalente a
para todos os valores , conforme explicado na Seção 7.3.
Surpreendentemente, a função de distribuição conjunta é capaz de capturar se duas variáveis aleatórias são independentes ou não.
Proposição 15.5.
Duas variáveis aleatórias e são independentes se e somente se
para todo .
Fragmento da prova.
Para e , expandimos para obter
(15.6) | |||
(15.7) | |||
(15.8) | |||
(15.9) | |||
(15.10) | |||
(15.11) |
Portanto, quando tanto quanto são compostos por uma união de intervalos finitos desse tipo (abertos à esquerda e fechados à direita). O caso de conjuntos mais gerais e requer ferramentas que atualmente não possuímos. ∎
Para variáveis aleatórias conjuntamente contínuas, a situação é um pouco mais complicada. Suponha que e tenham e como funções de densidade. Então, elas são independentes se e somente se forem conjuntamente contínuas com uma função de densidade conjunta dada por
para todo . No entanto, se nos for fornecida uma função de densidade conjunta e desejarmos mostrar que e não são independentes, não basta encontrar um único ponto tal que . Precisamos verificar que para todos os e todos os para alguns intervalos não degenerados e . Isso ocorre porque, ao contrário da função de massa de probabilidade, as funções de densidade de probabilidade não são únicas, e podemos modificá-las em um único ponto, fazendo com que a identidade mostrada acima deixe de ser válida.
Teorema 15.12.
Se e são variáveis aleatórias independentes integráveis, então é integrável e
Em particular, variáveis aleatórias independentes quadrado-integráveis são não correlacionadas.
Nós fornecemos uma prova assumindo que e são discretas. Uma prova que funcione no caso geral requer ferramentas que atualmente não temos. Quanto à linearidade da esperança, ela se baseia no fato de que qualquer variável aleatória pode ser aproximada por variáveis aleatórias discretas, reduzindo o problema ao caso que já conhecemos.
Definição 15.13 (Independência par a par).
Dizemos que uma coleção de variáveis aleatórias é independente par a par se e forem independentes para todo .
Definição 15.14 (Independência mútua).
Dizemos que uma coleção de variáveis aleatórias discretas é mutuamente independentes se, para todo e todo , tivermos
Existem condições análogas para independência mútua quando as variáveis aleatórias são contínuas ou discretas, e também uma condição equivalente em termos de funções de distribuição cumulativa conjunta. Mas não entraremos em detalhes sobre isso.
15.4 Covariância e a lei das médias
Como mencionado na seção anterior, se são variáveis aleatórias não correlacionadas, então
Usando isso e a desigualdade de Chebyshev, podemos novamente provar a lei das médias para qualquer sequência de variáveis aleatórias não correlacionadas com a mesma média e a mesma variância , sem assumir que sejam discretas. A prova é idêntica à vista na Seção 10.3.
O Teorema do Limite Central também se aplica a qualquer sequência de variáveis aleatórias quadrado-integráveis mutuamente independentes com a mesma distribuição, sem assumir que sejam discretas.