4.1 Esperança condicional

Como já foi dito anteriormente, a estrutura de σ\sigma-álgebra tem um papel muito importante em probabilidade. Durante o curso de Teoria da Medida, muitas vezes o conceito de σ\sigma-álgebra parece uma tecnicalidade que simplesmente dificulta nosso acesso ao conteúdo realmente interessante do curso. Em alguns momentos, chegamos a desejar que tudo fosse mensurável e não tivéssemos que nos preocupar com tais formalidades.

Contudo, no estudo que iniciaremos agora, nos restringiremos a σ\sigma-álgebras menores de maneira proposital. Ficará claro em particular, que o estudo de mensurabilidade não é uma mera tecnicalidade, mas sim uma ferramenta importante.

Esse interesse, vem da necessidade de representar situações de “informação incompleta”, onde podemos apenas observar uma parte da realidade. Isso certamente é de suma importância em diversas aplicações, desde a estatística, física e computação até a teoria de jogos. Vamos começar com um exemplo simples.

Suponha que Ω=2\Omega=\mathbb{R}^{2} é dotado da σ\sigma-álgebra de Borel e denotamos por X1,X2X_{1},X_{2} as coordenadas canônicas. Como podemos representar matematicamente a afirmação “uma pessoa somente conhece o valor de X1X_{1} e não de X2X_{2}”? Digamos por exemplo que essa pessoa deverá tomar uma decisão (por exemplo escolher um elemento de EE) baseando-se apenas nessa informação incompleta. A maneira que modelamos isso matemáticamente é dizendo que a decisão da pessoa deve ser uma função f:ΩEf:\Omega\to E mensurável com respeito a σ(X1)\sigma(X_{1}).

Nossa primeira utilização desse conceito será feita agora ao introduzirmos a noção de esperaça condicional, que generaliza o conceito de esperança. Relembrando o cálculo (3.22), nós podemos pensar em E(X)E(X) como uma boa maneira de aproximar XX por um número real. Isso por exemplo poderia ser útil se não temos nenhuma informação sobre o que ocorreu, mas ainda sim temos que tentar adivinhar o valor de XX. Mas vamos agora imaginar uma outra situação, onde temos um pouco de informação sobre o que ocorreu.

Voltando ao exemplo em que Ω=2\Omega=\mathbb{R}^{2}, digamos que nós podemos observar o valor de X1X_{1}, mas gostaríamos de estimar o valor de X2X_{2}. De acordo com o que discutimos acima, nossa estimativa agora não precisa mais ser apenas um número real, podendo ser qualquer função mensurável com respeito a σ(X1)\sigma(X_{1}).

Vamos no que segue tornar esse discussão rigorosa, mas antes lembramos um lema básico de Teoria da Medida.

{lemma}

Se f,ff,f^{\prime} são funções mensuráveis tais que

Afμ=Afμ, para todo A,\int_{A}f\d{\mu}=\int_{A}f^{\prime}\d{\mu},\text{ para todo $A\in\mathcal{F}^{% \prime}$,} (4.1)

então f=ff=f^{\prime} μ\mu-quase certamente.

Demonstração.

Aplicando a hipótese para A=[f>f]A=[f>f^{\prime}], vemos que

Affμ=0,\int_{A}f-f^{\prime}\d{\mu}=0, (4.2)

mas no conjunto AA acima, o integrando é positivo. Portanto, f=ff=f^{\prime}, μ\mu-quase certamente em AA. Aplicando o mesmo raciocínio para [f<f][f<f^{\prime}] obtemos que f=ff=f^{\prime} quase certamente. ∎

O lema acima nos diz que se soubermos integrar ff em todos os eventos AA, então podemos recuperar a função ff propriamente dita. O que aconteceria se soubéssemos integrar ff apenas para eventos AA em uma sub-σ\sigma-álgebra? É isso que estudaremos à partir de agora.

{definition}

Seja uma variável aleatória X1(P)X\in\mathcal{L}^{1}(P) e uma sub-σ\sigma-álgebra \mathcal{F}^{\prime}\subseteq\mathcal{F}. Dizemos que uma variável aleatória YY é a esperança condicional de XX com respeito a \mathcal{F}^{\prime} (ou a esperança condicional de XX dada \mathcal{F}^{\prime}) se

  1.  a)

    YY é \mathcal{F}^{\prime}-mensurável e

  2.  b)

    E(X\1A)=E(Y\1A)E(X\1_{A})=E(Y\1_{A}) para todo AA\in\mathcal{F}^{\prime}.

Nesse caso, escrevemos

Y=E(X|).Y=E(X|\mathcal{F}^{\prime}). (4.3)

Observe que faz sentido escrever E(Y|)(ω)E\big{(}Y|\mathcal{F}^{\prime}\big{)}(\omega), pois E(X|)E(X|\mathcal{F}^{\prime}) é uma variável aleatória.

Interpretamos informalmente a definição acima como “YY é a melhor aproximação \mathcal{F}^{\prime}-mensurável de XX”. Ou YY é a melhor aproximação que podermos fazer de XX se “conhecemos apenas \mathcal{F}^{\prime}”.

{example}

Se ={,Ω}\mathcal{F}^{\prime}=\{\varnothing,\Omega\}, então Y=E(X)Y=E(X) (uma variável aleatória constante) é esperança condicional de XX dado \mathcal{F}^{\prime}, pois

  1.  a)

    YY é \mathcal{F}^{\prime}-mensurável (por ser constante). Além disso

  2.  b)

    E(X\1)=0=E(Y\1)E(X\1_{\varnothing})=0=E(Y\1_{\varnothing}) e E(X\1Ω)=E(X)=E(Y\1Ω)E(X\1_{\Omega})=E(X)=E(Y\1_{\Omega}).

Uma propriedade muito importante que segue da Definição 4.1 é dada pela seguinte

{proposition}

Se YY satisfaz as a)a) e b)b) em Definição 4.1, então Y1(P)Y\in\mathcal{L}^{1}(P).

Demonstração.

Tomamos A=[Y0]A=[Y\geq 0] e A=[Y<0]A^{\prime}=[Y<0] que estão em \mathcal{F}^{\prime} e estimamos

|Y|P=AYP+AYP=AXP+AXP|X|P<\int|Y|\d{P}=\int_{A}Y\d{P}+\int_{A^{\prime}}Y\d{P}=\int_{A}X\d{P}+\int_{A^{% \prime}}X\d{P}\leq\int|X|\d{P}<\infty (4.4)

O que mostra a proposição. ∎

Além caso trivial dado acima pelo Exemplo 4.1, quando podemos esperar que existam esperanças condicionais?

{theorem}

Dada X1(P)X\in\mathcal{L}^{1}(P) e \mathcal{F}^{\prime}\subseteq\mathcal{F} uma σ\sigma-álgebra, então existe a esperança condicional E(X|)E(X|\mathcal{F}^{\prime}). Além disso ela é única PP-quase certamente.

Demonstração.

Vamos primeiro mostrar a unicidade quase certa. Para isso, supomos que existam YY e YY^{\prime} satisfazendo as condições da Definição 4.1 (logo em 1\mathcal{L}^{1}). Iremos proceder como no Lema 4.1 acima, definindo A=[Y>Y]A=[Y>Y^{\prime}], donde concluímos que

E((YY)\1A)=E(Y\1A)E(Y\1A)=0.E\big{(}(Y-Y^{\prime})\1_{A}\big{)}=E(Y\1_{A})-E(Y^{\prime}\1_{A})=0. (4.5)

Mas como Y>YY>Y^{\prime} em AA, vemos que YYY\leq Y^{\prime} quase certamtente. A prova da unicidade pode ser completa trocando os papéis de YY e YY^{\prime} acima.

Vamos agora para a prova da existência. Como X1(P)X\in\mathcal{L}^{1}(P), podemos introduzir

μ(A)=E(X\1A),\mu(A)=E(X\1_{A}), (4.6)

que define uma medida com sinal em (Ω,)(\Omega,\mathcal{F}), com variação total finita.

Caso o leitor não se sinta familiarizado com o conceito de medida com sinal, poderá decompor XX em partes positiva e negativa e proceguir sem problemas.

Um passo importante da prova é observar que μ\mu também define uma medida no espaço (Ω,)(\Omega,\mathcal{F}^{\prime}). Estamos portanto propositalmente restringindo nossa σ\sigma-álgebra. Como P(A)=0P(A)=0 implica que μ(A)=0\mu(A)=0, temos que μP\mu\ll P e podemos aplicar o Teorema de Radon-Nikodim para obter uma derivada Y:ΩY:\Omega\to\mathbb{R} tal que

  1.  a)

    YY é \mathcal{F}^{\prime}-mensurável e

  2.  b)

    μ(A)=AYP\mu(A)=\int_{A}Y\d{P}.

Agora é só observar que as afirmações acima correspondem às condições da Definição 4.1. ∎

Observe que a condição de \mathcal{F}^{\prime}-mensurabilidade é essencial para a unicidade. De fato, XX obviamente satisfaz a segunda condição da Definição 4.1, mas não necessariamente a primeira.

{exercise}

Mostre que se XX\in\mathcal{F}^{\prime}, então E(X|)=XE(X|\mathcal{F}^{\prime})=X quase certamente.

{exercise}

Seja PP a probabilidade uniforme em {(x1,x2)[0,1]2;x1x2}\{(x_{1},x_{2})\in[0,1]^{2};x_{1}\geq x_{2}\}. Calcule E(X2|X1)E(X_{2}|X_{1}).