3.8 O Teorema Central do Limite
Até o presente momento, já sabemos por exemplo que médias de variáveis aleatórias \iid, suficientemente regulares convergem para sua esperança quase certamente. Vamos fazer contudo um experimento para visualizar esse fenômeno.
Nesse experimento, jogamos moedas e contamos quantas caras obtivemos. Pelo que discutimos anteriormente, esperamos que esse número se encontre por volta de , que é a esperança desta soma de variáveis \iid. Vamos portanto repetir esse experimento mil vezes e observar quantas vezes obtemos algo próximo de , veja Figura 3.2.
Nosso objetivo nessa seção será obter qual é o tamanho típico das flutuações em torno da média dessa soma de variáveis aleatórias. Ao contrário do que fizemos ao estudar Grandes Desvios, nós agora estamos buscando flutuações menores, que acontecem espontaneamente e não com baixa probabilidade.
Note também que apesar de observarmos uma aleatoriedade na Figura 3.2, também notamos uma certa regularidade que muitas vezes é chamada de ’forma de sino’ no histograma apresentado.
3.8.1 A distribuição normal
Começaremos estudando qual poderia ser uma possível forma limite para o histograma da Figura 3.2.
Como uma primeira tentativa, suponha que possui uma certa distribuição (veremos posteriormente que isso somente pode acontecer em casos triviais). Mas se esse fosse o caso, poderíamos dividir a soma nos termos pares e ímpares e . Nesse caso teríamos e independentes e também distribuídos como (pois são dados por uma soma que tem a mesma distribuição daquela que define ).
O seguinte lema mostra que isso somente pode acontecer na situação trivial em que .
Sejam e variáveis aleatórias em , \iidcom distribuição . Nesse caso, se também tem distribuição , então .
Demonstração.
Sabemos que
Mas como tem a mesma distribuição de , então e , donde ambas são zero. Usando o método dos segundo momento, para todo ,
terminando a prova de que quase certamente. ∎
A intuição dessa prova é que quando somamos duas variáveis não determinísticas, a incerteza da soma (medida através da variância) tende a aumentar. Dessa forma não podemos obter a mesma distribuição após a soma.
Mas existe uma maneira simples de tornar esse problema interessante novamente. Digamos que e pertencem a e são i.i.d. Então
Então podemos nos perguntar se
Existe alguma distribuição não trivial em tal que, se e são independentes e distribuídas de acordo com , temos
Pelo menos sabemos agora que a variância não se altera através dessa operação.
Ou em outras palavras, queremos saber se existe algum ponto fixo para o operador que toma uma distribuição em e retorna
Para tentar responder a essa questão, vamos estudar mais a fundo qual é a distribuição da soma de duas variáveis aleatórias independentes. Para isso, considere a distribuição do par, que coincide com , nos dando
Note também que a transformação linear é uma rotação rígida em , o que nos motiva a propor a pergunta mais simples.
Existe alguma distribuição não trivial em tal que, se e são independentes e distribuídas de acordo com , a distribuição do par é invariante por rotações?
Ainda estamos numa busca não rigorosa de tal distribuição, então vamos supor algumas outras propriedades, como por exemplo que seja absolutamente contínua com respeito a Lebesgue, isto é . Nesse caso, já vimos que e no fundo estamos procurando uma função tal que
Para trasformar o produto em uma soma, definimos e e o que gostaríamos que acontecesse é . Como ainda não estamos preocupados com unicidade de e apenas com a existência, já podemos encontrar nossa resposta para nossa pergunta, escolhendo uma função quadrática, tal como .
Mas temos ainda que cuidar para que seja uma densidade, ou seja . Para isso, precisamos que seja negativo e, fixado , o valor de já estará determinado por normalização. Tudo isso motiva finalmente a seguinte definição.
Dizemos que tem distibuição normal canônica, se
Além disso, para e , dizemos que se tem a mesma distribuição de , onde tem distribuição normal canônica . Note que . Muitas vezes chamamos essa distribuição de gaussiana, obviamente em homenagem a Gauss.
Vamos rapidamente observar que a definição acima realmente descreve uma distribuição de probabilidade, ou seja que a integral dessa densidade é um. Para tanto, vamos usar um truque conhecido, que consiste em retornar ao plano. Obviamente,
Donde a constante em (3.102) está de fato correta.
Mostre que a distribuição , tem densidade
Mostre que tem esperança e variância .
Para confirmar que de fato as distribuições normais se comportam bem com respeito a somas independentes, apresentamos o seguinte resultado.
Se e são independentes, então tem distribuição . Em particular, é um ponto fixo do operador definido em (3.99).
Demonstração.
O caso em que ou se anulam é trivial, portanto vamos considerar que ambas são positivas. Não é difícil ver que podemos também supor que . Podemos então calcular
onde e são independentes com distribuição . Assim, a probabilidade acima pode ser escrita como
Agora aplicaremos a rotação rígida dada por
Como sabemos que a densidade de é invariante por , ou seja , então podemos escrever (3.106) como
terminando a prova da proposição. ∎
Podemos obter um corolário interessante sobre a soma de normais i.i.d. {corollary} Sejam variáveis \iidcom distribuição , então
Como consequência
Lembrando da Lei dos Grandes Números, se dividimos a soma dos por , essa fração vai a zero quase certamente. O que concluímos acima é que ao dividir por obtemos um limite não trivial (nem zero, nem infinito) e aleatório (não determinístico).
Mais uma observação curiosa: nossa motivação para a definição da distribuição normal passou por invariância por rotações e podemos extender essa invariância para normais independentes. Note que somar as coordenadas canônicas é equivalente a tomar o produdo escalar com o vetor , que tem norma euclideana .
Uma outra maneira de entender o corolário acima é que a normal é um ponto fixo da operação seguinte
-
a)
tome uma distribuição ,
-
b)
considere \iidcom distribuição e
-
c)
retorne a distribuição de
(3.110)
Na Questão 3.8.1, nos perguntamos quais seriam os outros possíveis pontos fixos de e isso será considerado depois. Mas uma outra questão bastante importante é se o ponto fixo é atrator, ou seja se começando com outras distribuições poderíamos nos aproximar de à medida que iteramos .
Isso é estudado no Teorema Central do Limite (TCL) que provaremos posteriormente. Mas antes, precisamos desenvolver uma boa definição de convergência para distribuições, ou em outras palavras definir uma topologia. Esse será o nosso próximo tópico.
3.8.2 Convergência fraca
Em muitos casos é importante termos bem definida uma noção de convergência de medidas de probabilidade. Supondo por exemplo no espaço mensurável , tenhamos uma sequência de probabilidades e gostaríamos de saber se ela converge a uma determinada .
Um candidato natural para dara sentido a essa convergência poderia se a distância de variação total entre duas medidas
Não é difícil mostrar que a definição acima induz uma métrica, mas ela possui alguns problemas que descreveremos a seguir.
Mostre que define uma métrica.
Sejam e absolutamente contínuas com respeito a uma medida fixa , tendo densidades e respectivamente. Encontre uma fórmula para em termos das densidades. Essa fórmula nos remete a qual distância entre funções?
Digamos que o espaço amostral já seja provido de uma métrica e seja a -álgebra dos borelianos em . Qualquer que seja a noção de convergência que iremos considerar, gostaríamos de dizer que converge a sempre que em . Esse porém não é o caso para , pois se para todo e , teríamos
Aqueles que já viram o conceito de convergência fraca acharão natural que a convergência de para seja definida em termos da convergência das integrais para . Porém, como mencionamos no exemplo das medidas acima, gostaríamos também de a convergência respeitasse a topologia original do espaço , o que torna natural o seguinte conceito.
Dizemos que uma sequência de medidas de probabilidade converge fracamente (ou converge em distribuição) para uma probabilidade se
Essa convergência muitas vezes é denotada por .
Essa definição fica ainda mais natural para aqueles que conhecem o Teorema da Representação de Riesz. Com isso em mente, podemos relacionar a convergência em distribuição com a convergência fraca- no espaço de medidas finitas.
Mostre que em , temos que .
Considere a função do espaço de medidas em nele mesmo, dada por:
Identifique o limite em distribuição de . Mostre que
-
a)
a função de distribuição acumulada associada ao limite é contínua,
-
b)
o limite não é absolutamente contínuo com respeito à medida de Lebesgue.
Sejam i.i.d. distribuidas como e defina
Mostre que converge fracamente e identifique o limite. Observe que não precisamos dividir por nada para obter a convergência.
Nós algumas vezes denotamos quando e são elementos aleatórios de para descrever a convergência fraca de suas respectivas distribuições. Mais precisamente, .
3.8.3 Convergência fraca em
No caso especial em que , temos vários outras maneiras de caracterizar convergência em distribuição. A primeira é dada pela seguinte
Se converge para para toda limitada e com as três primeiras derivadas limitadas, então .
Demonstração.
Primeiramente, vamos ver que podemos nos concentrar em um conjunto compacto da reta.
Para isso fixe um e tome tal que . Tomando uma função satisfazendo as hipóteses do teorema e tal que
concluimos que
para todo suficientemente grande. Se tomamos suficientemente grande, podemos obter a cota acima para todo (com no lugar de e no lugar de ).
Fixamos agora uma contínua e limitada. Sabemos que é possível aproximar por uma função de suporte compacto, com e uniformemente no intervalo . Essa certamente satisfaz as hipóteses do teorema.
Portanto,
Como o último termo converge a zero e foi escolhido arbitrariamente, isso conclui a prova da proposição. ∎
3.8.4 O TCL para uma sequência i.i.d.
[Teorema Central do Limite] Considere em , uma sequência de variáveis aleatórias \iidem . Nesse caso, se definimos e , temos
Demonstração.
Primeiramente, observe que podemos supor que , pois de qualquer forma iremos subtrair a média da distribuição na qual nos interessamos. Uma outra observação importante é que podemos supor , pois no caso geral de qualquer forma estamos somando no enunciado.
Como vimos na Proposição 3.8.3, basta mostrar a convergência das integrais de funções , que possuam todas as três primeiras derivadas limitadas. Considerando a função
nos basta provar a convergência das sequências de números reais
Vale lembrar que no Corolário 3.8.1 já estabelecemos algo mais forte para variáveis normais. Mais precisamente, suponha que extendemos nosso espaço de probabilidade para , onde exista uma sequência de variáveis aleatórias \iidcom distribuição independente de Então, para todo ,
o que tornaria o limite em (3.120) trivial para tais variáveis. A nossa estratégia será aproximar por , e faremos isso trocando uma variável de cada vez.
Para entender o que acontece quando trocamos uma das variáveis por , temos que expandir em série de potências, isto é, escrever
onde é limitada por , uniformemente em e em consequência das nossas suposições sobre .
Denotando , e , temos
Nós propositalmente expandimos até ordem dois, pois e possuem os mesmos momentos de ordem um () e dois ().
Integrando os dois lados da igualdade acima com respeito a (denotamos como antes, e , analogamente), teremos
onde as quantidades e , se escrevem como
Note que não depende de e que
As observações acima são o ponto mais importante da prova de que essa aproximação funciona e uma outra maneira de colocá-las é a seguinte. Como e possuem os dois primeiros momentos iguais, os dois primeiros termos de Taylor coincidem após a integração (o primeiro se anula e o segundo é tanto para quanto para ). O resto é de ordem muito pequena para influir no limite.
De fato, se retiramos o termo de , fazendo a mesma expansão que para , obtemos
com o termo de ordem superior sendo definido exatamente como , mas com no lugar de .
Estamos prontos agora para a computação final
que claramente converge a zero, provando o teorema. ∎
A é a única distribuição que possui esperança zero, variância e é tal que se são \iidcom distribuição , então também possuem distribuição . Em outras palavras, , para , são os únicos pontos fixos de em .
Demonstração.
Usando a invariância enunciada acima, temos que
Mas pelo Teorema central do limite, a distribuição dessa combinação de deve convergir a , logo temos . ∎
Vamos terminar essa seção com uma aplicação do teorema acima.
Digamos que jogamos moedas honestas e independentes, como foi proposto no início da seção, obtendo finalmente uma variável aleatória . Usando o O TCL para uma sequência i.i.d., estime usando uma aproximação por uma . Calcule numericamente o valor real desta probabilidade e compare ambas as estimativas.
Tópico: Mecânica estatística do gás idealMostrar a equivalência de ensembles.
Tópico: Funções características???funcoes caracteristicas e tomografia…