3.6 Momentos exponenciais
Nessa seção desenvolveremos uma outra técnica para estimar a probabilidade de uma variável aleatória se desviar de sua esperança.
Já vimos o método do primeiro, segundo e quarto momento para controlar uma soma de variáveis independentes. Um exemplo disso foi visto na estimativa
Em geral, quanto maior o momento, melhor a estimativa do decaimento para a probabilidade de que uma variável se desvie de sua esperança. Nessa seção iremos para momentos exponenciais, que em um certo sentido produzem estimativas ótimas para o comportamento assintótico da probabilidade de desvio.
Note que se quisermos uma pequena probabilidade de erro (como por exemplo ), o método do segundo momento é muito bom, como veremos posteriormente. Mas se quisermos uma probabilidade de erro minúscula (em situações concretas, algo como por exemplo), certamente teremos que aumentar bastante o valor de , mas quanto? As cotas de segundo momento são muito ruins para esse tipo de estimativa, nos levando a escolher um maior que o necessário. Abaixo, desenvolveremos um método mais eficiente para responder a essa pergunta, obviamente sob certas hipóteses na distribuição das variáveis aleatórias.
Dada uma variável aleatória , definimos sua transformada de Laplace como
para todos . Essa transformada também é chamada função geradora de momentos de .
Calcule a função geradora de momentos das distribuições , e .
Se , então
-
a)
para todo ,
-
b)
para todo ,
-
c)
é em e
-
d)
.
A última conclusão da proposição acima justifica a nomenclatura função geradora de momentos pois .
Demonstração.
Obviamente, para todo existe tal que , donde . Além disso, para todo , temos , donde 2. segue imediatamente.
Fixando , vamos agora calcular
Lembrando que , para todo , temos que para todos os , o integrando acima é dominado por que pertence a . Logo podemos usar o Teorema da Convergência Dominada para trocar o limite com a esperança, obtendo
Note que para todo e , , isso nos permite repetir o argumento acima indutivamente para obter c) e d). ∎
Lembramos que ao usar o método do segundo momento, nos foi bastante útil o fato que a variância se comporta bem com relação a somas independentes. Mais precisamente, .
Uma outra propriedade importante da função geradora de momentos é que ela também se comporta bem com respeito à somas independentes. {proposition} Se são variáveis independentes com para todo e , então
Demonstração.
Basta observar que
usando Fubini. ∎
Consideraremos agora uma sequência de variáveis \iidcom para . Então podemos tentar estimar, para e ,
O primeiro fator na estimativa acima pode crescer exponencialmente com , enquanto o segundo decresce. Gostaríamos que o comportamento do segundo predominasse, o que podemos concluir do seguinte argumento.
Sabemos que é diferenciável em zero e que . Logo, existe tal que , donde
Isso nos garante um decaimento exponencial da probabilidade da média dos se desviar da esperança.
Aplique o método acima para variáveis \iidcom distribuição e encontre que otimize o decaimento da probabilidade .
Poderíamos nos perguntar se a cota acima é suficientemente boa. Talvez pudéssemos esperar um decaimento ainda melhor que exponencial. Para responder a essa pergunta, vamos considerar o seguinte exemplo. Sejam variáveis \iidcom . Nesse caso temos por exemplo
Dessa forma, sabemos que não podemos esperar um decaimento melhor que exponencial, mesmo para variáveis bem simples (como Bernoulli) que satisfazem para todo .
Note que para variáveis com distribuição , obtivemos acima cotas exponenciais em (superior e inferior), mas elas possuem expoentes diferentes. Resta agora tentar entender qual é o expoente correto para o decaimento da probabilidade , o que será feito na próxima seção.
Tópico: Processos de ramificaçãofazer…