17 Momentos e funções geradoras de momentos

Definição 17.1.

Dada uma variável aleatória XX, definimos a função geradora de momentos de XX como a função MXM_{X} dada por

MX(t)=𝔼[etX]M_{X}(t)=\mathbb{E}[e^{tX}]

para os valores de tt para os quais etXe^{tX} é integrável.

Exemplo 17.2 (Geométrica).

Se XGeom(p)X\sim\mathrm{Geom}(p), então

MX(t)\displaystyle M_{X}(t) =n=1etnp(1p)n1={pet+p1,t<ln11p,+,tln11p.\displaystyle=\sum_{n=1}^{\infty}e^{tn}p(1-p)^{n-1}=\begin{cases}\frac{p}{e^{-% t}+p-1},&t<\ln\tfrac{1}{1-p},\\ +\infty,&t\geqslant\ln\tfrac{1}{1-p}.\end{cases}
Exemplo 17.3 (Poisson).

Se XPoisson(λ)X\sim\mathrm{Poisson}(\lambda), então

MX(t)\displaystyle M_{X}(t) =n=0etneλλnn!=eλn=0(λet)nn!=eλeλet=eλ(et1).\displaystyle=\sum_{n=0}^{\infty}e^{tn}\frac{e^{-\lambda}\lambda^{n}}{n!}=e^{-% \lambda}\sum_{n=0}^{\infty}\frac{(\lambda e^{t})^{n}}{n!}=e^{-\lambda}e^{% \lambda e^{t}}=e^{\lambda(e^{t}-1)}.
Exemplo 17.4 (Normal).

Seja XX uma variável aleatória normal com parâmetros μ\muσ2\sigma^{2}, ou seja,

fX(x)=12πσ2e(xμ)22σ2,x.f_{X}(x)=\frac{1}{\sqrt{2\pi\sigma^{2}}}\cdot e^{-\frac{(x-\mu)^{2}}{2\sigma^{% 2}}},\quad x\in\mathbb{R}.

A função geradora de momentos de XX pode ser calculada da seguinte forma:

MX(t)\displaystyle M_{X}(t) =etxfX(x)dx\displaystyle=\int_{-\infty}^{\infty}e^{tx}\cdot f_{X}(x)\;\mathrm{d}x
=etx12πσ2e(xμ)22σ2dx\displaystyle=\int_{-\infty}^{\infty}e^{tx}\cdot\frac{1}{\sqrt{2\pi\sigma^{2}}% }\cdot e^{-\frac{(x-\mu)^{2}}{2\sigma^{2}}}\;\mathrm{d}x
=12πσ2exp{12σ2[(xμ)22σ2tx]}dx\displaystyle=\int_{-\infty}^{\infty}\frac{1}{\sqrt{2\pi\sigma^{2}}}\cdot\exp% \left\{-\frac{1}{2\sigma^{2}}[(x-\mu)^{2}-2\sigma^{2}tx]\right\}\;\mathrm{d}x (17.5)

Agora, completamos o quadrado:

(xμ)22σ2tx\displaystyle(x-\mu)^{2}-2\sigma^{2}tx =x22(μ+σ2t)x+μ2\displaystyle=x^{2}-2(\mu+\sigma^{2}t)\cdot x+\mu^{2}
=x22(μ+σ2t)x+μ2±(2μσ2t+σ4t2)\displaystyle=x^{2}-2(\mu+\sigma^{2}t)\cdot x+\mu^{2}\;\pm(2\mu\sigma^{2}t+% \sigma^{4}t^{2})
=(xμσ2t)22μσ2tσ4t2.\displaystyle=(x-\mu-\sigma^{2}t)^{2}-2\mu\sigma^{2}t-\sigma^{4}t^{2}.

Isso dá

12σ2[(xμ)22σ2tx]=(xμσ2t)22σ2+tμ+σ2t22.-\frac{1}{2\sigma^{2}}[(x-\mu)^{2}-2\sigma^{2}tx]=-\frac{(x-\mu-\sigma^{2}t)^{% 2}}{2\sigma^{2}}+t\mu+\frac{\sigma^{2}t^{2}}{2}.

A integral em (17.5) então se torna

exp{tμ+σ2t22}12πσ2exp{(xμσ2t2)22σ2}}dx.\exp\left\{t\mu+\frac{\sigma^{2}t^{2}}{2}\right\}\cdot\int_{-\infty}^{\infty}% \frac{1}{\sqrt{2\pi\sigma^{2}}}\cdot\exp\left\{-\frac{(x-\mu-\sigma^{2}t^{2})^% {2}}{2\sigma^{2}}\}\right\}\;\mathrm{d}x.

Agora, observe que a função sendo integrada é a função de densidade de probabilidade de 𝒩(μ+σ2t,σ2)\mathcal{N}(\mu+\sigma^{2}t,\;\sigma^{2}), então a integral é igual a 11. Em conclusão,

MX(t)=exp{tμ+σ2t22},t.M_{X}(t)=\exp\left\{t\mu+\frac{\sigma^{2}t^{2}}{2}\right\},\quad t\in\mathbb{R}.
Definição 17.6 (Momentos).

Definimos o kk-ésimo momento de uma variável aleatória XX como 𝔼[Xk]\mathbb{E}[X^{k}] se XkX^{k} for integrável.

O nome "função geradora de momentos"vem do seguinte fato.

Proposição 17.7.

Se MX(t)M_{X}(t) é definido em (a,a)(-a,a) para algum a>0a>0, então XX tem todos os momentos e eles são dados por

𝔼[Xk]=MX(k)(0),\mathbb{E}[X^{k}]=M_{X}^{(k)}(0),

onde MX(k)M_{X}^{(k)} denota a kk-ésima derivada da função MXM_{X}.

Não temos as ferramentas para provar esta proposição, mas se estivermos dispostos a ser atrevidos, podemos fazer:

dkdtkMX(t)=dkdtk𝔼[etX]=𝔼[dkdtketX]=𝔼[XketX]\left.\tfrac{\mathrm{d}^{k}}{\mathrm{d}t^{k}}M_{X}(t)\right.=\left.\tfrac{% \mathrm{d}^{k}}{\mathrm{d}t^{k}}\,\mathbb{E}[e^{tX}]\right.=\mathbb{E}\left[% \left.\tfrac{\mathrm{d}^{k}}{\mathrm{d}t^{k}}\,e^{tX}\right.\right]=\mathbb{E}% [X^{k}e^{tX}]

e, avaliando em t=0t=0, obtemos a proposição.

Exemplo 17.8 (Geométrica).

Se XGeom(p)X\sim\mathrm{Geom}(p), então

𝔼[X]=MX(0)=1p,𝔼[X2]=MX′′(0)=2p21p,Var[X]=𝔼[X2](𝔼[X])2=1pp2.\mathbb{E}[X]=M_{X}^{\prime}(0)=\tfrac{1}{p},\ \mathbb{E}[X^{2}]=M_{X}^{\prime% \prime}(0)=\tfrac{2}{p^{2}}-\tfrac{1}{p},\ \mathrm{Var}[X]=\mathbb{E}[X^{2}]-(% \mathbb{E}[X])^{2}=\tfrac{1-p}{p^{2}}.
Exemplo 17.9 (Poisson).

Se XPoisson(λ)X\sim\mathrm{Poisson}(\lambda), então

𝔼[X]=MX(0)=λ,𝔼[X2]=MX′′(0)=λ2+λ,Var[X]=𝔼[X2](𝔼[X])2=λ.\mathbb{E}[X]=M_{X}^{\prime}(0)=\lambda,\ \mathbb{E}[X^{2}]=M_{X}^{\prime% \prime}(0)=\lambda^{2}+\lambda,\ \mathrm{Var}[X]=\mathbb{E}[X^{2}]-(\mathbb{E}% [X])^{2}=\lambda.
Exemplo 17.10 (Normal).

Seja X𝒩(μ,σ2)X\sim\mathcal{N}(\mu,\sigma^{2}). Vamos calcular sua média (ou seja, sua esperança) e variância. No exemplo anterior, provamos que MX(t)M_{X}(t) está definido para todos tt\in\mathbb{R}, com

MX(t)=exp{t2σ22+μt}.M_{X}(t)=\exp\left\{\frac{t^{2}\sigma^{2}}{2}+\mu t\right\}.

Em seguida, usamos o teorema acima para calcular

𝔼[X]\displaystyle\mathbb{E}[X] =ddtMX(t)|t=0=[(tσ2+μ)exp{t2σ22+μt}]t=0=μ\displaystyle=\left.\frac{\mathrm{d}}{\mathrm{d}t}M_{X}(t)\right|_{t=0}=\left[% (t\sigma^{2}+\mu)\cdot\exp\left\{\frac{t^{2}\sigma^{2}}{2}+\mu t\right\}\right% ]_{t=0}=\mu

e

𝔼[X2]\displaystyle\mathbb{E}[X^{2}] =d2d2tMX(t)|t=0==σ2+μ2.\displaystyle=\left.\frac{\mathrm{d}^{2}}{\mathrm{d}^{2}t}M_{X}(t)\right|_{t=0% }=\cdots=\sigma^{2}+\mu^{2}.

Portanto,

Var(X)=𝔼[X2](𝔼[X])2=σ2+μ2μ2=σ2.\mathrm{Var}(X)=\mathbb{E}[X^{2}]-(\mathbb{E}[X])^{2}=\sigma^{2}+\mu^{2}-\mu^{% 2}=\sigma^{2}.

Esta é a razão pela qual XX é dito ser uma variável aleatória normal com média μ\mu e variância σ2\sigma^{2}.

Proposição 17.11.

Para todos a,ba,b\in\mathbb{R},

MaX+b(t)=etbMX(at)M_{aX+b}(t)=e^{tb}\cdot M_{X}(at)

para todo tt no qual as funções geradoras de momentos estão definidas.

Demonstração.

Nós calculamos

MaX+b(t)=𝔼[et(aX+b)]=etb𝔼[et(aX)]=etbMX(at).M_{aX+b}(t)=\mathbb{E}[e^{t(aX+b)}]=e^{tb}\cdot\mathbb{E}[e^{t(aX)}]=e^{tb}% \cdot M_{X}(at).\qed
Proposição 17.12.

Quando XX e YY são independentes,

MX+Y(t)=MX(t)MY(t)M_{X+Y}(t)=M_{X}(t)\cdot M_{Y}(t)

para todo tt no qual as funções geradoras de momentos estão definidas.

Demonstração.

Se XXYY são independentes, então etXe^{tX}etYe^{tY} também são. Portanto,

MX+Y(t)=𝔼[et(X+Y)]=𝔼[etXetY]=𝔼[etX]𝔼[etY]=MX(t)MY(t).M_{X+Y}(t)=\mathbb{E}[e^{t(X+Y)}]=\mathbb{E}[e^{tX}\cdot e^{tY}]=\mathbb{E}[e^% {tX}]\cdot\mathbb{E}[e^{tY}]=M_{X}(t)\cdot M_{Y}(t).\qed
Exemplo 17.13 (Soma de variáveis de Poisson independentes).

Sejam XPoisson(λ)X\sim\mathrm{Poisson}(\lambda) e YPoisson(μ)Y\sim\mathrm{Poisson}(\mu) independentes. Então

MX+Y(t)=MX(t)MY(t)=eλ(et1)eμ(et1)=e(λ+μ)(et1)=MZ(t),M_{X+Y}(t)=M_{X}(t)\cdot M_{Y}(t)=e^{\lambda(e^{t}-1)}e^{\mu(e^{t}-1)}=e^{(% \lambda+\mu)(e^{t}-1)}=M_{Z}(t),

onde ZPoisson(λ+μ)Z\sim\mathrm{Poisson}(\lambda+\mu). Isso implica que X+YPoisson(λ+μ)X+Y\sim\mathrm{Poisson}(\lambda+\mu)?

O exemplo acima nos faz pensar se conhecer a função geradora de momentos de uma variável aleatória nos diz qual é a distribuição da variável aleatória. E, de fato, este é o caso.

Teorema 17.14 (A função geradora de momentos determina a distribuição).

Dadas duas variáveis aleatórias XX e YY, se existe a>0a>0 tal que MX(t)M_{X}(t) e MY(t)M_{Y}(t) são finitas e coincidem para todo t[a,a]t\in[-a,a], então XX e YY têm a mesma distribuição.

Também omitimos a prova deste teorema, observando que ela requer ferramentas ainda mais difíceis de construir do que outras provas omitidas nestas notas.

Exemplo 17.15 (Soma de variáveis de Poisson independentes).

Se XPoisson(λ)X\sim\mathrm{Poisson}(\lambda) e YPoisson(μ)Y\sim\mathrm{Poisson}(\mu) são independentes, então X+YPoisson(λ+μ)X+Y\sim\mathrm{Poisson}(\lambda+\mu).

Exemplo 17.16 (Soma de variáveis normais independentes).

Sejam XXYY duas variáveis normais independentes, com médias μX\mu_{X}μY\mu_{Y} e variâncias σX2\sigma^{2}_{X}σY2\sigma^{2}_{Y}, respectivamente. Também sejam aabb\in\mathbb{R} com a0a\neq 0. Vamos determinar as distribuições de aX+baX+b e de X+YX+Y. Na última aula, mostramos que

MX(t)=exp{t2σX22+tμX},MY(t)=exp{t2σY22+tμY}.M_{X}(t)=\exp\left\{\frac{t^{2}\sigma_{X}^{2}}{2}+t\mu_{X}\right\},\qquad M_{Y% }(t)=\exp\left\{\frac{t^{2}\sigma_{Y}^{2}}{2}+t\mu_{Y}\right\}.

Temos que

MaX+b(t)=etbMX(at)=etbexp{aμXt+a2σX2t22}=exp{(aμX+b)t+a2σX2t22}.M_{aX+b}(t)=e^{tb}\cdot M_{X}(at)=e^{tb}\cdot\exp\left\{a\mu_{X}t+\frac{a^{2}% \sigma_{X}^{2}t^{2}}{2}\right\}=\exp\left\{(a\mu_{X}+b)t+\frac{a^{2}\sigma_{X}% ^{2}t^{2}}{2}\right\}.

Portanto, aX+baX+b tem a mesma função geradora de momentos que uma variável aleatória 𝒩(aμ+b,a2σ2)\mathcal{N}(a\mu+b,a^{2}\sigma^{2}). Já que esta função geradora de momentos é definida em uma vizinhança da origem (na verdade, em toda a reta real), concluímos que aX+b𝒩(aμX+b,a2σX2)aX+b\sim\mathcal{N}(a\mu_{X}+b,a^{2}\sigma_{X}^{2}).

Em seguida, como XXYY são independentes, temos

MX+Y(t)=MX(t)MY(t)\displaystyle M_{X+Y}(t)=M_{X}(t)\cdot M_{Y}(t) =exp{μXt+σX2t22}exp{μYt+σY2t22}\displaystyle=\exp\left\{\mu_{X}t+\frac{\sigma_{X}^{2}t^{2}}{2}\right\}\cdot% \exp\left\{\mu_{Y}t+\frac{\sigma_{Y}^{2}t^{2}}{2}\right\}
=exp{(μX+μY)t+(σX2+σY2)t22}.\displaystyle=\exp\left\{(\mu_{X}+\mu_{Y})t+\frac{(\sigma_{X}^{2}+\sigma^{2}_{% Y})t^{2}}{2}\right\}.

Isso mostra que X+YX+Y tem a mesma função geradora de momentos que uma variável aleatória 𝒩(μX+μY,σX2+σY2)\mathcal{N}(\mu_{X}+\mu_{Y},\sigma_{X}^{2}+\sigma_{Y}^{2}). Já que esta função geradora de momentos é definida em um intervalo aberto que contém zero, concluímos que X+Y𝒩(μX+μY,σX2+σY2)X+Y\sim\mathcal{N}(\mu_{X}+\mu_{Y},\sigma_{X}^{2}+\sigma_{Y}^{2}).