Edit page

Combinações Lineares de Variáveis Aleatórias

Para VA X1,X2,,XnX_1, X_2, \cdots, X_n e c1,c2,,cnRc_1, c_2, \cdots, c_n \in \R, dizemos que a VA

Y=i=1nciXiY = \sum_{i=1}^n c_i X_i

é uma combinação linear de X1,,XnX_1, \cdots, X_n.

Muitas vezes é interessante estudar combinações lineares de VA's, pelo que os seguintes resultados são muito importantes.

Valor Esperado de Comb. Lineares de VA's

E(i=1nciXi)=i=1nciE(Xi)E \left( \sum_{i=1}^n c_i X_i \right) = \sum_{i=1}^n c_i E(X_i)

Variância de Comb. Lineares de VA's

V(i=1nciXi)=i=1nci2V(Xi)+2i=1nj=i+1ncicjcov(Xi,Xj)V \left( \sum_{i=1}^n c_i X_i \right) = \sum_{i=1}^n c_i^2 V(X_i) + 2 \sum_{i=1}^n \sum_{j=i+1}^n c_ic_jcov(X_i, X_j)

Nomeadamente, para VA's independentes duas a duas (Xi ⁣ ⁣ ⁣Xj,i,j{0,1,,n},ijX_i \indep X_j, \forall_{i,j \in \{0,1,\cdots,n\}, i \neq j}), temos que

V(i=1nciXi)=i=1nci2V(Xi)V \left( \sum_{i=1}^n c_i X_i \right) = \sum_{i=1}^n c_i^2 V(X_i)

Podemos ainda realçar as duas relações mais simples, e afirmar que

V(X+Y)=V(X)+V(Y)+2cov(X,Y)V(XY)=V(X)+V(Y)2cov(X,Y)V(X + Y) = V(X) + V(Y) + 2 \cdot cov(X, Y)\\ V(X - Y) = V(X) + V(Y) - 2 \cdot cov(X, Y)

Dizemos que duas variáveis XX e YY são independentes e identicamente distribuídas se X ⁣ ⁣ ⁣YX \indep Y e tiverem a mesma distribuição (com os mesmos parâmetros). Denotamos duas VA's independentes e identicamente distribuídas por XiidYX \iid Y e abreviamos esta expressão frequentemente para iid.
Este conceito vai ser muito usado daqui em diante.

Distribuições de Combinações Lineares de VA

Comb. Lineares de Binomiais

Se Xibinomial(ni,p)X_i \sim \op{binomial}(n_i, p) forem variáveis independentes entre si para i{1,2,,k}i \in \{1,2,\cdots,k\} então

i=1kXibinomial(i=1kni,p)\sum_{i=1}^k X_i \sim \op{binomial} \left( \sum_{i=1}^k n_i, p \right)

De uma forma intuitiva, o que isto significa é que se eu primeiro fizer n1n_1 provas de Bernoulli, depois fizer mais n2n_2, e por aí em diante até nkn_k, o número de sucessos que vou ter no total corresponde ao número de sucessos que tive nas primeiras n1n_1 tentativas, mais os que tive nas n2n_2 seguintes, consecutivamente até às últimas nkn_k experiências.
Note-se que isto só é válido se todas as provas de Bernoulli tiverem o mesmo parâmetro, ou seja, a mesma probabilidade de sucesso.

Comb. Lineares de Poisson's

Se XiPoisson(λi)X_i \sim \op{Poisson}(\lambda_i) forem variáveis independentes entre si para i{1,2,,k}i \in \{1,2,\cdots,k\} então

i=1kXiPoisson(i=1kλi)\sum_{i=1}^k X_i \sim \op{Poisson} \left( \sum_{i=1}^k \lambda_i \right)

De uma forma intuitiva, o que isto significa é que se tivermos kk eventos que esperamos que ocorram λ1,λ2,,λk\lambda_1, \lambda_2, \cdots, \lambda_k vezes, respetivamente, num dado intervalo, então esperamos que a união desses eventos aconteça λ1+λ2++λk\lambda_1 + \lambda_2 + \cdots + \lambda_k vezes nesse dado intervalo.
Isto é uma consequência da linearidade do valor esperado.

Comb. Lineares de Normais

Se Xinormal(μi,σi2)X_i \sim \op{normal}(\mu_i, \sigma_i^2) forem variáveis independentes entre si para i{1,2,,k}i \in \{1,2,\cdots,k\} então

i=1kciXinormal(i=1kciμi,i=1kci2σi2)\sum_{i=1}^k c_i X_i \sim \op{normal} \left( \sum_{i=1}^k c_i \mu_i, \sum_{i=1}^k c_i^2 \sigma_i^2 \right)

Isto é uma consequência direta das propriedade vistas acima para o valor esperado e variância de combinações lineares de VA's.
Note-se que ao contrário dos outros casos, aqui vale qualquer combinação linear das VA's, e não apenas somas.

Comb. Lineares de Exponenciais

Se Xexponencial(λ)X \sim \op{exponencial}(\lambda) então

cXexponencial(λc)cX \sim \op{exponencial}\left(\frac{\lambda}{c}\right)

Isto é uma consequência direta de E(cX)=cE(x)E(cX) = cE(x) (relembre-se que o valor esperado de uma VA Xexponencial(λ)X \sim \op{exponencial}(\lambda) é 1λ\frac{1}{\lambda})

Teorema do Limite Central

Sejam Xi,X2,,XnX_i, X_2, \cdots, X_n VA iid com valor esperado μ\mu e variância σ2\sigma^2. Consideremos as VA

Sn=i=1nXiS_n = \sum_{i=1}^n X_i
Xn=1ni=1nXi\overline{X_n} = \frac{1}{n} \sum_{i=1}^n X_i

Então, temos que

limnP(SnE(Sn)V(Sn)z)=limnP(Snnμnσ2z)=Φ(z)\lim_{n \to \infty} P \left( \frac{S_n - E(S_n)}{\sqrt{V(S_n)}} \leq z \right) = \lim_{n \to \infty} P \left( \frac{S_n - n\mu}{\sqrt{n\sigma^2}} \leq z \right) = \Phi(z)
limnP(XnE(Xn)V(Xn)z)=limnP(Xnμσ2nz)=Φ(z)\lim_{n \to \infty} P \left( \frac{\overline{X_n} - E(\overline{X_n})}{\sqrt{V(\overline{X_n})}} \leq z \right) = \lim_{n \to \infty} P \left( \frac{\overline{X_n} - \mu}{\sqrt{\frac{\sigma^2}{n}}} \leq z \right) = \Phi(z)

Por outras palavras, temos que, para nn suficientemente grande,

Snnμnσ2anormal(0,1)\frac{S_n - n\mu}{\sqrt{n\sigma^2}} \sima \op{normal}(0,1)
Xnμσ2nanormal(0,1)\frac{\overline{X_n} - \mu}{\sqrt{\frac{\sigma^2}{n}}} \sima \op{normal}(0,1)

Por observação empírica, verificou-se que esta aproximação fica razoável para valores de nn superiores a 30.

Este teorema permite-nos obter várias aproximações para distribuições. Vamos ver, agora, aproximações de distribuições, algumas das quais seguem do TLC.

Aproximações de Distribuições

Estas aproximações não são lecionadas no programa de 2021/22.

Uma VA Xhipergeomeˊtrica(N,M,n)X \sim \op{hipergeométrica}(N, M, n) pode ser aproximada por

X~binomial(n,MN)\tilde{X} \sim \op{binomial}\left(n, \frac{M}{N}\right)

para n<0.1Nn < 0.1 N

A lógica por trás desta aproximação é que se a população for muito maior que a amostra (isto é, o número de indivíduos analisados), a não-reposição torna-se negligenciável.

Uma VA Xbinomial(n,p)X \sim \op{binomial}(n, p) pode ser aproximada por

X~Poisson(np)\tilde{X} \sim \op{Poisson}(np)

para n>20n>20 e p<0.1p<0.1.

Uma VA Xbinomial(n,p)X \sim \op{binomial}(n, p) pode ser aproximada por

X~normal(np,np(1p))\tilde{X} \sim \op{normal}\left(np, np(1-p)\right)

para np>5np > 5 e n(1p)>5n(1-p) > 5.

Isto é uma consequência do TLC.

Uma VA XPoisson(λ)X \sim \op{Poisson}(\lambda) pode ser aproximada por

X~normal(λ,λ)\tilde{X} \sim \op{normal}(\lambda, \lambda)

para λ>5\lambda > 5.

Isto é uma consequência do TLC.

Correção de Continuidade

Quando aproximamos VA discretas por VA contínuas, normalmente fazemos uma pequena correção para melhorar a aproximação:

P(X=x)P(x12<X~x+12)P(X=x) \simeq P\left(x -\frac{1}{2} < \tilde X \leq x + \frac{1}{2}\right)
P(a<Xb)P(a+12<X~b+12)P(a < X \leq b) \simeq P\left(a + \frac{1}{2} < \tilde X \leq b + \frac{1}{2}\right)
P(X<x)=P(Xx1)P(X~<x12)P(X < x) = P\left(X \leq x-1\right) \simeq P\left(\tilde X < x - \frac{1}{2}\right)