next up previous contents
Next: Valore atteso e varianza Up: Funzioni di variabili casuali Previous: Riepilogo di alcune proprietà   Indice


Valore atteso e varianza di combinazioni lineari

Sviluppiamo ora il programma illustrato all'inizio di questo capitolo e schematizzato nella (10.3). Calcoliamo quindi il valore atteso di una combinazione lineare di variabili casuali, cominciando dal caso più semplice, quello della somma algebrica:
E$\displaystyle (X\pm Y)$ $\displaystyle =$ $\displaystyle \iint (x\pm y)\, f(x,y)dxdy$  
  $\displaystyle =$ $\displaystyle \iint x\, f(x,y)dxdy \pm
\iint y\, f(x,y)dxdy$  
  $\displaystyle =$ E$\displaystyle (X)\pm$   E$\displaystyle (Y)\,.$ (10.24)

Nel caso generale

E$\displaystyle (\alpha\, X+\beta\, Y) = \alpha\,$   E$\displaystyle (X)+\beta\,$   E$\displaystyle (Y)\,.$ (10.25)

Avendo ottenuto il valore della previsione, interessiamoci all'incertezza di previsione, data dalla deviazione standard. Anche in questo caso cominciamo dalla somma algebrica:

Var$\displaystyle (X\pm Y)$ $\displaystyle =$ E$\displaystyle \left[\left((X\pm Y)-\mbox{E}(X\pm Y)\right)^2\right]$  
  $\displaystyle =$ E$\displaystyle \left[\left(X-\mbox{E}(X)\right) \pm
\left(Y-\mbox{E}(Y)\right)^2\right]$  
  $\displaystyle =$ E$\displaystyle \left[\left(X-\mbox{E}(X)\right)^2 +
\left(Y-\mbox{E}(Y)\right)^2 \right.$ (10.26)
    $\displaystyle \ \ \ \ \ \ \left. \pm
2\, \left(X-\mbox{E}(X)\right)\, \left(Y-E[Y]\right)\right]
\nonumber$  
  $\displaystyle =$ Var$\displaystyle (X) +$   Var$\displaystyle (Y) \pm 2\,$   Cov$\displaystyle (X,Y)\, .$ (10.27)

Nel caso in cui la covarianza si annulla troviamo che la varianza di una somma o differenza di due variabili casuali è uguale alla somma delle varianze.

Utilizando i simboli compatti di $ \sigma^2$ per la varianza e $ \sigma_{XY}$ per la covarianza, possiamo riscrivere la 10.27 come

$\displaystyle \sigma^2(X\pm Y) = \sigma_X^2 + \sigma_Y^2 \pm 2\, \sigma_{XY}\, .$ (10.28)

Nel caso di una somma di $ n$ variabili $ Y=\sum_iX_i$ otteniamo:
E$\displaystyle (Y)$ $\displaystyle =$ $\displaystyle \sum_i$E$\displaystyle (X_i)$ (10.29)
Var$\displaystyle (Y)$ $\displaystyle =$ $\displaystyle \sum_i$   Var$\displaystyle (X_i) + \sum_{i\ne j}$Cov$\displaystyle (X_i,X_j)$ (10.30)

e, nella notazione simmetrica appena introdotta:

$\displaystyle \sigma_Y^2 = \sum_{ij}\sigma_{ij}\, ,$ (10.31)

ove $ \sigma_{ii} = \sigma^2_{x_i}$ e $ \sigma_{ij} =$   Cov$ (x_i,x_j)$. Consideriamo infine una combinazione lineare di due variabili $ Y=a\, X_1+b\, X_2+c$:


Var$\displaystyle (Y)$ $\displaystyle =$ E$\displaystyle \left[\left(aX_1+bX_2+c-\mbox{E}[a\, X_1+b\, X_2+c]
\right)^2\right]$  
  $\displaystyle =$ E$\displaystyle \left[\left(a\, (X_1-\mbox{E}(X_1))+b\,
(X_2-\mbox{E}(X_2))\right)^2\right]$  
  $\displaystyle =$ $\displaystyle a^2\,$   Var$\displaystyle (X)+b^2\,$   Var$\displaystyle (X_2)+2\, a\,
b\,$   Cov$\displaystyle (X_1,X_2)\, .$  
      (10.32)

Questo risultato può essere esteso a un numero qualsiasi di variabili:

$\displaystyle Y$ $\displaystyle =$ $\displaystyle \sum_i \alpha_i\, X_i$  
E$\displaystyle (Y)$ $\displaystyle =$ $\displaystyle \sum_i \alpha_i\, \,$   E$\displaystyle (X_i)$ (10.33)
Var(Y) $\displaystyle =$ $\displaystyle \sum_i \alpha_i^2 \,$   Var$\displaystyle (X_i) +
2\sum_{i< j}\alpha_{i}\, \alpha_{j}\,$   Cov$\displaystyle (X_i,X_j)$ (10.34)

Possiamo riscrivere in modo più compatto l'espressione della covarianza, osservando innanzitutto che

$\displaystyle 2\sum_{i< j}\alpha_{i}\, \alpha_{j}\,$   Cov$\displaystyle (X_i,X_j)
= \sum_{i\ne j}\alpha_{i}\, \alpha_{j}\,$   Cov$\displaystyle (X_i,X_j)\,,$

in quanto il fattore 2 è dovuto a considerare sia $ i<j$ che $ i>j$. Utilizzando inoltre la notazione compatta, questa può essere riscritta come

$\displaystyle \sum_{i\ne j}\alpha_{i}\, \alpha_{j}\sigma_{ij}\,.$

Anche i termini dovuti alle varianze possono essere riscritti come

$\displaystyle \sum_i\alpha_i^2$Var$\displaystyle (X_i) = \sum_i\alpha_i\alpha_i\sigma_i^2 =
\sum_i\alpha_i\alpha_i\sigma_{ii}\,,$

ove $ \sigma_{ii}$ sta per $ \sigma_i^2$. Per concludere, il modo più compatto di scrivere la varianza di una combinazione lineare10.8è:
$\displaystyle \sigma_Y^2$ $\displaystyle =$ $\displaystyle \sum_{ij}\alpha_{i}\, \alpha_{j}\, \sigma_{ij}\,.$ (10.35)

Vediamo due applicazioni di quanto abbiamo mostrato in questo paragrafo.



Subsections
next up previous contents
Next: Valore atteso e varianza Up: Funzioni di variabili casuali Previous: Riepilogo di alcune proprietà   Indice
Giulio D'Agostini 2001-04-02