next up previous contents
Next: Covarianza di due medie Up: Funzioni di variabili casuali Previous: Previsione di una media   Indice


$ {\bf\circlearrowright }$Correlazione fra diverse combinazioni lineari di variabili casuali

Immaginiamo di avere due diverse combinazioni lineari, costruite sulle stesse variabili casuali di partenza:

$\displaystyle \left\{\begin{array}{l} Y=\sum_i\alpha_iX_i \\
Z=\sum_i\beta_iX_i \end{array} \right.\,.$

Dipendendo $ Y$ e $ Z$ dalle stesse variabili $ X_i$, esse non sono in genere indipendenti. Ci aspettiamo quindi un coefficiente di correlazione non nullo. Vediamo quindi come calcolare la covarianza. Cominciamo con due sole variabili di partenza, $ X_1$ e $ X_2$, ovvero

$\displaystyle \left\{\begin{array}{l} Y=\alpha_1X_1+\alpha_2X_2 \\
Z=\beta_1X_1+\beta_2X_2 \end{array} \right.\,.$

Per definizione
Cov$\displaystyle (Y\, Z)$ $\displaystyle =$ E$\displaystyle [(Y-\mu_Y)(Z-\mu_Z)]\,.$  

Essendo

$\displaystyle \left\{\begin{array}{l} \mu_Y=\mbox{E}(Y) = \alpha_1\mu_1 + \alpha_2\mu_2\\
\mu_Z=\mbox{E}(Z)=\beta_1\mu_1+\beta_2\mu_2 \end{array} \right.$

si ha
$\displaystyle Y-\mu_Y$ $\displaystyle =$ $\displaystyle \alpha_1(X_1-\mu_1) + \alpha_2(X_2-\mu_2)$  
$\displaystyle Z-\mu_Z$ $\displaystyle =$ $\displaystyle \beta_1(X_1-\mu_1) + \beta_2(X_2-\mu_2)$  

e quindi la covarianza è pari al valore atteso di

$\displaystyle \left[\alpha_1(X_1-\mu_1)+\alpha_2(X_2-\mu_2)\right]
\left[\beta_1(X_1-\mu_1)+\beta_2(X_2-\mu_2)\right]
$

Sviluppando il prodotto del binomio e prendendo il valore atteso di ciascuno di esso si hanno questi quattro termini:
E$\displaystyle \left[\alpha_1\beta_1(X_1-\mu_1)^2\right]$ $\displaystyle =$ $\displaystyle \alpha_1\beta_1$E$\displaystyle \left[(X_1-\mu_1)^2\right]
=\alpha_1\beta_1$Var$\displaystyle (X_1)$  
E$\displaystyle \left[\alpha_2\beta_2(X_2-\mu_2)^2\right]$ $\displaystyle =$ $\displaystyle \alpha_2\beta_2$E$\displaystyle \left[(X_2-\mu_2)^2\right]
=\alpha_2\beta_2$Var$\displaystyle (X_2)$  
E$\displaystyle \left[\alpha_1\beta_2(X_1-\mu_1)(X_2-\mu_2)\right]$ $\displaystyle =$ $\displaystyle \alpha_1\beta_2$E$\displaystyle \left[(X_1-\mu_1)(X_2-\mu_2)\right]$  
  $\displaystyle =$ $\displaystyle \alpha_1\beta_2$Cov$\displaystyle (X_1,X_2)$  
E$\displaystyle \left[\alpha_2\beta_1(X_2-\mu_2)(X_1-\mu_1)\right]$ $\displaystyle =$ $\displaystyle \alpha_2\beta_1$E$\displaystyle \left[(X_2-\mu_2)(X_1-\mu_1)\right]$  
  $\displaystyle =$ $\displaystyle \alpha_2\beta_1$Cov$\displaystyle (X_1,X_2)$  

(Si ricordi che

E$\displaystyle \left[(X_2-\mu_2)(X_1-\mu_1)\right]=$   E$\displaystyle \left[(X_1-\mu_1)(X_2-\mu_2)\right]=$   Cov$\displaystyle (X_1,X_2)\,.\ )$

Possiamo quindi scrivere la covarianza fra $ Y$ e $ Z$ come la somma di tre contributi: quello dovuto alla varianza di $ X_1$, quello dovuto alla varianza di $ X_2$ e quello dovuto alla loro covarianza:
Cov$\displaystyle (Y\, Z)$ $\displaystyle =$ $\displaystyle \alpha_1\beta_1$Var$\displaystyle (X_1) +
\alpha_2\beta_2$Var$\displaystyle (X_2)$  
    $\displaystyle +
(\alpha_1\beta_2+\alpha_2\beta_1)$Cov$\displaystyle (X_1,X_2)\, .$ (10.45)

Questa espressione mostra come, in effetti, le variabili finali sono correlate anche se quelle iniziali non lo sono. Inoltre, si noti la covarianza dipende dal prodotto dei coefficienti della stessa variabile $ X_i$, o da quelli relativi a variabili legate da una covarianza non nulla. Quindi, la condizione affinché due combinazioni lineari siano fra loro correlate è che abbiano in comune almeno una variabile, oppure, per dirlo in modo figurato, ``si parlino'' attraverso due variabili fra loro correlate. Questa condizione è necessaria ma non sufficiente, in quanto il valore della covarianza dipende dai diversi contributi e dai segni di coefficienti. Si possono verificare quindi delle compensazioni fra le diverse variabili tali da annullare la covarianza.

Il caso limite di correlazione fra $ Y$ e $ Z$ si verifica quando si ha una sola variabile.

$\displaystyle \left\{\begin{array}{l} Y=\alpha X \\
Z=\beta X \end{array} \right.\,.$

Si ha infatti

$\displaystyle \rho(Y,Z) = \frac{\mbox{Cov}(Y,Z)}{\sigma_Y\sigma_Z}
= \frac{\al...
...}\cdot\vert\beta\vert\sigma_{X}}
= \frac{\alpha\beta}{\vert\alpha\beta\vert}\,.$

La correlazione vale $ \pm 1$ a seconda che i segni di $ \alpha $ e $ \beta $ siano concordi o discordi.

In analogia a quanto fatto nel paragrafo precedente a proposito della varianza, è facile estendere l'espressione della covarianza nel caso di molte variabili di partenza $ X_i$.

Cov$\displaystyle (Y\, Z)$ $\displaystyle =$ $\displaystyle \sum_i\alpha_i\beta_i$Var$\displaystyle (X_i) +$  
    $\displaystyle \sum_{i<j}(\alpha_i\beta_j+\alpha_j\beta_i)$   Cov$\displaystyle (X_i,X_j)$ (10.46)
  $\displaystyle =$ $\displaystyle \sum_i\alpha_i\beta_i\sigma_i^2+
\sum_{i<j}(\alpha_i\beta_j+\alpha_j\beta_i)\sigma_{ij}$  
  $\displaystyle =$ $\displaystyle \sum_i\alpha_i\beta_i\sigma_i^2+
\sum_{i\ne j}\alpha_i\beta_j \sigma_{ij}$  
$\displaystyle \sigma_{YZ}$ $\displaystyle =$ $\displaystyle \sum_{i,j} \alpha_i\beta_j \sigma_{ij}$ (10.47)

Si noti come, se $ Z=Y$, si ritorna all'espressione (10.35) della varianza di $ Y$.



Subsections
next up previous contents
Next: Covarianza di due medie Up: Funzioni di variabili casuali Previous: Previsione di una media   Indice
Giulio D'Agostini 2001-04-02