Immaginiamo di dover effettuare una serie di esperimenti che consistono
nel lancio di tre monete e nell'estrazione di una carta scelta
a caso fra due. Per ogni moneta si può verificare Testa o Croce,
mentre supponiamo che i valori delle due carte siano Asso () e
Re (
). Per ogni evento possiamo costruire diverse variabili casuali,
per esempio:
Inoltre possiamo costruire a partire da queste tutte le possibili
combinazioni di variabili multiple. Ci limitiamo alle variabili doppie
,
,
e
.
Riportiamo i risultati nella tabella 9.3
Da questa tabella ci possiamo calcolare tutte le distribuzioni di
probabilità di interesse applicando le relazioni viste nei paragrafi
precedenti. Cominciamo con le variabili
![]() |
![]() |
(0,0) | 2/16 |
(1,0) | 6/16 |
(2,0) | 2/16 |
(2,1) | 4/16 |
(3,2) | 2/16 |
Da questa possiamo ricavare le distribuzioni marginali di e
.
Per esempio, per ottenere
bisogna , per ogni valore
di
, ``integrare'' su tutti i valori di
:
![]() |
![]() |
0 |
![]() |
1 |
![]() |
2 |
![]() |
3 |
![]() |
![]() |
![]() |
0 |
![]() |
1 |
![]() |
2 |
![]() |
Come si vede dalla tabella, la distribuzione
marginale di una certa variabile
calcolata dalla formula
è esattamente quella che si otterrebbe
esaminando la tabella ove sono riportati gli
eventi elementari e ignorando tutte le altre variabili.
Dalla distribuzione di probabilità di ci possiamo
costruire anche le distribuzioni condizionali
. Come detto, di
queste distribuzioni ne esiste una per ogni valore di
. È interessante,
in questo semplice caso, confrontare il risultato che si ottiene contando
il numero di casi favorevoli e il numero di casi possibili con quello
che si otterrebbe applicando le formule delle variabili condizionali
viste sopra:
![]() |
![]() |
![]() |
0 |
![]() |
![]() |
1 |
![]() |
![]() |
2 |
![]() |
![]() |
![]() |
![]() |
![]() |
2 | 1 |
![]() |
![]() |
![]() |
![]() |
3 | 1 |
![]() |
Queste sono le altre distribuzioni di variabili doppie ottenibili dalla tabella degli eventi elementari9.4:
![]() |
![]() |
(0,2) | 2/16 |
(1,0) | 2/16 |
(1,1) | 4/16 |
(2,0) | 6/16 |
(3,0) | 2/16 |
![]() |
![]() |
(0,0) | 1/16 |
(0,1) | 3/16 |
(0,2) | 3/16 |
(0,3) | 1/16 |
(1,0) | 1/16 |
(1,1) | 3/16 |
(1,2) | 3/16 |
(1,3) | 1/16 |
![]() |
![]() |
(0,0) | 5/16 |
(0,1) | 2/16 |
(0,2) | 1/16 |
(1,0) | 5/16 |
(1,1) | 2/16 |
(1,2) | 1/16 |
La distribuzione marginale di è
![]() |
![]() |
0 | 1/2 |
1 | 1/2 |
Come ultimo esempio ci costruiamo la distribuzione condizionale di
sotto la condizione
.
![]() |
![]() |
![]() |
0 | 1/8 |
![]() |
1 | 3/8 |
![]() |
2 | 3/8 |
![]() |
3 | 1/8 |
![]() |
Da quest'ultima tabella si vede che che la distribuzione
di sotto la condizione
è uguale a quella marginale di
, contrariamente a quanto accadeva
quando la variabile condizionante era
. Questo corrisponde al fatto che,
mentre lo stato di conoscenza del numero di
teste consecutive condiziona il grado di fiducia del
numero di teste, questo non è influenzato dal sapere se si
è verificato un Asso o un Re.
Calcoliamo ora valori attesi di ciascuna variabile:
E![]() |
![]() |
![]() |
|
E![]() |
![]() |
![]() |
|
E![]() |
![]() |
![]() |
|
E![]() |
![]() |
![]() |
E![]() |
![]() |
![]() |
|
Var![]() |
![]() |
![]() |
|
![]() |
![]() |
![]() |
|
![]() |
![]() |
![]() |
|
![]() |
![]() |
![]() |
|
![]() |
![]() |
![]() |
E![]() |
![]() |
![]() |
|
Cov![]() |
![]() |
![]() |
(9.33) |
![]() |
![]() |
![]() |
(9.34) |
E![]() |
![]() |
![]() |
|
Cov![]() |
![]() |
![]() |
(9.35) |
![]() |
![]() |
![]() |
(9.36) |
E![]() |
![]() |
![]() |
|
Cov![]() |
![]() |
![]() |
(9.37) |
![]() |
![]() |
![]() |
(9.38) |