Dalla distribuzione di probabilità congiunta
è possibile ottenere
la distribuzione di probabilità di una delle variabili,
``sommando'' (in senso lato, che per il caso continuo equivale
ad integrare) le probabilità di tutte le possibilità delle altre
variabili per un certo valore della variabile di interesse.
Nel caso discreto si ha, ad esempio rispetto alla :
Questa operazione è detta di marginalizzazione e
la tabella 9.1 ne mostra un esempio
(si noti come le distribuzioni di ciascuna delle variabili
sono ottenute sommando ``a margine'' i valori della tabella
della probabilità congiunta).
Tabella:
Esempio di distribuzione congiunta e di marginalizzazione.
0.08
0.05
0.01
0.10
0.24
0.11
0.07
0.12
0.02
0.32
0.10
0.08
0.14
0.12
0.44
0.29
0.20
0.17
0.24
0.08
0.13
0.14
0.24
0.24
0.19
0.31
0.44
0.56
0.56
0.29
0.49
0.76
1.00
1.00
0.29
0.49
0.76
1.00
Figura:
Visualizzazione
qualitativa, mediante ``lego plot'', della
distribuzione di probabilità di tabella 9.1:
in alto e in basso . Si faccia attenzione al fatto
che la rappresentazione grafica non corrisponde esattamente alla
distribuzione di partenza: perche?
e analogalmente per , integrando su .
Le distribuzioni ottenute con questa operazioni sono chiamate
distribuzioni marginali.
Sia chiaro che, in principio,
tale appellativo dovrebbe essere superfluo, in quanto ogni distribuzione
di una sola variabile può essere pensata come
una marginale rispetto ad altre infinite variabili che non interessano.
In sostanza, quando si parla esplicitamente di distribuzione marginale,
significa semplicemente che
si sta facendo riferimento ad una distribuzione congiunta di partenza.
Si noti inoltre l'interpretazione della marginale
come, per così dire, ``proiezione'' della congiunta
(non da prendere in modo rigoroso nel senso geometrico).