next up previous contents
Next: pzd100Distribuzione normale bivariata Up: Variabili casuali multiple Previous: Distribuzione uniforme in un   Indice

pzd100 Distribuzione multinomiale

Dopo aver introdotto i concetti di base delle distribuzioni multivariate e alcuni esempi elementari, mostriamo ora una una distribuzione di variabile discreta che descrive i possibili istogrammi che possono essere osservati effettuando un certo esperimento. Questo argomento era già stato introdotto nel paragrafo 7.14. In tale occasione ci eravamo interessati soltanto della previsione della distribuzione statistica, ma era stato tralasciato il problema di calcolare la probabilità di ciascuna delle possibili configurazioni.

Cominciamo con un esempio numerico. Immaginiamo di ripetere 20 volte un certo esperimento, in ciascuno crediamo che possa uscire, con uguale probabilità, un numero intero $ i$ compreso fra 0 e 10. Indichiamo con $ X_i$ il numero di occorrenze dell'esito $ i$-mo. Riassumiamo le cose che già sappiamo fare:

Interessiamoci ora delle possibili configurazioni di occorrenze che è possibile osservare. La figura 9.4 (parte a destra) ne mostra qualcuna (istogramma ottenuto da simulazione al calcolatore).

Figura: Esempi di eventi multinomiali generati casualmente. Tutte le distribuzioni hanno il parametro $ n$ pari a 20, $ m=11$, $ x_1=0$ e $ x_m=10$. Negli istogrammi a destra $ p_i$ è costante e pari $ 1/11$, mentre in quelli a sinistra vale invece $ p_i=f(x_i\,\vert\,{\cal B}_{0.5,10})$.
\begin{figure}\centering\epsfig{file=fig/multinom.eps,width=\linewidth,clip=}\end{figure}

Cominciamo con dei casi particolari e poi passeremo alla trattazione generale.

Passiamo ora al caso generale di $ m$ possibili modalitè per l'esito di ciascuna prova e sia $ p_i$ la probabilità che assegniamo a ciscuna modalità. Naturalmente deva valere la condizione

$\displaystyle \sum_i^m p_i =1\,.$

Dovendo effettuare $ n$ prove nelle stesse condizioni possiamo osservare $ X_i$ volte ciascun esito, con

$\displaystyle \sum_i^n X_i=n\,.$

Le $ n$ prove possono dar luogo a $ n!$ sequenze possibili, in genere non tutte equiprobabili (a meno che le $ p_i$ siano tutte uguali). Ciascuna sequenza che produce la configurazione di variabili casuali $ X_1=x_1$, $ X_2=x_2$, ...$ X_m=x_m$ ha probabilità

$\displaystyle p_1^{x_1}p_2^{x_2}\cdots p_m^{x_m}\,.$ (9.47)

Il numero delle sequenze che produce la stessa configurazione $ \{x_1,x_2,\, \ldots,\, x_m\}$ è dato dal coefficiente multinomiale

$\displaystyle \frac{n!}{x_1!\,x_2!\cdots x_m!}\,.$ (9.48)

Infatti, si hanno $ \binom{n}{x_1}$ combinazioni per la prima modalità; per ciascuna di esse ce ne sono $ \binom{n-x_1}{x_2}$ la seconda, e così via. Quindi il numero di combinazioni è

$\displaystyle \frac{n!}{(n-x_1)!\,x_1!}\cdot \frac{(n-x_1)!}{(n-x_1-x_2)!\,x_2!}
\cdot \frac{(n-x_1-x_2)!}{(n-x_1-x_2-x_3)!\,x_3!}\ldots \,.$

Semplificando otteniamo la (9.50). Moltiplicando la probabilità (9.49) della sequenza per il numero di sequanze abbiamo finalmente la distribuzione multinomiale

$\displaystyle f(\underline{x}\,\vert\,{\cal M}^m_{n\underline{p}}) = \frac{n!}{x_1!\,x_2!\cdots x_m!}\, p_1^{x_1}p_2^{x_2}\cdots p_m^{x_m}\,,$ (9.49)

dove con $ \underline{x}$ è stato indicato l'insieme dei valori $ \{x_1,x_2,\, \ldots,\, x_m\}$ e con $ \underline{p}$ l'insieme delle probabilità $ \{p_1,p_2,\, \ldots,\, p_m\}$. Quando $ m=2$ si riottiene la binomiale.

Il calcolo del valore atteso e della varianza di ciascuna variabile $ X_i$ è immediato, in quanto è sufficiente pensare la distribuzione marginale di ogni variabile pari ad una distribuzione binomiale di parametro $ p_i$. Ne segue

E$\displaystyle (X_i)$ $\displaystyle =$ $\displaystyle n\,p_i$ (9.50)
Var$\displaystyle (X_i)$ $\displaystyle =$ $\displaystyle n\,p_i\,(1-p_i)\,.$ (9.51)

Per quanto riguarda covarianza e coefficiente di correlazione, invece del conto esatto utilizziamo un metodo euristico (più importante del conto esatto per l'impostazione di questo corso).

Riprendiamo la funzione di probabilità della distribuzione binomiale

$\displaystyle f(x\,\vert\,{\cal B}_{np}) = \frac{n!}{x!\,(n-x)!}\,p^x(1-p)^{n-x}$

ed esplicitiamo il fatto ci troviamo di fronte a due classi di eventi (favorevoli e sfavorevoli) scrivendo

$\displaystyle f(x_1,x_2\,\vert\,{\cal B}_{np}) = \frac{n!}{x_1!\,x_2!}\,p_1^{x_1}\,p_2^{x_2}\,,$ (9.52)

dove è stata operata la seguente trasformazione di simboli:
$\displaystyle x$ $\displaystyle \rightarrow$ $\displaystyle x_1\,;$  
$\displaystyle n-x$ $\displaystyle \rightarrow$ $\displaystyle x_2\,;$  
$\displaystyle p$ $\displaystyle \rightarrow$ $\displaystyle p_1\,;$  
$\displaystyle 1-p$ $\displaystyle \rightarrow$ $\displaystyle p_2\,.$  

Il fatto che adesso $ f(x_1,x_2)$ dipenda apparentemente da due variabili non è in contraddizione con il fatto che la formula originale delle binomiale fosse funzione di una sola variabile. Infatti $ x_1$ e $ x_2$ sono linermente (anti-)correlate in quanto devono soddisfare la condizione $ x_1+x_2=n$. Quindi $ f(x_1,x_2)$ dipende in realtà soltanto da una variabile e il coefficiente di correlazione fra le due variabili vale $ \rho(X_1,X_2) = -1$, come è intuitivo pensare e come risulta dalla (9.25)

Anche nel caso generale della multinomiale le variabili $ X_i$ sono fra loro correlate, in quanto vale la relazione $ \sum_{i=1}^m x_i=n$. Ma il grado di correlazione è, per $ m>2$, minore che nella binomiale. Infatti, mentre nel caso $ m=2$ il non verificarsi di un evento nella classe 1 implica il suo verificarsi nella classe 2, nel caso di molte classi si può al più affermare che esso si sia verificato in una delle restanti $ m-1$ classi, ciascuna con probabilità proporzionale a $ p_i$. Quindi il grado di correlazione diminuisce in valore assoluto (``si diluisce'') al crescere del numero di classi e, per $ m$ abbastanza grande, la multinomiale può essere essere vista come la probabilità congiunta di tante binomiali indipendenti.

Abbiamo detto che nel caso binomiale $ \rho(X_1,X_2)$ vale -1. Ne segue che

Cov$\displaystyle (X_1,X_2)=\rho(X_1,X_2)\,\sigma_1\,\sigma_2 = -n\,p_1\,p_2\,,$ (9.53)

in quanto $ \sigma_1=\sigma_2=\sqrt{n\,p_1\,p_2}$. In effetti si può verificare che la (9.55) è valida anche nel caso generale. Si ottiene quindi:
Cov$\displaystyle (X_i,X_j)$ $\displaystyle =$ $\displaystyle -n\,p_i\,p_j$ (9.54)
$\displaystyle \rho(X_i,X_j)$ $\displaystyle =$ $\displaystyle \frac{-n\,p_i\,p_j}
{\sqrt{n\,p_i\,(1-p_i)\,n\,p_j\,(1-p_j)}}$ (9.55)
  $\displaystyle =$ $\displaystyle -\sqrt{\frac{p_i\,p_j}{(1-p_i)\,(1-p_j)}}\,.$ (9.56)

Come previsto qualitativamente, la correlazione è trascurabile se le probabilità delle due classi sono abbastanza piccole9.5.

L'importanza della distribuzione multinomiale risiede nel fatto che essa descrive il numero di eventi di un istogramma o di un diagramma a barre, indipendentemente dalla distribuzione di probabilità che segue la variabile casuale associata alla grandezza di cui si costruisce l'istogramma o il diagramma a barre in questione. In Fig  9.4 sono riportati degli esempi di eventi casuali generati secondo due distribuzioni multinomiali di $ n=20$ , in un caso (grafici a destra) con $ p_i$ tutte uguali e nell'altro con $ p_i$ generato secondo una binomiale: $ p_i=f(x_i\,\vert\,{\cal B}_{0.5,10})$. In questo caso il numero di eventi per ciascun $ x_i$ è distribuito secondo una binomiale di parametri $ p_i$ ed $ n=20$, e quindi ha un valore medio $ 20p_i$. Quindi le realizzazioni della multinomiale dell'esempio fluttuano intorno ad un andamento medio che ha la stessa forma della distribuzione di $ p_i$, riscalato (``normalizzato'') di un fattore 20. Si confrontino questi grafici con quello della distribuzione $ {\cal B}_{0.5,10}$ di Fig.  7.1.


next up previous contents
Next: pzd100Distribuzione normale bivariata Up: Variabili casuali multiple Previous: Distribuzione uniforme in un   Indice
Giulio D'Agostini 2001-04-02