next up previous contents
Next: Statistica bayesiana: imparare dall'esperienza Up: Esempi tipici di applicazione Previous: Classificazione di eventi e   Indice

Uso iterativo del teorema di Bayes

Per rispondere all'ultima domanda del problema precedente si può pensare a due possibili approcci:
  1. calcolare le probabilità condizionate $ P(L_1\cap L_2\,\vert\,\mu)$ e $ P(L_1\cap L_2\,\vert\,\pi)$ e usare il teorema di Bayes per trovare $ P(\mu\,\vert\,L_1\cap L_2)$;
  2. utilizzare la probabilità finale condizionata dall'evento $ \mu $ al posto di $ P_\circ(\mu)$ e applicare il teorema di Bayes rispetto al secondo condizionamento di $ L_2$.
Siccome le due soluzioni sono entrambe ragionevoli e non c'è nessun motivo per preferire una via rispetto all'altra, ci attendiamo che, se il metodo di aggiornamento bayesiano è ragionevole, dovremmo arrivare agli stessi risultati. In effetti questo è quanto succede.
  1. Seguendo il primo metodo si ha:
    $\displaystyle P(L_1\cap L_2\,\vert\,\mu)$ $\displaystyle =$ $\displaystyle P(L_1\,\vert\,\mu)\cdot P(L_2\,\vert\,\mu) =
0.95\times 0.95 = 90.25\,\%$  
    $\displaystyle P(L_1\cap L_2\,\vert\,\pi)$ $\displaystyle =$ $\displaystyle P(L_1\,\vert\,\pi)\cdot P(L_2\,\vert\,\pi) =
0.02\times 0.02 = 0.04\,\%$  
    $\displaystyle P(\mu\,\vert\,L_1\cap L_2)$ $\displaystyle =$ $\displaystyle 99.6\,\%\,.$  

    (Si ricordi l'ipotesi di indipendenza fra le risposte dei due rivelatori. I conti vengono lasciati per esercizio.)
  2. Nel secondo caso abbiamo invece:
    $\displaystyle P(\mu\,\vert\,L_1\cap L_2)$ $\displaystyle =$ $\displaystyle \frac{P(L_2\,\vert\,\mu)\cdot P(\mu\,\vert\,L_1)}
{P(L_2\,\vert\,\mu)\cdot P(\mu\,\vert\,L_1) + P(L_2\,\vert\,\pi)\cdot P(\pi\,\vert\,L_1)}$  
      $\displaystyle =$ $\displaystyle \frac{0.95\times 0.84}{0.95\times 0.84 + 0.02\times 0.16}
=99.6\,\%$  

Si ottiene quindi lo stesso valore di probabilità finale. Questo è un grosso pregio di questo metodo. Infatti come è naturale pensare, le conclusioni scientifiche possono dipendere dalle ipotesi iniziali e dalle informazioni sperimentali, ma non devono dipendere dall'uso che si fa delle informazioni stesse.

L'uso iterativo del teorema di Bayes può essere riassunto dicendo che

la probabilità iniziale di una inferenza è pari alla probabilità finale dell'inferenza precedente.

next up previous contents
Next: Statistica bayesiana: imparare dall'esperienza Up: Esempi tipici di applicazione Previous: Classificazione di eventi e   Indice
Giulio D'Agostini 2001-04-02