next up previous contents
Next: Misure dirette con verosimiglianza Up: pzd100Teorema di Bayes e Previous: Confronto fra due ipotesi   Indice

Classe continua di ipotesi

Nel caso più generale $ r$ potrebbe assumere, in principio, un qualsiasi valore reale intero. Associamo quindi ad essa una variabile casuale continua, i cui gradi di fiducia sono descritti da una funzione densità di probabilità $ f(r)$. Applicando il teorema di Bayes valutiamo il riaggiornamento dei diversi gradi di fiducia alla luce dei dati $ \underline{X}=\underline{x}$. A parte il solito fattore di normalizzazione, abbiamo
$\displaystyle f(r\,\vert\,\underline{x})$ $\displaystyle \propto$ $\displaystyle f(\underline{x}\,\vert\,r)\cdot f_\circ(r)$ (9.7)
$\displaystyle \frac{f(r\,\vert\,\underline{x})}
{f_\circ(r)}$ $\displaystyle \propto$ $\displaystyle f(\underline{x}\,\vert\,r)\,.$ (9.8)

Quest'ultimo modo di scrivere il teorema di Bayes è per rendere più esplicito il ruolo svolto dalla verosimiglianza $ f(\underline{x}\,\vert\,r)$ per il riaggiornamento della probabilità. Per quanto riguarda $ \underline{x}$, possiamo pensare sia alla particolare sequenza osservata (come effettivamente indicato da $ \underline{x}$) o la distribuzione statistica ottenuta calcolando le frequenze dei diversi conteggi. Come abbiamo visto nel paragrafo precedente, il risultato non cambia, in quanto la probabilità delle due differisce per il fattore multinomiale che, non dipendendo da $ r$, può essere riassorbita nella costante di normalizzazione. Scrivendo le varie probabilità in funzione di $ r$ otteniamo:
$\displaystyle \frac{f(r\,\vert\,\underline{x})}
{f_\circ(r)}$ $\displaystyle \propto$ $\displaystyle \left(e^{-r\,T}\right)^{56}\cdot
\left(e^{-r\,T}\,(r\,T)\right)^{32}\cdot
\left(\frac{e^{-r\,T}\,(r\,T)^2}{2}\right)^{9} \cdot$ (9.9)
    $\displaystyle \left(\frac{e^{-r\,T}\,(r\,T)^3}{6}\right)^{2} \cdot
\left(\frac{e^{-r\,T}\,(r\,T)^4}{24}\right)$  
  $\displaystyle \propto$ $\displaystyle e^{100\,r\,t}\,r^{(32+9\times 2+2\times 3+
1\times 4)}$ (9.10)
  $\displaystyle \propto$ $\displaystyle e^{-N\,T\,r}\,r^{\sum_in_ix_i}\,,$ (9.11)

dove, dal primo al secondo passaggio abbiamo eliminato tutti i fattori che non dipendono da $ r$ e che quindi possono essere riassorbiti nella costante di proporzionalità. Inoltre, alla fine il risultato è stato riscritto nel modo più generale introducendo $ n_i$, numero di occorrenze del risultato di ciascuna misura e $ N=\sum_i n_i$, numero totale di misure.

Possiamo comunque calcolare abbastanza facilmente il valore per il quale tale espressione di $ f(r\,\vert\,\underline{x})/f_\circ(r)$ ha un massimo, se usiamo il trucco di calcolare il massimo del suo logaritmo naturale. Chiamando quindi

$\displaystyle l = \ln{\left[e^{-N\,T\,r}\,r^{\sum_in_ix_i}
\right]} = -N\,T\,r+\sum_in_ix_i\ln{r}\,,$

abbiamo che la condizione di minimo è data da
$\displaystyle \frac{\partial\,l}{\partial\,r}$ $\displaystyle =$ $\displaystyle -N\,T+\frac{1}{r}\sum_in_ix_i =0\,,$  

dalla quale si ricava
$\displaystyle r_M$ $\displaystyle =$ $\displaystyle \frac{1}{T}\frac{\sum_i n_ix_i}{N}\,.$ (9.12)

Il risultato finale è abbastanza semplice: il valore di $ r$ che, in base a questi dati sperimentali, ha il maggiore aumento di grado di fiducia è quello corrispondente al numero medio di conteggi per unità di tempo. È esattamente il concetto intuitivo di cui abbiamo fatto uso per ricavare il valore di $ r=0.178\,$conteggi al secondo dai dati di 300 s. Applicando questo risultato ai dati da 3 s otteniamo $ \left.r\right\vert _{T=3\,\mbox{s}}
=0.200\,$conteggi al secondo.

Terminiamo ricordando che questi due valori di $ r$ non sono altro che quelli più favoriti dai due campioni di dati. Tuttavia anche altri valori, specialmente quelli ``molto prossimi'', sono supportati dai mdati.

Figura: Fattore di aggiornamento relativo (rispetto al massimo) dell'intensità del processo di Poisson responsabile dei dati simulati del contatore. La linea continua si riferisce alle ``misure'' da 300 s, mentre quella tratteggiata si riferisce a quella da 3 s. Queste curve hanno la stessa forma della distribuzione di probabilità di $ r$ condizionata dall'osservazione dei rispettivi dati, se si suppone una distribuzione iniziale uniforme ( $ f_\circ (r)=k$).
\begin{figure}\centering\epsfig{file=fig/ar_lin.eps,clip=}\end{figure}

La figura 9.2 mostra il fattore di aggiornamento relativo (``a.r.'') dei gradi di fiducia rispetto al massimo nel caso dei due campioni simulati (la linea continua per le misure da 300 s e quella tratteggiata per quelle da 3 s). Si vede come i risultati delle misure da 300 ci ``costringono'' a credere ad un ristretto intervallo di valori di $ r$ intorno a 0.178, mentre le indicazioni delle misure da 3 s sono ancora molto più vaghe, nel senso che l'intervallo di valori ``ragionevolmente possibili'' è più ampio del caso precedente.

Figura: Come figura 9.2, ma con fattore di aggiornamento in scala logaritmica: è evidente il diverso potere dei due campioni di dati simulati al fine di discriminare fra i valori più o meno possibili di $ r$.
\begin{figure}\centering\epsfig{file=fig/ar_log.eps,clip=}\end{figure}

Questo si vede ancora meglio dalla figura 9.3, in cui il fattore relativo di aggiornamento è mostrato su scala logaritmica.

Si noti che, a questo punto, il problema inferenziale è risolto, almeno dal punto di vista concettuale. Le figure 9.2 e 9.3 mostrano nel modo più ``oggettivo'' le informazioni estraibili dai dati per quanto riguarda $ r$. Se il nostro stato di conoscenza su $ r$ fosse stato tale da ammettere tutti i valori nello stesso modo (ovvero $ f_\circ (r)=k$) le curve di queste figure, opportunamente normalizzate, ci danno direttamente le distribuzioni di probabilità di $ r$. Essenzialmente, quello che vedremo nella parte di inferenza statistica applicata alle incertezze di misura sarà come valutare in modo approssimato forma e parametri delle distribuzioni (valore atteso e deviazione standard). Ad esempio, la curva del fattore di aggiornamento relativo ottenuta da 300 s sembra fortemente gaussiana, anche se la forma esatta della funzione non è affatto banale, essendo infatti:

$\displaystyle a.r. = 7.652\times 10^{6327}e^{-30000\,r}(300\,r)^{5348} \,.$ (9.13)

Assumendo una funzione iniziale uniforme, la funzione finale differisce dalla (9.13) soltanto per un fattore di normalizzazione:

$\displaystyle f(r\,\vert\,$dati 300 s$\displaystyle ) = 1.252\times 10^{6330}e^{-30000\,r}(300\,r)^{5348} \,.$ (9.14)

Questa funzione è rappresentata dalla curva continua di figura 9.4.

Figura: Funzione densità di probabilità di $ r$ ottenuta dalle misure di 300 s assumendo una distribuzione iniziale uniforme. La linea solida è data dalla (9.13 opportunamente normalizzata. Quella tratteggiata è ottenuta dall'approssimazione gaussiana.
\begin{figure}\centering\epsfig{file=fig/inf_300.eps,clip=}\end{figure}

Valore atteso e deviazione standard di $ r$ sono:
E$\displaystyle [r]$ $\displaystyle =$ $\displaystyle 0.1783$ (9.15)
$\displaystyle \sigma(r)$ $\displaystyle =$ $\displaystyle 0.0024$ (9.16)

Il valore atteso è uguale a quello che si ottiene applicando la (9.12), ovvero esso corrisponde con il valore per il quale i dati sperimentali suggeriscono il massimo aumento di grado di fiducia.

La linea tratteggiata di figura 9.4 mostra una distribuzione gaussiana di valore medio 0.1783 e deviazione standard 0.0024. L'approssimazione è spettacolare su diversi ordini di grandezza. Questa osservazione suggerisce un metodo approssimativo per ricavarsi la deviazione standard di $ r$, alla stessa stregua di come ne è stato ricavato il valore atteso in modo approssimativo. Se

$\displaystyle f(r) \propto e^{-N\,T\,r}\,r^{\sum_in_ix_i}\,, \sim \propto \exp{\left[-\frac{(r-\mu_r)^2}{2\,\sigma_r}\right]}\,,$ (9.17)

allora, poiché vale per la gaussiana
$\displaystyle \frac{\mbox{d}\ln{f}}{\mbox{d}r} = 0$ $\displaystyle \rightarrow$ $\displaystyle \mu_r$ (9.18)
$\displaystyle \left.\frac{\mbox{d}^2\ln{f}}{\mbox{d}^2r}\right\vert _{\mu_r}$ $\displaystyle =$ $\displaystyle -\frac{1}{\sigma_r^2}\,,$ (9.19)

possiamo imporre le stesse condizioni sulla $ f(r)\propto e^{-N\,T\,r}\,r^{\sum_in_ix_i}$ per ricavarci $ \mu_r$ e $ \sigma _r$. Il valore atteso $ \mu_r$ corrisponde a $ r_M$ di (9.12). Lasciando il calcolo di $ sigma(r)=sigma_r$ per esercizio, riportiamo insieme il risultato:
E$\displaystyle [r]$ $\displaystyle =$ $\displaystyle \frac{1}{T}\frac{\sum_i n_ix_i}{N}$ (9.20)
$\displaystyle \sigma(r)$ $\displaystyle =$ $\displaystyle \frac{1}{T}\frac{\sqrt{\sum_i n_ix_i}}{N}\,.$ (9.21)

Applicate al caso delle 100 misure da 300 s, queste formule danno gli stessi risultati ottenuti facendo esplicitamente gli integrali.

Nel caso di una sola misura abbiamo:

E$\displaystyle [r]$ $\displaystyle =$ $\displaystyle \frac{x}{T}$ (9.22)
$\displaystyle \sigma(r)$ $\displaystyle =$ $\displaystyle \frac{\sqrt{x}}{T}\,.$ (9.23)

Questo è un risultato molto interessante. Nelle misure di conteggio non abbiamo bisogno di ripetere le osservazioni per ottenere la deviazione standard associata all'incertezza del risultato. Sono sufficienti il numero di conteggi e l'ipotesi sul processo seguito dai conteggi.

Nel seguito utilizzeremo soltanto il metodo approssimato, che rigiustificheremo mediente il ragionamento del cane e del cacciatore.


next up previous contents
Next: Misure dirette con verosimiglianza Up: pzd100Teorema di Bayes e Previous: Confronto fra due ipotesi   Indice
Giulio D'Agostini 2001-04-02