Next: Problemi
Up: Misure dirette con verosimiglianza
Previous: Valutazione di di una
  Indice
Supponiamo di avere eseguito due determinazioni
indipendenti del valore dello stesso misurando:
ove si fatto uso della notazione
(invece di
incontrata nel
paragrafo 10.4) in quanto questi risultati possono
essere basati non soltanto su una misura, ma anche su molte misure.
Cosa possiamo dire su in base a queste due valutazione?
Si potrebbe pensare, ingenuamente, che, siccome la prima dice che
, e la seconda
, allora
. O forse
? E che significato avrebbero queste espressioni
in termini probabilistici? Cerchiamo di affrontare il problema
in maniera rigorosa, utilizzando i principi dell'inferenza bayesiana,
pur limitandoci all'approssimazione gaussiana e a prior uniformi.
Ripetendo il ragionamento effettato
al punto 1 del paragrafo 10.4, si può pensare
che le due misure siano fatte in successione temporale (l'ordine non
ha importanza).
Questa volta entriamo però un po'
più in dettaglio. Per generalizzare l'esempio numerico,
indichiamo con
il possibile valore di previsione
di che può risultare dopo l'esperimento -mo. Chiaramente,
prima di fare l'esperimento non possiamo sapere che valore di
si otterrà. Questo è vero anche se ipotizziamo
che abbia un valore ben determinato.
Quindi esso può essere considerato un numero
aleatorio con distribuzione densità di probabilità
. Poichè i risultati
espressi dalle (10.7) e (10.8)
hanno il significato di distribuzioni normali di intorno a
, possiamo considerarli equivalenti a
quanto si otterrebbe considerando una prior uniforme su
e una verosimiglianza
normale.
Si tratta, essenzialmente, del ragionamento opposto
di quello del cane-cacciatore usato nelle inversioni
di probabilità. Quindi, indicando con l'incertezza
su derivante dall'-ma misura, i risultati
(10.7) e (10.8) equivalenti a
quelli che si sarebbero ottenuti da una verosimiglianza
del tipo
anche se, a rigore,
non è una quantità
osservata nel senso che abbiamo descritto
finora.10.8
Quindi, l'apprendimento sul valore è equivalente alla seguente
catena di aggiornamento:
Ma poiché
e
condizionati da
sono indipendenti, ovvero
,
abbiamo il seguente risultato10.9:
|
(10.9) |
A questo punto si tratta di fare i conti. Assumendo, come detto sopra,
una prior uniforme, esplicitando la funzione della
distribuzione normale e riassorbendo via via tutti i fattori che non
dipendono da nella costante della proporzionalità,
abbiamo:
ove
e
stanno per
A questo punto, moltiplicando per la costante
(anche questo è lecito) otteniamo finalmente
|
(10.14) |
Abbiamo trovato quindi il seguente importante risultato:
con
E e
definite dalle
(10.12)
e (10.13).
Le formule che danno
e
sono conosciute
come combinazione dei risultati con gli inversi dei quadrati delle
varianze. Si tratta di una media pesata, ove il peso di ogni
``punto sperimentale'' è pari all'inverso della varianza
associata alla sua incertezza. Si noti come il peso della combinazione
dei risultati è pari alla somma dei pesi di ciascun risultato
parziale.
Nel caso dell'esempio numerico con il
quale abbiamo iniziato la discussione abbiamo:
Come deriva dalle (10.12)
e (10.13), l'incertezza standard è inferiore
di ciascuna delle due incertezze standard individuali e la previsione
è in una posizione intermedia, ma più vicino alla
stima associata al risultato più preciso. Questo è
particolarmente evidente se riscriviamo la formula (10.12)
nel seguente modo:
|
(10.15) |
Next: Problemi
Up: Misure dirette con verosimiglianza
Previous: Valutazione di di una
  Indice
Giulio D'Agostini
2001-04-02