Ripetendo il ragionamento effettato
al punto 1 del paragrafo 10.4, si può pensare
che le due misure siano fatte in successione temporale (l'ordine non
ha importanza).
Questa volta entriamo però un po'
più in dettaglio. Per generalizzare l'esempio numerico,
indichiamo con
il possibile valore di previsione
di
che può risultare dopo l'esperimento
-mo. Chiaramente,
prima di fare l'esperimento non possiamo sapere che valore di
si otterrà. Questo è vero anche se ipotizziamo
che
abbia un valore ben determinato.
Quindi esso può essere considerato un numero
aleatorio con distribuzione densità di probabilità
. Poichè i risultati
espressi dalle (10.7) e (10.8)
hanno il significato di distribuzioni normali di
intorno a
, possiamo considerarli equivalenti a
quanto si otterrebbe considerando una prior uniforme su
e una verosimiglianza
normale.
Si tratta, essenzialmente, del ragionamento opposto
di quello del cane-cacciatore usato nelle inversioni
di probabilità. Quindi, indicando con
l'incertezza
su
derivante dall'
-ma misura, i risultati
(10.7) e (10.8) equivalenti a
quelli che si sarebbero ottenuti da una verosimiglianza
del tipo
Quindi, l'apprendimento sul valore è equivalente alla seguente
catena di aggiornamento:
![]() |
![]() |
![]() |
|
![]() |
![]() |
![]() |
![]() |
(10.9) |
![]() |
![]() |
![]() |
(10.10) |
![]() |
![]() |
||
![]() |
![]() |
||
![]() |
![]() |
||
![]() |
![]() |
(10.11) |
![]() |
(10.14) |
Le formule che danno
e
sono conosciute
come combinazione dei risultati con gli inversi dei quadrati delle
varianze. Si tratta di una media pesata, ove il peso di ogni
``punto sperimentale'' è pari all'inverso della varianza
associata alla sua incertezza. Si noti come il peso della combinazione
dei risultati è pari alla somma dei pesi di ciascun risultato
parziale.
Nel caso dell'esempio numerico con il
quale abbiamo iniziato la discussione abbiamo:
![]() |
(10.15) |