next up previous contents
Next: Come tener conto degli Up: Errori e incertezze di Previous: Bisogna sempre ripetere le   Indice

Propagazione delle incertezze

Il problema della propagazione delle incertezze è molto più semplice dei precedenti, almeno per quanto riguarda le questioni di principio o le stime soggettive. Infatti ``c'è poco da pensare'': si fa semplicemente uso delle tecniche del calcolo delle probabilità per propagare l'incertezza su variabili di partenza in quella sulle variabili derivate. La propagazione entra quindi in gioco quando si effettuano, genericamente parlando, misure indirette31.

Prima di andare avanti c'è da fare una osservazione sulla notazione. Per alleggerire le formule indicheremo con $ x$, $ y$, etc. direttamente i valori veri delle grandezze (precedentemente indicati con $ \mu_x$, $ \mu_y$, etc.) e non più quelli osservati. Con $ \mu_x$ e $ \mu_y$ saranno invece indicati i valori attesi dei valori veri (in pratica le medie aritmetiche ottenute dalle misure dirette).

Per capire bene il problema, partiamo da variabili discrete. Per semplicità prendiamo due grandezze, $ a$ e $ b$, che possono assumere soltanto tre valori, con distribuzione uniforme. Ad esempio: $ a_1=9$, $ a_2=10$, $ a_3=11$; $ b_1=4$, $ b_2=5$, $ b_3=6$. Essendo tutti i valori equiprobabili abbiamo: $ f(a_i)=f(b_i)=1/3$. Se adesso siamo interessati alla variabile $ c=a+b$, l'incertezza sul valore di $ a$ e di $ b$ si propaga sul valore di $ c$.

Il caso discreto con tre soli valori possibili permette di seguire il ``flusso di incertezza'', come mostrato in tabella 17. La variabile $ c$ può essere un numero compreso fra 13 e 16, ma a differenza di $ a$ e di $ b$, i valori non sono tutti equiprobabili. Infatti, mentre i valori estremi si possono verificare per una particolare coppia di $ a$ e di $ b$, ci sono più coppie che possono produrre gli altri valori. In particolare, il valore $ c=15$ è quello più probabile semplicemente perché esso può essere ottenuto da possibili coppie.

Tabella 1: Combinazione di 3 valori di $ a$ con 3 valori di $ b$ che danno luogo a 5 possibili valori della somma $ c=a+b$. Se si assume l'equiprobabilità di $ a$ e di $ b$ si arriva ad una distribuzione di probabilità del tipo triangolare (discreta).
    $ b$
    4 5 6
  9 13 14 15
$ a$ 10 14 15 16
  11 15 16 17


Un caso analogo, leggermente più complicato, è mostrato in figura 8. Si tratta delle distribuzioni di probabilità della somma degli esiti di 1, 2 e 3 dadi.

Figura 8: Distribuzione della somma dei risultati ottenuti dal lancio di $ n$ dadi. La concentrazione della probabilità al centro della distribuzione è dovuta all'elevato numero di combinazioni risultanti in valori della somma intermedi e giustifica qualitativamente il teorema del limite centrale.
\begin{figure}\centering\epsfig{file=fig/dago47.eps,width=10cm,clip=}\end{figure}

Si noti il graduale l'addensamento della probabilità nei valori centrali, dovuta ad un semplice effetto combinatorio. Per questo motivo la deviazione standard non cresce linearmente con l'ampiezza massima della distribuzione. Ad esempio, combinando due distribuzioni uniformi fra 0 e 1 (è il limite di un dado con infinite facce), non si ottiene $ 2/\sqrt{12}$, bensì $ 1/\sqrt{6}$, $ \sqrt{2}$ volte più piccola (si riconosce la deviazione standard di una distribuzione triangolare!). Quelle che invece crescono linearmente sono le varianze ( $ 2\times 1/12 = 1/6$).

Si capisce inoltre come, per simmetria, la distribuzione delle differenze intorno al valore centrale debba essere uguale a quella delle somme.

Quindi, per due variabili indipendenti si ottiene la seguente regola di propagazione:

$\displaystyle \sigma^2(x\pm y) = \sigma^2(x)+ \sigma^2(y)\,.$ (19)

Consideriamo successivamente una trasformazione di scala: $ y=c\,x$. Anche la scala delle possibili fluttuazioni si trasforma nello stesso modo e, poiché il segno di $ c$ è ininfluente, si ottiene:

$\displaystyle \sigma(c\,x) = \vert c\vert\,\sigma(x)\,.$ (20)

Combinando i risultati espressi dalle formule (19) e (20) si ottiene la regola generale della varianza di una combinazione lineare di variabili casuali.

$\displaystyle \sigma^2\left(\sum_ic_ix_i\right) = \sum_ic_i^2\sigma^2(x_i).$ (21)

E' importante notare che questa regola dipende soltanto dalla definizione di varianza e non dal tipo di distribuzione di probabilità delle variabili casuali.

Dalla (21) si ottiene la regola generale per una funzione qualsiasi, mediante linearizzazione intorno ai valori attesi. Infatti se indichiamo con $ Z=Z(X,Y)$ la generica funzione delle due variabili casuali $ X$ e $ Y$, abbiamo

$\displaystyle z=z(x,y)$ $\displaystyle \approx$ $\displaystyle z(\mu_z,\mu_z) +
\left.\frac{\partial z}{\partial x}\right\vert _...
...eft.\frac{\partial z}{\partial y}\right\vert _{\mu_x,\mu_y}\!(y-\mu_y) + \ldots$  
  $\displaystyle \approx$ $\displaystyle k + \left.\frac{\partial z}{\partial x}\right\vert _{\mu_x,\mu_y}\!x +
\left.\frac{\partial z}{\partial y}\right\vert _{\mu_x,\mu_y}\!y + \ldots$  
$\displaystyle \sigma^2(z)$ $\displaystyle =$ $\displaystyle \left(\frac{\partial z}{\partial x}\right)^2\sigma^2(x)
+ \left(\frac{\partial z}{\partial y}\right)^2\sigma^2(y)\,,$ (22)

dove $ k$ contiene tutti i termini che non dipendono dalle variabili casuali e che quindi sono ininfluenti ai fini del calcolo della varianza. L'ultimo passaggio è stato ottenuto facendo uso della (21). E' generalmente sottointeso che le derivate vadano calcolate nel punto di migliore stima di $ x$ e di $ y$. Il caso generale va da sé.

Si ricordi che la (22) è basata su una linearizzazione. La funzione deve essere abbastanza lineare un certo numero di deviazioni standard intorno alle migliori stime delle variabili di partenza. Questo è generalmente vero se le $ \sigma $ sono molto minori delle stime. Se la funzione è lineare non c'è nessun vincolo sul valore di $ \sigma $. Ad esempio, se $ z=x+y$, con $ x=0.1\pm 0.7$ e $ y=0.0\pm 1.0$, si ha $ z=0.1\pm 1.2$.

Per quanto riguarda l'uso della formula di propagazione, si raccomanda di fare una lista dei contributi all'incertezza totale dovuti a ciascun termine da cui la grandezza finale dipende. Questo permette di capire quale contributo sia maggiormente responsabile e sul quale bisogna intervenire al momento di pianificare un nuovo esperimento. Quindi la formula (22) può essere riscritta nel seguente modo, didatticamente più valido:

$\displaystyle \sigma(z) = \left\vert\frac{\partial z}{\partial x}\right\vert\sigma(x) \oplus \left\vert\frac{\partial z}{\partial y}\right\vert\sigma(y)\,,$ (23)

ove con ``$ \oplus$'' si è indicata l'operazione di somma in quadratura. E' inoltre importante dare alle derivate il significato di coefficiente di sensibilità[13].
next up previous contents
Next: Come tener conto degli Up: Errori e incertezze di Previous: Bisogna sempre ripetere le   Indice
Giulio D'Agostini 2001-04-02