next up previous contents
Next: Regola della mezza divisione Up: Critica della ``teoria degli Previous: Critica della ``teoria degli   Indice

$ \Delta y = \sum_i
\left\vert\frac{\partial y}{\partial x_i}
\right\vert\Delta x_i$

Questa espressione starebbe a significare che
se siamo ``praticamente certi'' che il valore vero $ x_{v_i}$ è compreso nell'intervallo dato da $ x_i\pm \Delta x_i$, ne segue che siamo ``praticamente certi'' che il valore vero di $ y_v$ è compreso nell'intervallo dato da $ y\pm \Delta y$.
E' opinione comune che, affinché la formula sia valida, debba valere $ \Delta x_i \ll x_i$ (giustificazione usuale). Se accettiamo per buona tale espressione di ``propagazione lineare degli errori massimi'' e i presupposti sui quali essa si basa andiamo incontro ad incongruenze, come mostrano gli esempi che seguono.
  1. Se $ x_1=0.0\pm 0.5$ e $ x_2=0.5\pm 0.5$ quanto vale $ \Delta(x_2-x_1)$? (La seconda condizione non è più valida.)
  2. Misuriamo due spessorini, uno di 1 mm e l'altro di 2 mm (valori ``esatti''), con un righello aventi divisioni di 1 mm. Otteniamo $ x_1=1.0\pm 0.5\,$mm e $ x_2=2.0\pm 0.5\,$mm, da cui $ x_2-x_1 = 1\pm 1\,$mm. Come si recita in questi casi, le due misure sono ``uguali entro gli errori''. Ciò nonostante, una qualsiasi ispezione visuale suggerisce che uno spessore è circa il doppio dell'altro. Nessuno potrà giurare che il rapporto fra i due sia esattamente 2: potrebbe essere 1.8, 1.9, 2.0, 2.1, 2.2, o forse 1.7 o 2.3, ma sicuramente sono esclusi i valori prossimi a 1. Si ottiene quindi un risultato formale in netta contraddizione con quanto si crede: una conclusione paradossale!
  3. Consideriamo un termometro a mercurio, avente divisioni di 0.1$ ^\circ$C e di cui sappiamo che potrebbe essere scalibrato al più di 0.6$ ^\circ$C. Consideriamo le seguenti letture, lasciando sospese le incertezze e le successive elaborazioni:
    $\displaystyle T_1$ $\displaystyle =$ $\displaystyle 22.00\ldots \pm \ldots \,^\circ$C (8)
    $\displaystyle T_2$ $\displaystyle =$ $\displaystyle 23.00\ldots \pm \ldots \,^\circ$C (9)
    $\displaystyle T_2-T_1$ $\displaystyle =$ $\displaystyle \ldots \pm \ldots \,^\circ$C (10)

    La risposta usuale a questo quesito è che $ \Delta_{T_1}$ e $ \Delta_{T_2}$ sono pari a 0.6$ ^\circ$C, mentre

    $\displaystyle T_2-T_1 = 1.0\pm 1.2\,^\circ$C$\displaystyle \,.$

    (Qualcuno, sospettando un tranello, azzarda un $ \Delta(T_2-T_1) =0.6\,^\circ$C.) Non è difficile convincersi che, mentre incertezze di 0.6$ ^\circ$C su ciascuna misura sono ragionevoli, se intese come ``errori massimi'', quella sulla differenza non è affatto sensata. La calibrazione assoluta non può avere alcun effetto sulla differenza fra valori di temperatura così prossimi. Alla luce delle considerazioni del punto precedente, possiamo affermare che la stima più ragionevole dell'incertezza su $ T_2-T_1$ sia inferiore a 0.1$ ^\circ$C (per arrivare ad valore numerico bisognerà premettere altre considerazioni e saperne di più sul termometro, sulle condizioni di misura e su chi ha eseguito le letture).
  4. Torniamo ora all'espressione ``praticamente sicuri'':
    -
    cosa significa?
    -
    cosa si paga se non è vero (se dovesse risultare che il valore vero è al di fuori dell'intervallo indicato, o almeno ``molto al di fuori'', visto che non si trattava di certezza assoluta)?
    -
    è quello che serve veramente?
    Analizziamo quest'ultimo punto. Prendiamo, come esempio, la somma di tante grandezze di uguale valore e incertezza (tanto per semplificare i conti):
    $\displaystyle \Delta x_i$ $\displaystyle =$ costante$\displaystyle = \Delta x$  
    $\displaystyle x_i$ $\displaystyle =$ costante$\displaystyle = x$  

    La somma degli $ n$ valori e la sua incertezza, calcolata usando la (3), sono
    $\displaystyle y_n$ $\displaystyle =$ $\displaystyle \sum_{i=1}^n x_i = nx$  
    $\displaystyle \Delta y_n$ $\displaystyle =$ $\displaystyle \sum_{i=1}^n \Delta x_i= n\Delta x$  

    Confrontiamo questo risultato con quanto si ottiene mediante un piccolo programma di simulazione5, assumendo che il valore vero delle $ x_i$ potrebbe essere in qualsiasi punto entro l'intervallo $ x_i\pm \Delta x_i$. La figura 3 mostra i risultati di 10000 simulazioni, per n=1, 2, 3, 5, 10, 20 e 50.

    Figura 3: Simulazione della distribuzione del valore vero ottenuta sommando $ n$ risultati aventi gli stessi limiti di errore. Per confronto viene anche riportata la distribuzione normale avente come media il centro dell'intervallo e deviazione standard $ \sqrt {n}/\sqrt {12}$ (vedi appendice sul teorema del limite centrale).
    \begin{figure}\centering\epsfig{file=fig/errori_max.eps,width=7cm,clip=}\end{figure}

    Per comodità l'asse delle ascisse è preso fra $ y_n-\Delta y_n$ e $ y_n+\Delta y_n$ dati dalla formula precedente. Come si vede dalla figura, è senz'altro corretto affermare di essere ``praticamente certi'' che il risultato sia in quell'intervallo, ma, al crescere di $ n$, la prudenza è tale che il risultato si è ``impoverito'' rispetto alle sue potenzialità originarie.

    Si potrebbe obiettare che in pratica si fanno solo poche misure. Questo può essere vero in una semplice esperienza di laboratorio, ma nel mondo reale la propagazione delle incertezze è in principio illimitata: ognuno utilizza informazioni precedentemente ricavate da lui o da altri, e le conclusioni verranno utilizzate da altri ancora, etc. (nessuno fa una misura per incorniciare il risultato a casa, senza nessuna influenza per altri6...).

Riassumendo, possiamo affermare che l'uso della cosiddetta ``teoria'' degli errori massimi conduce a

Ora, qualcuno potrebbe pensare che l'effetto delle correlazioni possa essere una finezza e che la sovrastima delle incertezze sia da ritenere addirittura essere un pregio. Se gli esempi precedenti, che hanno mostrato come facilmente si arriva a sovrastime di un ordine di grandezza non dovesse bastare, citiamo la Guida ISO in proposito:

``The method [quello raccomandato dalla Guida] stands, therefore, in contrast to certain older methods that have the following two ideas in common:
(...) if the 'maximum error bound' (the largest conceivable deviation from the putative best estimate) is used (...) the resulting uncertainty (...) will be unusable by anyone wishing to incorporate it into subsequent calculations (...)''.
Comunque, il motivo principale per cui vanno evitate le sovrastime delle incertezze è che in questo caso è più facile arrivare a risultati in accordo (artificiosamente) con valori noti o con quelli di altri esperimenti. Questo impedisce di identificare i possibili effetti sistematici che possono distorcere il risultato (si ricordi che spesso dietro gli errori sistematici c'è quasi sempre della Fisica: dispersioni termiche, rumore elettromagnetico, approssimazioni rozze, etc.), o di scoprire addirittura una nuova fenomenologia (ma questo non capita nelle esperienze di laboratorio didattico...). Aumentare artificiosamente le incertezze equivale a rifiutarsi di imparare. Farlo per ``paura di sbagliare'' è puerile7.
next up previous contents
Next: Regola della mezza divisione Up: Critica della ``teoria degli Previous: Critica della ``teoria degli   Indice
Giulio D'Agostini 2001-04-02