next up previous contents
Next: pzd100Caso di forte vincolo Up: Impostazione del problema. Caso Previous: Effetto di una prior   Indice


pzd100Derivazione di Gauss della gaussiana

A questo punto è interessante mostrare con quali argomenti Gauss introdusse la funzione che porta il suo nome11.4. Essa era, infatti giaà nota molto primo di Gauss, come limite della binomiale (vedi paragrafo 8.10). L'interesse nella derivazione di Gauss è che essa fu ottenuta nel contesto dell'inferenza probabilistica, ma come soluzione di un problema inverso: qual'è la forma più generale della verosimiglianza tale che il massimo di probabilità di $ \mu $ coincida con la media aritmetica? Nel risolvere questo problema, dapprima Gausss derivò la formula della probabilità delle ipotesi, assumendo equiprobabilità iniziale delle ipotesi. In pratica ottenne il teorema di Bayes nel caso particolare di probabilità iniziale delle ipotesi, concetto a lui molto chiaro (``ante eventum cognitum'', contrapposto a ``post eventum cognitum''). Quindi, passando alle osservazioni sperimentali $ x_i$ (usando la nostra simbologia), cerca la forma della funzione incognita $ \varphi$ che descrive la probabilità di ottenere $ x_i$ dal valore vero $ \mu $ (sempre nella nostra simbologia). La (funzione densità di) probabilità del campione $ \mathbf{x}$ è allora data da

$\displaystyle f(\mathbf{x}\,\vert\,\mu)= \varphi(x_1-\mu)\cdot \varphi(x_2-\mu)\cdot\ \cdots\ \cdot\varphi(x_n-\mu)\,.$ (11.18)

A questo punto intervengono due ipotesi:
  1. Tutti i valori di $ \mu $ sono ritenuti a priori (``ante illa observationes'') ugualmente probabili (``... aeque probabilia fuisse'').
  2. Il massimo di probabilità a posteriori (``post illas observationes'') si ottiene per $ \mu=\overline{x}$, media aritmetica degli $ n$ valori osservati.
Dalla prima ipotesi segue

$\displaystyle f(\mu\,\vert\,\mathbf{x}) \propto f(\mathbf{x}\,\vert\,\mu) =
\varphi(x_1-\mu)\cdot \varphi(x_2-\mu)\cdot\ \cdots\
\cdot\varphi(x_n-\mu)\,.$

Per far uso della seconda, si impone che la derivata prima si annulli in $ \mu=\overline{x}$:

$\displaystyle \left.\frac{\mbox{d}f(\mu\,\vert\,\mathbf{x})}
{\mbox{d}\mu}\righ...
...mbox{d}}{\mbox{d}\mu} \prod \varphi(x_i-\mu)
\right)_{\mu=\overline{x}} = 0\,,$

ovvero

$\displaystyle \sum_i\frac{\varphi^\prime(x_i-\overline{x})}
{\varphi(xi-\overline{x})}=0\,,$

ove $ \varphi^\prime$ sta per la funzione derivata di $ \phi$ rispetto a $ \mu $. Chiamando $ \psi$ la funzione $ \varphi^\prime/\varphi$ e indicando con $ z_i=x_i-\overline{x}$ gli scarti dalla media, i quali devono soddisfare la condizione $ \sum_i z_i=0$, abbiamo

$\displaystyle \left\{\begin{array}{l} \sum_i\psi(z_i) = 0 \\  \sum_i z_i =0 \end{array}\right.\,,$ (11.19)

la quale, dovendo essere valida indipendentemente da $ n$ e dal valore degli scarti, dà il seguente vincolo11.5 alla forma funzionale di $ \psi(z)$:

$\displaystyle \frac{1}{z}\,\psi(z) = k\,,$ (11.20)

con $ k$ costante (il limite $ z->0$ non è un problema, in quanto la derivata di $ \varphi$ in $ z=0$ si annulla e la condizione $ \psi(z)/z=k$ implica che numeratore e denominatore ci devono tendere con la stessa ``rapidità). Ne segue

$\displaystyle \frac{\mbox{d}\varphi}{\varphi}=k\,z\,\mbox{d}z\,,$

Ovvero

$\displaystyle \varphi(z) \propto e^{\frac{k}{2}\,z^2} = e^{-h^2\,z^2}\,,$ (11.21)

ove $ k/2$ è stato chiamato $ -h^2$ per imporre che esso deve essere negativo in quanto $ \varphi$ ha il massimo in $ z=0$. Normalizzando la funzione mediante il suo integrale da $ -\infty$ a $ \infty$, conto dovuto a Laplace (``ab ill. Laplace inventum''), la funzione ``di Gauss'' è (``funtio nostra fiet''):

$\displaystyle \varphi(z) =\frac{h}{\sqrt{\pi}}e^{-h^2\,z^2}$

.


next up previous contents
Next: pzd100Caso di forte vincolo Up: Impostazione del problema. Caso Previous: Effetto di una prior   Indice
Giulio D'Agostini 2001-04-02