next up previous contents
Next: Riepilogo di alcune proprietà Up: Funzioni di variabili casuali Previous: , con e gaussiane   Indice


pzd100 Stime a bruta forza: metodi di Monte Carlo

Un metodo pratico molto usato per stimare le distribuzioni di probabilità di funzioni complicate di variabili casuali consiste nell'utilizzare delle tecniche di simulazione al computer. Tenendo conto che in pratica anche le funzioni continue sono discretizzate per eseguire i calcoli, non si fa altro che applicare che applicare la regola generale incontrata nel paragrafo 10.2.1 (formula (10.6), (10.5), o loro generalizzazione a molte dimensioni). Il caso più semplice consiste nello stimare $ f(y)$ a partire da $ f(x_1)$, $ f(x_2)$,...$ f(x_n)$, sapendo che $ Y=Y(X_1,X_2,\ldots, X_n)$ e assumendo che le variabili di partenza $ X_i$ siano fra loro indipendenti. I passi richiesti sono i seguenti:
  1. estrarre le variabili $ X_i$ usando, ad esempio, una delle tecniche descritte nel paragrafo 8.3;
  2. valutare la funzione $ Y$ in corrispondenza dei valori $ X_i$;
  3. istogrammare la variabile $ Y$ e ripetere il processo un numero di volte $ n$.
Si calcola infine la frequenza relativa $ w_{Y_i}$ con cui il valore $ Y$ compare nelle diverse classi dell'istogramma. Poiché al crescere di $ n$ si è sempre più sicuri che la distribuzione statistica delle frequenze che si otterrà sarà molto vicina alla distribuzione di probabilità (vedi paragrafi 7.13 e 7.14, nonché prossimo paragrafo 10.9.2) la distribuzione di probabilità è stimata nel seguente modo:
A) caso discreto

$\displaystyle f(y_i) \approx w_i(Y)\,;$

B) caso continuo

$\displaystyle f(y_i) \approx \frac{w_i(Y)}{\Delta Y_i}\,,$

ove $ w_i(Y)$ indica la frequenza relativa di occorrenze del valore $ Y=y_i$ (caso discreto) o delle volte in cui il valore della $ Y$ è risultato compreso fra $ y_i$ e $ y_i+\Delta Y_i$ (caso continuo). Un esempio di applicazione verrà mostrato in figura 10.5 a proposito del teorema del limite centrale. L'estensione al caso di più variabili di arrivo $ Y_j$ o a quello in cui le variabile di partenza sono correlate è semplice dal punto di vista concettuale, anche se l'implementazione al computer può essere non proprio banale.

Figura: Esempi di trasformazione di una variabile normale: $ X\sim {\cal N}(10,\,2)$; $ \sqrt {X}$; $ 1/X$; $ X^2$.
\begin{figure}\centering\epsfig{file=fig/gauss_tr.eps,width=\linewidth,clip=}\end{figure}

Un esempio di questa tecnica è mostrato in figura 10.4, ove una variabile casuale $ X$ distribuita secondo una distribuzione normale di $ \mu=10$ e $ \sigma=2$ è generata $ 100^\cdot000$ volte con la tecnica di Monte Carlo (vedi paragrafo 10.12) e successivamente trasformata in $ Y=\sqrt{X}$, $ 1/X$ e $ X^2$ (nell'ordine e come facilmente riconoscibile dai valori medi e deviazioni standard delle distribuzioni statistiche risultanti dalla simulazione).


next up previous contents
Next: Riepilogo di alcune proprietà Up: Funzioni di variabili casuali Previous: , con e gaussiane   Indice
Giulio D'Agostini 2001-04-02