Probabilità e Incertezza di Misura
lezioni per il Dottorato di Ricerca in Fisica (22o Ciclo)
(G. D'Agostini)

Il corso sarà di 40 ore, con inizio 29 gennaio 2007,

Calendario dettagliato
 
Nr.Giorno OrarioAula
1Lun 29/01 15:00-16:302
2Mer 31/01 15:00-16:302
3Gio 01/02 15:00-16:302
4Ven 02/02 15:00-16:302
5Lun 05/02 15:00-16:302
6Mar 06/02 17:30-19:00(*)4
7Mer 07/02 15:00-16:302
8Gio 08/02 15:00-16:302
9Ven 09/02 15:00-16:302
10Lun 19/02 17:00-18:304
11Mar 20/02 17:30-19:00(*)4
12Mer 21/02 17:00-18:304
13Giov 22/02 17:00-18:304
14Ven 23/02 17:00-18:304
15Mar 27/02 17:30-19:00(*)4
16Mer 28/02 17:00-18:304
17Mar 13/03 17:30-19:00(*)4
18Mer 14/03 17:00-18:304
19Gio 15/03 17:00-18:304
20Mar 20/03 17:00-18:304
21Mer 21/03 17:00-18:304
(*) Inizio ritardato a causa Seminario Generale


Sommario degli argomenti delle lezioni

Lezione 1 (29/1/07)
Introduzione: intento del corso e programma di massima.
'Task of the physicist': osservazioni -> ipotesi => incertezza.
Sorgenti di incertezza secondo la Guida ISO (il 'decalogo'). Trattazione usuali di incertezze: 'errori statistici' -> intervalli di confidenza; 'errori sistematici' -> ? -> regole ad hoc.
Rassegna critica di alcune conoscenze standard ('Fisichetta'): concetto e propagazione di `errori massimi'; semidispersione massima; uso della propagazione di `errori statistici'; regola della mezza divisione (errore di lettura? errore sistematico?); barre di errore calcolate dalle sole osservazioni; rette di massima e minima pendenza; significato di $\displaystyle \mu$ = $\displaystyle \overline{x}\pm\frac{\sigma}{\sqrt{n}}$   (oppure $\displaystyle \mu$ = $\displaystyle \overline{x}\pm \sigma$ ?).
Referimenti
Lezione 2 (31/1/07)
Conclusioni su inadeguadezza errori massimi e difficoltà di uso degli 'errori statistici' nel quadro della statistica 'convenzionale' (frequentista). Discussione sul significato di $\displaystyle \mu$ = $\displaystyle \overline{x}\pm\frac{\sigma}{\sqrt{n}}$  : inversione intuitiva della probabilità e metafora cane-cacciatore.
Test di ipotesi, loro significato(?) e fraintendimento: Probabilità delle ipotesi Vs probabilità della variabile di test (-> significatività statistica). Esempi accademici (possibile errore dello studente e scherzo alla rivista scientifica) e di interesse publico (test dell'AIDS).
Dalle cause agli effetti ("the essential problem of the experimental method ", Poincaré): inferenza e incertezza. Probabilità degli effetti Vs probabilità delle cause (e dei valori veri). Esempio guida: problema delle 6 scatole: che scatola ho scelto? che pallina uscirà cosa succede dopo la prima estrazione (con reimmissione)? dov'è la probabilità?
Approccio falsificazionista e sua implementazione pratica mediante i test di ipotesi. Significato ed errata interpretazione dei p-value, con esempi di annunci di false scoperte dovuti a banali errori di logica (es `eventi di HERA', 'Higgs a LEP', etc.).
Riferimenti
Lezione 3 (1/2/07)
Complemento rassegna critica (dalle lezioni al CERN, febbraio 2005). Cosa si intende per statistica: st. descrittiva; teoria della probabilità; statistica inferenziale. Overview di cose già incontrate nella lezione scorsa. Revisione della logica dell'incerto secondo l'approccio probabilistico: ritorno al passato ("Laplace & Co."). Approccio maieutico al concetto di probabilità, con valutazione secondo deversi ragionamenti. Paradosso delle due buste.
[En passant: versione semplificata del paradosso di Ellsberg (scelta fra scatola con 50 palline bianche e 50 nere e scatola con proporzione ignota di bianche e nere): decisioni incoerenti.]
Impossibilità di valutare f(μ|x) mediante puri ragionamenti di simmetria o mediante frequenze: -> inversione di probabilità. Cos'è la probabilità? Definizioni combinatoria, frequentista e soggettiva. Circolarità delle definizioni combinatorie e frequentiste.
Riferimenti
Lezione 4 (2/2/07)
Intervalli di confidenza frequentisti: -> "compito per casa" (fortemente raccomandato!): leggere accuratamente pp. 118-123 del libro di Cowan [chi è particolarmente interessato a tali questioni studi l'intero capitolo 9 e il capitolo 5 (pp. 64-69)].
Probabilità secondo David Hume. Probabilità come grado di fiducia: schema di de Finetti su Enciclopedia Einaudi. Probabilità condizionata: concetto. Significato del termine "soggettivo". Problemi delle tre scatole (o carte). Probabilità secondo Scroedinger (1947). Dipendenza della probabilità dallo stato di informazione. Differenza fra concetto di probabilità e sue regole di valutazione. Ruolo unificatore della probabilità Regole di base della probabilità ("assiomi di Kolmogorov" + "formula della probabilità condizionate") ottenute da: scommessa coerente (de Finetti-Ramsey); consistenza logica (Cox-Jaynes); calibrazione su eventi sui quali è possibile usare argomenti di simmetria (Lindley).
Confidenza espressa in termini di probabilità legata alla scommessa confrontata con i cosidetti "upper/lower" confidence limits: massa di saturno di Laplace e limite inferiore sulla massa dell'Higgs a LEP.
Ruolo ipotetico della scommessa. Distinzione fra soggettività e arbitrarietà. Recupero della regola di valutazione combinatoria. Probabilità e frequenza. Le tre regole di base della probabilità ricavate dalla condizione di coerenza.
Riferimenti
Lezione 5 (5/2/07)
Discussione su altre possibili obiezioni. In particolare: non arbitrarietà di affermazioni probabilistiche basate sulla coerenza e arbitrarietà di metodi convenzionali; grado di fiducia (cosa si crede) diverso da grado di convenienza (cosa piacerebbe accadesse) e da pura immaginazione; "oggettivià" e uso di "credenze" in fisica; "probabilità fisica". Le diverse faccie della probabilità: belief <--> chance (or propensity): Lewis' "Principal Principle".
Ruolo del calcolo combinatorio nella teoria della probabilità. Eventi, proposizioni e insiemi. Proprietà delle operazioni fra eventi/proposizioni e insiemi. Partizione finita e decomposizione della probabilità. Concetto di evento condizionato e significato della "formula della probabilità condizionata". Proprietà principali del calcolo di probabilitaà di eventi/proposizioni. Partizione finita e decomposizione della probabilità (legge delle alternative o formula di disintegrazione, o anche "delle probabilità totali).
Attenzione ai tranelli dell'indipendenza stocastica: esempi
Riferimenti
Lezione 6 (6/2/07)
Costituenti. Incompatibilità, indipendenza logica e indipendenza stocastica.
Numeri incerti (aleatori) discreti e funzioni di probabilità. Esempi di costruzione di funzioni di variabili casuali dalle regole di base del calcolo delle probabilità. Propietà delle funzioni di probabilità. Funzione cumulativa e sue proprietà.
Cenni sui metodi di Monte Carlo ('branching' elementari, 'hit/miss' e inversione della cumulativa).
Processo di Bernoulli. Problema dell'ubriaco.
Riferimenti
Lezione 7 (7/2/07)
Uso delle formula simmetrica di aggiornamento della probabilità [P(H|E,I)/P(H|I)=P(E|H,I)/P(H,I)]: problema delle sei scatole con cinque palline B/N; problemi delle tre scatole.
Commenti sui Monte Carli. Calcolare di integrali mediante campionamento. Valutazione di π con MC.
Distribuzione derivanti dal proceso di Bernoulli: geometrica, binomiale e di Pascal (quest'ultima appena menzionata). Sintesi probabilistiche: valore atteso, moda, mediana, varianza, deviazione standard. Analogie meccaniche (baricentro e momento di inerzia).
Disuguaglianze di Markov e di Cebicev.
Distribuzioni di probabilità e distribuzioni statistiche. Nota su distribuzioni statistiche: 'sigma' con n o con (n-1)?
Riferimenti
Lezione 8 (8/2/07)
Paradosso dei tre prigionieri. Processo di Poisson, distribuzione di Poisson ed esponenziale. Distribuzioni di probabilità di variabili continue: funzione densità di probabilità, cumulativa, calcolo di valore atteso e varianza, etc.
Distribuzione uniforme, triangolare e di Gauss. Schema riassuntivo delle varie distribuzioni e dei loro 'imparentamenti'.
Distribuzioni di più variabili. Funzioni congiunta, marginale e condizionata. Calcolo di valore atteso e varianza. Definizione di covarianza e di coefficiente di correlazione. Significato e proprietà di covarianza e coefficiente di correlazione.
Riferimenti
Lezione 9 (9/2/07)
Note sui MC: estrazione secondo una esponenziale; cambiamenti di variabili; campionamento mediante cammino casuale.
Esponenziale e tempo di dimezzamento.
Distribuzione normale bivariata. Significato di ρ in una distribuzione normale bivariata e suo uso pratico. Distribuzione normale multivariata. Distribuzione multinomiale.
Propagazione delle incertezze: problema generale e sottocasi più più o meno trattabili.
Caso di combinazione lineare di variabili.
Teorema centrale del limite (e non teorema del limite centrale) e sue applicazioni: distribuzione della media aritmetica; approssimazione gaussiana di binomiale e poissoniana. Generatore di numeri casuali gaussiano. Valore atteso del tempo di attesa di k successi in un processo di Poisson. Distribuzione degli errori gaussiani.
Riferimenti
Compiti per le vacanze
  • Vedersi/rivedersi intervalli di fiducia "classici".
  • Vedersi/rivedersi stimatori "classici".
  • Scatole e prigionieri.
  • Provare a giocherellare con Monte Carlo.
  • Installare R.
Lezione 10 (19/2/07)
"Leggi dei grandi numeri: 'tendenza' della media aritmetica al valore atteso e della frequenza relativa alla probabilità (Teorema di Bernoulli): significato e implicazioni (e fraintendimenti!).
Ancora sulla combinazione lineare di variabili casuali. Correlazione fra diverse combinazioni lineari.
Linearizzazione (con caveat). Coefficienti di sensibilità. Forme monomie e propagazione delle incertezze percentuali. Trasformazione della matrice di covarianza.
Soluzione generale del problema di propagazione di incertezze ('trasformazione di variabili'): caso discreto e continuo; interpretazione montecarlistica delle formule generali.
Processo di Bernoulli, distribuzione binomiale, e variazioni sul tema [cammino casuale (random walk) sia nello spazio che in altri 'spazi': moto browniano, pallinometro ("spazio dei chiodi"), errori di misura ("spazio dei segnali"), distribuzione di velocità delle molecole (spazio delle velocità)]. Relazione fra distribuzione di Gauss e distribuzione di Maxwell (le velocità delle molecole seguono entrambe: la prima per le componenti, la seconda per il modulo).
Riferimenti
Lezione 11 (20/2/07)
Introduzione al linguaggio R, con ripasso su distribuzione di probabilità e propagazione di incertezze, più introduzione a questioni pratiche di simulazione con metodi di Monte Carlo.
Riferimenti
Lezione 12 (21/2/07)
Aggiornamento delle probabilità e teorema di Bayes. Esempio delle sei scatole.
Ragionamenti 'bayesiani' intuitivi ("chi è al telefono?") e formalizzati ("il vecchio amico sospetto baro"). 'Recupero' del falsificazionismo come caso limite e suo superamento probabilistico. Accenno a probabilità e decisione.
Problema del test dell'AIDS e dell'identificazione di particelle. Rapporto segnale rumore, selettività dell'analisi e rumorosità del campione. 'Odd ratios' e fattore di Bayes.
Commento sul 'peccato originale' dei test di ipotesi frequentisti: pensare che sia possibile giudicare la ragionevolezza della ipotesi senza pensare minimamente alle alternative!
Riferimenti
Lezione 13 (22/2/07)
Soluzione del problema delle tre scatole con due anelli oro/argento.
Ancora problema delle sei scatole: Commento sui test di ipotesi frequentisti, sulla loro infondatezza logica e sul perché "spesso funzionano".
Inferenza su numeri discreti, ciascuno associato ad una ipotesi: P(pi) = P(Hi) di modelli descritti da distr. geometrica.
Estensione ad una infinità (continua) di possibili valori di p: -> inferenza parametrica. Stima del parametro p di processi di Bernoulli indipendenti seguendo due diversi ragionamenti (entrambi logicamente corretti).
Riferimenti
Lezione 14 (23/2/07)
Soluzione del problema della probabilità di colori uguali o discordi nelle prime due estrazioni da una delle "sei scatole"
Studio sistematico dell'inferenza del parametro p del modello binomiale: f(p | x, n) ipotizzando prior uniforme. Valore atteso e varianza. Significato di E[p]. Formula ricorsiva di Laplace. Limite per grandi numeri (sia di successi che di insuccessi): 'Recupero' della valutazione della probabilità dalla frequenza relativa. [Memento: "frequenza --> probabilità": teorema di Bayes; "probabilità --> frequenza": teorema di Bernoulli. Ma concettualmente "probabilità  != frequenza"]
Nota su previsione e incertezza di previsione della frazione di teste in n lanci di monete, confrontata con previsione e incertezza di previsione della differenza #teste-#croci.
Note sul significato fisico di p e di come in genere (se non esattamente noto) differisce (come significato) dalla probabilità che attribuiamo ad un 'successo'. Casi tipici: sondaggi, problema del `campione rappresentativo' e influenza delle prior. Casi limiti di frequenza osservata uguale a 0 o al 100%. Combinazione di campioni indipendenti.
Prior coniugate: distribuzione Beta, coniugata della binomiale. Prova dell'insensibilità delle prior in caso di grande numero di osservazioni (purché si sia disposti a cambiare opinione!)
Il biliardo di Bayes.
Prima introduzione alle reti bayesiane (con illustrazione dell'esempio degli anelli oro/argento realizzato con JavaBayes).
Riferimenti Vedi "compiti per le vacanze", soprattutto per quanto riguarda "intervalli di confidenza" (-> vedi COWAN /CI/, Lezione 2 feb.).
Lezione 15 (27/2/07)
Problemini per anticipare questione della distribuzione predittiva nel caso di modello poissoniano e gaussiano.
Distribuzioni predittive nel caso di processi di Bernoulli ('binomiale'). (Si noti che si segue un ragionamento analogo a quello che si faceva nel problema delle sei scatole per valutare la probabilità del colore di bianco/nero dagli esiti passati.)
Inferenza sul parametro λ della poissoniana e dell'intensità del processo di Poisson r a partire da una prior uniforme; limiti per x (numero di conteggi osservati) grandi.
Caso speciale di x = 0 da prior uniforme: upper limit. Coincidenza formale del valore con l'"upper limit frequentistico al 95% C:L:" basato sul valore tale che P(x=0|λL)=0.05: motivo per il quale tale ragionamento non può portare ad un limite che esprima la nostra 'confidenza'; esempi pratici in cui la banale "inversione di probabilità" non funziona.
(In)-sensibilità dalle prior in casi 'tranquilli' (senza abituarcisi!).
Ricerca di una prior coniugata della poissoniana (esercizio sulla distribuzione della somma di variabili indipendente, a partire dall'esponenziale): distribuzione di Erlang (tempo di attesa del k-mo successo) e sua estensione al continuo (Gamma): parametro di forma (c) e di scala (r). Funzione speciale Γ(): definizione, proprietà e caso particolare di argomento discreto k (->fattoriale di k-1). Esponenziale come Gamma speciale di parametro c = 1.
Riepilogo di distribuzioni a partire dal processo di Bernoulli. Distribuzione di χ2 come caso particolare di Gamma avente c=ν/2 e r = 1/2.   χ2 come somma dei quadrati di ν normali standardizzate indipendenti.
Uso della Gamma come prior coniugata della poissoniana: cf = ci + x; rf = ri + 1.
Riferimenti
Lezione 16 (28/2/07)
Combinazioni di più conteggi, ciascuno registrato nello stesso tempo di osservazione T, oppure in un tempo totale nT. Inferenza dell'intensità r: singola osservazione; tante osservazioni, ciascuna in intervalli di tempo di pari durata; tante osservazione in intervali di tempo di differente durata (quest'ultimo caso riottenuto modellizzando la likelihood mediante una Erlang invece che da poissoniane: -> stesso risultato, compatibile con il "principio di verosimiglianza", soddisfatto automaticamente nel ragionamento bayesiano).
Inferenza del valore di una grandezza fisica. Nota introduttiva sul ruolo della misura: -> aggiornamento della conoscenza (diffidare dell'immacolata osservazione). Una introduzione da fisici sperimentali al teorema di Bayes: l'affidabilità delle conclusioni scientifiche dipende dalla conoscenza della fisica ('prior') e del comportamento del rivelatore ('likelihood').
Inferenza del parametro μ della gaussiana, assumendo nota la σ. Prior uniforme e prior gaussiana. Combinazione di risultati parziali.
La derivazione di Gauss della gaussiana.
Caso esemplare in cui le prior contano: valore osservato 'al di fuori della regione fisica' (es. massa neutrino negativa). [In realtà l'affermazione " valore osservato 'al di fuori della regione fisica'" non ha molto senso in quanto valori veri e valori osservati sono in realtà variabili di spazi diversi!]. Scelta di prior consistenti con l'intento dell'esperimento (assumendo fisici esperti ed onesti).
Distribuzioni predittive. Caso gaussiano: f(xf|xp) e commento su interpretazione errata del risultato dato come $\displaystyle \overline{x}\pm\frac{\sigma}{\sqrt{n}}$.
Riferimenti
Compiti per le vacanze - memento!
  • Vedersi/rivedersi intervalli di fiducia "classici".
  • Vedersi/rivedersi stimatori "classici".
  • Provare a giocherellare con Monte Carlo.
  • Installare R.

 
Lezione 17 (13/3/07)
Modelli gerarchici e iperparametri.
Intervallo di probabilità del valore vero confrontato con intervallo di confidenza frequentista. Analisi di un testo 'ortodosso' che descrive quest'ultimo e presentazione di una nota sull'argomento. Brevi commenti sulla 'coverage' frequentista.
Sulla distorsione degli 'stimatori bayesiani' (ma tale concetto non esiste in un approccio puramente bayesiano!).
Sulla cosiddetta distorsione degli 'stimatori bayesiani' (che, propriamente, non esistono nella teoria bayesiana) e sui test con Monte Carlo delle 'procedure' bayesiane.
Ancora inferenza di μ della gaussiana (associata a valore vero) con σ nota: uso della sola media aritmetica basata sulla sufficienza statistica.
Incertezze dovute ad errori sistematici: trattazione puramente probabilistica. Parametri di influenza ('sistematiche') e loro incertezza, modellizzata da opportuna pdf (uno sperimentatore che non è, in grave di proporre modelli ragionevoli è meglio che cambi mestiere!). Diversi approcci (che portano allo stesso risultato): inferenza congiunta di valori veri + parametri di influenza, seguita da marginalizzazione su questi ultimi; inferenza dei valori veri condizionata dai parametri di influenza, seguita da 'media pesata'; valori veri 'row' e 'corretti', seguita da propagazione di incertezze.
Esempio dettagliato: incertezza docuta ad 'errore di zero' (offset), assumendo likelihood gaussiana ed incertezza gaussiana sullo zero. Combinazione in quadratura delle incertezze. Correlazione indotta dalle sistematiche su più risultati deriventi da misure eseguite con tale strumento. Interpretazione del coefficiente di correlazione dei due risultati.
Riferimenti
Lezione 18 (14/3/07)
Valutazione approssimata degli effetti degli errori sistematici mediante linearizzazione (facendo uso del modello 'valore row' e 'valore corretto' introdotto la scorsa lezione). Esempio di errore di zero ed errore di scala. Regola empirica generale per determinare il coefficiente di correlazione (prodotto incertezze correlate diviso prodotto incertezze globali).
Modellizzazione delle incertezze dovute alle sistematiche. Classificazione ISO/BIPM delle incertezze in Tipo A e Tipo B. Esempi vari, in particolare esempio di strumento digitale. Commenti sulle stime 'conservative'. Regole pratiche con derivate effettuate numericamente: stima di varianze e coefficienti di correlazione. Deviazioni dalla linearità: bias introdotto se non si tiene conto degli 'shift' introdotti dalla nonlinearit`. Formule pratiche basate su derivate numeriche ed espansione al secondo ordine.
Riferimenti
Lezione 19 (15/3/07)
Ancora su sistematiche: casi in cui è opportuno presentare risultati condizionati da diverse ipotesi fisiche.
Effetto sugli upper/lower limits delle incertezze dovute a sistematiche.
Misura dell'intensità di un processo di Poisson nel caso i conteggi siano effetti da background di valore atteso 'noto' (anche affetto da incertezza).
Introduzione ai fit. Inferenza parametrica. Caso particolare, trattato analiticamente, di fit lineare con errori normali solo sulle y e misure indipendenti. Correlazione dei parametri. Schema di approssimazioni dal caso generale bayesiano a massima verosimiglianza e minimi quadrati. Soluzione approssimata assumendo normalità (eventualmente multivariata) della posterior: valore atteso dal valore modale e matrice di covarianza dall'Hessiano.
Ancora fit lineari, ma usando l'ipotesi di approssimazione normale per trovare valori attesi e matrice di covarianza di m e c. Fit con errori su entrambi gli assi. Caso di sigma (degli errori casuali) ignote.
Riferimenti
Lezione 20 (20/3/07)
Confronto di ipotesi 'complesse' (modelli che dipendono da parametri liberi): mediante il fattore di Bayes che tiene conto dello spazio ammissibile a priori per i parametri: "Rasoio di Ockham" automatico dell'approccio bayesiano. (Il confronto del "miglior χ2" può essere fuorviante.)
Commenti su approcci basati su Maximum-Likelihood e minimi quadrati: valutazione dell'incertezze e regole dell'hessiano, del "Δ(-LogLikelihhod)=1/2" e "Δ(&chi2)=1" e loro 'recupero' nell'approccio probabilistico.
Casi di χ2 e -LogLikelihood non parabolici.
Normalità dei dati sperimentali (ovvero distribuzione dei dati condizionata dai parametri) e normalità dei parametri: caso di validità generale: linearità nei parametri.
Minimi quadrati: uso (cum grano salis) delle formule basate su 'principi': trattazione matriciale dei minimi quadrati dipendenti linermente dai parametri, con errore ignoto ricavato mediante i residui. Matrice di design. Modifica del metodo nel caso di errori sperimentali noti a priori. Commento sul termine correttivo sqrt(n/(n-np)) da applicare alla deviazione standard ricavata dai residui.
Cenno alle reti bayesiane e impostazione del problema dei fit in termini di una rete bayesiana.
Metodi di Monte Carlo nell'inferenza bayesiana: -> campionare la distribuzione finale non normalizzata per valutare valori attesi di funzioni delle variabili (es. media, sigma, etc). (Per capire l'importanza si pensi a problemi ad alta dimensionalità e non a banali problemi 1D).
Rejection sampling. Importance sampling .
Riferimenti
Lezione 21 (21/3/07)
Un caso in cui il chi2 può non andar bene: fit con errore su entrambi gli assi trattati usando delle sigma effettive ottenute combinando quelle sulle x e quelle sulle y. Importance sampling: distribuzione ottimale di campionamento; 'sovraefficienza'. Markov chain Monte Carlo (MCMC).
Catene di Markov: stati, matrice di transizione T, invarianza, irriducibilità, aperiodicità, distribuzione invariante. Soluzione dettagliata del semplice esempio con tre stati di Andrieu et al.: μ(x(1))×T×T×...×T; autovalori della trasposta di T.
Condizione di reversibilità o del bilancio dettagliato.
Algoritmo di Metropolis: importanza della distribuzione di proposal, con esempi. Algoritmo di Metropolis-Hasting.
Esempi di uso di BUGS.
Unfolding: problema generale e (un possibile) approccio bayesiano, basato su discretizzazione del problema, iterazione e smoothing. Veloce presentazione del vecchio algoritmo.
Ruolo delle prior nella ricerca di fenomeni nuovi e quindi negli upper/lower limits. Likelihood 'chiuse' e 'aperte'. Likelihood riscalata al valore asintotico per il quale l'esperimento perde sensibilità ('R'). Limiti superiore/inferiore probabilistici (o C.L., 'whatever they might mean') Vs limiti di sensibilità. Analisi combinata dell'Higgs a LEP.
Riferimenti
Info supplementari
  • Per quanto riguarda altri argomenti di interesse
    non trattati o trattati in fretta vedi qui.
    (Altri argomenti si possono trovare nella parte 4 di
    Probabilità e incertezza di misura).
  • Per l'esame si raccomandano tesine ispirandosi a tale sito
    o cercando in rete questioni di interesse per la propria attività.
  • Sono raccomandate applicazioni pratiche (es. BUGS o altro).
  • Le presentazioni possono essere alla lavagna, con lucidi,
    sia classici che elettronici (procurarsi il proiettore!).
  • È preferibile raggruppare gli esami in modo tale che
    essi siano un ulteriore occasione per imparare qualcosa.

 

Back to G.D'Agostini - Teaching
Back to G.D'Agostini Home Page