Il corso sarà di 40 ore, con inizio a
gennaio 2014.
Programma
- Programma indicativo.
- Per ulteriori indicazioni vedi i corsi degli anni precedenti,
a partire dal 21.mo Ciclo
(ad es dott-prob_27 per il 27.mo ciclo), in particolare
il 22.mo Ciclo, particolarmente ricco di dettagli (a ogni anno ha delle novità/diversità
che dipendono anche dagli interessi dei dottorandi o da fatti contingenti,
come annunci di 'scoperte', affermazioni sentite in seminari, etc.).
- Nota: alcune delle applicazioni dipenderanno
dagli interessi dei dottorandi.
Modalità di esame
Visto il numero di ore e tenendo conto di una specifica richiesta
di Roma 3, l'esame consiste in due verifiche:
- una verifica scritta su una sottoparte del corso
(dettagli validi per il 26.mo ciclo e soggetti a cambiamento:
/dott-prob_26/programma_scritto.html)
- una presentazione sotto forma seminariale su tema concordato,
che prevedano possibilmente, ma non necessariamente, sviluppo/utilizzo
di programmi per risolvere problemi pratici o basati su toy model.
Orario
Prenotazione Aule
In Aula F. Rasetti (Dipartimento) ogni MAR, GIO dalle 14:00 alle 16:00
dal 14/01/2014 al 28/01/2014
dal 04/02/2014 al 27/02/2014
dal 04/03/2014 al 27/03/2014
Nota: nelle prenotazioni (25 incontri) sono previsti eventuale buchi
per eventuali esigenze sia degli studenti che del docente
Orario effettivo
Sommario degli argomenti delle lezioni
- Lezione 1 (14/1/14)
- "Scoperte basate annunciate a colpi di sigma"
(dettagli, incluso video)
Qualche istruzione di R
(vedi anche qui → Supporto R)
- rnorm(1, sample(1:2)[1], 0.5)
Domanda: da quale delle due medie viene il
numero che si ottiene ad ogni invio?
- n=100000; hist(c(rnorm(n,1,0.5), rnorm(n,2,0.5)), nc=100)
- Lezione 2 (16/1/14)
-
- Continuazione seminario IdF (slides riviste, pdf 1.8MB)
Riferimenti
- Articolo su cui è largamente basato il seminario:
GdA, “Probably a discovery: Bad mathematics means rough scientific communication”, arXiv:1112.3620
con raccolta di link correlati, in particolare
su "p-values erroneously turned into probabilities",
in questa pagina web.
- Philip Ball, “I'd put a tenner – but not a ton –
on the Higgs-Boson existing”, Guardian
23 dicembre 2011.
- Articolo divulgativo sull'inferenza probabilistica:
GdA, “L'inferenza probabilistica. Ruolo nelle scienze sperimentali e suggerimenti per il suo insegnamento”, Treccani Scuola,
Dossier Statistica (2010)
- Articolo su falsificazionismo e probabilismo:
GdA, “From Observations to Hypotheses: Probabilistic Reasoning Versus Falsificationism and its Statistical Variations”,
physics/0412148v2.
- Alcuni comandi di R: logfile
- Introduzione generale all'incertezza in Fisica:
valore vero, errore, incertezza, 'decalogo' ISO.
Riferimenti
- GdA, Errori e incertezze di misura - Rassegna critica e proposte per l'insegnamento (vedi qui), pp. 7-12
- Lezione 3 (21/1/14)
- Continuazione "rassegna critica" sulle incertezze e
sui test di ipotesi
Referimenti
- GdA, Errori e incertezze di misura - Rassegna critica
e proposte per l'insegnamento
(vedi qui),
pp. 7-23 e 82-84.
- J. D. Mollon, A. J. Perkins, Errors of judgement at Greenwich in 1796,
Nature 380, 101 - 102 (14 Mar 1996).
- Ole Rømer
e la sua misura della velocità della luce
- Dava Sobel, Longitude.
- Articolo divulgativo su "Inferenza Probabilistica", contenente anche
la (dovrebbe essere..) famosa illustrazione di Newton.
- Wikipedia, P-Value
[vedi soprattutto 'Frequent misunderstandings' e l'articolo
"Historical
background on the widespread confusion of the p-value:
a major educational failure" di R. Hubbard e J.S. Armstrong,
ivi citato
(copia locale ps e
pdf)].
- R. Hubbard and M.J. Bayarri,
Confusion over measures of evidence (p's) versus errors (α's)
in classical statistical testing,
American Statistician, 57 (2003) 171-178:
Alternative nel caso di difficoltà a scaricare l'articolo:
- A. Palma,
Frequentistic approaches in physics: Fisher, Neyman-Pearson and beyond
(Presentazione di esame per questo corso di dottorato):
pdf e
ppt.
- (Eventuali altri dettagli nelle lezioni 1 e
2 del 22-mo ciclo )
- Lezione 4 (23/1/14)
- Incertezza e Probabilità
Referimenti
[C'erano problemi con il video di Frascati: dovrebbero risistemare
il link, ma per adesso sono stati gentili da inviare
il video, scaricabile da
qui (1.4G)]
- Lezione 5 (28/1/14)
- Eventi, numeri incerti, distribuzioni di probabilità
- Commenti sul problema delle sequenze di due estrazioni
dalla scatola di composizione ignota.
- Eventi (e differenza rispetto al paradigma frequentista)
e probabilità di eventi e ipotesi.
- Schema de Finetti su eventi e probabilità.
- Regole di base della probabilità. Significato
della probabilità condizionata.
- Numeri incerti. Prove di Bernoulli.
- Distribuzione geometrica e distribuzione binomiale.
- Distribuzioni di probabilità Vs distribuzioni di frequenze di eventi
osservati.
- Numeri per "riassumere le distribuzioni" (sia di frequenza che
di probabilità): media, deviazione stardard, moda, mediana.
Analogie meccaniche: centro di massa e radice quadrata del momento
di inerzia. Commento sull'(n-1) nel calcolo do varianza
e deviazione standard (pasticcio fra "statistica descrittiva"
e "statistica inferenziale").
- Previsione (valore atteso) e incertezza standard (deviazione
standard) di numeri incerti (ovvero solo per distribuzioni
di probabilità). Quali numeri mettere nella
"bottiglia da lanciare in mare".
- Legame fra scommessa e moda/media/mediana: si vince solo
chi indovina; si vince con penalità proporzionale
al quadrato dell'errore e al modulo dell'errore.
- Legame fra probabilità e frequenza di eventi futuri in
"Bernoulli trials" con p costante: teorema di Bernoulli.
Referenze
- Lezione 6 (4/2/14)
- Simulazioni e metodi di Montecarlo
- Importanza di processi che danno una scala intersoggettiva
della probabilità (dadi, urne, ruote della fortuna).
- Riepilogo cap 1 nuova versione delle dispense.
- Simulazione di numeri aleatori data la funzione di probabilità.
- Tecnica basata sul ripesare numeri estratti con equiprobabilità
in in certo intervallo (hit/miss):
- Tecnica basata sull'inversione della cumulativa:
- Primo cenno alle Markov Chain Monte Carlo:
- Lezione 7 (6/2/14)
-
- Dipendenza/indipendenza logica e stocastica.
- Importanza della dipendenza logica o stocastica
per imparare dall'esperienza.
- Probabilità, scommessa e scommessa coerente.
- Derivazione dalla scommessa coerente
delle tre regole di base della probabilità
- Scommessa coerente e valore atteso.
- Processo di Poisson: poissoniana e esponenziale.
[Per referenze, vedere pagine web anni precedenti]
- Lezione 8 (11/2/14)
-
- Corde a caso e “paradosso” di Bertrand: provare a fare
un programmino che generi corde a caso,
determini la loro lunghezza, le grafichi sul cerchio
e faccia l'istogramma della loro lunghezza in unità
del raggio del cerchio (scegliere con delle opzioni
la visualizzazione o l'istogramma, o fare addirittura due function
separate, in quanto i numeri di corde di interesse nei due casi
è diverso.)
- Ancora sulle regole di “ricondizionamento”:
esempio delle sei scatole, dopo aver estratto W al primo
colpo.
- Distribuzione esponenziale e tempi di dimezzamento.
- Estrazione di numeri aleatori descritti da una
esponenziali.
- Esercizio: provare a generare i tempi di occorrenza di
100 eventi derivanti da un processo di Poisson nel dominio
del tempo con r=1 s-1
(e provare a graficarli con dei puntini disposti
sull'asse dei tempi, oppure tempo Vs numero di arrivo).
- Escursus sui capitoli 3 e 4 delle “vecchie dispense”.
In particolare: eventi condizionati e significato
della formula che lega la probabilità congiunta
a quella della probabilità condizionata e quella
del condizionante.
- Introduzione a distribuzioni di variabili multiple
(“vettori aleatori”): → cap 9.
- Capitolo 1 “nuove dispense” (as is):
prob_cap1.pdf
- Lezione 9 (13/2/14)
-
- → Fresco fresco, appena segnalatomi, su Nature,
“Scientific method: Statistical errors” (titolo che
gioca sul significato di “statistical errors”,
che, nel contesto, qui sta evidentemente per
“sbagli causati dalla statistica”)
- Distribuzione di Pascal (e cenno alle Erlang e Gamma).
- Distribuzioni uniforme e triangolare (simmetrica e asimmetrica)
di variabile continua.
- Sulla gaussiana: pdf log-concava; minimo e derivata seconda
della funzione “-log(gaussiana)”, e uso per
ricavarsi media e varianza di distribuzioni
“circa normali”:
- esercizio -- importante! provare a fare --
su ipotetiche distribuzioni di probabilità
che sono descritte dalle stesse formule della binomiale e della
poissoniana, ma nelle quali le variabili sono,
rispettivamente, p e λ (ovviamente continue),
mentre x è un parametro.
- Riassunto distribuzioni, dalle prove di Bernoulli
ai processi di Poisson.
- Disuguaglianza di Markov e disuguaglianza di Cebicev.
- Ancora sulle distribuzioni multivariate: coefficiente
di correlazione e indipendenza; moda del vettore incerto
e moda di un numero incerto (ovvero moda nel piano xy
e moda delle distribuzioni marginali).
- Distribuzione multinomiale.
Esempi con R:
- barplot( as.vector( rmultinom(1, 10000, rep(0.01,100)) ) )
- barplot( as.vector( rmultinom(1, 10000, (1:100)/sum(1:100)) ) )
- n=10000; barplot( x <- as.vector( rmultinom(1, 10000, p<-(1:100)/sum(1:100)) ) ); dmultinom(x, n, p)
(Si notino le assegnazioni 'al volo' delle variabili x e p).
Come si vedrà, ogni vettore di occorrenze (='istogramma')
aveva probabilità bassissima
(intorno a 10-150)! (Eppure siamo certi
che proviene da quel generatore multinomiale con quei parametri.)
- Normale bivariata. In particolare, distribuzione condizionata,
con regolette mnemoniche dello 'shift' e dello 'strizzamento'.
- Generatori di vettori normali bivariati:
→ normale_bivariata.R nella pagina dedicata a R.
[Come alternativa all'istruzione di plot che si trova
nel file, provare ad esempio la seguente
plot(x, y, pch=19, cex=0.2, col=rgb(0.5,0.5,0.5,0.5))
o, ancora meglio, le due che seguono
plot(x, rnorm(length(x), my, sy), pch=19, cex=0.2, col=rgb(0.5,0.5,0.5,0.5))
points(x, y, pch=19, cex=0.2, col=rgb(1.0, 0., 0., 0.5))
e... farsi una ragione dei parametri (cercando in rete, o provando
e riprovando).]
Nota il pacchetto hacks
usato nello script è
stato rimosso dal CRAN repository:
usare
mnormt,
già incluso nell'esempio e più generale in quanto multidimensionale.
- Plot 3D interattivo (ruotabile!) di gaussiana bivariata:
gaussiana_bivariata_3D.R.
[Altro interessante pacchetto per grafica 3D,
anche se non interattivo,
plot3D (si veda in particolare la 'vignette'
generale e quella del vulcano).]
- Variante nella che usa, invece di dmnorm(),
la pdf gaussiana multivariata “fatta in casa”:
gaussiana_bivariata_3D_a.R.
(Inoltre calcola, e in diversi modi,
e plotta anche le condizionate f(x|y)
per alcuni valori di y.)
- Variante che calcola i valori di z direttamente in outer (!):
gaussiana_bivariata_3D_b.R.
Compiti per le 'vacanze'
I prossimi due martedì (18 e 25) non ci sarà lezione.
- Approfittare per cercare di fare 'compiti arretrati' (es. generatore
di corde) e di 'giocare' con i vari script di R messi a disposizione
(eventualmente traducendoli nel proprio linguaggio preferito)
|
- Lezione 10 (20/2/14)
-
- Ancora sulla distribuzione normale multivariata
e sul significato (e applicazioni!) delle condizionate.
- Propagazione di incertezze: combinazioni lineari.
- Teorema “del limite centrale” e applicazioni.
Script R per impratichirsi sulle normali multivariate,
sul loro significato e soprattutto per il loro uso,
medianti le distribuzioni condizionate, per imparare
dalle informazioni: IMPORTANTISSIMO!
(*)Il libro di Morris Eaton citato per quelle formule
è visionabile su Project Euclid
(→ Cap. 3).
- Lezione 11 (27/2/14)
-
- Teorema di Bernoulli e suoi fraintendimenti.
- Processo di Bernoulli, distribuzione binomiale
variazioni sul tema: random walk in diversi spazi
(pallinometro, moto browniano, problemi di rovina del giocatore,
normalità deglio errori di misura). In particolare,
distribuzione delle velocità delle molecole.
- Distribuzione di Maxwell e distribuzione di Releigh,
e uso di quest'ultima per costruirsi un generatore
di numeri casuali gaussiani.
- Propagazione di incertezza: trattazione delle combinazioni lineari:
trasfomazione della matrice di covarianza.
- Alcuni esercizi sulla normale bivariata.
- Bozza 'zero' della nota sulle distribuzioni normali multivariate
(vedi bozza ampliata e corretta nella lezione #12.)
- Lezione 12 (4/3/14)
-
- Propagazione di incertezze: riepilogo;
linearizzazione; casi notevoli, incluso
il caso di `incertezze relative' (caso emblematico
di linearizzazione!); soluzione generale per variabili
discrete e continue ('formula con la delta di Dirac'),
e giustificazione delle propagazioni mediante Monte Carlo.
- Un caso notevole (esercizio sulla formula generale
con la delta): distribuzione di probabilità della cumulativa
(alla base di una tecnica di Monte Carlo).
- Esercizio: misura di foglio A4: a=29.73 ± 0.03,
b=21.45 ± 0.03:
- determinare area (A), perimetro (p) e rapporto fra
i lati (r=a/b), inclusa la matrice di covarianza
e la matrice di correlazione dei risultati;
- ripetere i conti assumendo che le incertezze su
a e su b abbiano una correlazione del 60%.
- Ancora discussione sulla bozza della nota su normali multivariate
“Learning about probabilistic inference and forecasting,
playing with multivariate normal distributions
(with examples in R)”:
- Lezione 13 (6/3/14)
-
- Inferenza e 'previsione' probabilistica:
- ancora con le normali multivariate;
- problema delle scatole analizzato con R
(comprese simulazioni e confronti frequenze/probabilità);
- problema delle scatole e cenni a problemi analoghi
(anche forensi) analizzato con
Hugin
(simile a Netica).
- Lezione 14 (11/3/14)
-
- Problemini di applicazione del teorema di Bayes.
- Inferenza e previsione in modelli binomiali.
- Biliardo di Bayes.
- Prior coniugate.
- Lezione 15 (13/3/14)
-
- Essenzialmente su modelli poissoniani.
- Lezione 16 (18/3/14)
-
- Essenzialmente su modelli gaussiani.
- Derivazione di Gauss della gaussiana.
- Lezione 17 (20/3/14)
-
- Inferenza congiunta su μ e σ della gaussiana
da un campione di osservazioni.
- Incertezze dovute a incertezza su
variabili di influenza, incertezze sui modelli
('errori sistematici').
- Fit: generalità, modelli e dettagli del fit lineare.
- Lezione 18 (27/3/14)
-
- Ancora su fit e su sistematiche.
- GUM (BIPM,
ISO NIST)
- Lezione 19 (1/4/14)
-
- Lezione 20 (3/4/14)
-
- Errori asimmetrici: se li conosci li eviti!
- Influenze sui limiti dovute alle sistematiche.
- Which prior for frontier physics?
“open likelihood”:
probabilistic limit → sensitivity bound
- Unfolding.
[ Per dettagli e bibliografia vedi anni precedenti,
in particolare
il 22.mo Ciclo, oppure
in prob+stat.html ]
Back to G.D'Agostini - Teaching
Back to G.D'Agostini Home Page