Centro Interuniversitario Ricerche sulla Gravitazione "Edoardo Amaldi"

SOMMARIO

Ricerca di onde gravitazionali

Studio dei Campi gravitomagnetici

Altro


PREFAZIONE

La scoperta dei bosoni W e Z ha chiuso, negli anni '80, una grande fase di sistemazione e consolidamento delle nostre conoscenze sulla struttura microscopica della materia. Le conoscenze acquisite sono sintetizzate in quello che ormai viene detto "modello standard" delle interazioni fondamentali. W e Z sono "bosoni" che in questo modello si affiancano al fotone per fare da tramite alle interazioni elettrodeboli. Accanto a questi bosoni vi sono quelli responsabili delle forze di attrazione che legano i quark a formare i componenti del nucleo atomico, i gluoni. E' proprio nella sistemazione dei bosoni la caratteristica più innovativa del modello standard. Queste particelle, e quindi le forze di simmetria che esse trasmettono, devono la loro origine ad un principio di simmetria locale, cioè alla richiesta di invarianza delle leggi fisiche rispetto a trasformazioni dei campi nell'intorno di un qualsiasi punto. La teoria delle particelle elementari ritrova così, dopo oltre mezzo secolo, la via indicata da Albert Einstein nel 1916 con la sua teoria delle forze gravitazionali. Nella teoria di Einstein la forza di gravità è necessaria conseguenza della invarianza rispetto a trasformazioni arbitrarie dei sistemi di coordinate. Per questo la teoria della gravitazione è anche detta "relatività generale". L'invarianza rispetto a trasformazioni arbitrarie delle coordinate è una invarianza locale, dato che essa implica anche invarianza rispetto a trasformazioni che modificano il sistema di coordinate solamente in un piccolo intorno di un qualsiasi punto dello spazio-tempo. La direzione indicata dal modello standard e dalla teoria di Einstein è una in cui le forze della natura derivano dall'invarianza locale rispetto ad un insieme di trasformazioni che modificano, nell'intorno di ogni punto fisico, sia la geometria spazio-temporale, sia quella più riposta che sottende la descrizione dei campi di forza. Si trova così una concettuale unificazione della gravitazione con le altre forze elementari. Per varie ragioni, la struttura attuale del modello standard non è considerata definitiva. Manca ancora una più profonda integrazione tra la gravitazione e le altre interazioni fondamentali, come manca anche una interpretazione per l'esistenza dei campi fermionici che sia altrettanto soddisfacente di quella data all'esistenza dei campi bosonici. Molti tentativi si sono susseguiti in questi ultimi anni alla ricerca di questa ultima unificazione e le migliori speranze sono oggi riposte nella direzione delle teorie a superstringhe. Mentre nello sviluppo della teoria lo studio della gravitazione ha preceduto di decenni quello delle altre forze fondamentali, la situazione si ribalta se consideriamo quel che succede nel campo delle ricerche sperimentali. Se consideriamo il caso dell' elettromagnetismo, vediamo come dallo studio di campi stazionari, culminato nelle esperienze di Faraday del 1830, si sia passati allo studio delle onde elettromagnetiche verso la fine del secolo, quindi ai quanti della radiazione elettromagnetica sino a studiare i più raffinati effetti dello scambio virtuale di quanti elettromagnetici (Lamb shift, momento magnetico anomalo dell'elettrone, etc.). Nel campo delle interazioni gravitazionali il progresso è stato enormemente più lento, dato che le molteplici verifiche della validità della teoria di Newton prima, di quella di Einstein poi, si limitano essenzialmente allo studio di campi gravitazionali stazionari. E' qui l'interesse, centrale per lo sviluppo della fisica, dei tentativi di rivelare e di studiare la radiazione gravitazionale. Come ricordato nel corso di questo volume, fu proprio Edoardo Amaldi ad intuire per primo, in Italia, l'importanza di questi studi, ad incoraggiarne l'inizio e seguirne con costanza gli sviluppi e tra l'altro a sostenere con intuizione profetica (le teorie di gauge non si erano ancora affermate) che questi studi fossero da accostare a quelli sulla fisica delle particelle e delle interazioni fondamentali. Amaldi riuscì così a convincere sia l'INFN a farsi carico di questa ricerca, che il CERN di Ginevra ad ospitarla. Un ruolo importante nel coordinamento delle ricerche sulle onde gravitazionali è quello ricoperto dal CIRG, inizialmente concepito per coordinare il lavoro svolto presso il dipartimento di Fisica dell'Università di Roma I "La Sapienza" e la sezione di Roma dell'INFN, con quello che si sarebbe svolto nel nascente dipartimento di Fisica dell'Università di Roma II "Tor Vergata" e nell'Università di Trento. Al CIRG ha in seguito anche aderito l'Università di L'Aquila. Questo volume presenta uno spaccato del lavoro svolto dal Centro nei primi anni del suo funzionamento, che ha visto i vari gruppi raggiungere un indiscusso primato nel mondo per l'affidabilità e la sensibilità dei rivelatori man mano messi in opera, tanto che la rivelazione di radiazione gravitazionale proveniente dal Cosmo sembra ormai, se non proprio a portata di mano, un traguardo raggiungibile.


LE ORIGINI DEL CIRG

La fisica della gravitazione è il campo in cui per eccellenza esperimento e teoria si confrontano. Così è stato da oltre trecento anni, dalle osservazioni molto precise di Tycho Brahe a quelle dei nostri giorni eseguite con le più raffinate tecnologie spaziali, dalla teoria di Newton a quella di Einstein. Trecento anni fa le osservazioni sperimentali precedevano la teoria, oggi la teoria precede le osservazioni e vari esperimenti sono in corso nel mondo per verificare le previsioni più sottili e dettagliate della teoria della Relatività Generale. Fra queste emerge quella della esistenza delle onde gravitazionali. Un interesse diretto nel problema delle onde gravitazionali fu suscitato nel 1961 all'Istituto di Fisica dell'Università di Roma da Edoardo Amaldi. Egli, nell'estate di quell'anno, aveva frequentato il secondo corso della Scuola Internazionale Enrico Fermi di Varenna seguendo le lezioni di Joe Weber sui metodi di misura e produzione delle onde gravitazionali. Nel febbraio 1968 il Prof. William M. Fairbank, dell'Università di Stanford, venne a Roma per un anno sabatico presso il Prof. Giorgio Careri. Egli ebbe così modo di comunicare, a Careri e poi ad Amaldi, la sua intenzione di iniziare una esperienza del tipo di quelle di Weber ma facendo uso delle bassissime temperature. I contatti fra Fairbank ed Amaldi risultarono subito molto promettenti anche se nessuno a Roma aveva ancora manifestato una concreta intenzione di impegnarsi in questo campo. Infine, all'inizio del settembre 1970, Guido Pizzella, in seguito a stimolanti discussioni con Amaldi e Remo Ruffini, proponeva ad Amaldi di iniziare un'attività sperimentale per la ricerca delle onde gravitazionali. Dopo aver visitato alcuni gruppi europei che già si occupavano di questa tematica, apparve subito chiaro che questa ricerca andava affrontata mediante le più avanzate tecniche sperimentali, ed in particolare facendo uso della tecnologia delle bassissime temperature. Era quindi necessario formare un gruppo di fisici sperimentali molto competenti in diversi settori, in particolare: basse temperature, elettronica, teoria dell'informazione. Sin dall'inizio Pizzella stabilì dei contatti con Massimo Cerdonio, esperto in superconduttività ed in particolare nell'uso di giunzioni Josephson (il quale si era già interessato, indipendentemente, ai lavori di Weber sulle onde gravitazionali), e, subito dopo, con Ivo Modena, che aveva realizzato il primo refrigeratore in Italia a smagnetizzazione adiabatica per raggiungere temperature vicino ad un millesimo di kelvin. Il fisico esperto in elettronica e teoria dell'informazione fu individuato in Gian Vittorio Pallottino il quale, insieme a Renzo Marconero e Sergio Cantarano, aveva realizzato l'elettronica del primo esperimento spaziale europeo sul vento solare. A questo gruppo iniziale si vennero aggregando, nel corso di vari anni, tutti gli altri che oggi costituiscono uno dei gruppi più qualificati al mondo per esperimenti terrestri di Relatività Generale. Un viaggio nel 1971 negli Stati Uniti di Cerdonio, Marconero, Modena e Pizzella formalizzò una collaborazione con il gruppo di Stanford (prof. W. M. Fairbank) e della Louisiana (prof. W. O. Hamilton) per la realizzazione di tre antenne gravitazionali costituite ciascuna da un cilindro di alluminio di 5 tonnellate raffreddato a 20 mK ed equipaggiato con trasduttori basati sull'impiego di amplificatori superconduttori ad effetto Josephson. Il gruppo di Roma iniziò subito la costruzione del grosso criostato necessario per raffreddare la sbarra da 5.000 kg e contemporaneamente costruì un piccolo criostato per raffreddare una sbarra di 30 kg per eseguire prove preliminari. Nel 1974 il grosso criostato era quasi completato, ma insorsero problemi tecnici dovuti al fatto che in Europa le tecnologie per la lavorazione e saldatura dell'alluminio non erano ancora adeguatamente sviluppate. Fu deciso allora di avanzare a passi più piccoli sviluppando, in questo procedere, le varie tecnologie necessarie all'impresa. Fu costruito presso l'allora Laboratorio per lo Studio del Plasma dello Spazio del C.N.R. (ora Istituto di Fisica dello Spazio Interplanetario) un criostato per raffreddare a 2 K una antenna di 400 kg. A questo lavorò appassionatamente Umberto Giovanardi, prematuramente scomparso nel 1980. L'antenna funzionò per alcuni mesi nel periodo dal 1978 al 1980 producendo dati ed esperienza essenziali per poter procedere nella costruzione dell'antenna più grande. Apparve anche chiaro che, a quell'epoca, non era facile costruire e gestire in Italia un'antenna di grosse dimensioni. Fu deciso allora di riprendere e completare la costruzione della grossa antenna del progetto iniziale, proponendone l'installazione presso il CERN a Ginevra. Nel 1979, in una riunione cui parteciparono Amaldi, Modena, Pallottino e Pizzella ed il direttore generale del CERN, prof. L. Van Hove, fu siglato un accordo fra l'Università di Roma ed il CERN con il quale il CERN si impegnava a mettere a disposizione lo spazio necessario nei suoi laboratori di Ginevra ed a fornire i liquidi criogenici. Nello stesso periodo (inizio degli anni 80), inizia il proficuo rapporto di collaborazione dei gruppi universitari con l'INFN, che ha da allora sostenuto in maniera molto efficiente l'attività sperimentale di gravitazione in Italia, fornendo disponibilità finanziarie e strutture amministrative e logistiche. Da quell'epoca molto lavoro è stato fatto, come cerchiamo di documentare in questa brochure, ed il gruppo italiano dispone oggi delle antenne gravitazionali più sensibili al mondo. Si è ormai molto prossimi a raggiungere l'obiettivo che il professor Edoardo Amaldi aveva intravisto nel 1961: migliorare la nostra comprensione della forza di gravità ed effettuare osservazioni astronomiche attraverso una nuova straordinaria ed insostituibile finestra che potrà fornire una rivoluzionaria visione dell'Universo.


LE ONDE GRAVITAZIONALI

Fra le quattro forze della natura la forza gravitazionale è quella nota da più tempo pur essendo di gran lunga la più debole. Gli aspetti fondamentali e più importanti della gravitazione furono riconosciuti da Galileo nel XVII secolo e la sua legge (statica) fondamentale fu definita da Newton verso la fine dello stesso secolo. La teoria della Relatività Generale di Albert Einstein, elaborata all'inizio di questo secolo, diede un quadro di insieme per la forza gravitazionale analogo alla sintesi di Maxwell per le forze elettromagnetiche. Come per i campi elettromagnetici, la teoria prevede che il campo gravitazionale si possa manifestare anche sotto forme di onde, che si propagano alla velocità della luce. Le onde gravitazionali vengono emesse da moti d'insieme delle masse che sono sorgenti del campo stesso. Per questo motivo, lo studio delle onde gravitazionali fornisce informazioni non solo sulla posizione della sorgente, ma anche sul moto collettivo della materia che le genera. La difficoltà della rivelazione delle onde gravitazionali risiede nella loro debolissima interazione con la materia: ad esempio, un'onda gravitazionale che attraversasse il Sole, perderebbe solo un decimilionesimo di miliardesimo (una parte su 10 16 ) della sua energia. Per confronto, ricordiamo che un fascio di neutrini, che sono le particelle con la più debole interazione con la materia, nell'attraversamento del Sole perderebbe cento miliardesimi (una parte su 10 7 ) della sua energia. Per tale motivo, la verifica sperimentale dell'esistenza delle onde gravitazionali si è indirizzata verso la rivelazione di eventi astrofisici catastrofici, dove un'enorme quantità di energia viene emessa sotto forma di onde gravitazionali. Esempi tipici dei processi di emissione significativi sono le esplosioni di supernova, le formazioni di buchi neri e le collisioni di oggetti celesti massicci.


ASPETTI TEORICI

La teoria delle interazioni fondamentali si basa oggi su uno schema di validità generale (la teoria dei campi) secondo il quale ad ogni forza è associata una corrispondente radiazione. Così, come nella teoria sviluppata da Maxwell (circa un secolo e mezzo fa) l'esistenza delle forze elettriche implica l'esistenza della radiazione elettromagnetica (la luce come caso particolare), nella teoria proposta per la prima volta da Einstein (circa settanta anni fa e nota come Teoria della Relatività Generale) l'esistenza dell'attrazione gravitazionale (responsabile, ad esempio, del legame del nostro corpo alla Terra, della Luna alla Terra, della Terra al Sole etc.) implica l'esistenza di una corrispondente radiazione, appunto la radiazione gravitazionale. In questo schema la sua esistenza è indubbia, e la predizione teorica è precisa: una qualunque massa, se accelerata rispetto ad un sistema inerziale, emette radiazione gravitazionale. Questa certezza teorica deve ovviamente accompagnarsi ad una certezza sperimentale. I problemi che nascono a questo proposito sono connessi alla realizzazione sia di una sorgente che di un rivelatore, e le difficoltà tecniche sono enormi a causa della enorme debolezza della forza gravitazionale rispetto a quella elettrica. Queste difficoltà, ben documentate in questo rapporto, sono una sfida lanciata dalla natura e raccolta in molti laboratori di vari paesi (USA, URSS, Cina, Giappone, Australia, Germania, Italia, etc.). Nel progetto di ricerca sulla radiazione gravitazionale, al lavoro sperimentale si accompagna un lavoro teorico che riguarda i tre processi base del fenomeno: quello dell'emissione (problema della sorgente), quello della propagazione e quello della rivelazione. Un sistema di masse che emette radiazione gravitazionale perde energia che viene appunto trasportata dalla radiazione. Una sorgente è quindi tanto più adatta all'esperimento quanto maggiore è l'energia che riesce a emettere. Questa si può calcolare e la teoria mostra che l'energia di radiazione emessa da masse accelerate in laboratorio è troppo piccola per essere osservabile con gli attuali rivelatori. La conclusione di questa analisi è che le sorgenti di radiazione gravitazionale devono necessariamente coinvolgere masse pari a quella di una o più stelle. La conseguenza importante è che, come fa un telescopio con la luce, un rivelatore di onde gravitazionali osserva corpi celesti, per esempio stelle binarie, nuclei galattici o supernovae, sui quali fornirà quindi nuove e preziose informazioni. A questo riguardo è importante fare il calcolo preciso dell'energia emessa dai diversi corpi celesti, e determinare anche le proprietà della radiazione, quali la sua distribuzione alle varie frequenze ed il suo stato di polarizzazione. Dobbiamo inoltre notare che la Relatività Generale proposta da Einstein non è la sola teoria delle forze gravitazionali, e che altre formulazioni teoriche sono altrettanto accettabili a priori; solo nel confronto con i dati sperimentali sarà possibile abbandonare o convalidare queste teorie in competizione. Queste teorie fanno predizioni diverse sia per l'emissione che per l'assorbimento (vedi più avanti) della radiazione gravitazionale; pertanto la rivelazione di radiazione gravitazionale darà un importante contributo alla individuazione della corretta teoria della gravitazione. Consideriamo ora la propagazione della radiazione gravitazionale dalla sorgente alla Terra, dove viene rivelata. Se, ad esempio, la sorgente è la supernova SN1987A osservata recentemente, la radiazione viaggia (alla velocità della luce pari a trecentomila chilometri al secondo) per centosettantamila anni prima di raggiungere il nostro pianeta. A causa di questa enorme distanza (170 mila anni- luce), se si fa l'ipotesi che la radiazione sia emessa con uniformità in tutte le direzioni, solo una frazione piccolissima dell'energia irradiata arriva nel rivelatore. Questa predizione, sebbene molto ragionevole, è basata su ipotesi che semplificano fortemente i calcoli. In realtà la teoria di Einstein, come anche altre teorie della gravitazione, è molto complicata perché prevede che le onde gravitazionali, nel propagarsi, interagiscono tra loro (teoria non lineare). L'effetto di questa "auto-interazione" è molto piccolo, ma potrebbe accumularsi durante i centosettantamila anni di propagazione e diventare tutt'altro che trascurabile. Inoltre bisogna tener presente che lo spazio interstellare in cui la radiazione gravitazionale si propaga non è rigorosamente vuoto ma contiene della materia diffusa. Sebbene la sua densità sia piccola, l'interazione gravitazionale con questa materia può dar luogo a fenomeni di dispersione. In base a queste considerazioni, è compito della ricerca teorica valutare esattamente l'entità di questi effetti. Questa ricerca viene fatta sfruttando la teoria dei solitoni in base alla quale gli effetti di dispersione potrebbero bilanciare quelli di "auto-interazione" dando luogo a pacchetti d'onda che si propagano senza disperdersi. Se questa previsione si rivelasse corretta, l'energia di radiazione che arriva sulla Terra (e le sue proprietà) potrebbe essere diversa da quella predetta oggi in base a calcoli semplificati. Consideriamo infine il processo di rivelazione della radiazione gravitazionale. Questo avviene mediante l'assorbimento dell'energia da parte di una barra di alluminio che si mette a vibrare quando viene sollecitata dalla radiazione gravitazionale. A causa dell'estrema piccolezza delle ampiezze delle vibrazioni in gioco, i problemi connessi con il processo di assorbimento sono molteplici, sia sperimentali che teorici. Tra questi ultimi vogliamo considerarne uno che ha rilevanza per la teoria stessa della gravitazione. Come un qualunque strumento musicale a percussione può emettere solo determinati suoni (per esempio una corda di pianoforte o un tamburo), così la sbarra di alluminio può vibrare compiendo movimenti torsionali (intorno al proprio asse) o longitudinali (lungo l'asse) o radiali (perpendicolari all'asse) o con combinazioni più o meno complicate di questi movimenti. La teoria dell'interazione della barra con la radiazione gravitazionale prevede due proprietà interessanti: 1) non tutti i moti vibrazionali sono eccitati dalla radiazione gravitazionale, 2) teorie diverse della gravitazione predicono l'eccitazione di moti vibrazionali diversi. La prima proprietà ha una grande importanza nella progettazione dello stesso rivelatore perché permette una maggiore efficienza di rivelazione studiando i segnali in coincidenza tra due moti eccitabili o in anticoincidenza tra un moto eccitabile ed uno non eccitabile. Questa ultima tecnica di rivelazione è forse più facilmente realizzabile se si considera che la frequenza oggi osservata (ad esempio per una barra lunga 150 cm e di raggio 30 cm) è di 1750 Hz e che i moti torsionali non eccitabili sono a frequenze di 1067 Hz, 2135 Hz e 3202 Hz mentre il più vicino moto longitudinale non eccitabile è a 3430 Hz, cioè ancora entro la banda delle frequenze della radiazione emessa, per esempio, da una supernova. La seconda conseguenza di questo studio è di grande importanza teorica, in quanto suggerisce il modo di costruire un rivelatore capace di distinguere tra loro le diverse teorie della gravitazione che sono ancora compatibili con gli attuali dati sperimentali. Infatti, mentre la teoria di Einstein prevede che la radiazione gravitazionale, come la luce, abbia solo due stati di polarizzazione, altre teorie (come quella di Brans e Dicke) predicono una radiazione con tre stati di polarizzazione (un campo scalare oltre a quello tensoriale). Di conseguenza, per riprendere l'esempio precedente, il moto longitudinale della sbarra (quello rivelato a 1750 Hz) non è eccitabile dalla radiazione di Einstein quando questa si propaga lungo l'asse della barra, ma è eccitabile dalla radiazione (scalare) predetta da Brans-Dicke. Lo sviluppo di questa tecnica di rivelazione di radiazione gravitazionale, mediante l'eccitazione di una barra elastica, potrebbe quindi portare nel futuro ad importanti cambiamenti nella nostra attuale comprensione delle forze gravitazionali. Accenniamo infine ad un problema che ha recentemente suscitato interesse nell'ambiente dei fisici teorici. Semplici considerazioni conducono ad una classica formula per la sezione d'urto per le onde gravitazionali. Questa predice che l'energia assorbita da un'antenna dipenda, oltre che dalla sua orientazione rispetto alla sorgente e da alcune costanti (velocità della luce e del suono, costante di gravitazione), unicamente dalla sua massa. Questa formula, accettata per oltre vent'anni, è ora oggetto di discussione da parte di alcuni studiosi, fra cui Joseph Weber e Giuliano Preparata, secondo cui l'eccitazione coerente, dovuta all'onda gravitazionale, degli atomi dell'antenna potrebbe condurre a valori della sezione d'urto molto maggiori.


SORGENTI DI ONDE GRAVITAZIONALI

Nel capitolo precedente abbiamo visto come l'emissione di onde gravitazionali dipenda dalla massa di un corpo e dal suo stato di moto, e come l'energia emessa in questa forma sia estremamente piccola. Quindi le uniche sorgenti che si possono considerare ai fini pratici di una possibile rivelazione sono quelle astrofisiche, caratterizzate dal moto di masse dell'ordine di varie masse solari accelerate a velocità prossime a quelle della luce. Tali sorgenti sono ad esempio le supernovae, le stelle di neutroni, i buchi neri. Questi oggetti compatti possono generare onde gravitazionali di intensità relativamente elevata sia in modo impulsivo, come accade ad esempio durante l'esplosione di una supernova o durante la cattura di materia da parte di un buco nero o di una stella di neutroni, sia in modo continuo, come nel caso delle stelle di neutroni ruotanti (le Pulsar) o dei sistemi binari composti da due oggetti collassati. La previsione teorica delle forme d'onda e delle intensità emesse in questi processi è estremamente complessa e, non essendo ancora molto sviluppata, è argomento di confronto per gli astrofisici teorici. Inoltre, è estremamente difficile anche l'identificazione di fenomeni di questo tipo sulla base delle sole osservazioni elettromagnetiche, per cui gli esempi ragionevolmente certi di buchi neri sono per ora pochissimi. Per quanto riguarda le stelle di neutroni, invece, la situazione osservativa è migliore perché questi oggetti sono spesso potenti emettitori di raggi X ed onde radio con una distribuzione sia spaziale che spettrale nota che ne facilita l'identificazione. La sorgente di onde gravitazionali forse meglio conosciuta dal punto di vista osservativo è sicuramente la famosa "stella doppia di Taylor'', scoperta nel 1974 dal fisico statunitense G.B. Taylor. Si tratta di un sistema binario composto da due stelle di neutroni che ruotano l'una intorno all'altra su un'orbita molto ravvicinata, in presenza di campi elettromagnetici relativamente deboli. Un tale sistema si è rivelato ideale per la verifica indiretta delle previsioni fornite dalla Relatività Generale per l'emissione di onde gravitazionali: l'energia persa dalle due stelle di neutroni durante il loro moto è essenzialmente dovuta all'emissione di radiazione gravitazionale, ed ha come conseguenza la variazione del periodo della loro orbita, un parametro ben osservabile dalla Terra. Durante gli ultimi otto anni questo parametro è stato misurato con sempre maggiore precisione, fornendo valori in accordo con le previsioni teoriche fino ad una parte su cento. Si tratta della prima prova sperimentale, benché indiretta, dell'esistenza delle onde gravitazionali nella forma prevista dalla teoria di Einstein. Purtroppo, le onde emesse da questo sistema binario hanno una frequenza estremamente bassa, che rende problematica la loro rivelazione sperimentale diretta. I vari gruppi nel mondo che stanno lavorando per cercare di rivelare le onde gravitazionali si affidano essenzialmente a due tipi di sorgenti: le esplosioni di supernovae per quanto riguarda gli eventi impulsivi, e le pulsar per le onde continue. Attualmente, lo scopo principale delle antenne gravitazionali sviluppate dal gruppo di Roma è rivolto appunto alla rivelazione di onde gravitazionali emesse dall'esplosione di supernovae. Sono queste le sorgenti meglio conosciute e più potenti. Tuttavia, le esplosioni di supernovae sono estremamente rare nella nostra galassia: si stima che ne avvenga, in media, una ogni 25 anni. Questi eventi, inoltre, molto spesso non sono osservabili otticamente dalla Terra perché nascosti dalle altre stelle che compongono la Via Lattea. E' necessario quindi riuscire ad osservare eventi che avvengono nelle galassie che circondano la nostra, in modo da aumentare la frequenza globale delle esplosioni di supernovae ad almeno alcuni eventi l'anno. Osservando la distribuzione di galassie intorno alla nostra si trova che questo significa dover spingere la sensibilità delle antenne fino a giungere al più vicino ammasso di galassie, quello della Vergine, a circa 60 milioni di anni luce da noi. Questo obiettivo osservativo è una delle principali condizioni che influenzano la progettazione degli esperimenti per la rivelazione delle onde gravitazionali.


PERCHÉ QUESTI ESPERIMENTI

Fra tutti i campi di forza il campo gravitazionale è quello noto all'uomo da più lungo tempo. I suoi effetti immediati erano evidenti anche all'uomo primitivo. Una delle sue proprietà fondamentali e più importanti (che oggi va sotto il nome di principio di equivalenza) fu riconosciuta da Galileo all'inizio del secolo XVII e la sua legge statica fondamentale fu stabilita da Newton verso la fine dello stesso secolo. Ciononostante la forza gravitazionale è oggi la meno compresa scientificamente fra le forze fondamentali, che sono : la forza nucleare forte, le forze elettromagnetica e debole, recentemente unificate, e la forza gravitazionale. Il motivo di ciò sta nel fatto che la forza gravitazionale è estremamente più debole delle altre, di un fattore dell'ordine 10 38 . Pertanto un esperimento che miri a fare misure gravitazionali è disturbato dalla presenza delle altre forze, a meno di non considerare corpi di dimensioni molto grandi: in tal caso le forze gravitazionali, che sono solo attrattive ed a lungo raggio d'azione, raggiungono un valore elevato, mentre le altre forze tendono ad annullarsi perchè hanno corto raggio d'azione, o perchè, essendo sia attrattive che repulsive, si mediano a zero. La teoria di Einstein, e così pure la maggioranza delle altre teorie sulla gravitazione, prevede l'esistenza delle onde gravitazionali, ossia di campi gravitazionali che, come i campi elettromagnetici, si propagano nello spazio alla velocità della luce. Il problema dell'esistenza di tali onde è legato al problema fondamentale dell'aspetto corpuscolare e ondulatorio della materia, particelle e campi. Scriveva Einstein: "Si ha materia ove la concentrazione dell'energia è grande; si ha campo ove la concentrazione dell'energia è debole. Il nostro problema finale sembra dover consistere nella modificazione delle leggi di campo, in guisa tale che esse non cessino di essere valide nelle regioni di grandissima concentrazione dell'energia. Ma finora non siamo ancora riusciti a realizzare questo programma in forma convincente e coerente". La scoperta delle onde gravitazionali certamente farà fare grossi passi avanti nella comprensione di questo problema. La debolezza della forza gravitazionale presenta uno svantaggio ma anche un vantaggio. Lo svantaggio, come già detto, consiste nella grande difficoltà di rivelarla. Il vantaggio consiste nel fatto che, una volta trovato il modo di rivelare le onde, si disporrà di una sonda potente per esplorare la materia ed in particolare l'Universo nei suoi accessi più reconditi, poiché, appunto per la debole interazione, le onde gravitazionali sono in grado di attraversare grandi quantità di materia, perfino un intero Sole, senza quasi perdere la propria energia. E così finalmente si saprà quel che a noi è nascosto dalla polvere interstellare, e quel che c'è nel centro delle galassie. Una semplice schematizzazione dell'interesse specifico di queste ricerche può essere la seguente: a) discriminazione fra le varie teorie della gravitazione (per es.: qual'è la velocità delle onde gravitazionali?). b) disponibilità di una sonda potente per studiare l'Universo ed in particolare i centri galattici e le stelle collassate. c) collegamento cruciale fra la Relatività Generale e le frontiere della fisica microscopica. Più specificatamente, dal punto di vista astrofisico, la scoperta delle onde gravitazionali aprirà una nuova finestra di osservazione dell'Universo. L'informazione che esse trasportano riflette la distribuzione su larga scala della materia; per contrasto, le onde elettromagnetiche danno informazioni sulla scala atomica, la qual cosa rende molto difficile fare modelli di oggetti dalle dimensioni stellari. La eventuale scoperta delle onde gravitazionali si svolgerà in due tempi successivi. In un primo tempo si vedrà se queste onde esistono realmente; la loro non-esistenza darebbe molto filo da torcere ai fisici teorici. In un secondo tempo si dovranno studiare le loro proprietà: forma d'onda, spettro, intensità, polarizzazione e direzione di provenienza. In un futuro più lontano, ma non per questo da non prendere in considerazione, esse potrebbero venire prodotte in laboratorio ed usate per fini, come si suol dire, più pratici.


COME FUNZIONA UN'ANTENNA GRAVITAZIONALE

Un'antenna è uno strumento che serve a captare, o a trasmettere, la radiazione. Nel caso delle onde elettromagnetiche, l'antenna consiste, nella versione più semplice, in un conduttore le cui cariche elettriche vengono messe in oscillazione dal campo elettrico dell'onda incidente, creando così un segnale elettrico. Per le onde gravitazionali la situazione è più semplice in principio, ma molto più complessa nella realizzazione pratica. Infatti, l'interazione di un'onda gravitazionale con lo spazio da essa investito consiste semplicemente nel far variare la distanza tra i punti dello spazio, con frequenza pari a quella dell'onda stessa e con ampiezza pari al prodotto della distanza stessa per l'ampiezza h dell'onda. Un'antenna ideale consiste quindi in due masse elementari, poste ad una certa distanza, e in un dispositivo per misurare una piccola, temporanea variazione oscillatoria di tale distanza. Ad esempio, nell'esplosione di una stella supernova al centro della nostra galassia si dovrebbe produrre un'onda gravitazionale della durata di circa 1 millesimo di secondo, che trasporta un'energia di 10 46 J. Tuttavia, quest'onda produrrà sulla Terra una oscillazione di ampiezza pari a 1 miliardesimo del diametro di un'atomo (~10 -18 m) tra due corpi distanti 1 metro l'uno dall'altro. Ad oggi sono stati proposti e realizzati tre sistemi per misurare questa vibrazione: a) collegare le due masse con un raggio di luce, inserendole in un interferometro, b) misurare l'effetto Doppler di un'onda elettromagnetica riflessa fra le due masse, c) collegare tali masse con una molla, ed osservare il lento decadimento dell'oscillazione indotta dall'onda gravitazionale. In pratica, le due masse unite con una molla (oscillatore semplice) sono ben approssimate da un corpo elastico continuo (oscillatore distribuito) quale ad esempio un cilindro di alluminio. E' quest'ultimo tipo, quello prescelto dal gruppo di Roma per la propria attività, su cui ci soffermeremo. Rispetto al caso delle onde elettromagnetiche, la realizzazione di un'antenna gravitazionale presenta vari aspetti che la rendono più complessa: per prima cosa, non esistendo le masse negative, non vi sono dipoli di massa, e quindi l'oscillazione fondamentale è di quadrupolo; in secondo luogo l'accoppiamento tra onda e materia è molto più debole, cosicché le quantità di energia depositate in un'antenna sono incredibilmente più piccole; la terza complicazione deriva dal fatto che gli atomi messi in oscillazione dall'onda sono elettricamente neutri, per cui alla vibrazione meccanica dell'antenna non corrisponde un segnale elettrico rivelabile. La scelta di come costruire un'antenna è quindi quasi obbligata: occorre impiegare un corpo con una grande massa, affinchè interagisca di più con l'onda, che sia disposta in maniera tale da avere un momento di quadrupolo (per esempio una sbarra cilindrica). Per migliorare la risposta all'onda si farà sì che tale antenna abbia una risonanza meccanica alla frequenza a cui si cerca di rivelare la radiazione (generalmente intorno a 1 kHz). Occorre poi equipaggiare questa antenna con un dispositivo, detto trasduttore elettromeccanico, che converta le vibrazioni in segnali elettrici (come un microfono o la puntina di un giradischi). Le antenne risonanti operano secondo questo principio di massima, che è invariato, nonostante i molti affinamenti tecnici, da più di trenta anni. Un'antenna gravitazionale quindi assorbe una minuscola frazione dell'energia della radiazione che giunge su di essa, entra in vibrazione e fa vibrare insieme ad essa il trasduttore; il segnale elettrico prelevato da questo viene amplificato e misurato periodicamente (per esempio, ogni secondo, campionato da un calcolatore) alla ricerca di una brusca variazione, che indichi la presenza di una eccitazione impulsiva sull'antenna. Sebbene semplice in principio, il funzionamento di un'antenna è complicato dalla presenza del rumore, cioè di segnali spuri di origine sia esterna che interna all'antenna stessa, che possono essere erroneamente scambiati per eccitazioni di origine gravitazionale. Ed è appunto sulla riduzione del rumore che si è concentrato il progresso tecnologico di questi anni, nulla potendosi fare riguardo al segnale! Accenniamo qui alle problematiche principali, che saranno discusse in dettaglio nelle pagine seguenti. - L'antenna deve essere libera di vibrare se eccitata da un'onda, ma deve essere immune da disturbi meccanici ed acustici esterni. A tale scopo essa viene sospesa in vuoto mediante sistemi di filtri meccanici che devono isolarla dal rumore esterno. - Il materiale di cui è composta l'antenna deve essere scelto tale che la risonanza utilizzata abbia un tempo di decadimento il più lungo possibile, per poter meglio discriminare segnali che eccitano l'antenna (e che decadono lentamente) da impulsi spuri di origine elettrica e di breve durata. - Gli atomi che compongono l'antenna tendono a vibrare in maniera disordinata, con una energia media proporzionale alla temperatura. Questo rumore di fondo è chiamato anche moto Browniano (dal nome dello scienziato che lo scoprì nel 1827 osservando il moto di particelle microscopiche in sospensione liquida): per poter distinguere la vibrazione indotta dall'onda gravitazionale è opportuno ridurre quest'agitazione termica, e ciò è possibile solo riducendo la temperatura: se l'ampiezza di tali oscillazioni in un cilindro del peso di due tonnellate è di 10 -16 m a temperatura ambiente, essa scende a 10 -18 m alla temperatura di 0,03 K (-273,1 C). L'impiego di tecnologie di basse temperature (tutt'altro che banale, viste le dimensioni degli oggetti) è stato e sarà cruciale nel migliorare la sensibilità dei rivelatori. - Il trasduttore deve estrarre energia meccanica dalla vibrazione e convertirla in energia elettrica; tale processo va effettuato con la maggiore efficienza possibile, e senza introdurre rumore addizionale o perturbare in alcun modo l'antenna: lo sviluppo di nuovi trasduttori sempre più avanzati è una sfida tuttora aperta per i ricercatori che operano in questo campo. - Il segnale prodotto dal trasduttore deve essere amplificato in maniera adeguata: ma ogni amplificatore introduce del rumore, sia sommato al segnale di uscita (rumore bianco), sia inviato all'indietro verso il trasduttore che, con una conversione inversa, lo trasforma in un'eccitazione per l'antenna. Le antenne gravitazionali hanno sempre utilizzato i migliori amplificatori disponibili, sfruttandone le prestazioni fino ai limiti. In particolare le antenne criogeniche utilizzano ora sensibilissimi SQUID, dispositivi che fanno uso di proprietà squisitamente quantistiche (tunnelling di coppie superconduttrici) su scala macroscopica. - Una volta amplificato e registrato, il segnale deve essere analizzato in modo da distinguere l'evento di natura "gravitazionale" (il segnale) da quelli dovuti agli ineliminabili disturbi (il rumore) cui abbiamo accennato, sfruttandone le diverse caratteristiche statistiche. Le tecniche di acquisizione e le procedure di analisi dei dati sono state oggetto di studio e di innovazioni, sia importando procedure tipiche di altri campi (esempio classico, le comunicazioni radio), sia sviluppando strategie nuove e specifiche. In conclusione, la rivelazione delle onde gravitazionali è un progetto concettualmente semplice quanto misurare la distanza tra due punti, ma nella pratica, data l'estrema esiguità dell'effetto, la sfida tecnologica che ci troviamo a raccogliere è tra le più impegnative. E' in questo duplice aspetto che risiede il grande fascino di questa ricerca.


TRASDUTTORI

Supponiamo che un impulso gravitazionale investa l'antenna, depositando energia meccanica nel primo modo di vibrazione longitudinale. Supponiamo inoltre di disporre di un amplificatore di segnali elettrici. Il problema che si pone è come trasformare l'energia meccanica presente nell'antenna in un segnale (corrente o tensione) tale da poter essere letto dall'amplificatore. Questo è il compito del cosiddetto trasduttore le cui caratteristiche devono essere tali da operare in maniera il più efficiente possibile la conversione
Energia Meccanica
ß
Energia Elettromagnetica
In aggiunta alla semplice trasduzione, un trasduttore può essere progettato in modo da operare anche una trasformazione di impedenza meccanica trasferendo in un modo del trasduttore la quasi totalità dell'energia meccanica depositata nell'antenna. Questo viene ottenuto facendo coincidere uno dei modi di vibrazione del trasduttore con il primo modo longitudinale dell'antenna: il sistema così composto non è altro che un insieme di due oscillatori accoppiati in cui l'energia si trasferisce da un oscillatore all'altro con il tempo caratteristico di battimento del sistema. Si verifica in questo caso un fenomeno di «amplificazione meccanica», nel senso che il trasduttore vibra con ampiezza assai maggiore dell'antenna. Tale tipo di trasduttore prende il nome di trasduttore risonante. Una ulteriore distinzione fra i vari tipi di trasduttori può essere fatta dividendoli in passivi ed attivi; è ovvio che in quest'ultimo caso, in cui una "pompa" (per esempio un generatore a radio frequenza) inietta continuamente energia nel sistema, l'efficienza del trasferimento di energia dall'antenna all'amplificatore può essere in linea di principio maggiore di 1 a spese però di una serie di rumori addizionali legati ai generatori che "attivano'' il trasduttore. In questa presentazione parleremo dei trasduttori usati e/o in corso di sviluppo dal gruppo di Roma e cioè piezoelettrici (passivi), induttivi (passivi), capacitivi (passivi ed attivi).
Trasduttori Piezoelettrici
Un trasduttore piezoelettrico (cristallo o ceramica) può essere schematizzato come un parallelepipedo con due facce opposte metallizzate che fornisce una tensione proporzionale alla deformazione meccanica cui è soggetto. Un tipico piezoelettrico, costituito da una ceramica di titanato di bario, ha una costante di trasduzione di ~4 . 10 7 V/m; ciò significa che se l'antenna vibra con oscillazioni di 10 -16 m di ampiezza, il segnale elettrico è di 4 . 10 -9 V. Nel caso particolare di un piezoelettrico utilizzato per misurare le vibrazioni di un'antenna gravitazionale, la tecnica da noi usata consiste nell'inserire il piezoelettrico in uno scasso praticato nella sezione baricentrale della sbarra. Questo tipo di trasduttore, mentre da un lato è decisamente il migliore per quel che riguarda la semplicità di operazione e l'affidabilità, d'altro canto ha lo svantaggio di possedere un basso fattore di qualità che lo rende inadatto per misure di altissima sensibilità. Cionondimeno è stato usato con successo per molti anni in una serie di misure volte a studiare il sistema antenna-trasduttore- amplificatore a FET, permettendo di "dimenticarsi'' dei problemi legati al funzionamento del trasduttore, ed è tuttora usato in alcune antenne funzionanti a temperatura ambiente.
Trasduttori Risonanti Induttivi
I trasduttori utilizzati attualmente per le antenne criogeniche sono di tipo risonante. Questo significa che essi sono costituiti essenzialmente da un trasduttore elettromagnetico che rivela le vibrazioni di una piccola massa risonante accoppiata all'antenna ed avente la sua stessa frequenza di risonanza. In questo caso si dimostra che le oscillazioni della sbarra vengono amplificate dal risonatore di un fattore pari alla radice quadrata del rapporto tra la massa dell'antenna e quella del trasduttore. Normalmente questo fattore vale circa 100. Le vibrazioni raccolte e amplificate dalla piccola massa vibrante vengono poi rivelate tramite un trasduttore elettromagnetico di tipo induttivo o capacitivo, ed inviate ad un amplificatore a basso rumore, come un amplificatore a FET o un dc SQUID. Il primo tipo di trasduttore risonante utilizzato per un'antenna risonante criogenica è stato di tipo induttivo, realizzato da H.J. Paik nel 1973 per il gruppo dell'Università di Stanford. Questo trasduttore è costituito da una lamina risonante in niobio lavorata in modo da avere la stessa frequenza del primo modo longitudinale della sbarra di alluminio cui va accoppiato. Alla temperatura dell'elio liquido la massa di niobio diviene superconduttrice ed acquista quindi la caratteristica di non poter essere penetrata da alcun campo magnetico. Questo effetto, quando la lamina vibra, provoca variazioni di induttanza in una bobina superconduttrice piatta percorsa da una corrente elevata (qualche ampère) e affacciata a circa mezzo decimo di millimetro dalla lamina, e quindi un segnale elettrico rivelabile, ad esempio, tramite un dc SQUID. Il trasduttore sviluppato a Stanford ha permesso di ottenere alcune tra le migliori misure effettuate con un'antenna risonante criogenica. Il problema maggiore presentato da questo tipo di trasduttore è il basso valore del fattore di qualità elettrico. Questo diminuisce notevolmente il fattore di qualità complessivo del sistema, e quindi il tempo che impiega l'antenna a dissipare verso l'esterno l'energia ricevuta dal passaggio dell'onda gravitazionale.
Trasduttori Capacitivi
Il trasduttore utilizzato attualmente nelle antenne del gruppo di Roma è di tipo capacitivo risonante. La parte risonante del trasduttore ha la forma di un piatto libero ai bordi, che costituisce una delle armature di un condensatore ed è collegato per il centro ad una delle facce dell'antenna, a cui è solidale l'altra armatura. La capacità è polarizzata da una tensione continua, e quando il piatto vibra si hanno variazioni della distanza tra le armature del condensatore che generano un segnale elettrico. Questo viene rivelato dall' amplificatore a basso rumore che utilizza un dc SQUID. Dato che i segnali da rivelare sono estremamente deboli, il trasduttore capacitivo deve essere polarizzato con il campo elettrico più elevato possibile, poiché, a parità di eccitazione meccanica, il segnale elettrico generato è direttamente proporzionale all'intensità del campo elettrico applicato. Attualmente, il campo elettrico utilizzato è 5 . 10 6 V/m, di poco inferiore al valore cui si cominciano ad avere scariche elettriche nel vuoto. D'altra parte, un campo elettrico così elevato non deve pregiudicare il Q elettrico del sistema: quindi il materiale isolante utilizzato per collegare tra loro le armature del condensatore deve avere una resistenza elettrica molto elevata, che permetta di conservare la carica elettrica depositata sul trasduttore per un tempo molto lungo, e di non peggiorare il rumore intrinseco dell'amplificatore a cui esso è connesso. Attualmente si utilizza come isolante il teflon, le cui perdite corrispondono ad una resistenza elevatissima, dell'ordine di 10 15 W. Un'altra caratteristica fondamentale che deve possedere qualunque trasduttore è di non degradare il Q meccanico dell'antenna. Purtroppo, nessun trasduttore finora realizzato è in grado di conservare intatto il valore del Q meccanico dell'antenna disaccoppiata. Tuttavia, il trasduttore capacitivo del gruppo di Roma è attualmente quello che ha le migliori prestazioni in questo senso, per quanto riguarda le antenne risonati ad 1 kHz, riducendo il valore di Q da venti milioni a sei milioni, cioè soltanto di un fattore 3.
Trasduttori Capacitivi Attivi
I trasduttori attivi hanno la caratteristica di rivelare le vibrazioni del sistema utilizzando un accoppiamento non lineare con il sistema stesso, il che può permettere in genere di superare i limiti intrinseci dei trasduttori tradizionali. Un tipo particolarmente promettente di trasduttore attivo è quello, di tipo capacitivo, che viene comunemente definito BAE (da "Back Action Evasion'', "Evasione dell'effetto di retroazione''). Un tale trasduttore, attualmente in sviluppo presso il gruppo di Roma, ha un risonatore della stessa forma del trasduttore capacitivo passivo. Nella configurazione BAE però le vibrazioni del risuonatore vengono rivelate da due piatti capacitivi affacciati ai lati opposti del disco vibrante. In questo caso quindi lo spostamento del disco vibrante in una direzione provoca variazioni di capacità di segno opposto nei due condensatori affacciati. Le due capacità del trasduttore sono inserite in un ponte capacitivo insieme ad altre due capacità fisse e di grandezza uguale, in modo che il segnale generato dalla variazione differenziale delle due capacità generi un segnale nel ramo centrale, costituito da una bobina superconduttrice. Si può dimostrare che, se il circuito viene polarizzato con un campo elettrico variabile di forma opportuna, è possibile ridurre il rumore osservato all'uscita del trasduttore dovuto sia al rumore di fondo intrinseco dell'amplificatore, sia all'effetto di retroazione che questo rumore ha sul trasduttore e sull'antenna. Attualmente è in fase di avanzata realizzazione un prototipo di trasduttore di questo tipo che, nella sua prima versione, dovrebbe permettere di migliorare di un ordine di grandezza le prestazioni ottenute finora con gli schemi di rivelazione classici.


ISOLAMENTO MECCANICO

Rivelare sperimentalmente le onde gravitazionali vuol dire essere in grado di misurare spostamenti dell'antenna, dovuti a sorgenti astrofisiche, dell'ordine di un miliardesimo di miliardesimo di centimetro. Questa misura va compiuta su un rivelatore installato in un laboratorio terrestre, in presenza cioè dei rumori sismici e acustici naturali e dovuti all'attività umana. Si comprende subito come l'isolamento meccanico dell'antenna sia un problema cruciale di questa ricerca. Precisiamo il problema sperimentale: si tratta di isolare da tutti i rumori ambientali un grosso oscillatore meccanico (un cilindro di alluminio di alcune tonnellate di massa) con alto fattore di merito Q, frequenza di risonanza dell'ordine del kHz e mantenuto a bassa temperatura in un grande criostato contenente liquidi criogenici e collegato con vari sistemi di pompe da vuoto. Occorre isolare l'oscillatore ma contemporaneamente lasciarlo libero di vibrare, col suo alto fattore di merito, per poter osservare al momento opportuno l'eccitazione dovuta ad un impulso di onde gravitazionali. Il rumore ambientale sismo-acustico in un laboratorio tipico (ad esempio quello del CERN a Ginevra) è, nella regione del kHz, circa 10 -13 m/ÖHz. Tenendo conto che la larghezza di banda tipica dell'oscillatore macroscopico è di 10 -3 Hz alla frequenza di risonanza di circa 1 kHz, e che purtroppo la vibrazione che si vuole osservare, prodotta ad esempio da una supernova nella costellazione della Vergine, è dell'ordine di soli 10 -20 m, il fattore di isolamento richiesto può essere valutato dell'ordine di 10 -11 (cioè -220 dB). Con tale attenuazione una ipotetica oscillazione del suolo di un centimetro di ampiez-za (!) sarebbe ridotta all'interno del criostato ad una ampiezza minore di un raggio atomico. Questa impresa si può in effetti realizzare tramite l'impiego di efficienti smorzatori come filtri pneumatici, su cui poggiare il criostato, e stadi antivibranti di gomma o neoprene a cui appendere i vari schermi di cui il criostato è composto. Gli smorzatori caricati con queste grosse masse (da alcune centinaia ad alcune migliaia di kg) agiscono come filtri passa-basso a bassissima frequenza di taglio (pochi Hz) e possono in linea di principio essere usati in numero tale da ottenere ad 1 kHz l'attenuazione voluta. Ma attenzione, si tratta di filtri che possono essere usati solo a temperatura ambiente (i vari tipi di gomma si irrigidiscono e si spezzano già alla temperatura dell'azoto liquido) cosicché con essi possiamo filtrare solo i rumori esterni al criostato in cui l'antenna è contenuta. Tali sono effettivamente i disturbi sismici e quelli acustici del laboratorio. Ma, purtroppo, rumori meccanici sono generati anche all'interno del criostato, per esempio dalla lenta ebollizione dell'elio liquido che circonda la camera sperimentale dell'antenna o dall'emissione acustica dei vari materiali sottoposti a sforzi meccanici. All'interno del criostato la soluzione adottata è quella di sospendere i vari schermi e contenitori criogenici con cavi metallici. Affinché i cavi, caricati dal peso degli schermi, presentino una frequenza di risonanza bassa (e quindi una elevata attenuazione alla frequenza dell'antenna) essi devono essere sottili; vengono allora impiegati cavi in lega di titanio (Ti64) che presentano un limite di elasticità particolarmente alto (82 kg/mm 2 ). Una valutazione del rumore interno al criostato porta a concludere che è necessario avere tra il contenitore dell'elio liquido e l'oscillatore un fattore di attenuazione di circa 10 -7 (-140 dB). Nonostante questa stima dipenda fortemente dalla particolare struttura del criostato, in tutti i progetti di antenne criogeniche dei vari gruppi gravitazionali la sospensione dell'antenna è il più efficiente e il più curato dei filtri impiegati. La sospensione è di fatto il veicolo finale di trasferimento del rumore all'antenna: essa costituisce l'ultimo filtro meccanico ed il più delicato poiché essendo a contatto diretto con l'oscillatore meccanico è in grado di degradarne l'alto fattore di merito. La sospensione "storica", perché adottata da J. Weber già nelle prime antenne gravitazionali, è costituita dal cavo che abbraccia il cilindro nella sua sezione mediana. Nonostante negli anni seguenti molti ricercatori si siano sbizzarriti nella progettazione di sospensioni alternative (poggiando l'antenna su lame di coltello, sbarrette, strani diapason, fettucce, anelli ecc.), alla lunga il cavo centrale si è dimostrato la migliore sospensione sia per l'attenuazione raggiunta, sia per i fattori di merito misurati. Occorre dire che una accurata analisi delle equazioni che descrivono l'eccitazione del modo di vibrazione dell'antenna (il primo longitudinale) da parte dei disturbi meccanici propagantisi attraverso la sospensione ha portato nel tempo ad ottimizzare queste strutture. Esse infatti presentano sempre un numero infinito di frequenze di risonanza; il materiale, le lunghezze e le sezioni dei vari elementi vanno quindi sempre scelti attentamente in modo da ottenere la massima attenuazione alla frequenza di risonanza dell'antenna. Questi criteri di progettazione consentono anche di non degradare l'alto Q dell'antenna. Una sospensione alla Weber ben progettata (è importante ad esempio che il cavo "stacchi" dall'antenna il più verticale possibile e che non abbia risonanze vicine a quella dell'antenna) consente di ottenere attenuazioni fino a 10 -5 (-100 dB). Nella attuale configurazione dell'antenna Explorer un secondo stadio di sospensione è costituito da 4 cavi di Ti64 che sostengono l'anello di acciaio a cui a sua volta è sospesa l'antenna. Il terzo stadio è formato da 4 sbarrette in alluminio su cui poggia l'anello di bronzo a cui sono agganciati i 4 cavi di Ti64. L'attenuazione complessiva (o come si suol dire la funzione di trasferimento meccanica) è dell'ordine di -160 dB. La delicatezza del problema dell'isolamento meccanico implica un'estrema attenzione anche al montaggio dei fili elettrici che dal trasduttore montato sull'antenna portano i segnali all'esterno. Questi fili, per quanto sottili, sono inevitabilmente veicolo di vibrazioni, dagli schermi esterni verso l'antenna. La soluzione adottata consiste nell'ancorare i fili, prima che arrivino all'antenna, su dei compatti filtri meccanici a più stadi. Il livello di isolamento raggiunto è oggi considerato adeguato per le antenne a 4,2 K, ma lo sviluppo di nuove antenne da raffreddare sotto 0,1 K ci propone una nuova sfida. Le antenne ultracriogeniche infatti aggiungono all'interno del criostato una nuova sorgente di rumore, il refrigeratore a diluizione, direttamente a contatto (termico e quindi meccanico) con l'antenna. Come ottenere al tempo stesso un buon contatto termico e un elevato isolamento meccanico? Una soluzione proposta per la nuova antenna Nautilus consiste nel sospendere l'antenna con un cavo di rame direttamente al refrigeratore con un unico cavo di rame che costituisce il buon contatto termico e che la sostiene al baricentro. Questo è l'unico nodo della vibrazione considerata: un contatto ideale in questo punto non disturba affatto l'antenna. Sebbene elegante, questa configurazione presenta un punto debole: l'antenna può ruotare quasi liberamente sul piano orizzontale, torcendo il cavo che può spezzarsi. D'altronde irrobustire il cavo significa ottenere una peggiore attenuazione meccanica. La soluzione più semplice appare quella di collegare termicamente il "punto freddo" (camera a diluizione) del refrigeratore con gli estremi di un cavo di sospensione tradizionale di rame. E' di fondamentale importanza per minimizzare gli effetti della nuova sorgente di rumore costituita dal refrigeratore che il nuovo criostato mostri un elevatissimo grado di isolamento termico verso l'esterno. Solo così, infatti, l'ebollizione e la circolazione dei liquidi criogenici ( 4 He ed 3 He) si potranno ridurre a livelli così bassi da rendere sufficiente l'attenuazione fornita dalle sospensioni.


TECNOLOGIE CRIOGENICHE

La necessità di operare con l'antenna alle più basse temperature possibili ha stimolato, nei gruppi di ricerca sulle onde gravitazionali, lo sviluppo di tecnologie criogeniche indirizzate a questo specifico problema. L' intervallo di temperatura individuato fin dall'inizio è stato quello al di sotto dei 4,2 K e quindi raggiungibile solo con l'uso di elio liquido. Le caratteristiche discriminanti di un criostato per onde gravitazionali sono le seguenti: - un isolamento termico e una riserva di elio tali da assicurare un lungo periodo tra un riempimento e l'altro (almeno due o tre settimane); - un isolamento meccanico tale da rendere l'antenna insensibile ai disturbi esterni di normale intensità: per questo si è visto che occorre realizzare una serie di filtri meccanici, anche all'interno del criostato stesso, con un'attenuazione totale di almeno 250 dB; - una struttura tale da permettere di introdurre ed estrarre agevolmente l'antenna, che ha una massa di varie tonnellate; - una strumentazione adeguata alla misura continua dei parametri necessari al controllo delle condizioni di funzionamento dell'antenna, alla loro registrazione periodica su calcolatore e alla segnalazione di allarme in caso di malfunzionamento. La complessità del sistema criogenico aumenta quando si vuole operare a temperature inferiori a 1 K: infatti per raffreddare un'antenna a tali temperature è necessario un refrigeratore a smiscelamento (o diluizione) di 3 He- 4 He, da sistemare all'interno di un normale criostato all'elio liquido, che permetta di portare la temperatura dell' antenna a ~0.05 K. Nel caso dei criostati progettati e costruiti dal gruppo di Roma, prima per l'antenna Explorer e poi per l'antenna ultracriogenica Nautilus, i problemi sopracitati sono stati risolti in modo soddisfacente, come descritto nel seguito: - l'isolamento termico è stato realizzato avvolgendo una molteplicità di strati di mylar alluminato attorno ai vari schermi e al recipiente dell'elio liquido, e facendo il vuoto in tutto l'ambiente tra il recipiente esterno e la camera in cui è contenuta l' antenna. In quest'ultima, dopo aver evacuato tutta l'aria, viene messa una certa quantità di elio gassoso a bassa pressione (qualche mbar) per creare il contatto termico necessario a raffreddare l'antenna fino a 4-5 K. L' elio gassoso viene poi asportato fino ad una pressione di <10 -6 mbar, in modo da ridurre al minimo lo smorzamento delle vibrazioni dell'antenna dovuto al gas residuo. La quantità di elio liquido normalmente usata per il raffreddamento di tutto l'apparato è di 2000 l, la capacità del contenitore è 4000 l e la durata dell'elio è di circa 3 settimane quando l'antenna si trova a 4,2 K. Dal 1988 è iniziata una nuova fase nella quale, pompando sulla riserva dell' elio liquido e riducendo la pressione fino a 30 mbar, si è portata l'antenna Explorer alla temperatura di 2 K. In tale modo, oltre a ottenere una temperatura di lavoro più bassa per l'antenna e quindi più conveniente, si sono eliminate le oscillazioni del gas di evaporazione che introducevano un ingresso di calore in eccesso, provocando un aumento del consumo di elio liquido. A questa temperatura l'elio è nello stato di superfluidità, che assicura una perfetta distribuzione della temperatura in tutto lo spazio sperimentale, diminuendo in maniera drastica i gradienti termici nell'antenna stessa. Le caratteristiche dell'elio superfluido sono tali da richiedere una tecnologia particolare per il criostato ed in particolare per i giunti smontabili. La evaporazione dell' elio è stata così fortemente ridotta e la durata di un riempimento di elio liquido è stata portata a oltre 2 mesi. - I filtri meccanici adottati per il criostato di Explorer sono di tipo pneumatico per l'esterno del criostato, pacchi smorzanti a strati multipli di gomma e alluminio per i cavi di sospensione dei recipienti interni, barre a flessione per l'anello che regge l'antenna e infine una sospensione nella sezione baricentrale per l'antenna stessa. Nel Nautilus la sospensione a barre di flessione è stata sostituita da cavi di titanio anche per tutti gli schermi più interni da 4,2 a 0,1 K e la sospensione baricentrale dell'antenna è stata realizzata con un cavo di rame speciale a basso contenuto di ossigeno (OFHC) che provvede anche al contatto termico tra il refrigeratore e l'antenna stessa. Va precisato che nel criostato di Explorer il recipiente dell'elio liquido è dotato di 4 flange, di oltre un metro di diametro, che sono fra le più grandi del mondo per contenitori di elio superfluido. - Il criostato di Nautilus, da poco completato, è stato progettato per raffreddare l'antenna a temperature inferiori a 0,1 K e pertanto è equipaggiato con un refrigeratore a smiscelamento He 3 -He 4 . Questo refrigeratore è stato progettato dal gruppo di Roma e costruito dalla ditta Oxford Instruments. Il collaudo ha mostrato che il suo potere refrigerante è di 1 mW a 0,1 K, superiore alle stime di progetto ed ampiamente superiore al valore ritenuto necessario per il buon funzionamento dell' antenna. Qui notiamo che la massa raffreddata dal refrigeratore a smiscelamento è di circa 4 tonnellate, molto superiore a qualsiasi altro progetto realizzato finora. - Il controllo del funzionamento è assicurato da misuratori di pressione e di livello per il bagno di elio, di vuoto per l'isolamento e per lo spazio sperimentale nel quale è alloggiata l'antenna. Di particolare importanza è la misura di temperatura nelle varie parti del sistema per verificare il corretto gradiente termico da temperatura ambiente fino all'antenna: a questo scopo sono stati impiegati in totale 24 termometri in Explorer e 50 in Nautilus (diodi al silicio da temperatura ambiente a 4,2 K e resistenze al germanio per le temperature inferiori, fino a 40 mK). I parametri più significativi vengono registrati, in funzione del tempo, su un calcolatore in linea, per fornire tutte le informazioni necessarie sullo stato dell'antenna nella fase di elaborazione dei dati.


I dc SQUID

SQUID è un acronimo per Superconducting QUantum Interference Device. Tali dispositivi sono stati casualmente scoperti nel 1963 osservando che la tensione, ai capi di un piccolo cilindro di vetro ricoperto da un film di stagno, polarizzato in corrente, oscillava, con una legge simile a quella che governa l'interferenza della luce, in funzione del campo magnetico concatenato: era il primo dc-SQUID. Gli SQUID sono dei magnetometri superconduttori con una sensibilità molto più elevata di analoghi dispositivi tradizionali. Per dare un'idea della loro sensibilità basti pensare che l'intensità del campo magnetico terrestre alle nostre latitudini è di circa 0.4 gauss ed uno SQUID di buone prestazioni connesso ad una bobina di ricezione di pochi cm2 è in grado di apprezzare a bassa frequenza ampiezze di campi magnetici pari a un decimiliardesimo di tale valore. Lo SQUID è uno dei pochi dispositivi in cui si abbia un'applicazione su scala macroscopica della meccanica quantistica: il suo principio di funzionamento è alquanto complesso, poiché è descritto da due equazioni differenziali non lineari accoppiate. Senza entrare nei dettagli possiamo dire che tutte le particelle che portano la corrente superconduttrice (coppie di elettroni) in un anello superconduttore rappresentano uno stato quantistico macroscopico che è descritto da un'unica funzione d'onda. Lungo l'anello del dc SQUID vengono inseriti due "punti deboli" (detti giunzioni Josephson), dove la superconduttività viene più facilmente perturbata: ad esempio due segmenti di sezione più stretta, attraverso i quali le coppie di elettroni possono passare per effetto tunnel. In un'anello polarizzato con una corrente costante, l'effetto di schermo delle correnti circolanti, insieme alle condizioni di quantizzazione della funzione d'onda ed alle relazioni di Josephson tra fase, tensione e flusso magnetico, producono una differenza di potenziale che è funzione periodica del flusso magnetico intersecato dall'anello stesso. L'analogia con un interferometro ottico, in cui l'intensità luminosa all'uscita è una funzione periodica della differenza di cammino ottico, è all'origine del nome di questo dispositivo. Nella realizzazione pratica di uno SQUID il circuito di ingresso è costituito da una bobina, accoppiata induttivamente all'anello, mentre la tensione di uscita viene misurata direttamente ai capi del dispositivo; questo viene polarizzato ad un livello di corrente, dell'ordine di qualche decina di mA, sufficiente ad inibire la superconduttività nelle giunzioni. Il segnale di uscita è una funzione periodica del campo magnetico in ingresso, ma questa relazione viene resa lineare con tecniche di controreazione. Gli SQUID che vengono attualmente utilizzati sono realizzati con sofisticate tecniche di litografia (la stessa usata per la fabbricazione dei circuiti integrati) su materiali di proprietà afÞdabili. Le fotografie danno un'idea della complessità del disegno. Nella prima è mostrata la foto di un chip di 6,3 . 6,3 mm; sono visibili all'esterno le piazzole usate per i contatti e due dc-SQUID planari. La foto successiva mostra un particolare ingrandito di uno degli SQUID; è visibile la bobina di ingresso, costituita da 34 spire in forma di spirale quadrata. Al centro vi è lo SQUID vero e proprio la cui induttanza è fatta da 16 bobine di forma trapezoidale disposte in parallelo. Infine nell'ultima figura vi è un ulteriore ingrandimento che mostra la zona delle due giunzioni Josephson a finestra (il cui diametro è di 3 mm). La sensibilità all'energia magnetica di un dc-SQUID operante a bassa frequenza può in particolari condizioni di lavoro avvicinarsi al limite posto dal principio di indeterminazione della meccanica quantistica. Nell'intervallo di frequenza tra dc e qualche decina di kHz gli SQUID sono i più sensibili misuratori di energia magnetica esistenti, ma data la difficoltà di produzione su larga scala ed il bisogno di lavorare a temperature prossime a quelle dell'elio liquido essi hanno trovato applicazioni solo in campi di avanguardia. Le onde gravitazionali sono attualmente il campo di indagine che richiede SQUID dalle prestazioni migliori. Attualmente nelle varie antenne criogeniche del gruppo di Roma (Nautilus, Explorer ed Altair) uno SQUID come quello descritto rappresenta l'amplificatore a basso rumore. In questi apparati la vibrazione meccanica viene convertita in un segnale elettrico e poi, tramite una bobina, in un segnale magnetico che viene rivelato dallo SQUID stesso. L'Italia in questo campo ha un'ottima tradizione e i dispositivi prodotti sono a livello di quelli prodotti nei laboratori più avanzati nel campo.


LA PICCOLA ANTENNA

Nel 1973 è stato costruito un piccolo criostato in grado di raffreddare una sbarra cilindrica lunga 30 cm e con diametro di 20 cm fino alla temperatura di 1 K. La motivazione iniziale per questo strumento fu quella di fare prove sulle sospensioni magnetiche. Infatti era stato suggerito da Fairbank di levitare l'antenna gravitazionale mediante un campo magnetico fornito da bobine superconduttrici, in modo da ottenere il miglior isolamento meccanico dal mondo esterno. Le bobine superconduttrici furono realizzate e una sbarra di piombo di 60 kg fu sospesa magneticamente nei locali del Laboratorio (ora Istituto) di Elettronica dello Stato Solido del C.N.R. Apparve peraltro subito evidente, sia al gruppo italiano che ai gruppi americani, che la difficoltà di sospendere una sbarra di alluminio (e non di piombo) creava problemi superiori agli eventuali benefici, poiché una sospensione della sbarra con un cavo di titanio era già adeguata. La costruzione del piccolo criostato fu però molto utile. Infatti al primo tentativo di raffreddare una sbarra di alluminio fu scoperto che il tempo di decadimento dell'oscillazione della sbarra (e quindi il fattore di qualità, o, con linguaggio specialistico, il Q) aumentava all'abbassarsi della temperatura di alcuni ordini di grandezza. Poiché per la rivelazione di piccoli segnali impulsivi è necessario che il Q sia il più grande possibile, si può comprendere la grande importanza di questo risultato, che dava una ragione di più per usare le bassissime temperature. Con questo criostato, negli anni 1975 e 1976, fu misurato, per la prima volta al mondo, il rumore browniano di un corpo macroscopico alla temperatura dell'elio liquido. I primi risultati di queste misure furono comunicati alla Quarta Conferenza Gravitazionale Sovietica tenuta a Minsk (U.R.S.S) nel giugno 1976. In questo modo venne dimostrata sperimentalmente la fattibilità di un esperimento gravitazionale a bassa temperatura e si poté quindi procedere con la costruzione delle antenne più grandi con nuovo entusiasmo e riaffermata fiducia. Fu in quella occasione, inoltre, che si cominciò a sperimentare l'uso delle tecniche più avanzate della teoria dell'informazione per poter individuare deboli segnali immersi nel rumore browniano che, pur molto piccolo (vibrazioni di molto inferiori alle dimensioni di un nucleo atomico), è però molto maggiore del segnale aspettato dall'esplosione di una supernova situata nell'ammasso della Vergine, (vibrazione dell'ordine di un milionesimo delle dimensioni nucleari). Negli anni successivi, con lo svilupparsi di nuovi e migliori rivelatori, la piccola antenna ha perduto il suo carattere di esperimento e di osservatorio, per assumere quello di servizio. Il criostato è stato utilizzato innumerevoli volte, nel laboratorio nello scantinato del Dipartimento di Fisica di Roma "La Sapienza", per eseguire prove a bassa temperatura di trasduttori, sospensioni, sistemi di rivelazione, SQUID ed altri componenti che venivano sviluppati per le antenne più grandi. Ancora oggi la piccola antenna è considerata la "mascotte" degli apparati sperimentali del gruppo di Roma.


L'EXPLORER

All'inizio degli anni 70, la necessità di verificare i risultati di Weber con sistemi dotati di sensibilità decisamente maggiore e sopratutto l'opportunità di spingere la sensibilità fino a poter rivelare impulsi gravitazionali di eventi galattici e più lontani, condusse alla progettazione e allo sviluppo delle cosidette antenne di seconda generazione. Si tratta di sistemi alquanto più elaborati rispetto alla classica antenna alla Weber e caratterizzati sostanzialmente dall'uso di temperature di lavoro dell'elio liquido (4 K = -269 o C), dallo sviluppo di sistemi di filtraggio delle vibrazioni meccaniche operanti a bassa temperatura, dall'impiego di una varietà di trasduttori di nuovo tipo collegati in genere ad amplificatori a basso rumore basati sull'impiego di giunzioni ad effetto Josephson. La tecnica delle basse temperature è ora largamente sviluppata, ma nonostante ciò, nel caso dei rivelatori di onde gravitazionali, essa richiede un notevole livello di raffinatezza, poiché si tratta di raffreddare grandi masse (dell'ordine delle tonnellate) ed assicurare la continuità di funzionamento su lunghi periodi (dell'ordine del mese), senza dover interrompere la fase osservativa per la sopravvenuta necessità di rifornire di liquidi criogenici il sistema. Il criostato del rivelatore Explorer è stato progettato per raffreddare alla temperatura dell'elio liquido una antenna cilindrica di 60 cm di diametro e lunga 3 m, avente una massa di 2300 kg. La sbarra è in lega di alluminio Al5056, una lega soprasatura di magnesio della famiglia del Perallumen; la scelta di questo materiale è dovuta al basso valore del coefficiente di dissipazione elastico relativo ai suoi modi di vibrazione, cioè all'alto valore del fattore di qualità Q. Il criostato dell'Explorer consiste di 5 cilindri orizzontali, il primo dei quali è un contenitore da vuoto in acciaio con guarnizioni di neoprene, dove viene praticato, in condizioni di funzionamento, un vuoto dell'ordine di 10 -6 mbar, necessario per assicurare un elevato isolamento termico. Il secondo contenitore è mantenuto alla temperatura dell'azoto liquido (77 K = -196 o C). Si tratta di una struttura autoportante di tubi di rame attorno alla quale è avvolto un foglio di Perallumen, che costituisce una superficie schermante a temperatura uniforme pari a 77 K. Questo insieme di tubi contiene sino a 460 litri di azoto liquido ed è sostenuto tramite quattro cavi in lega di titanio agganciati al contenitore esterno in ferro. I raccordi di ingresso e uscita dell'azoto sono costruiti con soffietti di acciaio inossidabile a parete sottile. Il terzo cilindro del criostato è uno schermo di Perallumen attorno a cui è avvolta una doppia serpentina di tubi di rame in cui fluisce il gas freddo di elio che evapora dal contenitore più interno di elio liquido. Il quarto ed il quinto cilindro sono di acciaio inossidabile. Nello spazio tra l'uno e l'altro di questi cilindri, dal volume di 3300 litri, trova posto l'elio liquido. Questi due contenitori cilindrici non sono disposti coassialmente (vedi figura a pagina 31), così che il livello dell'elio liquido resta alto anche quando ne è evaporata la maggior parte. Il quinto cilindro poggia sul precedente, mentre quest'ultimo è sospeso tramite 4 cavi di lega di titanio che sono ancorati, all'altra estremità, al contenitore più esterno tramite un pacco di smorzatori in gomma. Ambedue i contenitori di acciaio inossidabile sono chiusi alle estremità tramite grandi flange aventi guarnizioni ad indio. All'interno del quinto contenitore, sotto vuoto, trova posto l'antenna. Essa è sospesa con un cavo di titanio avvolto attorno alla sua sezione baricentrale, attaccato ad un pesante anello d'acciaio che a sua volta è appeso ad un altro anello in bronzo. Quest'ultimo poggia su quattro piccole travi di alluminio poste sul fondo del criostato e caricate in punta dal peso di questo sistema di masse sospese. Nella sostanza l'insieme di questo sistema di sospensione costituisce un filtro meccanico a tre stadi che ha una attenuazione maggiore di -220 dB quando opera alla temperatura dell'elio liquido. Va detto infine che, per ridurre l'ingresso termico per radiazione, sui vari contenitori sono avvolte delle coperte costituite da strati alterni di mylar alluminato e di fogli di materiale sintetico (che ha funzioni di separatore); il controllo delle temperature dei vari cilindri viene poi effettuato utilizzando 19 diodi e 5 resistenze al germanio, una delle quali è in contatto con il corpo dell'antenna. L'antenna è equipaggiata con un trasduttore capacitivo che ha una risonanza meccanica alla stessa frequenza del primo modo di vibrazione longitudinale dell'antenna. I due modi normali di vibrazione risultanti hanno Q di circa 5 milioni. Il trasduttore è poi connesso ad un DC SQUID ad effetto Josephson tramite un trasformatore superconduttore. Questa antenna ha raccolto dati per un periodo ormai superiore ad un anno raggiugendo la sensibilità limite di h = 5 . 10 -19 ; questo significa che eventi galattici di esplosioni di supernovae vicine sono ormai ben alla portata di questo rivelatore.


L'ANTENNA CRIOGENICA ALTAIR

Questo rivelatore gravitazionale criogenico progettato per lavorare con un'antenna cilindrica da 400 kg di massa, alla frequenza di 1,8 kHz, fu realizzato e messo in funzione già negli anni 1978-80 presso l'allora Laboratorio Plasma Spazio, ora Istituto di Fisica dello Spazio Interplanetario (I.F.S.I.) del CNR in Frascati. Il rivelatore utilizzava delle ceramiche piezoelettriche come trasduttore elettromeccanico ed un amplificatore a FET come stadio di preamplificazione a basso rumore. Il sistema funzionò per periodi continui, anche di alcuni mesi, alla temperatura di 4,2 K, consentendo per la prima volta delle misure su lunghi periodi di tempo con una sensibilità significativamente migliore di quello dei rivelatori cosiddetti della prima generazione, costituiti da grosse antenne cilindriche alla Weber di alcune tonnellate di massa che però operavano a temperatura ambiente. Durante queste prove, utilizzando un amplificatore a FET raffreddati, fu raggiunta una temperatura di rumore di 0,28 K. Le difficoltà di reperire nell'area romana l'elio liquido necessario a mantenere fredda l'antenna per lunghi periodi di tempo, portò negli anni 1980-88 all'utilizzo di questo criostato essenzialmente per misure e caratterizzazione di nuovi trasduttori elettromeccanici mentre l'attività centrale si spostava presso i Laboratori del CERN di Ginevra con la realizzazione della grossa antenna criogenica da 2300 kg oggi denominata Explorer. L'attivazione nell'Area di Ricerca di Frascati del CNR di un servizio criogenico di liquefazione di elio, ci ha convinto della opportunità di riattivare questo criostato come stazione di misura permanente in analogia a quanto programmato per l'antenna Explorer di Ginevra. Per realizzare questo obiettivo è stato necessario modificare l'apparato criogenico dell'antenna, che è ora denominata ALTAIR. Le modifiche apportate con successo ad Altair hanno portato ad oltre una settimana l'autonomia criogenica, essendo ora possibile riempire completamente il contenitore di elio liquido (145 litri), a differenza di quanto accadeva in precedenza, ed il suo riempimento si effettua con alta efficienza (70%) in appena 2 ore. Il rivelatore è stato anche provato in regime di elio superfluido a 2 K pompando sul bagno di elio liquido. Il criostato contiene un'antenna di lega di alluminio 6061 di 389 kg equipaggiata con un trasduttore elettromeccanico capacitivo risonante alla stessa frequenza di 1,8 kHz dell'antenna. Tale trasduttore realizzato in lega di alluminio 5056, che presenta un più alto fattore di merito meccanico della lega 6061, è simile a quello utilizzato sull'Explorer così come il preamplificatore, costituito da un dc SQUID accoppiato al trasduttore mediante un trasformatore superconduttore, necessario per adattare le impedenze. Questa configurazione sperimentale è stata utilizzata nel 1988 ottenendo un sensibilità, in termini di temperatura efficace di rumore, di 70 mK. Dalle misure effettuate nel 1989 si è verificato che il sistema funziona correttamente. Non c'è eccesso di rumore ai due modi e i fattori di merito sono dell'ordine di alcuni milioni. Utilizzando i valori dei parametri misurati, si stima che è possibile ottenere una temperatura di rumore inferiore a 10 mK, corrispondente a un valore di h ~10 -18 , che è sufficiente per rivelare un impulso di onde gravitazionali dovuto all'esplosione di una supernova nella nostra galassia. Questa antenna gravitazionale criogenica è l'unica al mondo operante a frequenze intorno ai 2 kHz con una sensibilità strumentale confrontabile a quella dei migliori rivelatori operanti a 1 kHz e costituiti da antenne di alcune tonnellate di massa (CERN, Stanford, LSU). L'interesse scientifico nel disporre di una rete di antenne risonanti funzionanti a diverse frequenze, sempre nella regione dei kHz, è da ricercare non solo nella possibilità di rivelare per la prima volta segnali gravitazionali ma anche di poterne studiare la forma e quindi determinarne alcune caratteristiche.


L'ANTENNA NAUTILUS

Le attuali stime astrofisiche predicono che gli impulsi di onde gravitazionali possono avvenire con una frequenza di alcuni eventi al mese ad ampiezze del livello di h = 10 -21 . Per osservare questi eventi impulsivi è necessario spingere tutti i parametri caratteristici del sistema di rivelazione ai limiti (ed oltre) della presente tecnologia. E' richiesta infatti l'adozione di dc SQUID con temperature di rumore inferiori a 10 -6 K accoppiati a trasduttori con alta efficienza di conversione di energia meccanica in energia elettrica. Ma è anche necessario ridurre ulteriormente il livello del rumore termico: per questo il gruppo di Roma sta lavorando allo sviluppo di una antenna che sarà raffreddata a temperature inferiori a 0,1 K. Il nuovo rivelatore, denominato Nautilus, è costruito per poter alloggiare una antenna gravitazionale di 3 m di lunghezza e 2300 kg di massa, raffreddata a bassissima temperatura per mezzo di un refrigeratore a diluizione 3 He- 4 He. Lo schema generale del sistema, sul quale sono da poco state eseguite le prime prove, è caratterizzato principalmente da una sezione centrale più corta della antenna stessa, contenente la riserva di elio 4 liquido, gli scambiatori di calore a gas freddo e, al centro, il refrigeratore a diluizione. Questa soluzione consente di avere un facile accesso dai lati anteriore e posteriore ai punti cruciali di connessione dei vari componenti criogenici. Delle cupole terminali di diametro più piccolo sono poi attaccate a questa sezione centrale. Il criostato consiste di sette involucri: iniziando dal più esterno, abbiamo una camera da vuoto in acciaio, poi due schermi concentrici di alluminio raffreddati dai vapori freddi di elio che provengono dal contenitore più interno di elio liquido, che a sua volta è costruito in acciaio inossidabile ed ha una capacità di 2000 litri. Dentro quest'ultimo contenitore è installato uno scambiatore di calore, necessario per mantenerlo isotermo anche quando il livello dell'elio liquido al suo interno è basso. Tramite delle guarnizioni ad indio poi, due grandi cupole di rame sono attaccate al contenitore d'acciaio. In questo modo la zona di vuoto necessaria per l'isolamento termico del criostato risulta separata da quella in cui è posto il rivelatore gravitazionale vero e proprio e cioè la sbarra di alluminio pesante 2300 kg. In questo spazio vuoto delimitato dal contenitore d'acciaio e dalle relative cupole terminali trovano posto l'uno dentro l'altro in sequenza, tre schermi di rame senza ossigeno (OFHC), materiale ad altissima conducibilità termica, che circondano completamente l'antenna. Il primo schermo di rame è termicamente connesso con lo stadio di refrigerazione ad 1 K del refrigeratore a diluizione, mentre il secondo è collegato allo scambiatore di calore che lavora al di sotto della temperatura della camera di distillazione, il terzo è in contatto con la camera di miscelazione. La sezione centrale di ciascuno di questi tre schermi è costituita da un anello massiccio di rame. Questi anelli fungono da masse intermedie di un sistema di filtraggio delle vibrazioni meccaniche a quattro stadi in cascata. Gli elementi elastici del sistema di filtraggio sono rappresentati dalle barre in lega di titanio con le quali l'antenna è appesa al primo anello in rame e poi, in sequenza, ciascun anello al successivo. Al momento attuale è terminata la fase di assemblaggio e sono stati eseguiti i primi test criogenici dell'apparato presso i laboratori del CERN di Ginevra. E' ora giunta la fase cruciale relativa alla messa a punto del sistema come antenna. Dopo le prime prove, il Nautilus verrà spostato presso i Laboratori Nazionali di Frascati dell'INFN. Qui esso sarà installato su una piattaforma orientabile e posto definitivamente in funzione, con l'obiettivo scientifico di rivelare impulsi gravitazionali provenienti dall'ammasso di galassie della Vergine.


IL REFRIGERATORE A DILUIZIONE DEL NAUTILUS

Negli anni 1982-1985 è stato compiuto uno studio di fattibilità sul raffreddamento di una antenna gravitazionale di alluminio di qualche tonnellata di massa a temperature inferiori a 0,1 K, tramite un refrigeratore a diluizione 3 He- 4 He. Sono stati stimati gli ingressi termici, misurate le proprietà termiche del materiale dell'antenna fino a 50 mK e calcolati i tempi di raffreddamento. Questo studio ha permesso di determinare le caratteristiche del sistema criogenico. I risultati possono riassumersi in due punti:
1) Il raffreddamento di una grossa antenna di Al 5056 a temperature inferiori a 0,1 K appare possibile usando un refrigeratore a diluizione 3 He- 4 He anche di tipo commerciale: un potere refrigerante di 1 mW è sufficiente a termalizzare la sbarra a 0,1 K in un tempo di una decina di ore.
2) Il refrigeratore e l'antenna devono essere inseriti in un criostato con vari schermi raffreddati sotto 1 K. Questo è necessario sia per ridurre gli ingressi termici sull'antenna, sia per avere varie masse intermedie sospese a costituire filtri meccanici necessari per isolare il rivelatore dal rumore causato dell'ebollizione dell'elio liquido.
Nel 1986 è stato definito il progetto del refrigeratore a diluizione e nel 1987 è iniziata la sua costruzione. A cavallo tra il 1988 e il 1990, parallelamente e separatamente al grande criostato, il refrigeratore è stato installato e felicemente collaudato nei laboratori del CERN. La temperatura minima raggiunta è di 16,5 mK, il potere refrigerante è di oltre 1 mW a 0,1 K.
Principio di funzionamento di un refrigeratore a diluizione
Il fenomeno fisico che rende possibile questo metodo di refrigerazione a temperature ultrabasse è il comportamento anomalo di una miscela di 3 He e 4 He al di sotto di 0,8 K, anomalia dovuta alle differenti proprietà quantistiche di questi due isotopi dell'elio, vicino allo zero assoluto. A queste temperature la miscela non è più stabile ma si separa in due fasi (si ha cioè uno smiscelamento): una ricca di 3 He, più leggera, che galleggia sull'altra ricca di 4 He (fase diluita). In queste condizioni, se una certa quantità di 3 He viene indotta a passare dalla fase concentrata a quella diluita, essa subisce una "espansione" che comporta un assorbimento di energia dall'ambiente, e un conseguente raffreddamento. Su questo principio, fin dal 1965, sono stati costruiti refrigeratori chiamati "a diluizione" o "a smiscelamento" di 3 He in 4 He: essi funzionano al di sotto di 0,8 K fino a circa 0,001 K e costituiscono il più efficiente sistema continuo di raffreddamento, in questo intervallo di temperatura. In un refrigeratore a ciclo continuo la miscela (costituita a regime quasi completamente da 3 He) viene inviata da temperatura ambiente a liquefare attraverso un capillare immerso in un piccolo recipiente riempito di 4 He e mantenuto a bassa pressione, dove si raggiunge una temperatura di circa 1,2 K. L' 3 He scende poi attraverso scambiatori di calore, sempre più freddo, fino alla cella di diluizione, dove arriva nella fase superiore ricca di 3 He. Da questa l' 3 He diffonde nella fase inferiore e sale, spinto da una differenza di pressione osmotica, fino alla cella del distillatore, nella quale l' 3 He evapora e viene aspirato da una pompa che si trova all'esterno del criostato. L'uscita della pompa costituisce il ritorno del-l' 3 He nella fase concentrata. E' la grande differenza di tensione di vapore dei due isotopi a queste temperature a far sì che il vapore nella cella distillatore sia formato quasi esclusivamente di 3 He. L' 3 He è cosi "forzato" a diluirsi dalla fase molto concentrata a quella poco concentrata ed a circolare continuamente. Il processo di diluizione dell' 3 He sottrae calore all'ambiente, cioè alla cella di smiscelamento ed ai corpi eventualmente ad essa uniti, fornendo un potere refrigerante che è generalmente dell'ordine di 10 -6 -10 -3 W a temperature inferiori a 0,1 K. L'apparecchio, semplice in linea di principio, è piuttosto complesso e richiede una progettazione molto accurata affinchè funzioni in modo corretto ed affidabile.
Integrazione del refrigeratore nel criostato e contatto termico con l'antenna
Il refrigeratore a diluizione per l'antenna Nautilus è stato costruito dalla ditta Oxford Instruments su progetto del gruppo di Roma, che ha anche provveduto alla realizzazione della cella di diluizione. Questa infatti rappresenta l'elemento non standard e probabilmente il più critico del sistema (ad essa va collegata l'antenna di 2,3 tonnellate). La struttura di insieme del refrigeratore, è alta circa due metri, e verrà inserita nella parte centrale del criostato, scendendo fino a 30 cm sopra l'antenna. Il problema centrale del raffreddamento sotto 0,1 K di un'antenna gravitazionale consiste nel realizzare un contatto tra refrigeratore ed antenna che soddisfi contemporaneamente due requisiti contrastanti: occorre infatti che la connessione presenti alta conducibilità termica, in modo da estrarre in maniera efficace il calore dall'antenna anche a bassissime temperature, e nello stesso tempo non trasmetta vibrazioni dall'esterno del criostato e dal circuito di refrigerazione stesso fino all'antenna. Questo problema è stato affrontato sospendendo liberamente la cella di distillazione (detta "still"), da dove l' 3 He viene pompato, sotto lo schermo a 1 K, ed ancorando invece gli scambiatori di calore successivi agli schermi termici intermedi. Questa configurazione ha il doppio scopo di raffreddare gli schermi ed inglobare il refrigeratore nel sistema di sospensioni antivibranti del criostato. Le vibrazioni meccaniche che si propagano lungo i tubi del refrigeratore vengono così enormemente attenuate prima di arrivare alla cella di diluizione. L'antenna stessa, infine, è collegata direttamente alla cella di diluizione mediante un cavo di rame (alta conducibilità termica) che abbraccia l'antenna attorno alla sua sezione centrale (elevato isolamento meccanico). Gli scambiatori hanno in questo apparato anche il compito di raffreddare a temperature intorno a 0,1-0,3 K due dei tre schermi di rame che circondano l'antenna. Essi sono perciò stati progettati in modo da fornire il massimo potere refrigerante in corrispondenza di due dischi di rame (a cui gli schermi saranno ancorati termicamente) che costituiscono due unità discrete di raffreddamento quasi indipendenti tra loro, in grado di assorbire ingressi termici notevoli senza influenzare in modo apprezzabile la temperatura della camera a diluizione. Il terzo schermo di rame sarà poi ancorato al contenitore di 4 He a 1,2 K. Il potere refrigerante misurato durante il collaudo del refrigeratore è di 1,2 mW alla temperatura di 0,1 K. I nostri calcoli prevedono che in questa situazione l'antenna si raffredderà sotto 0,1 K (a partire da circa 1 K) nel giro di poche ore, fino al valore minimo determinato dalle perdite termiche del criostato, con una uniformità migliore di 0,01 K.


L'ANALISI DEI DATI

I dati registrati da un rivelatore di onde gravitazionali consistono essenzialmente di rumore, dal quale occorre distinguere, evidenziandolo, il contributo di eventuali, e debolissimi, segnali di origine gravitazionale. Questo è il compito dell'analisi dei dati, che si avvale delle basi teoriche fornite dalla teoria dell'informazione (rivelazione di segnali in presenza di rumore) e della tecnologia dei calcolatori elettronici. Si tratta di un compito delicatissimo, la cui importanza, nell'ambito di un esperimento per la ricerca delle onde gravitazionali, è pari a quella dell'apparato sperimentale vero e proprio. La prima fase dell'analisi riguarda il "filtraggio" dei dati, che sono costituiti da una sequenza di valori, campionati a intervalli fissi di tempo (per esempio ogni decimo di secondo), che rappresentano l'ampiezza di oscillazione dell'antenna nella banda di frequenza osservata, più precisamente attorno alla frequenza (o alle frequenze) di risonanza dell'apparato. Il filtraggio di una sequenza così fatta mira a ricostruire, istante per istante, mediante un'operazione di stima statistica, il segnale agente all'ingresso dell'antenna, che si rappresenta usualmente in termini di una forza equivalente. I dati filtrati in tal modo sono, naturalmente, ancora costituiti essenzialmente da fluttuazioni, ma l'entità di queste è assai ridotta rispetto a quella dei dati registrati, sicché il rapporto segnale/rumore viene grandemente migliorato. Questo è possibile perché, nei dati, il segnale e il rumore possiedono proprietà statistiche differenti, ed è proprio di questa diversità che si avvale il filtraggio. Il rumore dei dati registrati si caratterizza usualmente in termini della corrispondente energia di fluttuazione, che si usa descrivere, per analogia con le antenne elettromagnetiche, con una "temperatura equivalente" (il fattore di proporzionalità è la costante di Boltzmann k: E = k T eq ) e quindi esprimere in kelvin. Questa grandezza corrisponde alla temperatura di lavoro del rivelatore, aumentata dall'eventuale effetto di "riscaldamento" dovuto all'azione all'indietro del rumore dell'amplificatore elettronico collegato al trasduttore. Il corrispondente rumore dei dati filtrati si rappresenta anch'esso con una temperatura, chiamata questa volta "temperatura efficace", che può essere anche assai inferiore (di ordini di grandezza) alla precedente. Il miglioramento ottenibile con il filtraggio, cioè il valore del rapporto fra le due temperature anzidette, è tanto maggiore quanto più piccolo è il rumore dell'amplificatore e quanto più grande è il valore del fattore di merito del rivelatore, cioè il tempo che deve trascorrere prima che le oscillazioni dell'antenna, prodotte da un impulso ad essa applicato, si smorzino gradualmente. Si comprende facilmente, infatti, che un segnale impulsivo, a parità di intensità , è assai più facilmente rivelabile nel rumore se permane a lungo anziché decadere rapidamente. La seconda fase dell'analisi, ancora più delicata della prima, riguarda la rivelazione. Qui occorre sottolineare che poiché, salvo casi particolari o eccezionali, non si ha alcuna indicazione a priori sull'istante di occorrenza di un eventuale segnale di origine gravitazionale, la rivelazione non può essere che di natura statistica, cioè basata sul confronto dell'ampiezza del generico campione con quella degli altri dati, cioè del fondo, che viene rappresentata mediante una distribuzione di probabilità. In altre parole, solo se l'ampiezza di un campione della sequenza dei dati filtrati emerge rispetto al fondo, esso può venire considerato come un candidato interessante ai fini della rivelazione. E' però evidente che nulla si può dire, altro che in termini statistici, se si tratti di un segnale oppure di una fluttuazione particolarmente intensa. Quest'ultima ipotesi merita particolare attenzione dal momento che, accanto al rumore gaussiano usuale, i dati dei rivelatori contengono anche disturbi di grande ampiezza dovuti a cause esterne occasionali. Si conclude pertanto che, disponendo soltanto dei dati registrati da un rivelatore, non si può arrivare ad alcuna conclusione positiva circa la rivelazione di un segnale gravitazionale. Diverso, invece, è il caso in cui si disponga di dati raccolti in coincidenza temporale da due antenne situate a grande distanza fra loro. Un'impulso di grande ampiezza rispetto al fondo, registrato allo stesso istante da due rivelatori, rappresenterebbe un'evidenza assai probante della presenza di un segnale, dal momento che la probabilità che ambedue le osservazioni siano dovute al caso sarebbe estremamente ridotta. Con un solo rivelatore, d'altra parte, è possibile stabilire un limite superiore per il numero di eventi impulsivi che si verificano nell'unità di tempo; questo costituisce un dato di grande interesse scientifico, in quanto pone dei vincoli sperimentali che le teorie fenomenologiche di astrofisica e cosmologia devono soddisfare: in altre parole anche la "non osservazione" di onde gravitazionali, a determinati livelli di am- piezza e frequenza di occorrenza, serve a limitare il campo dei modelli astrofisici possibili.


COINCIDENZE

Come abbiamo visto, il problema fondamentale nell'analisi dei dati forniti dagli esperimenti gravitazionali consiste nella difficoltà di rivelare piccoli segnali in presenza di rumori di ampiezze molto maggiori. Questi ultimi si possono dividere in due gruppi: al primo appartengono i fenomeni che sono descrivibili utilizzando ben noti modelli fisici come il moto Browniano degli atomi dell'antenna ed il rumore di fondo dell'elettronica, al secondo gruppo quei disturbi che sono spesso di origine mal definita e quindi non facilmente descrivibili matematicamente. Al secondo gruppo appartengono il rumore acustico, quello sismico, l'effetto dovuto ai raggi cosmici, i disturbi elettromagnetici e tutti i fenomeni che si possono manifestare in un laboratorio disturbando l'esperimento. L'unico modo di ridurre l'effetto di tali rumori, a parte le opportune precauzioni nel progetto degli apparati sperimentali, è quello di far uso di più rivelatori gravitazionali posti a grande distanza tra loro ed effettuare un'analisi di correlazione tra i dati forniti da ciascuna antenna. In questa analisi si utilizzano i dati "filtrati" delle diverse antenne funzionanti in coincidenza, cioè i dati sottoposti ad una elaborazione preliminare per migliorarne il rapporto segnale/rumore. Se, ad uno stesso istante, i dati di più rivelatori assumono valori significativamente elevati (rispetto ai dati rilevati ad altri istanti), si può concludere di aver rivelato, con una certa probabilità, un segnale dovuto ad una causa comune che agisce sull'insieme dei rivelatori, quale un impulso di onde gravitazionali. La probabilità che un'osservazione complessiva del tipo suddetto sia dovuta al caso (cioè sia prodotta dal rumore, indipendentemente in ogni antenna) si calcola moltiplicando tra loro le probabilità che siano dovuti al caso i dati forniti dai singoli rivelatori a quell'istante: questo è possibile in quanto si assume che il rumore e i disturbi agiscono indipendentemente e separatamente su ogni antenna. A titolo di esempio, supponiamo di misurare l'energia dell'antenna ogni secondo, e che segnali maggiori di una data ampiezza vengano rilevati una volta al giorno. Su due antenne identiche tali segnali saranno registrati allo stesso istante solo una volta ogni 237 anni. Con tre antenne identiche poi la frequenza di coincidenze casuali sale a una volta ogni 20 milioni di anni! Un problema che si presenta quando si devono correlare i dati forniti da più rivelatori situati in luoghi diversi e disposti con diversa orientazione, caratterizzati ciascuno dalla sua massa e frequenza di risonanza, è quello di normalizzare fra loro le risposte dei rivelatori per un assunto segnale gravitazionale. Nell'ipotesi che il segnale sia una perturbazione metrica di brevissima durata, non potendosi in generale fare alcuna ipotesi sulla posizione della sorgente, i parametri che si utilizzano per normalizzare i dati sono solo la massa (a cui è proporzionale l'energia raccolta da un rivelatore) e la frequenza di ciascuna antenna. Va considerato poi anche l'effetto della orientazione delle antenne sull'ampiezza del segnale ricevuto. La risposta di un'antenna dipende infatti dalla direzione di provenienza dell'onda: essa è massima per direzioni perpendicolari all'asse dell'antenna e varia fino a ridursi a zero quando la direzione è parallela all'asse. Se la direzione della sorgente non è nota, l'effetto dell'orientazione si può valutare solo in termini statistici, costruendo una funzione di probabilità che consente di dire quale è la probabilità di rivelare un segnale di ampiezza h, di cui si ignora la direzione di provenienza, utilizzando una o più antenne di cui venga fissata la soglia di rivelazione ad una frazione assegnata dell'ampiezza h del segnale dato. In tal modo, la probabilità di rivelare un segnale distribuito uniformemente sulla sfera celeste e non polarizzato crolla dal 50 al 10% quando le antenne, anzichè parallele, siano orientate come Explorer e l'antenna di Stanford (ponendo la soglia di rivelazione ad un livello corrispondente alla metà dell'ampiezza del segnale). Per questo motivo i gruppi gravitazionali di Roma, LSU e Stanford hanno recentemente deciso di ruotare le rispettive antenne in modo da disporle parallele ed aumentare quindi la probabilità di rivelazione: l'antenna Explorer è stata ruotata di circa 50 gradi nel marzo 1990. In generale, supponendo di disporre di un solo rivelatore e trovando un certo numero di segnali fuori statistica durante un periodo di osservazione, non si può certo affermare di aver rivelato onde gravitazionali. Se, invece di un solo rivelatore si dispone di almeno due rivelatori posti a grande distanza, e se le due antenne hanno uguale sensibilità, il risultato precedente cambia radicalmente. Infatti non solo si migliora la sensibilità dell'esperimento congiunto (di un fattore due) ma in presenza di un eccesso di segnale si riduce grandemente la probabilità che esso sia dovuto al caso, per cui potremmo per lo meno parlare di candidati di segnali gravitazionali. Il valore della probabilità anzidetta dipende molto d'altra parte dai disturbi, che purtroppo, almeno finora, alterano spesso la qualità dei dati e quindi la forma delle distribuzioni dei dati filtrati. Si ritiene dunque che sia indispensabile l'utilizzo di almeno due antenne per cercare di raggiungere l'obiettivo scientifico fondamentale di questa ricerca: rivelare per la prima volta con una misura diretta l'effetto di impulsi di onde gravitazionali dovuti ad eventi catastrofici quali esplosioni di supernovae.


RICERCA DI SORGENTI MONOCROMATICHE

La ricerca delle sorgenti gravitazionali monocromatiche, cioè di quelle sorgenti, come per esempio una stella di neutroni rotante, che emettono un flusso costante di radiazione ad una precisa frequenza, non ha finora ricevuto un interesse prioritario da parte di coloro che sviluppano antenne risonanti. Un'eccezione a quest'affermazione è l'esperimento del gruppo di Tokio, il cui obiettivo scientifico è la rivelazione della radiazione gravitazionale emessa dalla pulsar che si trova al centro della Nebulosa del Granchio. Poiché la rotazione della pulsar è di 30,21 Hz, l'emissione di onde gravitazionali è massima a circa 60 Hz e quindi questa deve essere la frequenza di risonanza dell'antenna ricevente. Un'antenna cilindrica con una tale frequenza di risonanza è di non facile realizzazione (dovrebbe essere lunga oltre 40 metri) e per questo i fisici giapponesi hanno sviluppato due antenne con geometrie particolari: la prima, a temperatura ambiente, aveva una struttura "a quadrifoglio" ed ha funzionato fino al 1980; la seconda, criogenica, costituita da due sbarre ortogonali e un disco centrale, è attualmente in funzione. Con queste antenne essi hanno posto limiti superiori via via più bassi alla radiazione proveniente dalla sorgente considerata. Attualmente, tuttavia, la sensibilità è ancora circa un fattore 100 sopra il livello di segnale previsto teoricamente che è h ~10 -24 . E' stato necessario risolvere notevoli problemi a causa della variabilità della frequenza della sorgente, dovuta all'effetto Doppler e alla perdita di energia della stella; tali variazioni infatti sono, durante il periodo di osservazione (qualche mese), ben più grandi della larghezza di banda della risonanza. Per questo i ricercatori del gruppo di Tokio hanno messo a punto un metodo per allargare la banda della risonanza (cioè abbassarne il fattore di qualità) senza perdere in sensibilità. La scoperta in anni recenti di alcune pulsar "al millisecondo", cioè di probabili sorgenti nella fascia di frequenza delle sbarre risonanti, ha tuttavia acutizzato l'interesse dei ricercatori. Si è pensato di costruire sbarre con frequenza di risonanza coincidente con la frequenza di una pulsar al millisecondo; tuttavia la stabilità in frequenza di quelle che conosciamo pone limiti sul flusso di radiazione emesso (che dipende dall'asimmetria assiale della stella) tali da rendere praticamente inutilizzabili le attuali antenne. Un altro tipo di ricerca, che può utilizzare le antenne gravitazionali attualmente operative, è la ricerca "alla cieca", che consiste nel cercare la presenza di sorgenti periodiche di cui non si conosca con altri mezzi (ottici o radio) l'esistenza. Per far ciò si possono utilizzare i dati normalmente forniti dalle antenne, a parte una cura particolare nella precisione della frequenza di riferimento se si usa uno schema di acquisizione che impieghi amplificatori lock-in. A questo punto bisogna sottolineare che la banda di frequenza in cui un'antenna risonante è sensibile a radiazione monocromatica non è la larghezza della risonanza (~ 1/10000 di Hz), ma è assai più estesa: essa dipende molto dal rumore del preamplificatore e può essere anche di varie decine di Hz. Con le attuali antenne criogeniche si pensa di poter rivelare onde periodiche di ampiezza h ~10 -24 . Un aspetto interessante di questo tipo di ricerca è che, a differenza del caso della rivelazione di impulsi, se il segnale è abbastanza al di sopra del fondo, basta una sola antenna per avere la certezza che ciò che si è rivelato è un'onda gravitazionale e per ottenere varie informazioni sulla sorgente. Si possono infatti dedurre, oltre alla frequenza e alla sua derivata temporale, la posizione sulla sfera celeste, l'ampiezza, la polarizzazione e quindi la direzione dell'asse di rotazione della stella. Ciò è reso possibile utilizzando il diagramma di radiazione dell'antenna, cioè la diversa risposta in funzione della direzione di provenienza e della polarizzazione, e l'effetto Doppler. Una ricerca "alla cieca" di sorgenti monocromatiche è stata fatta presso il gruppo di Roma utilizzando i dati di circa quattro anni dell'antenna a temperatura ambiente Geograv. I dati erano costituiti da una successione di misure delle due componenti dell'oscillazione del modo longitudinale della sbarra, eseguite ogni secondo. La banda in cui era possibile fare la ricerca per questa antenna era di 0.5 Hz intorno alla frequenza di risonanza. Poiché tale frequenza variava durante l'anno (per cause termiche) tra circa 856 Hz e 859 Hz, si è potuta esplorare una banda totale di circa 3 Hz. Dopo aver eliminato i periodi disturbati, abbiamo eseguito oltre 12000 stime spettrali, tramite FFT, su pezzi di circa 8000 secondi. I dati così ottenuti sono stati elaborati in vari modi, per ricercare sorgenti ovunque poste nel cielo o localizzate in direzione del centro della Galassia e nella Grande Nube di Magellano, e supponendo diverse possibili variazioni secolari della frequenza della sorgente. Nella ricerca da tutto il cielo, non sono state trovate sorgenti con h >1 . 10 -21 ; nella ricerca nel centro della Galassia e nella Grande Nube di Magellano, questo limite superiore è stato abbassato a h ~ 6 . 10 -22 . Per finire vogliamo accennare a un'altra classe di sorgenti che possono considerarsi a cavallo tra quelle periodiche e quelle impulsive: le binarie coalescenti. Come è noto, una coppia di stelle di neutroni, costituenti un sistema binario stretto, perde progressivamente energia, man mano che diminuiscono la distanza tra esse e il periodo orbitale. Tale processo raggiunge un ritmo elevatissimo poco prima che le due stelle entrino in collisione o siano distrutte dalle forze di marea. La frequenza della radiazione gravitazionale emessa, rapidamente variabile, può interessare la regione osservata dalle sbarre risonanti, mentre l'ampiezza è molto elevata. I teorici non sono ancora d'accordo sul numero di tali sistemi coalescenti a distanze tali da permetterne la rivelazione, ma si pensa che il numero di eventi di questo tipo rivelabili sia paragonabile a quello dovuto alle esplosioni di supernovae.


IL PROBLEMA DELL'AFFIDABILITÀ

Nell'impiego dei rivelatori di onde gravitazionali, come d'altronde di qualunque altro sistema complesso, ha grande importanza la loro capacità di funzionare con continuità su tempi lunghi con buone prestazioni. Questa caratteristica, che prende il nome di disponibilità, rappresenta in sostanza la probabilità che l'apparato funzioni correttamente a un istante qualsiasi durante un periodo prefissato. La disponibilità di un sistema dipende sia dalla affidabilità, cioè dalla qualità dei componenti che lo costituiscono, sia dalla mantenibilità, che esprime la durata media degli eventuali interventi di riparazione, sia dalla autonomia del sistema, che rappresenta la durata di funzionamento continuo, secondo il progetto, senza richiedere interventi quali, per esempio, operazioni di rifornimento. L'affidabilità, in particolare, esprime la probabilità che il sistema funzioni senza guasti su un periodo prefissato. Essa è data dal prodotto delle affidabilità di tutti i componenti essenziali al suo funzionamento: si capisce facilmente che questi, se sono molto numerosi, devono possedere un'affidabilità ottima (molto vicina all'unità) perché l'affidabilità complessiva risulti accettabile. Solo componenti ben collaudati, basati su tecnologie provate, presentano affidabilità molto buona; i componenti avanzati, introdotti di recente, mentre offrono migliori prestazioni sotto altri versi, sono spesso carenti dal punto di vista dell'affidabilità. Un alto valore di disponibilità è ancora più importante quando si voglia compiere un esperimento di rivelazione usando più antenne per migliorare la sensibilità complessiva: in questo caso, infatti, la disponibilità dell'esperimento complessivo è data ancora dal prodotto di quelle dei singoli rivelatori. Le antenne a temperatura ambiente, dette di prima generazione, sebbene forniscano prestazioni limitate dal punto di vista della rivelazione dei segnali, sono apparati di grande semplicità, costituiti da componenti ormai ben provati e dotati di grandissima autonomia. La loro disponibilità è generalmente molto alta, fra il 90 e il 100%. Queste antenne, in altre parole, una volta messe in funzione, raccolgono dati per tempi molto lunghi con un minimo di intervento: il massimo impegno, qui, riguarda l'analisi dei dati. Ad esempio, al tempo della supernova 1987A, erano in osservazione solo due antenne, entrambe a temperatura ambiente. Le antenne della seconda generazione, invece, sono sistemi più complessi, che si avvalgono di tecnologie avanzate per migliorare grandemente le prestazioni di sensibilità. Esse funzionano a temperatura uguale o inferiore a quella dell'elio liquido (4,2 K) e sono quindi soggette a interruzioni periodiche per il rifornimento dei liquidi criogenici. I vari componenti che esse utilizzano presentano affidabilità limitata, perché costituiscono il frutto di ricerche e sperimentazioni relativamente recenti, proprio per spingerne al massimo le prestazioni. Gli interventi di riparazione, poi, richiedono tempi che possono essere anche assai lunghi (dell'ordine di qualche mese) per la necessità di riportare a temperatura ambiente tutto l'apparato prima di poterlo aprire e poi, dopo avere eseguito le riparazioni, per raffreddarlo nuovamente alla sua temperatura di funzionamento. Sebbene le antenne criogeniche abbiano consentito di raggiungere sensibilità (in energia) oltre mille volte migliori di quelle a temperatura ambiente, la loro disponibilità è decisamente inferiore. Anche quando sono state tenute in funzione per vari mesi (a parte le necessarie interruzioni periodiche) i dati da esse forniti non sono stati sempre soddisfacenti. Si può dire anzi che una delle difficoltà maggiori nello sviluppo delle antenne criogeniche sia proprio il riuscire a mantenerle stabilmente in misura per lunghi periodi. In queste antenne, oltre agli aspetti già menzionati riguardanti i rifornimenti e le riparazioni, il problema principale consiste nell'ottenere il basso livello di rumore previsto dal progetto. Occorre, più precisamente, che il sistema non sia soggetto a disturbi occasionali, dovuti a vari effetti, compresi quelli esterni, che si manifestano nella forma di impulsi di ampiezza relativamente grande rispetto al rumore di fondo, anche se con frequenza relativamente bassa. Sono infatti proprio questi disturbi che riducono molto la sensibilità dell'apparato ai fini della rivelazione di eventuali segnali gravitazionali, anche se il valor medio del rumore è assai più basso. E' dunque chiaro che il futuro appartiene senza dubbio alle antenne criogeniche ed ultracriogeniche, ma sarà necessario che la affidabilità delle nuove tecnologie migliori fino a rendere pienamente fruibile la maggiore sensibilità già dimostrata. Nel frattempo esiste ancora spazio per le modeste, ma affidabili, antenne a temperatura ambiente.


LE ANTENNE A TEMPERATURA AMBIENTE

antenne a temperatura ambiente di Joseph Weber. Successivamente, per oltre una decade, vari gruppi (Istituto Max Planck a Monaco, università di Rochester, università di Mosca, università di Glasgow, IBM Watson Research Laboratories, Bell Lab. etc.) hanno replicato quegli esperimenti con apparati pressoché identici: un grande cilindro di alluminio sospeso in una camera da vuoto ed equipaggiato con ceramiche piezoelettriche per rivelarne le vibrazioni. L'esito non conclusivo di tali esperimenti ha costituito poi la motivazione principale per lo sviluppo di antenne criogeniche di ben maggiore sensibilità. Ancora oggi rivelatori a temperatura ambiente vengono sviluppati in luoghi dove limiti finanziari e tecnologici rendono difficile lo sviluppo immediato di rivelatori più elaborati (come le universitá cinesi di Pechino e Zhong Shan a Canton) o come primo passo verso la costruzione di antenne criogeniche (universitá di Mosca, del Maryland, di Tokio). Infatti, sebbene la ridotta sensibilità non permetta, secondo le stime teoriche attuali, di rivelare flussi di onde gravitazionali emessi da sorgenti astrofisiche, le antenne a temperatura am-biente sono strumenti essenziali per la preparazione di personale e strumentazione per antenne di seconda generazione (una specie di "simulatori di volo") ed un banco di prova utilissimo per la verifica di nuove tecnologie di rivelazione. Il gruppo di Roma ha seguito il percorso inverso: partiti nel 1970 direttamente con un programma di rivelatori criogenici, ci siamo resi conto, durante il lungo periodo di allestimento dell'antenna Explorer, che un' antenna a temperatura ambiente, con un modesto investimento di tempo e di mezzi, avrebbe rappresentato un prezioso strumento di lavoro, grazie ai suoi ridotti tempi morti (qualche ora tra un test ed il successivo, contro i quattro mesi necessari al riscaldamento e al raffreddamento di un'antenna criogenica). Per rispondere a questa esigenza sono nate le stazioni Agata al CERN e Geograv a Roma: entrambe le antenne sono ora utilizzate per provare nuovi componenti, dalle sospensioni ai trasduttori al software di acquisizione dati. Nei periodi in cui le antenne non sono utilizzate per questi test, esse vengono lasciate in acquisizione continua, e forniscono dati, seppure di modesta sensibilità, di ottima qualità e con grande continuità ed affidabilità.


L'ANTENNA AGATA

L' Antenna Gravitazionale A Temperatura Ambiente (AGATA) è stata allestita nel 1980 presso i laboratori del CERN, a Ginevra. Nei primi anni ha servito principalmente lo scopo di stazione di prova per elementi dell'antenna criogenica Explorer: su di essa sono state provati filtri meccanici antivibranti, i nuovi trasduttori capacitivi ed il software per l'acquisizione e la diagnostica on-line dei dati. Tali componenti sono stati successivamente impiegati con successo sull'antenna criogenica. Successivamente l'antenna è stata posta in misura, e ha raccolto dati per lunghi periodi pressoché ininterrotti. Tali dati sono interessanti per analisi di correlazione con l'altra antenna a temperatura ambiente del gruppo, Geograv, che è situata a Roma, a circa mille chilometri di distanza. Nella configurazione attuale Agata si compone di un'antenna di alluminio di 4500 chilogrammi, equipaggiata con un trasduttore capacitivo risonante: i due modi di vibrazione risultanti sono situati a 824 e 834 Hz, e la banda utile complessiva (cioè la regione di frequenza dove è possibile rivelare il segnale) è di circa 7 Hz. L'antenna utilizza un sistema di sospensioni di nuova concezione: un cavo di titanio, di 13 mm di diametro, che è ancorato direttamente al centro di massa del cilindro. Sebbene tale sospensione sia suggerita nel celebre testo di Lord Rayleigh "Theory of Sound" (del 1894 !), è la prima volta che viene applicata ad una antenna gravitazionale. I risultati della sperimentazione con questo metodo sono molto positivi, ed è allo studio la possibilitá di incorporare tale schema nell'antenna ultracriogenica Nautilus. Dall'aprile 1989 Agata è dotata di un sistema automatico di acquisizione dati, detto DAGA (Data Acquisition for Gravitational Antennas) che permette la gestione della maggior parte delle operazioni (con l'ovvia eccezione del cambio del nastro magnetico) a distanza, attraverso la rete che collega i vari calcolatori. Il controllo dell'esperimento viene quindi effettuato in larga parte da Roma, senza necessità di una presenza umana presso l'antenna. Attualmente è in progetto un programma di sviluppo che potrebbe portare in breve termine Agata a sensibilità dieci e più volte migliori, mediante l'uso di trasduttori bimodali e ad alto Q, e di amplificatori refrigerati. Ancora una volta quindi, Agata si presta a banco di prova per nuove tecnologie, con la speranza di poterle poi trasferire sulle antenne criogeniche.


L'ESPERIMENTO GEOGRAV

Sapienza, lavora a temperatura ambiente e presenta perciò una sensibilità relativamente bassa (temperatura efficace dell'ordine di 30 K). Essa ha tuttavia il grande vantaggio di un'altissima affidabilità: su sei anni di funzionamento, questo rivelatore ha avuto una disponibilità di 0,9, cioè ha raccolto dati per il 90% del tempo. E non a caso, al tempo della supernova 1987A, le uniche due antenne al mondo in funzione, entrambe a temperatura ambiente, erano Geograv e il rivelatore dell'Università del Maryland: i dati registrati da esse si sono rivelati di grandissimo interesse per le correlazioni con gli eventi dei rivelatori di neutrini. Sebbene l'apparato sia poco sensibile, la massa dell'antenna Geograv è 2300 kg, cioè la stessa dei più potenti rivelatori criogenici. Nei primi quattro anni di funzionamento, Geograv era equipaggiato con trasduttori di tipo piezoelettrico, collegati a un amplificatore elettronico a transistori a effetto di campo (FET). Le ceramiche piezoelettriche sono state poi sostituite con un trasduttore capacitivo risonante del tipo a fungo, simile a quello usato nell'antenna criogenica Explorer, sempre collegato a un amplificatore a FET, e questa è l'attuale configurazione di misura. Si tratta dunque di un'antenna con due modi di oscillazione (a frequenze di circa 848 e 864 Hz). Un'altra importante caratteristica di Geograv è che i dati raccolti sono assai "puliti": le distribuzioni seguono piuttosto bene l'andamento teorico, con un numero relativamente basso di impulsi fuori statistica. L'esperimento Geograv è nato con un duplice scopo: a) studiare effetti di correlazione fra i dati di antenne gravitazionali e quelli di rivelatori di segnali geofisici; b) disporre di una stazione di misura permanente, che fosse al tempo stesso utilizzabile per prove su nuove tecniche di acquisizione e di analisi dei dati. Per questo l'antenna Geograv è stata corredata di sensori ausiliari che registrano permanentemente varie informazioni: le vibrazioni del suolo (in varie bande di frequenza) e i disturbi elettromagnetici dell'ambiente (nella regione dei kHz). Questi dati ausiliari, sebbene siano utilizzabili anche come veto per i segnali dell'antenna (quando i disturbi ambientali eccedono i livelli del fondo), sono stati usati sopratutto per la ricerca di correlazioni di vario genere. Di particolare interesse sono gli studi compiuti con Geograv verso lo sviluppo di sistemi di acquisizione ad alta velocità, e quindi a larga banda, con registrazione diretta degli spettri del segnale, e la possibilità di eseguire analisi in tempo reale. La naturale evoluzione di questi studi riguarda le reti di antenne: già ora Geograv è collegato in rete con Agata, l'altra antenna a temperatura ambiente del gruppo, che è installata al CERN. Questo collegamento si estenderà in futuro anche ai rivelatori criogenici che entreranno via via in funzione permanentemente. La ricca base di dati raccolti da Geograv consente, accanto alla tradizionale ricerca di eventi impulsivi, anche studi che finora non erano stati possibili: fondo stocastico e onde periodiche. Su quest'ultimo punto, in particolare, sono già state svolte ricerche che hanno permesso di stabilire un limite superiore (h = 10 -21 ) per l'intensità di onde periodiche nella banda fra 856 e 859 Hz.


LA SUPERNOVA 1987A CORRELAZIONI FRA I DATI DI ANTENNE GRAVITAZIONALI E DI RIVELATORI DI NEUTRINI AL TEMPO DELLA SUPERNOVA SN1987A

Il 23 febbraio 1987, quasi quattro secoli dopo l'ultima osservazione di una supernova visibile a occhio nudo, fu individuata la potente luce proveniente dal collasso di una stella di 20 masse solari: la supernova 1987A. Questa volta il collasso era atteso anche dagli strumenti della nuova astronomia, rivelatori di neutrini e rivelatori di onde gravitazionali, i cui dati furono poi oggetto di attente analisi e condussero a risultati sorprendenti. In particolare, i dati di almeno tre rivelatori di neutrini rivelarono la presenza di fiotti di impulsi ben al di sopra delle fluttuazioni statistiche: attorno alle 2:52 (tempo universale) al rivelatore del gruppo di Torino al Monte Bianco, attorno alle 7:35 ai rivelatori del gruppo giapponese di Kamioka e del gruppo americano di IMB. E questa differenza di varie ore fra le due osservazioni, non spiegabile con le attuali conoscenze sui collassi di supernova, rappresenta tuttora un problema, che sollecita lo sviluppo di nuove teorie. Per quanto riguarda i rivelatori gravitazionali, sfortunatamente le sensibili antenne criogeniche si trovavano in fase di messa a punto, mentre erano in funzione le più affidabili antenne a temperatura ambiente delle università di Roma e del Maryland. Una prima analisi dei dati dell'antenna Geograv, installata presso il Dipartimento di Fisica dell'Universita "La Sapienza", mostrò immediatamente indicazioni per la presenza di correlazioni con i neutrini del Monte Bianco, con un ritardo di circa 1,2 secondi fra i dati registrati dall'antenna e gli eventi neutrinici. In seguito, disponendo anche dei dati dell'antenna del Maryland, divenne possibile compiere una ricerca più approfondita. Questa condusse all'individuazione di correlazioni molto evidenti dal punto di vista statistico (con probabilità di essere dovute al caso valutabili fra 10 -8 e 10 -6 ) fra i dati delle due antenne e gli eventi del rivelatore del Monte Bianco (usando non solo quelli del fiotto delle 2:52, ma anche quelli usualmente considerati come rumore di fondo), su un periodo di due ore attorno alle 2:52. La stessa analisi confermò inoltre il ritardo fra "onde gravitazionali" e "neutrini", precisandone il valore in 1,1 s. E qui le virgolette sono necessarie perché con queste denominazioni si intende soltanto indicare i dati registrati dai rispettivi strumenti, senza presumere, né d'altra parte escludere, che si tratti effettivamente di neutrini e/o di onde gravitazionali. E' ben noto, infatti, che i segnali osservati dalle antenne gravitazionali, se dovessero venire interpretati veramente come dovuti a impulsi gravitazionali, richiederebbero la conversione in energia gravitazionale di una massa circa diecimila volte maggiore di quella ammissibile nel collasso della stella che diede origine a SN1987A (a meno di rivedere la teoria standard dell'interazione delle onde gravitazionali con i rivelatori, ipotesi considerata recentemente da vari studiosi). Non si spiega, dunque, a tutt'oggi quale sia il meccanismo fisico alla base delle correlazioni che sono state osservate. Ma la possibilità che esse siano dovute al caso, cioè a fluttuazioni statistiche degli apparati di rivelazione, sembra oggi doversi escludere dopo che esse hanno trovato conferma nell'analisi svolta usando nuovi dati, quelli forniti dal gruppo giapponese di Kamioka e del gruppo americano di IMB. I risultati, trovati nonostante le difficoltà poste dalle incertezze sui tempi registrati da Kamioka (~1 minuto), sono sostanzialmente i medesimi, usando esattamente gli stessi criteri dell'analisi precedente. Questo accresce grandemente il significato statistico delle correlazioni fra "onde gravitazionali" e "neutrini" e richiede, allo stesso tempo, un rinnovato impegno per tenere in funzione rivelatori gravitazionali di sempre maggiore sensibilità, in attesa di nuovi eventi.


RETI DI ANTENNE E CALCOLATORI

Nella rivelazione delle onde gravitazionali impulsive è di fondamentale importanza l'utilizzo di più antenne operanti contemporaneamente. Un tale insieme di antenne, i cui dati vengono elaborati opportunamente, viene chiamato rete. Per capire la necessità delle reti di antenne, si noti che la risposta di un'antenna risonante ad un segnale gravitazionale non è praticamente distinguibile dalla risposta ad un disturbo locale, per esempio sismico: entrambe consistono, dopo il filtraggio, di brevi impulsi di forma praticamente indipendente dall'eccitazione, se questa è stata breve. Essi si distinguono dal fondo stocastico stazionario solo per l'ampiezza. Sebbene quasi tutte le antenne gravitazionali siano equipaggiate di sensori ausiliari per individuare i disturbi di tipo sismico ed elettrico, rimangono sempre un certo numero di disturbi locali che sfuggono a questo controllo. Se si hanno più antenne poste in località distanti, in modo da essere insensibili agli stessi disturbi locali, si possono escludere tutti gli impulsi non coincidenti temporalmente, o, più precisamente, più distanti dell'intervallo dato dalla distanza luce delle località (che non supera mai qualche decina di millisecondi). Ovviamente esiste sempre la possibilità che per caso alcuni disturbi locali impulsivi siano coincidenti in due o più antenne lontane, ma in genere la probabilità di questo evento può essere resa sufficientemente piccola. Se ipotizziamo che solo le onde gravitazionali siano in grado di eccitare contemporaneamente due antenne distanti, con questo metodo esse possono essere evidenziate. Ricordiamo che la risposta ad un impulso gravitazionale dipende molto dalla orientazione dell'antenna e dalla polarizzazione dell'onda, quindi due antenne non parallele possono rispondere in modo molto diverso allo stesso impulso. Di qui la necessità, per chi voglia fare coincidenze tra più antenne, di orientare le antenne per quanto possibile parallele. Poiché le antenne risonanti devono essere orizzontali, a parte casi particolari è impossibile porne più di due, in località distanti, esattamente parallele. Attualmente i gruppi di Baton Rouge, Roma e Stanford hanno convenuto di orientare le loro 4 antenne criogeniche in modo quasi parallelo. La filosofia di mettere tutte le antenne parallele ha un'importante controindicazione: tutte le antenne risultano contemporaneamente "cieche" a sorgenti poste in una parte del cielo. Quanto questa parte sia estesa, dipende dall'ampiezza dell'impulso gravitazionale. La parte di cielo in cui un'antenna gravitazionale risonante ha almeno metà del massimo di assorbimento di energia è due terzi dell'intera sfera celeste, per cui in prima approssimazione possiamo dire che con le antenne parallele si perde circa un terzo della sfera celeste. Se poi teniamo conto del fatto che un'antenna (e quindi anche un insieme di antenne parallele) è sensibile ad una sola delle due possibili polarizzazioni lineari di un'onda gravitazionale, si vede che la percentuale di sorgenti "perse" può essere ancora maggiore. Per massimizzare la copertura del cielo, cioè per minimizzare (o annullare) la probabilità di "perdere" un segnale gravitazionale, sono stati studiati altri criteri di scelta per l'orientazione delle antenne. Una variante di questo approccio consiste nel massimizzare la copertura della parte del cielo in cui si ritiene più probabile la presenza di una sorgente rivelabile, cioè, attualmente il centro galattico e quando le antenne saranno sufficientemente sensibili, l'ammasso di galassie nella costellazione della Vergine. C'è un altro aspetto per cui è necessario disporre di una rete di antenne gravitazionali. Infatti dai dati di una singola antenna possono ricavarsi scarse informazioni fisiche sulla sorgente e cioè solo l'esistenza dell'impulso e una rozza stima dell'ampiezza; nel caso di segnali molto forti può aversi una stima dell'andamento temporale. Se ci sono contemporaneamente osservazioni con altri strumenti (ottici, radio, rivelatori di neutrini...), la situazione cambia e possono farsi interessanti deduzioni, per esempio sulle velocità relative di neutrini, onde elettromagnetiche e onde gravitazionali. Dai dati di una rete di antenne gravitazionali, utilizzando il diagramma di radiazione ed eventualmente le differenze temporali di arrivo, possono ricavarsi invece la posizione della sorgente, l'ampiezza del segnale, l'angolo e la percentuale di polarizzazione. Affinché si possano ricavare queste informazioni in modo efficace, i criteri di orientazione delle antenne sono simili a quelli che ottimizzano la "copertura". Inoltre, se il numero di antenne è sufficientemente elevato, gli stessi algoritmi che stimano i parametri fisici suddetti possono essere utilizzati per eliminare eventi che, sebbene in coincidenza, non sono interpretabili come segnali gravitazionali. Si può cioè operare un filtraggio "fisico" dei dati, che può non solo aumentare la sensibilità della rete di antenne, ma può dare prove sulla natura gravitazionale del segnale rivelato. Affinché una rete di antenne gravitazionali sia efficiente, occorre che siano stabiliti degli standard di acquisizione e di archiviazione dei dati e che sia usato un rapido mezzo di scambio di essi. Un primo passo in questa direzione è il sistema DAGA (Data Acquisition for Gravitational Antennas) attualmente impiegato dalle quattro antenne del gruppo di Roma (Agata, Altair, Geograv ed Explorer). Tale sistema utilizza calcolatori MicroVAX della Digital Equipment Corp. che sono accessibili da moltissimi centri di ricerca tramite la rete INFNET dell'Istituto Nazionale di Fisica Nucleare. Per le antenne connesse, i dati sono immediatamente disponibili su tutti i nodi della rete e il controllo e la gestione dell'acquisizione possono essere agevolmente eseguiti a distanza. Inoltre i dati vengono trasferiti automaticamente ogni notte su un disco da 1,2 gigabyte connesso al VAX 8650 della sezione di Roma dell'INFN, dove possono essere "ridotti", analizzati congiuntamente ed eventualmente posti su altro supporto (per esempio dischi ottici). I dati acquisiti permangono sul disco per un periodo di circa un mese, mentre per i dati "ridotti", contenenti le informazioni statistiche e gli eventi, si prevede una ben più lunga permanenza.


LA TROTTOLA

In anni recenti è stato sviluppato un grande sforzo sperimentale teso a verificare, a distanze di laboratorio, la legge di Newton della gravitazione universale. Una serie di risultati sperimentali contraddittori uniti ad un certo interesse teorico speculativo hanno vivacizzato questo settore di ricerca, caratterizzato da un vasto numero di proposte di esperimenti basati sulle tecniche più varie. Ai classici sistemi di misura della forza gravitazionale, quali le bilance di torsione, la caduta dei gravi o misure di gravimetria classica si sono aggiunti infatti nuovi ingegnosi metodi. Tra questi è stato anche concepito un nuovo metodo dinamico, che prevede la generazione e la rivelazione di un campo gravitazionale variabile nel tempo: un corpo che funge da ricevitore ed uno da rivelatore, entrambi aventi un momento di quadrupolo gravitazionale. Il primo a realizzare un esperimento del genere fu J.A.Sinsky dell'università del Maryland che nel 1968 tentò di misurare l'effetto di un campo gravitazionale variabile nel tempo, prodotto da un cilindro posto in vibrazione, sull'antenna gravitazionale di prima generazione di J. Weber. Poiché dal 1986 è ormai in funzione la ben più sofisticata antenna gravitazionale criogenica del gruppo romano, è parso naturale cercare di realizzare un analogo esperimento. La sensibilità di questo rivelatore è ormai tale che questo tipo di misura può essere addirittura intesa come l'applicazione di un metodo di calibrazione assoluta dell'antenna. Diventa inoltre possibile, studiando l'andamento della risposta del rivelatore con la distanza di esso dal generatore, verificare l'esistenza di possibili deviazioni dalla dipendenza 1/r 2 della legge di gravitazione newtoniana. Un primo esperimento è stato fatto utlizzando come rivelatore l'antenna gravitazionale Explorer, e ponendo di fronte ad essa una massa rotante di alluminio Ergal 65 che ruota a metà della frequenza di risonanza dell'antenna e che ha un momento di quadrupolo gravitazionale di 5,5 . 10 -3 kg m 2 . Si tratta di un oggetto di forma cilindrica del diametro di 20 cm ed una altezza di 7 cm a cui sono state staccate simmetricamente due semilune, cosicché il corpo ha perso la sua simmetria cilindrica. Lungo l'asse del corpo è inserito un supporto elastico sul quale è ancorata una turbina. Questa viene azionata tramite due getti di olio a pressione, che costituiscono la parte terminale di un complesso circuito ad olio costruito in modo tale da limitarne le fluttazioni di pressione. Al di sotto del corpo del rotore è montato uno spesso piatto metallico di fronte al quale è stato posto un freno elettromagnetico costituito da 10 bobine di rame: controllando la corrente che scorre nelle bobine diventa possibile mantenere rigorosamente costante la frequenza di rotazione controllando addirittura le variazioni di fase del rotore. Il sistema di controllo, gestito da un personal computer, è basato sul confronto del segnale del rotore con un segnale di riferimento, di frequenza pari a metà della frequenza di risonanza dell'antenna; sulla base del risultato di tale confronto viene regolata automaticamente la corrente del freno in modo da mantenere la differenza di fase dei due segnali costante nel tempo. La difficoltà dell'esperimento risiede innanzitutto sul problema stesso della rotazione di un corpo così massiccio ad una frequenza di rotazione di circa 450 Hz, poiché gli sforzi dovuti al campo di forza centrifugo sono particolarmente elevati. Occorre infatti porre particolare attenzione a garantire opportunamente la sicurezza degli sperimentatori nel caso della disastrosa rottura in pezzi del corpo del rotore. E' quindi evidente che l'aspetto costruttivo principale risiede nell'attenta eliminazione di frequenze spurie nel sistema, che possono avere effetti dirompenti se non sono rapidamente superate e smorzate nella fase di accelerazione del rotore. E' poi da sottolineare che la condizione di misura da realizzare prevede che la frequenza di rotazione debba essere pari alla metà della frequenza dell'antenna con una precisione migliore di 5 . 10 -8 , a causa del valore estremamente ridotto della larghezza della curva di risonanza dell'antenna gravitazionale. In alcuni test preliminari sono state realizzate tali condizioni ed è stato quindi possibile misurare un segnale sull'antenna gravitazionale, di ampiezza 30 volte più grande del rumore del rivelatore, in ottimo accordo con le previsioni teoriche.


CAMPI GRAVITOMAGNETICI

Seguendo le idee di Ernst Mach, le forze inerziali sono dovute alle accelerazioni rispetto a tutta la materia contenuta nell'universo. Questa affermazione definisce anche i sistemi di riferimento inerziali che, quindi, "normalmente" non ruotano rispetto alle stelle fisse lontane. Se però consideriamo la situazione "anomala" in cui il giroscopio è nei pressi di una sfera ruotante di grande massa (per esempio la Terra), il sistema inerziale fissato al giroscopio dovrà in qualche maniera tenere conto, secondo il principio di Mach, oltre che della distribuzione media di materia nell'universo, anche della Terra che gli ruota vicino. Ciò che viene soltanto vagamente suggerito dal principio di Mach trova una precisa quantificazione in relatività generale. Un modo semplice ed elegante di ricavare gli effetti su giroscopi delle correnti di massa, consiste nell'utilizzare un punto di vista matematicamente equivalente a quello generale di spazio-tempo quadridimensionale nelle condizioni di campo gravitazionale debole e moto lento, come nel sistema solare. Infatti, separando lo spazio-tempo in uno spazio tridimensionale curvo più un tempo universale che differisce dal tempo proprio degli osservatori per un fattore di red shift gravitazionale, si arrivano a formulare 4 equazioni per due tipi di campi gravitazionali. Poiché queste equazioni sono del tutto analoghe alle equazioni di Maxwell per il campo elettromagnetico, il campo gravitazionale può essere scomposto nei campi gravitoelettrico, l'analogo gravitazionale del campo elettrico, e gravitomagnetico, l'analogo gravitazionale del campo magnetico. Grazie a questa similitudine il problema delle precessioni di un giroscopio in prossimità della Terra è analogo a quello, ben conosciuto, di un dipolo magnetico vicino ad una sfera carica ruotante. Trascurando qui l'effetto sul giroscopio del campo gravitoelettrico e della curvatura dello spazio tridimensionale, il campo gravitomagnetico agisce sul momento angolare del giroscopio in modo che quest'ultimo precede con una velocità angolare che dipende solo dalla sua distanza dalla Terra e dal momento angolare terrestre. E' importante sottolineare che la velocità angolare di precessione non dipende dalla struttura del giroscopio (conseguenza questa del principio di equivalenza) e quindi è possibile parlare di un effetto generale di "trascinamento" del sistema locale di inerzia da parte del corpo rotante. Fino ad ora molti esperimenti basati su osservazioni nel sistema solare e in sistemi binari hanno verificato i dettagli del campo gravitoelettrico e della curvatura dello spazio tridimensionale, ma nessun esperimento ha ancora provato, in modo chiaro ed inequivocabile, l'esistenza di effetti gravitomagnetici. Oltre al carattere fondamentale della scoperta in sé la misura è importante poiché il campo gravitomagnetico, che è così debole nel sistema solare, riveste un ruolo fondamentale in attuali modelli astrofisici di oggetti quasi stellari, in cui le energie gravitazionali in gioco sono maggiori di molti ordini di grandezza.


L'ESPERIMENTO SGR

L'esperimento SGR (Superfluidi e Gravitazione) consiste nello sviluppo di un rivelatore criogenico di rotazioni di elevata sensibilità e nel suo impiego a terra per la rivelazione del campo gravitomagnetico Lense-Thirring dovuto alla rotazione terrestre. La concezione dell'esperimento e le idee per due nuovi tipi di rivelatori di rotazioni basati su sistemi condensati ordinati a basse temperature furono inizialmente elaborate nel 1982 da Massimo Cerdonio e Stefano Vitale. Il Dipartimento di Fisica dell'Università di Trento e l'Istituto Nazionale di Fisica Nucleare hanno intrapreso, a partire dagli anni 1984-85, uno studio volto a stabilire la fattibilità dell'esperimento. L'effetto Lense-Thirring è descrivibile localmente come una rotazione del sistema inerziale rispetto alle stelle lontane ed è generato dalla corrente di massa di rotazione terrestre, più precisamente dal momento angolare terrestre. Alla latitudine di Trento (46 o ) l'effetto vale W LT =2.7 . 10 -14 rad/s. Si propone di misurare W LT tramite confronto tra la velocità di rotazione terrestre W Å così com'è misurata con tecniche astrometriche e la velocità angolare inerziale del laboratorio, W lab , com'è misurata da un sensore di rotazione dinamico. La differenza W Å - W lab contiene W LT assieme ad altri effetti di relatività generale. La migliore tecnica astrometrica disponibile è la Very Long Baseline Interferometry (VLBI), che misura l'orientazione di un riferimento globale, definito da una rete di radiotelescopi, rispetto alle più lontane sorgenti extragalattiche. Questa tecnica è non locale, non dà risultati in tempo reale e quindi non permette l'osservazione diretta nel sistema di riferimento del laboratorio di W Å con la precisione a cui lo misura. Invece è in grado di fornire a posteriori la media temporale di W Å con una accuratezza del 3% W LT con due osservazioni di routine di un giorno ciascuna separate da un intervallo di tempo di un anno. Per quanto riguarda la misura della media temporale di W lab è necessario disporre di un sensore inerziale di velocità angolare di sensibilità ~10 -12 rad/(s ÖHz) corrispondente al 2% di W LT , se il segnale viene mediato per un anno. Uno studio di fattibilità, condotto nel 1986, ha mostrato che, in linea di principio, non sembrano esserci limitazioni per la realizzazione di un esperimento Lense-Thirring a terra se non quella di poter disporre di un rivelatore inerziale sufficientemente sensibile e quella di poter distinguere dall'effetto eventuali microrotazioni lente del laboratorio rispetto alla rete di radiotelescopi VLBI. Riteniamo che il Giroscopio Giromagnetico ad Elettroni e l'analogo superfluido dello Squid rf, descritti più avanti, possano in futuro dimostrarsi realistici candidati come rivelatori inerziali. Altri gruppi di ricerca nel mondo stanno sviluppando sensori inerziali basati su differenti principi di funzionamento, i giroscopi laser ad anello (gyrolasers), che in futuro potrebbero anch'essi raggiungere la sensibilità necessaria all'esperimento.


GIROSCOPIO GIROMAGNETICO AD ELETTRONI

Il Giroscopio Giromagnetico ad Elettroni (GEG) è un rivelatore di velocità angolare di nuova concezione senza parti in movimento relativo, il cui principio di funzionamento è basato sul fenomeno della magnetizzazione per rotazione. Come è noto, tale fenomeno può essere riassunto brevemente come segue: quando un materiale magnetico viene fatto ruotare rispetto al sistema di riferimento inerziale, con velocità W, esso si magnetizza. La stessa magnetizzazione si può ottenere applicando al materiale magnetico, fermo nel sistema di riferimento inerziale, un campo magnetico il cui valore è legato alla rotazione W dai cosiddetti coefficienti giromagnetici, che hanno valore diverso a seconda del materiale magnetico considerato. Per esempio il coefficiente giromagnetico per i ferromagneti isotropi vale circa il doppio di quello per i superconduttori. Questa differenza riflette la diversa origine del magnetismo nei due materiali: essenzialmente dovuto allo spin elettronico nei ferromagneti, di origine orbitale, invece, nei superconduttori. Il Giroscopio Giromagnetico ad Elettroni è composto di una barretta ferromagnetica racchiusa in uno schermo superconduttore e di un magnetometro SQUID che legge le variazioni di magnetizzazione della barretta. Quando tutto il sistema viene fatto ruotare la magnetizzazione indotta nella barretta è dovuta a due contributi: il campo magnetico equivalente dovuto alla rotazione della barretta ferromagnetica stessa (effetto Barnett) e il campo magnetico equivalente dovuto alla rotazione dello schermo superconduttore (momento di London). Grazie alla diversità dei coefficienti giromagnetici, questi due contributi non si annullano a vicenda e in tal modo lo SQUID legge una variazione di flusso proporzionale alla variazione della componente della velocità angolare del giroscopio lungo il suo asse. Nel caso limite di schermo superconduttore perfetto, cioè senza buchi, le variazioni di campo magnetico esterno (ambientali) non vengono avvertite dallo SQUID. Poiché il GEG è sensibile solo a variazioni di velocità angolare, per rivelare rotazioni costanti o variabili molto lentamente è necessario modulare l'orientazione dello strumento nel sistema di riferimento ruotante. La principale sorgente di rumore in questo genere di strumenti è dovuta al ferromagnete. La magnetizzazione della barretta ferromagnetica in equilibrio termico a temperatura T fluttua dando un rumore di tipo Nyquist il cui ordine di grandezza può essere stimato eguagliando le fluttuazioni termiche di energia magnetica a kT. Questo rumore magnetico termico dipende dalla temperatura, dal volume e dall'andamento in frequenza della permeabilità della barretta ferromagnetica. Un primo prototipo di GEG di bassa sensibilità è già stato realizzato e caratterizzato, trovando un buon accordo con il comportamento previsto. Recentemente è stato scoperto un rumore magnetico di tipo 1/frequenza (la cui ampiezza cioè cresce al diminuire della frequenza a cui lo si osserva) anch' esso di origine termodinamica. Questo rumore di natura intrinseca, che limita drasticamente le prestazioni dello strumento a basse frequenze, è però diverso a seconda del materiale ferromagnetico usato. Si stanno cercando quindi dei materiali che pur conservando le caratteristiche che permettono un'elevata sensibilità del GEG, presentino un basso rumore 1/f. Attualmente è in costruzione presso i Laboratori Nazionali di Legnaro dell'INFN un secondo prototipo GEG che, nonostante le limitazioni imposte dal rumore magnetico termico di tipo 1/f, si ritiene sarà in grado di misurare la velocità di rotazione terrestre in un tempo di osservazione di circa un secondo.


SQUID A NUCLEO FERROMAGNETICO

Un sistema composto da uno SQUID accoppiato ad un ferromagnete e racchiuso in uno schermo superconduttore può, in linea di principio, rivelare interazioni non elettromagnetiche tramite l'effetto che queste hanno sugli spin degli elettroni del ferromagnete. Come un sistema di questo tipo sia sensibile a campi inerziali e gravitazionali è illustrato nei paragrafi precedenti. Viene qui brevemente descritto come un GEG di grandi dimensioni, ~1 m 3 , potrebbe essere impiegato per la ricerca della cosiddetta "materia oscura" dell'universo, uno dei grandi problemi aperti in cosmologia. Infatti si osservano effetti gravitazionali su scala galattica che non sono spiegabili con la sola materia osservata e richiedono l'esistenza di materia non ancora scoperta perché non luminosa. Un candidato recentemente proposto come costituente della materia oscura è l'assione. Si ipotizza che un "bagno" di tali particelle di piccola massa, ~10 -5 eV, possa costituire un alone attorno alla nostra galassia e rendere conto in tal modo della massa galattica mancante. L'accoppiamento tra gli assioni galattici e gli spin degli elettroni nel ferromagnete può essere descritto in termini di un campo magnetico efficace che non varia apprezzabilmente nello spazio ed ha media temporale nulla. L'effetto di questo campo magnetico efficace sul sistema GEG è quello di aggiungere al rumore magnetico termico dovuto al ferromagnete ulteriore rumore in una stretta banda centrata sulla frequenza corrispondente alla massa assionica. Poiché l'intensità di conversione degli assioni in campo magnetico efficace dipende dalla velocità quadratica media del gas di assioni rispetto al piano trasversale della magnetizzazione del ferromagnete, il segnale viene modulato con periodo di un giorno a causa del moto combinato di rotazione della Terra e movimento del Sole attorno al centro galattico. Questo particolare effetto dovrebbe permettere una più facile identificazione del segnale. Utilizzando un sistema di circa 1 m 3 di volume ferromagnetico totale con permeabilità 5000, frequenza di taglio 1 GHz e raffreddato a 10 -2 K, parametri questi non irragionevoli, sarebbe possibile rivelare qualche migliaio di assioni con un tempo di integrazione del segnale di circa un giorno e porre così limiti significativi alla loro ipotetica presenza come componenti della materia oscura.


UNO SQUID A ELIO SUPERFLUIDO

Dal punto di vista teorico è possibile utilizzare l' 4 He superfluido (He II) per costruire uno strumento in grado di misurare piccole velocità angolari di rotazione rispetto al sistema localmente inerziale. In sintesi la superfluidità consiste: a) nell'assenza di viscosità nel liquido, che si può così trattare come un fluido perfetto, b) nella quantizzazione della circolazione del campo di velocità, valida in un sistema di riferimento inerziale, e c) nell'irrotazionalità in strutture semplicemente connesse. Quindi dell'He II in un toro cavo (un circuito a forma di ciambella) può assumere solo valori ben definiti di velocità rispetto al sistema localmente inerziale, dipendenti dallo stato di circolazione, che, grazie all'assenza di viscosità, non cambia se si mette il circuito in rotazione; misurare costantemente la velocità relativa superfluido- pareti del toro equivale a misurare le variazioni di velocità angolare del toro. Per misurare la velocità relativa bisogna interagire con il superfluido; a questo scopo si interrompe il toro con una "giunzione", cioè un ostacolo o una strettoia: uno stato di circolazione risulta stabile fino a quando la giunzione è attraversata da un flusso critico J o di materia, dopo di che il superfluido compie una transizione verso uno stato che riduce la corrente di massa. Dato che il flusso attraverso la giunzione dipende dalla velocità angolare W t , rivelando il momento angolare assorbito o ceduto dal toro si può vedere quando la velocità angolare è tale da generare una transizione. Volendo misurare lente variazioni di velocità angolare DW t che da sole non inducono transizioni, si può sovrapporre una rotazione nota (modulazione), misurando di quanto bisogna aumentare la velocità angolare per raggiungere una transizione; questo metodo sperimentale è ampiamente collaudato negli SQUID superconduttori a radiofrequenza per la misura di flusso magnetico, le variazioni misurate non dipendono da J o e sono periodiche nel flusso. Una "giunzione" con le caratteristiche opportune potrebbe essere un setto con al centro un forellino micrometrico. In questa situazione sono importanti i vortici quantizzati, che inducono nel superfluido un campo di velocità con circolazione unitaria intorno a un asse (nucleo) non superfluido. Essi permettono un'interazione tra ambiente e liquido, perché contribuiscono al moto del superfluido, mentre il nucleo, non superfluido, può interagire con le pareti del contenitore. Analizzando la dissipazione tramite vortici, si dimostra la possibilità di avere transizioni di circolazione con assorbimento di energia, a valori ben definiti del flusso critico J o . Lo strumento proposto sulla base di questi studi teorici è un analogo a He II dello SQUID a radiofrequenza, che utilizza un forellino di 10 -5 cm di raggio ed ha una sensibilità prevista di 10 -7 rad/(sec ÖHz). Il segnale di modulazione viene fornito facendo oscillare il toro inserito in un pendolo torsionale eccitato in risonanza; osservando l'ampiezza di oscillazione in funzione del momento torcente di forzatura, è possibile valutare l'intensità della modulazione a cui avviene la dissipazione di energia. L'effettiva realizzazione dello strumento dipende dalla precisione con cui è possibile fornire la velocità angolare di modulazione al toro, rivelando poi gli assorbimenti di energia conseguenti alle transizioni. Attualmente sono in corso misure di dissipazione sull'He II contenuto in un toro di 1 cm di raggio, utilizzando un sensibile sistema di rivelazione della posizione del toro con una sensibilità in ampiezza 3 . 10 -9 rad/ ÖHz. Il forellino montato in questo apparato è 5 mm, troppo grande per poter utilizzare questo prototipo come misuratore di velocità angolare; è stata comunque dimostrata la possibilità di indurre una dissipazione riproducibile facendo oscillare il toro.


RELAZIONI INTERNAZIONALI

La ricerca delle onde gravitazionali è, per sua stessa natura, un'attività che richiede collaborazione tra vari gruppi nel mondo, e questo avviene per un doppio ordine di motivi, sia scientifici che tecnologici. La motivazione scientifica consiste ovviamente nel fatto che la rivelazione di onde gravitazionali al di là di ogni ragionevole dubbio richiederà una concordanza di osservazioni tra varie stazioni, e la discriminazione dai disturbi locali richiede che tali antenne siano situate in luoghi geograficamente lontani. Ancora più importante è la considerazione che la direzione di arrivo dell'onda gravitazionale sarà determinabile solo dal ritardo relativo con cui i diversi rivelatori rispondono (per fare un esempio, alla velocità della luce, che è propria delle onde gravitazionali, Roma dista dalla California 30 millisecondi), ed è pertanto naturale che, in vista della costituzione di un osservatorio gravitazionale di scala planetaria, i vari gruppi operanti abbiano fin d'ora stretti rapporti di collaborazione. La motivazione di carattere tecnologico invece trae origine dall'estrema difficoltà degli esperimenti in questione: ricordiamo che per avere una seria possibilità di rivelare la radiazione gravitazionale occorre costruire strumenti capaci di rivelare vibrazioni, in oggetti macroscopici, di ampiezze inferiori alla milionesima parte del raggio di un protone. Tali strumenti non esistono a tutt'oggi, e la tecnologia per realizzarli è in continua evoluzione, grazie soprattutto alla stretta collaborazione tra ricercatori di ogni parte del mondo. Se dal 1960 ad oggi le antenne hanno migliorato la loro sensibilitá di un fattore diecimila, ció è in gran parte dovuto all'interscambio di tecnologie ed al flusso di informazioni che ha avuto luogo tra i vari gruppi coinvolti. La nostra fiducia nella possibilità di guadagnare, negli anni a venire, quell'ulteriore fattore diecimila che ancora ci separa dal nostro obiettivo, risiede anche in questo sistematico condividere scoperte ed innovazioni con i colleghi impegnati sullo stesso obiettivo in tante parti del mondo. In particolare il gruppo di Roma ha avuto un rapporto di collaborazione particolarmente stretto fin dalla nascita con i gruppi delle università americane di Stanford e della Louisiana, ed ha poi intrattenuto relazioni scientifiche anche con i laboratori delle università di Perth (Australia Occidentale), Maryland (Stati Uniti) e più recentemente Mosca (Unione Sovietica). Interessanti sono state anche le interazioni con i gruppi che perseguono lo stesso obiettivo scientifico con la tecnica degli interferometri laser: Max Planck, Glasgow, Orsay, Pisa, MIT, Caltech, coinvolgendo dunque tutti i più prestigiosi istituti scientifici. Ma la parte più proficua delle collaborazioni internazionali è forse lo scambio di ricercatori e studenti, per brevi periodi come per diversi anni: a Roma sono stati ospiti ricercatori di Tokio, Maryland, Pechino, Mosca, Perth, Rochester mentre ricercatori del gruppo romano si sono recati per lunghi periodi a Stanford, Rochester, Maryland, apportando contributi rilevanti alle attività di quei centri. Queste interazioni portano anche delle ricadute molto importanti sul piano sociale e delle comunicazioni fra i popoli, e questo è tipico di tutte le ricerche scientifiche avanzate. Un discorso a parte merita ovviamente il CERN (Centro Europeo Ricerche Nucleari) ove si svolge larga parte dell'attività. Va sottolineato che l'ambiente internazionale e la ricchezza di competenze scientifiche e tecnologiche disponibili presso il CERN hanno notevolmente giovato alla formazione di molti componenti del gruppo. Si può veramente dire che qualunque sarà il gruppo che giungerà per primo ad osservare le onde gravitazionali, si tratterà di una scoperta compiuta in collaborazione da tutti i ricercatori del Pianeta.


LE ALTRE ANTENNE NEL MONDO OGGI (1990)

Università di Stanford (California, USA) Antenna criogenica in alluminio di 4800 kg, trasduttore risonante induttivo superconduttore, dc SQUID commerciale. L'antenna è stata seriamente danneggiata dal terremoto del 1989. Antenna ultra criogenica in preparazione.

Caltech, (California, USA) Interferometro, 40 metri di braccio, 75 km cammino ottico.

MIT, (Massachussets, USA) Interferometro, prototipo di 1.5 metri di braccio, 80 m cammino ottico.

Insieme gli istituti di Caltech e MIT partecipano al progetto LIGO: Due interferometri di 4 km di braccio. Studio di fattibilità in corso.

LSU (Baton Rouge, Louisiana, USA) Antenna criogenica in alluminio di 2400 kg, trasduttore risonante induttivo superconduttore, dc SQUID commerciale. Attualmente quasi pronta per entrare in misura.

Università del Maryland (USA) Antenna criogenica in alluminio di 1200 kg, trasduttore induttivo a tre modi, dc SQUID. In sviluppo. Due antenne a temperatura ambiente, in misura.

Università di Rochester (New York, USA) Piccola antenna in alluminio a sospensione verticale, trasduttore parametrico b.a.e. In costruzione.

Università di Parigi, Orsay, Francia e INFN, Pisa, Italia progetto VIRGO: Interferometro, 3 km di braccio, sensibilità alle basse frequenze; studio di fattibilità in corso.

Istituto Max Planck (Garching, Germania ) Interferometro, 30 metri di braccio, 3 km cammino ottico.

Università di Glasgow (Regno Unito) Interferometro, 10 metri di braccio, 30 km cammino ottico. I due istituti collaborano ad un progetto per due inteferometri paralleli, 3 km di braccio; studio di fattibilità in corso.

Università di Mosca (Federazione Russa) Antenna a temperatura ambiente con trasduttore parametrico. In sviluppo.

Università di Tokio (Giappone) Antenna torsionale criogenica in alluminio sensibile alla frequenza della Crab-pulsar (66 Hz): ricerca di una sorgente periodica. In misura.

Università di Pechino (R.P.Cina) Antenna in alluminio di 1300 kg a temperatura ambiente, trasduttore piezoelettrico, in misura.

Università Zhong Shan (Canton, R.P.Cina) Antenna in alluminio di 2000 kg a temperatura ambiente, trasduttore piezoelettrico. In misura. Interferometro di 3 metri di braccio. In sviluppo.

ISAS (Tokio, Giappone) Interferometro, 10 metri di braccio, 1 km cammino ottico. In sviluppo.

UWA (Perth, Australia) Antenna in niobio di 1500 kg, trasduttore parametrico. In sviluppo Antenna interferometrica; proposta.


CONCLUSIONI E SVILUPPI FUTURI

La spinta data da Edoardo Amaldi sin dal lontano 1961 ha già dato i suoi frutti. L'Italia dispone oggi di due antenne gravitazionali criogeniche funzionanti a 2 K, una al CERN (Explorer) e l'altra a Frascati (Altair). Queste sono entrate in funzione recentemente e sono le uniche antenne ad alta sensibilità in osservazione oggi nel mondo: vere e proprie sentinelle, in vigile attesa, insieme ai grandi rivelatori di neutrini, che una stella lontana subisca il collasso gravitazionale e si accenda una supernova. Il fatto che la ricerca italiana abbia raggiunto posizioni di avanguardia in questo campo ha reso possibile una espansione dell'attività. Nel giro di pochi anni altre due antenne risonanti criogeniche di nuova concezione entreranno in funzione: l'antenna Auriga a Legnaro e l'antenna Nautilus a Frascati. Anche in questo caso si trattera di due grandi cilindri di alluminio, ma essi saranno raffreddati a 50 mK, temperatura mai raggiunta finora per corpi di grandi dimensioni. Con queste antenne sarà possibile rivelare i collassi gravitazionali che avvengono in galassie lontane, fino all'ammasso della Vergine, alla distanza di ben 15 Mpc. Si disporrà di una rete di antenne operanti a varie frequenze con la quale sarà possibile non solo rivelare le onde gravitazionali, se esistono, ma anche di studiarne le proprietà. Se le onde gravitazionali non dovessero esistere avremmo comunque ottenuto un risultato di grande importanza, che renderebbe necessario riscrivere molte pagine di fisica fondamentale. La scoperta delle onde gravitazionali cambierà la nostra concezione dell'Universo con conseguenze non immaginabili ora, forse così come avvenne con la scoperta del telescopio ai tempi di Galileo. Da quei tempi a tutt'oggi l'astronomia si è arricchita di molte nuove finestre e strumenti di indagine, allargando lo spettro di osservazione ai raggi X e all'infrarosso, specialmente con l'avvento, negli ultimi 30 anni, della tecnologia spaziale, ma senza uscire dall'ambito della radiazione elettromagnetica. Con le antenne gravitazionali potremo ricevere dall'Universo messaggi di natura del tutto diversa. Fare speculazioni su come le nostre idee attuali potranno cambiare richiede grande fantasia che è inutile esercitare finché dati sperimentali ben verificati non saranno disponibili. Riteniamo che la prima osservazione delle onde gravitazionali porterà inoltre ad una grande espansione di questa attività, nelle Università e negli altri centri di ricerca. Gli sviluppi già previsti nell'ambito del CIRG sono (seguendo una idea di Amaldi) di costruire molte antenne operanti a diverse frequenze, in modo da avere tutta l'informazione necessaria a ricostruire in dettaglio la forma del segnale gravitazionale, e di installare delle antenne nel Laboratorio Nazionale del Gran Sasso, per assicurare adeguata protezione dai raggi cosmici. Tale protezione sarà necessaria quando la sensibilità delle antenne raggiungerà livelli a cui sbarre da 2300 kg si comportano come oscillatori quantistici. Per raggiungere tale sensibilità saranno necessari trasduttori, amplificatori e altri componenti di prestazioni superiori e di nuova concezione, il cui studio e sviluppo è già in corso. Insomma, tutto sembra indicare che i gruppi italiani giocheranno un ruolo di primo piano in questo affascinante campo di ricerca.