Universo in Fiore Struttura a Larga scala e Teoria del BigBang
←
→
Trascrizione del contenuto della pagina
Se il tuo browser non visualizza correttamente la pagina, ti preghiamo di leggere il contenuto della pagina quaggiù
Universo in Fiore Struttura a Larga scala e Teoria del BigBang Angela Iovino Di tutti i temi dell’astronomia forse uno dei più affascinanti è quello delle dimensioni globali dell’Universo nel suo complesso e, simultaneamente, della posizione dell’essere umano nell’ordine cosmico. Le domande sulla nostra collocazione all’interno dell’Universo sono coeve alla nascita del pensiero razionale e praticamente tutte le società e culture, dagli albori della storia, hanno tentato di dare una spiegazione a quello che osserviamo in cielo nelle notti stellate, a partire dalla bellissima Via Lattea. Basti citare la mitologia Egizia che vedeva nella Via Lattea il corpo della dea Nut che abbraccia la terra, oppure la mitologia greca, che vi vedeva il latte che la dea Giunone schizzò in cielo allontanando dal suo seno Ercole, figlio illegittimo di Giove. Tuttavia affrontare in modo scientifico la domanda sulla struttura tri- dimensionale di quello che osserviamo in cielo, e quindi sulla nostra posizione nell’Universo, vuol dire dare esser in grado di dare una risposta che sia passibile di esser confermata o refutata dalle osservazioni, e per aver questa possibilità occorre aspettare tempi più recenti. Quali sono i metodi che ci hanno permesso di scoprire la struttura tri- dimensionale dell’universo andando oltre il sistema solare ? Come si è passati dalla visione bidimensionale degli oggetti distanti che ci è offerta da una notte stellata a quella tri-dimensionale, con le sue distanze incommensurabili, che oggi conosciamo ? In questa conferenza seguirò un approccio storico al problema della determinazione della nostra posizione del cosmo, ricostruendo il cammino che ci ha permesso di ottenere queste nuove conoscenze. Tuttavia prima di partire per questo affascinante percorso vorrei ricordare tre semplici, ma importanti, punti. Innanzitutto misurare le distanze in astronomia non ha nulla a che fare con le misure delle distanze effettuate in laboratorio o in generale sulla terra. Non possiamo certo srotolare metri o utilizzare regoli, ma neppure, se non per gli
oggetti più vicini, effettuare delle triangolazioni o ricorrere ad analoghi metodi geometrici. Una analogia che ben rende l’idea della nostra situazione è quella dell’osservatore che si trova su una terrazza, dalla quale non si può muovere, ma che intende misurare le distanze degli oggetti che osserva e che sono al di là dalla sua portata diretta, sia quelli più vicini (lampioni, macchine sulle strade) che quelli mediamente distanti (le case, i grattacieli, i quartieri più distanti) che, infine, le città visibili solo in lontananza. Un compito tutt’altro che semplice e che richiede la messa in azione di strategie diverse, analogamente a quanto hanno dovuto fare gli astronomi per ricostruire la struttura tri-dimensionale del cosmo. In altre parole l’osservatore è bloccato sulla sua posizione (la terra) e dovrà ingegnarsi per misurare le distanze, ad esempio utilizzando lampioni/candele cosiddetti standard. Il concetto di lampione o candela standard è fondamentale per la misura delle distanze in astronomia e si basa su una analogia di semplice comprensione. Se di un oggetto, ad esempio una lampadina, è nota la luminosità intrinseca e se ne misura la sua luminosità apparente se ne può stimare la distanza, sfruttando il fatto che la luminosità apparente è tanto più fievole rispetto alla luminosità intrinseca quanto più la lampadina - o l'oggetto in questione - è da noi distante. La dipendenza si esprime con una legge semplice dato che il decremento di luminosità di un oggetto e' proporzionale all'inverso del quadrato della distanza dell'oggetto da noi, In generale in astronomia si definisce candela standard un oggetto astronomico che ha una luminosità intrinseca conosciuta e di cui si può quindi stimare la distanza nota che ne sia la luminosità apparente osservata. Se quindi il nostro astronomo che osserva sul terrazzo fosse sicuro che la luminosità dei lampioni che illuminano le strade non cambia da una strada all’altra (ossia se tutti i lampioni obbedissero allo stesso standard di costruzione), potrebbe distinguere tra strade più vicine e strade più lontane. Se poi conoscesse conoscesse anche la luminosità intrinseca dei lampioni standard potrebbe stimarne l'esatta distanza da sé. Inoltre l'astronomia ha a che fare con oggetti estremamente deboli, e questo è il motivo per cui gli astronomi da un lato puntano alla costruzione di telescopi di apertura (diametro) sempre più grande, che permettono di raccogliere una quantità maggiore di quanti di luce – fotoni - provenienti dalle stelle e, dall'altro ad avere, sul piano focale del telescopio, un recettore che sia in grado di registrare la maggior parte dei fotoni che il telescopio ha raccolto grazie alla sua superficie
E' un pò come si farebbe per raccogliere in modo efficiente la pioggia: un catino più grande possibile e che sia a tenuta stagna! Tanto per dare un po' di numeri, ricordiamo che Venere, che senz'altro molti di noi hanno visto in cielo, rispetto ad Andromeda, che pure è visibile ad occhio nudo essendo una galassia molto vicina e tra le più brillanti in cielo, ha un rapporto di luminosità apparente tale che nell’intervallo di tempo in cui da Venere arrivano 10.000 fotoni, da Andromeda ne arriva uno solo! E questo per non parlare di galassie non visibili ad occhio nudo. Tipicamente l'astronomia oggi si cimenta con oggetti così fievoli che nello stesso intervallo di tempo in cui da Andromeda ci arrivano un milione di fotoni, da essi ne arriva uno solo! Quindi gli oggetti da osservare sono molto, molto deboli … per osservare i quali occorrono strumenti adeguati: non basta l’occhio nudo ed un piccolo telescopio. Occorrono strumenti potenti! E si tratta poi di oggetti molto, molto distanti …. E ciò fa sì che problematica della misura delle distanze sia poi complicata ulteriormente da una altra peculiarità legata alle enormità delle scale in gioco. Questa peculiarità è dovuta al fatto che il vettore delle informazioni nell’Universo sono i fotoni, le particelle elementari che trasportano la radiazione elettromagnetica e quindi anche la luce. E i fotoni non si muovono nell’universo a velocità infinita, tutt’altro: la loro velocità di propagazione è molto alta (circa 300.000 km al secondo) ma finita e quindi guardare lontano nello spazio equivale a guardare lontano nel tempo. In altre parole man mano che guardiamo oggetti più distanti , osserviamo fotoni che cominciarono il loro viaggio verso di noi in tempi progressivamente più remoti. Ad esempio ricordiamo che dal sole - che è la stella a noi più vicina essendo solo 150 milioni di Km di distanza dalla terra - la luce impiega circa 8 minuti ad arrivare. Andromeda, una tra le galassie più vicine alla nostra, si trova ad una distanza tale che la luce che parte da essa parte impiega per raggiungerci ben 2 milioni e mezzo di anni. Come conseguenza della velocità finita di propagazione della luce, quindi, osservare a gusci via via più distanti di spazio è anche osservare gusci via via più lontani nel tempo da noi. Spazio e tempo sono inestricabilmente legati e la luce è un messaggero che ci porta le notizie del momento in cui è partita per il suo lungo percorso verso di noi. I telescopi possono esser paragonati a delle macchine del tempo: guardano lontano non solo nello spazio ma anche nel tempo! Similmente gli astronomi son contemporaneamente cartografi e storici: man mano che guardano lontano nello spazio, per ricostruirne delle mappe precise, riescono anche a guardare lontano nel tempo, ad epoche cosmiche via via più remote.
E questo fatto comporta una ulteriore complicazione anche nella misura delle distanze: bisogna esser sicuri che i nostri lampioni standard lo siano veramente. Per continuare con la nostra analogia di sopra, occorre appurare che un lampione distante sia fatto con la stessa tecnologia di quelli vicini ed evitare di confrontare lampioni ottocenteschi che utilizzano candele con, per fare un esempio, lampioni al sodio odierni. La nostra cartografia dell'Universo è quindi basata sulle osservazioni che da un lato ci hanno permesso di acquisire informazione sulla struttura tridimensionale del cosmo, quindi osservazioni di distribuzione spaziale, in 3D, degli oggetti, e che dall'altro ci informano sulla storia dell'universo, poiché guardare lontano nello spazio equivale a guardare lontano nel tempo, e osservare oggetti molto distanti da noi spazialmente equivale ad osservare oggetti lontani da noi anche temporalmente. Era già noto dall'antichità che in cielo, oltre al sole, i pianeti, i loro satelliti e le stelle fisse, esistono degli oggetti nebulosi, ossia oggetti la cui apparenza era appunto non puntiforme ma diffusa. Lord Rosse nella prima metà dell'800 utilizzando il famoso Leviatano, un telescopio di quasi 2 metri di diametro situato in Irlanda, fu il primo a disegnare in alcuni dei suoi quaderni di osservazioni degli oggetti di peculiare struttura a spirale. Tuttavia non era in grado di fornire a questi oggetti così strani una distanza e quindi decidere se si trattava di oggetti vicini a noi, interni alla nostra galassia, oppure oggetti esterni alla nostra galassia e di dimensione confrontabile ad essa. E, come spesso accade, fu un salto di qualità tecnologico a permettere un salto di qualità nelle nostre conoscenze. Occorre arrivare alla fine dell’800 - inizi ‘900 perché da un lato gli astronomi comincino ad aver a disposizione dei telescopi potenti per le loro osservazioni e perché dall’altro entri in scena a pieno regime una nuova tecnologia per le osservazioni astronomiche: quella della lastra fotografica. La lastra fotografica permise di effettuare la raccolta di un gran numero di dati ben più fievoli di quelli osservabili dall'occhio umano, permettendo così all'astronomia il salto qualitativo di cui aveva bisogno. Ricordiamo che la lastra, rispetto all'occhio umano, ha due grandi vantaggi. Il primo è che è un recettore obiettivo. A differenza di quando erano gli astronomi a dover tenere un diario con disegni e note delle osservazioni fatte, con la lastra l'aspetto soggettivo delle osservazioni scompare: la lastra fotografica registra i dati allo stesso modo anche quando l'astronomo è
stanco o distratto! Inoltre la lastra fotografica è un recettore efficiente, ossia permette di vedere oggetti deboli, non osservabili ad occhio nudo, e questo perché mentre l’occhio umano registra immagini con tempi di esposizione brevissimi (ogni ~ 1/16 di secondo le immagini registrate dall’occhio vengono mandate al cervello) le lastre fotografiche hanno il vantaggio di continuare a registrare la luce che proviene da stelle e galassie durante intervalli di tempo che possono esser lunghi, fino a molte ore di posa, permettendo quindi di ottenere alla fine immagini con una incredibile ricchezza di informazioni e dettagli. Il primo daguerrotipo - lastra di rame su cui è stato applicato elettroliticamente uno strato d'argento, sensibilizzato alla luce con vapori di iodio - della Luna risale all'inverno 1839-1840 ed è di John William Draper, un chimico e medico con la passione dell'astronomia. ma occorrerà attendere quasi 50 anni e l’introduzione delle lastre fotografiche (ossia emulsioni spalmate su lastre di vetro) perché la sensibilità della tecnica fotografica diventi tale da poter permettere di osservare anche oggetti deboli, invisibili ad occhio nudo, in cielo. Nel 1877 Edward Pickering diventa direttore dello Harvard College Observatory ed è un astronomo convinto dell’impatto rivoluzionario della nuova tecnica fotografica. Egli comincia quindi subito un intenso programma di mappatura a tappeto di tutto il cielo utilizzando le lastre fotografiche. L’osservatorio di Harvard prenderà ben mezzo milione di lastre nei decenni a venire (includendo lastre prese dalla stazione osservativa organizzata ad Arequipo, sulle Ande peruviane, per permettere le osservazioni dell’emisfero Sud del cielo). Divenne quindi presto chiaro a Pickering the necessariamente e al più presto occorreva organizzare un sistema efficiente per analizzare tutte queste immagini. Ogni lastra fotografica conteneva infatti centinaia di stelle e di ciascuna stella andavano misurate in prima istanza sia la posizione che la brillantezza. Pickering, che rimase direttore di Harvard per ben 42 anni, reclutò un gruppo di giovani donne per farle lavorare come calcolatrici, un termine che veniva usato a quei tempi per indicare chi doveva fare le misure ed i calcoli a partire dalle osservazioni. E’ interessante che Pickering facesse questa scelta di genere -come diremmo oggi - per le sue collaboratrici. Fu una scelta dettata almeno in parte da motivi pragmatici: il loro salario era più basso, anche meno della metà di quello di un uomo di pari qualifica. D'altra parte Pickering era sostenitore della causa femminile e convinto della maggiore affidabilità delle lavoratrici donne in un lavoro di precisione come quello richiesto. Giusto
come nota storica ricordiamo che Edward Pickering nel rapporto annuale dell'osservatorio di Harvard del 1898 scrisse che le donne erano: " … in grado di svolgere lavori di routine altrettanto bene degli uomini, che ricevono però salari più alti. E’ quindi possibile impiegare con lo stesso denaro un numero di assistenti donne 3-4 volte maggiore”. Parliamo di donne che erano coinvolte in un lavoro che certo era ripetitivo e noioso, ma che nondimeno avevano per la prima volta l'opportunità di entrare in un lavoro di ricerca dal quale altrimenti erano fino ad allora state escluse. A quei tempi non si pensava certo che delle donne potessero passare le notti al freddo ad osservare al telescopio! Tuttavia questo gruppo di donne, largamente non professionista, che passa nella storia scherzosamente anche come l’Harem di Pickering, conteneva delle menti brillanti al suo interno, menti che riuscirono a dare contributi all’astronomia che a tutt’oggi sono ricordati come fondamentali. Basti qui ricordare i nomi di Annie Cannon – colei che elaborò la metodologia di classificazione degli spettri stellari che ancor oggi usiamo; di Antonia Maury - che con la Cannon collaborò e che discusse un metodo di classificazione delle righe delle stelle che ne usava anche l’intensità; di Williamina Fleming - che nel suo lavoro di catalogazione scoprì quella che oggi chiamiamo la Nebulosa a Testa di Cavallo. Ma la scienziata il cui nome è legato al problema della misura delle distanze è Henrietta Leavitt, che faceva anche lei parte di questo gruppo di donne calcolatrici. Il compito assegnatole da Pickering era quello di misurare le brillantezza -le magnitudini come si dice con termine astronomico - delle stelle osservate nella Piccola Nube di Magellano e contemporaneamente cercare delle stelle variabili, ossia stelle la cui luminosità non fosse costante nel tempo. La Piccola Nube di Magellano è un gruppo di stelle che appare come una macchia lattiginosa del cielo australe ed è così chiamata perché il primo ad osservarla fu l'esploratore portoghese Ferdinando Magellano, quando attorno al 1520 stava navigando lungo la costa atlantica del Sud America alla ricerca di un passaggio che gli consentisse di raggiungere l'Asia. Non e’ diffide intuire che il compito affidato alla Leawitt era piuttosto monotono e ripetitivo: bisognava confrontare tante lastre della stessa zona di cielo osservate in tempi diversi e cercare stelle che avessero variato la propria luminosità da una lastra all’altra. Alla fine del suo lavoro la Leavitt scoperse ben 2400 stelle variabili, con periodi – ossia tempo compreso tra due massimi di luminosità successivi - compresi fra 1 e 50 giorni. E’ curioso notare che delle 20,000 stelle variabili pulsanti catalogate oggi dagli
astronomi, la Leavitt ne scoprì più del 10% proprio mentre lavorava nel team delle donne calcolatrici di Pickering. Fu durante questo lavoro di misure che la Leavitt si accorse che parte delle stelle pulsanti Cefeidi della Piccola Nube di Magellano avevano una particolarità: le più luminose avevano un periodo di variazione più lungo. Leavitt mise su un grafico la luminosità apparente delle variabili Cefeidi verso il loro periodo di variazione, scoprendo l'esistenza di una legge che legava tra loro luminosita' e periodo di variazione di queste stelle, legge che appunto faceva sì che a luminosità maggiori corrispondessero variazioni temporali più lente, ossia periodi di variazione più lunghi. Ma poiché le piccole variazioni in distanza delle stelle individuali all’interno della Piccola Nube di Magellano erano trascurabili rispetto alla distanza molto maggiore della Piccola Nube di Magellano dal nostro sistema solare, ragionò la Lewitt, tutte le stelle Cefeidi del grafico possono esser considerate circa alla stessa distanza da noi. E di conseguenza questo grafico può esser letto come una relazione tra la luminosità assoluta delle Cefeidi e il loro periodo. Quindi le Cefeidi possono essere viste proprio come delle Candele o Lampioni Standard, ossia degli oggetti dei quali si può stimare con precisione - grazie appunto alla legge trovata da Henrietta Leavitt - la luminosità intrinseca (basta misurarne il periodo di variazione!) e quindi determinare la distanza (basta tarare opportunamente la relazione, per esempio determinando con altri metodi la distanza di alcune Cefeidi vicine). E' questo il grande potenziale della relazione periodo luminosità scoperta della Leavitt: basta osservare il periodo di una qualunque stella Cefeide, in una galassia qualunque, per poterne determinare la luminosità intrinseca e quindi, nota la luminosità apparente, la sua distanza! La relazione Periodo – Luminosità una volta ben tarata - e già appena un anno dopo dalla sua scoperta l’astronomo danese Ejnar Hertzsprung determinò la distanza di molte Cefeidi nella via Lattea, calibrando così la relazione della Leavitt - può quindi permettere, noto il periodo di una Cefeide osservata in una nebulosa lontana, di dedurne la luminosità assoluta, e quindi, nota la luminosità apparente, la distanza. Si tratta di una scoperta fondamentale, che permette di stimare le luminosità intrinseche delle Cefeidi a partire dal loro periodo di variazione, e quindi di misurare le distanze di queste stelle e conseguentemente di misurare le distanze nel cosmo. E’ curioso notare, come nota di costume, che la pubblicazione della scoperta, che data il 1912, venne fatta a nome di Pickering, che però
correttamente scrisse che la scoperta di cui parlava nel suo articolo era stata fatta dalla Signorina Leavitt! A quell’epoca alle donne non era concesso pubblicare nel bollettino dell’osservatorio di Harvard, e quindi anche se Pickering aveva chiesto che la pubblicazione fosse a nome di Leavitt questa possibilità non venne accordata. La scoperta della Leavitt comunque pose le basi per le scoperte degli anni che seguirono in particolare quelle di Edwin Hubble. Mettiamo quindi nel contesto storico dell’epoca la scoperta della Leavitt. Siamo nel decennio 1910-1920 e ancora era diffusa l’opinione che gli unici oggetti esistenti all’esterno della nostra Galassia - la via Lattea - fossero le Nubi di Magellano e quindi praticamente parlare della nostra Galassia equivaleva a parlare dell’intero Universo. Tuttavia in quello stesso decennio cominciavano ad entrare in scena delle nuove idee ed osservazioni che rivoluzioneranno il nostro modo di vedere l’Universo. Ricordiamo che son passati pochi anni dalla pubblicazione da parte di Albert Einstein della Teoria della Relatività ristretta (1905) e poi Generale (1916), entrambe teorie che cambiarono per sempre il mondo della fisica. In parallelo negli stessi anni gli astronomi cominciarono a puntare i telescopi e strumenti via via più efficienti verso gli elusivi oggetti definiti genericamente nebulose. Agli inizi del '900 gli astronomi sapevano che osservando lo spettrogramma (cioé lo spettro registrato sulle lastre fotografiche) del sole o di una stella vi si notano delle bande scure, che venivano interpretate come l’impronta lasciata dall’atmosfera più fredda alla superficie delle stelle sui fotoni in uscita dalle parti più interne e calde delle stelle. Ma cosa succede osservando le nebulose? Si trattava di oggetti deboli di cui era difficile ottenere lo spettrogramma e con essi si cimentò praticamente un solo astronomo: l’americano Vesto Slipher (1875-1969) , che lavorava all'osservatorio di Lowell, in Arizona e che era un noto specialista di spettrogrammi di pianeti. Nello stesso periodo in cui la Leavitt effettuava le sue misure, Slipher aveva intrapreso la raccolta di spettrogrammi delle nebulose a spirale, forte della sua consolidata esperienza in misure della rotazione di pianeti. Dalla analisi degli spettri dei pianeti aveva misurato lo spostamento Doppler delle righe in esse presenti, e quindi misurato la rotazione. Due parole sull'effetto Doppler: è facile intuire di che fenomeno si tratta ricorrendo ad una analogia con ciò che accade nel campo delle onde sonore, dove la frequenza del suono di una sirena che si avvicina a noi è maggiore
della frequenza del suono di una sirena che da noi si allontana. Quindi il nostro astronomo che si trova sul terrazzo di un palazzo anche se non riesce a vedere l’ambulanza muoversi, riesce a capire dal suono della sirena se l'ambulanza è in avvicinamento o in allontanamento rispetto palazzo sul cui terrazzo sta facendo le sue osservazioni. Similmente per le onde elettromagnetiche, la lunghezza d'onda di un fotone emesso da una sorgente che si avvicina a noi è spostata verso il blu rispoetto alla sua posizione a riposo, mentre quella di una sorgente che da noi si allontana è spostata verso il rosso: il famoso redshift, ossia spostamento verso il rosso, che come oggi sappiamo si osserva praticamente in tutti gli spettri di galassie. Slipher scoprì che le nebulose a spirali, in base all'evidenza fornita dai loro spettrogrammi, si muovevano tutte a grandi velocità rispetto a noi. Nel 1912 osservo' che Andromeda si muove verso di noi con una velocità di ~ 300 km/sec. Nel 1914, quando presentò i suoi risultati al meeting della American Astronomical Society, su un totale di 14 spirali, le sue misure in media erano di 400 km/sec con punte di 1100 km/sec e, esclusa Andromeda, tutte di allontanamento da noi. Tolta la velocità della luce, si trattava dei movimenti più rapidi mai osservati dall'uomo e le maggiori velocità mai osservate in un corpo celeste. Questi risultati gli procurarono, al meeting della Americal Astronomical Society (1914), una ovazione pubblica e vari premi. Tuttavia, il lavoro in questione, nonostante la sua riconosciuta importanza, continuò ad essere portato avanti in gran parte solo da Slipher per alcuni anni: l'accuratezza e precisione richieste erano alte e pochi astronomi si sentirono in grado di affrontare delle misure così insidiose e difficili. Cominciavano quindi ad entrare in scena delle novità osservative del tutto inspiegabili: si trattava di dati che al momento erano del tutto inspiegabili, privi di possibili giustificazioni teoriche. Nel novembre del 1917 entra in operazione il nuovo telescopio di Mt. Wilson, si tratta del telescopio Hooker - costruito con i fondi forniti da John Hooker, un ricco uomo d’affari di Los Angeles e patrono delle scienze. Si tratta del telescopio più grande disponibile allora per le osservazioni, con un diametro di 2.5 mt e tale resterà fino a quando, nel 1948, non venne completato il telescopio di Monte Palomar, 150 km più a Sud, sempre in California ma più vicino a San Diego. Per lavorare a questo telescopio venne offerto un posto di lavoro ad un giovane e promettente astronomo: Edwin Hubble. Questo è un tipico caso dell’uomo giusto al momento giusto. Hubble era una personalità forte ed un uomo di indubbio talento scientifico. Dopo essersi
diplomato in matematica ed astronomia all’Università di Chicago, Hubble aveva passato tre anni ad Oxford, dove studiò legge, e poi era passato a lavorare allo Yerkes Observatory – ottenendo il dottorato - e occupandosi delle nebulose. Di ritorno dalla prima guerra mondiale, dove si era distinto per il suo coraggio salendo al grado di Maggiore dell’esercito, utilizzò il nuovo telescopio per continuare a studiare le nebulose, in particolare quelle studiate già da Slipher, di forma spiraleggiante e che si muovevano ad alte velocità relative rispetto a noi. E fu osservando al telescopio Hooker che Hubble fece la sua grande prima scoperta, illustrata in questa lastra d’epoca, dove di sua mano c’è l’appunto che cambia la dicitura della stellina in alto a destra di questa che è la galassia di Andromeda da stella Nova - ossia una stella nuova, che a causa di una esplosione è apparsa per la prima volta in cielo - a stella variabile! Si trattava infatti di una stella Cefeide, come quelle studiate da Henrietta Leavitt: una stella la cui luminosità variava in modo sistematico nel tempo e della quale Hubble misurò appunto il periodo. Confrontando la luminosità intrinseca attesa in base al periodo di questa stella variabile, con quella osservata, Hubble ne dedusse che la nebulosa Andromeda non era un gruppo di stelle all’interno della nostra galassia, bensì un galassia a sua volta, esterna alla nostra. Infatti usando la distanza calibrata grazie a questa stella Andromeda risultava essere situata a circa un milione di anni luce da noi - un numero che, come vedremo, era comunque una sottostima della vera distanza di questa galassia da noi, ma comunque una quantità significativamente maggiore - circa tre volte tanto - le dimensioni stimate allora della nostra galassia. Con questa scoperta comincia quella che non a torto viene definita l’era di Hubble. Infatti negli anni successivi Hubble fece scoperte di Cefeidi in varie nebulose, e alla fine degli anni '20 era quindi chiaro alla maggioranza degli astronomi che la nostra Galassia non era affatto tutto l’Universo, bensì una delle tante galassie che lo popolano. Si tratta di un salto interpretativo nella nostra percezione all’interno dell’Universo che può esser confrontato a quello proposto 500 anni prima da Copernico e che può ben vedersi come un completamento della rivoluzione copernicana: non solo la terra e' spostata dalla sua posizione centrale, non solo lo è il sole, uno delle tante stelle alla periferia di un sistema stellare, ma lo è anche la nostra galassia, che a sua volta non occupa nessuna posizione privilegiata: una galassie fra le tante che popolano il nostro universo. Ma le novità non erano finite qui. Solo pochi anni dopo, nel 1929, Hubble pubblica il risultato straordinario che suggella la sua fama imperitura.
Abbiamo già visto che Slipher aveva notato che le galassie sembravano in grande maggioranza allontanarsi dalla nostra, volar via nello spazio a velocità inaspettate in direzione per la maggior parte di allontanamento. Ma Hubble fu in grado, utilizzando le stelle Cefeidi come lampioni standard, di misurare per un numero considerevole di galassie anche la loro distanza. E fu studiando 18 galassie a spirale che Hubble scoprì una relazione diretta fra il moto di allontanamento delle galassie e la loro distanza da noi: più distante da noi era la galassia osservata, maggiore era la sua velocità di allontanamento da noi. Ad esempio una galassia distante 10 volte tanto un’altra si allontana da noi ad una velocità dieci volte maggiore di quest’ultima. Nonostante le grosse incertezze nei dati e il fatto che il trend così come presentato nel lavoro originale di Hubble era lungi dall’essere chiarissimo, Hubble ed il suo assistente Humason furono in grado di intuire – con un grande salto interpretativo dei dati – che nelle galassie che studiavano c'era un andamento che legava distanza e velocità di recessione. Essi ottennero un valore per la costante che oggi si chiama di Hubble pari a 500 km/s/Mpc, un valore circa 10 volte più alto di quello che oggi conosciamo come corretto. Si tratta della legge che Hubble definì la relazione distanza velocità e che oggi gli astronomi chiamano legge di Hubble, mentre la costante di proporzionalità viene chiamata costante di Hubble Ho ed è un numero che collega tra di loro la velocità di recessione di una galassia e la sua distanza da noi. Hubble nel libro autobiografico dove racconta le sue scoperte rende il dovuto credito al lavoro di Henrietta Leavitt, che rese possibili le sue misure. Per dirla con due storici della scienza contemporanei la scoperta delle Cefeidi della Leavitt fornì le chiavi per determinare le vere dimensioni del cosmo ed Hubble con le sue osservazioni mise in uso quelle chiavi inserendole nella serratura dei dati, spalancando così le porte delle vere dimensioni del Cosmo (David H. and Matthew D.H. Clark in Measuring the Cosmos). Dato che la legge determinata da Hubble non mutava cambiando la direzione in cui le osservazioni venivano fatte, Hubble ne trasse la corretta conclusione che l’universo e’ in espansione uniforme. La legge di Hubble: v = H0 x d (1929 - 1931), segna l'inizio della moderna cosmologia, con la consapevolezza che viviamo in un universo non statico, ma in espansione, ed aveva un immediato riscontro teorico nei modelli teorici di Universo ricavati dalla Relatività generale, che predicevano la presenza di una tale relazione.
Infatti la spiegazione più semplice di questo dato osservativo non è che le galassie si stanno tutte allontanando da noi - cosa che risulterebbe piuttosto inspiegabile da capire - bensì che e’ proprio l’Universo stesso ad espandersi, la sua struttura spaziale, così come accade in una analogia gastronomica ad un panino all’uvetta che lievita nel forno. E' a causa di questa espansione che le velocità osservate aumentano proporzionalmente alla distanza, una osservazione che però è condivisa da ciascun chicco d’uva nel panino, o galassia nell’Universo. Paradossalmente laddove la scoperta di Hubble apriva distanze vertiginose ed inaspettate nello spazio implicava anche un inizio nel tempo, chiudendo quindi l’Universo in un tempo finito di esistenza! Infatti, tornando indietro sufficientemente nel tempo, ogni due punti scelti a caso nell'Universo erano infinitamente vicini, e questa è in sintesi la tesi centrale della cosmologia del Big Bang che si accorda perfettamente con le osservazioni di Hubble: nel passato lontano due punti qualunque dell'Universo erano arbitrariamente vicini l'un l'altro. La densità della materia in quel momento tendeva ad infinito. Questo momento è quel che viene anche chiamato la singolarità iniziale. La determinazione del valore esatto di Ho è chiaramente di grandissima importanza, dato questo valore permette di ottenere non solo la scala delle distanze ma anche la scala di tempi. L’espansione dell’universo, non appena ci si allontana dall’universo locale, supera per importanza tutti i moti locali delle galassie e si può quindi usare per stimare le distanze e per costruire una mappa dell’Universo. In questo modo grazie alla legge di Hubble ogni spettro di galassia si può pensare come un specie di Codice a Barre , sul quale leggere la distanza della galassia in questione da noi! La prima grande survey di galassie come la chiamiamo noi astronomi, fu quella effettuata da due ricercatori del Center for Astrophysics di Boston, Margaret Geller e John Hucra. Questi due astronomi furono i primi a mostrare quanto spettacolare fosse la distribuzione delle galassie nel cielo, tutt’altro che uniforme, come si sarebbe potuto aspettare, ma con una grande ricchezza di strutture, da zone quasi vuote a zone ricchissime di galassie - quelli che gli astronomi chiamano ammassi e super ammassi. Tra il 1985 e il 1995, Geller, Huchra e collaboratori misurarono le distanze tramite il redshift di circa 18,000 galassie brillanti , ottenendo per la loro distribuzione una struttura che ricorda una ragnatela, bolle di sapone. Oggi sono disponibili cartografie ancora piu’ profonde, ottenute utilizzando i progressi
tecnologici che ci hanno messo a disposizione strumenti che permettono di osservare contemporaneamente migliaia di galassie. Tuttavia la struttura osservata è ancora simile a quella rivelata inizialmente dal lavoro di Geller e Huchra. Ma facciamo un passo indietro di qualche decennio e torniamo al nostro percorso storico ed agli inizi del ‘900. Hubble fu senz'altro il primo grande cosmologo osservativo, ma, come è naturale, il suo lavoro non si svolse in un vuoto di teorie. Dopo il 1916, quando Einstein introdusse la sua teoria della relatività generale - che sostituiva la teoria di Newton della gravità - la cosmologia teorica fiorì: il decennio successivo vide il proliferare di nuove teorie cosmologiche. Uno dei primi modelli cosmologici fu quello formulato da Einstein stesso. Già nel 1917, Albert Einstein aveva ben compreso che la sua nuova teoria della gravità – quella della Relatività Generale – aveva come conseguenza che l’universo doveva essere o in espansione o in contrazione. Il modello di universo statico, in cui la forza gravitazionale di attrazione e' in equilibrio con una forza repulsiva (che diventa significativa solo su grandi scale) fu elaborato da Einstein, proprio per soddisfare il suo pregiudizio – comune ai fisici della sua epoca – a favore di un modello di universo statico. Di fatto la terra, il sole e anche la nostra galassia, sono sistemi in equilibrio, che né si espandono né si contraggono, quindi sembrava naturale estrapolare questo ragionamento all'universo stesso nel suo insieme, e quindi aggiungere una costante ad hoc, la cosiddetta costante cosmologica, che entrasse a controbilanciare la gravita’, in modo da render possibili modelli statici di universo. Ma vi furono altri modelli sviluppati nella stessa epoca, ed in particolare il modello che oggi chiamiamo del Big Bang, un modello che rappresentò un gran successo della cosmologia teorica in quanto la sua formulazione precedette la scoperta di evidenze osservative dell'espansione dell'universo. A proporre questa teoria furono più o meno contemporaneamente un metereologo e matematico russo, Alexander Friedmann (1888-1925), ed un abate belga, Georges Lemaitre (1894-1966). Friedmann nel 1922 e Lemaitre nel 1927, indipendentemente, scoprirono la famiglia di soluzioni più semplici alle equazioni di Einstein, soluzioni che descrivono un universo in espansione/contrazione. Di fatto Friedmann fu il primo ad applicare la relatività generale alla cosmologia senza introdurre una costante a stabilizzare il modello e questo già nel 1922. Nel 1927 il sacerdote cattolico belga Georges Lemaître propose un modello dell’universo in espansione per spiegare il dato
osservativo scoperto da Slipher dello spostamento verso il rosso delle righe delle nebulose a spirali (come si chiamavano allora), in qualche modo precorrendo la legge di Hubble. Basando la sua teoria sul lavoro di Einstein e di DeSitter ricavò in modo indipendente le equazioni di Friedmann per un universo in espansione. Perciò entrambi questi fisici possono esser a ragione chiamati i padri della teoria del Big Bang. Quando nel 1929 Hubble annunciò la scoperta della legge che oggi porta il suo nome e che descrive la recessione delle galassie, apparentemente egli non conosceva i risultati di Friedmann e Lemaître. La sua scoperta subito fece rinascere un grande interesse per i modelli cosmologici non statici, omogenei ed isotropi, come quelli di Friedmann e Lemaitre, mentre decretò la fine per i modelli di universo statici. Sembra addirittura che Einstein abbia pubblicamente dichiarato che l'introduzione di questa forza repulsiva - la costante cosmologica - fosse stato uno dei più grossi errori della sua vita. I modelli di Friedmann-Lemaître sono di due tipi molto diversi: se la densità media di materia nell'universo è minore o uguale rispetto ad un valore critico, allora l'universo deve essere spazialmente infinito, ed in questo caso l'espansione attuale durerà per sempre. Se invece la densità dell'universo è maggiore di tale valore critico, allora il campo gravitazionale prodotto dalla materia incurva l'universo su se stesso; l'universo e' finito benché illimitato, come la superficie di una sfera. In questo caso i campi gravitazionali sono abbastanza intensi da fermare col tempo l'espansione dell'universo ed a questo punto si avrà il fenomeno inverso della contrazione (implosione), fino a raggiungere una densità infinitamente grande. Il legame tra il diverso destino finale dell’universo e i diversi valori della densità critica nei modelli di Friedmann-Lemaitre si può intuire con una semplice analogia: quella del sasso lanciato verso l'alto dalla superficie di un pianeta. Se il sasso viene scagliato con una velocità sufficiente, o, che è lo stesso, se la massa del pianeta è abbastanza piccola, la pietra rallenterà gradualmente il suo moto, ma riuscirà comunque a sfuggire all'attrazione gravitazionale del pianeta fino a perdersi all'infinito. Questo esempio corrisponde al caso di una densità cosmica inferiore a quella critica. Se il sasso viene lanciato verso l'alto con una velocità insufficiente, raggiungerà una certa altezza e poi ricadrà sulla superficie del pianeta. Questo secondo esempio corrisponde al caso di una densità cosmica superiore alla densità critica. Quindi negli universi curvi di Friedmann-Lemaitre l'universo si espande da uno stato iniziale arbitrariamente denso fino al suo stato attuale. Nei modelli chiusi si finisce con un collasso nuovamente, mentre nei modelli cosiddetti aperti l'espansione continua indefinitamente. Oggi i dati in nostra mano sembrano favorire i cosiddetti modelli di universo piatto, ossia di separazione fra quelli
di universo curvo e quelli di universo aperto, in cui l'universo si espande indefinitamente, sempre più lentamente, con una velocità di espansione che tende asintoticamente a zero. Solo nell'ultimo decennio questa visione è stata oggetto di revisione: in presenza di energia oscura (v. lezione successiva) l'espansione dell'universo rallenta solo inizialmente, a causa della gravità, per poi, però, ricominciare ad accelerare senza piu' fermarsi. Lemaître propose nella sua teoria quello che poi diventerà noto come il Big Bang e che lui inizialmente definì come l'ipotesi dell'atomo primigenio, ossia l'esistenza di un istante iniziale estremamente caldo e denso nella vita dell'universo. Se quindi negli anni '30-'40 diventa chiara da un lato la struttura della nostra galassia, il fatto che è una delle tante che popolano l’universo, e in particolare il fatto fondamentale che viviamo in un universo in espansione, i decenni successivi vedono l'affermarsi della teoria del Big Bang su quella dello Steady state, o stato stazionario. Big Bang vs Steady State Prima di affermarsi in modo definitivo la teoria del Big Bang dovrà superare una serie di problemi osservativi e problemi concettuali. Riguardo ai problemi osservativi ricordiamo che uno dei problemi che immediatamente si presentò ai cosmologi del dopoguerra fu come riconciliare le misure di Hubble con le misure, già note, dell'età ad es. della terra o del sistema solare. Originariamente Hubble aveva ottenuto meno di 2 miliardi di anni per la sua misura di 1/H0 (1934). In quegli anni i tempi scala sia dell’età della terra che del sole erano piuttosto incerti, dato che sia la datazione delle rocce/meteoriti con gli elementi radioattivi che la datazione del sole usando la fusione di idrogeno in elio che si svolge al suo interno erano ancora a venire. Tuttavia negli anni '50 le misure di Hubble furono corrette e riviste da Walter Baade, che ricalibrò la legge periodo-luminosità per le Cefeidi tenendo conto dell’esistenza di diverse popolazioni di stelle, più o meno ricche di metalli, oltre a correggere degli altri errori legati all’aver erroneamente scambiato ammassi di stelle per singole stelle a grandi distanze. Baade in questo modo ottenne un valore della costante di Hubble pari alla metà della stima iniziale di Hubble stesso, di conseguenza la stima dell’età dell’Universo raddoppiò, diventando dell’ordine di circa 4 miliardi di anni. Ma per allora era stata ottenuta una misura precisa, fatta nel 1956 dal geofisico americano Clair Patterson (1922-1995) dell’età della terra, usando
il metodo della datazione radioattiva su meteoriti e rocce. Con questo metodo l'età della terra risultava pari a 4 miliardi e 550 milioni di anni, e i valori della costante di Hubble misurati erano problematici per questo valore, dato che sembrava abbastanza ovvio che la terra non si fosse formata immediatamente dopo il Big Bang. Può esser curioso osservare che laddove i dati di Patterson finalmente venivano incontro ai tempi scala richiesti dalla teoria dell’evoluzione di Darwin (in mancanza dei quali molti trovavano ancora improbabile la teoria darwiniana dell’evoluzione, che con i suoi cambiamenti lenti richiedeva molte generazioni e quindi tempi lunghi) purtroppo entravano in collisione con i tempi più brevi che sembravano allora suggeriti dai dati astronomici. I dati di Patterson erano un problema per gli astronomi del tempo, anche perché a trovarsi in disaccordo erano informazioni che arrivavano da campi completamente diversi: da un lato l’astronomia e la cosmologia e dall’altro la geologia e la datazione radioattiva delle rocce. Questo contrasto fece sì che la teoria dello Stato Stazionario per un certo periodo trovasse sostegno in una frazione significativa della comunità astronomica, anche perché è una teoria che aveva anche un supporto concettuale-filosofico. Infatti la teoria cosmologica dello Steady State, come era stata formulata originariamente da Bondi, Gold ed Hoyle nel 1948, prevedeva che l'Universo avesse lo stesso aspetto in tutti gli istanti, postulando che vi fosse creazione continua di materia in modo da mantenerne costante nel tempo la densità nonostante l'espansione. La quantità di materia da aggiungere per soddisfare questo vincolo è sorprendentemente bassa e di fatto difficile da osservare: approssimativamente si tratta di una massa equivalente a quella del sole per megaparsec cubico all'anno, o, con altre unità di misura, approssimativamente un atomo di idrogeno al metro cubo in un miliardo di anni. Anche numeri così incredibilmente piccoli causano però effetti osservabili sulle scale cosmiche! Ovviamente tale teoria era più soddisfacente in quanto non violava il principio cosmologico perfetto ed inoltre non postulava un istante iniziale, cosa che suonava un po' troppo vicino all'istante della creazione delle religioni occidentali e quindi troppo vicino ai pregiudizi culturali dell'ambiente in cui la teoria stessa era nata. Di passaggio: il termine Big Bang fu introdotto con una connotazione che ne voleva sottolineare il lato 'ridicolo' proprio da Fred Hoyle - uno dei padri della teoria della Stato Stazionario - durante una trasmissione radiofonica alla fine degli anni '40.
C'era però un altro problema che la teoria dello Stato Stazionario doveva superare, un problema più complesso e legato alla formazione degli elementi chimici pesanti. Il nostro universo contiene ~75% idrogeno, ~24% elio e tracce del resto. Tuttavia gli elementi pesanti, seppur trascurabili in proporzione, sono osservati in natura. Tra l'altro ricordiamo che noi siamo fatti di atomi che son presenti solo in minima percentuale nella composizione chimica globale dell'universo: praticamente tutta la vita sulla terra è basata su carbonio, azoto ossigeno la cui presenza nell’Universo è in tracce trascurabili. La teoria del Big Bang, con i suoi momenti iniziali caldi e densissimi, in cui tutto era un plasma, sembrava suggerire un laboratorio ovvio in cui si fossero formati gli elementi pesanti, ma nel caso dello Steady state? Si sapeva che la nucleosintesi stellare producevano gli elementi fino al ferro, ma per gli elementi piu' pesanti? Nel 1957 apparve un famoso articolo di Margaret Burbidge, Geoffrey Burbidge, Fowler e Hoyle, in cui si dimostrava in dettaglio grazie a quale processo era possibile formare gli elementi più pesanti del ferro durante fenomeni come le esplosione di supernovae, ossia durante le fasi finali esplosive della vita delle stelle massiccie, quando un intenso flusso di neutroni viene eiettato ad alte energie dalle regioni piu' interne delle stelle. Questi autori, che sostenevano al teoria dello steady state, erano convinti con questo articolo di aver eliminato la necessità di ricorrere al Big Bang per spiegare la presenza degli elementi pesanti nell'Universo. Negli anni 50 quindi la bilancia sembrava pendere in favore della teoria dello steady state, ma, come spesso avviene, nuove osservazioni erano in arrivo per rimescolare di nuovo le carte in tavola. Innanzitutto la misura della costante di Hubble: dal 1952 fino agli anni '70 misure successive e più accurate della costante di Hubble hanno fatto sì che il suo valore scendesse dai 250 circa di Baade a 50-100, e poi fino al valore oggi accettato : 73 km/sec/Mpc, così come e' stato misurato alla fine degli anni 90 da osservazioni effettuate con lo Hubble Space telescope, il telescopio spaziale che appunto onora con il suo nome il contributo di Hubble alla cosmologia contemporanea. Gli astronomi oggi hanno misurato H0 con maggior precisione di quanto fosse stata possibile a Hubble stesso, introducendo varie migliorie tecniche. I diversi indicatori di distanza (e soprattutto le stelle variabili Cefeidi) sono tutti stati rimisurati con accuratezza nei diversi tipi di galassie. E la scala delle distanze cosmologiche e' stata estesa fino a galassie molto piu' distanti. Il valore oggi preferito della quantità 1/H0 oscilla da 13.61 and 13.85
miliardi di anni, e oggi possiamo confrontare questa stima dell'eta' dell'universo non solo con l'età misurata per la terra o per il sistema solare da datazione di rocce terrestri o meteoriti (usando le abbondane degli isotopi radioattivi ad es. dell'Uranio), ma addirittura con l'età stimata della nostra galassia, ottenuta utilizzando modelli di evoluzione galattica e il tasso di creazione degli elementi pesanti (ad es. l'uranio), oppure modelli di evoluzione stellare. Entrambi questi metodi suggeriscono per la nostra galassia una età che e' tra i 12 e i 15 miliardi di anni, che ben si accorda con le stime ottenute da 1/H0 , e la maggior parte degli astronomi considera questa convergenza come una evidenza a favore di una età finita dell'universo e della correttezza del modello del Big Bang. Il secondo pezzo di osservazioni che ando' a corroborare la teoria del Big Bang fu il fatto che ben spiegava le abbondanze primordiali di elio e deuterio. Ricordiamo che una delle conseguenze importanti della teoria del Big Bang e' che negli istanti iniziali dell'Universo quest'ultimo e' praticamente in condizioni tali di densità e temperatura da essere una mistura calda e densa di elettroni, protoni, neutroni, neutrini e fotoni. Quando l'universo aveva metà delle dimensioni che ha oggi, la densità di materia era 8 volte maggiore quella misurata oggi, e la sua temperatura era il doppio, e così via andando indietro nel tempo. L'universo primordiale era quindi un posto molto caldo: quando l'universo ha dimensioni pari a un centesimo di milione delle sue dimensioni attuali, la sua temperatura e' di 273 milioni di gradi sopra lo zero e la densità di materia e' confrontabile con quella dell'aria sulla superficie della terra. Inizialmente gli astronomi pensavano che a queste temperature estreme potessero essersi formati tutti gli elementi della tavola periodica, tramite un processo successivo di cattura di neutroni che porterebbe al passaggio dagli elementi piu' leggeri a quelli piu' pesanti della tavola periodica. Tuttavia questa teoria venne messa in difficoltà non appena ci si accorse che era difficile andare nelle fasi iniziali di vita dell'Universo oltre l'elio, dato che non esistono nucleo stabili con cinque o otto particelle nucleari, e quindi non e' possibile costruire nuclei più pesanti dell'elio aggiungendo neutroni o protoni a nuclei di elio o fondendo coppie di nuclei di elio – una conclusione a cui era giunto già Fermi. Come si formano allora gli elementi pesanti ? A questo punto l'articolo di Burbidge, Burbidge, Fowler e Hoyle risultò utile alla teoria del Big Bang, poiché provvedeva una spiegazione per la formazione gli elementi pesanti, dal Carbonio in poi, nelle stelle, lasciando così al Big Bang solo il problema di dover spiegare l'abbondanza
primordiale di Elio e Deuterio. E la teoria del Big bang ben spiega le abbondanze primordiali di Elio e Deuterio, il che invece non è possibile solo grazie alle stelle, dato che non e' possibile produrre la quantità osservata nell'universo di Elio (25% circa) usando solo le stelle: la liberazione di energia comportata da questa fusione sarebbe stata molto maggiore di quella che ha luogo in modo graduale durante la vita di una stella. Infine l'ultimo e importante tassello che confermò definitivamente la teoria del Big Bang era già contenuto come predizione in un articolo del 1948 , intitolato The Origin of Chemical Elements, di Alpher, Bethe e Gamow. Questo articolo spiegava come negli istanti iniziali dell'universo, a condizioni di temperature altissime (parliamo di un miliardo di gradi kelvin), la radiazione era in grado di fotodissociare i nuclei, cosicché l'universo inizialmente consisteva di fotoni e particelle elementari libere. Man mano che l'universo andava espandendosi, la radiazione si raffreddava fino a che, nelle previsioni degli autori, si sarebbero cominciati a costituirsi elementi pesanti da neutroni e protoni mediante una rapida sequenza di cattura di neutroni – una previsione, che, come già visto, venne poi corretta. Ma Gamow stimò poi anche, insiema ad Alpher e Herman, che per spiegare le attuali abbondanze osservate degli elementi leggeri, era necessario supporre un certo rapporto dei fotoni alle particelle nucleari, e precisamente dell'ordine di un miliardo ad uno. Usando stime della attuale densità cosmica delle particelle nucleari, gli autori furono quindi in grado di predire l'esistenza di un fondo di radiazione residuo, risalente agli inizi dell'universo, con una temperatura attuale di 5 gradi kelvin! La cosa veramente curiosa storicamente è che, nonostante questa predizione, nessuno si mise a cercare questa radiazione di fondo cosmica. Si potrebbe sostenere che tra gli anni '50 a gli inizi degli anni '60 non si sapeva abbastanza delle abbondanze cosmiche degli elementi per poter predirre con certezza la temperatura del fondo di radiazione cosmica, ma il punto e' che, a parte la predizione del valore esatto della sua temperatura, questo fondo di radiazione cosmica neppure venne cercato. Apparentemente ebbe luogo un classico caso di perdita di contatto tra teorici e sperimentali: la maggior parte dei teorici non si resero mai conto del fatto che la radiazione di fondo prevista da Gamow avrebbe potuto esser osservata. Viceversa gli sperimentali non vennero a conoscenza delle previsioni di Gamow. Inoltre vi era molto scetticismo nei fisici per ogni teoria che cercasse di spiegare l'origine dell'universo. Di fatto si trattò di un classico esempio di una opportunità mancata. Nel 1965 la scoperta di Penzias e Wilson, ossia la misura del fondo di radiazione cosmica a 2.7K, fu il successo definitivo per
la teoria del Big Bang. Infatti la miglior evidenza osservativa a favore della cosmologia del Big bang e' proprio il fondo di radiazione cosmica a microonde, il residuo freddo della radiazione calda che riempiva l'universo intero nei primi istanti della sua vita - microonde e' il termine che si riferisce alla lunghezza d'onda delle onde radio corte, ossia dell'ordine dei centimetri. I fatti storici son noti a tutti: nel 1965 Arno Penzias e Robert Wilson effettuavano delle misure con un piccolo radio telescopio e mentre cercavano di calibrarlo, si accorsero che misuravano un eccesso di rumore che sembrava indipendente dalla direzioni in cui l'antenna puntava. Dopo aver lavorato a lungo per eliminare ogni possibile origine terrestre o strumentale di tale segnale, giunsero alla conclusione che si trattava di segnale esterno proveniente in modo uniforme da tutte le direzioni. Dato che non era quindi piu' intenso nella direzione del piano della galassia , se ne poteva escludere sia l'origine solare che galattica. Nel frattempo un gruppo di cosmologi all'università di Princeton, diretti da Robert Dicke, avevano, senza saperlo, ripetuto i calcoli di Gamow, rendendosi conto che una delle previsione della teoria del Big Bang era anche la presenza di un fondo di radiazione diffuso, distribuito uniformemente in cielo. Dicke e collaboratori si stavano accingendo alla costruzione di una antenna per osservate questa radiazione di fondo - che avevano correttamente previsto dover essere osservabile nella banda radio - quando seppero del risultato di Penzias e Wilson. I due gruppi di scienziati pubblicarono contemporaneamente i loro lavori mostrando gli uni i risultati osservativi e gli altri le predizioni teoriche, ovviamente con grande impatto scientifico. Oggi misure precise indicano che la radiazione di fondo a microonde è estremamente isotropa, tanto che eccetto un termine cosiddetto di Dipolo, dovuto al moto del sole attorno al centro della nostra galassia, la sua temperatura differisce al più di 11 parti su un milione da una direzione all'altra del cielo, ossia di 10 milionesimi da una direzione all'altra del cielo. La forma della radiazione di fondo cosmica a microonde è quella di uno spettro di corpo nero di temperatura circa 2.7K (gradi Kelvin). La forma precisa di corpo nero è una precisa indicazione del fatto che questa radiazione porta con sé la memoria di un tempo in cui radiazione e materia erano in equilibrio, il tempo in cui, a densità alte, materia e radiazione si trovavano in equilibrio termodinamico condividendo la stessa temperatura, una situazione nella quale la forma della distribuzione della radiazione è appunto quella di corpo nero. Man mano che l'universo si espande avviene quello che con termine tecnico si chiama disaccoppiamento di materia e radiazione, ossia si formano i primi nuclei e atomi di idrogeno, e l'universo diventa rapidamente trasparente alla radiazione: prima ogni fotone interagiva spessissimo con elettroni e protoni
Puoi anche leggere