Universo in Fiore Struttura a Larga scala e Teoria del BigBang

Pagina creata da Lorenzo Moro
 
CONTINUA A LEGGERE
Universo in Fiore
           Struttura a Larga scala e Teoria del BigBang
                                Angela Iovino

Di tutti i temi dell’astronomia forse uno dei più affascinanti è quello delle
dimensioni globali dell’Universo nel suo complesso e, simultaneamente,
della posizione dell’essere umano nell’ordine cosmico.
Le domande sulla nostra collocazione all’interno dell’Universo sono coeve
alla nascita del pensiero razionale e praticamente tutte le società e culture,
dagli albori della storia, hanno tentato di dare una spiegazione a quello che
osserviamo in cielo nelle notti stellate, a partire dalla bellissima Via Lattea.
Basti citare la mitologia Egizia che vedeva nella Via Lattea il corpo della
dea Nut che abbraccia la terra, oppure la mitologia greca, che vi vedeva il
latte che la dea Giunone schizzò in cielo allontanando dal suo seno Ercole,
figlio illegittimo di Giove.

Tuttavia affrontare in modo scientifico la domanda sulla struttura tri-
dimensionale di quello che osserviamo in cielo, e quindi sulla nostra
posizione nell’Universo, vuol dire dare esser in grado di dare una risposta
che sia passibile di esser confermata o refutata dalle osservazioni, e per
aver questa possibilità occorre aspettare tempi più recenti.

Quali sono i metodi che ci hanno permesso di scoprire la struttura tri-
dimensionale dell’universo andando oltre il sistema solare ? Come si è
passati dalla visione bidimensionale degli oggetti distanti che ci è offerta da
una notte stellata a quella tri-dimensionale, con le sue distanze
incommensurabili, che oggi conosciamo ?

In questa conferenza seguirò un approccio storico al problema della
determinazione della nostra posizione del cosmo, ricostruendo il cammino
che ci ha permesso di ottenere queste nuove conoscenze. Tuttavia prima di
partire per questo affascinante percorso vorrei ricordare tre semplici, ma
importanti, punti.
Innanzitutto misurare le distanze in astronomia non ha nulla a che fare con le
misure delle distanze effettuate in laboratorio o in generale sulla terra. Non
possiamo certo srotolare metri o utilizzare regoli, ma neppure, se non per gli
oggetti più vicini, effettuare delle triangolazioni o ricorrere ad analoghi
metodi geometrici.
Una analogia che ben rende l’idea della nostra situazione è quella
dell’osservatore che si trova su una terrazza, dalla quale non si può muovere,
ma che intende misurare le distanze degli oggetti che osserva e che sono al
di là dalla sua portata diretta, sia quelli più vicini (lampioni, macchine sulle
strade) che quelli mediamente distanti (le case, i grattacieli, i quartieri più
distanti) che, infine, le città visibili solo in lontananza. Un compito
tutt’altro che semplice e che richiede la messa in azione di strategie diverse,
analogamente a quanto hanno dovuto fare gli astronomi per ricostruire la
struttura tri-dimensionale del cosmo.
In altre parole l’osservatore è bloccato sulla sua posizione (la terra) e
dovrà ingegnarsi per misurare le distanze, ad esempio utilizzando
lampioni/candele cosiddetti standard.
Il concetto di lampione o candela standard è fondamentale per la misura
delle distanze in astronomia e si basa su una analogia di semplice
comprensione. Se di un oggetto, ad esempio una lampadina, è nota la
luminosità intrinseca e se ne misura la sua luminosità apparente se ne può
stimare la distanza, sfruttando il fatto che la luminosità apparente è tanto più
fievole rispetto alla luminosità intrinseca quanto più la lampadina - o
l'oggetto in questione - è da noi distante. La dipendenza si esprime con una
legge semplice dato che il decremento di luminosità di un oggetto e'
proporzionale all'inverso del quadrato della distanza dell'oggetto da noi,
In generale in astronomia si definisce candela standard un oggetto
astronomico che ha una luminosità intrinseca conosciuta e di cui si può
quindi stimare la distanza nota che ne sia la luminosità apparente osservata.
Se quindi il nostro astronomo che osserva sul terrazzo fosse sicuro che la
luminosità dei lampioni che illuminano le strade non cambia da una strada
all’altra (ossia se tutti i lampioni obbedissero allo stesso standard di
costruzione), potrebbe distinguere tra strade più vicine e strade più lontane.
Se poi conoscesse conoscesse anche la luminosità intrinseca dei lampioni
standard potrebbe stimarne l'esatta distanza da sé.
Inoltre l'astronomia ha a che fare con oggetti estremamente deboli, e
questo è il motivo per cui gli astronomi da un lato puntano alla costruzione
di telescopi di apertura (diametro) sempre più grande, che permettono di
raccogliere una quantità maggiore di quanti di luce – fotoni - provenienti
dalle stelle e, dall'altro ad avere, sul piano focale del telescopio, un
recettore che sia in grado di registrare la maggior parte dei fotoni che il
telescopio ha raccolto grazie alla sua superficie
E' un pò come si farebbe per raccogliere in modo efficiente la pioggia: un
catino più grande possibile e che sia a tenuta stagna!
Tanto per dare un po' di numeri, ricordiamo che Venere, che senz'altro molti
di noi hanno visto in cielo, rispetto ad Andromeda, che pure è visibile ad
occhio nudo essendo una galassia molto vicina e tra le più brillanti in cielo,
ha un rapporto di luminosità apparente tale che nell’intervallo di tempo in
cui da Venere arrivano 10.000 fotoni, da Andromeda ne arriva uno solo! E
questo per non parlare di galassie non visibili ad occhio nudo. Tipicamente
l'astronomia oggi si cimenta con oggetti così fievoli che nello stesso
intervallo di tempo in cui da Andromeda ci arrivano un milione di fotoni, da
essi ne arriva uno solo!
Quindi gli oggetti da osservare sono molto, molto deboli … per osservare i
quali occorrono strumenti adeguati: non basta l’occhio nudo ed un piccolo
telescopio. Occorrono strumenti potenti!
E si tratta poi di oggetti molto, molto distanti …. E ciò fa sì che
problematica della misura delle distanze sia poi complicata ulteriormente da
una altra peculiarità legata alle enormità delle scale in gioco.
Questa peculiarità è dovuta al fatto che il vettore delle informazioni
nell’Universo sono i fotoni, le particelle elementari che trasportano la
radiazione elettromagnetica e quindi anche la luce. E i fotoni non si
muovono nell’universo a velocità infinita, tutt’altro: la loro velocità di
propagazione è molto alta (circa 300.000 km al secondo) ma finita e quindi
guardare lontano nello spazio equivale a guardare lontano nel tempo. In altre
parole man mano che guardiamo oggetti più distanti , osserviamo fotoni che
cominciarono il loro viaggio verso di noi in tempi progressivamente più
remoti. Ad esempio ricordiamo che dal sole - che è la stella a noi più vicina
essendo solo 150 milioni di Km di distanza dalla terra - la luce impiega
circa 8 minuti ad arrivare. Andromeda, una tra le galassie più vicine alla
nostra, si trova ad una distanza tale che la luce che parte da essa parte
impiega per raggiungerci ben 2 milioni e mezzo di anni.
Come conseguenza della velocità finita di propagazione della luce, quindi,
osservare a gusci via via più distanti di spazio è anche osservare gusci via
via più lontani nel tempo da noi. Spazio e tempo sono inestricabilmente
legati e la luce è un messaggero che ci porta le notizie del momento in cui è
partita per il suo lungo percorso verso di noi.
I telescopi possono esser paragonati a delle macchine del tempo: guardano
lontano non solo nello spazio ma anche nel tempo! Similmente gli
astronomi son contemporaneamente cartografi e storici: man mano che
guardano lontano nello spazio, per ricostruirne delle mappe precise, riescono
anche a guardare lontano nel tempo, ad epoche cosmiche via via più remote.
E questo fatto comporta una ulteriore complicazione anche nella misura
delle distanze: bisogna esser sicuri che i nostri lampioni standard lo siano
veramente. Per continuare con la nostra analogia di sopra, occorre appurare
che un lampione distante sia fatto con la stessa tecnologia di quelli vicini ed
evitare di confrontare lampioni ottocenteschi che utilizzano candele con, per
fare un esempio, lampioni al sodio odierni.

La nostra cartografia dell'Universo è quindi basata sulle osservazioni che da
un lato ci hanno permesso di acquisire informazione sulla struttura
tridimensionale del cosmo, quindi osservazioni di distribuzione spaziale, in
3D, degli oggetti, e che dall'altro ci informano sulla storia dell'universo,
poiché guardare lontano nello spazio equivale a guardare lontano nel tempo,
e osservare oggetti molto distanti da noi spazialmente equivale ad osservare
oggetti lontani da noi anche temporalmente.

Era già noto dall'antichità che in cielo, oltre al sole, i pianeti, i loro satelliti e
le stelle fisse, esistono degli oggetti nebulosi, ossia oggetti la cui apparenza
era appunto non puntiforme ma diffusa.
Lord Rosse nella prima metà dell'800 utilizzando il famoso Leviatano, un
telescopio di quasi 2 metri di diametro situato in Irlanda, fu il primo a
disegnare in alcuni dei suoi quaderni di osservazioni degli oggetti di
peculiare struttura a spirale. Tuttavia non era in grado di fornire a questi
oggetti così strani una distanza e quindi decidere se si trattava di oggetti
vicini a noi, interni alla nostra galassia, oppure oggetti esterni alla nostra
galassia e di dimensione confrontabile ad essa.
E, come spesso accade, fu un salto di qualità tecnologico a permettere un
salto di qualità nelle nostre conoscenze.

Occorre arrivare alla fine dell’800 - inizi ‘900 perché da un lato gli
astronomi comincino ad aver a disposizione dei telescopi potenti per le loro
osservazioni e perché dall’altro entri in scena a pieno regime una nuova
tecnologia per le osservazioni astronomiche: quella della lastra fotografica.
La lastra fotografica permise di effettuare la raccolta di un gran numero di
dati ben più fievoli di quelli osservabili dall'occhio umano, permettendo così
all'astronomia il salto qualitativo di cui aveva bisogno.
Ricordiamo che la lastra, rispetto all'occhio umano, ha due grandi vantaggi.
Il primo è che è un recettore obiettivo. A differenza di quando erano gli
astronomi a dover tenere un diario con disegni e note delle osservazioni
fatte, con la lastra l'aspetto soggettivo delle osservazioni scompare: la lastra
fotografica registra i dati allo stesso modo anche quando l'astronomo è
stanco o distratto! Inoltre la lastra fotografica è un recettore efficiente, ossia
permette di vedere oggetti deboli, non osservabili ad occhio nudo, e questo
perché mentre l’occhio umano registra immagini con tempi di esposizione
brevissimi (ogni ~ 1/16 di secondo le immagini registrate dall’occhio
vengono mandate al cervello) le lastre fotografiche hanno il vantaggio di
continuare a registrare la luce che proviene da stelle e galassie durante
intervalli di tempo che possono esser lunghi, fino a molte ore di posa,
permettendo quindi di ottenere alla fine immagini con una incredibile
ricchezza di informazioni e dettagli. Il primo daguerrotipo - lastra di rame
su cui è stato applicato elettroliticamente uno strato d'argento, sensibilizzato
alla luce con vapori di iodio - della Luna risale all'inverno 1839-1840 ed è di
John William Draper, un chimico e medico con la passione dell'astronomia.
ma occorrerà attendere quasi 50 anni e l’introduzione delle lastre
fotografiche (ossia emulsioni spalmate su lastre di vetro) perché la
sensibilità della tecnica fotografica diventi tale da poter permettere di
osservare anche oggetti deboli, invisibili ad occhio nudo, in cielo.

Nel 1877 Edward Pickering diventa direttore dello Harvard College
Observatory ed è un astronomo convinto dell’impatto rivoluzionario della
nuova tecnica fotografica. Egli comincia quindi subito un intenso
programma di mappatura a tappeto di tutto il cielo utilizzando le lastre
fotografiche. L’osservatorio di Harvard prenderà ben mezzo milione di
lastre nei decenni a venire (includendo lastre prese dalla stazione osservativa
organizzata ad Arequipo, sulle Ande peruviane, per permettere le
osservazioni dell’emisfero Sud del cielo).
Divenne quindi presto chiaro a Pickering the necessariamente e al più presto
occorreva organizzare un sistema efficiente per analizzare tutte queste
immagini. Ogni lastra fotografica conteneva infatti centinaia di stelle e di
ciascuna stella andavano misurate in prima istanza sia la posizione che la
brillantezza.
Pickering, che rimase direttore di Harvard per ben 42 anni, reclutò un
gruppo di giovani donne per farle lavorare come calcolatrici, un termine
che veniva usato a quei tempi per indicare chi doveva fare le misure ed i
calcoli a partire dalle osservazioni.
E’ interessante che Pickering facesse questa scelta di genere -come diremmo
oggi - per le sue collaboratrici. Fu una scelta dettata almeno in parte da
motivi pragmatici: il loro salario era più basso, anche meno della metà di
quello di un uomo di pari qualifica. D'altra parte Pickering era sostenitore
della causa femminile e convinto della maggiore affidabilità delle
lavoratrici donne in un lavoro di precisione come quello richiesto. Giusto
come nota storica ricordiamo che Edward Pickering nel rapporto annuale
dell'osservatorio di Harvard del 1898 scrisse che le donne erano: " … in
grado di svolgere lavori di routine altrettanto bene degli uomini, che
ricevono però salari più alti. E’ quindi possibile impiegare con lo stesso
denaro un numero di assistenti donne 3-4 volte maggiore”.
Parliamo di donne che erano coinvolte in un lavoro che certo era ripetitivo e
noioso, ma che nondimeno avevano per la prima volta l'opportunità di
entrare in un lavoro di ricerca dal quale altrimenti erano fino ad allora state
escluse. A quei tempi non si pensava certo che delle donne potessero passare
le notti al freddo ad osservare al telescopio!
Tuttavia questo gruppo di donne, largamente non professionista, che passa
nella storia scherzosamente anche come l’Harem di Pickering, conteneva
delle menti brillanti al suo interno, menti che riuscirono a dare contributi
all’astronomia che a tutt’oggi sono ricordati come fondamentali.
Basti qui ricordare i nomi di Annie Cannon – colei che elaborò la
metodologia di classificazione degli spettri stellari che ancor oggi usiamo;
di Antonia Maury - che con la Cannon collaborò e che discusse un metodo
di classificazione delle righe delle stelle che ne usava anche l’intensità; di
Williamina Fleming - che nel suo lavoro di catalogazione scoprì quella che
oggi chiamiamo la Nebulosa a Testa di Cavallo.

Ma la scienziata il cui nome è legato al problema della misura delle distanze
è Henrietta Leavitt, che faceva anche lei parte di questo gruppo di donne
calcolatrici. Il compito assegnatole da Pickering era quello di misurare le
brillantezza -le magnitudini come si dice con termine astronomico - delle
stelle osservate nella Piccola Nube di Magellano e contemporaneamente
cercare delle stelle variabili, ossia stelle la cui luminosità non fosse costante
nel tempo.
La Piccola Nube di Magellano è un gruppo di stelle che appare come una
macchia lattiginosa del cielo australe ed è così chiamata perché il primo ad
osservarla fu l'esploratore portoghese Ferdinando Magellano, quando attorno
al 1520 stava navigando lungo la costa atlantica del Sud America alla ricerca
di un passaggio che gli consentisse di raggiungere l'Asia.
Non e’ diffide intuire che il compito affidato alla Leawitt era piuttosto
monotono e ripetitivo: bisognava confrontare tante lastre della stessa zona
di cielo osservate in tempi diversi e cercare stelle che avessero variato la
propria luminosità da una lastra all’altra. Alla fine del suo lavoro la Leavitt
scoperse ben 2400 stelle variabili, con periodi – ossia tempo compreso tra
due massimi di luminosità successivi - compresi fra 1 e 50 giorni. E’ curioso
notare che delle 20,000 stelle variabili pulsanti catalogate oggi dagli
astronomi, la Leavitt ne scoprì più del 10% proprio mentre lavorava nel
team delle donne calcolatrici di Pickering.
Fu durante questo lavoro di misure che la Leavitt si accorse che parte delle
stelle pulsanti Cefeidi della Piccola Nube di Magellano avevano una
particolarità: le più luminose avevano un periodo di variazione più lungo.
Leavitt mise su un grafico la luminosità apparente delle variabili Cefeidi
verso il loro periodo di variazione, scoprendo l'esistenza di una legge che
legava tra loro luminosita' e periodo di variazione di queste stelle, legge che
appunto faceva sì che a luminosità maggiori corrispondessero variazioni
temporali più lente, ossia periodi di variazione più lunghi.
Ma poiché le piccole variazioni in distanza delle stelle individuali all’interno
della Piccola Nube di Magellano erano trascurabili rispetto alla distanza
molto maggiore della Piccola Nube di Magellano dal nostro sistema solare,
ragionò la Lewitt, tutte le stelle Cefeidi del grafico possono esser
considerate circa alla stessa distanza da noi. E di conseguenza questo grafico
può esser letto come una relazione tra la luminosità assoluta delle Cefeidi e
il loro periodo.

Quindi le Cefeidi possono essere viste proprio come delle Candele o
Lampioni Standard, ossia degli oggetti dei quali si può stimare con
precisione - grazie appunto alla legge trovata da Henrietta Leavitt - la
luminosità intrinseca (basta misurarne il periodo di variazione!) e quindi
determinare la distanza (basta tarare opportunamente la relazione, per
esempio determinando con altri metodi la distanza di alcune Cefeidi vicine).
E' questo il grande potenziale della relazione periodo luminosità scoperta
della Leavitt: basta osservare il periodo di una qualunque stella Cefeide, in
una galassia qualunque, per poterne determinare la luminosità intrinseca e
quindi, nota la luminosità apparente, la sua distanza!

La relazione Periodo – Luminosità una volta ben tarata - e già appena un
anno dopo dalla sua scoperta l’astronomo danese Ejnar Hertzsprung
determinò la distanza di molte Cefeidi nella via Lattea, calibrando così la
relazione della Leavitt - può quindi permettere, noto il periodo di una
Cefeide osservata in una nebulosa lontana, di dedurne la luminosità assoluta,
e quindi, nota la luminosità apparente, la distanza. Si tratta di una scoperta
fondamentale, che permette di stimare le luminosità intrinseche delle Cefeidi
a partire dal loro periodo di variazione, e quindi di misurare le distanze di
queste stelle e conseguentemente di misurare le distanze nel cosmo.
E’ curioso notare, come nota di costume, che la pubblicazione della
scoperta, che data il 1912, venne fatta a nome di Pickering, che però
correttamente scrisse che la scoperta di cui parlava nel suo articolo era stata
fatta dalla Signorina Leavitt! A quell’epoca alle donne non era concesso
pubblicare nel bollettino dell’osservatorio di Harvard, e quindi anche se
Pickering aveva chiesto che la pubblicazione fosse a nome di Leavitt questa
possibilità non venne accordata.
La scoperta della Leavitt comunque pose le basi per le scoperte degli anni
che seguirono in particolare quelle di Edwin Hubble.

Mettiamo quindi nel contesto storico dell’epoca la scoperta della Leavitt.
Siamo nel decennio 1910-1920 e ancora era diffusa l’opinione che gli unici
oggetti esistenti all’esterno della nostra Galassia - la via Lattea - fossero le
Nubi di Magellano e quindi praticamente parlare della nostra Galassia
equivaleva a parlare dell’intero Universo.
Tuttavia in quello stesso decennio cominciavano ad entrare in scena delle
nuove idee ed osservazioni che rivoluzioneranno il nostro modo di vedere
l’Universo. Ricordiamo che son passati pochi anni dalla pubblicazione da
parte di Albert Einstein della Teoria della Relatività ristretta (1905) e poi
Generale (1916), entrambe teorie che cambiarono per sempre il mondo della
fisica. In parallelo negli stessi anni gli astronomi cominciarono a puntare i
telescopi e strumenti via via più efficienti verso gli elusivi oggetti definiti
genericamente nebulose.

Agli inizi del '900 gli astronomi sapevano che osservando lo spettrogramma
(cioé lo spettro registrato sulle lastre fotografiche) del sole o di una stella vi
si notano delle bande scure, che venivano interpretate come l’impronta
lasciata dall’atmosfera più fredda alla superficie delle stelle sui fotoni in
uscita dalle parti più interne e calde delle stelle. Ma cosa succede
osservando le nebulose? Si trattava di oggetti deboli di cui era difficile
ottenere lo spettrogramma e con essi si cimentò praticamente un solo
astronomo: l’americano Vesto Slipher (1875-1969) , che lavorava
all'osservatorio di Lowell, in Arizona e che era un noto specialista di
spettrogrammi di pianeti.
Nello stesso periodo in cui la Leavitt effettuava le sue misure, Slipher aveva
intrapreso la raccolta di spettrogrammi delle nebulose a spirale, forte della
sua consolidata esperienza in misure della rotazione di pianeti. Dalla analisi
degli spettri dei pianeti aveva misurato lo spostamento Doppler delle righe in
esse presenti, e quindi misurato la rotazione.
Due parole sull'effetto Doppler: è facile intuire di che fenomeno si tratta
ricorrendo ad una analogia con ciò che accade nel campo delle onde sonore,
dove la frequenza del suono di una sirena che si avvicina a noi è maggiore
della frequenza del suono di una sirena che da noi si allontana. Quindi il
nostro astronomo che si trova sul terrazzo di un palazzo anche se non riesce
a vedere l’ambulanza muoversi, riesce a capire dal suono della sirena se
l'ambulanza è in avvicinamento o in allontanamento rispetto palazzo sul cui
terrazzo sta facendo le sue osservazioni. Similmente per le onde
elettromagnetiche, la lunghezza d'onda di un fotone emesso da una sorgente
che si avvicina a noi è spostata verso il blu rispoetto alla sua posizione a
riposo, mentre quella di una sorgente che da noi si allontana è spostata verso
il rosso: il famoso redshift, ossia spostamento verso il rosso, che come oggi
sappiamo si osserva praticamente in tutti gli spettri di galassie.
Slipher scoprì che le nebulose a spirali, in base all'evidenza fornita dai loro
spettrogrammi, si muovevano tutte a grandi velocità rispetto a noi. Nel 1912
osservo' che Andromeda si muove verso di noi con una velocità di ~ 300
km/sec. Nel 1914, quando presentò i suoi risultati al meeting della American
Astronomical Society, su un totale di 14 spirali, le sue misure in media
erano di 400 km/sec con punte di 1100 km/sec e, esclusa Andromeda, tutte
di allontanamento da noi.
Tolta la velocità della luce, si trattava dei movimenti più rapidi mai osservati
dall'uomo e le maggiori velocità mai osservate in un corpo celeste. Questi
risultati gli procurarono, al meeting della Americal Astronomical Society
(1914), una ovazione pubblica e vari premi. Tuttavia, il lavoro in questione,
nonostante la sua riconosciuta importanza, continuò ad essere portato avanti
in gran parte solo da Slipher per alcuni anni: l'accuratezza e precisione
richieste erano alte e pochi astronomi si sentirono in grado di affrontare delle
misure così insidiose e difficili.

Cominciavano quindi ad entrare in scena delle novità osservative del tutto
inspiegabili: si trattava di dati che al momento erano del tutto inspiegabili,
privi di possibili giustificazioni teoriche.
Nel novembre del 1917 entra in operazione il nuovo telescopio di Mt.
Wilson, si tratta del telescopio Hooker - costruito con i fondi forniti da John
Hooker, un ricco uomo d’affari di Los Angeles e patrono delle scienze. Si
tratta del telescopio più grande disponibile allora per le osservazioni, con un
diametro di 2.5 mt e tale resterà fino a quando, nel 1948, non venne
completato il telescopio di Monte Palomar, 150 km più a Sud, sempre in
California ma più vicino a San Diego.
Per lavorare a questo telescopio venne offerto un posto di lavoro ad un
giovane e promettente astronomo: Edwin Hubble.
Questo è un tipico caso dell’uomo giusto al momento giusto. Hubble era una
personalità forte ed un uomo di indubbio talento scientifico. Dopo essersi
diplomato in matematica ed astronomia all’Università di Chicago, Hubble
aveva passato tre anni ad Oxford, dove studiò legge, e poi era passato a
lavorare allo Yerkes Observatory – ottenendo il dottorato - e occupandosi
delle nebulose. Di ritorno dalla prima guerra mondiale, dove si era distinto
per il suo coraggio salendo al grado di Maggiore dell’esercito, utilizzò il
nuovo telescopio per continuare a studiare le nebulose, in particolare quelle
studiate già da Slipher, di forma spiraleggiante e che si muovevano ad alte
velocità relative rispetto a noi.
E fu osservando al telescopio Hooker che Hubble fece la sua grande prima
scoperta, illustrata in questa lastra d’epoca, dove di sua mano c’è l’appunto
che cambia la dicitura della stellina in alto a destra di questa che è la
galassia di Andromeda da stella Nova - ossia una stella nuova, che a causa di
una esplosione è apparsa per la prima volta in cielo - a stella variabile!
Si trattava infatti di una stella Cefeide, come quelle studiate da Henrietta
Leavitt: una stella la cui luminosità variava in modo sistematico nel tempo e
della quale Hubble misurò appunto il periodo. Confrontando la luminosità
intrinseca attesa in base al periodo di questa stella variabile, con quella
osservata, Hubble ne dedusse che la nebulosa Andromeda non era un gruppo
di stelle all’interno della nostra galassia, bensì un galassia a sua volta,
esterna alla nostra. Infatti usando la distanza calibrata grazie a questa stella
Andromeda risultava essere situata a circa un milione di anni luce da noi -
un numero che, come vedremo, era comunque una sottostima della vera
distanza di questa galassia da noi, ma comunque una quantità
significativamente maggiore - circa tre volte tanto - le dimensioni stimate
allora della nostra galassia.
Con questa scoperta comincia quella che non a torto viene definita l’era di
Hubble. Infatti negli anni successivi Hubble fece scoperte di Cefeidi in varie
nebulose, e alla fine degli anni '20 era quindi chiaro alla maggioranza degli
astronomi che la nostra Galassia non era affatto tutto l’Universo, bensì una
delle tante galassie che lo popolano.
Si tratta di un salto interpretativo nella nostra percezione all’interno
dell’Universo che può esser confrontato a quello proposto 500 anni prima da
Copernico e che può ben vedersi come un completamento della
rivoluzione copernicana: non solo la terra e' spostata dalla sua posizione
centrale, non solo lo è il sole, uno delle tante stelle alla periferia di un
sistema stellare, ma lo è anche la nostra galassia, che a sua volta non occupa
nessuna posizione privilegiata: una galassie fra le tante che popolano il
nostro universo.
Ma le novità non erano finite qui. Solo pochi anni dopo, nel 1929, Hubble
pubblica il risultato straordinario che suggella la sua fama imperitura.
Abbiamo già visto che Slipher aveva notato che le galassie sembravano in
grande maggioranza allontanarsi dalla nostra, volar via nello spazio a
velocità inaspettate in direzione per la maggior parte di allontanamento. Ma
Hubble fu in grado, utilizzando le stelle Cefeidi come lampioni standard, di
misurare per un numero considerevole di galassie anche la loro distanza. E
fu studiando 18 galassie a spirale che Hubble scoprì una relazione diretta fra
il moto di allontanamento delle galassie e la loro distanza da noi: più
distante da noi era la galassia osservata, maggiore era la sua velocità di
allontanamento da noi. Ad esempio una galassia distante 10 volte tanto
un’altra si allontana da noi ad una velocità dieci volte maggiore di
quest’ultima. Nonostante le grosse incertezze nei dati e il fatto che il trend
così come presentato nel lavoro originale di Hubble era lungi dall’essere
chiarissimo, Hubble ed il suo assistente Humason furono in grado di intuire
– con un grande salto interpretativo dei dati – che nelle galassie che
studiavano c'era un andamento che legava distanza e velocità di recessione.
Essi ottennero un valore per la costante che oggi si chiama di Hubble pari a
500 km/s/Mpc, un valore circa 10 volte più alto di quello che oggi
conosciamo come corretto.
Si tratta della legge che Hubble definì la relazione distanza velocità e che
oggi gli astronomi chiamano legge di Hubble, mentre la costante di
proporzionalità viene chiamata costante di Hubble Ho ed è un numero che
collega tra di loro la velocità di recessione di una galassia e la sua distanza
da noi.
Hubble nel libro autobiografico dove racconta le sue scoperte rende il
dovuto credito al lavoro di Henrietta Leavitt, che rese possibili le sue misure.
Per dirla con due storici della scienza contemporanei la scoperta delle
Cefeidi della Leavitt fornì le chiavi per determinare le vere dimensioni del
cosmo ed Hubble con le sue osservazioni mise in uso quelle chiavi
inserendole nella serratura dei dati, spalancando così le porte delle vere
dimensioni del Cosmo (David H. and Matthew D.H. Clark in Measuring the
Cosmos).
Dato che la legge determinata da Hubble non mutava cambiando la direzione
in cui le osservazioni venivano fatte, Hubble ne trasse la corretta
conclusione che l’universo e’ in espansione uniforme. La legge di Hubble:
v = H0 x d (1929 - 1931), segna l'inizio della moderna cosmologia, con la
consapevolezza che viviamo in un universo non statico, ma in espansione,
ed aveva un immediato riscontro teorico nei modelli teorici di Universo
ricavati dalla Relatività generale, che predicevano la presenza di una tale
relazione.
Infatti la spiegazione più semplice di questo dato osservativo non è che le
galassie si stanno tutte allontanando da noi - cosa che risulterebbe piuttosto
inspiegabile da capire - bensì che e’ proprio l’Universo stesso ad espandersi,
la sua struttura spaziale, così come accade in una analogia gastronomica ad
un panino all’uvetta che lievita nel forno. E' a causa di questa espansione
che le velocità osservate aumentano proporzionalmente alla distanza, una
osservazione che però è condivisa da ciascun chicco d’uva nel panino, o
galassia nell’Universo.
 Paradossalmente laddove la scoperta di Hubble apriva distanze vertiginose
ed inaspettate nello spazio implicava anche un inizio nel tempo, chiudendo
quindi l’Universo in un tempo finito di esistenza! Infatti, tornando indietro
sufficientemente nel tempo, ogni due punti scelti a caso nell'Universo erano
infinitamente vicini, e questa è in sintesi la tesi centrale della cosmologia
del Big Bang che si accorda perfettamente con le osservazioni di Hubble: nel
passato lontano due punti qualunque dell'Universo erano arbitrariamente
vicini l'un l'altro. La densità della materia in quel momento tendeva ad
infinito. Questo momento è quel che viene anche chiamato la singolarità
iniziale.

La determinazione del valore esatto di Ho è chiaramente di grandissima
importanza, dato questo valore permette di ottenere non solo la scala delle
distanze ma anche la scala di tempi.
 L’espansione dell’universo, non appena ci si allontana dall’universo locale,
supera per importanza tutti i moti locali delle galassie e si può quindi usare
per stimare le distanze e per costruire una mappa dell’Universo. In questo
modo grazie alla legge di Hubble ogni spettro di galassia si può pensare
come un specie di Codice a Barre , sul quale leggere la distanza della
galassia in questione da noi!
La prima grande survey di galassie come la chiamiamo noi astronomi, fu
quella effettuata da due ricercatori del Center for Astrophysics di Boston,
Margaret Geller e John Hucra. Questi due astronomi furono i primi a
mostrare quanto spettacolare fosse la distribuzione delle galassie nel cielo,
tutt’altro che uniforme, come si sarebbe potuto aspettare, ma con una grande
ricchezza di strutture, da zone quasi vuote a zone ricchissime di galassie -
quelli che gli astronomi chiamano ammassi e super ammassi. Tra il 1985 e
il 1995, Geller, Huchra e collaboratori misurarono le distanze tramite il
redshift di circa 18,000 galassie brillanti , ottenendo per la loro distribuzione
una struttura che ricorda una ragnatela, bolle di sapone. Oggi sono
disponibili cartografie ancora piu’ profonde, ottenute utilizzando i progressi
tecnologici che ci hanno messo a disposizione strumenti che permettono di
osservare contemporaneamente migliaia di galassie.
Tuttavia la struttura osservata è ancora simile a quella rivelata inizialmente
dal lavoro di Geller e Huchra.

Ma facciamo un passo indietro di qualche decennio e torniamo al nostro
percorso storico ed agli inizi del ‘900. Hubble fu senz'altro il primo grande
cosmologo osservativo, ma, come è naturale, il suo lavoro non si svolse in
un vuoto di teorie. Dopo il 1916, quando Einstein introdusse la sua teoria
della relatività generale - che sostituiva la teoria di Newton della gravità - la
cosmologia teorica fiorì: il decennio successivo vide il proliferare di nuove
teorie cosmologiche.
Uno dei primi modelli cosmologici fu quello formulato da Einstein stesso.
Già nel 1917, Albert Einstein aveva ben compreso che la sua nuova teoria
della gravità – quella della Relatività Generale – aveva come conseguenza
che l’universo doveva essere o in espansione o in contrazione. Il modello di
universo statico, in cui la forza gravitazionale di attrazione e' in equilibrio
con una forza repulsiva (che diventa significativa solo su grandi scale) fu
elaborato da Einstein, proprio per soddisfare il suo pregiudizio – comune ai
fisici della sua epoca – a favore di un modello di universo statico. Di fatto la
terra, il sole e anche la nostra galassia, sono sistemi in equilibrio, che né si
espandono né si contraggono, quindi sembrava naturale estrapolare questo
ragionamento all'universo stesso nel suo insieme, e quindi aggiungere una
costante ad hoc, la cosiddetta costante cosmologica, che entrasse a
controbilanciare la gravita’, in modo da render possibili modelli statici di
universo.
Ma vi furono altri modelli sviluppati nella stessa epoca, ed in particolare il
modello che oggi chiamiamo del Big Bang, un modello che rappresentò un
gran successo della cosmologia teorica in quanto la sua formulazione
precedette la scoperta di evidenze osservative dell'espansione dell'universo.
A proporre questa teoria furono più o meno contemporaneamente un
metereologo e matematico russo, Alexander Friedmann (1888-1925), ed
un abate belga, Georges Lemaitre (1894-1966). Friedmann nel 1922 e
Lemaitre nel 1927, indipendentemente, scoprirono la famiglia di soluzioni
più semplici alle equazioni di Einstein, soluzioni che descrivono un
universo in espansione/contrazione.
Di fatto Friedmann fu il primo ad applicare la relatività generale alla
cosmologia senza introdurre una costante a stabilizzare il modello e questo
già nel 1922. Nel 1927 il sacerdote cattolico belga Georges Lemaître
propose un modello dell’universo in espansione per spiegare il dato
osservativo scoperto da Slipher dello spostamento verso il rosso delle righe
delle nebulose a spirali (come si chiamavano allora), in qualche modo
precorrendo la legge di Hubble. Basando la sua teoria sul lavoro di Einstein
e di DeSitter ricavò in modo indipendente le equazioni di Friedmann per un
universo in espansione. Perciò entrambi questi fisici possono esser a ragione
chiamati i padri della teoria del Big Bang.
Quando nel 1929 Hubble annunciò la scoperta della legge che oggi porta il
suo nome e che descrive la recessione delle galassie, apparentemente egli
non conosceva i risultati di Friedmann e Lemaître. La sua scoperta subito
fece rinascere un grande interesse per i modelli cosmologici non statici,
omogenei ed isotropi, come quelli di Friedmann e Lemaitre, mentre decretò
la fine per i modelli di universo statici. Sembra addirittura che Einstein abbia
pubblicamente dichiarato che l'introduzione di questa forza repulsiva - la
costante cosmologica - fosse stato uno dei più grossi errori della sua vita.
I modelli di Friedmann-Lemaître sono di due tipi molto diversi: se la densità
media di materia nell'universo è minore o uguale rispetto ad un valore
critico, allora l'universo deve essere spazialmente infinito, ed in questo caso
l'espansione attuale durerà per sempre. Se invece la densità dell'universo è
maggiore di tale valore critico, allora il campo gravitazionale prodotto dalla
materia incurva l'universo su se stesso; l'universo e' finito benché illimitato,
come la superficie di una sfera. In questo caso i campi gravitazionali sono
abbastanza intensi da fermare col tempo l'espansione dell'universo ed a
questo punto si avrà il fenomeno inverso della contrazione (implosione),
fino a raggiungere una densità infinitamente grande. Il legame tra il diverso
destino finale dell’universo e i diversi valori della densità critica nei
modelli di Friedmann-Lemaitre si può intuire con una semplice analogia:
quella del sasso lanciato verso l'alto dalla superficie di un pianeta. Se il
sasso viene scagliato con una velocità sufficiente, o, che è lo stesso, se la
massa del pianeta è abbastanza piccola, la pietra rallenterà gradualmente il
suo moto, ma riuscirà comunque a sfuggire all'attrazione gravitazionale del
pianeta fino a perdersi all'infinito. Questo esempio corrisponde al caso di
una densità cosmica inferiore a quella critica. Se il sasso viene lanciato verso
l'alto con una velocità insufficiente, raggiungerà una certa altezza e poi
ricadrà sulla superficie del pianeta. Questo secondo esempio corrisponde al
caso di una densità cosmica superiore alla densità critica. Quindi negli
universi curvi di Friedmann-Lemaitre l'universo si espande da uno stato
iniziale arbitrariamente denso fino al suo stato attuale. Nei modelli chiusi si
finisce con un collasso nuovamente, mentre nei modelli cosiddetti aperti
l'espansione continua indefinitamente. Oggi i dati in nostra mano sembrano
favorire i cosiddetti modelli di universo piatto, ossia di separazione fra quelli
di universo curvo e quelli di universo aperto, in cui l'universo si espande
indefinitamente, sempre più lentamente, con una velocità di espansione che
tende asintoticamente a zero. Solo nell'ultimo decennio questa visione è stata
oggetto di revisione: in presenza di energia oscura (v. lezione successiva)
l'espansione dell'universo rallenta solo inizialmente, a causa della gravità,
per poi, però, ricominciare ad accelerare senza piu' fermarsi.
Lemaître propose nella sua teoria quello che poi diventerà noto come il Big
Bang e che lui inizialmente definì come l'ipotesi dell'atomo primigenio,
ossia l'esistenza di un istante iniziale estremamente caldo e denso nella vita
dell'universo.

Se quindi negli anni '30-'40 diventa chiara da un lato la struttura della nostra
galassia, il fatto che è una delle tante che popolano l’universo, e in
particolare il fatto fondamentale che viviamo in un universo in espansione, i
decenni successivi vedono l'affermarsi della teoria del Big Bang su quella
dello Steady state, o stato stazionario.

 Big Bang vs Steady State
Prima di affermarsi in modo definitivo la teoria del Big Bang dovrà superare
una serie di problemi osservativi e problemi concettuali.
Riguardo ai problemi osservativi ricordiamo che uno dei problemi che
immediatamente si presentò ai cosmologi del dopoguerra fu come
riconciliare le misure di Hubble con le misure, già note, dell'età ad es. della
terra o del sistema solare.
Originariamente Hubble aveva ottenuto meno di 2 miliardi di anni per la sua
misura di 1/H0 (1934). In quegli anni i tempi scala sia dell’età della terra che
del sole erano piuttosto incerti, dato che sia la datazione delle
rocce/meteoriti con gli elementi radioattivi che la datazione del sole usando
la fusione di idrogeno in elio che si svolge al suo interno erano ancora a
venire. Tuttavia negli anni '50 le misure di Hubble furono corrette e riviste
da Walter Baade, che ricalibrò la legge periodo-luminosità per le Cefeidi
tenendo conto dell’esistenza di diverse popolazioni di stelle, più o meno
ricche di metalli, oltre a correggere degli altri errori legati all’aver
erroneamente scambiato ammassi di stelle per singole stelle a grandi
distanze. Baade in questo modo ottenne un valore della costante di Hubble
pari alla metà della stima iniziale di Hubble stesso, di conseguenza la stima
dell’età dell’Universo raddoppiò, diventando dell’ordine di circa 4 miliardi
di anni.
Ma per allora era stata ottenuta una misura precisa, fatta nel 1956 dal
geofisico americano Clair Patterson (1922-1995) dell’età della terra, usando
il metodo della datazione radioattiva su meteoriti e rocce. Con questo
metodo l'età della terra risultava pari a 4 miliardi e 550 milioni di anni, e i
valori della costante di Hubble misurati erano problematici per questo
valore, dato che sembrava abbastanza ovvio che la terra non si fosse formata
immediatamente dopo il Big Bang.
Può esser curioso osservare che laddove i dati di Patterson finalmente
venivano incontro ai tempi scala richiesti dalla teoria dell’evoluzione di
Darwin (in mancanza dei quali molti trovavano ancora improbabile la teoria
darwiniana dell’evoluzione, che con i suoi cambiamenti lenti richiedeva
molte generazioni e quindi tempi lunghi) purtroppo entravano in collisione
con i tempi più brevi che sembravano allora suggeriti dai dati astronomici.
I dati di Patterson erano un problema per gli astronomi del tempo, anche
perché a trovarsi in disaccordo erano informazioni che arrivavano da campi
completamente diversi: da un lato l’astronomia e la cosmologia e dall’altro
la geologia e la datazione radioattiva delle rocce.
Questo contrasto fece sì che la teoria dello Stato Stazionario per un certo
periodo trovasse sostegno in una frazione significativa della comunità
astronomica, anche perché è una teoria che aveva anche un supporto
concettuale-filosofico. Infatti la teoria cosmologica dello Steady State,
come era stata formulata originariamente da Bondi, Gold ed Hoyle nel 1948,
prevedeva che l'Universo avesse lo stesso aspetto in tutti gli istanti,
postulando che vi fosse creazione continua di materia in modo da
mantenerne costante nel tempo la densità nonostante l'espansione.
La quantità di materia da aggiungere per soddisfare questo vincolo è
sorprendentemente bassa e di fatto difficile da osservare:
approssimativamente si tratta di una massa equivalente a quella del sole per
megaparsec cubico all'anno, o, con altre unità di misura,
approssimativamente un atomo di idrogeno al metro cubo in un miliardo di
anni. Anche numeri così incredibilmente piccoli causano però effetti
osservabili sulle scale cosmiche!
Ovviamente tale teoria era più soddisfacente in quanto non violava il
principio cosmologico perfetto ed inoltre non postulava un istante iniziale,
cosa che suonava un po' troppo vicino all'istante della creazione delle
religioni occidentali e quindi troppo vicino ai pregiudizi culturali
dell'ambiente in cui la teoria stessa era nata. Di passaggio: il termine Big
Bang fu introdotto con una connotazione che ne voleva sottolineare il lato
'ridicolo' proprio da Fred Hoyle - uno dei padri della teoria della Stato
Stazionario - durante una trasmissione radiofonica alla fine degli anni '40.
C'era però un altro problema che la teoria dello Stato Stazionario doveva
superare, un problema più complesso e legato alla formazione degli elementi
chimici pesanti.
Il nostro universo contiene ~75% idrogeno, ~24% elio e tracce del resto.
Tuttavia gli elementi pesanti, seppur trascurabili in proporzione, sono
osservati in natura. Tra l'altro ricordiamo che noi siamo fatti di atomi che
son presenti solo in minima percentuale nella composizione chimica globale
dell'universo: praticamente tutta la vita sulla terra è basata su carbonio, azoto
ossigeno la cui presenza nell’Universo è in tracce trascurabili. La teoria del
Big Bang, con i suoi momenti iniziali caldi e densissimi, in cui tutto era un
plasma, sembrava suggerire un laboratorio ovvio in cui si fossero formati gli
elementi pesanti, ma nel caso dello Steady state? Si sapeva che la
nucleosintesi stellare producevano gli elementi fino al ferro, ma per gli
elementi piu' pesanti?
Nel 1957 apparve un famoso articolo di Margaret Burbidge, Geoffrey
Burbidge, Fowler e Hoyle, in cui si dimostrava in dettaglio grazie a quale
processo era possibile formare gli elementi più pesanti del ferro durante
fenomeni come le esplosione di supernovae, ossia durante le fasi finali
esplosive della vita delle stelle massiccie, quando un intenso flusso di
neutroni viene eiettato ad alte energie dalle regioni piu' interne delle stelle.
Questi autori, che sostenevano al teoria dello steady state, erano convinti
con questo articolo di aver eliminato la necessità di ricorrere al Big Bang per
spiegare la presenza degli elementi pesanti nell'Universo.
Negli anni 50 quindi la bilancia sembrava pendere in favore della teoria
dello steady state, ma, come spesso avviene, nuove osservazioni erano in
arrivo per rimescolare di nuovo le carte in tavola.

Innanzitutto la misura della costante di Hubble: dal 1952 fino agli anni '70
misure successive e più accurate della costante di Hubble hanno fatto sì che
il suo valore scendesse dai 250 circa di Baade a 50-100, e poi fino al valore
oggi accettato : 73 km/sec/Mpc, così come e' stato misurato alla fine degli
anni 90 da osservazioni effettuate con lo Hubble Space telescope, il
telescopio spaziale che appunto onora con il suo nome il contributo di
Hubble alla cosmologia contemporanea.
Gli astronomi oggi hanno misurato H0 con maggior precisione di quanto
fosse stata possibile a Hubble stesso, introducendo varie migliorie tecniche. I
diversi indicatori di distanza (e soprattutto le stelle variabili Cefeidi) sono
tutti stati rimisurati con accuratezza nei diversi tipi di galassie. E la scala
delle distanze cosmologiche e' stata estesa fino a galassie molto piu' distanti.
Il valore oggi preferito della quantità 1/H0 oscilla da 13.61 and 13.85
miliardi di anni, e oggi possiamo confrontare questa stima dell'eta'
dell'universo non solo con l'età misurata per la terra o per il sistema solare da
datazione di rocce terrestri o meteoriti (usando le abbondane degli isotopi
radioattivi ad es. dell'Uranio), ma addirittura con l'età stimata della nostra
galassia, ottenuta utilizzando modelli di evoluzione galattica e il tasso di
creazione degli elementi pesanti (ad es. l'uranio), oppure modelli di
evoluzione stellare. Entrambi questi metodi suggeriscono per la nostra
galassia una età che e' tra i 12 e i 15 miliardi di anni, che ben si accorda con
le stime ottenute da 1/H0 , e la maggior parte degli astronomi considera
questa convergenza come una evidenza a favore di una età finita
dell'universo e della correttezza del modello del Big Bang.

Il secondo pezzo di osservazioni che ando' a corroborare la teoria del Big
Bang fu il fatto che ben spiegava le abbondanze primordiali di elio e
deuterio. Ricordiamo che una delle conseguenze importanti della teoria del
Big Bang e' che negli istanti iniziali dell'Universo quest'ultimo e'
praticamente in condizioni tali di densità e temperatura da essere una mistura
calda e densa di elettroni, protoni, neutroni, neutrini e fotoni.
Quando l'universo aveva metà delle dimensioni che ha oggi, la densità di
materia era 8 volte maggiore quella misurata oggi, e la sua temperatura era il
doppio, e così via andando indietro nel tempo. L'universo primordiale era
quindi un posto molto caldo: quando l'universo ha dimensioni pari a un
centesimo di milione delle sue dimensioni attuali, la sua temperatura e' di
273 milioni di gradi sopra lo zero e la densità di materia e' confrontabile con
quella dell'aria sulla superficie della terra.
Inizialmente gli astronomi pensavano che a queste temperature estreme
potessero essersi formati tutti gli elementi della tavola periodica, tramite un
processo successivo di cattura di neutroni che porterebbe al passaggio dagli
elementi piu' leggeri a quelli piu' pesanti della tavola periodica.

Tuttavia questa teoria venne messa in difficoltà non appena ci si accorse che
era difficile andare nelle fasi iniziali di vita dell'Universo oltre l'elio, dato
che non esistono nucleo stabili con cinque o otto particelle nucleari, e quindi
non e' possibile costruire nuclei più pesanti dell'elio aggiungendo neutroni o
protoni a nuclei di elio o fondendo coppie di nuclei di elio – una conclusione
a cui era giunto già Fermi. Come si formano allora gli elementi pesanti ? A
questo punto l'articolo di Burbidge, Burbidge, Fowler e Hoyle risultò utile
alla teoria del Big Bang, poiché provvedeva una spiegazione per la
formazione gli elementi pesanti, dal Carbonio in poi, nelle stelle, lasciando
così al Big Bang solo il problema di dover spiegare l'abbondanza
primordiale di Elio e Deuterio. E la teoria del Big bang ben spiega le
abbondanze primordiali di Elio e Deuterio, il che invece non è possibile
solo grazie alle stelle, dato che non e' possibile produrre la quantità osservata
nell'universo di Elio (25% circa) usando solo le stelle: la liberazione di
energia comportata da questa fusione sarebbe stata molto maggiore di quella
che ha luogo in modo graduale durante la vita di una stella.

Infine l'ultimo e importante tassello che confermò definitivamente la teoria
del Big Bang era già contenuto come predizione in un articolo del 1948 ,
intitolato The Origin of Chemical Elements, di Alpher, Bethe e Gamow.
Questo articolo spiegava come negli istanti iniziali dell'universo, a
condizioni di temperature altissime (parliamo di un miliardo di gradi kelvin),
la radiazione era in grado di fotodissociare i nuclei, cosicché l'universo
inizialmente consisteva di fotoni e particelle elementari libere. Man mano
che l'universo andava espandendosi, la radiazione si raffreddava fino a che,
nelle previsioni degli autori, si sarebbero cominciati a costituirsi elementi
pesanti da neutroni e protoni mediante una rapida sequenza di cattura di
neutroni – una previsione, che, come già visto, venne poi corretta.
Ma Gamow stimò poi anche, insiema ad Alpher e Herman, che per spiegare
le attuali abbondanze osservate degli elementi leggeri, era necessario
supporre un certo rapporto dei fotoni alle particelle nucleari, e precisamente
dell'ordine di un miliardo ad uno. Usando stime della attuale densità
cosmica delle particelle nucleari, gli autori furono quindi in grado di predire
l'esistenza di un fondo di radiazione residuo, risalente agli inizi dell'universo,
con una temperatura attuale di 5 gradi kelvin!
La cosa veramente curiosa storicamente è che, nonostante questa predizione,
nessuno si mise a cercare questa radiazione di fondo cosmica. Si potrebbe
sostenere che tra gli anni '50 a gli inizi degli anni '60 non si sapeva
abbastanza delle abbondanze cosmiche degli elementi per poter predirre con
certezza la temperatura del fondo di radiazione cosmica, ma il punto e' che, a
parte la predizione del valore esatto della sua temperatura, questo fondo di
radiazione cosmica neppure venne cercato. Apparentemente ebbe luogo un
classico caso di perdita di contatto tra teorici e sperimentali: la maggior parte
dei teorici non si resero mai conto del fatto che la radiazione di fondo
prevista da Gamow avrebbe potuto esser osservata. Viceversa gli
sperimentali non vennero a conoscenza delle previsioni di Gamow. Inoltre
vi era molto scetticismo nei fisici per ogni teoria che cercasse di spiegare
l'origine dell'universo. Di fatto si trattò di un classico esempio di una
opportunità mancata. Nel 1965 la scoperta di Penzias e Wilson, ossia la
misura del fondo di radiazione cosmica a 2.7K, fu il successo definitivo per
la teoria del Big Bang. Infatti la miglior evidenza osservativa a favore della
cosmologia del Big bang e' proprio il fondo di radiazione cosmica a
microonde, il residuo freddo della radiazione calda che riempiva l'universo
intero nei primi istanti della sua vita - microonde e' il termine che si riferisce
alla lunghezza d'onda delle onde radio corte, ossia dell'ordine dei centimetri.
I fatti storici son noti a tutti: nel 1965 Arno Penzias e Robert Wilson
effettuavano delle misure con un piccolo radio telescopio e mentre
cercavano di calibrarlo, si accorsero che misuravano un eccesso di rumore
che sembrava indipendente dalla direzioni in cui l'antenna puntava. Dopo
aver lavorato a lungo per eliminare ogni possibile origine terrestre o
strumentale di tale segnale, giunsero alla conclusione che si trattava di
segnale esterno proveniente in modo uniforme da tutte le direzioni. Dato
che non era quindi piu' intenso nella direzione del piano della galassia , se ne
poteva escludere sia l'origine solare che galattica. Nel frattempo un gruppo
di cosmologi all'università di Princeton, diretti da Robert Dicke, avevano,
senza saperlo, ripetuto i calcoli di Gamow, rendendosi conto che una delle
previsione della teoria del Big Bang era anche la presenza di un fondo di
radiazione diffuso, distribuito uniformemente in cielo. Dicke e collaboratori
si stavano accingendo alla costruzione di una antenna per osservate questa
radiazione di fondo - che avevano correttamente previsto dover essere
osservabile nella banda radio - quando seppero del risultato di Penzias e
Wilson. I due gruppi di scienziati pubblicarono contemporaneamente i loro
lavori mostrando gli uni i risultati osservativi e gli altri le predizioni
teoriche, ovviamente con grande impatto scientifico. Oggi misure precise
indicano che la radiazione di fondo a microonde è estremamente isotropa,
tanto che eccetto un termine cosiddetto di Dipolo, dovuto al moto del sole
attorno al centro della nostra galassia, la sua temperatura differisce al più di
11 parti su un milione da una direzione all'altra del cielo, ossia di 10
milionesimi da una direzione all'altra del cielo. La forma della radiazione di
fondo cosmica a microonde è quella di uno spettro di corpo nero di
temperatura circa 2.7K (gradi Kelvin). La forma precisa di corpo nero è una
precisa indicazione del fatto che questa radiazione porta con sé la memoria
di un tempo in cui radiazione e materia erano in equilibrio, il tempo in cui, a
densità alte, materia e radiazione si trovavano in equilibrio termodinamico
condividendo la stessa temperatura, una situazione nella quale la forma della
distribuzione della radiazione è appunto quella di corpo nero. Man mano
che l'universo si espande avviene quello che con termine tecnico si chiama
disaccoppiamento di materia e radiazione, ossia si formano i primi nuclei e
atomi di idrogeno, e l'universo diventa rapidamente trasparente alla
radiazione: prima ogni fotone interagiva spessissimo con elettroni e protoni
Puoi anche leggere