Dati finali Missione Planck ESA, tutte le info
A cinque anni dalla realizzazione della prima immagine dell’universo a microonde ottenuta dalla missione Planck dell’ESA, di fatto la più estesa ed accurata visione dell’universo primordiale oggi a nostra disposizione, il consorzio di Planck oggi ha reso pubblica la cosiddetta legacy data release: l’ultima – definitiva – versione dei dati raccolti dalla strumentazione di bordo della sonda, che vede una importante partecipazione sia scientifica che tecnologica dell’Italia, con l’Agenzia Spaziale Italiana (ASI) e l’Istituto Nazionale di Astrofisica (INAF) in prima fila. Questi dati confermano le predizioni indicate dal modello standard cosmologico, ma lasciano un enigma ancora aperto, quello sul corretto valore della costante di Hubble, che di fatto indica la velocità di espansione dell’universo. È anche su questo dato cruciale che si svolgeranno gli studi dei cosmologi, per riuscire a conoscere in maniera sempre più chiara la storia del nostro universo e la sua evoluzione.
Era il 21 marzo 2013. Scienziati e giornalisti scientifici da tutto il mondo si erano riuniti nella sede parigina dell’Agenzia spaziale europea (ESA) – o si erano collegati online – per assistere al momento in cui la missione Planck dell’ESA avrebbe svelato la sua “immagine” del cosmo. Un’immagine ottenuta non con la luce visibile ma con le microonde. A differenza della luce visibile ai nostri occhi, la cui lunghezza d’onda è inferiore al millesimo di millimetro, la radiazione che Planck stava rilevando misurava onde più lunghe, da pochi decimi di millimetro a pochi millimetri. Ed era una radiazione emessa quando l’universo ebbe inizio.
L’espressione che si usa per indicare questa radiazione nel suo complesso è fondo cosmico a microonde, o CMB (dall’inglese cosmic microwave background radiation). Misurando le differenze quasi impercettibili che questa radiazione presenta da una regione all’altra del cielo, era possibile leggere nell’immagine ottenuta da Planck l’età, l’espansione, la storia e il contenuto dell’universo. Niente di meno che il progetto del cosmo.
Le attese degli astronomi erano ben note. Già due missioni della NASA, COBE nei primi anni Novanta e WMAP nel decennio successivo, avevano effettuato analoghe ricognizioni del cielo, ottenendo come risultato immagini simili. Immagini, però, che non avevano la precisione e la nitidezza di quelle prodotte da Planck. Grazie alla sua visione avremmo potuto cogliere l’impronta dell’universo primordiale a un livello di dettaglio mai ottenuto prima.
Tutto dipendeva da quello. Se il nostro modello dell’universo fosse risultato corretto, Planck lo avrebbe confermato con un’accuratezza senza precedenti. Se invece fosse risultato sbagliato, gli scienziati sarebbero dovuti ripartire da zero.
Un universo quasi perfetto – Le release del 2013 e del 2015
Quando l’immagine venne rivelata, i dati confermarono il modello. Combaciavano così bene con le nostre attese da non lasciarci che una sola conclusione possibile: quello che Planck ci aveva mostrato era “un universo quasi perfetto”. Perché quasi perfetto? Perché rimanevano comunque alcune anomalie, sulle quali si sarebbero concentrate le ricerche successive.
Trascorsi cinque anni, con il rilascio della legacy data release il messaggio rimane lo stesso di allora, ed è ancora più forte. “È questo il principale lascito di Planck”, dice Jan Tauber, Planck project scientist dell’ESA. “Il modello standard della cosmologia ha superato, a oggi, tutti i test. E le misurazioni che lo dimostrano le ha compiute Planck”.
Alla base di tutti i modelli cosmologici c’è la teoria della relatività generale di Albert Einstein. Per riconciliare le equazioni relativistiche generali con un’ampia gamma di osservazioni, fra le quali il fondo cosmico a microonde, il modello standard della cosmologia include l’intervento di due componenti sconosciute. Primo, una materia che attrae, nota come materia oscura fredda (cold dark matter): a differenza della materia ordinaria, non interagisce con la luce. Secondo, una forma di energia che respinge, nota come energia oscura (dark energy): è la responsabile dell’espansione attualmente accelerata dell’universo. Insieme alla materia ordinaria che conosciamo, queste due componenti sono risultate essenziali per spiegare il cosmo. Ma si tratta di componenti esotiche: ancora non sappiamo cosa siano veramente.
Lanciato nel 2009, Planck ha raccolto dati fino al 2013. La sua prima release – quella all’origine dell’universo quasi perfetto – risale alla primavera di quell’anno. Si basava esclusivamente sulla temperatura della radiazione cosmica di fondo a microonde, e utilizzava solo le prime due survey a tutto cielo della missione. Erano dati che fornivano anche un’ulteriore prova dell’inflazione, la primissima fase di espansione accelerata del cosmo, avvenuta nelle frazioni di secondo iniziali della storia dell’universo, durante le quali vennero sparsi i semi di tutte le future strutture cosmiche. Offrendo una misura quantitativa della distribuzione relativa di queste fluttuazioni primordiali, Planck ha fornito la migliore conferma mai ottenuta dello scenario inflazionistico.
Oltre a produrre la mappa in temperatura del fondo cosmico a microonde con un’accuratezza senza precedenti, Planck ha misurato la polarizzazione di quella radiazione: una caratteristica che indica se le onde di luce vibrano in una direzione preferenziale. La polarizzazione del fondo cosmico a microonde contiene l’impronta dell’ultima interazione avvenuta tra la radiazione e le particelle di materia presenti nell’universo primordiale: porta dunque con sé informazioni aggiuntive e cruciali sulla storia del cosmo. Ma potrebbe anche contenere informazioni sui primissimi istanti del nostro universo, offrendoci dunque indizi per comprenderne la nascita.
La seconda release, prodotta nel 2015, raccoglieva tutti i dati raccolti durante l’intera durata della missione, dunque in totale otto survey dell’intero cielo. Oltre ai dati in temperatura, conteneva anche i dati in polarizzazione, ma erano accompagnati da un’avvertenza. «Sentivamo che la qualità di alcuni dei dati di polarizzazione non era buona al punto da poterli impiegare per la cosmologia», ricorda Tauber. Ovviamente ciò non ha impedito di usarli anche per la cosmologia, aggiunge, ma alcune delle conclusioni alle quali si poteva giungere all’epoca avrebbero richiesto ulteriori conferme, ed erano dunque da maneggiare con cautela.
Proprio in questo consiste la grande novità della release finale, questa del 2018. Ora che il consorzio di Planck ha completato una nuova elaborazione dei dati, la maggior parte delle avvertenze è scomparsa: gli scienziati hanno adesso la certezza che sia la temperatura sia la polarizzazione sono determinate in modo accurato. «Finalmente possiamo elaborare un modello cosmologico basato esclusivamente sulla temperatura, o esclusivamente sulla polarizzazione, o infine sia sulla temperatura che sulla polarizzazione. E tutti e tre corrispondono», afferma Reno Mandolesi dell’Università di Ferrara e associato INAF, principal investigator dello strumento LFI di Planck.
“Dal 2015 a oggi, altri esperimenti hanno raccolto ulteriori dati astrofisici, e nuove analisi cosmologiche sono state condotte, combinando le osservazioni della CMB a piccole scale con quelle di galassie, ammassi di galassie e supernove. Nella maggior parte dei casi hanno rafforzato i risultati di Planck e il modello cosmologico sostenuto da Planck”, spiega Jean-Loup Puget dell’Istituto di astrofisica spaziale di Orsay (Francia), principal investigator dello strumento HFI di Planck.
“Si conclude una missione di grande successo, che, fra i tanti obiettivi raggiunti, ha principalmente contribuito alla validazione del modello standard della cosmologia” commenta Barbara Negri, responsabile dell’Unità esplorazione e osservazione dell’universo dell’ASI. “L’Italia ha partecipato in maniera significativa alla missione Planck con la progettazione e realizzazione dello strumento LFI (Low Frequency Instrument) e con lo sviluppo del sottosistema di pre-amplificazione criogenica per il secondo strumento HFI (High Frequency Instrument). L’ASI ha fornito un importante supporto alla comunità scientifica coinvolta guidata dal PI italiano dello strumento LFI, Reno Mandolesi, e da Paolo de Bernardis per la partecipazione allo strumento HFI, e ha finanziato l’industria italiana per lo sviluppo della strumentazione scientifica”.
L’anomalia della costante di Hubble
È un risultato impressionante: significa che i cosmologi possono essere certi che la loro descrizione dell’universo come un luogo fatto di materia ordinaria, materia oscura fredda ed energia oscura, popolato da strutture il cui seme è stato gettato durante una fase iniziale d’espansione inflazionaria, è in gran parte corretta. Rimangono però alcune stranezze che richiedono una spiegazione. Una in particolare è legata all’espansione dell’universo. Un’espansione il cui Il tasso è dato dalla cosiddetta costante di Hubble.
Per calcolare la costante di Hubble, gli astronomi hanno tradizionalmente fatto affidamento a distanze calibrate presenti nel cosmo. Una tecnica possibile solo per l’universo relativamente locale: si misura la luminosità apparente di particolari tipi di stelle variabili a noi vicine e di particolari stelle che esplodono, la cui luminosità effettiva può essere stimata in modo indipendente. È una tecnica ben collaudata, sviluppata nel corso del secolo scorso a partire dal lavoro pioneristico di Henrietta Leavitt e successivamente applicata, alla fine degli anni Venti, da Edwin Hubble e dai suoi collaboratori, che avvalendosi di stelle variabili in galassie distanti e altre osservazioni riuscirono a dimostrare come l’universo stesse espandendosi.
Il valore per la costante di Hubble ottenuto dagli astronomi – facendo ricorso a un’ampia varietà di osservazioni all’avanguardia, fra le quali anche quelle dell’osservatorio che proprio da Hubble ha preso il nome, il telescopio spaziale Hubble della NASA e dell’ESA – è 73,5 km/s/Mpc, con un’incertezza di appena il due per cento. L’esoterica unità di misura esprime la velocità dell’espansione in km/s per ogni milione di parsec (Mpc) di separazione nello spazio, dove un parsec equivale a 3,26 anni luce.
Un secondo metodo per ottenere una stima della costante di Hubble si avvale invece del modello cosmologico che meglio si adatta all’immagine del fondo cosmico a microonde cosmica – dunque a una rappresentazione dell’universo quand’era molto giovane – per fornire una previsione del valore che la costante di Hubble dovrebbe avere oggi. Ebbene, applicato ai dati di Planck questo metodo fornisce un valore più basso: 67,4 km/s/Mpc. E con un margine d’incertezza assai ridotto, inferiore all’uno per cento. Ora, se da una parte è straordinario che due metodi radicalmente diversi per derivare la costante di Hubble – uno che si basa sull’universo locale e già maturo, l’altro sull’universo distante e ancora in fasce – arrivino a valori così simili, occorre d’altra parte ricordare che, in linea di principio, questi due valori, tenendo conto dei rispettivi margini d’errore, dovrebbero corrispondere. Ma così non sembra essere. Da qui la “tensione”, l’anomalia. E la domanda diventa: come conciliare questi due risultati?
Entrambe le parti in causa sono convinte che eventuali errori residui presenti nei loro metodi di misurazione siano ormai troppo ridotti per spiegare la discrepanza. È dunque possibile che ci sia qualcosa di un po’ particolare nel nostro ambiente cosmico locale, qualcosa che renda la misurazione nell’ambiente vicino in qualche modo anomala? Per esempio, sappiamo che la nostra galassia si trova in una regione dell’universo la cui densità è lievemente inferiore alla media, e questo potrebbe avere qualche effetto sul valore locale della costante di Hubble. Ma sfortunatamente la maggior parte degli astronomi ritiene che simili peculiarità non siano grandi a sufficienza per risolvere il problema.
“Non esiste un’unica soluzione astrofisica soddisfacente in grado di spiegare la discrepanza. Dunque c’è forse una nuova fisica ancora da scoprire”, dice Marco Bersanelli dell’Università di Milano, deputy principal investigator dello strumento LFI. Per “Nuova fisica” s’intende che particelle o forze esotiche potrebbero influenzare i risultati.
Tuttavia, per quanto si tratti di una prospettiva emozionante, gli stessi risultati di Planck pongono forti vincoli a questa linea di pensiero, proprio perché si adattano così bene alla maggior parte delle osservazioni. “È molto difficile includere una nuova fisica che allevi la tensione riuscendo, al tempo stesso, a mantenere la descrizione precisa offerta dal modello standard per tutto il resto, che già corrisponde”, spiega François Bouchet dell’Istituto di astrofisica spaziale di Orsay, deputy principal investigator dello strumento HFI.
Di conseguenza, nessuno è al momento in grado di fornire una spiegazione soddisfacente per le differenze tra le due misurazioni, e il punto interrogativo rimane.
“Meglio, per ora, non entusiasmarci troppo alla possibilità di nuova fisica: potrebbe benissimo essere che la discrepanza, relativamente piccola, possa essere spiegata da una combinazione di piccoli errori ed effetti locali. Dobbiamo comunque continuare a migliorare le nostre misurazioni e pensare a modi migliori per spiegarla”, conclude Tauber.
Questa è dunque l’eredità di Planck: con il suo universo quasi perfetto, la missione ha offerto ai ricercatori una conferma dei loro modelli, lasciando al tempo stesso alcuni dettagli irrisolti sui quali cimentarsi. In altre parole: il meglio di entrambi i mondi.
Il Contributo Italiano Alla Missione
Lanciato il 14 maggio 2009 dall’Agenzia Spaziale Europea (ESA), Planck è il risultato di una collaborazione internazionale che coinvolge oltre cento istituti di ricerca fra Europea, Stati Uniti e Canada. Alla sua realizzazione l’Italia ha contributo con un finanziamento dell’Agenzia Spaziale Italiana (ASI). Sul fronte dell’attività di ricerca, il progetto è stato realizzato con il contributo dell’Istituto Nazionale di Astrofisica (INAF). Per l’industria hanno collaborato ingegneri e tecnici delle aziende Thales Alenia Space (Thales-Finmeccanica), Galileo e Pasquali Microwave System. Grazie a questa collaborazione è stato ideato, progettato e integrato in Italia uno dei due strumenti di Planck, il LFI (Low Frequency Instrument), che può rilevare segnali dell’ordine del milionesimo di grado. Principal Investigator di LFI è Reno Mandolesi, dell’Università di Ferrara e associato INAF. L’Italia ha contribuito anche al secondo strumento di Planck, HFI (High Frequency Instrument), progettando e sviluppando il sottosistema di pre-amplificazione criogenica. Responsabile per la parte italiana è l’astrofisico Paolo de Bernardis dell’università Sapienza di Roma.
Foto e Notizie: Ufficio Stampa INAF-ASI