Uno dei più grandi misteri della scienza di oggi, l’energia oscura, in realtà «non esiste». È la conclusione di una ricerca ancora in atto di un gruppo di ricercatori che ha tentato di risolvere l’enigma dell’espansione dell’universo
Uno dei più grandi misteri della scienza di oggi, l’energia oscura, in realtà «non esiste». È la conclusione di una ricerca ancora in atto di un gruppo di ricercatori che ha tentato di risolvere l’enigma dell’espansione dell’universo.
Lo studio
La loro analisi è stata pubblicata sulla rivista Monthly Notices of the Royal Astronomical Society Letters. Negli ultimi 100 anni, la maggior parte degli astrofisici ha dato per scontato che il cosmo si stesse espandendo in modo uniforme in tutte le direzioni. Ma analisi sempre più dettagliate di tale espansione hanno richiesto l’introduzione di un’«energia oscura» per spiegare il fatto che essa risultava superiore a quella prevista considerando “solo” il Big Bang iniziale. Ma le ipotesi introdotte per spiegarla hanno sempre avuto i loro problemi.
Ora un gruppo di fisici e astronomi dell’università di Canterbury a Christchurch, in Nuova Zelanda, sta sfidando lo status quo, utilizzando un’analisi migliorata delle curve di luce delle supernovae (stelle di grandi dimensioni esplose alla fine della loro vita) per dimostrare che l’universo si sta espandendo in modo più vario e “grumoso” di quel che si pensava, arrivando ad una conclusione alquanto controversa.
Le nuove prove supportano il modello chiamato "timescape" dell’espansione cosmica, che non ha bisogno dell’energia oscura per spiegare quel che si osserva. Va detto che il problema principale da risolvere sta nello spiegare uno «stiramento della lunghezza d’onda della luce» superiore a quanto ipotizzabile da un universo in accelerazione solo dovuto al Big Bang. Ebbene secondo la nuova ipotesi questo anomalo stiramento della luce non è il risultato di un universo con un’accelerazione anomala, ma una conseguenza del modo con cui calibriamo il tempo e la distanza in luoghi diversi dell’universo stesso.
Per capire questo complesso concetto va spiegato il “modello timescape”. Questo modello si basa sul fatto che la gravità rallenta il tempo. Ce lo dice la relatività di Albert Einstein. Un orologio nello spazio vuoto scorre più velocemente che all’interno di una galassia. Ad esempio, un orologio nella Via Lattea sarebbe circa il 35 per cento più lento di uno nel vuoto cosmico. Questa differenza nel flusso del tempo spiegherebbe l’apparente accelerazione dell’espansione: i vuoti cosmici, dove il tempo scorre più velocemente, si espandono maggiormente, dando l’illusione di un’accelerazione complessiva. Se così fosse non ci sarebbe bisogno dell’energia oscura per spiegare l’apparente aumento della velocità di espansione dell’universo.
Un concetto complesso
Ma entriamo ancor più nel merito perché i concetti non sono semplici. Per spiegare la complessità del nostro universo è stata introdotta e accettata dalla maggior parte degli astrofisici, il modello standard Lambda Cold Dark Matter dell’universo che si basa sull’energia oscura per spiegare l’accelerazione dell’espansione, dedotta dalle misurazioni delle distanze delle supernovae. La loro luce infatti, viene stirata, ossia appare più rossa di quel che è a causa dell’espansione dell’universo, ma stando a quel che si conosce questo stiramento è superiore a quel che dovrebbe essere. Da qui l’introduzione del concetto di “energia oscura” per spiegare ciò che fa aumentare tale espansione. Tuttavia, questo modello presenta delle anomalie. Ad esempio la “Tensione di Hubble” presenta una discrepanza tra l’espansione dell’universo primordiale (misurata dalla radiazione cosmica di fondo CMB) e l’espansione attuale.
Per capire cos’è la “Tensione” apriamo una parentesi: si immagini l’universo come un palloncino con tanti puntini sopra disegnati che si sta gonfiando. Quando lo si gonfia, tutti i punti sulla sua superficie si allontanano l’uno dall’altro. Più sono distanti, più velocemente si allontanano. Questa è un’analogia di come funziona l’espansione dell’universo. Edwin Hubble, un astronomo, scoprì che le galassie si allontanano da noi e che la loro velocità di allontanamento è proporzionale alla loro distanza. Questa relazione è descritta dalla Legge di Hubble, e la costante di proporzionalità è chiamata Costante di Hubble.
Questa costante ci dice quanto velocemente l’universo si sta espandendo. La Tensione di Hubble è una discrepanza, un problema. Gli scienziati hanno cercato di misurare la Costante di Hubble usando diversi metodi, e hanno ottenuto risultati diversi. Studiando la radiazione cosmica di fondo (la “luce” più antica dell’universo), ad esempio, si ottiene un certo valore per la Costante di Hubble.
Questo metodo guarda a come era l’universo subito dopo il Big Bang. Misurando invece le distanze e le velocità delle galassie relativamente vicine a noi, si ottiene un valore diverso per la Costante di Hubble. Questo metodo guarda all’universo “recente”. Il problema è che questi due metodi danno risultati che non concordano. È come se il palloncino si stesse gonfiando a una velocità diversa a seconda di come lo si misura. Questa differenza è la Tensione di Hubble.
Tornando ora al modello standard e la presenza dell’energia oscura esistono altre anomalie, quali i dati DESI: nuovi dati ad alta precisione del Dark Energy Spectroscopic Instrument (DESI) installato presso il telescopio Mayall di 4 metri situato al Kitt Peak National Observatory (KPNO), vicino a Tucson, in Arizona, negli Stati Uniti, mostrano che il modello Lambda Cold Dark Matter non si adatta bene a modelli in cui l’energia oscura si evolve nel tempo. E non sarebbe tutto. Il team dell’Università di Canterbury ha utilizzato un catalogo di 1.535 supernovae (Pantheon+) per testare il modello timescape.
I nuovi dati forniscono «prove molto forti» a supporto di questo modello e potrebbero risolvere la tensione di Hubble e altre anomalie. Il satellite Euclid dell’Esa, lanciato a luglio 2023, e il telescopio spaziale Nancy Grace Roman (un progetto ambizioso della Nasa il cui lancio è previsto per il maggio 2027) potrebbero fornire ulteriori dati per confermare il modello timescape. Secondo gli astronomi saranno necessarie almeno 1.000 osservazioni indipendenti di supernovae di alta qualità per capire se il modello timescape potrà soppiantare definitivamente il concetto di “energia oscura”.
Un’arma a doppio taglio
Nella lotta al cambiamento climatico, diverse tecnologie si contendono il ruolo di soluzione chiave, dalle energie rinnovabili all’auto elettrica, fino al nucleare. Tra queste, la geoingegneria solare, sostenuta da chi la vede come un’ancora di salvezza per raffreddare rapidamente il pianeta e guadagnare tempo prezioso per ridurre le emissioni e l’anidride carbonica atmosferica, solleva però preoccupazioni per i suoi potenziali effetti collaterali, tra cui il peggioramento della qualità dell’aria e l’impoverimento dell’ozono, con gravi rischi per la salute.
Un nuovo studio della Georgia Tech School of Public Policy, pubblicato su Proceedings of the National Academy of Sciences, getta nuova luce sulla questione. La ricerca suggerisce che, pur non sottovalutando tali rischi, la geoingegneria solare potrebbe comunque salvare fino a 400mila vite all’anno, mitigando i decessi legati alle ondate di calore e al cambiamento climatico.
«Dobbiamo valutare attentamente il rapporto tra la riduzione dei rischi climatici offerta dalla geoingegneria solare e i nuovi rischi che la sua applicazione comporterebbe», spiega Anthony Harding, autore principale dello studio. «Questa ricerca rappresenta un primo passo per quantificare benefici e pericoli, e mostra che, per i rischi presi in considerazione, il potenziale salvavita supera i rischi diretti». Harding ha collaborato allo studio con Gabriel Vecchi e Wenchang Yang della Princeton University e David Keith dell’Università di Chicago.
Il team si è concentrato sull’iniezione di aerosol stratosferici (SAI), una tecnica di geoingegneria solare che prevede la dispersione di microparticelle riflettenti nella stratosfera per riflettere parte della luce solare nello spazio, raffreddando così la Terra. Utilizzando modelli informatici e dati storici sull’impatto delle temperature sulla mortalità, i ricercatori hanno simulato gli effetti della geoingegneria solare in uno scenario di aumento delle temperature medie globali di 2,5 gradi Celsius rispetto ai livelli preindustriali, in linea con le attuali proiezioni.
I risultati mostrano che un raffreddamento di 1 grado Celsius ottenuto con la geoingegneria solare potrebbe salvare 400mila vite ogni anno, un numero 13 volte superiore ai decessi potenzialmente causati dagli effetti diretti sulla salute derivanti dall’inquinamento atmosferico e dalla riduzione dell’ozono. Lo studio evidenzia inoltre, che i maggiori benefici si concentrerebbero nelle regioni più calde e povere del pianeta, mentre le aree più ricche e fredde potrebbero paradossalmente registrare un aumento dei decessi legati al freddo.
Nonostante l’interesse e i finanziamenti, inclusa una raccomandazione delle National Academies of Science per ulteriori investimenti nella ricerca, la geoingegneria solare suscita forti preoccupazioni, anche da parte di organizzazioni come l’Union of Concerned Scientists, che sottolineano gli elevati rischi ambientali, etici e geopolitici. Gli stessi autori dello studio avvertono che la loro analisi, pur rappresentando un importante punto di partenza, non è esaustiva e si basa su ipotesi semplificate relative alla distribuzione degli aerosol, alla crescita demografica e ad altri fattori, senza considerare appieno la complessità del mondo reale.
Lo studio non affronta nemmeno altri potenziali rischi, come gli impatti sugli ecosistemi, gli equilibri politici globali o la possibilità che i governi utilizzino questa tecnologia per rimandare interventi più complessi sulla riduzione delle emissioni.
© Riproduzione riservata