Inizio | Cap. 1 | Cap. 2 Cap. 3 | Cap. 4 | Cap. 5 | Cap. 6 | Cap. 7 | Cap. 9 | Esercizi

Lo spazio-tempo schiumoso

"Nel principio Eru, l'Uno, creò gli Ainur; e gli Ainur intonarono una Grande Musica al suo cospetto. Da tale Musica, il mondo ebbe inizio..."

J.R.R. Tolkien, "Il Silmarillion"

.

8.1  La grande unificazione delle forze

Nel corso del nostro ipertesto abbiamo visto come lo sviluppo storico della teoria della gravitazione, e della Fisica in genere, corrisponda ad un tentativo di unificare ambiti molto diversi della storia naturale:

1) Galilei, Kepler e Newton hanno unificato la meccanica terrestre con la meccanica celeste (§ 1.4)
2) Maxwell ha unificato i fenomeni elettrici, quelli magnetici e l'ottica (vedi altro ipertesto)
3) Einstein ha unificato la teoria gravitazionale con l'analisi della geometria dello spazio-tempo (§ 6.8)

Come naturale conseguenza di questa logica di sintesi, Einstein si domandò: se la Relatività Generale é applicabile così bene ai campi gravitazionali, tanto da poter spiegare fenomeni senza plausibile interpretazione come la precessione del perielio di Mercurio o le lenti gravitazionali, perché non lo é anche a quelli elettromagnetici o nucleari? In altre parole, é possibile mettere in relazione gli effetti di un'accelerazione su di un sistema con quelli di un campo di natura diversa da quello di gravità? Einstein dedicò gli ultimi quarant'anni di vita alla soluzione di questo problema, ma senza ottenere risultati soddisfacenti.

Si tratta in effetti di un problema noto alla Fisica Moderna come problema della grande unificazione delle forze. Le quattro forze della natura (elettromagnetica, gravitazionale, nucleare debole, nucleare forte) erano in origine considerati tipi differenti di interazione, senza alcuna possibile causa o meccanismo comune, un po' come prima di Darwin le specie viventi erano considerate come atti separati della Creazione Divina, né si pensava che la loro origine potesse essere la medesima. I Fisici della seconda metà del secolo XX cominciarono invece ad intuire che le quattro interazioni potrebbero essere aspetti diversi di un'unica forza originaria, i cui effetti sono diversi a seconda del tipo di oggetto tra cui interagisce: le masse per la forza di gravità, le cariche elettriche per la forza elettromagnetica, le cariche barioniche per la forza nucleare forte, le particelle dotate di "stranezza" per la forza nucleare debole (carica elettrica, carica barionica e stranezza sono proprietà intrinseche delle particelle elementari).

Dopo il lavoro teorico di Steven Weinberg (1933–) ed Abdus Salam (1926–1996) e le conferme sperimentali ad opera di Carlo Rubbia (1934–), questa teoria ha avuto una prima conferma con l'unificazione delle forze elettromagnetica e debole nell'unico campo "elettrodebole", scoperta per la quale Weinberg e Salam vinsero il Nobel nel 1979, e Rubbia nel 1984. Non hanno invece ancora avuto conferma sperimentale cosiddette Teorie di Grande Unificazione (GUT), che dovrebbero permettere di unificare anche la forza nucleare forte alle due precedenti. Come abbiamo già accennato parlando del Big Bang (§ 7.5), si pensa che tutte queste forze appaiano di natura diversa in seguito a successive rotture di simmetria avvenute quando l'universo era ancora in fasce: inizialmente esisteva effettivamente un'unica interazione fondamentale ma, man mano che la temperatura scendeva, esse si separarono progressivamente l'una dall'altra, come le vediamo oggi. Se si riuscisse a ripristinare le condizioni iniziali che hanno dato origine all'universo, probabilmente sparirebbe ogni differenza fra le dette forze.

Il problema principale che si para tra noi e questo obiettivo è puramente energetico: quando le forze erano unificate e l'universo simmetrico, il cosmo era anche caldissimo e densissimo. In pratica, man mano che aumenta l'energia in gioco, le forze tendono a confluire le une nelle altre. Per dimostrare l'esistenza delle particelle W+, W e Z0 che mediano l'interazione elettrodebole, Rubbia ha dovuto servirsi di acceleratori in grado di fornire alle particelle l'energia di ben 100 GigaelettronVolt, al limite della portata dei nostri impianti più potenti. Per unificare ad esse anche la forza nucleare forte, sarebbe necessaria un'energia di addirittura 1015 GigaelettronVolt, che nessun acceleratore potrebbe mai raggiungere: si tratta di un valore di mille miliardi di volte maggiore di quello ottenibile con l'LHC di Ginevra, e per raggiungerlo occorrerebbe un acceleratore di dimensioni paragonabili a quelle della nostra galassia!.

Nella "TEORIA DEL TUTTO" inseguita pervicacemente da Einstein, ad energie elevatissime, che come vedremo sono superiori ai 1019 GeV, anche la forza gravitazionale, che peraltro è la più debole di tutte, dovrebbe confluire nelle altre, trasformandosi in un caso speciale dell'unica superforza originale. Poiché una verifica sperimentale di questa ipotetica teoria è assolutamente al di fuori della nostra portata, l'unica possibilità consiste nel cercare delle prove indirette. Ad esempio, le GUT potrebbero prevedere tra l'altro il decadimento del protone, e sono oltre trent'anni che i fisici sono alla caccia di un protone che decade. Ebbene, se fosse possibile coinvolgere in un'unica teoria la forma dello spazio-tempo, l'elettromagnetismo e le forze nucleari, una delle conseguenze indirette di tale teoria sarebbe l'esistenza delle onde gravitazionali.

.

8.2  Onde nello spazio-tempo

Sappiamo bene che i campi elettromagnetici non si trasmettono istantaneamente, bensì tramite onde; e i campi gravitazionali? Si trasmettono istantaneamente oppure no? Dall'analisi delle Equazioni Gravitazionali di Einstein (7.10) è possibile ricavare che anche i parametri geometrici dello spazio-tempo (il Tensore di Ricci e la sua traccia) obbediscono ad un'equazione differenziale alle derivate parziali nota come Equazione di d'Alembert, cui fanno capo tutti i fenomeni ondulatori. Essa trae il nome da Jean-Baptiste d'Alembert (1717–1783), ed è molto complicata, per cui non la riporto in questa sede; basti dire che, obbedendo a tale equazione, anche i campi gravitazionali devono necessariamente propagarsi per onde.

Ciò significa che, se il Sole sparisse all'istante come per magia, la Terra non proseguirebbe immediatamente lungo la tangente alla propria orbita, ma continuerebbe a ruotare intorno al vuoto ancora per otto minuti, il tempo impiegato dalla luce a coprire la distanza Terra-Sole, dato che, secondo la Relatività Ristretta, un'onda non può in alcun modo superare la velocità della luce. Ma, se ciò vi sembra sorprendente, c'è anche dell'altro. Infatti le onde gravitazionali non si propagano in un mezzo materiale, come i suoni o le onde sismiche, ma nella struttura geometrica stessa dello spazio-tempo, modificandone la metrica (7.7). In altre parole, il passaggio di un'onda gravitazionale modificherebbe la distanza di due punti, sia nello spazio che nel tempo, facendo tremolare ogni cosa investita da essa. Ma non sarebbero gli oggetti in sé a tremolare, come le pareti di una casa squassata da un terremoto, bensì la stessa tessitura del cronotopo, esattamente come la massa deforma la geometria stessa dell'universo, e quindi le sue geodetiche! In pratica, in seguito al passaggio di un'onda gravitazionale, le geodetiche da rette si trasformano in... sinusoidi!

Onde gravitazionali generate da due pulsar in rapida rotazione l'una rispetto all'altra

Onde gravitazionali generate da due pulsar
in rapida rotazione l'una rispetto all'altra

Siccome l'esperienza concettuale del Sole che scompare dal nostro sistema non è ovviamente realizzabile, anche delle onde gravitazionali dobbiamo cercare delle prove indirette. Oggi il modello teorico più accreditato prevede che l'intensità della radiazione gravitazionale emessa da un corpo dipenda dal grado di disomogeneità nella distribuzione della sua massa, cioè dalla sua deviazione dalla simmetria cilindrica; la grandezza fisica che misura questa disomogeneità è chiamata momento di quadrupolo. Quando il momento di quadrupolo di un corpo di grande massa subisce variazioni molto rapide, in seguito ad esempio alla rapidissima rotazione di una massa non uniformemente distribuita, dovrebbe essere emesso un treno di onde gravitazionali di intensità proporzionale alla velocità delle variazioni. Questo è il caso per esempio di una stella doppia, classico sistema isolato a due corpi interagenti che si muovono di moto reciproco.

In particolare, quando un sistema binario giunge alla fine della sua vita, le stelle che lo compongono precipitano rapidamente verso il centro di massa lungo una traiettoria a spirale, fino a che collidono e si disintegrano, emettendo per l'appunto onde gravitazionali. Ma l'emissione in questo caso è probabilmente troppo tenue per essere rivelata. L'impulso di onde gravitazionali dovrebbe essere molto più intenso se a ruotare e a collidere sono due stelle di neutroni, a causa della massa assai maggiore. Anche l'esplosione di una supernova dovrebbe essere annunciata dalla trasformazione di circa lo 0,1 % della massa iniziale in onde gravitazionali, ed idem dicasi per la formazione di buchi neri (§ 5.7). Particolarmente importante in questo senso è PSR B1913 +16, il primo sistema binario costituito da due stelle di neutroni ad essere scoperto nel 1974 ad opera di Alan Russell Hulse (1950-) e Joseph Hooton Taylor (1941-) dell'Università del Massachusetts Amherst; per la loro scoperta, i due ricercatori furono insigniti nel 1993 del Premio Nobel per la Fisica. La variazione del periodo di rivoluzione del sistema binario PSR 1913+16 si rivelò essere identica a quella prevista dalla Relatività Generale, ed è molto probabile che tale sistema irraggi onde gravitazionali in grande quantità.

Ancora più eclatante è la scoperta di due buchi neri in rapida rotazione l'uno attorno all'altro, separati da una distanza inferiore alla dimensione del sistema solare, nel cuore di una galassia lontana da noi 3,5 miliardi di anni luce. Questo fenomeno sarebbe responsabile dello strano comportamento di un particolare quasar, indicato con la sigla PG 1302-102: di solito i quasar passano dall'essere luminosi a oscuri in modo apparentemente casuale, mentre questo emette luce in maniera insolitamente periodica e intensa, aumentando di luminosità del 14 % ogni cinque anni. La scoperta, avvenuta nel 2015, la dobbiamo a un gruppo di ricercatori del California Institute of Technology guidati da Matthew Graham. Per effetto Doppler, la materia che si muove vicino alla velocità della luce sembra cambiare di luminosità in funzione della posizione, e ciò spiegherebbe la periodicità del quasar; il gruppo di studiosi ha usato una simulazione al computer di due buchi neri rotanti per prevedere in che modo varierebbe la luce ultravioletta emessa dal quasar, confrontando poi il risultato con i dati raccolti in vent'anni di osservazioni, e la previsione del modello è risultata corretta. Naturalmente la presenza di un sistema binario di buchi neri non è l'unica spiegazione per lo strano comportamento del quasar PG 1302-102: tra le spiegazioni alternative vi sono la deformazione nel disco di materia attorno al buco nero o un hot spot nel disco di accrescimento.

Ma non bisogna dimenticare il Big Bang: come si è detto, esso ha lasciato una radiazione di fondo fatta di microonde (§ 7.4), ma anche un rumore di fondo di onde gravitazionali. emesse nei primi istanti di vita dell'Universo, cioè i 'tremori' successivi Big Bang. L'esperimento Background Imaging of Cosmic Extragalactic Polarization (BICEP), coordinato da John Kovac, ha tentato di osservare la radiazione cosmica di fondo per scovarvi le prime evidenze dirette delle onde gravitazionali e dell'inflazione. L'esperimento BICEP, installato nella base Amundsen-Scott nei pressi del Polo Sud, ha osservato la radiazione cosmica di fondo per verificare che le piccolissime differenze di densità fra le varie regioni dello spazio dopo il Big Bang sono state effettivamente amplificate dall'inflazione. Ma, oltre a queste perturbazioni, i modelli prevedono che nella fase inflazionaria siano state emesse delle onde gravitazionali primordiali, causate da perturbazioni del campo gravitazionale. Queste onde gravitazionali, propagandosi nello spazio, avrebbero interagito successivamente con la radiazione cosmica di fondo, lasciando una "firma" caratteristica. BICEP è andato a caccia di quella firma, che si è manifestata nella polarizzazione della radiazione di fondo (la polarizzazione è una delle proprietà delle onde elettromagnetiche, consistente nell'immutata direzione di oscillazione del campo elettromagnetico). Il 17 marzo 2014 John Kovac e colleghi hanno annunciato di aver scoperto alcuni particolari modi di polarizzazione, detti modi B, che secondo loro rappresentano proprio la prima evidenza indiretta delle onde gravitazionali primordiali, ma nel giugno successivo gli autori della suddetta scoperta hanno informato la comunità scientifica che l'effetto di polarizzazione della radiazione a microonde da essi captato era invece causato dalla minuta polvere cosmica presente nella nostra galassia, piuttosto che dalle onde gravitazionali, come ha confermato il satellite Planck dell'ESA.

L'interferometro VIRGO, che il 14 agosto 2017 ha captato la sua prima onda gravitazionale

L'interferometro VIRGO, che il 14 agosto 2017 ha captato la sua prima onda gravitazionale

Purtroppo la caccia alle onde gravitazionali è tutt'altro che semplice, a causa della loro estrema debolezza, visto che la gravitazione è l'interazione meno intensa, tra le quattro della natura: i calcoli ci dicono che le onde prodotte dalla formazione di un buco nero o dal collasso di due stelle a neutroni, investendo la Terra, dovrebbero produrre uno scostamento dalla metrica cartesiana (7.6) di appena 10−21 metri per ogni metro di lunghezza, e tale oscillazione corrisponde ad appena un milionesimo del diametro di un protone! Tutto ciò rende davvero problematico rilevare onde gravitazionali con le tecnologie a nostra disposizione, ma gli sforzi negli ultimi anni si stanno moltiplicando. Basti pensare al progetto AURIGA (Antenna Ultracriogenica Risonante per l'Indagine Gravitazionale Astronomica), un rivelatore tutto italiano di onde gravitazionali costruito nel 1991 e basato su un'antenna mantenuta a temperatura prossima allo zero assoluto, e al grande rivelatore interferometrico Virgo (simile ad un interferometro di Michelson), con bracci lunghi 3 km, situato in località Santo Stefano a Macerata, nel comune di Cascina (PI), in funzione dal 2003 e frutto di una collaborazione italo-francese nell'ambito del consorzio EGO (European Gravitational Observatory). Ancora più avanzato è il progetto LIGO (Laser Interferometer Gravitational-Wave Observatory, "osservatorio interferometrico laser di onde gravitazionali"), esperimento avviato nel 2004 presso Washington da ricercatori del California Institute of Technology e del Massachusetts Institute of Technology. LIGO e VIRGO in pratica sono due enormi tubi lunghi rispettivamente 4 e 3 chilometri perpendicolari l'uno all'altro. In ognuno di questi tubi c'è un raggio laser che viene riflesso una cinquantina di volta da particolari specchi, così da allungarne il percorso. Se passa un'onda gravitazionale, essa dilata lo spazio in una direzione e lo accorcia nella direzione ortogonale alla prima per una lunghezza di miliardesimi di miliardesimi di miliardesimi di metro. Allungando lo spazio, la luce laser quindi impiega più tempo per attraversare uno dei due bracci di Virgo o di Ligo, mentre ne impiega di meno nel braccio ortogonale dove lo spazio si è ristretto. Analizzando con precisione estrema i tempi di anticipo e di ritardo (ed eliminando qualsiasi tipo di disturbo), si riesce a captare l'onda gravitazionale.

Inoltre, il 3 dicembre 2015 alle 5.04 ora italiana con un vettore VEGA è stato lanciato con successo dal poligono spaziale di Kourou, nella Guyana francese, il satellite europeo LISA Pathfinder, realizzato da un cordata di aziende e centri di ricerca europei guidati da Airbus Defence and Space, ed ideato per studiare queste sfuggenti « vibrazioni » dell'universo. Esso si è posizionato nel punto lagrangiano L1, a 1,5 milioni di chilometri da noi, dove (come si è visto) la forza di gravità del Sole e della Terra si annullano. Scopo della missione, realizzata con il contributo del 13 % dell'Agenzia Spaziale Italiana, è quello di verificare il funzionamento delle tecnologie che serviranno per lo sviluppo dell' ambiziosa missione eLISA (evolved Laser Interferometer Space Antenna) da 2 miliardi di euro, che prevede l'invio di una costellazione di satelliti collegati tra loro a formare un gigantesco interferometro spaziale, che dovrebbe essere pienamente compiuto entro il 2034.

E proprio dagli abissi dell'universo è arrivata, l'11 febbraio 2016, la tanto attesa notizia: nel corso di una conferenza stampa in contemporanea ai due lati dell'Atlantico, le collaborazioni LIGO e VIRGO hanno annunciato la prima osservazione di onde gravitazionali, avvenuta alle 10.50 e 45 secondi ora italiana del 14 settembre 2015. È stato allora che i due strumenti dell'esperimento LIGO hanno registrato un dato anomalo; sono iniziate subito le conferme per avere la sicurezza. Le onde gravitazionali rivelate sono state prodotte nell'ultima frazione di secondo del processo di fusione di due buchi neri a 410 Megaparsec da noi, di massa equivalente a circa 29 e 36 masse solari, in un unico buco nero rotante più massiccio di circa 62 masse solari: le tre masse solari mancanti al totale della somma equivalgono all'energia emessa durante il processo di fusione dei due buchi neri, sotto forma di onde gravitazionali. I due buchi neri, prima di fondersi, hanno percorso una traiettoria a spirale per poi scontrarsi a una velocità pari circa alla metà della velocità della luce. L'osservazione conferma anche l'esistenza di sistemi binari di buchi neri di massa stellare, in particolare aventi massa maggiore di 25 masse solari. Il processo di fusione dei due buchi neri responsabile delle onde gravitazionali rivelate è un evento accaduto quasi un miliardo e mezzo di anni fa, quando sulla Terra facevano la loro comparsa le prime cellule evolute in grado di utilizzare l'ossigeno. « Questo risultato rappresenta una pietra miliare nella storia della fisica, ma ancor più è l'inizio di un nuovo capitolo per l'astrofisica», ha commentato Fulvio Ricci, professore all'Università La Sapienza di Roma e ricercatore dell'INFN che coordina la collaborazione internazionale Virgo. « Osservare il cosmo attraverso le onde gravitazionali cambia radicalmente le nostre possibilità di studiarlo: finora è come se lo avessimo guardato attraverso radiografie, mentre adesso siamo in grado di fare l'ecografia del nostro universo ». Finora infatti lo studio del cosmo è stato realizzato solo attraverso i segnali emessi da stelle e galassie nello spettro elettromagnetico (luce visibile, raggi X e gamma, infrarossi, ultravioletti, onde radio di varia lunghezza d'onda). L'esistenza delle onde gravitazionali apre un mondo nuovo: la possibilità di studiare l'universo e i suoi misteri in modo completamente differente. Oltre che « vederlo », saremo in grado anche di « sentirlo » nella sua essenza più fondamentale, lo spazio-tempo, e capire come e perché l'universo non solo si espande, ma sta addirittura accelerando la sua velocità di ampliamento. « Questo risultato rappresenta un regalo speciale per il centesimo anniversario della Relatività Generale », ha concluso Fernando Ferroni, presidente dell'INFN. « È il sigillo finale sulla meravigliosa teoria che ci ha lasciato il genio di Einstein, ed è anche una scoperta che premia il gruppo di scienziati che ha perseguito questa ricerca per decenni, e alla quale l'Italia ha dato un grande contributo ».

Il 14 agosto 2017, alle ore 12.30.43 ora italiana, finalmente anche l’interferometro europeo VIRGO di Cascina ha captato un’onda gravitazionale: è stata la prima captata dal nostro osservatorio nazionale! Anche questa nuova onda è scaturita dalla fusione di due buchi neri lontani 1,8 miliardi di anni luce dalla Terra, rispettivamente di 31 e 25 masse solari rispettivamente. L'equivalente di una massa solare è stato così trasformato in un'onda di energia gravitazionale, indicata con la sigla GW170814. Decisivo è stato l'apporto di Alessandra Buonanno, uno dei tre direttori del Max Planck Institute for Gravitational Physics di Potsdam, in Germania, esperta delle tecniche di filtraggio dei dati. Si consolida così una pratica sperimentale in campo astronomico e astrofisico che fino a pochi anni fa sembrava quasi fantascienza: non si tratta solo di un fondamentale punto di arrivo, ma anche e soprattutto dell'inizio di un campo di studi inesplorato: l'astronomia a onde gravitazionali. Le nuove misurazioni hanno infatti dato ulteriore conferma della presenza nell'universo di buchi neri con massa maggiore di 20 masse solari, di cui non si conosceva l'esistenza prima dei successi di LIGO.

Il successivo 17 agosto, alle 14.41 ora italiana, è stata rilevata anche la prima emissione di onde gravitazionali prodotta dalla fusione di due stelle di neutroni da parte degli osservatori gemelli LIGO e VIRGO. Questo evento, indicato con la sigla GW170817, oltre a essere il primo segnale gravitazionale confermato ad essere prodotto dalla fusione di una coppia di stelle di neutroni e non di buchi neri, è stato accompagnato dall'emissione di un lampo di raggi gamma, osservato dai satelliti Fermi della NASA e INTEGRAL dell'ESA nella galassia NGC 4993, in direzione della costellazione dell'Idra, e identificata 11 ore dopo. Qui sopra potete vedere l'osservazione del lampo di raggi gamma da parte del satellite INTEGRAL. È proprio questa controparte elettromagnetica delle onde gravitazionali a indicare che la sorgente, denominata AT2017gfo, è diversa da una fusione di buchi neri. Stando agli attuali modelli astrofisici, le due stelle, di 1,1 e 1,2 masse solari rispettivamente, per un diametro di soli 20 chilometri, iniziarono a ruotare freneticamente l'una intorno all'altra fino a scontrarsi: in quest'ultimo processo, durato circa 100 secondi, si sono prodotte le onde gravitazionali. Ecco perché, quando LIGO e VIRGO "vedono" un'onda gravitazionale, scatta l'allerta negli osservatori astronomici di tutto il mondo: in questo caso sono stati coinvolti 70 telescopi a terra e tutti gli osservatori spaziali a nostra disposizione. Da tempo si ipotizzava che i lampi di raggi gamma avessero origine proprio dalla fusione di stelle di neutroni; tra l'altro, le onde gravitazionali e il lampo di raggi gamma sono arrivati sulla Terra a meno di due secondi di distanza l'uno dall'altro, dopo un viaggio durato 130 milioni di anni! È una misura diretta e incredibilmente precisa del fatto che onde gravitazionali e la luce hanno la stessa velocità: si tratta quindi una conferma di quanto previsto dalla teoria della Relatività.

E il 3 ottobre 2017 è arrivata la ciliegina sulla torta: Kip Thorne (1940-, fondatore di LIGO e consulente scientifico del kolossal di fantascienza "Interstellar"), Ray Weiss (1932-) e Barry Barish (1936-) hanno vinto il Premio Nobel per la Fisica per la prima rivelazione delle onde gravitazionali. La motivazione del premio ha citato anche il nostro interferometro VIRGO di Cascina. Si tratta solo dell'ennesimo trionfo per la genialità di Albert Einstein.

.

8.3  I quanti di gravità

Se vogliamo unificare le quattro forze della natura, e quindi anche la gravità, diventa necessario mettere a punto una teoria quantistica della gravitazione, cioè una descrizione della gravitazione in grado di conciliare la meccanica quantistica e la relatività generale. Lo sviluppo di una valida teoria della gravità quantistica ci offrirebbe peraltro la sola strada possibile per accedere all'origine del big bang e al destino finale dei buchi neri, eventi che come vedremo si possono considerare caratteristici dell'inizio e della fine dell'universo. Purtroppo queste due teorie sembrano di primo acchito del tutto incompatibili. La teoria quantistica dei campi, che a tutt'oggi rappresenta la miglior descrizione possibile del mondo delle particelle elementari e delle interazioni tra di esse, funziona nella metrica cartesiana e nello spazio-tempo piatto di Minkowski (7.6), tipico della relatività ristretta; invece la Relatività Generale descrive la gravitazione come una curvatura dello spazio-tempo e non ammette traiettorie multiple, ciascuna delle quali descritte da una funzione d'onda e quindi da una determinata probabilità. Il conflitto appare a prima vista del tutto insanabile.

Il modo più semplice per combinare le due teorie dovrebbe essere quello di trattare semplicemente la gravità come un altro campo quantistico. L'elettrodinamica quantistica messa a punto da Richard P. Feynman (1918-1988) descrive tutte le interazioni come uno scambio di particelle virtuali. Consideriamo due giocatori di basket: il primo ha la palla e la passa al compagno che va a canestro. Quando il primo lancia la palla, cede ad essa parte della propria quantità di moto e cambia traiettoria; allo stesso modo, quello che riceve la palla modifica a sua volta la propria direzione e va a fare canestro. La medesima cosa succede tra due elettroni. Quando si avvicinano tra loro, il primo cede al secondo un fotone, detto "virtuale" perchè impossibile da rivelare. Avendo perso un quanto di quantità di moto, entrambi gli elettroni modificano la propria traiettoria, cambiando direzione come se si fossero respinti senza toccarsi. Tale fenomeno può essere descritto attraverso un "diagramma di Feynman", certamente una delle più geniali intuizioni di questo scienziato.

Allo stesso modo, allora, l'interazione gravitazionale tra due particelle dotate di massa dovrebbe essere mediata da una particella virtuale chiamata gravitone, di massa nulla e spin pari (2 per la precisione), in modo da dare vita ad una forza di raggio infinito ed unicamente attrattiva:

Ben presto però ci si accorse che, se le cose stessero così, il gravitone dovrebbe operare in maniera simile al fotone. Ma nell'elettrodinamica quantistica i fotoni agiscono direttamente l'uno sull'altro e sulle particelle cariche, mentre la gravità è prodotta da qualsiasi forma di energia per via dell'equazione di Einstein E = m c2 (si ricordi il campo gravitazionale che genera a sua volta ulteriore campo, come detto nel § 7.8); inoltre, tutti i tentativi di fondare una teoria quantistica coerente per la gravitazione si sono scontrati con il problema della rinormalizzazione: i quanti di gravità si attrarrebbero reciprocamente e il loro effetto si sommerebbe a tutte le interazioni, producendo per la forza valori infiniti che non possono essere rimossi con un artificio matematico, mentre ciò è possibile per le interazioni elettromagnetiche grazie appunto grazie ad una calibrazione opportuna delle costanti in gioco, nota come rinormalizzazione. A ciò si aggiunga il fatto che il gravitone trasporta un'energia piccolissima, e quindi rivelarne gli effetti tramite esperimenti diretti sarebbe tanto difficile quanto individuare le lievissime perturbazioni indotte dalle onde gravitazionali.

Questo è solo l'inizio dei gravissimi problemi offerti dal tentativo di mettere insieme una teoria quantistica della gravità. Uno dei più evidenti consiste nel fatto che, come diceva Feynman, « il mondo quantistico non è mai in quiete »: nella teoria quantistica dei campi, il valore del campo elettromagnetico in ogni punto fluttua continuamente. Di conseguenza, in un universo dominato dalla gravità quantistica la curvatura dello spazio-tempo e perfino la sua stessa struttura sarebbero soggette ad analoghe fluttuazioni. In una situazione del genere, lo stesso significato di passato, di futuro e di linea del tempo potrebbero essere rimessi in forse. Vediamo di approfondire questo concetto.

.

8.4  Il cono di luce quantistico

La Relatività Ristretta ci ha insegnato che, essendo la velocità della luce la stessa per tutti gli osservatori, le regioni dello spazio-tempo a noi accessibili si possono descrivere con l'aiuto di un particolare diagramma disegnato in un piano che ha lo spostamento x in ordinate e il tempo t, o meglio la coordinata complessa i c t, in ascisse: tale piano si dice cronotopo, e i suoi punti si chiamano eventi. Per semplicità ci limitiamo con questo a spostamenti lungo l'asse x, ignorando le altre due dimensioni spaziali. Le curve tracciate nel cronotopo sono chiamate linee di universo. Le due rette di equazione x = ± i c t rappresentano le bisettrici dei quadranti; e, siccome a meno del fattore i il prodotto ( c t ) rappresenta lo spazio percorso dalla luce nel tempo t (un metro è pari a circa 3,3 nanosecondi), i punti di queste bisettrici rappresentano quelli che possono raggiungere l'origine, o che possono essere raggiunti dall'origine, solo con un raggio di luce. Le aree tali che x < | i c t | sono invece quelle che possono essere raggiunte o che ci possono raggiungere da parte di un osservatore in moto a velocità inferiore a quella della luce (cioè da parte di un osservatore fatto di materia). Invece le aree tali che x > | i c t | sono assolutamente irraggiungibili, perchè per arrivarci bisognerebbe viaggiare più veloci della luce.

Il cono di luce relativistico

Il cono di luce relativistico

Questa struttura prende il nome di cono di luce perchè, aggiungendo la dimensione spaziale y, la zona colorata in azzurro assumerebbe proprio l'aspetto di un cono; per maggiori dettagli, si veda questa pagina. L'origine costituisce il nostro presente, quando x = 0 e t = 0. Un evento contenuto nell'area colorata in azzurro nel terzo e quarto quadrante può raggiungere l'origine, e quindi essa rappresenta il nostro passato. L'area colorata in azzurro nel primo e secondo quadrante può essere raggiunta da un raggio di luce che parte dall'origine, e quindi rappresenta il futuro. La nostra vita non può che svolgersi dal passato al futuro, passando per il presente. Una retta verticale rappresenta la linea di universo di un oggetto in quiete nel sistema di riferimento adottato. Una retta inclinata è la linea di universo di un oggetto in moto a velocità costante nel sistema di riferimento. Una linea universale curva rappresenta invece un oggetto che sta accelerando. Le due bisettrici sono le linee di universo dei fotoni. In questa situazione, il concetto di simultaneità dipende dal sistema di riferimento: due eventi collegati da una linea orizzontale in un dato sistema di riferimento sono simultanei in tale sistema, ma non in altri, mentre Newton insegnava che due eventi contemporanei per me lo sono anche per qualunque altro osservatore.

Questa rappresentazione geometrica non tiene però conto della Meccanica Quantistica, formulata nel 1925 da Werner Heisenberg (1901-1976) e da Edwin Schrödinger (1887-1961), e poi generalizzata nel 1928 da Paul Dirac (1902-1984) per tenere conto della Relatività Ristretta quando le particelle elementari si avvicinano alla velocità della luce. Alla metà degli anni trenta del XX secolo però era già chiaro che, quando si combina la meccanica quantistica con la relatività, si giunge a delle conseguenze sorprendenti. Se infatti la gravitazione è quantizzata, la forma del cono può fluttuare fortemente su brevi distanze, assumendo un aspetto fortemente ondulatorio. Ma allora alla domanda se due punti dello spazio-tempo possano comunicare l'uno con l'altro si può solo una risposta probabilistica. In altre parole, mentre il cono di luce classico sopra descritto ci permette di affermare con precisione assoluta se due eventi possono comunicare o no l'uno con l'altro, il cono di luce quantistico ci potrà solo dire quale probabilità essi hanno di comunicare. E siamo solo al principio.

.

8.5  Il vuoto ha un'energia?

Nella fisica classica uno spazio-tempo euclideo e assolutamente vuoto è privo di strutture, mentre nella fisica quantistica il concetto di « vuoto» designa un'entità più complessa, e dotata di una struttura complicatissima, dovuta all'esistenza nel vuoto di campi liberi che non si annullano mai, benché lontani dalle loro sorgenti. Infatti un campo elettromagnetico libero è equivalente a un insieme infinito di oscillatori armonici, che nel vuoto si trovano nel loro stato fondamentale, ovvero quello di minima energia. Quando un oscillatore classico si trova nel suo stato fondamentale, è immobile in un punto ben definito, ma ciò non può valere anche per un oscillatore quantistico, altrimenti la sua posizione sarebbe nota con precisione assoluta, e ciò è impossibile per il Principio di Indeterminazione di Heisenberg. Nello stato fondamentale di un oscillatore quantistico non è possibile dunque determinare esattamente né la posizione né la quantità di moto, entrambe soggette a fluttuazioni casuali. 

Ora, nel 1976 il canadese William Unruh (1945-) della British Columbia University dimostrò che un ipotetico rivelatore di particelle sottoposto a un'accelerazione costante reagirebbe alle fluttuazioni del vuoto come se fosse in quiete in un gas di particelle con una temperatura proporzionale all'accelerazione, mentre un rivelatore non accelerato non reagirebbe affatto alle fluttuazioni. Questa scoperta ci ha costretti a ripensare il concetto di "vuoto quantistico". Per capire come, è utile un esperimento concettuale proposto dal solito Einstein, il quale come sappiamo come sperimentatore era una schiappa, però era insuperabile nel proporre esperimenti mentali. Allo scopo, si consideri un ascensore sigillato e perfettamente vuoto, con pareti perfettamente conduttrici e quindi impermeabili alla radiazione elettromagnetica, circondato a sua volta da un vuoto perfetto. L'ascensore a un certo punto inizia ad accelerare verso l'alto. Se l'ascensore fosse pieno d'aria, in esso si formerebbe un'onda acustica di compressione verso l'alto; allo stesso modo, è possibile dimostrare che il pavimento dell'ascensore comincia ad emettere una tenue onda elettromagnetica diretta verso l'alto, cioè in termini quantistici un tenue gas di fotoni che riempie la cabina. Cerchiamo ora di liberarci di questi fotoni mediante un opportuno refrigeratore, alimentato da una fonte di energia esterna. Esso in pratica estrae fotoni pompandoli all'esterno, così come si farebbe il vuoto estraendo molecole d'aria. Una volta eliminati tutti i fotoni, un rivelatore di fotoni misura l'energia del vuoto sia all'interno che all'esterno. Poiché il rivelatore all'esterno sta accelerando nel vuoto, esso è sensibile alle fluttuazioni quantistiche dei campi che permeano lo spazio anche in assenza di particelle. Invece il rivelatore all'interno è in quiete rispetto all'ascensore, e non sente le fluttuazioni. Ne consegue che i vuoti all'interno e all'esterno del montacarichi non sono affatto equivalenti! Se si attribuisce energia nulla al vuoto posto all'esterno del montacarichi, il vuoto all'interno deve avere energia minore di esso, e quindi... negativa!

Questa sì che è una sorpresa: cosa può voler dire che un vuoto ha un'energia minore di un altro vuoto che non ne ha? Che senso fisico ha dire "meno di niente"? Se tuttavia ci riflettiamo su un momento, capiremo che all'interno dell'ascensore devono essere aggiunti fotoni termici, affinché un rivelatore di Unruh all'interno di esso si comporti come nel vuoto standard all'esterno. Quando si aggiungono i fotoni, la loro energia riporta a zero l'energia totale interna, uguale a quella del vuoto esterno. Questo vuoto standard è l'equivalente quantistico dello spazio-tempo euclideo e vuoto della Relatività. Comunque è certo che, per il Principio di Equivalenza di Einstein (§ 6.3), secondo il quale gravità ed accelerazione sono tra loro indistinguibili, anche un campo gravitazionale può generare un vuoto con energia negativa, e questa è un'altra delle stranezze della gravità quantistica.

Come nel caso del classico paradosso dei gemelli, tuttavia, gli strani effetti del vuoto quantistico sarebbero difficili da osservare nella realtà quotidiana. Per le accelerazioni raggiungibili con la nostra tecnologia, ed anche con lo Space Shuttle, l'energia negativa è di unga troppo piccola per essere rilevata. Esiste però un caso nel quale è stata misurata un'energia negativa del vuoto, seppure indirettamente: stiamo parlando del cosiddetto Effetto Casimir, scoperto nel 1948 dal fisico olandese Hendrik Brugt Casimir (1909–2000) e sperimentalmente verificato nel 1996 da Steven Lamoreaux alla Washington Università di Seattle. Mentre lavorava al laboratorio di ricerca Philips nei Paesi Bassi, Casimir dimostrò che, ponendo nel vuoto spinto due sottili lamine metalliche piane, parallele, pulite e scariche, esse si attirano debolmente a vicenda. Il fenomeno è dovuto proprio alla densità di energia negativa nel vuoto che le separa.

In pratica, mentre all'esterno delle lamine le interazioni fra le particelle virtuali che si materializzano nel vuoto possono avvenire senza alcuna limitazione, tra le due lamine, a causa della loro piccola distanza, le stesse interazioni avvengono solo se la lunghezza d'onda dei fotoni virtuali è più piccola della distanza fra le piastre. Ciò genera una condizione di squilibrio fra il numero di eventi virtuali con i loro effetti reali che si verificano all'esterno e quello che nello stesso intervallo di tempo avviene all'interno delle lamine. Se h è la costante di Planck, c è la velocità della luce nel vuoto, S è la superficie affacciata delle lamine e d la loro distanza, la forza di Casimir è espressa dalla formula:

Il segno meno indica che la forza è attrattiva: la densità di energia decresce avvicinando le lastre. Ad esempio, nel caso di lamine poste alla distanza di 1 micron (10–6 m), la forza per unità di superficie che ne risulta è pari a circa 0,0013 N per metro quadrato.

L'effetto Casimir ha portato più di uno a pensare che proprio l'energia del vuoto potrebbe essere all'origine della misteriosa "energia oscura" di cui abbiamo parlato nel § 7.9. E non è tutto: certuni si sono spinti ad affermare che la stessa energia del vuoto potrebbe essere stata addirittura la causa scatenante del Big Bang. Esso infatti è partito, per quanto ne sappiamo, da una singolarità iniziale puntiforme, di dimensioni nulle e di densità, temperatura e curvatura infinite. Non è impossibile che una fluttuazione quantistica del "vuoto" iniziale abbia dato vita a un fenomeno non virtuale ma reale: una bolla di materia ed energia che si è gonfiata improvvisamente, crescendo fino a dare vita all'intero nostro universo. L'idea che il vuoto possa diventare una sorgente di energia e che questa possa essere creata dal nulla appare in netto contrasto con il consolidato Principio di Lavoisier ("Nulla si crea e nulla si distrugge"), ma la relatività e la meccanica quantistica ci hanno già costretti a modificare la maggior parte dei nostri consolidati principi fisici, e dunque questa ipotesi non appare più stravagante di quella del celebre Gatto di Schrödinger, che può essere al 50 % vivo e al 50 % morto, o dei due gemelli che si ritrovano ad invecchiare a ritmi diversi in due diversi sistemi di riferimento.

L'immagine di questo "vuoto" che genera prepotentemente universi dal nulla ci fa ritornare in mente il poema babilonese "Enuma Elish" del quale abbiamo parlato all'inizio della nostra trattazione:

« Quando in alto non aveva nome il Cielo,
quando in basso non aveva nome la Terra,
nulla esisteva eccetto Apsu, l'antico, il loro creatore,
e Mummu e Tiamat, la madre di loro tutti:
le loro acque si mescolavano insieme,
i pascoli non erano ancora stati formati, né i canneti esistevano;
quando nessuno degli déi si era ancora manifestato,
nessuno aveva un nome e i loro destini erano incerti.
Allora, in mezzo a loro presero forma gli Déi... »

Il cono di luce quantistico

Il cono di luce quantistico

.

8.6  La curvatura quantistica

Il vuoto diventa ancora più complicato quando lo spazio-tempo è curvato, come nella Relatività Generale. La curvatura infatti influenza la distribuzione spaziale delle fluttuazioni del campo quantistico e, come l'accelerazione, può indurre un'energia del vuoto non nulla. Dal momento che la curvatura può variare da punto a punto, può variare anche l'energia del vuoto, mantenendosi positiva in alcuni punti e negativa in altri.

Ora, in qualsiasi teoria coerente, l'energia si deve conservare. Supponiamo dunque che un aumento della curvatura provochi un aumento dell'energia del nostro vuoto quantistico. Tale energia deve pur venire da qualche parte, e quindi la stessa esistenza delle fluttuazioni del campo quantistico implica che sia necessaria dell'energia per curvare lo spazio-tempo. Insomma, lo spazio-tempo si oppone in qualche modo alla curvatura, proprio come una molla rigida oppone resistenza ad essere allungata.

Nel 1967 il famoso fisico russo Andrej Dimitrievic Sacharov (1921–1989), prima padre della bomba atomica sovietica e poi strenuo difensore dei diritti umani e Premio Nobel per la Pace, dimostrò che la gravitazione potrebbe essere un fenomeno puramente quantistico, derivante dall'energia del vuoto, e che la costante di Newton G (§ 2.2) o, in modo equivalente, la rigidità 1/G dello spazio-tempo, è derivabile non solo dall'esperienza, ma anche dai principi fondamentali della Meccanica Quantistica. Quest'idea rivoluzionaria incontrò però enormi difficoltà. In primo luogo, essa richiede che la gravità venga sostituita, come campo fondamentale, da un "campo di gauge di grande unificazione" legato alle particelle elementari note (campo di gauge è un campo dotato di particolari simmetrie). Si deve introdurre a questo punto una massa fondamentale per poter ottenere una scala assoluta di unità; e quindi una costante fondamentale viene sostituita da un'altra, senza particolari vantaggi.

In secondo luogo, la dipendenza calcolata dell'energia del vuoto dalla curvatura conduce a una teoria della gravità incredibilmente più complessa di quella di Einstein. Un vero vuoto è definito come uno stato di equilibrio termico allo zero assoluto. Nella gravità quantistica un tale vuoto può esistere soltanto se la curvatura è indipendente dal tempo. Quando la curvatura dipende dal tempo, nel vuoto possono apparire spontaneamente delle particelle dal nulla, con il risultato che non si tratta più di un vuoto. Il meccanismo di produzione di particelle può essere spiegato anche in termini di oscillatori armonici: quando cambia la curvatura dello spazio-tempo, cambiano anche le proprietà fisiche degli oscillatori del campo. Supponiamo che un oscillatore si trovi inizialmente nel suo stato fondamentale, soggetto quindi a oscillazioni di punto zero. Se cambia una delle sue proprietà, come la massa o la costante elastica della molla, le sue oscillazioni di punto zero devono a loro volta adattarsi alla variazione. Dopo l'adattamento c'è una probabilità finita che l'oscillatore non si trovi più nel suo stato fondamentale, ma in uno stato eccitato. Il fenomeno è analogo all'aumento di vibrazione indotto in una corda vibrante di un pianoforte quando aumenta la sua tensione; l'effetto è chiamato eccitazione parametrica. Nel campo quantistico, l'analogo dell'eccitazione parametrica è la produzione di particelle.

Le particelle prodotte da una curvatura variabile nel tempo appaiono casualmente. Non è possibile prevedere esattamente in anticipo dove o quando comparirà una data particella; si può però calcolare la distribuzione statistica dell'energia e della quantità di moto delle particelle. La produzione di particelle è massima dove la curvatura è massima e sta cambiando con la massima velocità. Essa fu dunque grandissima durante il Big Bang e potrebbe aver avuto un effetto predominante sulla dinamica dell'universo nei primi istanti: le particelle create per questa via potrebbero spiegare tutta la materia che vediamo sparsa nell'universo. Tuttavia, tutti i tentativi compiuti finora di calcolare il tasso di produzione di particelle durante il Big Bang non hanno mai condotto una soluzione definitiva, dato che non conosciamo quale stato quantico iniziale attribuire all'irraggiungibile istante del Big Bang. Nel 1965 Roger Penrose (1931) delI'Università di Oxford dimostrò anzi che la teoria classica di Einstein è incompleta, prevedendo il verificarsi di quelle che vengono chiamate singolarità, cioè situazioni con densità, temperature e curvature infinite. Ma una teoria fisica che prevede un valore infinito per una grandezza osservabile non è più in grado di avanzare previsioni da quel punto in poi. Secondo la maggioranza degli scienziati, l'unico modo di sopperire all'incompletezza della teoria di Einstein è proprio la sua integrazione con gli effetti quantistici, perchè le fluttuazioni dei parametri ad esse dovute impedirebbero a densità, temperatura e curvatura di raggiungere i valori infiniti predetti da Einstein.

Un altro evento durante il quale la curvatura dell'universo dovrebbe cambiare rapidamente è il collasso di una stella che dà origine a un buco nero, del quale abbiamo già parlato nel § 5.7. Nel 1974 Stephen Hawking (1942–2018) dimostrò che la variazione di curvatura in vicinanza di un buco nero in fase di collasso crea un flusso stazionario di particelle, chiamato radiazione di Hawking, che sembra far "sgonfiare" il buco nero, anche se su tempi lunghissimi. La radiazione di Hawking "ruba" energia al buco nero, e di conseguenza la sua massa diminuisce. Il tasso di diminuzione è dapprima lentissimo, ma cresce rapidamente all'aumentare della temperatura. Alla fine il tasso di variazione diventa così elevato che le approssimazioni nei calcoli di Hawking non sono più valide, e gli effetti quantistici prevalgono su quelli gravitazionali. Non si sa che cosa accada da questo punto in poi: Hawking riteneva che il buco nero cessi di vivere con un lampo spettacolare, lasciandosi dietro una « singolarità nuda », cioè non protetta da un invalicabile orizzonte degli eventi. Purtroppo qualsiasi singolarità, nuda o meno, costituisce il fallimento di una teoria fisica, e quindi, se Hawking aveva ragione, non è incompleta solo la teoria di Einstein, ma pure la teoria dei quanti!

.

8.7  Le unità di Planck

Qualcuno potrebbe pensare che, se i fenomeni della natura fossero davvero soggetti alla gravità quantistica, sicuramente i suoi insoliti effetti dovrebbero essere già stati rilevati. Così invece non è perché, come tutti gli incredibili effetti della Relatività Ristretta (contrazione delle lunghezze, dilatazione dei tempi, la relatività della simultaneità, eccetera) si manifestano solo a velocità prossima a quella della luce, che per noi è pressoché irraggiungibile, così tutti gli effetti di natura quantistica della gravitazione sono confinati in una scala di lunghezze e di tempi straordinariamente piccola. Ma piccola quanto?

Proponiamoci di cercare un sistema di "unità naturali", basati sulle tre principali grandezze fisiche, e cioè la costante di gravitazione G, bastione della Fisica Classica; la velocità della luce c, simbolo della Relatività Ristretta; ed ovviamente la costante di Planck h, o meglio la costante h tagliata pari ad h/2π, caratteristica della Meccanica Quantistica. Come determinare una "unità naturale di lunghezza"? Fissiamoci sulle dimensioni fisiche di queste costanti. La costante di gravitazione G si misura in Newton per metro quadro su kilogrammo al quadrato, quindi:

[ G ] = [ N m2 / Kg2 ] = [ m3 Kg–1 s–2 ]

c è una velocità, per cui [ c ] = [ m s–1 ]. Quanto poi alla costante di Planck:

[ h ] = [ E / f ] = [ J / Hz ] = [ m2 Kg s–1 ]

Se vogliamo combinare queste tre grandezze in modo da ottenere una lunghezza, dovremo moltiplicarle dopo averle elevate ad opportuni esponenti:

          (8.1)

E quindi, per le equazioni dimensionali sopra scritte:

Da cui:

Se ne deduce che deve essere:

Risolvendo il sistema si ottiene facilmente α = 1/2, β = – 3/2, γ = 1/2. Ne consegue che la nostra equazione dimensionale (8.1) assume la forma:

Chiameremo questa lunghezza fondamentale con il nome di lunghezza di Planck lP. La precedente ci dice che la sua espressione è:

          (8.2)

ed essa vale lP = 1,616252 x 10–35 m. Analogamente si può introdurre una massa di Planck mP ed un tempo di Planck tP, partendo dalle equazioni dimensionali:

Le espressioni che si ottengono con calcoli analoghi a quelli ora svolti sono le seguenti:

          (8.3)

          (8.4)

che valgono rispettivamente mP = 2,17644 x 108 kg e tP = 5,39124 × 1044 s.

Se si esprimono i parametri fondamentali dell'universo in unità di Planck, saltano agli occhi alcune sorprese. Ad esempio, il numero 1061 esprime sia l'età dell'universo, sia la Costante di Hubble, sia la radice quadrata della Costante Cosmologica in unità tP, ma anche il diametro dell'universo in unità lP e la sua massa in unità mP. Inoltre già Arthur Eddington aveva fatto notare che 1040 rappresenta ad un tempo il rapporto tra il raggio dell'universo e quello dell'elettrone, tra la forza elettrostatica e quella gravitazionale agente tra un elettrone e un protone, e la radice quadrata del numero di atomi dell'universo. Il reale significato di queste coincidenze numerologiche però ci sfugge, e forse ci sfuggirà per sempre.

Si potrebbero introdurre anche una temperatura di Planck e una carica elettrica di Planck, ma in tal caso bisogna introdurre nei calcoli altre due costanti fondamentali: la costante di Boltzmann KB e la costante dielettrica del vuoto ε0. Limitiamoci alle tre espresse dalle (8.2), (8.3) ed (8.4), dette unità di Planck: esse danno vita a un sistema assoluto di unità di misura. Come si verifica immediatamente, le unità di Planck sono completamente estranee alla fisica di ogni giorno: l'unità di lunghezza lP è dell'ordine dei 1033 centimetri, e quindi è di 21 ordini di grandezza inferiore al diametro di un nucleo atomico; in altre parole, essa sta alle dimensioni nucleari come le dimensioni dell'uomo stanno a quelle della nostra galassia!

Ma allora, come possono esserci utili unità del genere? È presto spiegato. In meccanica quantistica si definisce lunghezza d'onda Compton di una particella la lunghezza d'onda di un fotone la cui energia è pari a quella della massa a riposo della particella. Usando il formalismo matematico, dovrà essere:

da cui si ricava che la lunghezza d'onda Compton vale:

          (8.5)

Si può assegnare un limite inferiore alla lunghezza d'onda Compton (cioè un limite superiore all'energia di un fotone) se si impone un limite superiore alla massa m della particella. Per quanto detto nel § 5.7, possiamo pensare ad un limite superiore della massa di una particella quando questa raggiunge le dimensioni di un buco nero, all'interno del quale un fotone resta confinato dal campo gravitazionale. Ora, la (5.5) ci dice che, a meno del fattore 2, il raggio di Schwarzschild di un buco nero di massa m è:

Ricaviamo m da quest'ultima dopo aver posto Rλ e sostituiamola nella (8.5). Si trova facilmente:

          (8.6)

La (8.6) coincide con la (8.2) a meno del fattore 2π nella costante di Planck ridotta. Risostituendo tale valore nella (8.5) si ottiene proprio l'espressione (8.3), sempre a meno del fattore 2π. Dunque la lunghezza di Planck è la misura del raggio dell'orizzonte degli eventi di una massa di Planck collassata in un buco nero! In altre parole, ogni fotone avente una lunghezza d'onda pari alla lunghezza di Planck può materializzarsi in una particella abbastanza massiccia da diventare un buco nero (detto "buco nero di Planck"), tale da distorcere lo spazio-tempo fino al punto di inghiottire quel fotone. Non possono quindi esistere lunghezze d'onda più piccole di così, perchè altrimenti la particella ottenuta dalla materializzazione del fotone non potrebbe nemmeno sussistere, essendo confinata per sempre all'interno del buco nero in cui essa è collassata! Grazie alla gravità quantistica abbiamo così trovato un limite inferiore per le lunghezze. Questo si traduce ovviamente in un limite inferiore per i tempi, non appena si osserva che la (8.2) e la (8.4) sono legate tra di loro da questa semplice relazione:

Il tempo di Planck è dunque quello impiegato dalla luce per coprire una lunghezza di Planck; non esistendo nulla che possa andare più veloce della luce, non ha senso pensare a tempi più brevi di tP.

Se non si può ragionare di distanze e tempo inferiori a quelli della scala di Planck, appare evidente che i concetti stessi di spazio e di tempo perdono di significato a quegli ordini di grandezza, e questo è considerato un indizio del fatto che la meccanica quantistica e la relatività generale non valgono più separatamente; a distanze paragonabili alla lunghezza di Planck quindi la gravità manifesta degli effetti quantistici. Ci conferma però l'impossibilità di accedere sperimentalmente a queste distanze non solo la loro estrema piccolezza, ma anche un'altra considerazione, legata alla cosiddetta energia di Planck EP. Essa rappresenta l'energia equivalente alla massa di Planck secondo la famosa equazione di Einstein EP = mP c2. Si ottiene facilmente:

Di qui si ricavano i 1019 GigaelettronVolt di cui abbiamo parlato sopra, indicandoli come l'energia alla quale avviene l'accoppiamento della gravità alle altre tre forze della natura. Come già accennato, però, per verificare sperimentalmente cosa accade a queste energie sarebbe necessario un acceleratore di particelle delle dimensioni della nostra Galassia!

.

8.8  Lo spazio-tempo schiumoso e l'iperspazio

Dopo aver stabilito questo nuovo sistema di unità di misura, possiamo inoltrarci nella parte più difficile della gravità quantistica. Quando un effetto quantistico, come la produzione di particelle o l'energia del vuoto, influenza la curvatura dello spazio-tempo, la curvatura medesima diventa un oggetto quantistico, come il cono di luce visto sopra. Per lunghezze d'onda grandi rispetto alla lunghezza di Planck, le fluttuazioni quantistiche del campo gravitazionale quantizzato sono piccole, e possono essere trattate come una debole perturbazione dei risultati classici. Ma alle lunghezze d'onda e alle energie di Planck, la situazione si fa decisamente più complicata. Le particelle mediatrici del campo gravitazionale, i gravitoni da noi introdotti nel § 8.3, sono così debolmente interagenti con la materia ordinaria, che perfino un'intera galassia è quasi totalmente trasparente per essi. I gravitoni interagiscono apprezzabilmente con la materia solo quando raggiungono le energie di Planck; come si è visto, a tali energie essi si comportano né più e né meno come dei nanobuchi neri, e dunque sono in grado di indurre curvature significative nella geometria dello spazio, e di distorcerla completamente.

Da notare come l'energia trasportata da un gravitone sia in grado di distorcere non solo la geometria dello spazio tempo (cioè il tensore metrico), ma pure le onde associate al gravitone stesso. Questa è una conseguenza della non linearità della teoria di Einstein: quando si sovrappongono due campi gravitazionali, il campo risultante non è uguale alla somma dei due campi componenti. La teoria della gravità quantistica è perciò fortemente non lineare. Di solito si trattano le non linearità con un metodo di approssimazioni successive chiamato teoria delle perturbazioni, basata sul perfezionamento di un'approssimazione iniziale mediante una serie di correzioni progressivamente più piccole. Nel caso della gravità quantistica però la teoria delle perturbazioni non è applicabile perchè, ad una scala di energie paragonabili a quelle di Planck i successivi termini della serie di perturbazioni (cioè le successive correzioni) non sono affatto trascurabili, e troncare la serie a un numero finito di termini non porta a un'approssimazione valida, poiché nel quantizzare il campo gravitazionale si quantizza lo stesso spazio-tempo. Nell'ordinaria teoria quantistica dei campi lo spazio-tempo è un fondale di teatro fisso. Nella gravità quantistica il fondo non solo reagisce alle fluttuazioni quantistiche, ma fluttua esso stesso!

Osserviamo allo scopo lo schema sottostante. Il vuoto quantistico, cui si è accennato nel § 8.5, diventa sempre più caotico ispezionando regioni di spazio sempre più minuscole. Alla scala del nucleo atomico (la prima in alto), che è anche la più piccola cui riusciamo finora ad accedere con i nostri apparati sperimentali, lo spazio appare praticamente piatto. 17 ordini di grandezza più in basso (al centro) compaiono nella geometria delle irregolarità e delle asperità. Alla scala della lunghezza di Planck, 1000 volte più piccola ancora (in basso), la curvatura e la topologia dello spazio sono continuamente sottoposte a violente fluttuazioni, che trasformano la stessa tessitura dello spazio-tempo (si noti: non la materia e l'energia, bensì la stessa geometria) in un ribollire caotico ed imprevedibile, una sorta di "schiuma" che sfugge ad ogni tentativo di rappresentazione analitica.

Da notare che nel giugno 2017 alcuni ricercatori italiani hanno annunciato una scoperta fondamentale: per la prima volta alcuni risultati sperimentali sono in buon accordo con la tessitura dello spazio-tempo non liscia ma schiumosa, finora confinata nel regno della speculazione teorica a causa soprattutto della difficoltà di rilevarne gl i effetti a una scala piccolissima. La svolta è stata data da modelli di schiuma spazio-temporale secondo cui le particelle che si muovo nello spazio arrivano fino alla Terra in un intervallo di tempo che dipende in lieve misura dall'energia delle particelle stesse e delle caratteristiche delle sorgenti. Queste ultime, a loro volta, sarebbero influenzate dall'esistenza di una struttura schiumosa dello spazio-tempo. L'occasione per osservare alcuni di questi effetti è offerta dai dati registrati dal telescopio spaziale Fermi della NASA a cui collaborano le agenzie spaziali di Italia, Francia, Giappone e Svezia, e da IceCube, un osservatorio per neutrini della National Science Foundation statunitense, costruito al Polo Sud. Giovanni Amelino Camelia e Giacomo D'Amico della "Sapienza" di Roma, in collaborazione con Niccolò Loret dell'Università di Zagabria e Giacomo Rosati dell'Università di Cagliari hanno effettuato un'analisi statistica dei dati relativi a fotoni e neutrini registrati con questi strumenti. Anche se il campione statistico è per ora limitato e non permette di trarre conclusioni definitive, i risultati sono in buon accordo con l'ipotesi della schiuma spazio-temporale.

Ma non è ancora finita. Uno spazio-tempo quantizzato possiede una struttura causale fluttuante e incerta anche per quanto riguarda il tempo. Alle dimensioni di Planck, difatti, la stessa distinzione passato e futuro diventa nebulosa. Per analogia con l'effetto tunnel nei sistemi quantistici, il quale consente a un elettrone di scavalcare una barriera energetica che potrebbe mai superare, dobbiamo aspettarci fenomeni non ammessi dalla tradizionale Relatività di Einstein, tra i quali viaggi su distanze di Planck a velocità superiori a quella della luce. Non sappiamo ancora come calcolare le probabilità di tali fenomeni, proprio per via dell'assenza in una teoria gravitazionale quantistica coerente.

John Archibald Wheeler propose una descrizione di questo spazio-tempo distorto davvero intrigante, quella della cosiddetta topologia fluttuante. Se le fluttuazioni nel campo gravitazionale, come quelle di tutti i campi, aumentano di intensità mano a mano che ci si avvicina alle lunghezze d'onda di Planck, estrapolando a questa scala i risultati della Relatività Generale di Einstein (vedi § 7.8) si deduce che le fluttuazioni diventano talmente violente da provocare dei "buchi" nello spazio-tempo, analogamente ai "wormhole" tanto cari alla fantascienza. In altre parole, Wheeler immagina il vuoto quantistico in uno stato di perenne agitazione, con la continua comparsa e scomparsa di cunicoli (ma anche di strutture assai più complesse) di dimensioni paragonabili a quelle planckiane. La creazione di questi "cunicoli" è percepibile solo al livello di Planck; a scale dimensionali maggiori, lo spazio-tempo continua ad apparire più regolare che mai.

Se l'affascinante interpretazione di Wheeler è corretta, in quale misura le fluttuazioni topologiche contribuiscono all'energia del vuoto, e come influenzano la resistenza alla curvatura macroscopica dello spazio-tempo? Ma soprattutto, qual è la possibilità che questi benedetti cunicoli si aprano, collegando due punti diversi dello spazio-tempo "schiumoso"? Apparirebbe logico rispondere: un cunicolo topologico ha maggiori probabilità di congiungere due eventi tra loro "vicini". Ma che cosa significa realmente "vicini", in una metrica completamente distorta rispetto a quella cui siamo abituati? Si pensi al famoso "iperspazio", introdotto nelle saghe di fantascienza di Isaac Asimov (il ciclo dei Robot e della Fondazione), in quella di "Star Wars" e in quella di "Babylon 5" per superare le distanze interstellari in alternativa al motore a curvatura di "Star Trek" e ai wormhole di "Stargate". Esso non è forse tale da rendere vicini in esso due eventi che nello spazio-tempo ordinario appaiono lontanissimi?

La White Star entra nell'Iperspazio in una scena di Babylon 5

La "White Star" entra nell'iperspazio in una scena di Babylon 5

Come si intuisce, la "vicinanza" non è una proprietà intrinseca della struttura spaziotemporale; anzi, in genere richiede l'esistenza di uno spazio con un maggior numero di dimensioni nel quale sia immerso lo spazio-tempo ordinario, cui siamo abituati, e questo spazio a più dimensioni deve essere dotato di proprietà metriche assai diverse da quelle del "nostro" universo. Ma allora... lo spazio-tempo non e più l'universo! L'universo è qualcosa di più. Tutto questo potrebbe seriamente danneggiare la dimensionalità macroscopica dello spazio. Se infatti i cunicoli si possono formare spontaneamente, gli stessi cunicoli possono formare altri cunicoli, e cosi via all'infinito. Lo spazio potrebbe evolvere quindi in una struttura che, sebbene tridimensionale alla scala di Planck, presenti invece quattro o più dimensioni in una scala maggiore. Basti pensare alla comune schiuma, che è costituita interamente da superfici bidimensionali (le bolle), ma dal punto di vista macroscopico ha una struttura tridimensionale.

.

8.9  Le dimensioni "arrotolate"

È però vero anche il viceversa: la dimensionalità apparente dello spazio-tempo potrebbe anche essere inferiore alla sua dimensionalità reale. Questa è stata storicamente proprio la prima soluzione proposta per cercare di inserire elettromagnetismo e gravità in un'unica teoria coerente dei campi. A proporla per primi furono il tedesco Theodor Kaluza (1885–1954) e lo svedese Oskar Klein (1894–1977). Inizialmente Albert Einstein sottovalutò il loro lavoro, ma in seguito l'autore della teoria della Relatività si convinse che la loro era la strada giusta per giungere alla Teoria di Grande Unificazione cui egli aspirava, e li incoraggiò a pubblicarne i risultati. Mentre nella Relatività Ristretta lo spazio è tridimensionale e lo spazio-tempo è tetradimensionale, nella Teoria di Kaluza-Klein lo spazio è tetradimensionale e lo spazio-tempo è pentadimensionale. In pratica esiste una quarta dimensione spaziale, che noi non vediamo perchè è "arrotolata" lungo un cilindro con una circonferenza di diametro pari alla lunghezza di Planck (8.2), anziché essere "srotolata" come le altre tre lungo l'intera dimensione dell'universo, dell'ordine dei miliardi di anni luce. Nella Teoria di Kaluza-Klein, la traiettoria di tutte le particelle ha quindi una componente ciclica: ogni volta che raggiunge la massima estensione della dimensione arrotolata si ritrova al punto di partenza, e siccome questo continuo ruotare avviene lungo una scala spaziale miliardi di volte più piccola di un nucleo atomico, nessun esperimento a nostra disposizione può rivelarlo, e così noi non vediamo la quarta dimensione, ed abbiamo l'impressione che lo spazio sia tridimensionale.

Nonostante ciò, la quarta dimensione spaziale di Kaluza-Klein può manifestarsi in un altro modo, sotto forma di... luce. Kaluza e Klein infatti dimostrarono che se il loro spazio-tempo pentadimensionale viene trattato matematicamente allo stesso modo in cui lo spazio-tempo tetradimensionale viene trattato da Einstein, le componenti del campo elettromagnetico sono implicite nelle equazioni (7.10) in cui è coinvolta la curvatura dello spazio-tempo. Kaluza e Klein realizzarono in tal modo la prima valida teoria unificata dei campi, in grado di geometrizzare non solo la gravità, ma anche la radiazione elettromagnetica.

La Teoria di Kaluza-Klein conobbe un notevole successo negli anni venti, ma il suo problema era proprio la totale impossibilità di sottoporla a verifica sperimentale. Mentre la Gravitazione Universale di Newton si dimostrò in grado di prevedere correttamente l'esistenza e la posizione di Nettuno (§ 2.7), e la Relatività Generale riuscì a spiegare la deflessione della luce delle stelle (§ 6.8), la precessione del perielio di Mercurio (§ 6.9) e le lenti gravitazionali (§ 6.10), la teoria della quinta dimensione non prevedeva alcun nuovo fenomeno, e quindi non poteva essere confrontata con eventuali teorie alternative. La Teoria di Kaluza-Klein prevedeva effetti nuovi solo se venivano rimossi i limiti imposti dai suoi autori al modo in cui lo spazio-tempo può curvarsi nella dimensione aggiuntiva, ma nessuno di tali effetti trovò conferma sperimentale. La teoria venne quindi abbandonata, e riguardata al più come una intelligente curiosità matematica.

Se però ricordate quanto abbiamo detto nel § 7.9, già sapete che gli errori (o presunti tali) di una grande mente valgono più delle verità enunciate da una mente mediocre. Come la famosa costante cosmologica Λ di Einstein fu rispolverata allorché ci si avvide che l'universo sta accelerando e non rallentando, così anche la teoria di Kaluza-Klein venne riscoperta negli anni sessanta, quando si scopri che le nuove teorie di gauge che stavano destando un interesse crescente in vista della Grande Unificazione potevano essere riformulate proprio come teorie di Kaluza-Klein, nelle quali lo spazio è dotato non di una sola, ma di più dimensioni microscopiche aggiuntive, anch'esse "arrotolate" su una scala dimensionale pari a quella di Planck, e quindi invisibili ai nostri occhi, ed anche a quelli dei più potenti acceleratori di particelle. Si scoprì così che i due teorici degli anni venti avevano visto giusto, e che tutta la fisica si può tradurre in termini geometrici

Dato che alla forza elettromagnetica e a quella gravitazionale si erano aggiunte la forza nucleare forte e la forza nucleare debole, una sola dimensione non è più sufficiente per descrivere le moderne teorie di gauge in termini di dimensioni "nascoste". Tra tutte le versioni aggiornate dell'idea originaria di Kaluza e Klein formulate dagli scienziati, quella di maggior successo è la cosiddetta supergravità, ideata nel 1973 dal sovietico Dmitriy Volkov e poi perfezionata nel 1976 da Daniel Freedman, Peter van Nieuwenhuizen e Sergio Ferrara. Questa complicatissima teoria richiede che allo spazio-tempo di Einstein siano attribuite altre sette dimensioni oltre alle quattro ordinarie. Queste sette dimensioni non possono più essere arrotolate dentro un nanocilindro, ma vengono pensate come racchiuse dentro una struttura compatta chiamata eptasfera, una ipersfera a sette dimensioni. Ad ogni evento dello spazio-tempo ordinario di Einstein (x, y, z, t) è associata una eptasfera di dimensioni paragonabili alla scala di Planck, che contiene tutte le dimensioni "impacchettate", dando alla geometria dell'universo il curioso aspetto raffigurato in questo disegno:

Una domanda sorge spontanea: perchè sono necessarie esattamente 11 dimensioni? Questo numero deriva da considerazioni matematiche inaspettate, che a prima vista nulla avrebbero a che fare con la gravità quantistica. Tutti gli studenti sono a conoscenza dell'esistenza dei numeri complessi, numeri del topo a + i b, formati da una parte reale a e da una parte immaginaria ottenuta moltiplicando un numero reale b per l'unità immaginaria i, ottenuta estraendo la radice di – 1 (si tratta di un numero che non appartiene al campo reale). Orbene, nel 1843 il matematico irlandese William Rowan Hamilton (1805-1865) scoprì che non è possibile realizzare dei numeri complessi con una parte reale e due unità immaginarie, del tipo a + i b + c j, ai quali possano essere estese le operazioni di moltiplicazione e divisione: un'"algebra di divisione" è ottenibile solo con quattro, otto, sedici, eccetera termini. I numeri complessi del tipo a + i b + c j + d k, con un'unità reale e tre immaginarie i, j, k sono detti quaternioni di Hamilton, ed oggi sono utilizzati in informatica per realizzare le rotazioni tridimensionali, e quindi sono usatissimi nei sistemi di controllo dei veicoli spaziali, ma anche nella progettazione di videogiochi. Per queste entità matematiche non vale più la proprietà commutativa del prodotto. I numeri complessi con un'unità reale e sette immaginarie sono detti invece ottetti di Cayley, dal nome del matematico inglese Arthur Cayley (1821–1895), e per essi il prodotto non è più nemmeno associativo.

Orbene, i fisici contemporanei hanno scoperto che le teorie supergravitazionali nelle quali non si consideri il tempo si possono formulare in modo coerente se tutte le particelle sono descritte proprio da ottetti di Cayley, e se la matematica che li descrive e l'algebra di divisione di questi esotici oggetti matematici. La supersimmetria emerge con naturalezza da questo tipo di descrizione, la normale moltiplicazione tra ottetti esprime le interazioni tra particelle, e tutte queste ultime, di qualsiasi tipo, usano lo stesso sistema numerico. Naturalmente il tempo non può essere trascurato; introducendolo, tuttavia, si modifica il numero di dimensioni, esattamente come un punto, privo di dimensioni, diventa una linea di dimensione uno, se viene rappresentato mentre si sposta nel tempo. Nella gravità quantistica l'introduzione del tempo aumentandolo di tre, non di uno, il numero di dimensioni. Se perciò uso gli ottetti per descrivere le particelle elementari statiche, quando ne studio l'evoluzione temporale ho bisogno di 11 dimensioni, non una di più, non una di meno. Con 12 o più dimensioni la supergravità fallisce nel tentativo di descrivere la realtà, e le sue equazioni non sono più valide. Se dunque la gravità quantistica è valida, gli ottetti di Cayley non sono più un inutile esercizio di stile matematico, ma forniscono la ragione profonda per cui il numero minimo di di dimensioni nascoste necessarie per includere tutte le quattro forze della natura in una sola descrizione matematica di tipo geometrico è proprio sette. Come dimostrano i casi dei numeri complessi o del calcolo differenziale assoluto di Gregorio Ricci Curbastro, non sarebbe certo la prima volta che un'invenzione puramente matematica fornisce gli esatti strumenti di cui hanno bisogno i fisici!

Naturalmente nelle dimensioni aggiuntive si prevedono fluttuazioni di curvatura, che si manifestano come particelle di grande massa. Si consideri infatti l'atomo quantistico: le configurazioni ondulatorie stazionarie corrispondono ad elettroni in moto lungo orbite percorse senza perdere energia. Allo stesso modo, le onde stazionarie sul "cilindro" della quinta dimensione di Kaluza e Klein corrispondono a particelle osservabili. Secondo la (8.5), la massa di ogni particella dipende dalla sua lunghezza d'onda, cioè dal rapporto tra la circonferenza del cilindro e il numero di oscillazioni che l'onda compie attorno ad essa: minore è la lunghezza d'onda, maggiore è l'energia dell'onda stessa, e più alta è la massa della particella ad essa associata. Le particelle di massa minore sono quelle associate a lunghezze d'onda grandissime. Tutte le configurazioni ondulatorie stazionarie consentite sul cerchio generano una serie di particelle le cui masse sono multipli interi della prima. E siccome la Teoria di Kaluza-Klein intendeva unificare gravitazione ed elettromagnetismo, tali particelle hanno anche una carica elettrica, inversamente proporzionale alla circonferenza. D'altra parte la carica di tutte le particelle da noi osservate è un multiplo intero di quella dell'elettrone, cosicché, se si ipotizza che questa sia la carica della prima particella pesante, se ne può calcolare anche la massa. La stessa cosa vale, mutatis mutandis, per le ipersfere della supergravità. I calcoli forniscono risultati curiosi: nella supergravità ogni particella fermionica (cioè a spin semintero, che segue la cosiddetta Statistica di Fermi-Dirac) ha un partner bosonico (a spin intero, che segue la Statistica di Bose-Einstein), e viceversa. Tale particella viene detta anche superpartner, e la relazione tra ogni particella e il suo superpartner è detta supersimmetria (in inglese SUSY, da SUperSimmetrY). Lo spin del superpartner è sempre pari a quello della particella di partenza, diminuito di 1/2. Ne consegue che il gravitone, con spin 2, dovrebbe avere un superpartner chiamato gravitino, con spin 3/2. Il fotone, un bosone con spin 1, dovrebbe avere un superpartner fermionico con spin 1/2 chiamato fotino; l'elettrone, che è un fermione con spin 1/2, dovrebbe avere un superpartner con spin 0 chiamato selettrone, ed ogni quark con spin 1/2 dovrebbe essere accompagnato da un superbosone chiamato squark con spin nullo (il superpartner di un bosone ha per convenzione una denominazione che termina con -ino, mentre il superpartner di un fermione ne ha una che comincia con s-). Finora nessuna particella supersimmetrica è mai stata osservata in nessun esperimento, ma la loro scoperta potrebbe essere ardua, dato che le superparticelle possono avere masse fino a un migliaio di volte più grandi delle loro corrispondenti ordinarie. Il Large Hadron Collider del CERN di Ginevra potrebbe però essere in grado di generarne alcune; anche in questo caso, chi vivrà vedrà.

.

8.10  La musica dell'universo e il Big Splat

Negli anni ottanta ebbe successo una nuova teoria che prometteva di giungere alla Grande Unificazione: la Teoria delle Superstringhe. Si è detto sopra che, nelle teorie modellate su quella di Kaluza-Klein, le particelle possono essere associate alla quinta dimensione spaziale "arrotolata". Infatti, secondo la Meccanica Quantistica, ogni particella può essere considerata anche come un'onda; per questo motivo, se qualche onda stazionaria è contenuta esattamente nella circonferenza del minuscolo "cerchio" avvolto lungo il nanocilindro o lungo le ipersfere, la corrispondente particella dovrebbe poter esistere nel comune spazio-tempo tetradimensionale. Ma allora, perchè non eliminare sfere e cilindri, e limitarsi a considerare la circonferenza vibrante, o anche solo una parte di essa? Nascono così nuove supposte entità fisiche, le superstringhe appunto: delle minuscole cordicelle monodimensionali che esistono in uno spazio multidimensionale. Ad ogni possibile modo vibrazionale di questi oggetti, corrispondono altrettante particelle. Questa teoria è estremamente affascinante, poiché ricorda da vicino un famosissimo brano del "Silmarillion", la grande saga mitologica ideata dal sudafricano John Ronald Reuel Tolkien (1892–1973), nel quale si racconta che il mondo fu creato proprio da una canzone, l'Ainulindalë ("La Musica degli Ainur"), intonata dagli Ainur ("i Primi", cioè gli déi) sotto la direzione di Ilúvatar, l'Essere Supremo:

« Nel principio Eru, l'Uno, che nella lingua elfica è detto Ilúvatar, creò gli Ainur dalla propria mente; e gli Ainur intonarono una Grande Musica al suo cospetto. In tale Musica, il mondo ebbe inizio, poiché Ilúvatar rese visibile il canto degli Ainur, e costoro lo videro quale una luce nell'oscurità. E molti di loro si innamorarono della sua bellezza e della sua vicenda che videro cominciare e svolgersi come in una visione. Per tale ragione Ilúvatar conferì Essere alla loro visione, e la collocò in mezzo al Vuoto, e il Fuoco Segreto fu inviato ad ardere nel cuore del Mondo; e questo fu chiamato Eä. »

La differenza principale tra la teoria delle superstringhe e quella della supergravità consiste nel modo in cui si deve contare il numero di particelle da esse previsto. Se le sette dimensioni in più della supergravità non fossero arrotolate entro un'ipersfera dell'ordine di grandezza della scala di Planck, la supergravità ad undici dimensioni prevederebbe un numero di particelle finito, mentre la compattazione in quello spazio ristretto dà vita ad un numero infinito di particelle: già la vecchia teoria pentadimensionale di Kaluza-Klein prevede una serie infinita di particelle perchè sono infinite le possibili configurazioni ondulatorie stazionarie lungo la quinta dimensione circolare. Invece, nella teoria delle supercorde si prevede un numero infinito di particelle anche senza compattazione delle dimensioni ulteriori, giacché esse corrispondono al numero infinito di configurazioni ondulatorie che possono avvenire sulle corde, esattamente come gli accordi degli Ainur secondo Tolkien diede vita all'infinità delle meraviglie dell'universo!

La maggior parte delle particelle prevista dalla teoria delle superstringhe ha una massa estremamente grande, più di 1019 volte la massa del protone; essa però prevede anche circa 1000 particelle prive di massa. Inizialmente si pensava che le mutue interazioni tra queste particelle fossero equivalenti a quelle descritte da una versione della supergravità a 10 dimensioni, per la quale non esistono soluzioni alle equazioni nella quale sei dimensioni si arrotolano e lasciano uno spazio-tempo tetradimensionale con proprietà analoghe a quelle cui noi siamo abituati. In seguito, però, Michael Green (1946–) del Queen Mary College di Londra dimostrò che le interazioni delle particelle prive di massa previste dalla teoria delle superstringhe differiscono leggermente dalle loro interazioni nella versione della supergravità a 10 dimensioni: se si tiene conto degli effetti delle particelle pesanti, si ottengono equazioni coerenti a livello quantistico. Questo successo ha stimolato gli scienziati a percorrere la via delle superstringhe (la "Musica degli Ainur" della Fisica Moderna) per arrivare a una formulazione coerente della Grande Unificazione e della gravità quantistica, ma ben presto ci si accorse che la nuova via scelta offriva problemi di ancor più difficile soluzione che non nella supergravità ad undici dimensioni, dal momento che le proprietà delle superfici a sei dimensioni richieste nella teoria delle superstringhe sono matematicamente assai più complesse di quelle delle ipersfere a sette dimensioni. Ciononostante, le superstringhe hanno il vantaggio di spiegare a livello teorico l'esistenza dei gravitoni, il perché della presenza di certe particelle e non di altre, e perchè le particelle hanno proprio i valori osservati di spin, carica e massa. Per questo, molti scienziati continuano risoluti per questa strada, tanto che è stato detto che nessuno può fare carriera nel campo della Fisica delle Particelle, se per un po' di tempo non ha lavorato sulle Superstringhe!

Tuttavia, il principale problema incontrato da questo approccio consiste nel fatto che nel corso degli ultimi anni sono state elaborate non una, ma ben cinque teorie coerenti delle superstringhe, che differiscono per il tipo di simmetrie implicate e per il tipo di vibrazioni permesse per le stringhe, il che vuol dire per il tipo di particelle previste. Quattro di esse prevedono la supersimmetria sopra vista, una invece prevede solo bosoni ma predice l'esistenza dei tachioni, particelle di massa a riposo immaginaria in grado di muoversi più veloci della luce, dei quali finora non si è giunti ad alcun riscontro sperimentale (i famosi neutrini più veloci della luce osservati dall'esperimento OPERA nei laboratori del Gran Sasso il 23 settembre 2011, che secondo alcuni sarebbero stati dei tachioni, si sono rivelati poi frutto di un errore di misurazione). La teoria supersimmetrica necessita non di undici, ma di ben ventisei dimensioni totali dello spazio-tempo! Come spesso avviene, però, quando una teoria diventa troppo complessa per risultare convincente (di solito la natura si basa su principi assai semplici), una nuova teoria arriva ad incasellare tutti i diversi risultati in un quadro più coerente. Nel nostro caso il matematico statunitense Edward Witten (1951–) nel 1995 dimostrò che le cinque suddette teorie delle superstringhe possono essere interpretate come cinque diverse formulazioni di una teoria ancora più basilare, la M-teoria. Questa va sotto il nome di Seconda Rivoluzione delle Superstringhe.

La M-teoria si basa su una generalizzazione del concetto di superstringa, la p-brana, dove p sta ad indicare il numero di dimensioni coinvolte. Di conseguenza la zero-brana è una particella puntiforme, la uno-brana coincide con una superstringa, la due-brana è una sorta di "membrana"; e così via: ogni p-brana ha una linea di universo in (p +1) dimensioni che si propaga attraverso lo spazio-tempo. Sviluppando i lavori di Witten, Joseph Polchinski (1954–) fece notare che, in certe situazioni, particolari tipi di superstringa non sarebbero in grado di muoversi in tutte le dimensioni a loro disposizione, e sarebbero incapaci di staccarsi da certe regioni dello spazio-tempo, sebbene assolutamente libere di muoversi in esse: Polchinski dimostrò che tali regioni erano proprio delle p-brane. Ma non tutte le superstringhe sono confinate all'interno delle brane: l'esistenza di stringhe chiuse riesce a spiegare anche l'estrema debolezza della gravità rispetto all'elettromagnetismo. Infatti la particella elementare responsabile della forza gravitazionale, il gravitone, corrispondendo ad una stringa chiusa, non è in alcun modo legato ad una brana, ed è per questo motivo che riesce a sfuggirle, facendo così sembrare meno intensa la forza di cui è responsabile! In seguito l'americano Andrew Strominger (1955–) e l'iraniano Cumrun Vafa 1960–) hanno dimostrato che la teoria delle p-brane può essere usata anche per conteggiare i microstati quantici associati alle diverse configurazioni dei buchi neri, e il risultato si è mostrato in buon accordo con le previsioni di Stephen Hawking. Il corrispettivo della teoria delle p-brane nelle approssimazioni a bassa energia sarebbe la già descritta teoria della supergravità.

Uhura, Kirk, McCoy e Scott nell'universo parallelo chiamato "universo dello specchio"         

Uhura, Kirk, McCoy e Scott nell'universo parallelo chiamato "universo dello specchio"

In particolare, da tale teoria è possibile dedurre il cosiddetto principio olografico, proposto dall'olandese Gerardus 't Hooft (1946–) e dall'americano Leonard Susskind (1940–), secondo il quale è possibile descrivere ciò che avviene in un volume di spazio semplicemente usando una superficie. Il nome viene dall'analogia con i famosi ologrammi: per produrre un'immagine olografica si investe un oggetto tridimensionale con luce laser, la luce riflessa subisce interferenza con un raggio laser non perturbato, e la figura di interferenza viene registrata su una lastra fotografica. Colpendo quest'ultima con un raggio laser è possibile riprodurre la figura tridimensionale, pur partendo da uno schermo bidimensionale. Ebbene, 't Hooft e Susskind hanno dimostrato che la teoria delle p-brane presenta molte soluzioni di tipo olografico. Un esempio è costituito dalla cosiddetta corrispondenza AdS/CFT (acronimo di Anti de Sitter/Teoria di Campo Conforme): la teoria delle superstringhe in 10 dimensioni è equivalente a una teoria di campi di gauge in uno spazio di Minkowski a quattro dimensioni, il che vuol dire, in un linguaggio meno ermetico, che l'informazione contenuta nella teoria delle superstringhe in dieci dimensioni si può tradurre in una teoria di campo quadridimensionale e viceversa. L'importanza di tutto ciò è enormemente maggiore dei paroloni dietro cui questa teoria si nasconde, poiché permette di interpretare il nostro universo quadridimensionale come immerso in un universo molto più ampio, a dieci dimensioni. Per descriverlo abbiamo due possibilità: o lo descriviamo come risultato delle oscillazioni delle superstringhe in dieci dimensioni, con tutta la complessità matematica del caso, oppure lo trattiamo come una teoria di campo a quattro dimensioni, a noi certamente più familiare. Ad esempio, la fisica delle particelle che cadono in un buco nero può essere registrata su uno schermo bidimensionale senza perdere informazione. I suoi sostenitori sperano che il principio olografico, applicato a problemi cosmologici tuttora aperti, ci possa svelare qualcosa di più sull'origine e sul destino del nostro universo.

Il principio olografico descrive un universo in cui l'energia oscura ha una densità negativa, deformando lo spazio-tempo in una cosiddetta geometria anti-de Sitter. In seguito Mikhail Vasiliev (1962) e Efim Fradkin (19241999), fisici russi dell'Istituto Lebedev di Mosca, hanno ampliato il principio olografico applicandolo anche all'universo reale, nel quale l'energia oscura ha una densità positiva, con una geometria di de Sitter. Per riuscirci, hanno postulato un numero infinito di campi, descritte dalla proprietà dello spin, che può essere pensato come un grado di libertà rotazionale. La particella che fa da vettore al campo elettromagnetico, il fotone, ha spin 1. Se lo si ruota di 360°, appare identico a se stesso. Il gravitone, vettore del campo gravitazionale, ha spin 2: è necessario ruotarlo di soli 180° per farlo tornare uguale a se stesse. Le particelle di materia conosciute, come per esempio l'elettrone, hanno spin 1/2: è necessario ruotarle di 720° prima di farle tornare al loro aspetto originario, una caratteristica assai poco intuitiva che riesce a spiegare perché queste particelle resistano al raggruppamento, dando alla materia la sua integrità. Il famoso Bosone di Higgs ha spin 0 e sembra sempre lo stesso, comunque lo si ruoti. Ebbene, nella teoria di Vasiliev-Fradkin ci sono anche particelle con spin 5/2, 3, 7/2, 4, e così via. I fisici davano per scontato che ciò fosse impossibile, poiché questi campi di spin elevato, essendo più simmetrici, implicherebbero nuove leggi di natura analoghe alla conservazione di energia, e nessuna coppia di oggetti potrebbe mai interagire senza infrangere una di tali leggi. A prima vista, la teoria delle stringhe, principale candidato a diventare la teoria quantistica della gravitazione, si trova a dover fare i conti con questo principio. Come una corda di chitarra pizzicata, una stringa quantistica elementare ha un'infinità di armoniche superiori, che corrispondono a campi di spin più elevato. Ma queste armoniche hanno un costo energetico, che le rende inutilizzabili.

Ora, Vasiliev e Fradkin hanno dimostrato che questo ragionamento è valido solo quando la gravità è insignificante e lo spazio-tempo non è curvo. In uno spazio-tempo incurvato, i campi di spin elevato possono esistere. Supponiamo di avere un ipotetico spazio-tempo tridimensionale (due dimensioni spaziali, una temporale) saturo di particelle che interagiscono unicamente attraverso una versione potenziata della forza nucleare forte, in assenza della forza di gravità. In un simile contesto, gli oggetti di una certa grandezza possono interagire solo con oggetti di grandezza paragonabile, esattamente come gli oggetti che possono interagire solo se sono spazialmente adiacenti. La grandezza svolge esattamente lo stesso ruolo della posizione spaziale; si può pensare alla grandezza come a una nuova dimensione dello spazio, che si materializza dalle interazioni delle particelle come una figura di un libro pop-up. L'originario spazio-tempo tridimensionale diventa il limite di uno spazio-tempo quadridimensionale, con la nuova dimensione che rappresenta la sua distanza da quel limite. Ma non emerge solo una dimensione spaziale, emerge anche la forza di gravità. Gli scienziati dicono che la forza nucleare forte nello spazio-tempo tridimensionale è il "duale" della gravità nello spazio-tempo quadridimensionale. Ora, la teoria di Vasiliev-Fradkin fa funzionare tutto questo anche in una geometria di de Sitter: il corrispondente limite tridimensionale è governato da un tipo di teoria del campo in cui il tempo non esiste, insomma in cui il campo è statico. La struttura di questa teoria dà luogo alla dimensione del tempo, che sorge in modo intrinsecamente asimmetrico, e questo spiegherebbe la "freccia del tempo", cioè la sua unidirezionalità.

Secondo la teoria di Vasiliev-Fradkin, poi, i campi di spin elevato sono in possesso di un grado di simmetria ancora più elevato del campo gravitazionale, e maggiore simmetria significa meno struttura: anzi, troppo poca struttura per soddisfare anche le funzioni più elementari, come per esempio le relazioni di causa-effetto coerenti. Si dice che la teoria di Vasiliev-Fradkin è ancora meno lineare della Relatività Generale. Materia e geometria dello spazio-tempo sono così profondamente intrecciate che diventa impossibile considerarle separatamente, e la nostra familiare immagine della materia come residente nello spazio-tempo diventa completamente insostenibile. Nell'universo primordiale, dove regnava la teoria di Vasiliev-Fradkin, l'universo era un ammasso amorfo. Quando le simmetrie di spin più elevate si sono rotte (per esempio, quando le armoniche più alte delle stringhe quantistiche sono diventate troppo costose da mettere in moto), è emerso lo spazio-tempo nella sua interezza.

La M-teoria presuppone però un altro e ancor più incredibile sviluppo. Secondo i suoi autori, infatti, l'universo osservabile sarebbe formato solo da quattro delle undici dimensioni esistenti che si sono espanse al momento del Big Bang a differenza delle altre, rimaste arrotolate al modo di Kaluza-Klein; ma, soprattutto, il nostro universo sarebbe una 3-brana tridimensionale immersa in un iperspazio ad 11 dimensioni, realizzando una sorta di "profezia" dei telefilm di Babylon 5. La materia presente nell'Universo non può "uscire" da esso per entrare nell'iperspazio, poiché le superstringhe aperte tendono ad avere entrambe le estremità collegate ad una p-brana. Ma allora esisteranno altri universi paralleli, allocati in 3-brane adiacenti alla nostra: un'altra famosa predizione della fantascienza che si avvererebbe (basti pensare all'Universo dello Specchio nella saga di Star Trek, nel quale ogni personaggio del nostro cosmo ha una controparte cattiva) Negli universi paralleli o, se si preferisce, nelle 3-brane parallele potrebbero anche essere all'opera leggi fisiche diverse dalle nostre, come ipotizzato da Isaac Asimov nel suo romanzo "Neanche gli Déi" (1972); addirittura, potrebbe essere diverso il loro numero di dimensioni. La loro presenza sarebbe evidenziata attraverso la reciproca attrazione gravitazionale. Ma l'americano Paul Steinhardt (1952–) e il sudafricano Neil Turok (1958–) si sono spinti ancora più in là, ipotizzando che il Big Bang sia stato originato da una collisione tra due brane che ha sviluppato sufficiente energia per dare vita al nostro universo: tale formidabile "scontro tra universi" è stato battezzato Big Splat. In teoria il Big Splat potrebbe essere dimostrato o meno da futuri e sensibilissimi sensori di onde gravitazionali, dal momento che, secondo il modello inflazionario (§ 7.6), le oscillazioni dell'inflatone avrebbero portato a distorsioni dello spazio-tempo e quindi ad onde gravitazionali percepibili, mentre nel modello delle p-brane il il Big Splat non originerebbe onde gravitazionali. L'estrema elusività delle onde di gravità rende però per il momento molto remota la speranza di una simile verifica sperimentale.

La collisione tra due 3-brane potrebbe aver innescato il Big Bang

La collisione tra due 3-brane potrebbe aver innescato il Big Bang

.

8.11  Lo spazio-tempo granulare e il Big Bounce

Prima di chiudere questo lungo capitolo dedicato ai tentativi di quantizzare la gravitazione, non possiamo fare a meno di discutere un'ulteriore teoria che ha conosciuto notevole successo negli ultimi anni, la cosiddetta Gravità Quantistica a Loop (LQG). Essa è stata ideata nel 1986 dal fisico indiano Abhay Ashtekar (1949–) della Pennsylvania State University, e poi rielaborata nel 1990 dall'italiano Carlo Rovelli (1956–) e dallo statunitense Lee Smolin (1955–). Questi ultimi si sono detti: per conciliare la teoria che spiega la gravitazione su larga scala, cioè la Relatività Generale, con la Meccanica Quantistica che disciplina il comportamento delle particelle suibatomiche, forse non c'è bisogno di quantizzare la gravità: basta quantizzare l'ambiente in cui essa opera. Infatti le equazioni su cui si basa la LQG conservano gli aspetti fondamentali della Relatività Generale, come ad esempio l'invarianza per trasformazioni di coordinate, ma portano le caratteristiche della meccanica quantistica alle loro estreme conseguenze, arrivando a quantizzare persino lo spazio e il tempo. Non quindi la materia, l'energia o i campi: la stessa tessitura dello spazio-tempo alla scala di Planck. Lo spazio-tempo insomma, da continuo si trasforma in una sorta di rèticolo di dimensioni infinitesimali, come un muro composto da mattoni; in questo caso i mattoni sono il quanto spaziale, delle dimensioni della lunghezza di Planck (8.2), e il quanto temporale, dell'ordine del tempo di Planck (8.4). Spazio e tempo appaiono perciò come una sorta di "puzzle" fatto di tasselli piccolissimi, ed un cerchio non potrebbe assolutamente avere un contorno regolare, ma seguirebbe il profilo dei tasselli che lo compongono, apparendo un cerchio perfetto solo da lontano. Gli stessi tasselli infatti costituiscono ciò che noi chiamiamo "spazio" e "tempo".

Ne consegue che, a livello della scala di Planck, il movimento avviene necessariamente a scatti, potendo ogni cosa avanzare nello spazio e nel tempo solo di un "quanto" per volta. I nostri sensi ci ingannano, facendoci percepire un flusso continuo perchè la lunghezza e il tempo di Planck sono al di là della capacità di risoluzione dei nostri sensi e del nostro cervello. In realtà però lo scorrere del tempo assomiglia piuttosto ad un film: i suoi fotogrammi si susseguono al ritmo di 24 al secondo, ma noi non ce ne accorgiamo e abbiamo l'illusione di un movimento continuo. « Il tempo non scorre come l'acqua di un fiume, ma come il ticchettio di un orologio », ha dichiarato Lee Smolin, il già citato coautore della teoria, « con rintocchi dell'ordine del tempo di Planck ».

Il punto di forza della Gravità Quantistica a Loop consiste nella semplicità con cui descrive fenomeni in cui la gravità è particolarmente intensa, e la struttura discreta diventa dominante. Le equazioni differenziali della Relatività Generale si trasformano infatti in Equazioni alle Differenze Finite, analoghe a quelle utilizzate nella Scienza delle Costruzioni per descrivere gli sforzi dentro muri e strutture edilizie, e risolubili per mezzo di supercomputer. I risultati emersi da queste equazioni sono sorprendenti: la gravità è da sempre considerata una forza attrattiva, ma le equazioni alle differenze finite suggeriscono invece che nelle condizioni di altissima densità ed energia che caratterizzano una singolarità, la gravità si trasformi in una forza repulsiva. L'esempio classico è quello di una spugna porosa (lo spazio-tempo) imbevuta di acqua (massa ed energia): essa può raccogliere fino ad una certa quantità di acqua ma, arrivata al limite, oltre a non raccoglierne più la respinge. Allora la singolarità del Big Bang aveva sì una densità elevatissima, tale da confinare nello spazio di un protone la massa di migliaia di galassie, ma essa era pur sempre una densità finita, mai infinita. Arrivati al limite di porosità energetica dello spazio, la gravità è divenuta repulsiva innescando il Big Bang e accelerando l'espansione dell'universo.

La conseguenza è incredibile. Il nostro universo potrebbe non essere partito da zero, ma derivare da un universo precedente collassato dalla gravità attrattiva che, arrivata alla soglia massima di energia dello spazio-tempo, si è trasformata in gravità repulsiva, espandendo lo spazio fino alle dimensioni attuali. Addirittura, se tutto ciò fosse vero, sarebbe possibile immaginare innumerevoli contrazioni e repulsioni, dovute all'alternarsi tra gravità attrattiva e gravità repulsiva, dando vita a un cosmo che continua a gonfiarsi, a ricontrarsi e a gonfiarsi di nuovo, come una palla che rimbalza sul pavimento! Per questo Smolin e collaboratori piuttosto che di Big Bang preferiscono parlare di Big Bounce ("grande rimbalzo")!

Copertina di "Le Scienze" del dicembre 2008 dedicata all'ipotesi del Big Bounce

Copertina di "Le Scienze" del dicembre 2008,
numero dedicato all'ipotesi del Big Bounce

La teoria ha un indubbio fascino, ed è basata su un formalismo matematico rigoroso, ma... come dimostrarla, se nessun microscopio ci può permettere di giungere a "vedere" gli atomi di spazio-tempo, né presumibilmente sarà mai possibile costruirne uno adeguato? Per via indiretta, ovviamente. Se lo spazio vuoto ha davvero una struttura granulare, esso si dovrebbe comportare, per certi aspetti, come un mezzo materiale, ad esempio per quel che riguarda la luce. Tutti sanno che la luce bianca entrata in un prisma si scompone nei diversi colori perchè l'indice di rifrazione dipende dalla frequenza: un fenomeno che è dovuto proprio alla struttura atomica del prisma. Secondo la Gravità Quantistica a Loop, qualcosa del genere dovrebbe accadere anche nel vuoto, ma non riguarderebbe la luce, bensì un'onda elettromagnetica con una frequenza assai maggiore e una lunghezza d'onda assai più piccola: i raggi gamma. Ora, il cosmo è spesso squassato da improvvise e violentissime esplosioni note come GRB (Gamma Ray Burst, esplosioni di raggi gamma), si pensa causate dalla collisione di due stelle a neutroni o di due buchi neri: se la teoria dello spazio-tempo quantizzato fosse vera, i raggi gamma con determinate frequenze raggiungerebbero i nostri strumenti un po' prima di altri; in altre parole, la loro velocità potrebbe dipendere dalla loro energia.

I primi risultati sperimentali non sono molto incoraggianti. Il 10 maggio 2009 i sensori del Fermi Gamma-ray Space Telescope hanno analizzato i fotoni del GRB 090510, rivelando che, dopo una corsa durata 7,3 miliardi di anni, due fotoni gamma sono arrivati a tiro del sensore distanziati di appena nove decimi di secondo, nonostante uno dei due possedesse un milione di volte più energia dell'altro. Per quanto nella fisica delle particelle anche una discrepanza minima possa nascondere differenze molto significative, una differenza di nove decimi di secondo accumulata in un viaggio durato oltre sette miliardi di anni è talmente piccola da essere verosimilmente dovuta a specifici fenomeni avvenuti durante il processo di generazione del GRB, piuttosto cha alla granularità dello spazio-tempo. « Con uno scarto di una parte su 100 milioni di miliardi, i due fotoni hanno viaggiato alla stessa velocità: questa misurazione scarta le teorie sulla gravità che prevedono un cambiamento della velocità della luce in dipendenza dall'energia », ha dichiarato in modo perentorio Peter Michelson della Stanford University, che ha eseguito la suddetta misurazione. I sostenitori della Gravità Quantistica a Loop però non si arrendono, e sperano che future misurazioni forniscano piuttosto risultati in accordo con le loro previsioni.

La Gravità Quantistica a Loop inoltre presenta un'altra difficoltà. Se infatti consideriamo la Relatività Ristretta, ci dobbiamo aspettare un fenomeno peculiare noto come contrazione delle lunghezze. Secondo uno dei principi della Relatività di Einstein, la cosiddetta Invarianza di Lorentz, in opportune condizioni di moto un osservatore misurerebbe lunghezze anche più corte della lunghezza di Planck, che tuttavia è un limite assoluto. Di conseguenza, uno spazio-tempo granulare alle scale di Planck sarebbe inconciliabile con l'invarianza di Lorentz. A meno di non rinunciare a un altro cardine della fisica: il Principio di Località. Questa via è stata battuta nel 2016 da alcuni ricercatori italiani: Stefano Liberati della SISSA di Trieste, Francesco Marin e Francesco Marino del LENS di Firenze e Antonello Ortolan dell'INFN di Padova. Infatti, secondo il Principio di Località, due eventi nello spazio-tempo possono essere legati da un rapporto di causa-effetto solo se sono connessi da una catena causale di eventi che si propaga con una velocità minore o uguale alla velocità della luce nel vuoto, un limite assoluto per qualunque corpo e qualunque segnale. Ciò significa che la fisica in un certo punto dello spazio-tempo può essere influenzata anche da punti molto distanti, non solo da quelli nelle vicinanze. Non si viola la causalità e non si presuppongono informazioni che viaggiano più veloce della luce, ma si introduce la necessità di conoscere la struttura globale per sapere che cosa accade nel locale. L'obiettivo ora è individuare il limite che segna il confine tra lo spazio-tempo continuo e quello granulare, e di conseguenza tra la fisica locale e quella non-locale. Al LENS si sta costruendo un oscillatore armonico quantistico, un chip di silicio di pochi microgrammi che, portato a temperature vicine allo zero assoluto, viene illuminato da un laser ed entra in oscillazione armonica: il modello teorico di Liberati e colleghi prevede infatti la possibilità di testare gli effetti non locali su oggetti quantistici con massa non trascurabile. Osservando l'effetto, gli scienziati italiani confermerebbero la presenza degli effetti non-locali, salvando la Relatività Ristretta e aprendo le porte a una nuova fisica. Solo il tempo ci dirà se essi se sono sulla strada giusta.

Tra i partigiani del Big Bounce vi sono Roger Penrose (1931–) dell'Università di Oxford e Vahe Gurzadyan (1955–) dell'Università Statale di Yerevan, in Armenia. Essi hanno studiato per anni la radiazione cosmica di fondo di cui avviamo parlato nel § 7.4; come spiegano in un articolo sul sito arXiv, i due studiosi sostengono di aver scoperto la presenza di una serie di "cerchi concentrici" all'interno della radiazione di fondo, entro i quali la variazione di temperatura è molto inferiore al previsto; secondo i loro calcoli, alcuni dei cerchi più ampi potrebbero essersi formati prima del Big Bang, in seguito allo scontro di buchi neri supermassicci proprio al termine della contrazione dell'universo precedente al nostro. Alcuni però ritengono che questi "cerchi concentrici", simili a quelli provocati da un sasso gettato nell'acqua, siano solo un'illusione dovuta agli strumenti utilizzati (i satelliti WMAP e BOOMERanG98), o che potrebbero comunque essere spiegati anche da altri modelli di universo.

Val la pena di citare anche il lavoro di Ivan Agullo e colleghi della Pennsylvania State University, i quali lavorano da molto tempo sulle condizioni dell'universo prima che si innescasse l'inflazione cosmica (la cosiddetta fase preinflazionaria): condizioni che, come abbiamo visto nei dettagli, necessitano giocoforza di una descrizione quantistica della gravità per poter essere individuate correttamente. Orbene, le fluttuazioni quantistiche all'origine delle attuali disomogeneità dell'universo si sono verificate entro un volume di Planck, ovvero in un cubo con lato pari alla lunghezza di Planck, e lo stato del vuoto in tale volume previsto dalla LQG differisce leggermente da quello della teoria classica dell'inflazione. Proprio questo aspetto dunque potrebbe rappresentare una "firma caratteristica" della Gravità Quantistica a Loop, che in un prossimo futuro potrebbe essere verificata sperimentalmente mediante le osservazioni cosmologiche, grazie a strumenti sempre più efficaci che gli scienziati stanno mettendo a punto.

.

8.12  L'universo frattale

Mi sembra corretto accennare ad altri tentativi di quantizzare la gravitazione. Uno dei programmi più importanti fu la cosiddetta Gravità Quantistica Euclidea, proposta dal famoso fisico Stephen Hawking. Il termine "euclideo" sta ad indicare che spazio e tempo sono trattati allo stesso identico modo. In pratica, l'universo non ha più tre dimensioni spaziali ed una temporale, ne ha quattro spaziali. È diventata celeberrima l'affermazione di Hawking: « Il tempo è una grandezza immaginaria », sia in senso matematico (l'unità immaginaria è la radice di – 1, una grandezza che non trova posto sulla retta reale) che nel senso posseduto da tale parola nel linguaggio corrente. Per gli abitanti di un simile universo, i concetti di "prima" e "dopo" non hanno senso, esattamente come accadeva in "Star Trek, Deep Space Nine" agli alieni che abitavano il tunnel spaziale bajoriano! Essi conoscevano il passato così come il futuro, perché le due realtà risultavano per loro coincidenti, ed è per questo che i Bajoriani li chiamavano "Profeti".

Il metodo di Hawking si basava su un principio fondamentale della meccanica quantistica, il Principio di Sovrapposizione. Ogni oggetto, classico o quantistico, si trova in uno stato, ma mentre lo stato di un oggetto classico è caratterizzato da un unico e ben definito insieme di numeri, lo stato di un oggetto quantistico è assai più difficile da formalizzare, essendo dovuto alla sovrapposizione di tutti i possibili stati in cui il sistema si può trovare. Il moto di una palla da bowling o di un pianeta attorno al Sole è descritto da un'unica precisa traiettoria, mentre di un elettrone possiamo dire solo quale probabilità ha di seguire un certo itinerario piuttosto che un altro. Ne consegue che, quando un elettrone si muove da un punto all'altro, non si muove semplicemente lungo il segmento che congiunge i due punti, ma lungo tutti i possibili percorsi simultaneamente. La traiettoria "effettiva" dell'elettrone risulterà da una media ponderata di tutte le possibilità. Seguendo questo metodo, si può calcolare la probabilità di trovare l'elettrone in un qualsiasi intervallo di posizioni e di velocità. La Gravità Quantistica Euclidea applica il principio di sovrapposizione all'intero Universo: i diversi stati possibili su cui si esegue la media ponderata in questo caso sono tutti i diversi modi in cui l'universo potrebbe evolvere nel tempo e su larga scala, e quindi tutte le possibili geometrie dello spazio-tempo.

Maurits C. Escher (1898-1972), "La Galleria", litografia, 1956

Maurits C. Escher (1898-1972), "La Galleria", litografia, 1956

Dato che già lo studio delle varietà di Riemann appare difficilissimo, possiamo immaginare quanto lo sia sovrapporre tutte le varietà di Riemann possibili, ciascuna descritta da un complicatissimo Tensore di Ricci, Il metodo di Hawking è però diventato agevolmente applicabile dopo l'introduzione di potenti computer in grado di effettuare in un tempo relativamente breve una mole colossale di calcoli. A questo scopo, le geometrie riemanniane curve vengono sostituite con strutture approssimare composte da triangoli uniti l'un l'altro lungo i lati; tali triangoli vengono detti simplessi. Queste strutture composte da triangoli, simili per certi versi alle strutture realizzate con il gioco del geomag, possono essere trattate in modo agevole dai supercomputer; ovviamente le complesse strutture quadridimensionali dello spazio-tempo saranno realizzate con tetraedri tridimensionali, ma il principio non cambia.

Naturalmente i simplessi, triangolari o tetraedrici che siano, in realtà non esistono, trattandosi di una mera modellizzazione geometrica; attraverso di essi è però possibile studiarne il comportamento collettivo, tenendo conto che, se il loro numero tendesse all'infinito e le loro dimensioni a zero, staremmo descrivendo con precisione assoluta la varietà di Riemann in questione. L'indipendenza del comportamento globale da ciò che accade a piccola scala è detto « universalità », un concetto basilare nella Fisica Statistica.

Purtroppo, però, la Gravità Quantistica Euclidea non ha fornito risultati soddisfacenti: ben presto ci si è accorti infatti che gli universi costruiti con le simulazioni informatiche risultavano intrinsecamente instabili. Le fluttuazioni quantistiche su piccola scala della curvatura, caratteristica dei vari universi su cui si esegue la media ponderata, non si eliminavano affatto a vicenda per produrre l'universo classico, che è uniforme su larga scala; anzi, si sommavano rafforzandosi reciprocamente, facendo sì che l'universo si "accartocciasse" in una minuscola palla con un numero infinito di dimensioni, oppure desse vita a strane forme esotiche, certamente molto lontane dall'immagine che noi abbiamo del nostro cosmo.

Come uscire da questa impasse? Nel 1998 Jan Ambjørn del Niels Bohr Institute di Copenhagen, Jerzy Jurckiewicz dell'Università Jagellonica di Cracovia e Renate Loll dell'Università di Utrecht tentarono un approccio differente, da loro definito Triangolazione Dinamica Causale, partendo da uno dei punti deboli della teoria di Hawking e soci. La Gravità Quantistica Euclidea è difatti priva della nozione di causalità, perché non ha una nozione di tempo distinta dallo spazio, e quindi è impossibile disporre gli eventi in ordine cronologico. Hawking e collaboratori speravano che la causalità emergesse su larga scala a partire da fluttuazioni quantistiche microscopiche le quali, individualmente, non danno vita ad alcuna relazione causale. Le simulazioni al computer hanno però deluso questa speranza.

E così, invece di ignorare la causalità, Ambjørn, Jurckiewicz e Loll hanno deciso di incorporarla in uno stadio molto precedente. Ad ogni simplesso hanno assegnato una freccia del tempo dal passato al futuro, quindi hanno stabilito che due simplessi possano essere uniti tra loro solamente se le rispettive frecce del tempo puntano nella stessa direzione. In pratica, essi devono condividere una nozione di tempo che non si fermi mai e non torni mai indietro. Lo spazio mantiene la sua forma complessiva man mano che il tempo avanza, e non può frammentarsi in parti discontinue né creare i famosi tunnel spaziali come quello di Bajor. Stavolta le simulazioni al computer hanno dato loro ragione: su larga scala, l'universo così ottenuto ha proprio quattro dimensioni! La stabilità di questo universo richiede l'introduzione di una costante cosmologica, e ciò è in accordo con le osservazioni che confermano l'esistenza dell'energia oscura. Lo spazio-tempo da loro generato segue inoltre la Geometria di de Sitter, che è la soluzione delle equazioni di Einstein in un universo dotato di costante cosmologica.

Una delle novità più dirompenti di questo approccio consiste nel fatto che il numero di dimensioni dipende dalla scala a cui si osserva lo spazio-tempo! In altre parole, le simulazioni di breve durata dell'universo sembrano avere un numero di dimensioni diverso dalle simulazioni più lunghe. La cosa appare davvero stupefacente e contraria al senso comune, eppure non è del tutto esotica. Fino alla Lunghezza di Planck (8.2), per l'universo vale la classica Geometria di de Sitter a quattro dimensioni. Alla scala di Planck, invece, le fluttuazioni quantistiche diventano così forti, da compromettere la stessa nozione intuitiva di Geometria; il numero di dimensioni, dal valore classico di quattro, precipita a circa due. Tuttavia, lo spazio-tempo così ottenuto è ancora continuo ed è privo di tunnel spaziali che lo farebbero assomigliare ad una schiuma turbolenta. La sua geometria obbedisce a regole diverse da quelle classiche, ma il concetto di distanza si applica comunque. Una possibilità è che l'universo abbia una struttura frattale: un frattale è una struttura autosimile, che cioè ha lo stesso aspetto a tutte le scale a cui la si guarda. L'aggettivo auto simile, applicato al nostro universo, ci dice che esso avrà lo stesso aspetto a tutte le scale sotto una certa soglia: in questo caso, lo spazio-tempo non sarebbe fatto né di stringhe né tanto meno di atomi di spazio e tempo, ma sarebbe una regione di ripetitività infinita: la struttura osservata appena al di sotto della soglia semplicemente ripeterebbe se stessa ad ogni scala più piccola, fino all'infinito.

Ma non basta. Una nuova, suggestiva teoria promette di risolvere l'essenziale incompatibilità tra meccanica quantistica e relatività generale attribuendo al tessuto dello spazio-tempo le proprietà di un fluido con una viscosità bassissima, cioè di un superfluido. Come abbiamo visto, già la Gravità Quantistica a Loop pensa allo spazio-tempo come una complessa sostanza costituita nel suo intimo da elementi più piccoli, da "atomi" di spazio-tempo se così si può dire. In questo caso, le proprietà dello spazio-tempo dovrebbero "emergere" dalla fisica di base dei suoi costituenti, proprio come le proprietà dell'acqua derivano dalla fisica che governa le particelle che la compongono. « L'acqua è fatta di singole molecole che interagiscono tra loro secondo le leggi della meccanica quantistica; ma l'acqua liquida appare un continuo, fluido, trasparente e rifrangente », ha spiegato Ted Jacobson dell'Università del Maryland a College Park. « Queste sono tutte proprietà che non possono essere trovate nelle singole molecole, anche se, in ultima analisi, derivano da esse ». Per sapere se davvero lo spazio-tempo ha le caratteristiche tipiche di un fluido come l'acqua, occorre naturalmente confrontare le osservazioni astrofisiche con le previsioni basate su tale modello; ma non è facile ottenere risultati significativi, perché uno spazio-tempo di tipo fluido non sarebbe immediatamente distinguibile dalla spazio-tempo di un'altra teoria quantistica della gravità.

A questo proposito Stefano Liberati, della Scuola Internazionale Superiore di Studi Avanzati (SISSA) di Trieste, insieme al collega Luca Maccione della Ludwig-Maximilians-Universität di Monaco di Baviera, ha studiato in che modo questa struttura ideale possa influenzare la luce che viaggia attraverso l'universo, e si sono concentrati su situazioni estreme, che coinvolgono fotoni molto energetici. Essi potrebbero viaggiare attraverso lo spazio-tempo come le onde in un oceano, e si potrebbero applicare le leggi della meccanica dei fluidi e della fisica della materia condensata. In precedenza altri fisici hanno considerato in che modo come particelle di diverse energie verrebbero disperse nello spazio-tempo, proprio come le onde di diverse lunghezze d'onda si disperdono, o si propagano a velocità diverse, nell'acqua. In quest'ultimo studio invece Liberati e Maccione hanno preso in considerazione un altro fenomeno tipico dei fluidi: la dissipazione. Come le onde che si propagano in un mezzo, anche le particelle perdono energia nel tempo, e questo effetto frenante potrebbe riguardare anche i fotoni che viaggiano attraverso lo spazio-tempo. Anche se l'effetto è piccolo, fotoni molto energetici che viaggiano su enormi distanze dovrebbero perdere una notevole quantità di energia. I due studiosi in particolare hanno preso in considerazione la Nebulosa del Granchio, il residuo di una supernova esplosa nel 1054 d.C. che dista circa 6.500 anni luce dalla Terra e che emette raggi X ad alta energia e raggi gamma. Con il passare tempo, questa luce raggiunge i nostri telescopi: la sua energia dovrebbe essersi dissipata in qualche misura se lo spazio-tempo ha effettivamente le proprietà di un liquido. Le osservazioni invece non mostrano alcun segno di tale fenomeno. « Nel nostro studio mostriamo che lo spettro di radiazione sarebbe notevolmente influenzato da questa perdita di energia perché viaggia per molto tempo, anche se si tratta di un effetto molto limitato », ha sottolineato Stefano Liberati. La mancanza di effetti di dissipazione ha permesso di porre forti vincoli sugli effetti liquidi che potrebbero essere presenti nello spazio-tempo, mostrando che essi devono essere estremamente piccoli o del tutto assenti, restringendo le possibilità di uno spazio-tempo fluido a liquidi con viscosità molto basse, che quasi non bagnano le superfici: i superfluidi, per l'appunto. Se è vero che i fotoni di energie differenti viaggiano a velocità diverse e dissipano energia col passare del tempo, allora la Relatività non può valere in tutte le situazioni. Uno dei fondamentali principi della Teoria della Relatività Ristretta afferma che la velocità della luce è una constante universale, indipendente dal moto del sistema di riferimento in cui si trova l'osservatore. « L'idea che lo spazio-tempo come noi lo conosciamo emerga da qualcosa che viola la relatività è piuttosto radicale », ha ammesso Jacobson. Quest'ultimo e molti altri suoi colleghi tuttavia continuano a battere questa strada, poiché essa consentirebbe in linea di principio di risolvere alcuni dei problemi di incompatibilità tra la relatività generale e la meccanica quantistica. In ogni caso, se lo spazio-tempo è davvero un superfluido, i fisici teorici sono attesi da una difficilissima navigazione su di esso.

Altre teorie più o meno stravaganti per quantizzare la gravitazione sono quella del dilatone o graviscalare, nata applicando il formalismo di Feynman alla Teoria di Kaluza-Klein, la Teoria dei Torsori proposta nel 1967 da Roger Penrose e successivamente integrata in una variante della Teoria delle Superstringhe, e la Gravità Indotta del famoso fisico russo Andrei Sakharov (1921–1989), basata sull'analogia tra alcuni aspetti della Relatività Generale e il comportamento di certi cristalli. Tutte queste innumerevoli proposte per giungere ad una quantizzazione della gravitazione soffrono però di un grave difetto: gli effetti da esse previsti sono in genere troppo piccoli per poter essere sottoposti a verifica sperimentale. I Fisici tuttavia sperano che i nuovi telescopi orbitanti e i nuovi progetti per la ricerca delle onde gravitazionali ci offrano un giorno le risposte che cerchiamo, e ci aiutino a conquistare quel Santo Graal della Fisica Moderna che è l'unificazione definitive di tutte le forze, e quindi anche della sfuggente interazione gravitazionale.

.

Bene, oramai non ci manca che un ultimo sforzo. Se siete riusciti a giungere fin qui assieme a me, fatevi coraggio e passate al capitolo seguente, nel quale penetreremo ancora più a fondo nei misteri dell'universo! Per tornare all'indice, invece, il link è questo.

Vai al capitolo 7Torna suVai al capitolo 9