Nel 1919, il fisico polacco Theodor Kaluza ebbe unâidea intelligente per ottenere una teoria unificata dellâelettromagnetismo e della gravitĂ . IniziĂČ con la relativitĂ generale di Einstein, in cui lo spaziotempo Ăš curvato dalla presenza di massa: quella curvatura fa sĂ che gli oggetti che si muovono liberamente percorrano traiettorie non rettilinee. Sulla scorta di Newton, ci aspettiamo che gli oggetti viaggino in linea retta. Quando invece seguono un percorso curvo, ne deduciamo che sono soggetti a una forza e nel caso di un sasso lanciato in aria chiamiamo gravitĂ quella forza. CiĂČ che mostrĂČ Einstein Ăš che non câĂš alcuna forza, Ăš la curvatura dello spazio a far muovere il sasso lungo una parabola.
Kaluza aggiunse una quinta dimensione, di modo che ciascun punto dello spaziotempo di Einstein (tre dimensioni dello spazio e una del tempo) diventava un piccolo cerchio. Immaginate che quel cerchietto sia il quadrante di un orologio con una sola lancetta; Kaluza dimostrĂČ che la posizione della lancetta poteva essere collegata al valore del campo elettromagnetico in quel punto. Al posto di una teoria della gravitĂ con tre dimensioni spaziali e una temporale insieme a una teoria distinta dellâelettromagnetismo, Kaluza aveva elaborato unâunica teoria a 4 + 1 dimensioni in cui tra i due fenomeni esisteva unâintima connessione. In piĂș, era una teoria fondamentalmente geometrica, basata sulla teoria geometrica della gravitĂ di Einstein.
A volte si dice che la storia della fisica Ăš una storia di unificazione sempre piĂș ampia, in cui si scopre che fenomeni in precedenza considerati privi di connessioni sono parti di un unico sistema. La teoria della gravitazione di Newton unificĂČ il fatto ben noto e relativo alla Terra che le mele cadono dagli alberi con il movimento senza fine della Luna che orbita intorno alla Terra. Nella termodinamica, il calore e il lavoro meccanico divennero manifestazioni diverse di una proprietĂ basilare chiamata energia. Maxwell inserĂ lâelettricitĂ e il magnetismo in unâunica rappresentazione matematica e in piĂș scoprĂ che la luce consiste di onde elettromagnetiche.
Lâidea che questi progressi fossero elementi di un intenzionale programma di unificazione Ăš evidente solo a posteriori, tuttavia. Allâepoca, gli scienziati erano impegnati a individuare connessioni piĂș profonde tra aspetti della fisica il cui collegamento era abbastanza ovvio. Quando i motori a vapore lasciarono il segno sulla societĂ , divenne difficile non giungere alla conclusione che in qualche modo il calore produce lavoro meccanico; la termodinamica Ăš la spiegazione scientifica di quella relazione. In maniera simile, gli sperimentatori sapevano da secoli che gli effetti elettrici e magnetici possono influenzarsi reciprocamente; la teoria di Maxwell Ăš lâincarnazione matematica di quei collegamenti. Mettere insieme queste cose era il compito ovvio dello scienziato, un obiettivo naturale a cui mirare.
Le dichiarazioni che lâunificazione Ăš di per sĂ© il compito basilare della fisica fondamentale iniziarono a comparire solo nel Novecento. A segnare lâinizio di queste aspirazioni forse fu il tentativo di teoria di Kaluza, anche se non ebbe successo. Innanzitutto, era una teoria classica, che non offriva alcuna concessione alla meccanica quantistica. Nel 1926, il matematico svedese Oskar Klein cercĂČ di rimediare a questa mancanza immaginando che i piccoli cerchi rappresentassero quanti di carica elettrica â un giro completo della dimensione nascosta corrispondeva alla carica di un elettrone. Câera perĂČ un grande problema: poichĂ© la teoria di Kaluza-Klein, come fu chiamata in seguito, collegava lâelettromagnetismo alla gravitĂ , anche il quanto di carica aveva una massa, che risultava enorme, piĂș o meno come la cosiddetta massa di Planck, pari a circa 0,02 milligrammi, che deriva da una combinazione di unitĂ fisiche fondamentali. Si tratta di una massa maggiore di quella dellâelettrone di un fattore 2 seguito da 25 zeri.
Anche se la teoria di Kaluza-Klein scomparve rapidamente dalla circolazione, una sua ereditĂ Ăš ancora con noi: la possibilitĂ che le dimensioni spaziali e temporali siano piĂș di quelle che si presentano ai nostri occhi. Lâidea rimase latente per molti decenni, tuttavia, mentre la proliferazione di nuove particelle iniziata negli anni Trenta conduceva i teorici in una direzione diversa. I fisici individuarono due nuove forze fondamentali, lâinterazione nucleare forte e lâinterazione nucleare debole. La prima Ăš ciĂČ che tiene insieme i nuclei atomici e la seconda ha a che fare con la radioattivitĂ e i neutrini. Qualunque particella puĂČ essere caratterizzata in parte dalla reazione, o mancanza di reazione, a queste due forze e allâelettromagnetismo (il neutrino Ăš sensibile soltanto alla forza debole ed Ăš per questo motivo che Ăš tanto elusivo). A quel punto, unificare significava mettere le forze elettromagnetiche, forti e deboli in un unico pacchetto ordinato. La gravitĂ , senza conseguenze misurabili per le interazioni tra particelle elementari, per il momento fu lasciata da parte.
Un elemento chiave in questo nuovo tentativo di unificazione fu lâintroduzione di simmetrie rotte. La simmetria aiutĂČ a comprendere la proliferazione di particelle mostrando che potevano essere organizzate in gruppi o famiglie con proprietĂ collegate. La proposta della rottura della simmetria era che, a energie molto elevate, le tre forze elementari coincidono e le differenze emergono soltanto quando lâenergia tipica delle particelle diminuisce. La ragione fondamentale per cui si introdusse la rottura di simmetria Ăš che permise agli scienziati di mettere in collegamento tra loro forze elementari che non presentano connessioni ovvie. Il collegamento si interrompe nel nostro mondo di basse energie, ma si ripristina, stando alla proposta, a energie molto elevate. A questo punto, lâunificazione delle forze in una sola teoria era lâobiettivo dichiarato della teorizzazione e si decise che il concetto di rottura di simmetria avrebbe fatto parte della strategia per realizzarlo.
CiĂČ che permette alla rottura della simmetria di funzionare Ăš qualcosa di cui forse avete sentito parlare: il bosone di Higgs o piuttosto tutto un gruppo di bosoni di Higgs adatti a scopi diversi. Lo scopo di qualsiasi bosone di Higgs Ăš la rottura di una simmetria. La moderna teoria quantistica associa le forze fondamentali a particelle. Per lâelettromagnetismo, la particella Ăš il fotone, il quanto del campo elettromagnetico. Per lâinterazione forte, vi Ăš un insieme di particelle chiamate gluoni, che sfrecciano avanti e indietro tra i quark, tenendoli saldamente insieme. Per lâinterazione debole, le particelle sono tre: il bosone neutro Z e il bosone carico W, nelle due versioni, negativa e positiva. Lâunificazione dellâinterazione debole e della forza elettromagnetica fu il primo passo. Lâidea era che nelle collisioni tra particelle ad altissime energie le particelle W e Z non hanno massa, come i fotoni. In queste condizioni, la forza debole e quella elettromagnetica si comportano in modi molto simili e possono essere facilmente considerate come aspetti diversi di unâunica interazione elettrodebole. A energie minori, tuttavia, entra in azione lâincarnazione elettrodebole del meccanismo di Higgs. Il bosone di Higgs privo di massa acquisisce massa e nel farlo conferisce massa anche alle particelle W e Z. Questa Ăš una rottura della simmetria â da una situazione in cui il fotone e le particelle W e Z erano tutti privi di massa si passa in un nuovo stato in cui soltanto il fotone resta privo di massa. Ă il fatto che W e Z hanno una massa a far sĂ che lâinterazione debole si comporti in modo molto diverso dallâelettromagnetismo nel nostro mondo a bassa energia.
Le particelle W e Z sono state rilevate nel 1983 al CERN, il laboratorio europeo per la fisica delle particelle nei pressi di Ginevra, e le loro caratteristiche misurate sono in buon accordo con le aspettative della teoria unificata dellâinterazione elettrodebole. FinchĂ© non si scoprĂ il bosone di Higgs, tuttavia, rimase aperta una questione importante: esisteva davvero una cosa come la rottura di simmetria e, anche se esisteva, il meccanismo di Higgs ne rendeva conto o era necessaria qualche altra astuzia teorica?
Lâacceleratore del CERN, il Large Hadron Collider (LHC), Ăš stato costruito con lâobiettivo primario di trovare il bosone di Higgs elettrodebole. In base alla teoria, il valore della massa del bosone di Higgs doveva cadere in un certo intervallo e, dato che gli esperimenti dellâLHC, pur raggiungendo energie sempre piĂș elevate, continuavano a non trovare la particella, i fisici considerarono un valore della massa di Higgs vicino al limite superiore dellâintervallo consentito. Alla fine, comunque, nel 2012, il bosone di Higgs si Ăš rivelato, quasi allâultimo momento. Il valore stimato della sua massa rientra, seppur di poco, nellâintervallo giudicato accettabile dai fisici.
Questo risultato, tuttavia, presentava un lato negativo. Il meccanismo di Higgs non corrisponde allâidea di bellezza matematica di nessuno. Ă geniale, ma Ăš un trucco, un espediente, un kludge (una soluzione poco ortodossa ma efficace), come gli informatici chiamano una parte di codice che viene aggiunta a un programma per svolgere un compito necessario che era stato trascurato. Spiegare perchĂ© il meccanismo di Higgs non Ăš attraente ci farebbe entrare in dettagli tecnici. Qui basterĂ dire che il suo unico scopo Ăš rompere la simmetria di una teoria e che lo ottiene grazie allâaggiunta di un nuovo ingrediente, il campo di Higgs, dotato di proprietĂ ideate interamente dai teorici per realizzare la suddetta rottura di simmetria. Non ha nulla di naturale o inevitabile, e di certo nulla di elegante. PerĂČ fa il suo lavoro.
Nel capitolo XI abbiamo visto alcuni esempi di fisici che portarono le proprie teorie in nuovi territori spinti da un desiderio di bellezza matematica. Il meccanismo di Higgs Ăš un esempio opposto. Non Ăš bello, ma Ăš utile e versatile. La scoperta del bosone di Higgs dellâunificazione elettrodebole lo rese un ingrediente rispettabile della fisica delle particelle piĂș in generale e rafforzĂČ lâargomento a favore dellâuso del meccanismo di Higgs in altre parti del programma di unificazione. La sua diffusa adozione suggerisce perĂČ che lâattaccamento dei teorici allâeleganza matematica Ăš piuttosto opportunistico: se una parte esteticamente sgradevole di una teoria fa un lavoro prezioso e trova conferma empirica, la usano senza esitazioni. La bellezza assume un ruolo piĂș importante solo quando la teoria conduce in domini al di fuori della portata degli esperimenti.
In ogni caso, il passo successivo nel programma di unificazione fu la combinazione della forza elettrodebole con lâinterazione forte e i suoi gluoni nelle cosiddette grandi teorie unificate (escludendo ancora la gravitĂ , comunque). Esistono varie versioni di queste teorie, che usano un meccanismo di Higgs che agisce a energie di poco inferiori a un bilione di volte lâenergia di collisione dellâLHC e quindi inconcepibilmente al di lĂ della capacitĂ degli esperimenti realizzabili sulla Terra. Rendendosi conto che avrebbero dovuto cercare altrove per verificare le proprie teorie, i fisici delle particelle si interessarono alla cosmologia del Big Bang. Nei primissimi istanti di vita dellâuniverso, minuscole frazioni di secondo dopo il Big Bang, il cosmo era un caos di particelle a temperature elevatissime. Allâinizio, se il programma di unificazione era corretto, la forza elettromagnetica e le interazioni forti e deboli facevano tutte parte di uno schema simmetrico. Quando la temperatura diminuĂ, dapprima lasciĂČ la compagnia e se ne andĂČ per la sua strada lâinterazione forte, quando lâuniverso esisteva da un bilionesimo di bilionesimo di bilionesimo di secondo, e in seguito, allâavanzata etĂ cosmica di un miliardesimo di secondo, si ruppe la simmetria elettrodebole, lasciandoci nel regno della fisica che conosciamo. I fisici pensarono che questi momenti di rottura di simmetria avessero lasciato il segno sulla storia del cosmo e forse anche sottili indizi che si sarebbero potuti rilevare.
La cosa si rivelĂČ piĂș facile a dirsi che a farsi. In effetti la cosmologia poteva separare il grano dal loglio, distinguendo le grandi teorie unificate che erano plausibili da quelle che non lo erano, perĂČ quelle plausibili erano molte. Poi la situazione si fece ancora piĂș complicata.
Nel 1981, Alan H. Guth concepĂ lâuniverso «inflazionario», che nella sua prima incarnazione era uno spin-off della grande unificazione. Il meccanismo di Higgs funziona facendo sĂ che un sistema di particelle e di forze passi da uno stato simmetrico a uno non simmetrico. Questa transizione Ăš innescata da un cambiamento di ciĂČ che i fisici chiamano stato fondamentale del sistema, in sostanza il suo stato di minima energia, quello in cui si trova quando non accade nulla di eccitante. Guth capĂ che questa transizione aveva implicazioni cosmiche, poichĂ© lâenergia dello stato fondamentale imita il comportamento della costante cosmologica che Einstein introdusse per poi pentirsene. Per di piĂș, il cambiamento di quellâenergia, quando si rompe la simmetria della grande unificazione, Ăš enorme. Se oggi, come presumeva Guth, il valore della costante cosmologica Ăš basso perchĂ© lâenergia dello stato fondamentale di Higgs non simmetrico in cui viviamo Ăš bassa, allora allâinizio, prima che entrasse in azione il meccanismo di Higgs della grande unificazione, doveva essere davvero molto alto.
Il modello inflazionario della cosmologia si basa su questi effetti gravitazionali. Lâuniverso inizia nello stato fondamentale simmetrico di alta energia e, quando si Ăš raffreddato abbastanza, invece di passare gradualmente allo stato a bassa energia, resta bloccato per un poâ nello stato di alta energia. Durante questo intervallo di tempo, il valore elevato della costante cosmologica spinge il cosmo a espandersi in maniera esponenziale con il tempo â di qui il nome «inflazione». Questo periodo inflazionario ha due conseguenze positive, come capĂ Guth: spiega perchĂ© lâuniverso oggi Ăš in equilibrio nel punto critico tra una perenne espansione e un collasso finale su se stesso e spiega perchĂ© lâuniverso, in generale, ha un aspetto tanto uniforme (Ăš vero, ci sono galassie e ammassi di galassie separati da enormi spazi vuoti, ma alle scale piĂș grandi lâaspetto del cielo Ăš molto simile da qualsiasi punto di osservazione).
Non voglio entrare nei dettagli della cosmologia inflazionaria. Il libro di Guth del 1997, The Inflationary Universe, la descrive in modo esauriente ed esamina a fondo le tribolazioni successive alla sua enunciazione iniziale1. In particolare, la speranza originaria di Guth che il meccanismo di Higgs della grande unificazione funzionasse si dimostrĂČ irrealizzabile, perciĂČ i fisici e i cosmologi inventarono un meccanismo di Higgs completamente nuovo proprio allo scopo di far funzionare lâinflazione come desiderato. Non fu affatto facile e affinchĂ© questo meccanismo di Higgs cosmico producesse una cosmologia in accordo con ciĂČ che sappiamo fu necessario progettarlo con grande cura e scrupolo. Questa spiacevole necessitĂ va contro lo scopo originario dellâinflazione. Lâidea era che un generico modello inflazionario avrebbe prodotto in modo automatico e senza grandi sforzi un universo simile a quello in cui viviamo, sbarazzandosi cosĂ di tutta la regolazione fine delle condizioni iniziali al momento del Big Bang o subito dopo. Partendo da qualsiasi Big Bang, si pensava, la magia inflazionaria avrebbe garantito di ottenere, allâincirca dieci miliardi di anni dopo, il nostro universo. Si scoprĂ, perĂČ, che far venire fuori lâuniverso nel modo giusto Ăš una questione delicata e che per riuscirci erano necessari ritocchi e regolazioni fini di ogni genere del meccanismo di Higgs inflazionario. Non si eliminava la regolazione fine, la si spostava soltanto da un posto allâaltro e su questo problema torneremo tra poco.
Lâaltro grande sviluppo si realizzĂČ quando i fisici delle particelle scoprirono che la cosmologia offriva loro unâarena in cui esplorare la verosimiglianza e le conseguenze delle proprie teorie e cosĂ la spinta a includere la gravitĂ nellâunificazione delle forze fondamentali della natura riprese vigore. Il Big Bang in sostanza Ăš il momento in cui la gravitĂ si differenziĂČ dalle altre tre forze. Prima del Big Bang (eviteremo di domandarci se «prima» significhi qualcosa in questo caso), la densitĂ dellâuniverso era cosĂ alta che la gravitĂ aveva unâintensitĂ paragonabile a quella delle altre forze. Una volta accaduto il Big Bang e iniziata lâevoluzione cosmica, lâespansione dellâuniverso segue le regole non quantistiche della relativitĂ generale, mentre per descrivere i contenuti dellâuniverso si deve usare la teoria quantistica. Questo primo periodo corrisponde ai «primi tre minuti» della storia cosmologica resi famosi dal libro di Steven Weinberg del 1977 con questo titolo2. Weinberg portĂČ allâattenzione del pubblico la nuova scienza della «cosmologia delle particelle». Una volta trascorsi tre minuti, lâuniverso Ăš composto di atomi conosciuti e pieno di radiazione elettromagnetica e nella maggior parte dei casi i cosmologi e gli astrofisici non devono piĂș prestare attenzione alle stranezze delle teorie di unificazione.
La formulazione di teorie quantistiche della gravitĂ Ăš stata una sorta di industria artigianale sin dai tempi del teorema di Kaluza-Klein. Negli anni Settanta, per esempio, venne proposta la teoria della cosiddetta supergravitĂ , dove il prefisso «super» veniva dal concetto precedente di supersimmetria, che era in parte un tentativo di spiegare perchĂ© lâenergia a cui lâinterazione forte si separa dalla forza elettrodebole e lâenergia a cui lâinterazione elettrodebole si suddivide nella componente debole e in quella elettromagnetica fossero tanto lontane. Nella supersimmetria, ciascuna particella elementare della famiglia dei bosoni deve avere un partner tra i fermioni (i bosoni e i fermioni si distinguono in base al loro spin quantistico). Tra le altre cose, la supersimmetria c...