Quella che segue è una panoramica
relativa agli ultimi sviluppi della migliore teoria che ci permette di descrivere
le particelle elementari e le interazioni fondamentali: stiamo parlando del
modello standard. Esso si basa su teorie di gauge, dette anche teorie di scala, cioè una classe di teorie di campo basate sull'ipotesi dell'invarianza di alcune simmetrie, di cui la prima è stata l’elettrodinamica quantistica, che descrive le interazioni elettroni-luce. Questa venne più tardi
incorporata nella teoria elettrodebole, relativa alle interazioni
elettromagnetica e nucleare debole. Nel corso del tempo, il modello standard
incluse anche la cromodinamica quantistica che descrive l’interazione nucleare forte. L’ultimo tassello mancante del modello standard è stato il bosone di Higgs, scoperto nel 2012 al CERN. Nonostante ciò, la teoria delle particelle e
delle interazioni è ancora lontana dall’avere l’ultima parola dato che esistono
molti punti oscuri che dovranno essere risolti.
Atomi e loro costituenti
La struttura dell'atomo secondo il modello a quark. Quark ed elettroni sono le particelle più fondamentali. Credit: LBNL |
Stranezze
Descrivere il modello
standard non è così semplice poiché è abbastanza complesso e non esiste un
linguaggio appropriato. Una cosa che gli scienziati hanno imparato nel corso
del tempo è che le particelle non devono essere considerate delle versioni in
miniatura di oggetti più grandi. Il loro comportamento appare veramente
bizzarro alla luce della nostra esperienza quotidiana. Il primo esempio di
stranezza riguarda il dualismo onda-particella, che nel nostro mondo riguarda due
cose ben distinte. Ma nel mondo degli atomi, esiste un dibattito che dura ormai
da oltre due secoli: la luce è un’onda o è costituita da particelle? La
risposta è: entrambe le cose.
L'esperimento di Young della doppia fenditura. |
Esistono due famiglie di particelle: i bosoni, che mediano l'interazione fondamentale, e i fermioni che si suddividono in quark e leptoni. |
La maggior parte delle particelle note possiedono una rotazione
intrinseca, detta spin, che
corrisponde al momento angolare il cui valore è sempre un multiplo intero o semi-intero
della quantità h/2π, indicata con il simbolo ℏ. Esistono due
famiglie di particelle: i bosoni, il cui spin è 0, ℏ, 2ℏ, … e i
fermioni, che hanno spin (1/2)ℏ, (3/2)ℏ, … Per semplicità, si parla di “spin 0”,
“spin ½”, “spin 1” e così via. I bosoni sono più "sociali" e tendono ad
occupare lo stesso stato quantico, mentre ai fermioni (tra cui i protoni, neutroni ed
elettroni) è vietato dal cosiddetto principio di esclusione di Pauli che sta
alla base della struttura atomica.
Elettrodinamica quantistica
Il
modello standard descrive come interagiscono queste curiose entità. Il primo
pezzo della teoria che raggiunse una formulazione avanzata fu l’elettrodinamica
quantistica (Quantum Electro-Dynamics, QED) che tratta le interazioni della
luce, o dei fotoni, con gli elettroni. La QED è una teoria di campo, cioè ogni
particella viene descritta da un campo che si estende nello spazio. I fotoni
sono associati ai campi elettrici e magnetici e c’è anche un campo elettronico.
Le particelle possono essere pensate come piccoli "pacchetti d’onda", ossia treni d’onda
brevi che si propagano in questi campi, anche se l’analogia non è del tutto esatta. La
teoria dell’elettrodinamica quantistica fu inventata negli anni ’30 e diede
ottimi risultati, anche se dovette far fronte ad una serie di problemi. Il metodo di
calcolo utilizzato, chiamato teoria delle perturbazioni, si basa su una serie
di approssimazioni successive. La prima approssimazione dava risultati che erano, di solito, entro qualche percento dal risultato corretto. Il problema stava nel fatto che le
approssimazioni di ordine superiore, intese a dare valori più accurati, portavano invece a valori infiniti. La soluzione al problema emerse subito dopo
la seconda guerra mondiale e fu trovata, indipendentemente, da tre fisici: nel
1947 da Richard Feynmann e Julian Schwinger e qualche anno prima, nel 1943, da
Sin-Itiro Tomonaga, che lavorava da solo al tempo della guerra in Giappone. La
soluzione venne chiamata rinormalizzazione, un insieme di tecniche per trattare gli infiniti che emergono nel calcolo delle quantità fisiche, in particolare utilizzata per le correzioni della massa e della carica
elettrica dell’elettrone. Questa sorta di "gioco di prestigio" con i valori
infiniti pare sia una procedura sospetta, ma funziona: dopo aver effettuato la rinormalizzazione i risultati ottenuti divennero finiti e concordavano con una
accuratezza impressionante con i dati sperimentali. Insomma, verso la fine degli
anni ’50, la QED era diventata rapidamente la teoria più accurata nella storia della fisica.
Le altre forze della
natura
Ma
c’erano altre forze da tener conto perciò i fisici iniziarono ad elaborare una
serie di modelli che avessero un successo analogo alla QED. Sappiamo che
esistono quattro forze fondamentali. Due di queste, elettromagnetica e gravitazionale,
sono a noi familiari perché si tratta di forze a lungo raggio in cui l'intensità diminuisce con l’inverso del quadrato della distanza. Nella QED, la
forza elettromagnetica che agisce tra due elettroni può essere pensata come
dovuta allo scambio di fotoni. È una forza a lungo raggio poiché il fotone non
ha massa, il che vuol dire che non ha massa a riposo. Una particella che
possiede una certa massa a riposo m ha una quantità minima di energia data dalla famosa equazione di Einstein E = mc2. Ma un fotone non si trova mai a riposo e la
sua energia può essere piccola a piacere. Anche l’interazione gravitazionale è
una forza a lungo raggio e si ipotizza che viene trasmessa da un’altra
particella senza massa, chiamata gravitone. Su scale subatomiche, la forza gravitazionale si può considerare quasi trascurabile: l’attrazione
gravitazionale tra due protoni è molto più debole della repulsione
elettrostatica di un fattore dell’ordine di un trilione di trilione di trilione
di volte. I gravitoni sono al momento, e forse per sempre, estremamente irraggiungibili nonostante gli scienziati sperano di essere in grado di
rivelare le onde gravitazionali entro i prossimi anni.
La ricerca delle
simmetrie
Dopo
il successo della QED, uno degli obiettivi principali dei teorici delle
particelle fu quello di studiare le altre due forze della natura che sono,
invece, meno familiari essendo a corto raggio e trascurabili su scale più grandi di quelle di un nucleo atomico. Queste due interazioni sono chiamate forza nucleare
forte e forza nucleare debole. La prima lega protoni e neutroni nei nuclei
atomici, la seconda appare in una forma di radioattività, ossia il decadimento nucleare beta in cui un neutrone si trasforma in un protone, un elettrone e
nell’elusivo neutrino, e gioca un ruolo importante nel meccanismo che genera
energia nel Sole. Prima
della seconda guerra mondiale, erano note una manciata di particelle presumibilmente
elementari ma dopo la guerra, quando gli scienziati tornarono a studiare i
raggi cosmici e le collisioni particellari negli acceleratori, essi
scoprirono una sorta di enorme zoo di particelle, forse un centinaio o più, per cui ci si
chiese subito se si trattava in definitiva di particelle fondamentali. Per dare un senso a
questo grande zoo di particelle, i fisici iniziarono a cercare delle possibili
relazioni, un pò come avevano fatto i chimici qualche secolo prima con la
tavola periodica degli elementi. Ciò permise di rivelare numerose similitudini
e simmetrie approssimate. Prima della guerra, Werner Heisenberg aveva suggerito
l’esistenza di una simmetria tra protoni e neutroni. Egli aveva sottolineato la
loro similitudine, dovuta alla stessa interazione forte, allo stesso spin e
quasi alla stessa massa, e suggerì che protoni e neutroni si dovevano considerare come due stati
differenti della singola entità, chiamata nucleone. Inoltre, Heisenberg propose
una simmetria, detta isospin: in altre parole, il
termine non ha a che fare con lo spin reale della particella ma deriva da una
analogia matematica che riguarda la simmetria tra gli stati quantici di un elettrone.
Naturalmente, non si tratta di una simmetria esatta.
Infatti, protoni e neutroni
differiscono poiché il protone ha una carica elettrica e il neutrone non ce l’ha:
la simmetria viene a mancare a causa dell’elettromagnetismo. Ma si può considerare
ancora una buona approssimazione, per esempio nel classificare i livelli di
energia dei nuclei atomici leggeri, dato che a distanze brevi l’interazione
forte è molto più intensa di quella elettromagnetica. Nel 1961, si trovò che le numerose particelle elementari, che venivano identificate di volta in volta, potevano essere disposte secondo uno schema bidimensionale che indicava una
simmetria più ampia ma anche più approssimata. Questo tipo di simmetria venne
proposta indipendentemente da Murray Gell-Mann e da Yuval Ne’eman, all’epoca
studente di Abdus Salam. Gell-Mann chiamò questa simmetria “la via dell’ottetto” poiché
ricordava la caratteristica struttura geometrica degli ottetti.
L'ottetto del mesone. Le particelle disposte sulla stessa linea orizzontale hanno la stessa stranezza (s), mentre quelle disposte sulla stessa diagonale hanno la stessa carica q. |
Le teorie di gauge
Intanto,
la domanda che si ponevano i teorici era: dove cercare le teorie per descrivere
l'interazioni forte e debole? Qualche scienziato andava affermando di
abbandonare la teoria di campo a favore di una teoria alternativa, chiamata Matrice-S. Ma Salam e altri colleghi erano convinti che la risposta si celasse in una
particolare teoria di campo, detta teoria di gauge. La QED è la più semplice
delle teorie di gauge, il che implica che possiede un particolare tipo di
simmetria la cui manifestazione più semplice consiste nel fatto che ciò che
conta è la differenza di potenziale piuttosto che i valori assoluti del potenziale. La prima teoria di gauge fu proposta nel 1954 da
Chen-Ning Yang e Robert Mills e venne incorporata nella simmetria di isospin di
Heisenberg. La stessa teoria venne in realtà elaborata indipendentemente da
Ronald Shaw, un altro studente di Salam, sebbene non venne mai pubblicata se
non come tesi di dottorato presso l’Università di Cambridge: il lavoro di Shaw era inteso in termini di proposta di una teoria dell’interazione forte ma alla fine si trovò che non era la
teoria corretta nonostante rappresentò la base di lavori successivi. Ci furono
anche altre proposte per una teoria di gauge dell'interazione debole, la prima
introdotta da Schwinger nel 1956. Intanto, era stato scoperto che così come l’interazione
elettromagnetica viene mediata dai fotoni, anche l’interazione debole poteva
essere mediata da particelle, chiamate W+ e W- dove i segni "più" e "meno" indicano la carica elettrica
positiva e negativa rispettivamente. In qualche modo, queste particelle
dovevano essere simili al fotone, in particolare esse hanno tutte spin 1, ma
con una differenza importante. Per spiegare il raggio d’azione estremamente corto
dell’interazione debole, venne assunto che le particelle W fossero molto massicce, circa 100 volte più pesanti del protone. Schwinger suggerì che queste particelle potevano essere considerate proprio i "bosonidi gauge" della teoria e che in definitiva ci doveva essere un’unificazione
dell’interazione debole ed elettromagnetica in cui le particelle W+ , W- e il fotone apparivano in
maniera simmetrica. Ma anche in questo caso, questa simmetria non poteva essere
esatta e perciò doveva venir meno a causa della differenza delle masse. Gli
scienziati avanzarono così altre proposte. Nel 1961, Sheldon Glashow propose una
teoria modificata. Per risolvere un altro problema con lo schema di Schwinger,
in merito alla "simmetria a specchio", Glashow aggiunse un quarto bosone di
gauge, denominato Z0,
elettricamente neutro come il fotone. Salam e il suo collaboratore, John Ward,
proposero essenzialmente la stessa teoria nel 1964, apparentemente
inconsapevoli del lavoro di Glashow.
Il problema della
massa
Ci fu, però, un grosso problema con tutte queste proposte. Si
doveva trovare qualche meccanismo che causava la rottura della simmetria,
lasciando il fotone senza massa e trasferendo agli altri bosoni di gauge una
massa enorme. Il processo di rinormalizzazione non permetteva di ottenere
valori finiti. Da qui, gli scienziati si posero la domanda se e come la rottura
della simmetria poteva avvenire in maniera spontanea.
La rottura spontanea della simmetria è un fenomeno ben noto e onnipresente. Ciò vuol dire che la teoria che sta alla base di un fenomeno fisico rimane simmetrica ma la sua particolare realizzazione non lo è. Essa avviene in una transizione di fase, come nel caso del passaggio dallo stato liquido a quello solido, in cui ci si sposta da una fase dove la simmetria è evidente ad una in cui non lo è. Ad esempio, prendendo un secchiello circolare che contiene dell’acqua, esso appare esattamente uguale in ogni direzione da cui viene osservato: si dice che ha simmetria circolare. Ma quando l’acqua diventa ghiaccio, i cristalli si allineano lungo una particolare direzione, spezzando la simmetria. La rottura della simmetria è spontanea nel senso che non possiamo prevedere in anticipo quale direzione sarà scelta, a meno che non esistano delle imperfezioni nel secchiello che determinano la mancanza della simmetria. Ad ogni modo, ciò non risolve il problema perché si riteneva che in ogni teoria compatibile con la relatività speciale la rottura spontanea della simmetria dovesse sempre portare all’emergere di un particolare tipo di bosoni "indesiderati" e senza massa, detti “bosoni Nambu-Goldstone”, indesiderati perché nessuno ha mai visto queste particelle nonostante dovrebbero essere state rivelate facilmente. Queste particelle corrispondono alle onde che si propagano nella direzione lungo la quale si rompe la simmetria. Nel 1961, Steven Weinberg visitò l’Imperial College di Londra dove trascorse molto tempo discutendo con Salam del problema. La loro conclusione infelice, cioè il fatto che queste particelle sono inevitabili, fu il contenuto del cosiddetto teorema Goldstone, che venne poi pubblicato insieme al contributo di Jeffrey Goldstone. La fuga da questo ostacolo venne trovata indipendentemente da tre gruppi: il primo gruppo guidato da François Englert e Robert Brout a Brussels, il secondo guidato da Peter Higgs a Edinburgo e qualche mese dopo un terzo gruppo guidato da due fisici americani Gerald Guralnik e Carl Richard Hagen e da Tom Kibble a Londra. I tre gruppi pubblicarono i loro lavori su Physical Review Letters tra l’estate e l’autunno del 1964. Gli scienziati affrontarono il problema da prospettive diverse ma arrivarono alla stessa conclusione. Non c’è nulla di errato nella prova del teorema di Goldstone se non per il fatto che esso si basa sulla naturale assunzione che è falso per le teorie di gauge. Secondo il meccanismo proposto, i bosoni di gauge “mangiano”, per così dire, i bosoni di Nambu-Goldstone acquisendo di conseguenza massa. La rottura spontanea della simmetria viene raggiunta attraverso l’azione di un nuovo campo scalare le cui particelle corrispondenti sono i bosoni di Higgs. Per scalare si intende il fatto che i bosoni di Higgs, in maniera unica tra le particelle elementari note, hanno spin 0. All’epoca, i tre articoli non ebbero tanto successo. Sebbene da allora è stato derivato il modello unificato di Glashow e il meccanismo di generazione della massa delle particelle, ci vollero più di tre anni per mettere insieme le due cose. Intanto, nel 1967 Kibble scrisse un articolo che aveva lo scopo di esplorare il modo con cui il meccanismo di generazione della massa poteva essere applicato a modelli più realistici, lavoro che fece emergere in Salam un nuovo interesse. Finalmente, verso la fine del 1967 Weinberg propose una teoria unificata dell’interazione debole ed elettromagnetica che combinava il modello di Glashow con il meccanismo di generazione della massa. Salam aveva sviluppato essenzialmente la stessa teoria indipendentemente e la presentò durante una serie di lezioni che diede nell’autunno dello stesso anno all’Imperial College di Londra, prima di pubblicarla l’anno successivo: egli la chiamò teoria elettrodebole. Sia Salam che Weinberg pensavamo che la teoria fosse davvero rinormalizzabile e perciò autoconsistente e questo fu provato solo nel 1971 a seguito di un duro lavoro che fu condotto da un giovane studente di nome Gerard ’t Hooft. La correttezza del modello venne confermata durante i successivi vent’anni dagli esperimenti realizzati al CERN e in altri laboratori, inclusa la scoperta delle particelle W+, W–, e Z0 avvenuta nel 1983 ad opera di Carlo Rubbia e Simonvan der Meer.
La rottura spontanea della simmetria è un fenomeno ben noto e onnipresente. Ciò vuol dire che la teoria che sta alla base di un fenomeno fisico rimane simmetrica ma la sua particolare realizzazione non lo è. Essa avviene in una transizione di fase, come nel caso del passaggio dallo stato liquido a quello solido, in cui ci si sposta da una fase dove la simmetria è evidente ad una in cui non lo è. Ad esempio, prendendo un secchiello circolare che contiene dell’acqua, esso appare esattamente uguale in ogni direzione da cui viene osservato: si dice che ha simmetria circolare. Ma quando l’acqua diventa ghiaccio, i cristalli si allineano lungo una particolare direzione, spezzando la simmetria. La rottura della simmetria è spontanea nel senso che non possiamo prevedere in anticipo quale direzione sarà scelta, a meno che non esistano delle imperfezioni nel secchiello che determinano la mancanza della simmetria. Ad ogni modo, ciò non risolve il problema perché si riteneva che in ogni teoria compatibile con la relatività speciale la rottura spontanea della simmetria dovesse sempre portare all’emergere di un particolare tipo di bosoni "indesiderati" e senza massa, detti “bosoni Nambu-Goldstone”, indesiderati perché nessuno ha mai visto queste particelle nonostante dovrebbero essere state rivelate facilmente. Queste particelle corrispondono alle onde che si propagano nella direzione lungo la quale si rompe la simmetria. Nel 1961, Steven Weinberg visitò l’Imperial College di Londra dove trascorse molto tempo discutendo con Salam del problema. La loro conclusione infelice, cioè il fatto che queste particelle sono inevitabili, fu il contenuto del cosiddetto teorema Goldstone, che venne poi pubblicato insieme al contributo di Jeffrey Goldstone. La fuga da questo ostacolo venne trovata indipendentemente da tre gruppi: il primo gruppo guidato da François Englert e Robert Brout a Brussels, il secondo guidato da Peter Higgs a Edinburgo e qualche mese dopo un terzo gruppo guidato da due fisici americani Gerald Guralnik e Carl Richard Hagen e da Tom Kibble a Londra. I tre gruppi pubblicarono i loro lavori su Physical Review Letters tra l’estate e l’autunno del 1964. Gli scienziati affrontarono il problema da prospettive diverse ma arrivarono alla stessa conclusione. Non c’è nulla di errato nella prova del teorema di Goldstone se non per il fatto che esso si basa sulla naturale assunzione che è falso per le teorie di gauge. Secondo il meccanismo proposto, i bosoni di gauge “mangiano”, per così dire, i bosoni di Nambu-Goldstone acquisendo di conseguenza massa. La rottura spontanea della simmetria viene raggiunta attraverso l’azione di un nuovo campo scalare le cui particelle corrispondenti sono i bosoni di Higgs. Per scalare si intende il fatto che i bosoni di Higgs, in maniera unica tra le particelle elementari note, hanno spin 0. All’epoca, i tre articoli non ebbero tanto successo. Sebbene da allora è stato derivato il modello unificato di Glashow e il meccanismo di generazione della massa delle particelle, ci vollero più di tre anni per mettere insieme le due cose. Intanto, nel 1967 Kibble scrisse un articolo che aveva lo scopo di esplorare il modo con cui il meccanismo di generazione della massa poteva essere applicato a modelli più realistici, lavoro che fece emergere in Salam un nuovo interesse. Finalmente, verso la fine del 1967 Weinberg propose una teoria unificata dell’interazione debole ed elettromagnetica che combinava il modello di Glashow con il meccanismo di generazione della massa. Salam aveva sviluppato essenzialmente la stessa teoria indipendentemente e la presentò durante una serie di lezioni che diede nell’autunno dello stesso anno all’Imperial College di Londra, prima di pubblicarla l’anno successivo: egli la chiamò teoria elettrodebole. Sia Salam che Weinberg pensavamo che la teoria fosse davvero rinormalizzabile e perciò autoconsistente e questo fu provato solo nel 1971 a seguito di un duro lavoro che fu condotto da un giovane studente di nome Gerard ’t Hooft. La correttezza del modello venne confermata durante i successivi vent’anni dagli esperimenti realizzati al CERN e in altri laboratori, inclusa la scoperta delle particelle W+, W–, e Z0 avvenuta nel 1983 ad opera di Carlo Rubbia e Simonvan der Meer.
Quark e gluoni
Mentre era in corso tutto ciò, si ebbero degli sviluppi
importanti, nonostante fossero molto diversi, nell’ambito degli studi sull’interazione
nucleare forte. La storia ebbe inizio con il tentativo di comprendere la
simmetria dell’ottetto che abbiamo menzionato prima. Nel 1963, Gell-Mann, e
indipendentemente George Zweig, proposero un’idea in base alla quale la
spiegazione di questa simmetria poteva essere descritta assumendo che le
particelle soggette all’interazione nucleare forte fossero composte da tre
entità fondamentali. Parafrasando le parole dal romanzo Finnegan's Wake, l'ultimo testo di James Joyce, Gell-Mann definì queste entità con il nome di “quark” distinguendo le loro
proprietà con i termini “up” (u), “down”
(d) e “strange” (s). Ad esempio, il protone e il neutrone sono composti da tre quark:
il protone emerge da una combinazione di quark (uud) mentre il neutrone dalla combinazione (udd). I quark-strange, che hanno una massa significativamente
maggiore, fanno parte di particelle più esotiche. Vista in questo modo, la
simmetria isospin si ha tra quark-up e quark-down mentre la simmetria dell’ottetto
si ha approssimativamente tra i quark-up, i quark-down e i quark-strange. A
differenza delle altre particelle note, una delle proprietà più strane dei
quark è data dal fatto che essi possiedono una carica elettrica multipla della
frazione della carica elettrica del protone e: cioè (2/3)e per il quark-up e (-1/3)e per i quark-down e
quark-strange. Ad ogni modo, c’era una falla in questo schema che può essere
illustrata dall’esistenza di un barione delta, indicato dal simbolo Δ++ e composto da tre quark-up. Dato che essa ha spin pari a 3/2, lo spin
dei tre quark-up (ciascuno pari a 1/2) deve puntare nella stessa direzione. Ciò
vuol dire che essi occupano lo stesso stato, in contraddizione con il principio
di esclusione di Pauli. Una soluzione a questo problema fu introdotta nel 1964
da Moo-Young Han e Yoichiro Nambu e indipendentemente da Oscar WallaceGreenberg: gli scienziati proposero che ciascuno dei tre quark possiede tre “colori”
diversi, per convenzione rosso, verde e blu, anche se non hanno niente a che
fare con i veri colori. In generale, tutte le particelle note sono di colore
neutro, cioè contengono un quark di ogni colore, oppure un quark e la sua
antiparticella. In questo modo, i tre quark (uuu)
hanno tre colori differenti e perciò non violano il principio di Pauli. In
altre parole, esiste una simmetria perfetta tra i diversi colori.
Oggi sappiamo
che esistono sei tipi di quark e non tre: gli altri tre sono chiamati “charm” (c), “bottom” o “beauty” (b) e “top” o “truth” (t). I sei quark possono essere combinati
in tre coppie (u,d) (c,s) (t,b) ciascuna con la stessa coppia di cariche, cioè (2/3e) e (-1/3e). Ogni coppia appare sostanzialmente uguale
tranne per il fatto che esse tendono a diventare più massicce: il quark-top è
di fatto più pesante dei bosoni di gauge W
e Z. Anche l’elettrone ha due
compagni simili ma più pesanti, il muone (µ)
e il tauone (τ), ciascuno dei quali è
accoppiato con un neutrino che ha carica nulla. Quindi, sia per i quark che per
quelli che chiamiamo leptoni c’è una struttura peculiare di tre generazioni di
particelle. I fisici hanno impiegato del tempo per convincersi che questa
soluzione, apparentemente artificiale, è di fatto corretta. Quella del colore
si dimostrò la chiave essenziale per comprendere l’interazione nucleare forte.
Han e Nambu suggerirono che l’interazione forte sarebbe stata mediata da un
insieme di otto bosoni di gauge, chiamati “gluoni”, accoppiati in maniera
specifica con i colori. Questa idea sta alla base dell’attuale teoria di gauge
dell’interazione forte chiamata cromodinamica quantistica (Quantum Chromo-Dynamics,
QCD). Mentre le forze a noi familiari, come l’elettromagnetismo, diventano
sempre più deboli all’aumentare della distanza, per contrasto la forza di
colore diventa molto debole man mano che si riduce la distanza, un risultato
che fu provato nel 1973 da David Gross, Frank Wilczek e David Politzer in ciò
che essi definirono “libertà asintotica”, ossia la proprietà per cui l'interazione tra le particelle diviene arbitrariamente sempre più debole per distanze più piccole. Il perché nessuno abbia mai osservato
quark o gluoni liberi viene spiegato dal fenomeno detto “confinamento”: cioè la
forza di colore che si esercita tra le particelle che non hanno una carica di
colore neutra aumenta verso distanze maggiori. È un pò come se i quark all’interno
dei protoni o dei neutroni fossero legati in qualche modo da una sorta di
elastico e perciò non possono sfuggire o essere osservati individualmente.
Modello standard delle particelle elementari. |
Il bosone di Higgs e
oltre
La QCD potrebbe sembrare una teoria alquanto strana ma oggi è
ben consolidata. Assieme alla teoria elettrodebole, esse rappresentano i
pilastri fondamentali su cui si basa il modello standard, dove i quark e
leptoni hanno spin ½ mentre i bosoni di gauge hanno spin 1. Nel corso degli
ultimi quarant’anni, il modello standard è stato verificato da numerosi
esperimenti sempre con successo. Ma fino a qualche tempo fa, c’era un problema:
per completare il quadro mancava il bosone di Higgs. Tornando al 1964, l’esistenza
di una particella extra venne considerata un fatto secondario poiché la cosa
più importante era capire quel meccanismo che conferisce la massa ai bosoni di
gauge. Tuttavia, circa venti anni dopo, la cosa assunse un significato speciale
in quanto si trattava dell’ultimo tassello mancante del modello standard. La
caccia al bosone di Higgs, altresì noto come “la particella di Dio”, fu uno
degli obiettivi principali del Large Hadron Collider (LHC) che vide la sua
apoteosi nel 2012 quando i fisici del CERN annunciarono la scoperta dopo aver
analizzato i dati dei rivelatori ATLAS e CMS. Dunque, siamo arrivati alla fine
della storia? La risposta è no. Il modello standard può avere difficilmente l’ultima
parola. Nonostante abbia avuto un grande successo, è lontano dall’essere
considerato alquanto semplice. Ha qualcosa come 20 parametri arbitrari, cose
come rapporti di massa e intensità di accoppiamento che non possiamo prevedere
e che non pare abbiamo delle relazioni ovvie e definite. In più, ci sono tutta
una serie di altre caratteristiche che non hanno alcuna spiegazione. Come mai
esistono tre generazioni o famiglie di particelle che hanno proprietà simili ma
masse estremamente diverse? Perché i quark hanno tre colori? Una ipotesi afferma
che tutte queste scelte sarebbero casuali. Ci possono essere stati tanti big-bang in cui ognuno genera un universo a parte caratterizzato da un proprio insieme di
parametri. La maggior parte di questi universi potrebbero essere privi di vita
anche se per molti fisici questa è una risposta non soddisfacente. Dal
punto di vista osservativo, esistono ancora tante cose che non possono essere
spiegate. Ad esempio, qual è la natura della materia scura? Perché l’Universo
contiene più materia che antimateria? Poi ci sono alcuni punti sui quali il
modello standard non concorda con le osservazioni. In particolare, nel modello
standard i neutrini non hanno massa anche se sappiamo che essi hanno una massa
molto piccola, comunque diversa da zero. Non abbiamo idea del perché debba essere così.
Infine, c’è un altro, grande problema: la gravità non appare nel modello
standard. Risulta difficile conciliare la miglior teoria della gravità, la
relatività generale, con la teoria dei quanti, un problema dibattuto per quasi
un secolo. Oggi, le speranze sembrano risiedere nella teoria delle stringhe, o
nella sua concezione più moderna denominata teoria-M, che potrebbe unificare le
due teorie del mondo microscopico e di quello macroscopico una volta per tutte,
anche se per ora non sono state raggiunte conclusioni definitive. Insomma, pare
proprio che i teorici avranno tanto lavoro da affrontare negli anni a
venire.
Schema generale delle particelle, interazioni e materia. |
Nessun commento:
Posta un commento