Dove va la fisica

Un breve excursus sullo sviluppo della fisica dalle prime civiltà ad oggi

“The important thing is not to stop questioning” (A.Einstein)

 

 

Si racconta che il grande scienziato britannico Lord Kelvin ebbe a dire nell’anno 1900 che nella fisica non c’era oramai nulla da scoprire e ciò che restava era fare esperimenti più accurati e misure sempre più precise.

Nello stesso anno Max Planck, a Berlino, nel tentativo di spiegare i risultati dei suoi esperimenti sulla radiazione del corpo nero (cioè un corpo che assorbe totalmente la luce che lo investe e la reirradia con una curva di emissione che dipende solo dalla sua temperatura) fu costretto “semplicemente come un atto di disperazione”, come ebbe a dire in seguito, a pensare che la luce venga emessa ed assorbita in microscopici pacchetti o quanti, con una energia ε multipla della frequenza di emissione ν tramite una costante h detta poi costante di Planck, cioè ε = hν.

Quindi l’energia della luce di una data frequenza ν può essere pari solo a multipli interi di hν (2hν, 3hν etc. ) senza possibilità di assumere valori intermedi: è “quantizzata”.

Nasceva, in modo quasi accidentale, la fisica quantistica: i processi fisici elementari avvengono in unità discrete misurate dalla costante di Planck.

Cinque anni dopo, nel 1905, un oscuro impiegato dell’ufficio brevetti di Berna, Albert Einstein, pubblicava tre lavori che avrebbero rivoluzionato la fisica ed impresso allo sviluppo di questa disciplina nei primi decenni del secolo scorso, un’accelerazione eccezionale.

Oggi nessuno scienziato oserebbe dire che la nostra conoscenza fisica del mondo e dell’universo è pressoché completa, sfide sempre nuove e sempre più ardue si presentano per arrivare, come diceva Einstein, a “sbirciare le carte di Dio”.

Ma prima di presentare quali sono i temi, le ricerche e le speranze della fisica contemporanea, intendendo qui essenzialmente la fisica fondamentale, cioè quella che riguarda la costituzione della materia e l’origine dell’universo, e non la fisica applicata che si rivolge alla creazione di dispositivi sempre più complessi e efficienti, è interessante raccontarne brevemente lo sviluppo storico, per capire meglio dove siamo arrivati oggi.

 

 

Cenni storici

Se consideriamo la storia degli antichi Egizi, dei Babilonesi e anche dei Greci vediamo come per ogni popolo il modo di concepire il proprio mondo e i suoi rapporti con le potenze che governano l’universo, cioè la mitologia, può ritardare o promuovere lo sviluppo della ricerca scientifica.

Ad esempio per gli Egizi gli Dei, col tramite del Faraone, si preoccupavano costantemente del benessere della popolazione proteggendola anche dagli invasori grazie ai deserti che circondavano il loro paese.

Ne seguiva un disinteresse riguardo alla natura dell’universo e tutto ciò che richiedeva un certo grado di astrazione.

Diverso era l’atteggiamento dei Babilonesi che concepivano il mondo come un luogo estraneo ed ostile anche perché il loro territorio era soggetto a frequenti invasioni.

Così i Babilonesi non si adagiarono a delegare ogni cosa agli dei ma si misero a studiare l’astronomia e nell’algebra arrivarono ad esempio alla risoluzione delle equazioni di secondo grado, cioè quelle dove la grandezza incognita x figura elevata alla potenza due.

Gli antichi Greci furono fin dai tempi più remoti essenzialmente liberi da preconcetti analoghi a quelli che vanificavano la riflessione in Egitto.

Rispettosi degli dei senza però temerli, i Greci si sentivano liberi di ragionare sul mondo e di indagare le leggi della natura.

La sapienza dei Greci va considerata la base di tutto il pensiero e la scienza successiva, rappresentando la razionalità che mette ordine e classifica la moltitudine di fatti dell’esperienza immediata, con un conseguente predominio delle idee generali e dell’astrazione rispetto all’utilizzazione pratica.

Si narra che Platone avesse fatto incidere sulla porta della sua scuola la frase: “nessuno entri qui se non conosce la geometria”.

Da questo atteggiamento nacquero le grandi conquiste intellettuali di Euclide, di Archimede e di un genio come Aristotele che riuscì a sistematizzare tutta la scienza antica in una visione della natura ed in uno schema di spiegazioni fisiche e filosofiche che reggeranno praticamente per circa due millenni, fino al Rinascimento.

Egli fu “il maestro di color che sanno” e la scienza riprenderà a progredire solo quando la sua interpretazione del mondo comincerà ad apparire inadeguata, ma da Aristotele, cioè dal IV secolo a.C, bisognerà arrivare fino al secolo diciassettesimo con Copernico, Keplero, Galilei, Newton e Leibniz, cioè i fondatori della scienza moderna.

Questo impressionante iato temporale è da attribuire in larga parte alla autorità della Chiesa medievale ed al suo controllo ed approvazione ufficiale della scienza aristotelica, con l’aggiunta dell’idea che la natura è sacramentale, simbolica di verità spirituali.

Intorno all’anno mille, mentre in occidente la scienza rimaneva ancorata al pensiero greco, c’era stata una grande fioritura intellettuale nel mondo musulmano particolarmente nel campo della matematica e dell’astronomia.

Però nei secoli successivi questa spinta si andrà affievolendo quasi completamente tanto da fare esclamare nel sedicesimo secolo a Montaigne nei suoi ‘Essays’ che “Maometto…proibì la scienza alla sua gente”.

Alla civiltà islamica va attribuito il grandissimo merito di avere conservato e trasmesso all’occidente il patrimonio del pensiero greco; qui occorre ricordare almeno Al-Khuwaritzmi († 850), da cui deriva il termine algoritmo, che inventò i logaritmi e l’algebra, nome che deriva dal titolo del suo libro ‘Kitab al-gabr’ tradotto in occidente ben tre secoli dopo e grazie al quale furono introdotti lo zero ed i numeri arabi; Abd al-Wafah († 997) che sviluppò la trigonometria; Omar Khayyam († 1123) molto noto in occidente come poeta, che fu anche un grande matematico e seppe risolvere le equazioni di terzo e quarto grado; ed ancora Ibn al-Haytham († 1039) che sviluppò l’ottica scoprendo le leggi di riflessione e rifrazione: al suo ‘Thesaurus Opticus’ attinsero Leonardo da Vinci, Keplero e forse anche Newton.

Infine Al-Maghriti († 1007) che dimostrò il principio di conservazione chimica della massa che fu riscoperto novecento anni dopo da Lavoisier che se ne attribuì il merito.

Con Galilei lo scienziato si immerge nello studio diretto della natura usando la matematica come grammatica per decriptarne le leggi, senza più soggiacere a quei condizionamenti che avevano subordinato il pensiero scientifico a quello teologico.

Come è noto Galilei pagherà cara nei confronti della Chiesa questa sua indipendenza intellettuale e particolarmente la piena assunzione, grazie alle sue osservazioni col telescopio, della recente teoria eliocentrica di Copernico.

Copernico aveva attuato una completa revisione dell’Almagesto di Tolomeo, dopo oltre mille anni, mettendo al centro il Sole con Terra e pianeti che vi ruotano attorno al posto della visione geocentrica di Tolomeo; canonico della Chiesa, ritarderà la pubblicazione della sua fondamentale opera all’ultimo anno di vita per il terrore di incappare nella scomunica religiosa, e si farà scrivere la prefazione da un teologo che presenterà la teoria eliocentrica come una mera ipotesi matematica.

Keplero perfezionerà i risultati di Copernico in seguito ad accurate osservazioni delle posizioni dei pianeti deducendone l’ellitticità delle orbite e scrivendo le equazioni relative a tali movimenti.

Galileo introduce il ‘metodo scientifico’ che consiste di tre fasi: ipotesi (analisi delle relazioni matematiche fra le variabili fisiche), dimostrazione (deduzioni derivanti dalle conseguenze dell’ipotesi e dalle condizioni iniziali) e verifica sperimentale, cioè, rispettivamente, elaborazione teorica, formalizzazione matematica e sperimentazione, che costituiscono la base della scienza moderna.

Ma considera anche la possibilità dell’esperimento ‘concettuale’ che avrà una grande importanza nella fisica del novecento.

Con Galilei e con Francesco Bacone inizia nel cinquecento e seicento la rivoluzione scientifica che porterà alla creazione di accademie e società che contribuiranno a spostare il centro della ricerca scientifica dalle università medievali, soggette alla Chiesa, ad associazioni secolari dedite a leggere, senza condizionamenti, il libro della natura.

Ma ci saranno ancora vittime: Giordano Bruno finirà al rogo, arso vivo, per avere contrapposto alla descrizione Aristotelica del mondo ed alle interpretazioni letterali delle Sacre Scritture, la visione di un universo “con il suo centro ovunque e la sua circonferenza in nessun luogo”, cioè, in linguaggio scientifico, né Terra né Sole al centro dell’universo: praticamente la concezione cosmologica attuale.

Già però sant’Agostino, con grande lucidità ed onestà intellettuale aveva cominciato a discernere la scienza dalle Scritture, affermando che la Bibbia era una formulazione umana (e quindi fallibile), della rivelazione divina.

Toccherà ad uno dei più grandi fisici mai esistiti, Isaac Newton, raccogliere le intuizioni di Copernico, le scoperte di Galilei e Keplero, formulando le leggi della forza di gravità e le equazioni fondamentali della meccanica sulle quali poggerà tutta la tecnologia del mondo moderno, dai ponti ai grattacieli, dagli aeroplani ai razzi ed alle sonde spaziali, nonché la descrizione dei moti dei principali sistemi astronomici.

Newton riuscì a matematizzare in poche equazioni tutti gli effetti relativi all’attrazione dei corpi; se la matematica allora disponibile non era sufficiente per svolgere i suoi calcoli, la creava lui stesso.

Mette a punto i fondamenti del calcolo infinitesimale moderno (in concorrenza con Leibniz), che saranno ulteriormente ampliati negli ultimi tre secoli fornendo un apparato formidabile per gli studi di scienza e tecnologia.

Newton aveva descritto le leggi della gravitazione universale ma si era anche posto il problema del perché esistevano queste forze attrattive ed a cosa erano dovute.

Non riuscì ad individuarne la causa e scrisse la famosa frase, contenuta nella seconda edizione dei ‘Philosophiae Naturalis Principia Mathematica del 1713’: “In verità non sono ancora riuscito a dedurre dai fenomeni la ragione di queste proprietà della gravità, e non invento ipotesi (hypotheses non fingo)”.

Gli effetti della forza di gravità erano stati chiariti da Newton, ma restava da decifrare un’altra forza, nota fin dai tempi antichi, quella che oggi chiamiamo forza elettrica e magnetica.

E’ la forza che tiene uniti gli elettroni ai nuclei degli atomi, e questi nelle molecole fino ad arrivare a costituire gli oggetti che ci circondano; presiede alle reazioni chimiche e biochimiche e quindi riguarda anche gli esseri viventi, in particolare agisce sui neuroni del nostro cervello veicolandovi le informazioni che recepiamo incessantemente.

Indirettamente tutta la fisica moderna, escluso lo studio dei fenomeni gravitazionali e nucleari, nasce dallo studio della forza elettromagnetica ad opera soprattutto di Michael Faraday e James Clerk Maxwell.

Il primo era un formidabile sperimentatore di famiglia poverissima (aveva fatto il rilegatore di libri nella giovinezza), dotato di grande fantasia ma privo di conoscenze scientifiche approfondite, Maxwell era invece un matematico eccezionale.

Faraday suppose che le forze elettriche e magnetiche si propagassero nello spazio costituendo un ‘campo’ caratterizzabile con un numero infinito di linee senza spessore, linee di flusso o di forza che trasmettono, come fossero dei cavi, la forza elettrica e magnetica.

Newton ragionava di forze che agiscono a distanza (anche se si era posto ripetutamente il problema di quale agente causasse la gravità), Faraday introduce il concetto di campo come portatore, mediante le linee di forza, delle interazioni tra conduttori carichi.

Maxwell sintetizza in una compatta veste matematica le scoperte di Faraday, le ‘linee di Faraday’, scrivendo un gruppo di equazioni che descrivono completamente il campo elettrico e magnetico, unificandoli nella teoria dell’elettromagnetismo.

Su queste equazioni si baserà tutta l’elettrotecnica, l’elettronica, la moderna tecnologia delle comunicazioni e gran parte della fisica atomica.

Analizzando le sue equazioni Maxwell prevede che il moto delle cariche elettriche generi onde elettromagnetiche che si propagano a distanza con una velocità che Maxwell calcola essere proprio quella della luce, indicata convenzionalmente con la lettera c.

Tutto ciò sarà ampiamente dimostrato sperimentalmente negli anni successivi: le onde possono avere frequenze diverse, quindi anche al di fuori della luce visibile, ad esempio molto più basse come quelle che verranno in seguito rivelate da Hertz ed utilizzate poi da Marconi per realizzare la prima radio, o più alte come nel casi dei raggi X e gamma.

 

La fisica del novecento

Arriviamo così al novecento e alle due basilari scoperte indicate all’inizio dell’articolo, che segneranno una svolta epocale non solo nella storia della fisica ma in quella dell’umanità.

Ne facciamo un breve cenno per meglio comprendere dove siamo arrivati e quali e quanti traguardi restino ancora da raggiungere.

Nel 1905 Einstein, allora ventiseienne, pubblica il lavoro sulla relatività ‘ristretta’.

Senza entrare in un discorso tecnico, il risultato della teoria è che il tempo fisico, quello misurato dagli orologi, che nella meccanica di Newton era scandito da un orologio ‘universale’ ed immutabile, è invece relativo alla velocità degli orologi stessi.

A sua volta il tempo è formalmente unificato con lo spazio in un concetto unico di spazio-tempo: per un osservatore che effettui misure di tempo e di spazio relative ad orologi e regoli che viaggino a velocità molto elevate rispetto all’osservatore, la misura degli intervalli di tempo fisico appare dilatata e quella delle lunghezze nella direzione del moto contratta.

Di assoluto c’è solo la velocità della luce c, che è una costante fisica universale e non dipende né dalla velocità della sorgente né da quella di qualsiasi osservatore in moto rettilineo uniforme (inerziale).

E’ la massima velocità fisicamente possibile per il trasferimento dell’energia e dell’informazione.

Per le velocità della nostra vita di ogni giorno gli effetti della relatività sono trascurabili, ma per velocità che approssimano c l’effetto è notevolissimo, come si constata ad esempio con le particelle accelerate nello LHC (Large Hadron Collider, cioè acceleratore di protoni e ioni pesanti) del CERN a Ginevra, che in stato di quiete hanno una vita media molto più breve rispetto a quando ruotano nell’anello di accelerazione del sincrotrone a velocità prossime fino al novantanove virgola novantanove per cento di quella della luce.

Particelle molto più energetiche di quelle finora prodotte negli acceleratori si trovano nei raggi cosmici che provengono da sistemi stellari lontani o nuclei galattici.

La ‘visibilità’ dei prodotti di decadimento a livello del mare delle particelle cosmiche che arrivano dall’alta atmosfera, dipende proprio dalla dilatazione einsteniana degli intervalli temporali, in particolare della vita media delle particelle stesse.

Ma c’è un’altra deduzione di Einstein che avrà conseguenze enormi, ed è espressa dalla celebre equazione E=mc² che esprime l’energia E che si può ottenere da una data massa di materia m mediante la sua trasformazione (parziale o totale) in energia.

Ciò dimostra che le due grandezza m ed E, che prima erano considerate realtà fisiche separate, sono invece due aspetti di una stessa entità, così come spazio e tempo lo sono dello spazio-tempo.

Calcolando l’energia contenuta nella massa di un grammo si ottiene un valore enorme: basti ricordare che la bomba di Hiroshima possedeva una energia equivalente a circa il sessanta per cento di quella che sarebbe sprigionata dalla totale conversione in energia di un solo grammo di materia.

Einstein si interroga sulla attrazione gravitazionale newtoniana e studia la possibilità di estendere alla gravitazione il concetto di campo e di linee di Faraday usate nell’elettromagnetismo.

Nel 1915 pubblica il lavoro sulla relatività generale che include in una certa approssimazione la relatività ristretta del 1905.

Le equazioni della relatività generale governano la struttura dello spazio-tempo o meglio della sua metrica, cioè essenzialmente il campo gravitazionale.

Un campo è qualcosa di dinamico e variabile: Einstein lo definisce come un gigantesco mollusco flessibile in cui sono immerse le masse dell’universo che lo deformano e lo incurvano.

La struttura dello spazio-tempo è la ‘causa’ per cui la Terra ruota intorno al Sole.

Non è necessario ricorrere ad una forza misteriosa, quella che Newton non riusciva a giustificare, poiché esiste uno spazio-tempo la cui curvatura, generata dalle masse presenti, le ‘costringe’ a seguire una determinata traiettoria.

Ma, data la connessione spazio-tempo, anche la misura del tempo fisico ne viene influenzata: ad esempio in alta montagna gli intervalli di tempo trascorrono più rapidamente che al livello del mare (come confermato da misure accuratissime) in quanto la massa della Terra distorce lo spazio-tempo rallentando il tempo quanto più ci si avvicini alla superficie terrestre.

Ancora, quando una stella esaurisce il suo combustibile e collassa su se stessa per effetto della gravità, le dimensioni della stella si contraggono e la densità di massa localmente può assumere un valore tale da incurvare talmente lo spazio-tempo da formare un buco nero.

Nulla può più uscire da questa ex-stella e tutto quello che si viene a trovare entro la superficie spazio-temporale del cosiddetto orizzonte degli eventi, viene catturato per sempre; a sua volta gli intervalli di tempo fisico si dilatano avvicinandosi dall’esterno alla superficie degli eventi.

Il concetto di buco nero fu previsto dall’astronomo tedesco Karl Schwarzschild mentre prestava servizio militare in Russia durante la Grande Guerra (morirà nel 1916), usando le equazioni di Einstein, ma solo negli anni sessanta gli astrofisici iniziarono a considerare seriamente la possibilità che potessero esistere davvero.

Ad esempio al centro della nostra galassia, come in quasi tutte le altre, sembra presente un gigantesco buco nero, con una massa pari a milioni di masse solari, che ‘obbliga’ le stelle a girargli attorno.

Nella sua terza pubblicazione del 1905 Einstein riprende le considerazioni di Planck sui ‘pacchetti di energia’ e dimostra, riferendosi all’effetto fotoelettrico (emissione di elettroni da sostanze colpite dalla luce) che la luce quando interagisce con le cariche elettriche della materia, si manifesta come se fosse realmente fatta di particelle, di grani o quanti di energia oggi chiamati fotoni.

Einstein riceverà il premio Nobel grazie a questo lavoro e da quel momento la teoria quantistica si svilupperà fino a fornire oggi una spiegazione del mondo atomico e subatomico coerente e supportata da innumerevoli misure sperimentali.

All’inizio del secolo scorso la nozione di atomo era molto vaga, ma alcune scoperte, quella dell’elettrone nel 1897, quella della radioattività nel 1896 e sopratutto gli esperimenti di Rutherford nel 1910 portarono a scoprire che l’atomo non era quello di Democrito, cioè un’entità spaziale primaria indivisibile, ma costituito da un nucleo piccolissimo con carica positiva attorniato da elettroni attratti dal nucleo in quanto carichi negativamente.

Nel 1913 Niels Bohr elaborò un modello ‘planetario’ dell’atomo col nucleo al centro e gli elettroni disposti su orbite fisse, cioè in numero discreto in base a precise caratteristiche.

Secondo questo modello semplicistico, l’elettrone nell’atomo può saltare solo da un’orbita all’altra e quindi la sua energia è ‘quantizzata’ essendo fissata dalla differenza di energia tra le orbite coinvolte.

L’atomo è essenzialmente vuoto, la distanza tra il nucleo e un elettrone orbitale periferico equivale, supposto che il nucleo sia il sole, a circa la distanza tra il sole e Plutone.

Questo spiega l’immensa densità ad esempio delle stelle di neutroni dove gli atomi sono schiacciati in modo da compattare elettroni e protoni formando neutroni (particelle analoghe ai protoni ma prive di carica elettrica).

In queste condizioni la Terra, che ha un diametro di circa dodicimila km si ridurrebbe ad un diametro dell’ordine di un paio di centimetri ed il Sole sarebbe compresso a circa sei km di diametro.

Un modello relativamente compiuto della struttura dell’atomo e del nucleo, si avrà solo con la formulazione del cosiddetto Modello Standard, basato sulla teoria dei campi quantistici, che, lasciando fuori la gravità, definisce le rimanenti tre interazioni o forze fondamentali della natura: elettromagnetismo, forza debole, e forza forte.

Le quattro forze non sono correlate tra loro e sono responsabili della materia e della struttura dell’universo.

La forza gravitazionale presiede all’attrazione dei corpi massivi, la forza elettromagnetica è quella generata dalle cariche elettriche, la forza debole si manifesta all’interno dei nuclei ed è responsabile della radioattività, la forza forte agisce all’interno dei nuclei e, come vedremo meglio in seguito, ne tiene legati i componenti (neutroni e protoni).

Le tre interazioni fondamentali comprese nel modello standard si possono schematizzare come dovute all’emissione o assorbimento di particelle mediatrici o portatrici di forza chiamate bosoni (dal fisico indiano Satyendra Bose) che costituiscono i ‘quanti’ di eccitazione del campo che descrive l’interazione.

In altre parole le forze a distanza, attraverso le quali le particelle interagiscono, possono essere spiegate mediante lo scambio di altre particelle che funzionano da mediatrici per l’interazione.

I bosoni sono il fotone per il campo elettromagnetico, i bosoni di gauge deboli (le teorie di gauge o di scala sono una particolare classe di teorie fisiche di campo) per l’interazione debole e i gluoni (da glue, colla in inglese) per l’interazione forte, il gravitone (finora solo ipotizzato in una teoria quantistica della gravitazione) per la gravità.

I bosoni hanno tutti un valore di spin intero: lo spin è una importante caratteristica rotazionale intrinseca, fissa e immutabile, di tutte le particelle materiali; la differenziazione delle famiglie di particelle con spin intero da quelle con valore semi-intero, che obbediscono a leggi statistiche diverse, permette infatti la comprensione di alcune caratteristiche distintive della materia.

Lo spin dei bosoni è eguale a uno, salvo per il gravitone per cui il valore sarebbe due.

A questi ‘mediatori’ va aggiunto, come vedremo in seguito, il bosone di Higgs, recentemente scoperto al CERN, con spin eguale a zero.

Il modello standard ha messo ordine nell’insieme di particelle ed antiparticelle (eguali ma con carica e momento magnetico opposti) che si andavano scoprendo nei raggi cosmici e mediante macchine acceleratrici sempre più potenti.

Questo insieme di particelle, molto più pesanti dell’elettrone, sembravano sfuggire ad una classificazione ordinata finché nel 1964 Murray Gell-Mann ipotizzò che molte di esse non fossero entità fondamentali, ma costituite da sottoentità che chiamò quarks, (Gell-Mann prese questo termine senza senso da un calembour presente nel libro che stava leggendo in quel momento, Finnegan’s Wake di Joyce).

I quarks hanno carica elettrica frazionaria rispetto a quella dell’elettrone e spin eguale a mezzo.

La conferma sperimentale indiretta del fatto che ad esempio i protoni contenessero oggetti puntiformi e non fossero quindi particelle elementari, si ebbe nel 1968 a Stanford mediante esperimenti di scattering anelastico ad alta energia.

La teoria del modello standard ha permesso di caratterizzare e classificare il mondo dei componenti ultimi della materia, cioè delle particelle elementari non ulteriormente divisibili.

Queste particelle ‘fondamentali’, prive di struttura interna, appartengono alla famiglia dei fermioni (dal fisico italiano Enrico Fermi), caratterizzati da spin semi-intero.

Si dividono in due ‘classi’: quarks e leptoni.

Ci sono sei tipi di quarks di cui due, quark up e quark down, sono i costituenti della materia ordinaria (protoni e neutroni); gli altri quattro sono molto più pesanti e molto instabili e la loro presenza può essere rivelata solo in collisioni ad altissima energia.

I quarks formano, oltre ai protoni ed ai neutroni, un altro zoo di particelle meno comuni, ma, a causa della specifica natura della forza forte che li lega, i quarks non possono mai essere osservati isolatamente.

I protoni ed i neutroni contengono tre quarks (ad esempio due up ed uno down per il protone) che sono i cosiddetti quarks di valenza, ma in realtà contengono un numero indefinito di coppie quarks ed antiquarks virtuali e di gluoni in un continuo processo di creazione ed annichilazione nel rispetto del principio di Heisenberg (vedi avanti).

I leptoni sono soggetti all’interazione debole e quindi, all’opposto dei quarks, possono essere rivelati separatamente.

Sono l’elettrone ed i mesoni µ e τ, molto più pesanti dell’elettrone, ed i tre tipi di neutrino (una particella priva o quasi di massa e priva di carica) a loro associati, cioè neutrino elettronico, muonico e tauonico. Riassumendo, la materia è costituita da fermioni e leptoni ed è tenuta insieme da forze trasmesse dai bosoni; se poniamo eguale a uno l’intensità dell’interazione forte, quella elettromagnetica sarà eguale a 0,01 ( 10¯² ), quella debole a 10¯⁷, cioè a un decimo di milionesimo.

I primi tentativi per trovare un formalismo matematico per una teoria quantistica relativistica, si concentrarono sull’elettromagnetismo e portarono all’elettrodinamica quantistica che è ad oggi considerata una delle teorie più precise mai descritte.

Ha permesso di confermare il fotone, il ‘portatore’ della forza elettromagnetica, come quanto di luce e spiegare le sue interazioni con ogni tipo di particella carica, dentro una formulazione matematica precisa ed esattamente predittiva.

Negli anni sessanta e settanta si affrontò lo studio di altre due interazioni fondamentali della natura, le già citate forza debole e forte, al fine di arrivare a teorie quantistiche che le descrivessero correttamente.

La forza debole e quella forte non ci sono familiari in quanto agiscono a livello subatomico e sono forze a cortissimo raggio a differenza della gravità e dell’elettromagnetismo che sono a raggio praticamente infinito.

La forza debole, tramite i bosoni di gauge deboli che hanno masse dell’ordine di cento volte la massa del protone, è responsabile del decadimento radioattivo, cioè un processo per cui alcuni nuclei atomici instabili emettono particelle subatomiche per raggiungere uno stato di equilibrio.

Se consideriamo il decadimento radioattivo beta, cioè con l’emissione finale di un elettrone, il processo che avviene all’interno del nucleo di un atomo, costituito da protoni con carica positiva e da neutroni con carica nulla, vede un neutrone che si trasforma in un protone, mutando un suo quark up in un quark down e acquisendo così una carica positiva, con l’emissione di un bosone.

Questo a sua volta decade in un elettrone, compensando la carica positiva formatasi, che verrà emesso insieme ad un neutrino, per ottemperare alla conservazione dell’energia.

Malgrado la loro diversità, alla fine degli anni settanta è stato possibile unificare teoricamente la forza elettromagnetica con la forza nucleare debole in un’unica forza chiamata elettrodebole.

La forza forte agisce a distanze infinitesime, dell’ordine del raggio del nucleo (10¯¹³ cm), e presiede alla incredibile saldezza interna degli adroni (particelle composte da quarks) del nucleo, cioè dei suoi protoni e neutroni, essendo una forza che aumenta progressivamente all’allontanarsi reciproco dei quarks che li costituiscono.

I suoi mediatori, responsabili dell’attrazione tra i quarks, sono i gluoni.

Come i fotoni sono associati alla carica elettrica, così i gluoni sono associati ad una carica detta di ‘colore’, con la differenza che i gluoni stessi possiedono la carica di colore, e quindi interagiscono fra loro, mentre i fotoni sono privi di carica.

Quarks e gluoni sono le uniche particelle fondamentali che hanno la carica di colore: la teoria che descrive le interazioni forti ha preso il nome di cromodinamica quantistica ed ha ricevuto moltissime conferme sperimentali.

La convivenza dei protoni e neutroni nel nucleo è assicurata da una forza che si manifesta mediante scambio continuo di mesoni π o pioni (composti da stati legati di quarks e antiquarks), tra i protoni e i neutroni, in modo da annullare le forze repulsive dovute allo stesso segno di carica elettrica dei protoni.

Il bosone di Higgs, già previsto teoricamente nel 1964 immaginando un campo che permea tutto l’universo e giustifichi la gerarchia delle masse nel modello standard, è stato scoperto nel 2013 al CERN a Ginevra.

Il bosone di Higgs era l’anello mancante per la convalida sperimentale del modello standard.

Questo modello si articola su alcune simmetrie di gauge che di per sé determinerebbero particelle prive di massa, ma Higgs intuì che si potessero avere masse non nulle purché queste entrassero in forma indiretta attraverso le interazioni con un campo universale.

Questo campo, detto oggi campo di Higgs, ha, come tutti i campi, i suoi mediatori, che sono i bosoni di Higgs.

Le previsioni del modello standard sono state puntualmente confermate con una precisione sempre più elevata, dagli esperimenti di questi ultimi trent’anni.

Il modello standard non è tuttavia una teoria ‘fondamentale’ nel senso che si regge su una ventina di costanti che sono state introdotte ‘ad hoc’ nel modello per riprodurre i dati ottenuti dalle misure sperimentali.

Se fossero diverse il modello reggerebbe egualmente, andando però ovviamente in disaccordo con gli esperimenti.

Capire perché le costanti hanno il valore che hanno e quindi perché l’universo si presenta come lo vediamo, implica il bisogno di andare oltre il modello standard formulando una nuova teoria che lo possa includere.

Come già accennato, nella formulazione quantistica delle forze manca all’appello la forza gravitazionale, per la quale una teoria quantistica soddisfacente non è stata finora trovata.

Fin dal diciassettesimo secolo il dibattito sulla natura corpuscolare o ondulatoria della luce era stato affrontato e discusso ad esempio da Newton, ma è solo nel novecento che, grazie alla meccanica quantistica, è stato dimostrato teoricamente e sperimentalmente che tutte le particelle posseggono, in un senso molto specifico, proprietà ondulatorie.

Questo fenomeno è stato verificato non solo per le particelle elementari ma anche per quelle composte come atomi e perfino molecole.

Ad esempio un fascio di elettroni subisce fenomeni di diffrazione esattamente come un fascio luminoso, ma cosa fossero queste onde associate a particelle materiali era alquanto oscuro.

La spiegazione fu proposta da Max Born: l’onda è una funzione (funzione d’onda) che descrive lo stato quantistico della particella e quindi anche la sua posizione; tale funzione, elevata al quadrato, dà la probabilità di trovare la particella in quella data posizione.

L’onda della funzione d’onda si comporta qualitativamente come una normale onda tuttavia non è un’onda nello spazio fisico, è un’onda in un astratto ‘spazio’ matematico.

Qui inizia la divaricazione dalla meccanica classica dove ogni cosa è individuabile nello spazio e nel tempo in modo esatto e deterministico, mentre nel mondo microscopico si può parlare solo in termini di probabilità con riferimento a misure di posizione.

Non si può assegnare una traiettoria definita ad una particella: noto il suo stato nel punto di partenza si può conoscere solo la probabilità che venga rivelata in una dato punto, calcolata mediante la funzione d’onda.

Viene messo in crisi il principio di causalità tradizionale: è solo mediante il processo di misura che si determinano le proprietà individuali di un sistema microscopico.

Einstein non accetterà mai fino in fondo questa visione, borbottando “però Dio non gioca ai dadi” ma i fatti, in questo caso, gli daranno torto.

Con le relazioni di indeterminazione introdotte da Heisenberg nel 1927 secondo cui certe coppie di parametri fisici, ad esempio la posizione di una particella e il suo momento (il prodotto della sua massa per la sua velocità) oppure l’istante temporale e l’energia, non sono definibili simultaneamente oltre un certo limite di accuratezza, si completa la rottura con la fisica classica.

In pratica il prodotto delle indeterminazioni Δ dei due elementi della coppia è sempre maggiore della costante h di Planck divisa per .

In formula si ha, ad esempio per il tempo e l’energia, la seguente relazione: ΔE x Δt ≥ h/2π, il che significa che quanto maggiormente è accurata la misura del tempo (cioè un Δt molto piccolo) tanto più imprecisa risulterà quella dell’energia (un ΔE elevato) e viceversa, dovendo il loro prodotto soddisfare la relazione di indeterminazione, cioè essere comunque dell’ordine di h/2π.

Ad esempio tanto più è accurata la misura del tempo di passaggio di un fotone in un dispositivo sperimentale, tanto più sarà approssimata la determinazione della sua energia.

Occorre chiarire che ciò non è dovuto ad una insufficiente capacità di eseguire misure accuratissime, ma è una proprietà fondamentale ed intrinseca della natura, un limite che è stato svelato dalla fisica quantistica.

Le relazioni di indeterminazione rivelano una delle caratteristiche fondamentali della meccanica quantistica: si verifica una vera svolta epistemologica in quanto si sostituisce alla nozione classica di ‘certezza’, relativa agli oggetti macroscopici, quella di ‘probabilità’ relativamente ai risultati di misure di enti quantistici.

Il fatto che si dica abitualmente che un dato oggetto possegga una posizione ed una velocità o quantità di moto ben definiti oppure che abbia un’energia definita in ogni istante dipende dal valore di h che è talmente piccolo che i fenomeni di indeterminazione possono essere totalmente trascurati a scale macroscopiche alle quali i modelli spazio-temporali tradizionali restano validi.

Un’altra conseguenza quantistica importante del principio d’indeterminazione è la possibilità di creazione dal nulla di piccole quantità di energia a condizione che scompaiano in un tempo brevissimo, cioè che il prodotto dell’energia e del tempo di vita rispetti la relazione di Heisenberg.

Questa energia può generare delle fluttuazioni quantistiche, ad esempio la creazione di una coppia elettrone-positrone (elettrone con carica negativa), con due condizioni: la prima che le particelle devono scomparire annichilandosi entro il tempo Δt e poi che materia ed antimateria devono essere create in quantità eguali ed opposte, in modo da non cambiare la quantità complessiva di materia nell’universo (si ritiene che il numero dei fermioni nell’universo sia rimasto costante dal big bang in poi).

Ne consegue che il principio di indeterminazione implica che perfino lo spazio completamente vuoto sia brulicante di particelle ed antiparticelle che nascono e scompaiono in un tempo brevissimo, senza violare il principio di conservazione dell’energia.

Un altro dei grandi problemi aperti della fisica contemporanea è l’incompatibilità tra relatività generale, valida a scale grandi come quelle astronomiche e per grandi masse, e la meccanica quantistica valida a scale ultramicroscopiche per particelle come gli elettroni, i protoni etc.

Il modello geometrico dello spazio-tempo, base della relatività generale, dove lo spazio-tempo è continuo e tutto ciò che vi avviene è determinabile a partire dalle equazioni della relatività generale, perderebbe significato alla scala subatomica a causa delle fluttuazioni quantistiche. Bisogna considerare che questo effetto per cui lo spazio-tempo assumerebbe una forma discontinua, si manifesterebbe a dimensioni della cosiddetta lunghezza di Planck equivalente, in metri, a 10¯³⁵, una lunghezza infinitesima; resta però il fatto che l’impossibilità di armonizzare in un’unica formulazione le due grandi leggi della natura, relatività generale e teoria quantistica, sia un vulnus nella interpretazione delle leggi dell’universo.

Di questo si era accorto, nei tardi anni trenta, un giovanissimo e geniale fisico russo, Matvei Bronštein, che Stalin fece condannare a morte, non ancora trentaduenne, per deviazionismo.

Occorre precisare che il mondo subatomico, governato dalla teoria dei quanti, non è influenzato dalla gravità perché la sua forza è trascurabile rispetto alle altre forze, e viceversa in cosmologia, dove le dimensioni sono enormi, si possono ignorare quasi completamente i fenomeni quantistici.

Negli anni settanta si è andata sviluppando la teoria delle stringhe secondo cui le varie particelle elementari sarebbero assimilate a delle minuscole corde unidimensionali vibranti, con dimensioni dell’ordine della lunghezza di Planck.

Le stringhe, a differenza delle varie particelle (elettrone, neutrino etc) sarebbero tutte eguali, cambierebbe solo il loro modo di vibrare e sarebbero proprio queste diverse vibrazioni risonanti ‘suonate’ da un unico tipo di stringa a caratterizzare una data particella: ogni possibile particella ed ogni mediatrice di forza è data da una particolare vibrazione della stringa.

La teoria delle stringhe è consistente con la descrizione della meccanica quantistica ed inoltre uno tra i modi di vibrazione possibile delle stringhe ha le proprietà del gravitone, il mediatore della forza di gravità, che pertanto verrebbe a far parte della loro struttura.

La teoria, che sembrava molto promettente per la possibilità di conciliare relatività e fisica quantistica e quindi arrivare ad una teoria del ‘tutto’ in grado di descrivere le quattro forze fondamentali e tutte le particelle, è stata sviluppata ed estesa negli ultimi decenni del secolo scorso, superando difficoltà matematiche e concettuali enormi.

Si è passati dalle sottili stringhe a undici dimensioni a concepire nuovi oggetti, superfici chiamate ‘branes’ ma senza arrivare, anche con la più recente teoria delle superstringhe o ‘M theory’ a soluzioni definitive, tanto che alcuni detrattori definiscono la teoria un “fascinating mind game”.

Negli ultimi decenni del secolo scorso si è sviluppata anche la ‘Loop Quantum Gravity’ proposta come teoria della gravità quantistica e quindi dello spaziotempo, dove lo spazio è quantizzato, cioè presenterebbe una struttura granulare alle dimensioni della lunghezza di Planck, ma questa teoria, come quella delle stringhe ed altre, non ha finora prodotto predizioni univoche tali da potere essere sottoposte a verifica sperimentale e quindi, secondo l’insegnamento galileiano, comprovate o invalidate.

Ma a cosa servono nella vita pratica di ogni giorno relatività e meccanica quantistica?

Correzioni per gli effetti della relatività sono presenti nel software dei GPS per realizzare precisioni dell’ordine del metro o superiori, e la fisica quantistica è usata in un numero sterminato di applicazioni, dai laser, ai CD, ai DVD, alle fibre ottiche, fotocamere digitali etc.; si stima che circa il venticinque per cento del PIL dei paesi tecnologicamente sviluppati si basi proprio sulla nuova fisica del novecento.

La meccanica quantistica è sotto molti aspetti controintuitiva, sia per l’indeterminismo che per altri aspetti qui non descritti come la non località ed un fenomeno ad essa connesso che sta ad esempio alla base del teletrasporto, cioè l’‘entanglement’ (intreccio o correlazione).

Questo termine indica il fatto che lo stato quantico di ogni costituente un sistema quantistico dipende istantaneamente e senza alcuna mediazione dallo stato degli altri costituenti a qualunque distanza si trovino.

Per questo ed altri motivi la teoria contiene ancora problemi aperti anche a livello epistemologico: è nota la frase di Richard Feynman, padre dell’elettrodinamica quantistica ed uno dei più geniali fisici del secolo scorso, “posso affermare con certezza che nessuno capisce la meccanica quantistica”.

 

Dove va la fisica

Dopo questa rapida rassegna sullo sviluppo della fisica, passiamo a considerare alcuni dei temi principali irrisolti, originati in gran parte da misure ed indagini nel campo della astrofisica e della cosmologia, su cui la ricerca sta orientando oggi gli sforzi maggiori.

Chiaramente la prima domanda che ci si pone e che ha implicazioni che superano il mondo della fisica, è quella concernente la nascita dell’universo.

Già nel 1929 l’astronomo americano Edwin Hubble aveva dimostrato che l’universo si espande, contrariamente al modello dell’universo statico di Newton e dello stesso Einstein, che cambierà parere introducendo nella sua teoria della relatività generale una costante cosmologica per tenere conto di questo effetto.

Le galassie si stanno allontanando l’una dall’altra, e questo vale per qualsiasi punto dell’universo.

In altre parole è lo spazio che le separa che si espande, come confermato con grande accuratezza dalle recenti misure con l’Hubble Space Telescope ed altre osservazioni satellitari.

Ne segue che se riavvolgessimo all’inverso il film della storia del cosmo, vedremmo una progressiva diminuzione dello spazio fino ad arrivare al suo annullamento, con un corrispondente aumento illimitato della densità di materia.

Questa ‘singolarità’, che non è legata ad un punto particolare dell’universo perché lo spazio non esiste più, ed è connotabile solo da un istante temporale di ‘inizio’, viene indicata col nome di ‘Big Bang’.

Le stime più recenti indicano la data di nascita dell’universo all’incirca a tredici virgola otto miliardi di anni fa.

La relatività generale ed il modello Standard hanno permesso di formulare un modello dell’evoluzione dell’universo a partire da 10¯¹² secondi (un millesimo di miliardesimo di secondo) dal tempo zero dove, secondo la relatività generale, la densità di materia con la relativa curvatura dello spazio e la temperatura diverrebbero infinite.

Un risultato privo di significato che dice che la teoria per quelle particolari condizioni non è più valida; forse una teoria sostitutiva potrebbe essere la gravità quantistica su cui attualmente si sta lavorando.

Alcuni problemi nati intorno agli anni ottanta del secolo scorso relativi alla ‘piattezza’ dell’universo ( legata alla evoluzione della sua densità di materia ed energia che determinano la curvatura dello spazio-tempo) ed alla sua omogeneità, uniformità ed isotropia, portarono all’ipotesi di un universo inflazionario che spiegherebbe le evidenze sopracitate.

Secondo la teoria dell’inflazione l’universo, dopo 10¯³⁵ secondi dal Big Bang, si sarebbe espanso da una dimensione di 3 x 10¯²⁵ cm ad una dimensione gigantesca di 3 x 10²⁷ cm in un tempo incredibilmente breve, una frazione infinitesima di secondo: infatti al tempo di 10¯³³ secondi l’inflazione sarebbe già terminata.

L’espansione sarebbe avvenuta ad una velocità superiore a quella della luce c ( ricordiamo che c è la velocità limite per la trasmissione di energia ed informazione nello spazio-tempo, ma non lo è per lo spazio-tempo stesso).

Terminato il brevissimo periodo inflattivo l’espansione dell’universo sarebbe proseguita alla velocità determinabile tramite la legge di Hubble che correla la velocità di allontanamento v di un oggetto cosmico con la sua distanza r dal punto di osservazione, mediante la costante H di Hubble: v = H x r.

Quale sia stato il meccanismo fisico che ha scatenato l’inflazione non è noto, resta il fatto che, con varie modifiche, questa teoria è quella considerata oggi la più attendibile, anche se molti fisici non la condividono.

Questo è il motivo per cui si parla oggi della teoria dell’inflazione come un problema aperto e suscettibile di altre soluzioni, inclusa la possibilità che la teoria stessa non sia necessaria.

Un altro problema connesso con quello del Big Bang riguarda cosa ci fosse prima che il Big Bang scatenasse la creazione dell’universo, anche se scienziati come Stephen Hawking sostengono con argomentati ragionamenti, che il Big Bang abbia segnato l’inizio dell’universo e del tempo, e quindi che un “prima” non esista.

Qui però si rischia di uscire dal mondo della fisica, cioè di fenomeni che sono testabili mediante osservazioni sperimentali; si corre il rischio che la fisica ‘teorica’ diventi, nelle parole del grande matematico George Ellis in un articolo sulla rivista ‘Nature’ del 16 Dicembre scorso, “a no-man’s-land between mathematics, physics and philosophy that does not truly meet the requirements of any”.

Uno dei grandi problemi irrisolti della fisica è quello della disparità tra materia ed antimateria.

L’antimateria ha le medesime proprietà della materia che costituisce i pianeti, le stelle e le galassie, ma con carica elettrica opposta.

Ad esempio l’elettrone, con carica negativa, ha nell’elettrone positivo o positrone, la sua antiparticella.

Se queste particelle si incontrano, si annichilano generando energia sotto forma di fotoni e neutrini.

Il positrone fu scoperto ‘a tavolino’ nel 1928 dal grande fisico-matematico inglese P.A.M.Dirac: studiando l’equazione, poi chiamata ‘Dirac equation’, che unificava relatività ristretta, meccanica quantistica e l’allora nuovo concetto di spin per l’elettrone, Dirac si accorse che i suoi calcoli portavano a due soluzioni egualmente valide, una rappresentava l’elettrone che conosciamo, l’altra una particella identica ma con carica opposta, il positrone, che sarà scoperto sperimentalmente nei raggi cosmici quattro anni dopo.

Si suppone che l’universo sia iniziato con eguali quantità di materia e di antimateria, ma per qualche motivo la materia ha avuto rapidamente il sopravvento.

Subito dopo il Big Bang gran parte di entrambe le forme di materia si sarà annichilata, lasciando un piccolo surplus di materia ordinaria.

Perché?

Gli scienziati stanno studiando alcuni processi chiamati violazione CP cioè violazione della simmetria nello scambio di particelle con le rispettive antiparticelle (coniugazione di carica) e contemporaneamente della parità ( il cambio di segno delle coordinate spaziali) per cui le particelle tenderebbero a decadere in particelle di materia e non di antimateria.

Casi di violazione CP sono stati rilevati nel caso di mesoni e di quark pesanti, ma non appaiono sufficienti a spiegare l’enorme asimmetria materia-antimateria primordiale.

Altro tema è quello riguardanti le onde gravitazionali.

Nel 1965 Arno Penzias e Robert Wilson avevano registrato, mediante un radiometro destinato a misure di radioastronomia ed esperimenti di comunicazione satellitare, una radiazione elettromagnetica persistente nel campo delle microonde con un massimo ad una lunghezza d’onda di uno virgola nove millimetri, che proveniva in eguale misura per qualsiasi orientazione dello strumento.

Avevano scoperto, in modo del tutto casuale (pensavano all’inizio ad un disturbo della strumentazione) la radiazione cosmica di fondo CMB (Cosmic Microwave Background).

La CMB riempie tutto l’universo ed è dovuta alla radiazione elettromagnetica termica propria della teoria del Big Bang, che descrive la nascita dell’universo circa tredici virgola sette miliardi di anni fa.

In realtà questa radiazione ‘fossile’ risale a circa trecentottantamila anni dopo il Big Bang, quando la luce, i fotoni, hanno potuto trapassare il denso plasma iniziale e la temperatura era andata diminuendo per il raffreddamento progressivo dell’universo causato dalla sua espansione.

Usando i dati ottenuti con strumenti di altissima precisione montati su satellite, in particolare quelli registrati ultimamente dal satellite Planck dal 2009 al 2013 a uno virgola cinque milioni di km dalla Terra, è stato possibile tracciare una mappatura della CMB; sono apparse delle piccolissime disomogeneità che vengono interpretate come il riflesso delle fluttuazioni di temperatura e densità dell’universo primordiale.

Da tali disomogeneità si sarebbero poi originati i circa duecento miliardi di galassie e gli ammassi stellari presenti nell’universo osservabile.

Sulla base della relatività generale, dovrebbe esistere anche una radiazione di fondo gravitazionale, dovuta alla perturbazione dello spazio-tempo causata da masse accelerate, che permetterebbe di risalire ancora più indietro nel tempo in quanto le onde gravitazionali avrebbero sofferto molto meno di quelle elettromagnetiche per l’opacità iniziale dell’universo.

Queste onde non sono state ancora osservate, ma ci sono già e sono operativi complessi rivelatori a terra ed altri, da montare su satelliti, sono in fase di progetto, per arrivare a registrare segnali gravitazionali provenienti dalla nascita dell’universo oltre che da altri fenomeni fisici legati ad esempio a sistemi binari delle densissime stelle di neutroni e di buchi neri.

L’astrofisica ha offerto alla fisica un altro tema appassionante, quello della materia oscura e dell’energia oscura: sappiamo che dovrebbero esistere nell’universo non perché siano state rivelate direttamente, ma perché hanno effetti che ne fanno supporre l’esistenza.

Nei primi anni novanta si pensava che prima o poi l’espansione dell’universo sarebbe rallentata per gli effetti gravitazionali, ma nel 1998 le misure satellitari compiute con l’Hubble Space Telescope su alcune supernove lontanissime, hanno mostrato che molto tempo fa l’universo si espandeva più lentamente di adesso, cioè che c’è una accelerazione nella crescita del cosmo.

La cosa ha stupito il mondo della scienza, e sono state azzardate varie ipotesi.

La più affidabile è quella della energia oscura, una energia che pervade tutto l’universo: essa costituirebbe il sessantotto per cento dell’energia dell’universo, come calcolato dalla sua velocità di espansione.

Potrebbe essere una proprietà dello spazio-tempo, oppure essere un nuovo genere di energia dinamica o campo i cui effetti sono opposti a quelli della normale materia e quindi della gravità, nel senso che agisce repulsivamente nei confronti delle masse.

Ma cosa sia l’energia oscura e con cosa interagisca è ignoto.

Nuove misure, nuovi dati sono necessari per chiarire questo affascinante mistero.

C’è poi la materia oscura così chiamata in quanto si manifesta soltanto attraverso i suoi effetti gravitazionali non essendo osservabile perché non emette, assorbe o riflette la radiazione elettromagnetica.

L’astronomo svizzero Fritz Zwicky nel 1933 ne aveva ipotizzato l’esistenza a seguito di osservazioni che aveva compiuto su ammassi di galassie lontani.

Negli anni settanta le sue ricerche furono riprese e la presenza della materia oscura è stata dimostrata ad esempio sulla base di discrepanze nelle curve di rotazione delle stelle nelle galassie ed ultimamente, nel 2008, anche da misure col telescopio di Mauna Kea, nelle Hawai.

I dati raccolti hanno mostrato che la radiazione elettromagnetica proveniente dallo spazio cosmico veniva deviata anche in zone dove non era visibile alcun oggetto stellare, ma dove chiaramente doveva esistere una massa importante per provocare l’effetto registrato di curvatura dello spazio.

Anche in questo caso le varie spiegazioni proposte sono insoddisfacenti e vanno comunque cercate oltre il modello Standard delle particelle elementari.

Si pensa che la massa oscura (dark mass) potrebbe essere costituita da ipotetiche particelle esotiche oggi sconosciute chiamate axions oppure da wimps (weakly interacting massive particles) che dovrebbero essere rivelate indirettamente osservando i prodotti di decadimento dovuti a interazione fra loro stesse o con particelle ordinarie.

Finora però non c’è evidenza di queste particelle. Riassumendo: la massa oscura contribuirebbe per il ventisette per cento alla massa dell’universo, circa sei volte di più di quella normale che vale il cinque per cento, il restante sessantotto per cento sarebbe appannaggio, come già detto, dell’energia oscura.

Un’altra teoria fisica che potrebbe superare il modello standard, peraltro inclusa nella teoria delle stringhe, è stata proposta negli anni settanta del secolo scorso, chiamata Supersimmetria o SUSY (SUperSYmmetry).

Per ogni particella del modello standard esisterebbe una particella simmetrica identica eccetto per il valore dello spin.

Accanto alle particelle esistenti, i fermioni che sono i costituenti della materia, ci sarebbero le particelle supersimmetriche o superpartners con spin che differisce di più o meno mezzo rispetto alle particelle ordinarie.

Con la supersimmetria ogni fermione avrebbe così un bosone gemello e viceversa.

Questa teoria porterebbe a risolvere alcuni fondamentali interrogativi del modello standard come spiegare i rapporti di massa fra le varie particelle, ed anche altri aspetti della fisica delle particelle come ad esempio che ci siano tre tipi di leptoni di cui due con la stessa carica ma più pesanti dell’elettrone.

Inoltre prevede che l’universo sia riempito di particelle superpartners che forse potrebbero aiutare a risolvere il mistero della materia oscura.

Purtroppo dalle recenti misure con l’acceleratore LHC del CERN non si è trovata nessuna particella col valore di massa e spin calcolata dalla supersimmetria; potrebbero esistere ad una scala di energia maggiore non ancora raggiunta dagli acceleratori esistenti ( si parla in futuro di aumentare la potenza del LHC costruendo un anello acceleratore di cento km di diametro rispetto ai ventisette di quello attuale), ma al presente, senza una conferma sperimentale, la teoria resta un’ipotesi.

Ma se la supersimmetria non è la corretta descrizione della natura un altra ipotesi è stata formulata, quella del multiverso.

A seguito del Big Bang potrebbero essersi germinati molti universi con caratteristiche differenti tra loro, che non sono visibili.

Il multiverso comprende un ipotetico numero, finito o infinito, di universi paralleli.

Il nostro sarebbe uno dei tanti che si sono generati ed i valori dei parametri delle particelle che lo costituiscono (massa, carica elettrica, spin etc) sarebbero diversi da quelli di un altro universo.

Accidentalmente il nostro ha dei valori delle costanti fondamentali che permettono l’esistenza del mondo e della vita come li conosciamo: se questi valori fossero anche di poco diversi, un universo come il nostro non potrebbe esistere.

Ad esempio se l’energia oscura fosse stata più forte dopo la nascita dell’universo, lo spazio si sarebbe esteso troppo velocemente per permettere la formazione delle stelle e delle galassie, viceversa se fosse stata inferiore l’universo sarebbe collassato su se stesso a causa della gravità.

Ma in realtà non sappiamo la vera ragione per cui l’universo è così esattamente bilanciato da regalarci il mondo in cui viviamo.

La teoria del multiverso è molto dibattuta ma per il momento rimane un puro esercizio mentale.

Come abbiamo visto in precedenza, i quarks up e down ed i leptoni sono le uniche particelle necessarie per formare la materia stabile dell’universo.

Ma queste particelle hanno tanti ‘parenti’ molto più pesanti ed a vita breve come ad esempio il quark bottom, il più pesante della famiglia, con massa circa duemila volte maggiore del quark up ed il mesone τ con massa circa quattromila volte quella dell’elettrone.

Non è chiaro perché esistono queste particelle con quelle caratteristiche; ciò ha scatenato la fantasia dei fisici e ci si è chiesti se non potessero esserci degli ipotetici costituenti ancora più piccoli ed elementari dei quarks, chiamati preoni, che potrebbero formare i quarks e tutte le altre particelle.

Al momento, analizzando gli ultimi dati dell’LHC, non si è trovato evidenza dei preoni, ma studi e nuove misure sono programmate a breve termine.

Tuttavia ricordiamo che la fisica è una scienza sperimentale e se le misurazioni non confermeranno le previsioni, la teoria è sbagliata.

Galilei ricordava che “la esperienza non falla mai”.

Come si è visto in questa succinta rassegna, la fisica ha davanti a sé ancora molti misteri da affrontare e tentare di risolvere.

Le osservazioni astrofisiche con satelliti stanno esplorando il cosmo come si presentava in epoche sempre più remote e con dettagli sempre più accurati; i prossimi risultati dell’LHC ci daranno probabilmente nuove informazioni sulla struttura della materia a scale di energia maggiori di ogni altra sperimentazione precedente.

Nel loro insieme questi sforzi ci aiuteranno a decifrare ulteriormente l’universo, a leggere il linguaggio in cui è stato scritto.

Tuttavia, anche se le teorie che abbiamo presentato spiegano il mondo in termini di quarks, elettroni, mesoni, fotoni e campi quantistici, esse non ci dicono (né potrebbero mai farlo) cosa sia in realtà un fotone o un quark limitandosi a spiegare a cosa servono e come funzionano nello schema complessivo delle teorie scientifiche.

Acquisire un quadro più profondo della realtà richiederebbe una difficile complementarità tra fisica e filosofia, dove quest’ultima potrebbe fornire un’ontologia del mondo materiale suggerendo spiegazioni su alcune questioni fondamentali come il significato dello spazio e del tempo e la creazione stessa dell’universo.

Occorre uno scatto di immaginazione perché, come diceva Einstein “Imagination is more important than knowledge”.

Francesco Cappellani