IInizio | Cap. 1 | Cap. 2 Cap. 3 | Cap. 4 | Cap. 5 | Cap. 6 | Cap..7 | Cap. 9 | Esercizi

I metalli e il gas di elettroni

"La sanità di mente, in sostanza, non è altro che la capacità di vivere in armonia con le leggi naturali."

Freeman Dyson

.

8.1  La molecola risonante

Il discorso sui legami chimici non è ancora terminato; anzi, si può dire che la parte più importante cominci ora. Siamo però costretti a prenderla alla larga, cominciando con una molecola che apparentemente non c'entra nulla con il discorso che vogliamo portare avanti in questo capitolo: quella del benzene (C6H6), un idrocarburo aromatico incolore altamente infiammabile, dall'odore caratteristico, scoperto nel 1825 dal grande Michael Faraday, che lo isolò dal petrolio. Oggi sappiamo che purtroppo ha effetti terribilmente cancerogeni.

Come costruire la sua molecola? Le verifiche sperimentali hanno dimostrato che i sei atomi di carbonio del benzene sono disposti ai vertici di un esagono regolare. Ricordando che il carbonio ha valenza quattro dopo che i quattro elettroni 2s e 2p si sono disposti tutti con gli spin paralleli, posso pensare che ciascun atomo di carbonio abbia i suoi orbitali più esterni ibridizzati di tipo sp2; in altre parole, l'orbitale 2s e due orbitali 2p danno vita a tre orbitali lobati separati di 120° l'uno dall'altro, mentre il terzo orbitale 2p resta ortogonale al loro piano. Se disponiamo gli atomi di carbonio e di idrogeno come in figura sottostante, la forma della molecola di benzene sembra perfettamente spiegata.

_____

Tuttavia, come si legano tra di loro gli orbitali 2p rimanenti e non ibridizzati? Come si vede, essi possono dare vita ad orbitali di tipo π in due modi possibili, alternati l'uno con l'altro. Entrambe le strutture proposte, però, sono in contrasto con l'esperienza. Infatti gli atomi di carbonio legati con doppio legame sono più vicini tra di loro di quelli legati con legame semplice, come si può dimostrare, e quindi l'esagono dovrebbe essere irregolare, come si vede qui sopra a destra. Per superare la contraddizione tra le strutture irregolari previste e quella regolare osservata, nel 1865 il chimico tedesco Friedrich August Kekulé von Stradonitz (1829-1896) propose che i legami di tipo π ortogonali al piano della molecola si rompano in continuazione, ricostituendosi immediatamente dalla parte opposta. Praticamente, se indichiamo i sei atomi di carbonio con i numeri 1, 2, 3, 4, 5 e 6, ad un dato istante si formeranno i legami 1–2, 3–4 e 5–6; all'istante successivo, rotti questi, si formeranno i legami 2–3, 4–5 e 6–1; successivamente si riformeranno i legami precedenti; e così via. In questo modo, in media l'esagono assumerebbe una forma regolare, perchè i legami doppi e semplici si alternerebbero di continuo con ritmo periodico nel tempo.

Tale stravagante teoria prevede comunque, per la molecola di benzene, una simmetria per rotazione di 120°; invece, l'osservazione sperimentale mostra che la molecola incriminata ha una simmetria per rotazione di 60°. In altre parole, non c'è posto per il legame π. Per almeno cinquant'anni questo fatto costituì un inestricabile mistero. Ma, come si sa, il progresso scientifico è costituito proprio dalla successiva soluzione di misteri apparentemente insolubili. In questo caso, la risposta fu data proprio dalla Meccanica Quantistica. Già nel 1926 Wernher Heisenberg, una nostra vecchia conoscenza, avanzò l'ipotesi che la reale configurazione elettronica del benzolo fosse una combinazione lineare delle due proposte da Kekulé, e diede a questo fenomeno il nome di risonanza.

Ben presto si scoprì che questo fatto è generale. In molti casi, quando una molecola può essere descritta da più configurazioni differenti, quella reale è risonante tra tutte queste, cioè risulta da una loro combinazione lineare. Il caso più semplice è quello rappresentato dalla molecola di anidride carbonica (CO2). Il modo più comune per descriverla consiste nel supporre un'ibridizzazione di tipo sp, che dà alla molecola una forma lineare come quella dell'acetilene vista nel § 7.7, ma che lascia liberi due orbitali 2p, i quali danno vita a due legami di tipo π, ortogonalmente all'asse della molecola. Il legame tra C ed O è dunque doppio:

Sperimentalmente, però, la distanza media tra O e C misura 1,16 Å, ed è un po' più piccola del valore calcolato per il legame doppio C = O, che dovrebbe essere pari a 1,22 Å, ma un po' maggiore di quello calcolato per il legame triplo C ≡ O, paria 1,12 Å. Dunque, in realtà, il legame non sembra né doppio né triplo. La soluzione la si trova osservando che la molecola di CO2 si può costruire anche supponendo che il carbonio formi due legami con uno dei due ossigeni tramite orbitali molecolari, e prenda pure uno dei suoi lone pair (§ 7.8), mentre ne cede uno egli stesso all'altro ossigeno, come schematizzato nella figura sottostante:

Naturalmente, i due atomi di ossigeno sono identici tra di loro, quindi posso avere anche la configurazione simmetrica:

(abbiamo indicato i lone pairs non coinvolti nel legame). Queste due ulteriori configurazioni sono polari, mentre la configurazione O = C = O è non polare. Appare perciò logico che la reale configurazione della CO2 sia una combinazione lineare delle tre sopra proposte, come avviene regolarmente nella Meccanica Quantistica. Si ottiene così una previsione per il valore della distanza  assai prossima a quello ottenuto sperimentalmente.

Naturalmente il legame reale all'interno della CO2 non è nessuno dei tre sopra proposti, ma presenta contemporaneamente le proprietà di tutti e tre; per usare un interessante paragone coniato dal chimico americano George Willard Wheland (1907-1962), il mulo presenta contemporaneamente alcune caratteristiche dell'asino e alcune del cavallo, ma non è vero che in lui vi è una parte di solo asino e una di solo cavallo, né egli è per un certo tempo solo asino e per un certo tempo solo cavallo. Per questo, si può affermare che il mulo è una forma di risonanza fra l'asino e il cavallo. La stessa cosa capita al benzene, che risuona tra le due strutture rappresentate qui sopra e anche fra altre, il cui peso nella combinazione lineare è però trascurabile. Ma com'è che appare realmente la distribuzione di densità elettronica ortogonalmente al piano della molecola? Per arrivarci, il modo più semplice è l'applicazione del vecchio metodo della combinazione lineare degli orbitali atomici (LCAO), vista nel § 7.4. Noi sappiamo che la prima situazione comporta un legame tra gli orbitali degli atomi di carbonio 1 e 2, uno tra quelli 3 e 4, uno tra quelli 5 e 6. Determinare l'orbitale molecolare significa combinare linearmente gli orbitali 2pz di questi atomi, supponendo l'asse z normale al piano molecolare. Nel secondo caso, invece, dovremo combinare linearmente gli orbitali degli atomi 2 e 3, 4 e 5, 1 e 6.

Il risultato di una combinazione lineare tra queste due situazioni è, come si intuisce, una combinazione lineare con pesi opportuni di tutti gli orbitali 2pz dei sei atomi di carbonio. Detti cj questi pesi, con j = 1, 2, ..., 6, si potrà scrivere la funzione d'onda risultante nella forma:

          (8.1)

Occorre calcolare i coefficienti . Allo scopo, ricordiamoci che le osservazioni sperimentali indicano per la molecola di  una simmetria per una rotazione di 60°. Se cioè ruotiamo la molecola di 60° attorno al suo centro, troveremo che la funzione d'onda rimane inalterata. Ora, si può dimostrare che l'operatore "rotazione di 60° attorno al centro della molecola è rappresentato dal fattore moltiplicativo:

con n = 0, 1, 2, ..., 5. Indicando la funzione d'onda ruotata di π/6 con la scrittura Ψ60°, si ha:

   Ψ60° = Ψ e2 i n π/6          (8.2)

Ma, se la molecola è ruotata di 60°, l'atomo 2 prende il posto di 1, il 3 di 2, e così via, in modo che le funzioni d'onda debbano trasformarsi le une nelle altre nel modo che segue:

( 2pz )1 → ( 2pz )2

( 2pz )2 → ( 2pz )3

.........

( 2pz )6 → ( 2pz )6

E quindi, per la (8.1) e la (8.2):

c1 ( 2pz )1 + c2 ( 2pz )2 + ... + c6 ( 2pz )6 =

= e2 i n π/6 { c6 ( 2pz )6 + c1 ( 2pz )1 + ... + c5 ( 2pz )5 }

Ma le funzioni d'onda (2pz)j sono linearmente indipendenti tra loro, dunque questa è valida solo se:

c1 = c2 e2 i n π/6

c2 = c3 e2 i n π/6

.........

c6 = c1 e2 i n π/6

Sostituendole l'una nell'altra si trova:

c6 = e2 i n • 6 π/6

E, risolvendo più in generale:

cj = e2 i n j π/6          (8.3)

Con questa espressione, i coefficienti della (8.1) sono determinati a meno di un coefficiente di normalizzazione:

Il risultato è piuttosto sorprendente. Se infatti costruiamo esplicitamente la funzione d'onda, ci accorgiamo che essa ingloba tutti e sei i nuclei di carbonio del benzene! L'orbitale infatti è costituito da due nubi di carica negativa, come si vede in figura sottostante, una al di sopra e una al di sotto del piano della molecola, entrambe a forma di anello:

Gli orbitali 2pz che occupano questo orbitale benzenico possono perciò scorrere lungo tutta la molecola! Del resto, i fattori cj ora calcolati non rappresentano altro che dei fattori di fase, i quali indicano che l'orbitale ha l'aspetto di un'onda stazionaria lungo il perimetro dell'esagono del benzene. La cosa è estremamente importante, perché significa che gli elettroni 2pz del benzene non sono localizzati su di un preciso atomo di carbonio o su una precisa coppia di essi, come imporrebbe la logica del legame covalente. Si parla perciò di elettroni delocalizzati, e questo particolare tipo di legame è detto legame delocalizzato.

In realtà non si tratta di un nuovo tipo di legame, bensì di una conseguenza diretta dell'applicazione dei principi della Meccanica Quantistica al legame covalente. Tuttavia, la tentazione di trattarla come una nuova realtà fisica è forte, così come i paleontologi, appena recuperano un nuovo ossicino, in genere sono rapidi nell'attribuirlo a una nuova specie, cui magari assegnare il proprio nome. Comunque sia, questo tipo di legame merita almeno un simbolo tutto suo: per indicarlo, nella formula di struttura della molecola si introduce un ovale all'interno dell'esagono, come si vede qui sotto. Per la prima volta infatti scopriamo di avere a che fare con un orbitale che ingloba più di due atomi, e almeno di questa novità dobbiamo dargli atto!

.

8.2  Banda di valenza e banda di conduzione

Naturalmente i miei lettori più attenti avranno colto una contraddizione in quanto si è detto finora. Gli elettroni 2pz sono sei, tanti quanti gli atomi di carbonio, mentre noi abbiamo parlato di un solo orbitale: è ovvio che esso non può accogliere tutti e sei gli elettroni, per via del Principio di Esclusione di Pauli, che continua a valere anche per i legami più strambi che ci vengono in mente, giacché continuano a valere i postulati della Meccanica Quantistica, cioè quelle "Tavole della Legge" con cui tutta la Fisica Atomica e Molecolare può essere costruita. Allora noi dobbiamo per forza avere a che fare almeno con tre orbitali. Se però ricordiamo i risultati ottenuti per il legame ione-idrogeno e per il legame idrogeno, con due nuclei (e quindi due orbitali atomici di partenza) si arrivava a due orbitali molecolari: uno legante ed uno antilegante. Sembra naturale che anche nel benzene debba accadere la stessa cosa; infatti il numero j presente nella (8.3) si può interpretare come un numero quantico che etichetta le soluzioni dell'Equazione di Schrödinger della molecola di benzene. Poiché j va da 0 a 5, avremo sei soluzioni, e quindi sei orbitali, di cui tre leganti e tre antileganti. In corrispondenza di essi avrò anche sei valori di energia.

Essi sono piuttosto complicati da scrivere; il loro significato è però intuibile facendo ricorso alla seguente semplificazione. Siccome la molecola di benzene è simmetrica per rotazioni di 60°, come si vede qui sopra, possiamo attribuire a j i valori:

j = – 2, – 1, 0, + 1, + 2, + 3

senza mutare sensibilmente il risultato. È come ruotare una stella di Davide di un qualunque multiplo di 60°: nessuno si accorgerà del cambiamento. Allora, sviluppando i calcoli, possiamo attribuire all'energia il valore:

E = E0 + 2 K cos (k x)

dove E0 è una quantità indipendente da j, K è l'integrale di scambio per la molecola di benzene, definito in modo del tutto analogo a quello della molecola di idrogeno (vedi § 7.4). Invece k è un vettore d'onda che vale:

essendo a il passo della molecola di benzene, ovvero la rotazione effettiva che un atomo di carboni deve compiere per sovrapporsi a quello adiacente. Allora:

Possiamo perciò rappresentare i livelli energetici nel diagramma ciclico della figura sottostante. I livelli energetici corrispondenti a j = ± 1 e a j = ± 2 sono degeneri, cioè hanno la stessa energia. Non ci si lasci ingannare dai segni: K è negativo, dunque il livello energetico più baso è E0 + 2 K, il più alto è E0 – 2 K.

Il livello con j = 0 è perciò detto livello energetico fondamentale o "ground zero", e ad esso (k = 0) corrisponde effettivamente l'orbitale anulare sopra descritto. Gli altri invece sono livelli eccitati. Il livello con j = ± 1 è costituito da due orbitali degeneri che corrispondono a due anelli spezzati, come si vede a sinistra; essi sono dunque localizzati. Questi tre orbitali sono leganti, come si dimostra graficandone l'energia in funzione della coordinata curvilinea che percorre l'intero esagono del benzene, e se ci troviamo a temperature basse (in pratica, anche a temperatura ambiente), tali orbitali "drenano" tutti e sei gli elettroni 2pz a spasso nel benzene. Sono perciò detti anche orbitali di valenza.

Come si vede, gli orbitali localizzati (che presentano nodi al centro dei lati opposti dell'esagono) per j = ± 1 sono separati dallo stato fondamentale da un salto energetico pari a | K |. Invece, ad una distanza | 2 K | dai livelli con j = ± 1 si trovano quelli con j = ± 2 che sono antileganti, e differiscono a loro volta di un salto energetico | K | dallo stato più eccitato. Il diagramma ciclico sopra proposto, dunque, assomiglia effettivamente ad una stella di Davide, per cui il paragone fatto poco fa era tutt'altro che fuori luogo! Ma, in virtù di questa somiglianza, i tre orbitali leganti sono nettamente separati dai tre antileganti da un salto energetico o gap. Si dice perciò che costituiscono due bande di orbitali. Gli orbitali di valenza danno luogo alla cosiddetta banda di valenza; gli elettroni in essa contenuti sono in parte localizzati e in parte delocalizzati, ma sono comunque occupati a riempire orbitali, se riescono a saltare nella loro banda superiore; non per questo distruggono le molecole perchè, come si ricorderà, basta avere più elettroni negli orbitali leganti che in quelli antileganti. Però sono liberi di muoversi lungo l'anello benzenico, e sono responsabili della conducibilità elettrica da parte della microspira costituita dai sei atomi di carbonio del benzene. Ciò si manifesta nello spiccato diamagnetismo presentato dalla molecola, la quale subisce un forte momento magnetico indotto, assai superiore a quello che si avrebbe se gli orbitali 2pz degli atomi di carbonio non si mischiassero tra loro. Per questo si dice che gli orbitali antileganti di energia superiore costituiscono la cosiddetta banda di conduzione.

Riprendiamo ora in mano il concetto di elettronegatività, già spiegato nel § 7.7. Se ricordate, l'idrogeno possiede un valor medio di elettronegatività, posto convenzionalmente pari ad xH = 2,1 per non aver a che fare con valori negativi di elettronegatività. Come si vede nella tabella sottostante, alcuni elementi hanno elettronegatività superiore, altri inferiore a quella dell'idrogeno:

xF = 4,0
xO = 3,5
xN = 3,0

xCl = 3,0

xS = 2,5

xC = 2,5
xCu = 1,9
xFe = 1,8
xCr = 1,6
xAl = 1,5
xMg = 1,2
xLi = 1,0

Gli elementi elettronegativi nella colonna di sinistra si dicono non metalli, quelli elettropositivi nella colonna di destra sono i metalli. Come già sappiamo, le elettronegatività maggiori sono concentrate nella sezione in alto a sinistra della tavola periodica; qui dunque sono radunati i non metalli. I metalli occupano la maggio parte della tabella, e quelli contenuti nei gruppi I B – VIII B sono detti metalli di transizione. Gli elementi che si trovano adiacenti alla frontiera tra metalli e non metalli si dicono anfoteri, perchè presentano sia caratteristiche metalliche che non metalliche. I metalli hanno le seguenti caratteristiche:

Esiste una teoria del legame chimico in grado di spiegare la costituzione elementare dei metalli e le loro proprietà ora elencate? In quel che segue cercheremo di rispondere a questa domanda. Le prime ricerche in tal senso misero in evidenza che i metalli hanno una struttura molto simile a quella del diamante e del cloruro di sodio, cioè la disposizione dei loro atomi è quella ordinata e regolare di un cristallo. Tuttavia, i bassi valori di elettronegatività degli atomi dei metalli esclusero che essi potessero dare vita a legami ionici (se non con atomi non metallici, come avviene appunto nel cloruro di sodio), mentre i bassi valori di energia di ionizzazione e di affinità elettronica indicavano che i metalli hanno ben poca tendenza a formare tra di loro dei legami covalenti: solo nei vapori metallici, a temperature altissime, è possibile rintracciare molecole biatomiche di metalli (Li2, Na2), ben poco stabili però, visto il modesto valore dell'energia di legame in gioco. Inoltre, siccome il metallo risulta dotato di ottime proprietà meccaniche, è impensabile che la formazione di solidi metallici sia da attribuire a legami di Van der Waals.

Ne segue che, per spiegare le caratteristiche dei metalli, bisogna ipotizzare l'esistenza di un legame del tutto nuovo, detto per l'appunto legame metallico. La prima ipotesi avanzata per spiegare le proprietà metalliche è quella del tedesco Paul Drude (1863-1906), avanzata nel 1900, secondo la quale, vista la bassa elettronegatività e il basso potenziale di ionizzazione degli atomi metallici, è facile che essi perdano gli elettroni periferici. Questi ultimi allora costituirebbero un gas di elettroni che, insinuandosi tra tutti gli ioni metallici, li terrebbe insieme come una specie di cemento che, impastato con la ghiaia, ne tiene insieme i singoli componenti in una struttura stabile:

In pratica, il modello di Drude è molto simile a quello del cristallo ionico: anche qui si alternano cariche positive (gli ioni metallici) e negative (gli elettroni, rappresentati qui sopra tramite puntini azzurri), Gli elettroni "gasificati" attrarrebbero tra di loro gli ioni e ne schermerebbero le cariche positive, impedendo che si respingano.

Questo modello è ovviamente ingenuo, ma non è troppo lontano dalla realtà. Se infatti ricordiamo quanto abbiamo detto a proposito del legame ione-idrogeno, scopriamo che gli orbitali leganti sono quelli in cui l'elettrone si trova, mediamente, nella regione di spazio fra i due nuclei, in modo da schermare le loro cariche positive e da attirarli entrambi. La stessa cosa si produce per i solidi; anzi, è interessante osservare l'analogia fra quella semplice struttura e quella, più complicata perchè formata da un numero di Avogadro di nuclei, del solido metallico. Consideriamo, per esempio, due nuclei di atomi metallici come quelli di litio. Esso è monovalente, perchè ha due elettroni nell'orbitale 1s e uno dell'orbitale 2s; i primi due restano nella loro shell interna, il terzo può servire per il legame. Con due atomi ho due elettroni disponibili per il legame, esattamente come nella molecola di idrogeno. Siccome, mischiando i loro orbitali 2s, ottengo un orbitale molecolare legante e uno antilegante, è ovvio che entrambi gli elettroni finiranno nel primo di essi, lasciando vuoto l'orbitale antilegante.

Se invece considero tre atomi di litio, essi legandosi daranno vita a tre orbitali, che potranno ospitare in tutto sei elettroni; siccome di elettroni di valenza ne ho tre, due di essi si sistemeranno nell'orbitale inferiore, uno in quello intermedio e nessuno in quello superiore. Con quattro atomi di litio si formeranno quattro orbitali, di cui i primi due saranno completamente occupati dai quattro elettroni messi in comune; e così via, come si vede in figura qui a destra.

Se io utilizzo un numero N molto grande di atomi di litio, allora è ragionevole pensare che otterrò N orbitali, di cui N / 2 leganti ed N / 2 antileganti. Gli N elettroni di valenza saranno tutti dislocati, a temperature basse, negli N / 2 orbitali di energia inferiore. Questa situazione ci ricorda molto da vicino quella della molecola di benzene, dove i sei atomi di carbonio con sei elettroni danno vita a sei orbitali, di cui tre leganti e tre antileganti. Questi orbitali si estendono su tutto l'esagono della molecola, dunque i sei elettroni sono delocalizzati lungo tale esagono. Allo stesso modo, se risolviamo l'equazione di Schrödinger corrispondente, è abbastanza logico trovare che anche gli N elettroni del metallo sono delocalizzati sui suoi N atomi! Gli orbitali metallici insomma si estendono all'intero solido metallico, che può avere dimensioni macroscopiche, e gli elettroni sono messi in comune tra tutti i possibili atomi che lo costituiscono! In pratica il legame metallico può essere classicamente immaginato come un reticolo cristallino formato dai cationi dei metalli e da un "gas" di elettroni delocalizzati, in cui la delocalizzazione elettronica è spinta al massimo grado. La molecola di benzene si comporta come un pezzetto di metallo in miniatura, e a noi è stata utilissima per capire come vanno le cose in un sistema talmente più complicato, eppure talmente simile, da consentirci l'applicazione del metodo deduttivo!

La teoria rigorosa del legame metallico la dobbiamo a Enrico Fermi (1901-1955) e Paul Dirac (1902-1984), e non è altro che un perfezionamento del modello di Drude, tenendo conto dei risultati della Meccanica Quantistica. Infatti anche in questo modello più perfezionato gli elettroni non rappresentano altro che una sorta di "gas" addensato negli orbitali leganti del metallo, detto in gergo "gas di elettroni di Fermi"; in analogia a quanto visto per la molecola di benzene, questi orbitali costituiscono la cosiddetta banda di valenza, mentre gli orbitali antileganti costituiscono la cosiddetta banda di conduzione. Il concetto di "banda" come gruppo di orbitali lo dobbiamo al fisico svizzero Felix Bloch (1905-1983). L'evidenza di queste bande di energia nel legame metallico può essere messa in evidenza spettroscopicamente: se un metallo viene bombardato con elettroni fortemente accelerati, anche alcuni degli elettroni di più bassa energia presenti nel cristallo possono essere proiettati fuori. Il "buco" lasciato libero da questo elettrone viene allora occupato da un altro elettrone presente sul livello energetico successivo a contenuto di energia maggiore, e così via. A ciascuno di questi salti elettronici in serie corrisponde l'emissione di una radiazione, la cui frequenza (E = h f) ci dà una misura del salto energetico. Si ottiene così uno spettro di banda che ripete la banda di energia su cui sono distribuiti gli elettroni di valenza nel metallo.

In questo modo si spiegano le peculiarità dei metalli: la conduzione del calore e la loro lucentezza sono legate alla mobilità degli elettroni di valenza delocalizzati, che incrementano la loro energia cinetica, mentre duttilità e malleabilità sono spiegabili mediante il libero scorrimento reciproco dei piani reticolari, per via dei legami non direzionati, il quale non provoca la distruzione del cristallo in quanto il legame non è costituito da pochi elettroni localizzati, ma da tutti gli elettroni disponibili. La presenza di legami molti forti all'interno del legame metallico spiega anche altre caratteristiche proprie dei metalli stessi come l'alta densità, la non solubilità e i punti di ebollizione e fusione molto alti.

Nei metalli, che come detto costituiscono i tre quarti degli elementi chimici, le due bande di valenza e di conduzione sono pressoché sovrapposte, o sono comunque separate da un gap energetico tanto piccolo che gli elettroni non hanno alcuna difficoltà a saltare dall'una all'altra. Una volta passato in un orbitale del tutto vuoto, un elettrone non è più impegnato nel legame, e può quindi percorrere l'intero metallo senza difficoltà. Ciò vuol dire che il cristallo può essere percorso da una corrente elettrica. In altre parole, il materiale è un conduttore. Ciò spiega l'alta conducibilità elettrica presentata da tutte le sostanze metalliche.

Può essere però che le due bande (che vanno pensate come insiemi di orbitali con energie molto vicine tra loro, radunate in un intervallo brevissimo di energia) siano separate da un gap ΔE consistente, come in figura a fianco. Se il valore di ΔE è troppo elevato, nessun elettrone riesce a passare dalla banda di valenza a quella di conduzione, e si parla di isolanti. Ad esempio, nel diamante ΔE = 7 eV, ed esso non può condurre corrente, Se invece il valore di ΔE non supera 1,6 eV, è possibile far passare gli elettroni dalla banda di valenza in quella di conduzione con una ragionevole spesa di energia; questi materiali si dicono semiconduttori, cui dedicheremo i paragrafi seguenti.

 

8.3  L'età dei semiconduttori

Abbiamo visto che tra il Paradiso dei conduttori e l'Inferno degli isolanti vi è un Purgatorio, rappresentato dai semiconduttori. Sono tipicamente semiconduttori il silicio e il germanio, elementi del gruppo IV della tavola periodica, che possiedono quattro elettroni di valenza nell'orbitale più esterno. Mentre la resistività dei buoni conduttori si aggira sui 10–2 Ω mm2 / m e quella degli isolanti sui 1020 Ω mm2 / m, quella dei semiconduttori è dell'ordine di 104 – 105 Ω mm2 / m. Inoltre, mentre la resistività dei conduttori metallici aumenta all'aumentare della temperatura (gli elettroni incontrano tanta maggior resistenza quanto più veloci si muovono gli atomi), nel caso dei semiconduttori la resistività diminuisce all'aumentare della temperatura. Perchè? E perchè i semiconduttori sono così importanti nella tecnologia odierna?

Le forze di legame nel reticolo cristallino del silicio e del germanio si originano dal fatto che ogni atomo è legato a quattro atomi circostanti mediante i suoi quattro elettroni di valenza. Nell'intorno dello zero assoluto non vi sono elettroni liberi, e i semiconduttori si comportano come isolanti. A differenza di questi ultimi, però, nei semiconduttori gli elettroni di valenza sono debolmente legati e, man mano che la temperatura cresce, un numero sempre maggiore di elettroni si libera dai rispettivi atomi a causa delle vibrazioni del reticolo cristallino, trasformandosi in elettroni di conduzione. Per questo la resistività decresce all'aumentare della temperatura.

Supponiamo ora di considerare una fila di atomi di silicio, come nell'immagine qui a destra. Se il primo di essi libera un elettrone nella banda di conduzione, si ionizza e si forma una lacuna, cioè un "posto vuoto" lasciato dall'elettrone vacante (vedremo nel § 9.6 che si tratta in effetti di una quasiparticella). Sotto l'azione di un campo elettrico, orientato nel nostro caso verso destra, un elettrone esterno dell'atomo adiacente può saltare nel primo atomo e "riempire" la lacuna. Così facendo, però, lascia una nuova lacuna nel secondo atomo. Anche il terzo atomo può liberare un elettrone che va a colmare la lacuna del secondo, ma a sua volta nel terzo si apre una lacuna. Se l'elettrone si muove verso sinistra, la lacuna sembra muoversi verso destra, e dunque nel campo elettrico esterno si comporta a tutti gli effetti come una carica positiva. La conduzione elettrica nel semiconduttore, insomma, è dovuta sia ad elettroni che si muovono verso sinistra, sia a lacune che si muovono verso destra. Mentre nei metalli i portatori di carica sono i soli elettroni negativi, nei semiconduttori sono sia cariche positive che negative. Siccome però i portatori liberi di carica nei semiconduttori puri sono pochi, la loro conducibilità elettrica è relativamente bassa. I semiconduttori puri di questo tipo vengono chiamati semiconduttori intrinseci; in essi il numero di elettroni di conduzione liberi è esattamente pari al numero di lacune.

Il comportamento dei semiconduttori in campo elettrico tuttavia cambia completamente se ad essi si aggiunge una piccola quantità di impurità con valenza diversa, pari a circa un atomo ogni milione di atomi di semiconduttore intrinseco. Supponiamo ad esempio di inserire nel reticolo cristallino del silicio degli atomi trivalenti come il boro, il gallio o l'indio. Ciascuno di questi atomi ha solo tre elettroni di valenza intorno a sé, come si vede qui sotto a sinistra, e dunque manca un elettrone nel reticolo cristallino; esso è sostituito da una lacuna, che si aggiunge alle lacune già esistenti nel semiconduttore intrinseco senza che venga liberato alcun elettrone di conduzione (gli elettroni di valenza sono indicati dai punti gialli). Il quarto legame si forma perchè il silicio cede un elettrone al boro, che perciò prende il nome di accettore. Si dice che il semiconduttore è stato drogato (il termine tecnico inglese è proprio "doping"!), e precisamente drogato di tipo p, perchè sono state aumentate artificialmente le lacune, cioè le cariche positive.

Se invece si mescola nel reticolo cristallino del silicio una sostanza pentavalente come il fosforo, l'arsenico o l'antimonio, ad aumentare sono gli elettroni di conduzione. Infatti ogni atomo di fosforo, come si vede sopra a destra, è circondato da cinque elettroni di valenza, dei quali quattro formano legami con altrettanti atomi di silicio, mentre il quinto viene liberato nella banda di conduzione senza la contemporanea formazione di una lacuna. Per ogni atomo di impurità si forma insomma un nuovo elettrone di conduzione che si aggiunge a quelli già presenti nel semiconduttore intrinseco. Gli atomi pentavalenti che si comportano come il fosforo sono detti donatori, perchè cedono ciascuno un elettrone alla banda di conduzione. Si parla in tal caso di drogaggio di tipo n, aumentando le cariche negative. I semiconduttori così drogati vengono chiamati semiconduttori estrinseci.

Quali applicazioni tecnologiche possiamo ottenere, con questi semiconduttori drogati? A scoprirlo furono tre grandi scienziati statunitensi del secolo scorso: John Bardeen (1908-1991), Walter Houser Brattain (1902-1987) e William Bradford Shockley (1910-1989), ricercatori della Bell Telephone. Essi considerarono anzitutto due porzioni di semiconduttore, drogate rispettivamente di tipo p e di tipo n, e le misero a contatto a formare una "giunzione". Nel semiconduttore drogato di tipo p le lacune sono più numerose degli elettroni, mentre in quello drogato di tipo n gli elettroni prevalgono sulle lacune. Attraverso la giunzione si ha una migrazione di elettroni dal semiconduttore di tipo n a quello di tipo p, e una di lacune dal tipo p al tipo n. Di conseguenza il semiconduttore drogato di tipo p assumerà una carica positiva e quello di tipo n una carica negativa, mentre fin qui erano tutti assolutamente neutri. Tra le due porzioni di semiconduttore si genera così una differenza di potenziale, che impedisce la successiva migrazione di elettroni e lacune.

Inseriamo ora una batteria collegandone il polo positivo al semiconduttore drogato di tipo p e il polo negativo al semiconduttore drogato di tipo n. Nel circuito così realizzato si avrà un passaggio di corrente, in quanto gli elettroni sono spinti attraverso la giunzione nel semiconduttore di tipo p, e le lacune in quello di tipo n. La differenza di potenziale che esisteva prima del collegamento tende a ridursi fino ad annullarsi, e la corrente si muoverà da p ad n praticamente senza incontrare resistenza. Se invece si collega il polo positivo della pila al semiconduttore di tipo n e quello negativo al semiconduttore di tipo p, la differenza di potenziale aumenterà e la corrente non potrà più circolare nel circuito. Il dispositivo a semi conduttori così realizzato insomma si lascia attraversare dalla corrente in un solo verso, e per questo motivo viene utilizzato come raddrizzatore di corrente. Esso assume il nome di diodo a semiconduttori. Quando esso fu realizzato esistevano già i diodi termoionici, ideati dall'inglese Owen Willans Richardson (1879-1959), che per questo ricevette nel 1928 il Premio Nobel, ma essi erano ingombranti, scaldavano parecchio (in pratica erano delle lampadine) e si bruciavano spesso e volentieri, mentre i diodi a semiconduttori sono molto più compatti, non scaldano, non richiedono energia per l'accensione e non dissipano calore, funzionando a temperatura ambiente. Qui sotto potete vedere lo schema e il simbolo circuitale di un diodo a semiconduttori.

I diodi sono conduttori non ohmici; si può dimostrare che l'intensità i della corrente può essere descritta, in funzione della differenza di potenziale V agli estremi del diodo, attraverso la seguente funzione, detta equazione del diodo:

dove is è la cosiddetta corrente di saturazione (minuscola corrente che attraversa la giunzione anche in caso di collegamento del semiconduttore drogato di tipo n con il polo positivo della pila), e è la carica dell'elettrone, K la costante di Boltzmann e T è la temperatura assoluta, mentre η è un coefficiente numerico che vale circa 2 per il silicio e circa 1 per il germanio.

Nel 1948 Bardeen, Brattain e Shockley misero a punto un ulteriore importantissimo dispositivo a semiconduttori, realizzato come segue. Essi realizzarono non una ma due giunzioni di semiconduttori: presero due porzioni di semiconduttore drogato p, dette rispettivamente emettitore e collettore, e interposero tra di esse uno strato sottilissimo (qualche centesimo di millimetro) di semiconduttore drogato n, detto base. Oltre ad avere uno spessore molto ridotto, la base è anche molto meno drogata dell'emettitore e del collettore. Il trio Bardeen - Brattain - Shockley collegò poi il polo positivo di una batteria con l'emettitore e il polo negativo con la base; presa una seconda batteria, ne collegò il polo positivo con la base e il polo negativo con il collettore, come si vede qui sotto. Si parla allora di giunzione p-n-p. I collegamenti così realizzati danno vita ad un moto di lacune che, partendo dall'emettitore, raggiungono la base, dove dovrebbero ricombinarsi con gli elettroni in eccesso ivi presenti. Ma la base è sottilissima e poco drogata; di conseguenza, poche lacune riescono a ricombinarsi con gli elettroni, e continuano invece la propria strada riversandosi nel collettore, aiutati dal campo elettrico che si stabilisce tra la base e quest'ultimo in virtù della seconda batteria.

La corrente che attraversa il collettore ha un'intensità maggiore rispetto a quella che passa nella base, poiché le lacune che attraverso la base giungono nel collettore incontrano nuove lacune, essendo il collettore drogato di tipo p. La seconda batteria infine attrae le lacune verso il polo negativo. Una tensione applicata tra emettitore e base produce in uscita, tra base e collettore, una tensione amplificata anche di un fattore 100! Quello che abbiamo realizzato è dunque un amplificatore di corrente, in analogia con il triodo termoionico realizzato nel 1906 dall'inventore americano Lee De Forest (1873-1961), ma esso presenta gli stessi vantaggi del diodo a semiconduttori: compattezza, lunga durata e bassissimo calore dissipato. Si parla perciò di triodo a semiconduttori. I suoi inventori però gli diedero un nome divenuto celeberrimo: "transfer resistor", cioè resistore di trasferimento, o più semplicemente transistor, destinato a rivoluzionare il mondo dell'elettronica. Qui sotto a sinistra vedete il primo transistor, presentato presso i Bell Labs il 23 dicembre 1947; la sua realizzazione fruttò a Bardeen, Brattain e Shockley il premio Nobel per la Fisica nel 1956. Bisogna aggiungere che John Bardeen è l'unico scienziato della storia ad aver vinto la bellezza di due Premi Nobel in Fisica, il primo nel 1956 per l'invenzione del transistor, e il secondo nel 1972 (come diremo nel § 8.7) per aver dato un'interpretazione quantistica del fenomeno della superconduttività, assieme a Leon Neil Cooper (1930-) e a John Robert Schrieffer (1931-), nota anche come teoria BCS dalle iniziali dei suoi scopritori! Tanto di cappello!

____

A destra si vedono invece i simboli circuitali del transistor p-n-p, in alto, e di quello di tipo n-p-n, in basso, nel quale emettitore e collettore sono drogati di tipo n, e la base è drogata di tipo p; l'unica differenza sta nel fatto che nell'n-p-n il verso della corrente emettitore-base è diretto dalla base verso l'emettitore. Le lettere E, C, B, indicano rispettivamente l'emettitore, la base e il collettore. È evidente l'analogia tra il transistor e il triodo termoionico, se facciamo corrispondere al filamento del secondo l'emettitore del primo, alla griglia del secondo la base del primo, e alla placca del secondo il collettore del primo. Nel triodo termoionico l'intensità di corrente è regolata dalla differenza di potenziale tra catodo e griglia, nel transistor dalla differenza di potenziale tra emettitore e base; in altre parole, nel transistor la base svolge un'azione di "controllo" sulla corrente che giunge nel collettore, come la griglia "controlla" gli elettroni che arrivano sulla placca nel triodo termoionico, ma con tutti i vantaggi elencati sopra rispetto alla tecnologia delle valvole termoioniche. Ad esempio, il transistor non ha bisogno di una tensione di accensione per la produzione di elettroni, in quanto esso possiede cariche in ogni momento, rappresentate dalle lacune e dagli elettroni di conduzione. L'energia consumata dipende perciò solo da quella erogata, mentre nel triodo termoionico bisogna mettere in conto un considerevole consumo di energia per accendere il filamento. Senza i transistor non sarebbe stato possibile realizzare tutti gli apparecchi elettronici che funzionano a pile, dalle radioline tascabili ai telefoni cellulari, perchè la tensione delle pile è insufficiente per alimentare una valvola termoionica. I transistor funzionano a basse tensioni, e non esistono i problemi di isolamento delle valvole connessi con le alte tensioni utilizzate. Anch'essi però presentano alcuni svantaggi: ad esempio non possono essere utilizzati nei circuiti in cui sono in gioco potenze molto elevate.

Qui sopra a sinistra si vede una foto di gruppo di Bardeen, Shockley e Brattain (da sinistra a destra rispettivamente) fotografati nei laboratori della Bell Telephone nel 1948; a destra si vede un mosaico del simbolo circuitale del transistor n-p-n realizzato sulla pavimentazione stradale davanti all'Università portoghese di Aveiro.

Bisogna aggiungere che la scoperta dei diodi e triodi a semiconduttori portò con sé quella del LED (in inglese "Light Emitting Diode", "diodo a emissione di luce"), i quali, grazie alla capacità di alcuni materiali semiconduttori di produrre fotoni attraverso un fenomeno di emissione spontanea, emettono un fotone ogni volta che un elettrone si ricombina con una lacuna, emettendo una luce continua, stabile, di elevata efficienza e lunga durata (la durata di un LED è di uno o due ordini di grandezza superiore a quella delle classiche sorgenti luminose, specie in condizioni di stress meccanici), di ogni colore desiderato e praticamente senza alcuna dispersione di calore. Il primo LED fu messo a punto nel 1962 da Nick Holonyak Jr. (1928-), e nel 2014 il Premio Nobel per la fisica è stato assegnato ad Isamu Akasaki (1929-) e Hiroshi Amano (1960-) della Nagoya University e a Shūji Nakamura (1954-) dell'Università della California a Santa Barbara per le loro ricerche sul LED a luce blu. Oggi i LED sono comunemente utilizzati per telecomandi a infrarossi, lampadine spia, indicatori di standby, retroilluminazione di display LCD, semafori stradali, dispositivi luminosi di autovetture e motocicli, cartelloni pubblicitari a messaggio variabile e segnalazione degli ostacoli al volo. In tempi recenti si sono diffusi anche come dispositivi di illuminazione, tanto che dal 2006 la città di Raleigh, nella North Carolina, è diventata la prima città del mondo interamente illuminata a LED! Qui sotto a sinistra vedete quattro esemplari di transistor comparati con le dimensioni di una comune moneta, mentre a destra vedete tre LED accesi.

____

.

8.4  Da "Spazio 1999" ai qubit

L'introduzione dei transistor e di altri componenti ad essi simili permise di potenziare in maniera incredibile l'industria elettronica e, di conseguenza, di dare vita alla moderna industria informatica. Senza i dispositivi a semiconduttori, infatti, il visionario slogan di Steve Jobs e Steve Wozniak, fondatori della Apple ("un computer in ogni casa!"), non sarebbe stato realizzabile in pratica, viste le enormi dimensioni dei primi computer come l'ENIAC (1946), realizzato con la bellezza di 18.000 ingombrantissime valvole termoioniche! Qui sotto si vede lo schema di un circuito sommatore realizzato con due transistor (TR1 e TR2). Si può verificare che se i due segnali in ingresso (Vin) corrispondono entrambi a uno zero, anche quello in uscita (VOUT) varrà zero; se uno dei due Vin vale 0 e l'altro vale 1, allora VOUT = 1; se entrambi i Vin valgono 1, VOUT = 10, secondo le regole della numerazione binaria.

Come tutti sappiamo, negli ultimi decenni l'elettronica ha conosciuto una straordinaria evoluzione, da un lato sviluppando componenti sempre più complessi ed avanzati, dall'altro riducendone in modo impressionante le dimensioni. Nell'epoca delle valvole termoioniche, un computer occupava un'intera stanza (chi non ricorda l'immenso computer della serie di fantascienza "Spazio 1999"?); grazie alla miniaturizzazione della tecnologia a semiconduttori, si è arrivati a realizzare cellulari con le funzionalità di un vero computer che stanno nel palmo di una mano, per non parlare degli I-watch della Apple, che ne concentrano tutte le funzioni in un orologio da polso! Qui sotto vedete questi due estremi della storia evolutiva della tecnologia informatica. A buon diritto è stato detto che, dopo l'età della pietra, l'età del rame, l'età del bronzo e l'età del ferro, oggi l'umanità si trova nell'età del silicio (o età dei semiconduttori), vista l'ormai totale dipendenza della nostra civiltà da questo tipo di tecnologia!

____

Ciò che ha reso possibile questo travolgente processo di miniaturizzazione è stato lo sviluppo dei cosiddetti circuiti integrati, i quali non utilizzano i transistor descritti in quel che precede, bensì i cosiddetti transistor MOS (Metal-Oxide Semiconductor). Si parla di circuiti "integrati" perchè non è più necessario realizzare separatamente singoli componenti (resistori, condensatori, diodi, transistor...) e poi montarli in un circuito: tutti gli elementi di un circuito complesso, connessioni incluse, possono essere realizzati direttamente su un'unica piastra di silicio. L'ideazione dei circuiti integrati la dobbiamo all'ingegnere americano Jack St. Clair Kilby (1923-2005), che nel 1958 ne costruì il primo esemplare composto da circa dieci componenti elementari. Per questa scoperta egli vinse il Premio Nobel per la Fisica nel 2000 (meglio tardi che mai).

La costruzione di un circuito integrato inizia da una barra di silicio ultrapuro, larga una decina di centimetri, dalla quale si tagliano lastrine sottilissime dette wafer. Dopo aver ottenuto uno strato superficiale di ossido di silicio, si ricopre il wafer con un preparato apposito, detto fotoresist, e gli si sovrappone una maschera, ottenuta fotograficamente da un disegno ingrandito del circuito da realizzare. Questa maschera permette di selezionare le porzioni del wafer alle quali devono essere aggiunte le impurità per drogarlo di tipo p e di tipo n; l'esposizione ai raggi ultravioletti modifica il fotoresist nelle zone non protette dalla maschera, conferendogli proprietà di durezza e resistenza agli acidi. Il fotoresist non esposto può essere eliminato facilmente prima di sottoporre il wafer ad attacco chimico con acido fluoridrico. Nelle zone non protette dal fotoresist, l'acido asporta l'ossido, e il silicio sottostante e pronto a ricevere il drogaggio e ad essere nuovamente ossidato. L'intero processo si ripete più e più volte con altre maschere, fino al completamento di tutti gli strati necessari. Alla fine, dopo aver asportato il fotoresist, si ricopre la lastra con uno strato di alluminio fatto evaporare sotto vuoto e, con un ultimo attacco chimico selettivo, si realizzano le connessioni elettriche. Da un wafer, che ha uno spessore di alcuni decimi di millimetro, si ottengono così centinaia di chip, ciascuno dei quali può contenere milioni di diodi e di transistor! Qui sotto a sinistra si vedono alcuni dei wafer da cui si ricavano i chip, mentre a destra si vede un microprocessore odierno per personal computer realizzato con questa tecnologia.

____

Le tappe di questo processo sono segnate dal numero di componenti circuitali integrati in ogni singolo chip:

I costi di realizzazione dei circuiti integrati si sono ridotti notevolmente nel tempo a causa di tecnologie sempre più efficienti ed automatizzate e alla forte economia di scala, ed essi sono divenuti ormai componenti elettronici circuitali a costo relativamente basso, permettendo di rendere economicamente accessibili strumenti digitali e analogici sempre più complessi, come gli odierni smartphone dei quali sembriamo non poter più fare a meno. Tali capacità di integrazione e quindi di calcolo rendono possibile l'utilizzo di applicazioni informatiche complicatissime come ad esempio quelle legate all'industria dei videogiochi oppure alla computer grafica, largamente sfruttata nei moderni lungometraggi di animazione.

Tuttavia le tecnologie attuali stanno ormai toccando i propri limiti fisici. Per esempio, in un circuito integrato le connessioni tra i milioni di componenti sono oggi ottenute con piste larghe soltanto qualche decina di nanometri: ridurle ulteriormente è tecnicamente difficilissimo, se si vuole mantenere l'affidabilità necessaria, perchè al di sotto di questa soglia si genereranno effetti "parassiti" indesiderati di natura quantistica nei circuiti elettronici. D'altra parte, in questi nostri anni Duemila sono stati costruiti circuiti microscopici che risultano molto più piccoli dei più piccoli tra i transistor, tanto che si parla ormai di elettronica molecolare. A questo proposito viene spesso citata la cosiddetta Legge di Moore, formulata empiricamente nel 1965 da David House (1945-), direttore esecutivo della Intel, commentando una precedente osservazione di Gordon Moore (1929-), cofondatore di Intel con Robert Noyce: secondo House, la complessità di un circuito integrato, misurata attraverso il numero di componenti per chip, raddoppia ogni 18 mesi. detto t il tempo in mesi ed N0 il numero iniziale di componenti per chip, tale legge può essere facilmente espressa in termini matematici con la seguente espressione:

          (8.4)

Ad esempio, nel maggio 1997 Intel lanciò il processore Pentium II con 300 MHz di frequenza di clock e 7,5 milioni di componenti per chip. Nel novembre 2000, cioè 42 mesi dopo il lancio del Pentium II, Intel mise in vendita il Pentium 4 con frequenza di clock di 1,5 GHz e 42 milioni di componenti per chip. Applicando la Legge di Moore (8.5) si ha:

Secondo la Legge di Moore, dopo 42 mesi dal lancio del Pentium II sarebbe stato possibile realizzare un processore contenente 37,8 milioni di transistor. Come si vede, in questo caso, la legge ha stimato una crescita addirittura inferiore rispetto a ciò che è effettivamente avvenuto! Applicando la stessa formula non al numero di componenti ma alla frequenza di clock del processore si ha:

Stavolta la Legge di Moore ci ha dato come risultato 1500 Mhz, cioè proprio 1,5 GHz, la frequenza del Pentium 4. Qui sotto si vede una rappresentazione grafica della (8.4) in un diagramma logaritmico, che mostra come la Legge di Moore è stata sinora sostanzialmente rispettata. Facciamo osservare che, se anche il settore delle costruzioni fosse progredito con la stessa impressionante velocità, oggi saremmo in grado di costruire un grattacielo 35 volte più alto del monte Everest, e quindi alto qualcosa come oltre 300 chilometri!

Secondo molti ingegneri e progettisti i limiti estremi dell'integrazione dei circuiti sarebbero già stati raggiunti con la generazione dei processori Pentium, al di sopra del quale l'unico modo praticabile per aumentare le prestazioni di calcolo è rappresentato dalla tecnologia multicore, ovvero dall'accoppiamento in parallelo di più processori, come avviene nei supercalcolatori dei centri di calcolo, i quali hanno permesso tra l'altro di calcolare centinaia di milioni di cifre decimali del numero pi greco.

Per proseguire sulla strada dell'aumento della densità di transistori è necessario abbandonare l'odierna tecnologia a semiconduttori e inoltrarsi in un territorio affatto nuovo, quello dei cosiddetti computer quantistici. Essi rappresentano senz'altro la prossima frontiera dell'informatica, e potrebbero costituire un enorme salto di qualità rispetto alle previsioni della Legge di Moore. I computer elettronici attuali usano come unità fondamentale di informazione il bit (binary digit), unità che codificano due stati, aperto e chiuso (0 e 1) di un circuito; i computer quantistici utilizzeranno invece i qubit, unità di informazione quantistica codificati non da un valore univocamente prefissato di 0 o 1, ma dallo stato quantistico in cui si trova una particella o un atomo che può avere contemporaneamente sia il valore 0 sia il valore 1. Il termine qubit è stato introdotto dall'ingegnere statunitense Benjamin Schumacher del Kenyon College (Ohio). Come sappiamo, le particelle subatomiche possono trovarsi in una sovrapposizione di stati quantistici, e i qubit userebbero lo stato di polarizzazione dei fotoni o lo spin di atomi o molecole, a differenza dei bit classici che invece sono basati sulla presenza o assenza di una carica elettrica. Da un punto di vista matematico, un qubit è un punto di uno spazio vettoriale bidimensionale a coefficienti complessi, e precisamente un punto sulla superficie di una sfera di raggio unitario, detta Sfera di Bloch, Questa situazione amplierebbe enormemente le possibilità di codifica delle informazioni, aprendo la possibilità di sfruttare tale capacità di elaborazione per la risoluzione di problemi estremamente complessi, come quelli alla base dell'Intelligenza Artificiale (IA). Ad esempio, una particella quantistica può trovarsi per un 70 % nello stato 0 e per un 30 % nello stato 1. Questa caratteristica assume un significato incredibile se si pensa che due qubit possono avere 4 stati contemporaneamente, quattro qubit possono avere 16 stati, 16 qubit possono avare 256 stati, e così via. Se pensiamo al fatto che la quantità di informazione contenuta in N qubit è pari a 2N bit classici (e quindi 2N stati possibili), ci rendiamo conto che il computer quantistico sarà in grado di processare nello stesso momento più soluzioni ad un singolo problema, anziché svolgere calcoli sequenziali come avviene ora con l'elaborazione elettronica, ed eseguire calcoli complicatissimi impiegando secondi anziché anni per risolvere un problema! Inoltre l'ingresso della fisica quantistica nel mondo dell'elettronica permetterà la costruzione di dispositivi di tipo completamente nuovo, in grado di applicate la logica a tre valori (vero, falso, indefinito) propria della Meccanica Quantistica antiche la semplice logica aristotelica a due valori (vero, falso) degli attuali calcolatori digitali!

Ma come realizzare un computer quantistico? Oggi si pensa a due approcci possibili. Il primo, proposto da Robert Schoelkopf della Yale University di New Haven, nel Connecticut, sfrutta il raffreddamento dei circuiti vicino allo zero assoluto, in modo che funzionino come superconduttori senza resistenze che interferiscano sulla corrente; nell'ultimo paragrafo di questo capitolo vedremo che la superconduttività è proprio un fenomeno prettamente di natura quantistica. In questo caso si parla di "punti quantici" per indicare una nanostruttura di materiale semiconduttore inserita in un altro semiconduttore con intervallo di energia più grande. Una seconda metodologia, portata avanti da Christopher Monroe, fisico all'Università del Maryland a College Park, ricorre invece ad ioni "intrappolati" in campi elettromagnetici e manipolati affinché lo spostamento degli elettroni produca un cambiamento dello stato degli ioni, e quindi possa funzionare da qubit. Nella foto qui sopra potete vedere proprio una "trappola a ioni" per computer quantistici (foto di Kai Hudek, dell'Università del Maryland). Altre possibili proposte riguardano fotoni singoli e difetti puntiformi nei reticoli cristallini di diamanti. Tuttavia, nonostante l'ottimismo dei fisici, vi sono ancora alcuni problemi da risolvere, come la corretta manipolazione delle particelle che sono volatili e fragili, proprio perché cambiano stato, e potrebbero quindi comportare perdita di dati e informazioni utili al processo di calcolo, e naturalmente lo sviluppo di infrastrutture hardware idonee: oggi il raffreddamento dei sistemi richiede l'elio e le infrastrutture devono essere mantenute in ambienti privi di vibrazioni. Occorreranno anche algoritmi opportunamente sviluppati per il quantum computing, che oggi in parte appaiono ancora fuori della portata degli strumenti matematici di cui noi disponiamo.

Un passo avanti verso la realizzazione di computer quantistici è stato compiuto nel 2011 da alcuni ricercatori dell'Università di Pittsburgh, i quali hanno annunciato l'invenzione del transistor a elettrone singolo (o SET, Single Electron Transistor), nel quale la tensione applicata alla base permette di far passare dall'emettitore al collettore addirittura un elettrone alla volta, sfruttando il fenomeno quantistico dell'effetto tunnel attraverso le giunzioni del semiconduttore. L'idea parte da un'"isola" di atomi, capaci di trattenere un elettrone nel punto di convergenza di tre nanocavi sulla parte superiore di un substrato di alluminio. Una microscopica forza atomica crea un tunnel di elettroni attraverso i cavi e sopra l'isola di atomi, realizzando così un transistor con differenti stati di conduzione a seconda del numero di elettroni presenti su di esso.

E non è tutto. Nell'ottobre 2015 per la prima volta un gruppo di ricercatori dell'Università del New South Wales a Sydney ha realizzato una porta logica per qubit quantistici sfruttando sostanzialmente le stesse tecnologie usate per la fabbricazione dei chip di silicio dei computer diffusi oggi. Rendendo le connessioni fra porte logiche potenzialmente scalabili fino alle dimensioni tipiche di un computer reale. Le cosiddette porte logiche, che corrispondono alle operazioni logiche di base (come "AND", "OR", "NOT"), realizzate per i qubit hanno mostrato alcuni problemi, relativi o alla difficoltà di costruire le indispensabili grandi schiere di porte logiche, o alla possibilità di un loro controllo efficace, oppure alla stabilità dell'informazione nel suo passaggio attraverso di esse. Il fatto che il prototipo realizzato si basi in gran parte sulle tecnologie al silicio e che il comando delle porte logiche sia realizzato con semplici impulsi elettrici supera molti dei problemi che si frappongono alla realizzazione di computer quantistici. C'è anche chi sogna dei computer fotonici, che puntano a sostituire interamente gli elettroni con fasci di luce per scambiare segnali e aumentare di un milione di volte la velocità dei computer e dei dispositivi mobili, ma a questo punto ci muoviamo davvero (per ora) nel campo della fantascienza.

Prima di cambiare argomento, ricordiamo la grande scoperta annunciato nel maggio 2019 da un gruppo di ricercatori dell'Università di Edimburgo, coordinato da Mark Evans: le cellule viventi sono come simili ai chip dei computer, nel senso che hanno una fitta rete di circuiti che connettono i loro diversi distretti. Questi circuiti di segnalazione sono stati osservati per la prima volta utilizzando potenti microscopi elettronici e simulazioni al computer simili a quelle adoperate dagli astrofisici nella ricerca che ha portato a ottenere la prima immagine di un buco nero. Secondo gli autori dello studio, le cellule sono in grado di modificare nel tempo questi circuiti in base alle funzioni da svolgere. Le informazioni  viaggiano grazie a molecole cariche, come ioni di calcio, su una rete di nanotubi, minuscoli circuiti che ricordano quelli del microprocessore di un computer. Questa rete di segnali locali orchestra l'insieme delle attività di una cellula. I segnali giungono anche al nucleo e sono in grado di modulare l'attività del DNA; attraverso questi circuiti interni le cellule sono capaci di riconfigurare, a seconda delle necessità e delle attività da compiere, l'accensione o spegnimento dei geni. Questo prefigura il sorgere di un altro dei sogni della fantascienza: il computer organico, ovvero la macchina vivente.

.

8.5  Il mistero dell'entanglement quantistico

Quanto detto fin qui non è però sufficiente per comprendere appieno il funzionamento dei computer quantistici. Essi si basano infatti su due leggi basilari della meccanica quantistica:

1) il principio di sovrapposizione (vedi § 5.1), dal quale deriva, come abbiamo visto, la possibilità per le particelle di trovarsi contemporaneamente in più stati diversi, e quindi per il qubit di poter essere sia 0 sia 1 simultaneamente, finché il suo stato non viene "letto" e quindi codificato);

2) la correlazione quantistica o entanglement (in inglese "intreccio"), che esprime la correlazione che c'è tra due particelle o due qubit; secondo questo principio, è possibile conoscere lo stato di una particella (o di un qubit) misurando l'altra con la quale ha il vincolo, processo che "trasportato" nell'informatica si traduce con un'accelerazione dei processi di calcolo. In questo paragrafo vogliamo approfondire proprio questa misteriosa proprietà delle particelle quantistiche, che è tuttora oggetto di esplorazione da parte dei Fisici di tutto il mondo.

L'indeterminazione quantistica, espressa dal Principio di Heisenberg (§ 5.2), è uno dei concetti fondanti della Meccanica dei Quanti, ma anche uno di quelli che più ci lascia a disagio. Albert Einstein, come sappiamo, si rifiutò di accettarla fino alla fine, e pensò che la natura non fosse davvero indeterminata, ma che una teoria che vada oltre la meccanica quantistica avrebbe potuto prevedere con esattezza il comportamento delle particelle, senza bisogno di ricorrere ad alcun calcolo delle probabilità. Lo stesso Schrödinger incontrò delle difficoltà concettuali ed introdusse l'idea di entanglement per descrivere l'incertezza quantica distribuita su due o più particelle. Secondo la teoria quantistica, le proprietà delle particelle possono trovarsi in entanglement in modo che il loro valore congiunto è noto con precisione, ma i valori individuali rimangono incerti. Un'analogia potrebbe essere rappresentata da due dadi che, una volta lanciati, danno ognuno un risultato casuale, ma la cui somma risulta sempre 8. Schrödinger usò l'idea dell'entanglement per formulare il suo famoso esperimento mentale del gatto vivo o morto (§ 5.7).

Insieme a due suoi colleghi, il russo Boris Podolsky (1896-1966) e l'israeliano Nathan Rosen (1909-1995), Einstein portò avanti questo ragionamento in un famoso articolo pubblicato nel 1935 su "Physical Review" e intitolato "Can Quantum-Mechanical Description of Physical Reality Be Considered Complete?" ("Può la descrizione della realtà fisica della meccanica quantistica considerarsi completa?"). In esso i tre scienziati presero in considerazione due elettroni molto distanti tra loro che siano in uno stato di entanglement. Immaginiamo che gli spin di queste particelle siano collegati in modo che, se li si misura lungo la stessa direzione, risultino sempre valori opposti. Per esempio, se gli scienziati misurano lo spin di uno degli elettroni e lo trovano rivolto verso l'alto,l'altro punterà verso il basso. Queste correlazioni sono particolarmente sorprendenti quando gli elettroni sono tanto distanti tra loro che non potrebbero comunicare nemmeno alla velocità della luce prima che i singoli spin vengano misurati. Come fa la seconda particella a sapere che la prima era rivolta verso l'alto? Einstein definì questa sincronizzazione "a spooky action at a distance" ("una spaventosa azione a distanza"), ed oggi è universalmente nota con in nome di paradosso di Einstein-Podolsky-Rosen o paradosso EPR (qui sotto si vedono nell'ordine i tre autori del celebre paradosso).

Il paradosso, diventato ormai un classico della fisica del '900, partiva da due presupposti molto ragionevoli. Primo: se è possibile prevedere con certezza il risultato di una misurazione, ci deve essere una proprietà in natura che corrisponde a questo risultato; Einstein chiamava queste proprietà "elementi della realtà". Per esempio, se sappiamo che lo spin di un elettrone è diretto verso l'alto, possiamo prevedere con certezza che, se si muove attraverso un opportuno campo magnetico, sarà sempre deviato verso l'alto. In questa situazione, lo spin dell'elettrone sarebbe un elemento della realtà perché è ben definito e non indeterminato. Secondo: un evento in un lungo non può influenzare istantaneamente un altro evento in un punto assai lontano da esso perchè, come aveva stabilito lo stesso Einstein nella sua teoria della Relatività Ristretta, l'informazione tra di essi non può viaggiare a velocità maggiore di quella della luce.

Partendo da questi presupposti, analizziamo la versione semplificata dell'esperimento ideale EPR formulata dal fisico americano David Bohm (1917-1992), noto per aver elaborato un'interpretazione della meccanica quantistica in cui sviluppa il concetto dell'onda di materia di de Broglie. Supponiamo di avere una sorgente che emette coppie di elettroni, uno dei quali viene inviato alla destinazione A, dove c'è un'osservatrice di nome Alice, e l'altro viene inviato alla destinazione B, dove c'è un osservatore di nome Bob. Secondo la Meccanica Quantistica, possiamo predisporre la sorgente in modo che ciascuna coppia di elettroni emessi occupi uno stato quantistico detto singoletto di spin. Questo si può descrivere come sovrapposizione quantistica di due stati, indicati con I e II. Nello stato I, l'elettrone A ha spin parallelo all'asse z (+ z) e l'elettrone B ha spin antiparallelo all'asse z (– z). Nello stato II, l'elettrone A ha spin – z e l'elettrone B ha spin + z. È quindi impossibile associare a uno dei due elettroni nel singoletto di spin uno stato di spin definito: gli elettroni sono detti entangled, cioè "intrecciati".

Alice misura lo spin lungo l'asse z ottenendo uno dei due possibili risultati: + z o – z. Supponiamo che ottenga + z; secondo la meccanica quantistica la funzione d'onda che descrive lo stato di singoletto dei due elettroni collassa nello stato I (le diverse interpretazioni della meccanica quantistica affermano questo fatto in diversi modi, ma il risultato è sempre lo stesso), e tale stato quantistico determina le probabilità dei risultati di qualunque altra misura compiuta sul sistema. Se Bob successivamente misurasse lo spin lungo l'asse z, otterrebbe – z con una probabilità del 100 %. Analogamente, se Alice misurasse – z, Bob otterrebbe + z sempre con una probabilità del 100 %. Naturalmente non c'è niente di speciale nella scelta dell'asse z: se supponiamo che Alice e Bob decidano di misurare lo spin lungo l'asse x, secondo la meccanica quantistica lo stato di singoletto di spin può essere espresso adeguatamente come sovrapposizione di stati di spin lungo la direzione x, stati che chiameremo Ia e IIa. Nello stato Ia l'elettrone di Alice ha spin + x, quello di Bob ha spin – x, invece nello stato IIa l'elettrone di Alice ha spin – x, quello di Bob ha spin + x. Quindi, se Alice misura + x, il sistema collassa in Ia, e Bob misurerà – x con probabilità del 100 %; se Alice misura – x, il sistema collassa in IIa e Bob misurerà + x con probabilità del 100%.

Ma in meccanica quantistica la proiezione dello spin lungo x e quella lungo z sono quantità osservabili tra loro incompatibili, per cui uno stato quantistico non può possedere valori definiti per entrambe le variabili: ce lo dice il Principio di Indeterminazione di Heisenberg. Supponiamo che Alice misuri lo spin lungo z e ottenga + z, in modo che il sistema collassi nello stato I. Ora, invece di misurare lo spin lungo z, Bob misura lo spin lungo x: secondo la meccanica quantistica, c'è una probabilità del 50 % che egli ottenga + x e del 50 % che ottenga – x. Inoltre è impossibile predire quale sarà il risultato fino a quando Bob non esegue la misura. Naturalmente Bohm ha usato lo spin come esempio, ma si possono considerare molte altre quantità fisiche osservabili tra loro entangled: l'articolo originale del 1935, per esempio, usava l'impulso come quantità osservabile. Gli esperimenti odierni usano invece la polarizzazione dei fotoni, perché più facile da preparare e quindi da misurare.

A causa della perfetta anticorrelazione, Alice sa subito quale sarà il risultato se anche Bob misurerà lo spin del suo elettrone lungo z. Secondo il trio Einstein-Podolsky-Rosen, la componente z dell'elettrone di Bob sarebbe quindi un elemento della realtà. Allo stesso modo, se Alice decide di misurare lo spin lungo x, conoscerà con certezza il risultato di una misurazione dello spin dell'elettrone di Bob lungo x. In questo caso sarebbe la componente x dello spin dell'elettrone di Bob a essere un elemento della realtà. Ma dato che Alice e Bob sono molto distanti, la decisione di Alice di misurare lungo la direzione z o la direzione x non può influenzare quello che accade dalla parte di Bob. Quindi, per spiegare le perfette anticorrelazioni previste dalla teoria quantistica, il valore dello spin dell'elettrone di Bob deve essere perfettamente prevedibile sia lungo la direzione z che lungo la x. Questo sembra contraddire la Meccanica Quantistica, che afferma, tramite il Principio di Indeterminazione di Heisenberg, che lo spin può avere un valore ben definito lungo un'unica direzione e deve essere incerto lungo le altre.

Questo evidente paradosso portò il trio EPR a concludere che la teoria quantistica fosse incompleta; i tre ipotizzarono che si potesse risolvere la contraddizione completando la teoria con le cosiddette variabili nascoste. Potrebbe insomma esserci una teoria più profonda che va oltre la meccanica quantistica, e in cui gli elettroni hanno proprietà addizionali che descrivono come si comportano quando sono misurati congiuntamente. Queste variabili extra potrebbero essere nascoste ai nostri occhi, ma se riuscissimo ad accedervi potremmo prevedere esattamente che cosa accadrebbe agli elettroni: l'apparente indeterminazione delle particelle quantistiche sarebbe quindi dovuta alla nostra ignoranza, e non ad una intrinseca indeterminazione della Fisica dei Quanti. Questa possibile evoluzione della Meccanica Quantistica viene chiamata teoria delle variabili nascoste locali, dove l'aggettivo "locale" si riferisce al fatto che i segnali nascosti non potrebbero viaggiare a velocità maggiore della luce. Anche il famosissimo filosofo della scienza austriaco Karl Popper (1902-1994) criticò aspramente l'approccio probabilistico alla Meccanica Quantistica, per via della sua predilezione, che condivideva con Einstein, per un'interpretazione statistica che lascia aperte le porte a un possibile completamento della teoria con il ricorso alle presunte variabili nascoste. In realtà con la logica quantistica si può dimostrare che la meccanica quantistica non può essere completata in modo deterministico con una teoria non contestuale delle variabili nascoste.

Si noti che Einstein, Popper e soci non mettevano in discussione le previsioni della Meccanica Quantistica; essi credevano però che esistesse una verità più profonda, sotto forma di variabili nascoste che governano la realtà. Dopo l'articolo del 1935 l'interesse per questi aspetti della Meccanica Quantistica si affievolì, perché la possibile esistenza delle variabili nascoste era vista come una questione filosofica senza alcun valore pratico, dal momento che le previsioni formulate da teorie con e senza variabili nascoste sembravano identiche. Ma nel 1964 il fisico nordirlandese John Stewart Bell (1928-1990) con l'articolo "On the Einstein-Podolsky-Rosen Paradox" ("Sul paradosso Einstein-Podolsky-Rosen"), mostrò sorprendentemente che in certe circostanze le teorie con variabili nascoste e i meccanismi quantistici prevedevano risultati completamente diverse. Questi rivelazione implicava la possibilità di verificare sperimentalmente se le teorie a variabili nascoste locali e quindi la verità fisica più profonda cui aspiravano Einstein & C. possano esistere realmente.

Bell analizzò l'esperimento mentale di EPR, ma con una differenza: permise ad Alice e a Bob di misurare gli spin dei loro elettroni lungo ogni direzione possibile. Nell'esperimento tradizionale, Alice e Bob devono eseguire le loro misurazioni lungo la stessa direzione, e così scoprire che i loro risultati sono correlati al 100 %: se Alice ottiene "up", allora Bob ottiene sempre "down". Ma se a volte Alice e Bob misurano lo spin lungo assi diversi, in certi casi i loro risultati non sono sincronizzati, ed è qui che entrano in gioco le differenze tra la meccanica quantistica tradizionale e le teorie a variabili nascoste. Bell dimostrò che, per certi insiemi di direzioni, le correlazioni tra i risultati delle misurazioni di Alice e di Bob sarebbero più elevate secondo la teoria quantistica che secondo qualsiasi teoria a variabili nascoste locali, una differenza nota come disuguaglianza di Bell. Queste differenze emergono perché le variabili nascoste non possono influenzarsi a vicenda a velocità maggiore di quella luce, e quindi la misura in cui possono coordinare i loro sforzi è limitata. La Meccanica Quantistica, invece, permette agli spin di due elettroni di esistere congiuntamente in un unico stato indeterminato "in entanglement", che può estendersi su distanze enormi. L'entanglement fa si che la teoria quantistica preveda correlazioni che sono fino al 40 % più elevate. Questo risultato è noto ai Fisici come Teorema di Bell.

Il Teorema di Bell ha evidenziato per la prima volta un conflitto matematico tra la visione di Einstein e la Teoria Quantistica classica, e ha descritto un modo efficace per testare sperimentalmente le due possibilità. Poiché il teorema è espresso da una disuguaglianza che limita l'entità delle possibili correlazioni presenti in un teoria a variabili nascoste locali, dati sperimentali che superano questi limiti violando la disuguaglianza di Bell mostrerebbero che le teorie a variabili nascoste locali non possono descrivere la natura.

Poco dopo la formulazione del Teorema di Bell i fisici John Clauser (1942-), Michael Home, Abner Shimony (1928-2015) e Richard Holt trovarono disuguaglianze simili, note dalle loro iniziali come disuguaglianze CHSH, che erano più facili da verificare sperimentalmente. I primi esperimenti si sono svolti alla fine degli anni sessanta e da allora si sono avvicinati sempre più all'allestimento ideale proposto da Bell. Tali esperimenti hanno riscontrato correlazioni che violano la disuguaglianza di Bell, e apparentemente non si possono spiegare con le teorie a variabili nascoste locali. In quasi tutti gli esperimenti di questo tipo  vengono generati fotoni originariamente in entanglement tra di loro, e poi inviati alle stazioni di misurazione, che svolgono il ruolo di Alice e Bob. Le stazioni A e B misurano ciascuna il rispettivo fotone lungo uno dei due orientamenti osservandone la polarizzazione, cioè la direzione in cui oscilla il campo elettrico del fotone, poi vengono calcolate le correlazioni medie tra i risultati delle due stazioni e infine le correlazioni medie sono inserite nella Disuguaglianza di Bell per verificare se i risultati violano la disuguaglianza oppure no. Se si usano direzioni di misurazione fisse, le variabili nascoste di EPR avrebbero tutto il tempo, usando la conoscenza delle direzioni di misurazione su entrambi i lati, per influenzare i risultati: possono esserci segnali nascosti che, senza viaggiare più veloci della luce, dicono a Bob in quale direzione Alice ha misurato il suo fotone. Questa scappatoia della località fa sì che una teoria a variabili nascoste possa spiegare le correlazioni quantistiche. Nel 1982 in particolare il fisico francese Alain Aspect (1947-) e i suoi collaboratori hanno condotto un esperimento in cui venivano inviati fotoni alle estremità opposte di un ambiente molto ampio e veniva misurata la loro polarizzazione. Mentre questi fotoni entangled erano in volo, l'angolo di polarizzazione del dispositivo di misurazione cambiava periodicamente. Nel 1992 presso l'Università di Leida nei Paesi Bassi fu dimostrato sperimentalmente l'entanglement dei momenti angolari di quattro fotoni. Alla fine degli anni novanta l'austriaco Anton Zeilinger (1945-) e i suoi colleghi hanno migliorato ulteriormente questa strategia, usando direzioni di misurazione della polarizzazione davvero casuali, e non più periodiche. Inoltre queste direzioni erano determinate pochissimo prima della misurazione, quindi i segnali nascosti avrebbero dovuto viaggiare più velocemente della luce per influenzare questo esperimento. Nel 1997, poi, Danilo Boschi dell'Università "La Sapienza" di Roma, riuscì per la prima volta ad usare una coppia di particelle entangled letteralmente per "teletrasportare" uno stato quantistico da una posizione a un'altra distante, anche se il mittente non conosceva lo stato quantistico o la posizione del ricevente. La scappatoia della località era così sicuramente esclusa. In quell'occasione i giornali annunciarono con grande enfasi la scoperta del "teletrasporto" reso celebre dalla saga di Star Trek, ma ovviamente questo "teletrasporto" riguarda solo le proprietà quantistiche dei fotoni, e non certo la trasmissione a distanza della materia!

Questi affascinanti esperimenti però hanno un problema: è difficile lavorare con i fotoni. La maggior parte delle volte nei test non si otteneva nessuna risposta, semplicemente perché non i fotoni venivano... persi lungo la strada. Gli sperimentatori erano costretti ad assumere che le prove che funzionavano fossero rappresentative dell'insieme completo delle prove ("ipotesi del campionamento equo"). Se però si abbandona questa ipotesi, i risultati non violano più la disuguaglianza di Bell. Quindi, sebbene quei test della disuguaglianza di Bell fossero ingegnosi, potevano tutti, almeno in linea di principio, essere spiegati da una teoria a variabili nascoste locali. Una delle più grandi sfide della scienza quantistica era un test della disuguaglianza di Bell che chiudesse simultaneamente tutte le scappatoie di questo tipo. Grazie ai rapidi progressi nei mezzi per osservare e misurare i sistemi quantistici, nel 2015 ben quattro diversi gruppi di ricerca hanno trovato risultati che violano la disuguaglianza di Bell, chiudendo tutte le scappatoie e fornendo prove solide contro le teorie a variabili nascoste locali; per ottenere questo risultato i ricercatori sono passati dai fotoni alla materia. Ronald Hanson del Politecnico di Delft, nei Paesi Bassi, ha posto in entanglement gli spin di due elettroni, ciascuno contenuto in una lacuna di un diamante, cioè un cristallo in cui mancava un atomo di carbonio. I due elettroni entangled si trovavano in laboratori diversi del campus, e per essere certi che non ci fosse comunicazione tra loro è stato usato un generatore di numeri casuali per scegliere la direzione lungo cui misurare. La misurazione era effettuata e registrata localmente su un disco rigido prima che potesse arrivare alla velocità della luce qualsiasi eventuale informazione dalla misurazione sull'altro elettrone. Un segnale nascosto che dicesse a una stazione di misurazione quale direzione aveva usato l'altra non avrebbe avuto il tempo materiale di viaggiare da un laboratorio all'altro, e quindi la scappatoia della località era saldamente chiusa. Questi vincoli stretti sui tempi hanno imposto ad Hanson di separare i due elettroni di oltre un chilometro, circa due ordini di grandezza in più rispetto al precedente primato mondiale di distanza per sistemi di materia in entanglement. Dopo aver condotto l'esperimento ininterrottamente per varie settimane, nel giugno 2015 Hanson e colleghi hanno scoperto che la disuguaglianza di Bell veniva violata anche del 20 %, in pieno accordo con le previsioni della Meccanica Quantistica. La probabilità che questi risultati potessero apparire in un modello a variabili nascoste era invece inferiore al 4 %.

A settembre dello stesso anno un gruppo di fisici del National Institute of Standards and Technology (NIST) di  Gaithersburg (Maryland) guidati da Krister Shalm, ha invece usato fotoni entangled, e nel corso dello stesso mese anche il gruppo di Zeilinger a Vienna ha fatto altrettanto. Entrambi i gruppi hanno posto in entanglement gli staff di polarizzazione di due fotoni usando laser molto potenti (vedi il paragrafo successivo) per eccitare uno speciale materiale cristallino. In casi rarissimi, circa uno su un miliardo, entrando nel cristallo un fotone del laser subiva una trasformazione e si scindeva in una coppia di fotoni figli i cui staff di polarizzazione erano entangled. Con laser abbastanza potenti e stato possibile generare decine di migliaia di coppie di fotoni entangled al secondo. Mentre i fotoni erano in volo verso le stazioni di misurazione, l'apparato sperimentale decideva la direzione in cui misurare la loro polarizzazione in un modo che rendeva impossibile influenzare i risultati a qualsiasi variabile nascosta. Come si è detto, l'aspetto più impegnativo dell'uso dei fotoni è di impedire che vadano persi, e per questo sono stati sfruttati speciali rivelatori di singoli fotoni, fatti di materiali superconduttori freddi, inventati apposta per quello scopo. Poco dopo Harald Weinfurter, della Ludwig-Maximilians-Universitat di Monaco di Baviera e il suo staff hanno usato invece atomi di rubidio separati da 400 metri con un allestimento simile a quello di Hanson, e i loro risultati sono stati pubblicati nel 2017. Nel giugno 2017 inoltre un gruppo di ricercatori cinesi guidati da Juan Yin, Yuan Cao e Yu-Huai Li ha realizzato una rete di comunicazione quantistica composta da tre nodi e un satellite in orbita, che ha permesso la distribuzione di fotoni in entanglement tra i diversi nodi terrestri distanti 1.200 Km tra loro, e distanti tra i 1.600 e i 2.000 Km dal satellite in orbita. Il 16 maggio 2018 Gabriel Araneda e colleghi dell'Università di Innsbruck, in Austria, sono riusciti per la prima volta a produrre un effetto di interferenza controllata tra due singoli fotoni emessi da atomi entangled. L'8 marzo 2019, infine, Kevin Landsman e colleghi dell'Università del Maryland hanno dimostrato che il fenomeno della perdita dell'informazione da parte della materia che viene inghiottita da un buco nero può essere riprodotto in laboratorio usando qubit legati tra loro dall'entanglement. La probabilità che i risultati ottenuti da tutti questi esperimenti siano dovuti al caso è dell'ordine di uno su un miliardo: ancora più improbabile che indovinare una sestina al Superenalotto!

La maggior parte delle osservazioni dell'entanglement riguarda particelle singole o al massimo un ristretto gruppo di particelle, perché è difficile isolare dall'ambiente circostante insiemi più grandi di particelle. Le particelle al loro intorno diventano entangled con maggiore probabilità se isolate, nascondendo cosi la loro interconnessione primitiva. Un esperimento del 2003 però ha dimostrato che anche sistemi più grandi possono conservare l'entanglement: si parla in tal caso di entanglement macroscopico. Lo svizzero Gabriel Aeppli (1956-), dello University College di Londra, ha collocato fluoruro di litio in un campo magnetico esterno; le forze che gli atomi esercitano l'uno sull'altro agiscono come una pressione reciproca che ne accelera l'allineamento. Variando la forza del campo magnetico, Aeppli ha misurato la velocità dell'allineamento degli atomi, scoprendo che rispondevano molto più velocemente di quanto suggerirebbe l'intensità delle loro mutue interazioni. Evidentemente, qualche effetto ulteriore ha aiutato gli atomi a muoversi all'unisono per allinearsi nel campo magnetico, e secondo Aeppli il responsabile di questo fenomeno è l'entanglement. Se ciò è vero, gli atomi del cristallo macroscopico del sale hanno formato uno stato fortemente entangled! Per evitare gli effetti del disordine associato all'agitazione termica, Aeppli ha condotto gli esperimenti a temperature estremamente basse, pochi millesimi di grado sopra lo zero assoluto. Successivamente, però, Alexandre Martins de Souza del Centro Brasileiro de Pesquisas Fisicas di Rio de Janeiro ha osservato l'entanglement macroscopico in materiali come il carbossilato di rame a temperatura ambiente, o addirittura più alta. Ma non basta: il 27 settembre 2014 Naeimeh Behbood, dell'Istituto di Scienze Fotoniche di Barcellona, ha annunciato che la tecnica di Harald Weinfurter, usata per creare atomi di rubidio entangled tra di loro, come spiegato sopra, ha permesso addirittura di realizzare un nuovo stato della materia, costituito da 500.000 atomi di rubidio raffreddati ad una temperatura di 20 milionesimi di Kelvin. Non si sa se gli atomi entangled sono quellii immediatamente a fianco gli uni degli altri, o altri più distanti, né se la distanza è casuale, ma si tratta comunque di un risultato importantissimo. Inoltre, il 6 maggio 2018 Simon Gröblacher e i suoi colleghi del Politecnico di Delft hanno fatto incidere fasci laser lunghi circa 10 micrometri su trucioli di silicio. I raggi, le cui dimensioni si avvicinano a quelle di un batterio, sono stati fatti oscillare similmente a come accade per una corda di chitarra pizzicata. I ricercatori hanno collegato i chip con una fibra ottica e raffreddato l'intero sistema vicino allo zero assoluto per minimizzare il rumore termico. Poi, utilizzando impulsi laser abilmente controllati, il team ha dato maggiore energia ad un raggio laser facendolo vibrare un po' più intensamente rispetto agli altri. Misurando la luce proveniente dall'apparecchio, i ricercatori hanno appurato che l'aumento di energia si è verificato, ma non hanno registrato quale fascio ha ottenuto l'energia, il che significa che l'energia aggiunta è stata condivisa da entrambi i fasci, il segno distintivo dell'entanglement quantistico. Il delicato stato entangled è durato solo una frazione di secondo, ma ormai si può affermare che l'entanglement è stato osservato in oggetti quasi visibili a occhio nudo.

Questi esperimenti ci obbligano a concludere che qualsiasi modello a variabili nascoste locali, come quelli sostenuti da Einstein, è incompatibile con la natura. Le correlazioni osservate tra le particelle quantistiche vanno contro il nostro intuito, e mostrano che l'inquietante azione a distanza ha effettivamente luogo. Se è così, questo incredibile "teletrasporto" può avere applicazioni pratiche? Certo che sì, specialmente nella citata progettazione dei futuribili computer quantistici, ma anche nella generazione di numeri casuali (non ci crederete, ma si tratta di un grosso problema dell'informatica) da usare per la crittografia. Infine, le tecniche sviluppate negli esperimenti di Bell privi di scappatoie rendono possibili tipi di reti di comunicazione nuovi, chiamate "Internet quantistiche", che possono svolgere attività fuori dalla portata delle reti di informazione classiche, ad esempio permettendo comunicazioni sicure, sincronizzazioni temporali e reti di sensori quantistici. Si spera che una prima versione rudimentale di una Internet quantistica potrebbe essere realizzata già negli anni 2020.

Il 4 maggio 2016 poi un team di scienziati dell’Oak Ridge National Laboratory in Tennessee ha annunciato la scoperta del liquido quantistico di spin, un nuovo stato della materia la cui esistenza era stata ipotizzata dal premio Nobel Philip Anderson (1923-) per alcuni materiali magnetici, ma mai provata sperimentalmente prima di allora. In un normale materiale magnetico gli elettroni si comportano come gli aghi magnetici di una bussola: a temperature sufficientemente basse "si allineano" in modo tale da orientare tutti lo stesso polo nella stessa direzione. In un materiale che si trova nello stato di liquido quantistico di spin, invece, questo non avviene: anche a temperature vicine allo zero assoluto gli elettroni non si allineano ma assumono piuttosto una disposizione disordinata definita dai fisici "zuppa di entanglement", perché frutto di fluttuazioni quantistiche dovute proprio a questo fenomeno. Gli scienziati hanno irraggiato dei cristalli di tricloruro di rutenio (RuCl3) con un fascio di neutroni, osservando le tracce che il loro passaggio attraverso questo materiale lasciavano su di uno schermo. Se si fosse trattato di un normale magnete, le tracce avrebbero avuto un aspetto conosciuto ai ricercatori, ma quello che hanno potuto osservare non era simile a nulla di noto. Ovviamente anche questo nuovo stato della materia potrebbe aprire la strada verso nuovi sviluppi dell’informatica quantistica. E non finisce qui.

Copertina de "Le Scienze" dell'agosto 2011, dedicata all'entanglement quantistico

Copertina de "Le Scienze" dell'agosto 2011,
dedicata all'entanglement quantistico

Ci credereste che l'entanglement potrebbe spiegare anche il comportamento di uccelli migratori che stagionalmente si spostano dall'Europa alle calde pianure dell'Africa equatoriale per poi far ritorno in primavera, percorrendo tra andata e ritorno più di 3.000 chilometri? L'uomo si è sempre chiesto se uccelli e altri animali migratori potessero contare su qualche bussola naturale. Negli anni settanta i coniugi Wolfgang (1938-) e Roswitha Wiltschko (1947-) della Goethe-Universität di Francoforte catturarono uccelli che stavano migrando in Africa e li immersero un campo magnetico artificiale, scoprendo che, stranamente, essi erano indifferenti all'inversione della direzione dal campo magnetico, dimostrando di non saper distinguere il nord dal sud. Gli uccelli però reagivano all'inclinazione dal campo magnetico terrestre, cioè all'angolo che le linee dal campo formano con la superficie. Curiosamente, con gli occhi coperti gli uccelli non rispondono al campo magnetico, dimostrando che in qualche modo percepiscono tale campo con gli occhi. Nel 2000 il fisico Thorsten Ritz (1971-) dell'University of South Florida propose una spiegazione dal fenomeno fondata sull'entanglement: secondo lui, l'occhio di un uccello conterrebbe una molecola in cui due elettroni formerebbero una coppia entangled con momento angolare totale nullo, una situazione che non può essere descritta dalla Fisica Classica. Quando la molecola assorbe la luce visibile, gli elettroni riceverebbero abbastanza energia da separarsi e diventare suscettibili a influenze esterne, come il campo magnetico terrestre. Se il campo magnetico è inclinato, influirebbe in modo diverso sui due elettroni, creando uno squilibrio che cambierebbe la reazione chimica a cui è soggetta la molecola. Le reazioni chimiche nell'occhio tradurrebbero questa differenza in un impulso neurologico, che a sue volta produrrebbe un'immagine del campo magnetico nel cervello dell'uccello.

Anche la fotosintesi clorofilliana, il processo grazie a cui le piante convertono la luce del Sole in energia chimica, è un processo biologico in cui potrebbe operare l'entanglement quantistico. La luce infatti espelle gli elettroni che si trovano all'interno delle cellule vegetali, e tutti gli elettroni "cercano" la strada verso lo stesso punto: il centro della reazione chimica in cui possono depositare la loro energia e avviare le reazioni che alimentano le cellule vegetali. La Fisica Classica non riesce a spiegare l'efficienza quasi perfetta dal comportamento degli elettroni. Secondo gli esperimenti condotti da Graham R. Fleming e Mohan Sarovar dell'Università della California a Berkeley e da Gregory D. Scholes dell'Università di Toronto, all'origine dell'alta efficienza del processo ci sarebbe proprio la Meccanica Quantistica. Nei mondo quantistico infatti una particella non deve percorrere per forza una sola traiettoria per volta, può percorrerle tutte simultaneamente. Il campo elettromagnetico all'interno delle cellule delle piante potrebbe far sì che alcune traiettorie "si cancellino a vicenda" e che altre "si rinforzino", riducendo dunque la probabilità che l'elettrone prenda una strada inutilmente più lunga e aumentando la probabilità di indirizzare l'elettrone direttamente al centro della reazione. L'entanglement dovrebbe durare solo una frazione di secondo e riguarderebbe gruppi composti da non più di 100.000 molecola. Questa spiegazione è ancora controversa, ma è abbastanza intrigante da stimolare la nascita di una nuova disciplina, la biologia quantistica.

Come ha dichiarato Ronald Hanson, questi risultati hanno aperto la porta allo sfruttamento del fenomeno dell'entanglement in modi che Einstein e Bell non avrebbero potuto neppure sognare: la silenziosa rivoluzione avviata da John Bell è in pieno svolgimento, e speriamo presto di poterne cogliere i frutti. Per usare le parole di Einstein, quanto meglio comprendiamo l'entanglement, tanto meno esso diventa "spaventoso"!

.

8.6  Il laser e le statistiche quantistiche

Non si può scrivere un libro dedicato ai misteri della Meccanica Quantistica senza citare un importantissimo dispositivo, il laser, che basa il suo funzionamento proprio sulle proprietà quantistiche della materia. "Laser" è l'acronimo dell'inglese "light amplification by stimulated emission of radiation" ("amplificazione della luce mediante emissione stimolata di radiazione"), e con questo termine si intende un dispositivo in grado di emettere un fascio di luce coerente, tale cioè che i suoi fotoni hanno tutti la stessa frequenza e la stessa fase iniziale, monocromatico e fortemente direzionale, capace cioè di non divergere anche per parecchi chilometri. In pratica il laser è uno strumento in grado di trasformare, mediante opportuni stimoli, le onde emesse da una sorgente luminosa convenzionale in una radiazione monocromatica e coerente.

Nel 1917 fu il solito Albert Einstein a formulare le basi teoriche del laser nell'articolo "Zur Quantentheorie der Strahlung" ("Sulla teoria quantistica delle radiazioni"), attraverso una nuova derivazione delle leggi sulla radiazione di Max Planck. Nel 1928 il tedesco Rudolf W. Ladenburg (1882-1952) dimostrò l'esistenza dell'emissione stimolata, che fu ottenuta per la prima volta sperimentalmente nel 1947 dagli americani Willis E. Lamb (1913-2008) e Robert Curtis Retherford (1912-1981). Il primo amplificatore per microonde ad emissione stimolata sull'ammoniaca, chiamato maser ("microwave amplification by stimulated emission of radiation"), fu messo a punto nel 1954 dagli americani Charles Hard Townes (1915-2015), James Power Gordon (1928-2013) e Herbert J. Zeiger (1925-2011): fu il primo amplificatore di radiazioni ad emissione stimolata. L'invenzione del laser è stata realizzata indipendentemente tra loro da più gruppi di ricerca: il 16 maggio 1960 Theodore H. Maiman (1927-2007) azionò il primo laser funzionante a Malibù in California presso i laboratori della Hughes Research; esso sfruttava il cristallo di rubino in grado di produrre un raggio laser rosso con una lunghezza d'onda di 694 nm. Contemporaneamente anche Nikolaj Gennadievič Basov (1922-2001) in Unione Sovietica giungeva allo stesso risultato. Sempre nel 1960 l'iraniano Ali Javan (1926-2016) e gli americani William R. Bennett (1930-2008) e Donald Herriott (1928-2007) costruirono un laser utilizzando l'elio ed il neon, in grado di produrre un raggio infrarosso coerente. Nel 1963 invece l'indiano Kumar Patel (1938-) dei Bell Laboratories mise a punto il laser ad anidride carbonica. Nel 1971 infine il giapponese Izuo Hayashi (1922-2005) e l'americano Morton B. Panish (1929-) sempre dei Bell Laboratories ottennero il primo laser a semiconduttori (diodo laser) in grado di operare con continuità a temperatura ambiente.

Ma come funziona il laser? Come sappiamo, se un atomo viene eccitato da un opportuno stimolo energetico, tende a ritornare allo stato di minima energia, chiamato stato fondamentale o "ground zero", mediante l'emissione di fotoni. Questo processo, detto diseccitazione atomica, può avvenire in due modi. Il primo, attraverso l'emissione spontanea, cioè il fenomeno con cui si origina la normale radiazione luminosa visibile. La diseccitazione spontanea degli atomi e un processo naturale in cui i quanti di luce vengono emessi casualmente in ogni direzione dello spazio (incoerenza spaziale) e in tempi diversi, cioè senza alcuna correlazione di fase (incoerenza temporale). Per esempio, se consideriamo le radiazioni emesse da una normale lampada ad incandescenza, i treni d'onda, derivando da un'emissione spontanea, sono sfasati fra loro, cioè sono incoerenti, e si propagano in diverse direzioni.

Il secondo meccanismo invece è quello dell'emissione stimolata: gli atomi eccitati sono stimolati ad emettere un fascio di radiazioni con le stesse caratteristiche spazio-temporali, cioè con la stessa lunghezza d'onda, con la stessa fase e collimato in una precisa direzione dello spazio. Ciò si può verificare quando gli atomi, preventivamente eccitati in stati metastabili, interagiscono con una radiazione di opportune frequenza, e quindi decadono in stati di minore energia con conseguente emissione di radiazione elettromagnetica, senza peraltro assorbire i fotoni della radiazione stimolante. In queste condizioni i contributi dei due treni di onde, rappresentati dai fotoni primari e dai fotoni indotti, si sommano, esaltando il processo di emissione. Per comprendere questo fenomeno si può ricorrere ad un esempio suggestivo: i fotoni di una radiazione incoerente possono essere paragonati ai bambini che, alla fine delle lezioni. escono da una scuola sparpagliandosi in tutte le direzioni con andatura diversa, mentre i fotoni di una radiazione coerente possono essere immaginati come un plotone di soldati che escono da una caserma tutti con lo stesso passo, perfettamente sincronizzati tra di loro!

Ma come funziona un dispositivo a luce coerente, per esempio il laser a rubino, che come visto ha rappresentato il primo laser a stato solido? L'apparato è essenzialmente formato da una cavità speculare nel cui interno sono inserite una lampada e un cristallo di rubino, varietà monocristallina dell'ossido di alluminio (Al2O3). La sorgente, detta lampada di pompaggio, innesca mediante un lampo di luce molto intenso l'eccitazione iniziale. Il cristallo di rubino, opportunamente dimensionato, rappresenta il materiale otticamente attivo, ossia il mezzo da eccitare; alle sue estremità vi sono due specchi paralleli, uno perfettamente riflettente, l'altro semitrasparente, per consentire la parziale emissione della radiazione coerente che si forma nella cavità. Oltre al rubino, sono numerose le sostanze che possono essere utilizzate come materiale otticamente attivo; la natura e lo stato di aggregazione del materiale attivo sono i principali fattori che distinguono fra loro i diversi tipi di laser (a stato solido, a gas, a liquido, a semiconduttore, ecc.).

La fase iniziale di eccitazione, provocata dal lampo emesso dalla lampada o da una scarica elettrica come nei laser a gas, viene chiamata fase di pompaggio, ed è caratterizzata dalla cosiddetta inversione di popolazione dei livelli energetici. Quest'espressione deriva dal fatto che, mentre prima dell'eccitazione la maggior parte degli atomi del mezzo attivo si trovano nello stato fondamentale, dopo l'eccitazione, prodotta dai primi quanti di luce o dalla scarica d'innesco e dai fotoni originati dalle prime diseccitazioni atomiche, gli atomi vengono "pompati" su un livello di energia superiore, cioè su uno stato eccitato. Tale stato è però metastabile, come un'asta tenuta in equilibrio su un dito in posizione verticale; non appena questi atomi vengono ulteriormente stimolati da altri fotoni, decadono con emissione di radiazione, senza però assorbirne: l'energia dei fotoni prodotta in questo decadimento si somma con quella dei fotoni incidenti. In pratica ogni fotone, muovendosi nel materiale attivo per un certo intervallo di tempo prolungato dalle molteplici riflessioni sulle superficie speculari, stimola mediante gli urti contro gli atomi eccitati, l'emissione di altri fotoni in cascata. Si parla in proposito di catena di moltiplicazione. Il percorso della catena di moltiplicazione, e quindi l'intensità del fascio, viene incrementato artificialmente mediante i due specchi paralleli che prolungano il tempo di permanenza dei fotoni nel materiale. Il funzionamento del tutto è ben illustrato da questa animazione:

Recentissima (risale al marzo 2019) è l'invenzione, da parte di un team di ricercatori dell'Istituto Nanoscienze del CNR, di un nuovo tipo di laser costituito da una rete di filamenti miniaturizzati di polimeri, da usare in sensori ottici ad alta efficienza. Il cuore di questo laser è costituito da un impalpabile intreccio di nanofibre polimeriche che emettono e amplificano la luce, al posto degli specchi dei laser tradizionali. Le nanofibre di materiale fotoattivo, con un diametro compreso tra i 200 e i 500 nanometri, emettono luce e poi funzionano come fibre ottiche lungo le quali questa si propaga: intrappolata nel reticolo lungo i percorsi di una matrice disordinata, la luce è soggetta a interferenze in centinaia di nodi ed emerge amplificata come luce laser. Da notare che i polimeri dei filamenti sono stati drogati con molecole organiche per conferire le proprietà di emissione ed amplificazione di luce all'intera rete.

Innumerevoli sono le applicazioni pratiche del laser, legate in particolare alla coerenza e alla direzionalità del fascio di luce così ottenuto. Utilizzando un laser di potenza a rubino, ad esempio, possiamo produrre cambiamenti di stato cosi localizzati da far evaporare quasi istantaneamente ogni materiale conosciuto. Per scopi industriali e tecnologici il laser viene usato per saldature normali e per microsaldature, per il taglio di molti materiali, per effettuare minutissimi fori del diametro di pochi micron, mentre nella ricerca scientifica il laser viene prevalentemente usato per studiare alcune microstrutture della materia, per indagare sugli effetti indotti dalle alte temperature, per produrre reazioni chimiche difficilmente ottenibili con le consuete tecniche, per l'analisi spettroscopica dei vapori emessi da una zona estremamente localizzata, e persino per cercare di provocare una fusione nucleare controllata in un plasma (vedi questa pagina per maggiori informazioni su quest'ultimo punto). Importanti sono anche le applicazioni nel campo delle comunicazioni terrestri e spaziali, nella meteorologia e soprattutto nella realizzazione di ologrammi tridimensionali. A scopi militari sono stati messi a punto sistemi laser di intercettazione balistica, mentre armi laser in grado di distruggere obiettivi in movimento restano per fortuna ancora confinate nella fantascienza.

Uno dei campi di applicazione più importanti del laser è però senza dubbio quello della medicina. Per la ridottissima area focale, per la facilita del controllo del fascio, per le proprietà micro-cauterizzanti (simultaneamente taglia e coagula), il laser rappresenta un prezioso strumento per moltissimi interventi di chirurgia, specie su tessuti altamente vascolarizzati, o di difficile accesso, o di ridotte dimensioni, quando è necessario conservare la funzionalità del tessuto dopo l'operazione, ad esempio nella neurochirurgia. In particolare il laser è utilizzato con successo in oftalmologia, ad esempio nella laserterapia retinica. Il laser è però utilizzato anche per i trattamenti di fotoepilazione e contro l'invecchiamento cutaneo. Il laser viene utilizzato come tecnica non invasiva anche per la rimozione di tumori allo stadio iniziale (terapia fotodinamica): nei tessuti viene iniettato una sostanza fotosensibile con un assorbimento selettivo nei tessuti malati. Al passaggio di un fascio di luce ad una determinata lunghezza d'onda, il farmaco attiva una reazione che ha per protagonista l'ossigeno, ossida e distrugge le sole cellule malate. Si noti che che il farmaco agisce selettivamente e le cellule sane non vengono intaccate, come avviene durante un'asportazione chirurgica.

>

Aggiungiamo che la Audi R8 LMX nel 2014 è stata la prima vettura di serie ad essere dotata di fari laser. Inoltre sono entrate nell'immaginario collettivo le spade laser dei Jedi e dei Sith nella grande saga di Star Wars, da noi già presentate al termine del capitolo 2, ma esse saranno certamente irrealizzabili per sempre, sia perchè il fascio laser non può interrompersi di colpo dopo aver percorso una certa distanza, sia perchè non può in alcun modo essere reso "solido" al punto da combattere con esse come si fa con le katane giapponesi!

Non si può però capire fino in fondo il funzionamento del laser, se non si accenna alla cosiddetta statistica di Bose-Einstein. Nel 1924 il fisico indiano Satyendra Nath Bose (1894-1974) riuscì a ricavare su base statistica la legge del corpo nero di Planck. Tale lavoro era talmente originale e contrastante con le leggi comuni della statistica classica, che fu creduto pieno di errori banali, e quindi la sua pubblicazione venne rifiutata (nel 1924 il Principio di Esclusione di Pauli non era stato ancora formulato: sarebbe stato pubblicato solo l'anno seguente). Scoraggiato da tale rifiuto, Bose inviò il suo lavoro ad Albert Einstein, chiedendogli di tradurlo in tedesco; l'autore della Teoria della Relatività ne riconobbe subito gli aspetti rivoluzionari e la validità teorica, anche perché la statistica di Bose era in perfetto accordo con i dati sperimentali. Dalla loro collaborazione nacque la prima statistica quantistica, detta oggi, in loro onore, statistica di Bose-Einstein. Al contrario di quella di Maxwell-Boltzmann, la statistica classica su cui si basava la Termodinamica dei gas ideali, per la quale rimando a quest'altro mio lavoro, essa prevedeva in maniera fondamentale la quantizzazione dell'energia, e le particelle venivano considerate indistinguibili l'una dall'altra.

Satyendra Nath Bose ed Albert Einstein

La statistica di Bose-Einstein (qui sopra vedete le fotografie dei suoi padri) risulta valida per le particelle che non rispettano il Principio di Esclusione di Pauli. Ma quest'ultimo è stato formulato riferendosi allo spin dell'elettrone che vale 1 / 2, dunque se ne deduce che tale statistica vale per le particelle a spin intero o nullo (in unità h/2π), dette bosoni in onore di Bose. Oggi sappiamo che sono bosoni tutte le particelle vettori di campo come il fotone, il gravitone, gli astenoni di Rubbia W± e Z0, il famosissimo Bosone di Higgs. Dalla statistica di Bose-Einstein si evince che i bosoni, quando la zona in cui esistono e limitata, tendono ad occupare lo stesso stato quantico senza limitazione di numero. In altre parole, uno stesso stato quantico in teoria può ospitare infiniti bosoni, al contrario degli elettroni che, invece, rispettano il principio di esclusione di Pauli. Da questo punto di vista si riesce a dare una giustificazione della catena di moltiplicazione nella produzione laser, mentre nessuno potrebbe mai realizzare un laser ad elettroni.

La distribuzione di Bose-Einstein è descritta dalla formula seguente:

          (8.5)

con Ei > μ. In essa, ni è il numero medio di particelle nello stato i, Ei è l'energia dell'i-esimo stato, μ è il potenziale chimico, KB è la costante di Boltzmann e T è la temperatura assoluta. E quanto a gi? Un qualsiasi numero di bosoni può occupare lo stesso sottolivello, esattamente come testa-croce e croce-testa risultano indistinguibili nella statistica di Bose ed Einstein. Supponiamo che ciascun livello contenga gi sottolivelli distinti, ma tutti con la stessa energia e distinguibili tra loro. Ad esempio, due particelle potrebbero avere momenti diversi e di conseguenza essere distinguibili, ma potrebbero avere la stessa energia. Il valore gi dell'i-esimo livello è chiamato degenerazione di quel livello di energia.

La distribuzione di Bose-Einstein non è l'unica distribuzione quantistica conosciuta. I due grandi fisici Enrico Fermi (1951-1954) e Paul Adrien Maurice Dirac (1902-1984), due tra i padri nobili della Meccanica Quantistica, nel 1926 ne introdussero un'altra, detta distribuzione di Fermi-Dirac in loro onore, valida non per i bosoni ma per i fermioni. Queste ultime sono particelle a spin semintero che obbediscono al Principio di Esclusione di Pauli, secondo il quale non possono esistere nello stesso stato quantistico due fermioni aventi gli stessi numeri quantici. In altre parole, i fermioni sono distinguibili fra di loro, a differenza dei bosoni che risultano indistinguibili, Sono fermioni tutte le particelle di materia. e cioè gli adroni, a loro volta suddivisi in barioni (protone, neutrone) e mesoni (mesone , mesone ), e i leptoni (elettrone, muone, neutrino); per saperne di più consultate questa pagina di un altro mio ipertesto. Per completezza, ecco la formula della distribuzione di Fermi-Dirac, cioè del numero medio di fermioni che occupano uno stato di singola particella di energia Ei alla temperatura assoluta T:

          (8.6)

dove ni è il numero medio di particelle nello stato considerato, Ei è l'energia dello stato considerato, EF è l'energia di Fermi (l'energia del più alto livello occupato dal gas di elettroni ad una temperatura molto vicina allo zero assoluto), KB è la costante di Boltzmann e T è la temperatura assoluta.

Siccome gli elettroni sono fermioni, gli elettroni dentro un metallo, che sono liberi di muoversi da un atomo all'altro, obbediscono alla distribuzione di Fermi-Dirac; ne consegue che gli elettroni dentro un conduttore si comportano esattamente come le molecole di un gas, come abbiamo detto nel § 8.2 soprastante; proprio per questo si parla di gas di elettroni di Fermi. La distribuzione di Maxwell-Boltzmann rappresenta il limite classico in condizioni non degeneri e ad alta temperatura delle distribuzioni di Bose-Einstein e di Fermi-Dirac: infatti ad alta temperatura la maggior parte dei sistemi si comporta analogamente a quelli classici, ovvero le differenze tra fermioni e bosoni sono trascurabili, a meno che essi abbiano una densità molto alta, come ad esempio in una stella di neutroni.

.

8.7  La sfida della superconduttività

Prima di chiudere questo capitolo e passare all'ultimo, vorrei parlare di un fenomeno molto sfruttato dalle tecnologie odierne, la superconduttività. Si tratta del fenomeno fisico che comporta l'annullamento della resistenza elettrica di molti materiali, fra i quali circa un quarto dei metalli e più di un migliaio fra leghe e composti. Essa avviene al di sotto di una temperatura caratteristica detta temperatura critica. Tale proprietà fu scoperta nel 1911 dal fisico olandese Heike Kamerlingh Onnes (1853-1926), il quale per questo ricevette il premio Nobel per la fisica nel 1913. Egli trovò infatti che alla temperatura di 4.2 K il mercurio vede annullarsi la propria resistenza; negli anni successivi la superconduttività fu osservata in molti altri materiali. I superconduttori si comportano in modo diverso dai normali conduttori anche dal punto di vista magnetico: se infatti si applica un campo magnetico a un corpo superconduttore raffreddato al di sotto della temperatura critica, il flusso magnetico all'interno del materiale rimane nullo: in altre parole, il superconduttore è un materiale perfettamente diamagnetico, nel senso che le correnti indotte producono una risposta capace di escludere dall'interno del campione il flusso prodotto da un campo magnetico esterno. Si parla di effetto Meissner-Ochsenfeld, dai nomi dei fisici tedeschi Walther Meissner (1882-1974) e Robert Ochsenfeld (1901-1993), che lo osservarono per la prima volta nel 1933 in campioni di stagno e piombo. Il diamagnetismo dovuto a quest'effetto è alla base della levitazione magnetica dei superconduttori.

Malgrado gli sforzi, nessuno fu in grado di spiegare il fenomeno della superconduttività nell'ambito della Fisica Classica. Soltanto nel 1957 fu proposta una teoria convincente della superconduttività, fondata sulla Fisica Quantistica ed oggi ricordata come teoria BCS dei cognomi dei suoi autori, gli scienziati americani John Bardeen (1908-1991), Leon Neil Cooper (1930-) e John Robert Schrieffer (1931-), i quali nel 1972 ricevettero il premio Nobel. Di John Bardeen abbiamo già parlato nel § 8.3 come uno degli ideatori del transistor.

Levitazione magnetica di un superconduttore di neodimio

Levitazione magnetica di un superconduttore di neodimio

La teoria BCS richiede conoscenze avanzate di Meccanica Quantistica, e qui ne faremo solo una trattazione molto semplificata. L'idea di base è che esiste una debole interazione fra coppie di elettroni di conduzione che, muovendosi nel cristallo con spin opposti, sono anche lontani uno dall'altro. L'interazione non è diretta, bensì mediata dagli ioni del reticolo. In pratica, un elettrone in moto interagisce elettricamente con alcuni ioni del reticolo e trasferisce loro una certa quantità di moto. Per via delle proprietà elastiche del cristallo, questo impulso dà luogo alla propagazione di un'onda, che corrisponde a un aumento localizzato della densità di carica positiva dovuta agli ioni del cristallo. Le onde elastiche nel reticolo, anch'esse quantizzate, sono dette fononi, come diremo nel § 9.6. Un secondo elettrone, che ha spin opposto al primo e passa nella zona del reticolo cosi perturbata, risente di un eccesso di attrazione coulombiana e assorbe la quantità di mote che era stata ceduta al reticolo dal primo elettrone.

Quindi, con la mediazione degli ioni del reticolo, i due elettroni si scambiano quantità di moto, e quindi tra di essi si esercita una forza. Un esame approfondito permette di concludere che si tratta di una debolissima forza attrattiva, i cui effetti, se la temperatura del cristallo è elevata, sono completamente cancellati dal moto di agitazione termica degli ioni e degli elettroni. Se la temperatura è però abbastanza bassa, e quindi al di sotto della temperatura critica, la forza è sufficiente per legare i due elettroni a formare quella che si chiama una coppia di Cooper. Essendo il legame molto debole, le coppie si formano e si rompono in continuazione, e tra i due elettroni di una coppia (la cui distanza spaziale è dell'ordine del micron) vi sono milioni di altri elettroni. Ciò non toglie che le coppie di Cooper vadano trattate come particelle che, avendo momento angolare nullo, dato che gli spin dei due elettroni sono opposti, si comportano come bosoni, cioè obbediscono alla suddetta Statistica di Bose-Einstein. Ora, la Meccanica Quantistica ci insegna che i bosoni, occupando uno stesso stato quantico, formano un "condensato di bosoni" e tendono a muoversi tutti coerentemente nella stessa direzione e con la stessa velocità (è il fenomeno alla base del funzionamento del laser). La Meccanica Quantistica rappresenta questo comportamento con una sola funzione d'onda, che descrive il mote coerente di milioni di coppie di Cooper.

Sotto l'effetto di una differenza di potenziale applicata dall'esterno al superconduttore, la funzione d'onda si "mette in moto", e così tutte le coppie di Cooper sono obbligate a muoversi con la medesima quantità di moto. Per perturbare il moto della funzione d'onda sarebbe necessario cambiare di uno stesso ammontare la quantità di moto di tutte le coppie, applicando a tutte la stessa forza; ciò però non può accadere nelle interazioni casuali dei singoli elettroni attraverso gli ioni del reticolo. In definitiva, il condensato di coppie di Cooper continua a muoversi indefinitamente attraverso il reticolo senza incontrare resistenza e il materiale si comporta, se la temperatura e abbastanza bassa, da superconduttore. L'esistenza di una sola funzione d'onda che descrive il comportamento collettivo di milioni di coppie di Cooper permette di spiegare anche l'espulsione del campo magnetico dai materiali superconduttori. Se infatti immergiamo un superconduttore in un campo magnetico, il campo non può penetrare all'interno: infatti, non appena vi penetrasse, si creerebbe una variazione di flusso del campo magnetico e, per la legge di Lenz, questo genererebbe un campo elettrico orientato in modo tale da creare un campo magnetico contrario a quello originario. Dato che la resistenza di un superconduttore è nulla, anche un campo infinitesimo genererebbe all'interno del superconduttore una corrente abbastanza potente da annullare il campo magnetico, e quindi ogni variazione viene annullata.

Questi comportamenti collettivi sono esempi di quantizzazione macroscopica, cioè di effetti delle leggi della Meccanica Quantistica che si estendono dalla scala atomica a quella degli oggetti che possiamo comunemente maneggiare. Essi hanno grande importanza pratica, perché permettono la trasmissione di grandissime correnti e la produzione di intensissimi campi magnetici con bassi consumi di energia elettrica. In una sbarretta superconduttrice infatti si ha passaggio di corrente elettrica senza che vi sia un'apprezzabile differenza di potenziale agli estremi, tanto che una corrente elettrica potrebbe percorrere un anello superconduttore per anni e anni senza bisogno di una forza elettromotrice: sarebbe un risultato eccezionale da un punto di vista ingegneristico, visto che poche realtà sono così difficili da conservare nel tempo come la corrente elettrica! E non è tutto: per realizzare gli intensissimi campi magnetici necessari a tenere confinato un plasma dentro un tokamak sono necessarie correnti così alte, da far fondere qualsiasi conduttore metallico per effetto Joule. L'unica possibilità consiste nel fare ricorso a bobine superconduttrici e, quindi, a materiali raffreddati fino in prossimità dello zero assoluto. In altre parole, per ottenere le temperature ultracalde necessarie alla fusione nucleare sono necessarie le temperature ultrafredde dei superconduttori!

Lo Shanghai Transrapid

Tra le altre applicazioni pratiche dei semiconduttori vi è la costruzione di elettromagneti a basso consumo che possono essere usati nei sistemi di trasporto a levitazione magnetica: la levitazione del magnete è stabilizzata dal blocco del flusso all'interno del superconduttore. Questo principio è sfruttato dalle sospensioni elettrodinamiche dei treni a levitazione magnetica.come il MagLev, il treno giapponese che, grazie a potenti campi magnetici, viaggia sospeso a 10 centimetri dal suolo e può raggiungere la velocità di 500 km/h con un consumo di energia limitato e un livello di rumore accettabile: i conduttori in cui circola la corrente, che produce il campo magnetico, sono a base di titanio e vengono raffreddati mediante elio liquido. Il primo sistema commerciale di MagLev urbano è diventato operativo in Giappone nel marzo 2005. Sebbene la velocità del MagLev gli consenta di fare concorrenza all'aereo anche nei lunghi percorsi, i costi per la realizzazione delle infrastrutture ne hanno limitato finora l'utilizzo a brevi tratte molto frequentate: a Shanghai un MagLev detto Shanghai Transrapid (vedi foto soprastante) collega la città con l'aeroporto, la linea è lunga 33 chilometri e viene percorsa dal treno in 7 minuti e 20 secondi con una velocità massima di 501,5 km/h e una velocità media di 250 km/h. Nella prefettura giapponese di Yamanashi il 21 luglio 2015 il treno MagLev Shinkansen Serie L0 ha raggiunto la velocità record di 603 km/h, la maggiore mai raggiunta da un convoglio terrestre! Alcuni ingegneri hanno proposto addirittura di realizzare dei tunnel sotterranei privi di aria, in modo da poter far viaggiare il treno dentro di essi senza preoccuparsi dell'attrito dell'aria. Questi convogli sarebbero in grado di viaggiare a velocità massime di 800–1000 km/h e, se viaggiassero abbastanza in profondità, potrebbero perfino attraversare gli oceani. Ma senza un radicale miglioramento delle tecniche di perforazione, questi progetti per ora sono irrealizzabili.

Sfortunatamente, le temperature critiche dei metalli più comuni sono tutte bassissime. Il niobio diventa superconduttore a 9,3 K (– 264 °C), il piombo a 7,2 K, il mercurio a 4,2 K, lo stagno a 3,7 K, l'indio a 3,4 K, l'alluminio addirittura a soli 1,2 K. La sfida è quella di trovare metalli e leghe con temperature critiche più alte, in modo da non dover scendere così vicino allo zero assoluto con grandi difficoltà tecnologiche. Nel 1973 si scoprì che la lega Nb3Ge fra niobio e germanio ha una temperature critica di "ben" 23,3 K (– 250 °C). Sembrava che non fosse possibile ottenere la superconduttività a temperature pin alte, ma nel 1986, in un laboratorio dell'IBM Research di Zurigo, in un composto ceramico i fisici Karl Alexander Müller (1927-) e Johannes Georg Bednorz (1950-) osservarono effetti di superconduttività a 35 K (– 238 °C). Per questa scoperta, i due furono insigniti del Premio Nobel per la Fisica nel 1987. Negli anni successivi fu possibile ottenere materiali ceramici con temperature critiche via via più elevate, fino a circa 125 K (– 148 °C). Notiamo che una temperatura critica superiore a 77 K, che è la temperatura di liquefazione dell'azoto, permette di evitare l'uso dell'elio, che liquefa a 4,2 K ed e quindi difficile da gestire e molto costoso, ma è necessario per raffreddare i comuni superconduttori a base di niobio. I nuovi "superconduttori caldi" pongono peraltro nuove appassionanti sfide teoriche, perchè l'applicazione ad essi dei principi della Meccanica Quantistica non è facile, trattandosi non di metalli ma di ceramiche la cui struttura molecolare è difficile da descrivere persino la moderna Fisica dello Stato Solido. Nel 2007 poi alcuni ricercatori della Princeton University, osservando con un microscopio a effetto tunnel dei materiali ceramici, hanno osservato piccolissime zone di superconduttività anche 50°C sopra la temperatura critica, una scoperta che si spera aiuti a comprendere quale sia il meccanismo che su scala atomica controlla la temperatura di accoppiamento nei materiali ceramici.

Siccome per ogni effetto per quanto strampalato esiste sicuramente anche il suo opposto, nell'aprile 2008 è stata annunciata la scoperta da parte dei fisici Valerii Vikonur e Tatyana Baturina dell'Argonne National Laboratory (USA) del fenomeno del superisolamento: un sottile strato di nitruro di titanio sottoposto a raffreddamento ha mostrato, raggiunta la temperatura critica, una caduta di circa 100.000 volte nella sua capacità di conduzione. Le modalità di transizione al nuovo stato sembrano simili a quella della superconduzione, come ad esempio la sensibilità alla presenza di un campo magnetico. Superconduttori e superisolatori si possono immaginare combinati nell'uso in linee di trasmissione di energia elettrica senza resistenza e senza dispersione di energia. Un'altra possibile applicazione consiste in batterie ad alte prestazioni.

Infine, accenniamo alla superfluidità, uno stato della materia caratterizzato dalla completa assenza di viscosità e di entropia e dall'avere conducibilità termica infinita. In pratica i superfluidi, se messi in un percorso chiuso, possono scorrere infinitamente senza attrito, per quanto incredibile ciò possa apparire. In pratica un superfluido, se posto in una provetta, "si arrampica" spontaneamente sulle sue pareti ed esce da solo da essa, come mostra la fotografia qui a sinistra! La superfluidità fu scoperta nel 1937 da Pëtr Leonidovič Kapica (1894-1984), John Frank Allen (1908-2001) e Don Misener (1911-1996), e può essere spiegata solo tramite la Meccanica dei Quanti; per questo lo studio dei superfluidi è chiamato Idrodinamica Quantistica. Come per la superconduttività, anche la transizione a superfluido avviene nei liquidi quantistici al di sotto di una certa temperatura critica. Questo cambiamento di stato è chiamato transizione lambda per via della forma del grafico del calore specifico in funzione della temperatura. Un esempio di superfluido è l'elio-4, cioè l'isotopo dell'elio più comune sulla Terra, che ha una transizione da liquido normale (chiamato elio-4 I) a liquido superfluido (chiamato elio-4 II) a temperature tra 2,17 K alla pressione di zero millibar e 1,76 K alla pressione di 30 millibar. L'isotopo elio-3 diventa invece superfluido alla temperatura di 2,6 mK, pochi millesimi di grado al di sopra dello zero assoluto. Il modo in cui avviene la trasformazione nei due isotopi è però diverso. Gli atomi di elio-4 infatti sono bosoni, e la loro superfluidità può essere compresa in termini della statistica di Bose-Einstein; invece gli atomi di elio-3 sono fermioni e la trasformazione a superfluido, in questo sistema, è descritta da una generalizzazione della teoria della superconduttività, dove le coppie di Cooper si stabiliscono tra atomi, non tra elettroni. Recentemente è stata avanzata l'ipotesi che persino i neutroni (ma secondo alcuni i quark loro costituenti, essendosi i neutroni "disciolti") all'interno di una stella di neutroni siano compressi a tal punto dalla straordinaria gravità di questo astro da formare coppie di Cooper, e dunque che tali particelle si trovino in uno stato di assoluta superfluidià. Lo dimostrerebbero gli "scatti" (in inglese "glitches") osservati nelle pulsar, classici esempi di stelle di neutroni, durante i quali la loro rotazione accelera rapidamente, i quali si verificherebbero quando la velocità di rotazione dell'astro va fuori sincronia con la rotazione del superfluido nei suoi strati più esterni.

È invece dell'aprile 2019 l'annuncio da parte di un team di ricercatori dell'Istituto Nazionale di Ottica del CNR, del Dipartimento di Fisica e Astronomia dell'Università di Firenze, del Laboratorio Europeo di Spettroscopia Non Lineare e dell'Università di Hannover della scoperta di un nuovo stato esotico della materia battezzato supersolido, costituito da particelle disposte in una struttura fissa periodica come in un cristallo ma con proprietà affini a quelle dei superfluidi, cioè assenza di viscosità e conducibilità termica infinita. Questo incredibile aggregato è stato ottenuto a partire da un gas di atomi di disprosio ultrafreddi; è la prima volta che si realizza un solido con particelle bosoniche identiche fra loro e perciò indistinguibili, che restano libere di muoversi, proprietà tipiche dei superfluidi. Decisamente la Fisica dello Stato Solido non cessa di riservarci sorprese.

.

A questo punto, non ci resta che parlare dell'Equazione di Dirac e della scoperta delle antiparticelle, anche se per riuscirci dovremo ricorrere di nuovo in modo pesante all'Analisi Matematica. Per farlo, passate con me al capitolo seguente, nel quale avremo ancora a che fare con formule molto complicate. Per tornare all'indice, invece, il link è questo.

Vai al capitolo 5__Torna su__Vai al capitolo 7