Skip to main content

Full text of "Le Scienze, n. 272"

See other formats


Aprile 1991 
Numero 272 
Anno XXIV 
Volume XLVI 



LE SCIENZE 



ttbzitntr iuthnna di 



SCIENTIF1C 
AMERICAN 



La fisiologia della percezione 

// cervello trasforma quasi istantaneamente i messaggi sensoriali in 
percezioni consapevoli: per questo riconoscimento rapido sembra che sia 
essenziale la partecipazione collettiva, caotica, di milioni di neuroni 



odorose. I neuroni che vengono eccitati 
scatenano potenziali d'azione, ossia im- 
pulsi, che si propagano lungo i loro pro- 
lungamenti, gli assoni, fino a una parti- 
colare area della corteccia, il bulbo ol- 
fattivo. Il numero di recettori attivati è 
un indice dell'intensità dello stimolo, 
mentre la loro localizzazione nelle fosse 
nasali è collegata alla natura dell'odore. 
Per riassumere, ogni odore viene espres- 
so da una configurazione spaziale del- 
l'attività dei recettori, la quale a sua vol- 
ta viene trasmessa al bulbo. 

Il bulbo olfattivo analizza ogni confi- 
gurazione di segnali e sintetizza poi il 
proprio messaggio, che trasmette, attra- 
verso propri assoni, a un'altra parte del 
sistema olfattivo, la corteccia olfattiva. 
Dalla corteccia nuovi segnali vengono 
inviati a molte parti del cervello, com- 
presa la corteccia end ori naie, dove i se- 
gnali si combinano con quelli di altri si- 
stemi sensoriali. Il risultato è una Ge- 



stalt, una percezione carica di significa- 
to, unica per ogni individuo. Per un cane 
il riconoscere l'odore di una volpe può 
richiamare alla memoria il cibo e l'attesa 
di un pasto. In un coniglio lo stesso odo- 
re può destare ricordi di fuga e la paura 
di essere aggredito. 

Tutte queste nozioni hanno fornito un 
valido punto di partenza per un'analisi 
più particolareggiata dell'olfatto, ma la- 
sciano irrisolte due questioni importanti . 
La prima è il classico problema di riusci- 
re a distinguere ti primo piano dallo sfon- 
do: in che modo il cervello distingue un 
odore particolare in mezzo a tutti gli altri 
odori che l'accompagnano? 

Inoltre, in che modo il cervello può 
operare una «generalizzazione a partire 
da recettori equivalenti»? A causa della 
turbolenza delle correnti d'aria che at- 
traversano le fosse nasali, solo pochi dei 
numerosi recettori sensibili a una sostan- 
za odorosa vengono eccitati durante una 



inspirazione, e questa situazione varia 
imprevedibilmente da una inspirazione 
all'altra. Come fa il cervello a stabilire 
che segnali provenienti da diversi gruppi 
di recettori si riferiscono tutti allo stesso 
stimolo? Le nostre ricerche cominciano 
a dare risposte a entrambi i problemi. 

Molti dei nostri risultati sono frutto di 
studi approfonditi sul bulbo olfattivo. 
Gli esperimenti mostrano chiaramente 
che tutti i neuroni presenti nel bulbo 
contribuiscono alla generazione di ogni 
percezione olfattiva. In altre parole , l'in- 
formazione saliente sullo stimolo è con- 
tenuta in una configurazione di neuroni 
attivati che interessa tutto il bulbo e non 
soltanto un piccolo sottoinsieme di neu- 
roni in grado di rilevare le caratteristiche 
dello stimolo e dì eccitarsi esclusivamen- 
te, per fare un esempio, se esposti a odo- 
ri come quello di una volpe. 

Inoltre questa attività collettiva dei 
neuroni, benché rifletta la natura della 



di Walter J. Freeman 



Q 

un cibo 



uando si vede il viso di un attore 
noto, si ode la voce di un ami- 
co o si percepisce il profumo di 
un cibo appetitoso, il riconoscimento è 
istantaneo. Una frazione di secondo do- 
po che gli occhi, gli orecchi, il naso, la 
lingua o la cute vengono stimolati, si sa 
di avere a che fare con un oggetto noto 
e se esso è pericoloso o no. Come fa 
questo riconoscimento, che gli psicologi 
chiamano «percezione preattentiva», a 
svolgersi in modo così rapido e accurato 
anche quando gli stimoli sono complessi 
e il contesto in cui emergono varia? 

Sappiamo come la corteccia cerebrale 
(lo strato esterno del cervello) analizzi 
inizialmente i messaggi sensoriali, ma 
cominciamo solo a in t ravvedere come il 
cervello si comporta dopo il puro e sem- 
plice riconoscimento delle caratteristi- 
che de! messaggio (cioè come combina 
le percezioni sensoriali con l'esperienza 
passata e con le aspettative per identifi- 
care sìa lo stimolo sia il particolare signi- 
ficato che esso ha per l'individuo). 

Gli studi compiuti in più di 30 anni dal 
mio gruppo all'Università della Califor- 
nia a Berkeley permettono di affermare 
che la percezione non può essere com- 
presa esaminando solamente le proprie- 
tà dei singoli neuroni, secondo un'impo- 
stazione della ricerca a livello microsco- 
pico che tende oggi a dominare il campo 
delle neuroscienze. Abbiamo trovato 
che la percezione dipende dall'attività si- 
multanea e cooperante di milioni di neu- 
roni sparsi in tutte le circonvoluzioni del- 
la corteccia. Questa attività globale può 
essere identificata, misurata e ìnterpre- 

12 le scienze n. 272, aprile 1991 



tata soltanto se, accanto a quella micro- 
scopica, si adotta una visione macrosco- 
pica dei cervello. 

Esiste in musica un'analogia a questo 
tipo di approccio. Per gustare la bellezza 
di un brano corale, non basta ascoltare 
le singole voci dei cantanti: si devono 
ascoltare gli esecutori tutti insieme, dato 
che le diverse parti sono una in relazione 
all'altra. 

I nostri studi ci hanno fatto anche sco- 
prire un'attività cerebrale caotica, un 
comportamento complesso che sembra 
casuale, ma che in realtà possiede un or- 
dine nascosto. Tale attività è evidente 
nella tendenza di ampi gruppi dì neuroni 
a passare bruscamente e simultanea- 
mente da un quadro complesso di attivi- 
tà a un altro in risposta al più piccolo 
degli stimoli. Questa capacità è una ca- 
ratteristica primaria di molti sistemi cao- 
tici. Essa non danneggia il cervello: anzi, 
secondo noi, sarebbe proprio la chiave 
della percezione. Avanziamo anche l'i- 
potesi che essa sia alla base della capaci- 
tà del cervello di rispondere in modo 
flessibile alle sollecitazioni del mondo 
esterno e di generare nuovi tipi di attivi- 
tà, compreso il concepire idee nuove. 

per comprendere i meccanismi della 
*■ percezione bisogna conoscere le pro- 
prietà dei neuroni che ne sono la base. I 
miei collaboratori e io ci siamo concen- 
trati sui neuroni del sistema olfattivo. 

E noto da parecchi anni che, quando 
un animale o un essere umano annusa 
una sostanza odorosa, le molecole di 
quest'ultima vengono captate da alcuni 



neuroni specifici mescolati ai numerosis- 
simi recettori presenti nelle vie nasali. 
Questi recettori sono specializzati nel 
reagire a una data categoria di sostanze 




Le rappresentazioni nello spazio delle fasi 
ottenute da elettroencefalogrammi i EEG ■> 
generati da un modello al calcolatore riflet- 
tono l'attività globale del sistema olfattivo 
a riposo (sopra) e durante la percezione di 
un odore noto (a destra). La somiglianza 
delle rappresentazioni a matasse di filo di 
forma irregolare, ma ancora strutturate, 
indica che l'attività del cervello in entrambi 
gli stati è caotica, ossia complessa, ma do- 
tata di un certo ordine. La forma più circo- 
lare dell'immagine di destra, assieme alla 
maggiore segregazione del colore, sta a in- 
dicare che gli EEG rilevati per il sistema 
olfattivo sono più ordinati, quasi periodi- 
ci, durante la percezione che non a riposo. 




FLUSSO FONDAMENTALE DELL'INFORMAZIONE OLFATTIVA NEL CERVELLO 

RICONOSCIMÉNTO 



1 



CORTECCIA 
FRONTALE 



CORTECCIA 
FRONTALE 



Z2™5 



CORTECCIA 
MOTORIA 



CORTECCIA MOTORIA 
TALAMO 



TALAMO 



SISTEMA 
LIMBICO 



^77 



ili 



CORTECCIA 
OLFATTIVA 



BULBO 
OLFATTIVO 



RECETTORI 
NASALI 



ORDINE 01 ANNUSARE . 
IMPARTITO DAL CERVELLO 




BULBO 
OLFATTIVO 



RECETTORI 



CORTECCIA 

EN DO RINA LE 



IPPOCAMPO 



L'interazione tra corteccia olfattiva e bulbo e la retroazione proveniente da altre aree cerebrali 
sono essenziali per il mantenimento e il controllo dello stato caotico nel sistema olfattivo 



sostanza odorosa, non è determinata 
esclusivamente dallo stimolo. La funzio- 
ne bulbare si autorganizza ed è ben con- 
trollata da fattori interni, tra cui la sen- 
sibilità dei neuroni allo stimolo. 

Gli esperimenti che abbiamo condot- 
to per scoprire l'attività collettiva dei 
neuroni erano concettualmente sempli- 
ci. Applicando tecniche standard di rin- 
forzo (ossia offrendo una ricompensa 
per ogni prova eseguita correttamente), 
abbiamo addestrato alcuni animali (so- 
prattutto conigli) a riconoscere sostanze 
odorose di diversa natura e a comportar- 
si in modi significativi per segnalare il 
riconoscimento: per esempio, masticare 
o leccare mentre attendevano il cibo o 
l'acqua. Prima di cominciare l'addestra- 
mento abbiamo applicato da 60 a 64 elet- 
trodi, distanti l'uno dall'altro 0,5 milli- 
metri e disposti a griglia, su una vasta 
parte della superficie bulbare. 

Durante e dopo l'addestramento l'in- 
sieme di elettrodi ha consentito la rac- 
colta di 60-64 tracciati elcttroencefalo- 
grafici (EEG) simultanei quando gli ani- 
mali inspiravano ed espiravano, fiutan- 
do o non fiutando odori noti. Ogni trac- 
ciato così ottenuto riflette lo stato medio 
di eccitazione di gruppi locali di neuroni 
situati in uno strato ben definito imme- 
diatamente sotto gii elettrodi. Si tratta di 
tracciati ondulati, in cui le creste indica- 
no un aumento dell'eccitazione e i ventri 
una diminuzione dell'eccitazione, pro- 
vocata dall'inibizione. 

Gii EEG non dovrebbero essere con- 
fusi con le registrazioni di impulsi che 



partono da singoli assoni o da insiemi di 
neuroni, anche se ognuno di essi è cor- 
relato di fatto al tipo di eccitazione di 
neuroni vicini nella corteccia cerebrale. 
I tracciati rivelano essenzialmente la 
stessa informazione che i neuroni utiliz- 
zano quando devono «decidere» se sca- 
tenare o no impulsi; l'EEG registra però 
quest'informazione per migliaia di cellu- 
le alla volta. 

Per capire meglio che cosa mostri esat- 
tamente l'EEG, è utile conoscere qual- 
che dettaglio sul funzionamento dei neu- 
roni corticali. Queste cellule ricevono 
continuamente impulsi da migliaia di al- 
tri neuroni, in genere a livello dei den- 
driti. Gli impulsi vengono convogliati a 
giunzioni specializzate, le sinapsi. Certu- 
ni generano, nei neuroni riceventi, onde 
eccitatone di corrente elettrica, altri on- 
de inibitorie (si veda l'illustrazione a pa- 
gina 16 in alto). Le correnti dendritiche 
raggiungono attraverso il corpo cellula- 
re, contenente il nucleo, una regione al- 
l'apice dell'assone, la zona di innesco. È 
qui che le correnti elettriche attraversa- 
no la membrana cellulare per portarsi 
nello spazio extracellulare. A questo 
punto la cellula calcola la loro intensità 
globale (che si riflette nei cambiamenti 
di potenziale attraverso la membrana) 
addizionando le correnti eccitatone e 
sottraendo quelle inibitorie. Se la som- 
ma supera la soglia di eccitazione, il neu- 
rone emette impulsi. 

Il meccanismo che produce ciascun 
tracciato elcttroencefalografico addizio- 
na in modo analogo le correnti originate 



a livello dei dendriti, ma le utilizza dopo 
che hanno lasciato il neurone. Pertanto 
il tracciato riflette lo stato di eccitazione 
di gruppi di neuroni anziché di neuroni 
singoli, in quanto lo spazio extracellula- 
re è attraversato da correnti che proven- 
gono da migliaia di neuroni. 

Nei nostri esperimenti, i tracciati e- 
lettroen cefalografi ci ricavati dalle 
schiere di elettrodi sono imprevedibili e 
irregolari come scarabocchi eseguiti a 
mano libera. Eppure contengono infor- 
mazioni importanti sulla percezione. 

Gli EEG eseguiti su animali mostrano 
sempre, in qualche misura, delle oscilla- 
zioni, cioè creste e ventri irregolari. 
Quando un animale percepisce un odore 
che gli è noto, i suoi tracciati elcttroen- 
cefalografici mostrano una raffica di im- 
pulsi. Tutte le onde provenienti dalla 
schiera di elettrodi diventano improvvi- 
samente più regolari e ordinate per alcu- 
ni cicli, cioè fino a quando l'animale 
espira. Esse hanno spesso un'ampiezza 
(altezza) e una frequenza superiore a 
quelle che hanno in altri momenti; ven- 
gono sovente chiamate onde da 40 hertz 
perché hanno un'oscillazione di circa 40 
cicli al secondo. Poiché, in realtà, la loro 
frequenza può variare da 20 a 90 hertz, 
preferisco chiamarle onde gamma per 
analogìa con i raggi X di alta frequenza. 

Il fatto che le raffiche di impulsi rap- 
presentino un'attività di cooperazione e 
interazione non emerge subito dai trac- 
ciati elettroencefalografie] perché i vari 
segmenti che le compongono variano da 



tracciato a tracciato, anche se la registra- 
zione è simultanea. Cionondimeno, par- 
tendo da questa situazione complessa e 
mettendo a dura prova i nostri calcola- 
tori, siamo riusciti a dimostrare il com- 
portamento collettivo dei neuroni. 

In ogni insieme di tracciati si può iden- 
tificare una forma d'onda comune, l'on- 
da portante, un complesso di creste e 
ventri presenti in ogni tracciato. L'am- 
piezza media non è uguale in tutto l'in- 
sieme: alcune versioni dell'onda portan- 
te sono basse e altre alte, ma tutte si 
curvano in su e in giù con un sincronismo 
quasi perfetto. Il comportamento collet- 
tivo rappresenta dal 25 al 75 per cento 
dell'attività totale dei neuroni che danno 
origine a ogni tracciato. 

E curioso osservare che non è la forma 
dell'onda portante a rivelare l'identità di 
un odore. In effetti l'onda si modifica 
ogni volta che l'animale inspira, anche 
quando è sempre la stessa sostanza odo- 
rosa a essere annusata . L' identità dì que- 
sta si può discernere affidabilmente solo 
in base alla distribuzione spaziale delle 
ampiezze dell'onda portante registrata 
nel bulbo (si veda l'illustrazione a pagina 
18 in alto). 

Queste distribuzioni diventano par- 
ticolarmente chiare quando si riporta 
l'ampiezza media delle singole versioni 
dell'onda portante su un reticolo che 
rappresenta la superficie del bulbo. Le 
«mappe» risultanti assomigliano a carte 
topografiche in cui sono rappresentate le 
linee di ugual livello. Fino a quando l'a- 
nimale non viene addestrato in modo di- 
verso si ricava la stessa mappa ogni volta 
che esso annusa una particolare sostanza 
odorosa, anche se a ogni inspirazione 
l'onda portante si modifica. 

Le mappe hanno contribuito a dimo- 
strare non solo che la percezione richie- 
de un'attività estesa a tutto il bulbo, ma 
anche che il bulbo contribuisce ad asse- 
gnare un significato agli stimoli. La map- 
pa che si riferisce a una determinata so- 
stanza odorosa cambia in modo sorpren- 
dente quando viene modificato il tipo di 
rinforzo associato a quella sostanza. Se 
il bulbo non modificasse la percezione in 
base all'esperienza, la mappa rimarreb- 
be costante anche dopo che l'associazio- 
ne condizionata è stata modificata. 

TJ iteniamo che quell'entità che chia- 
■É^- miamo raggruppamento dì neuroni 
sia, da una parte, un archivio di associa- 
zioni passate di fondamentale importan- 
za e. dall'altra, un fattore indispensabile 
per innescare l'attività bulbare colletti- 
va. Ouesta ipotetica entità è costituita da 
neuroni che, durante l'apprendimento, 
sono stati eccitati contemporaneamente 
da altri neuroni. 

Oltre 20 anni fa, i miei collaboratori e 
io abbiamo scoperto che, quando gli ani- 
mali vengono addestrati con tecniche 
basate sul rinforzo a discriminare gli sti- 
moli olfattivi, si rinforzano selettiva- 
mente certe sinapsi che connettono i 
neuroni all'interno del bulbo e della cor- 



NEURONI RECETTORI 
NA! 




TERMINA- 
ZIONE 
ASSONICA 

DENDRITE 
GLOMERULO 



_L 



CELLULA PERI 
GLOMERULARE 



CELLULA A CIUFFO 




I neuroni del sistema olfattivo si scambiano informazioni attraverso una fìtta rete di sinapsi, 
ossia giunzioni in cui i segnali fluiscono da un neurone all'altro. In generale i segnali 
passano da prolungamenti chiamati assoni ad altri prolungamenti, i dendriti; talvolta si 
ha passaggio da dendrite a dendrite o da assoni- ad assone. Questa estesa compartecipazio- 
ni porta a un'attività collettiva. Nel disegno, molto schematizzato, il rosso indica che un 
neurone sta eccitando un'altra cellula, il nero che un neurone sta inibendo un'altra cellula. 



14 LE scienze n. 272, aprile 1991 



LE scienze n. 272, aprile 1991 15 



leccia olfattiva. La sensibilità delle cel- 
lule postsinaptiche allo stimolo eccitato- 
rio (proprietà nota come guadagno) au- 
menta quindi a livello della sinapsi, di- 
modoché un segnale genera una corren- 
te dendritica più intensa di quella che 



avrebbe generato in assenza di un adde- 
stramento speciale. In termini tecnici, il 
guadagno è il rapporto tra risposta e sti- 
molo o, nel caso in esame, tra l'intensità 
netta delle correnti dendritiche e il nu- 
mero di impulsi in arrivo. 




l.t midi' duU'elettroencefalogramma riflettono l'eccitazione media di gruppi di neuroni. 
Stimoli eccitatori a livello delle sinapsi generano correnti elettriche che procedono in cappi 
chiusi all'interno del neurone ricevente verso il suo assone, attraversano la membrana cel- 
lulare del Passone, entrano nello spazio extracellulare e ritornano verso la sinapsi (frecce in 
rosso). Gli stimoli inibitori generano correnti che si propagano in direzione opposta [frecce 
in nero). All'interno dei neuroni, la zona di innesco fa aumentare l'intensità della corrente 
(un Tatto che si manifesta in forma di variazioni nella differenza di potenziale attraverso 
la membrana) ed emette impulsi se la somma è sufficientemente positiva. Gli elettrodi ap- 
plicati al cervello rilevano queste stesse correnti all'esterno del neurone. Gli EEG risultanti 
indicano l'eccitazione di interi gruppi di neuroni, non di cellule singole, in quanto le aree 
extracellulari da cui sono registrati veicolano correnti provenienti da migliaia di neuroni. 



RAFFICHE DI IMPULSI 






•% 



li"' ' udì/ ' ' ' 




^ 



YVv^v~A4^ 



K 



Registrazioni ottenute simultaneamente dal bulbo olfattivo (al e da regioni anteriori (b) e 
posteriori (e) della corteccia olfattiva di un gatto mostrano onde a bassa frequenza inter- 
rotte da «raffiche di impulsi» (oscillazioni di ampiezza e di frequenza elevate, generate 
quando vengono percepiti odori). L'ampiezza media di una raffica è di circa 100 microvolt. 
Ognuna dura una frazione di secondo, nell'intervallo tra l'inspirazione e l'espirazione. 



Il rinforzo avviene non nella sinapsi 
tra Cassone afferente (per esempio quel- 
lo di un neurone recettore nelle fosse 
nasali) e il neurone che esso eccita (un 
neurone situato nel bulbo), ma nella si- 
napsi tra neuroni collegati che vengono 
eccitati simultaneamente, durante l'ap- 
prendimento, da neuroni afferenti. I 
neuroni presenti nel bulbo e nella cor- 
teccia olfattiva sono collegati a molti al- 
tri neuroni presenti in quelle stesse aree. 

Il rinforzo viene previsto dalla legge di 
Hebb, ormai ampiamente accettata, se- 
condo la quale le sinapsi tra neuroni che 
entrano contemporaneamente in eccita- 
zione si rinforzano se l'eccitazione sin- 
crona è accompagnata da una ricompen- 
sa. (Si sa oggi che il rinforzo comporta 
la partecipazione di sostanze «modu la- 
trici», immesse nel bulbo e nella cortec- 
cia dal tronco cerebrale.) 

Dai nostri dati deduciamo che un odo- 
re particolare può dare origine a un rag- 
gruppamento di neuroni connessi da si- 
napsi che d'ora in avanti chiameremo di 
Hebb - in quanto eccitate come previsto 
dalla legge di Hebb - allorché il soggetto 
riceve una ricompensa per aver identifi- 
cato la sostanza che produce quell'odo- 
re. Di conseguenza, quando un qualsiasi 
sottoinsieme di neuroni del raggrup- 
pamento riceve uno stimolo noto, tutto 
l'insieme può venire rapidamente attiva- 
to, mentre segnali eccitatori attraversa- 
no ad alta velocità le sinapsi di Hebb. A 
sua volta il raggruppamento di neuroni 
indirizza il resto del bulbo verso un tipo 
caratteristico di attività. 

Se la nostra idea è valida, l'esistenza 
di un raggruppamento di neuroni aiute- 
rebbe a spiegare sia il problema della 
distinzione tra primo piano e sfondo sia 
la generalizzazione a partire da recettori 
equivalenti. Nel primo caso il raggrup- 
pamento conferirebbe il rango di «batti- 
strada» agli stimoli che l'esperienza, im- 
magazzinata nelle sinapsi di Hebb, ha 
reso importanti per l'individuo. Nel se- 
condo caso, assicurerebbe l'immediata 
diffusione dell'informazione provenien- 
te da qualunque sottoinsieme di recetto- 
ri, indipendentemente dalla posizione 
nelle fosse nasali, a tutto il raggrup- 
pamento e da qui al resto del bulbo. 

TJer quanto il raggruppamento di neu- 
1 roni sia importante per la percezio- 
ne, esso non riesce da solo a generare 
un'attività collettiva in tutto il bulbo. 
Perché possa essere prodotta una raffica 
di impulsi come risposta a una sostanza 
odorosa, ì neuroni del raggruppamento 
e il bulbo nel suo insieme devono essere 
innanzitutto «predisposti» a rispondere 
energicamente allo stimolo. 

Due importanti processi completano 
quest'azione preparatoria esercitata dal- 
le sinapsi di Hebb. Entrambi influiscono 
sul guadagno alterando la sensibilità non 
delle sinapsi, ma delle zone di innesco. 
Qui il guadagno è il rapporto tra numero 
di impulsi prodotti (output) e corrente 
dendritica netta (input). Il guadagno to- 



tale è il prodotto dei guadagni a livello 
delle sinapsi e delle zone di innesco. 

Uno dei due processi di predisposizio- 
ne è un'eccitazione generale. I nostri 
esperimenti dimostrano che, nel bulbo e 
nella corteccia olfattiva, il guadagno a 
livello dei raggruppamenti di neuroni 
aumenta quando un animale ha fame, ha 
sete, viene minacciato o è sessualmente 
eccitato (si veda l'illustrazione a pagina 
19). Sembra che quest'azione sia com- 
piuta da assoni che provengono da un'al- 
tra area del cervello e che liberano so- 
stanze modulatici (diverse da quelle che 
sono interessate nella formazione delle 
sinapsi di Hebb). 

Il secondo processo è l'input stesso. 
Quando i neuroni corticali vengono ec- 
citati il loro output aumenta. Ogni nuo- 
vo impulso che ricevono mentre sono 
ancora eccitati incrementa in maniera 
marcata il numero di raffiche emesse, il 
che indica che il guadagno è stato accre- 
sciuto dall'impulso ricevuto. Questo in- 
cremento avviene entro un particolare 
intervallo di input. Se l'input netto è for- 
temente inibitorio non si hanno raffiche. 
A! di sopra di un livello molto alto di 
input eccitatorio, t neuroni emettono 
raffiche di impulsi alla loro massima fre- 
quenza, che non possono superare an- 
che se l'input viene ulteriormente accre- 
sciuto. Tuttavia, nell'ampio intervallo 
tra i due estremi, l'emissione di impulsi 
aumenta secondo una curva a S, la cui 
pendenza rispecchia il guadagno. 

La scoperta che il guadagno aumenta 
con l'eccitazione è particolarmente de- 
gna di nota perché la maggior parte dei 
modelli dì reti nervose dà per scontato 
che ì neuroni raggiungano il massimo 
guadagno quando sono a riposo. In ge- 
nerale, si assume anche che sia l'eccita- 
zione sia l'inibizione facciano diminuire 
il guadagno, dimodoché le reti nervose 
mantengono costantemente la stabilità. 
Queste assunzioni non sono però appro- 
priate nel caso del cervello perché non 
ammettono che le reti possano generare 
cambiamenti esplosivi. 

Pertanto sembra che l'informazione 
che riguarda le sostanze odorose sia for- 
nita da un numero limitato di recettori a 
un numero ancora più ristretto di neuro- 
ni presenti nel bulbo. Se la sostanza odo- 
rosa è nota e il bulbo è stato attivato, 
l'informazione si diffonde come uno 
«sparo» improvviso nel raggruppamento 
di neuroni. In primo luogo l'input ecci- 
tatorio in una parte del raggruppamen- 
to, durante un'inspirazione, eccita le 
altre partì tramite le sinapsi di Hebb. 
In secondo luogo queste parti eccitano 
di ritorno la prima parte del raggrup- 
pamento, facendo aumentare il guada- 
gno, e cosi via. L'input iniziale provoca 
quindi rapidamente una raffica di attivi- 
tà collettiva in tutto il raggruppamento 
di neuroni. A sua volta quest'attività si 
propaga all'intero bulbo olfattivo, dan- 
do luogo a una raffica estesa. 

Il bulbo invia allora simultaneamente 
lungo assoni paralleli un «messaggio di 



PERCHÉ LE ONDE DELL'ELETTROENCEFALOGRAMMA OSCILLANO 


L'alternarsi di eresie e ventri dipende dall'attività basta anche uno piccolo per scatenare una raHi- 
di circuiti di retroazione negativa che si stabilisco- ca d i onde G fi schemi rappresentano l'atti vita dei 
rto per l'interazione tra gruppi di neuroni eccitatori neuroni alla (ine di ogni quarto di ciclo. Il colore 
(in rosso) e inibitori (in blu). Una volta che questi più o meno intenso corrisponde a uno Stato più 
gruppi siano stati sensibilizzali a uno stimolo, ne o meno eccitato. 


ECCITAZIONE 
DI FONDO 


uj ■"' 


J^~ 










d 










V-» 




9 

i- 




/ il 


/\ 




Y 




8 

HI 




<u 


/ \ 


^'"l \ 


L 


















z 
o 

IM 






\j(\ 








CO 

z 






"i 








V 




KJ" 










1. 1 neuroni eccitatori 
(E) vengono eccitati 
o disinibiti 


2. 1 neuroni eccitatori 
stimolano i neuroni i- 
nibitori ih che agi- 
scono deprimendo la 
attività eccilatona 


3. 1 neuroni inibitori 
continuano a depri- 
mere i neuroni ecci- 
tatori e vengono essi 
stessi depressi. 


4, Quando i neuroni 
inibitori si disattiva- 
no, i neuroni eccitato- 
ri vengono disinibiti e 
il ciclo ricomincia. 





consenso» alla corteccia olfattiva. A 
questo punto si deve chiarire il modo in 
cui l'area corticale riesce a distinguere il 
messaggio di consenso da altri stimoli di 
fondo che giungono a essa da! bulbo e da 
altre parti del cervello. 

Tndubbiamente la risposta riguarda le 
*■ connessioni nervose che collegano il 
bulbo alla corteccia. Il bulbo genera tre- 
ni di impulsi che procedono simultanea- 
mente lungo gli assoni paralleli che lo 
collegano alla corteccia. Ogni assone si 
ramifica a più riprese e trasmette impulsi 
a migliaia dì neuroni in tutto lo spessore 
della corteccia olfattiva; d'altra parte, 
ogni cellula bersaglio corticale riceve sti- 
moli da migliaia di cellule bulbari. 

L'attività delle onde portanti delle vie 
afferenti, resa sincrona dalla coopera- 
zione, risalta probabilmente per la sem- 
plice ragione che questi segnali si som- 
mano tra loro; input non sincroni, che 
non possiedono la frequenza e la fase 
delle onde portanti, si eliminano tra lo- 
ro. Così ogni neurone ricevente della 
corteccia olfattiva capta una parte del 
segnale bulbare cooperativo e trasmette 
simultaneamente la somma dei segnali a 
migliaia di neuroni vicini. 

In risposta i neuroni corticali, am- 
piamente collegati e riuniti in propri rag- 
gruppamenti, generano immediatamen- 
te una raffica collettiva di impulsi avente 
un'onda portante e una distribuzione 
spaziale delle ampiezze diverse da quelle 
esistenti nel bulbo. In poche parole, la 
via di trasmissione della configurazione 



globale nel bulbo rende nitido il messag- 
gio bulbare, rimuovendo il «rumore» in 
modo che soltanto il segnale collettivo 
influisca significativamente sulla cortec- 
cia olfattiva. Proprio come una raffica di 
impulsi nel bulbo garantisce l'invio di un 
messaggio coerente alla corteccia, cosi 
presumibilmente la raffica globale nella 
corteccia permette ai messaggi emessi da 
questa parte del cervello di distinguersi 
dal rumore quando raggiungono altre 
aree cerebrali. 

Vi sono molte ragioni che ci fanno ri- 
tenere che l'attività cerebrale durante le 
raffiche di impulsi o tra una raffica e l'al- 
tra sia caotica, non soltanto casuale. Ma 
prima di approfondire questo punto, 
vorrei chiarire il significato di caos. 

Pur correndo il rischio di un'eccessi- 
va semplificazione, mi piace qualche vol- 
ta spiegare la differenza tra caos e ca- 
sualità paragonando il comportamento 
dei pendolari in una stazione ferrovia- 
ria all'ora di punta e quello di una fol- 
la presa dal panico. Il comportamento 
dei pendolari assomiglia al caos in quan- 
to, sebbene un osservatore non prati- 
co di stazioni ferroviarie possa ritenere 
che essi stiano correndo senza ragione 
ciascuno in una direzione diversa, vi è un 
ordine soggiacente a questa superficiale 
complessità: ciascuno si affretta a pren- 
dere il proprio treno. Il flusso del traffico 
potrebbe modificarsi rapidamente se so- 
lo venisse annunciato un cambiamento 
di binario. Per contro, l'isterismo di mas- 
sa è un fenomeno casuale. Un semplice 
annuncio non porterebbe mai disciplina 



!6 le scienze n. 272, aprile 1991 



le scienze n. 272, aprile 1991 17 



J y " ■ " Ir L T (1 - - * TVVV 

1AAA&1 ^i ìl Uftf irt to/ uAIM i/ 4 jl Ai V ^Af A^ ~*«u* 

— aaw^ .idJtó uÀUAK «jlAìAè? «jJUUtf «****^ 7 --. 



vMW 1 "W«^ —*««<- vAf l fif^ **f*t** ' *" ~*tup* -^>*-~ 



Un'onda portante comune è comparsa in 60 elettroencefalogrammi 
registrati simultaneamente dalla corteccia olfattiva di un coniglio 
quando questo ha riconosciuto un odore (a sinistra). Essa è pres- 
soché uguale in ogni tracciato, a parte la variazione d'ampiezza. 
La sua forma non dà alcun indizio sull'identità della sostanza odo- 




rosa. Quest'informazione si ricava dalla distribuzione spaziale del- 
le ampiezze nella corteccia, che può venire rappresentata con cur- 
ve di livello {a destra) analoghe alle isoipse di una mappa geogra- 
fica. La curva in colore rappresenta l'ampiezza massima; le curve 
successive corrispondono ad ampiezze progressivamente inferiori. 



in una folla numerosa e disordinata. 

Uno dei primi e più convincenti indizi 
di caos è stata la presenza di un'onda 
portante comune aperiodica (cioè non 
ripetitiva) in tutto il bulbo, non solo du- 
rante le raffiche di impulsi, ma anche tra 
una raffica e l'altra (perfino quando non 
c'era alcuno stimolo extrabulbare a in- 
durre l'attività collettiva). La mancanza 
di uno stimolo esterno stava a indicare 
che l'attività del bulbo era autogenerata. 
Una simile au (organizzazione è caratte- 
ristica dei sistemi caotici (si veda l'artì- 
colo // caos di James P. Cnitchfield, J. 
Doyne Farmer, Norman H. Packard e 
Robert S. Shaw in «Le Scienze» n. 222, 
febbraio 1987). 

Un altro indizio è stata l'evidente ca- 
pacità dei raggruppamenti di neuroni nel 
bulbo e nella corteccia di balzare global- 
mente e quasi istantaneamente da uno 
stato in cui le raffiche sono assenti a uno 
in cui sono presenti e viceversa. Questi 
rapidi cambiamenti di stato sono chia- 



mati transizioni di fase in fisica e bifor- 
cazioni in matematica. Quale che sia il 
nome, questi cambiamenti spettacolari 
in risposta a piccoli stimoli costituiscono 
- sarà bene ricordarlo - un'altra caratte- 
ristica dei sistemi caotici. La biforcazio- 
ne è molto più difficile da controllare nei 
sistemi casuali. 

Abbiamo ottenuto ulteriori prove di 
caos preparando modelli al calcolatore 
del sistema olfattivo nel suo insieme: il 
bulbo, la corteccia, le connessioni tra di 
essi e gli stimoli che giungono a entram- 
be le aree dall'esterno del sistema. Ab- 
biamo simulato l'attività del sistema ri- 
solvendo insiemi di equazioni differen- 
ziali ordinarie che descrivono la dinami- 
ca di raggruppamenti locali di neuroni. 

Innanzitutto abbiamo dimostrato che 
in effetti il modello rappresenta in modo 
accurato il sistema olfattivo. Con un solo 
impulso (equivalente all'eccitazione di 
pochi recettori) ad avviare il sistema, il 
modello ha prodotto un'attività moltosi- 



mile a quella rilevata in elettroencefalo- 
grammi olfattivi aperiodici. 

Dopo che avevamo «insegnato» al 
modello a riconoscere specifiche sostan- 
ze odorose, il segmento bui bare genera- 
va raffiche di impulsi in risposta agli sti- 
moli prescelti e !e onde portanti comuni 
incluse nel sistema fornivano mappe del- 
le ampiezze ben distinte e coerenti. Inol- 
tre, ogniqualvolta abbiamo aggiunto una 
nuova «sostanza odorosa» al repertorio 
percettivo del nostro ipotetico soggetto, 
abbiamo ottenuto una mappa globale 
delle ampiezze che identificava la so- 
stanza in questione. Nel contempo le al- 
tre mappe si modificavano (come do- 
vrebbero fare, naturalmente, in un vero 
sistema di memoria associativa). In pre- 
cedenza avevamo già riscontrato cam- 
biamenti dello stesso tipo negli anima- 
li da esperimento dopo che essi erano 
stati addestrati a riconoscere altri stimo- 
li oltre a quelli che avevano appreso 
inizialmente. 




La mappa a curve di livello a sinistra è costantemente associata a 
elettroencefalogrammi bulbari di un coniglio condizionato ad as- 
sociare l'odore della segatura a un compenso che funge da rinforzo. 
Dopo che l'animale aveva imparato a riconoscere l'odore di banana 



usi centro), una nuova esposizione alla segatura ha portato alla 
comparsa di una mappa diversa la destra), lì fenomeno indica che 
l'attività bulbare è dominata più dall'esperienza che dagli stimali; 
altrimenti la segatura darebbe sempre origine alla stessa mappa. 



p modello ha fornito ulteriori prove di 
*■ caos quando lo abbiamo indotto a 
produrre «EEG» di raffiche prolungate 
e dell'attività che si svolge tra una raffica 
e l'altra. Dato che questi EEG artificiali 
duravano più di quelli normali, siamo 
riusciti a costruire rappresentazioni gra- 
fiche nello spazio delle fasi del compor- 
tamento previsto del sistema olfattivo sia 
durante le raffiche di impulsi sia tra una 
raffica e l'altra. Queste rappresentazioni 
possono indicare a prima vista se la di- 
namica è o non è caotica. 

L'esecuzione delle rappresentazioni e 
il motivo per cui esse rispecchiano vali- 
damente l'attività del sistema olfattivo 
sono troppo complessi per discuterne 
qui. Tuttavìa ai lettori che abbiano fami- 
liarità con l'argomento vorrei far notare 
che abbiamo costruito le rappresentazio- 
ni su un reticolo tridimensionale e abbia- 
mo aggiunto il colore per evidenziare 
una quarta dimensione. Ogni asse rap- 
presentava l'ampiezza dell'EEG rilevata 
in qualche parte del sistema olfattivo, 
per esempio nel bulbo o in una sottose- 
zione della corteccia olfattiva. Una gam- 
ma di colori dal rosso al blu indicava la 
scala dei valori di ampiezza rilevati in 
una quarta parte del sistema. 

Abbiamo rappresentato con un punto 
un insieme di tre ampiezze misurate in 
un dato momento. Poi abbiamo riporta- 
to un altro punto misurato un millesimo 
di secondo più tardi e abbiamo collegato 
i due punti con una linea in colore. Ab- 
biamo quindi riportato un terzo punto e 
cosi di seguito. Per ultimo abbiamo ruo- 
tato l'immagine finale nello spazio per 
trovare il punto di vista che fornisse il 
maggior numero di informazioni. 

Le immagini hanno confermato l'ipo- 
tesi del caos, in quanto assomigliavano a 
matasse di filo metallico lasche con di- 
verse forme e distribuzioni di colore. Se 
il modello del sistema olfattivo si fosse 
comportato casualmente non vi sarebbe- 
ro state forme coerenti, ma solo punti 
sparsi qua e là. Se invece il sistema fosse 
stato prevedibile in dettaglio le forme 
sarebbero state più semplici, come una 
spirale, un cerchio ripiegato o un toro. 

Le forme che abbiamo trovato rappre- 
sentano attrattori caotici. Ogni attratto- 
re corrisponde al comportamento assun- 
to dal sistema per effetto di un partico- 
lare stimolo, per esempio una sostanza 
odorosa ben conosciuta. Le immagini in- 
dicano che un atto percettivo consiste in 
un balzo esplosivo del sistema dinamico 
dal «bacino» di un attrattore caotico a 
quello di un altro; il bacino dì un attrat- 
tore è l'insieme delle condizioni iniziali 
a partire dalle quali il sistema assume un 
particolare comportamento. Il fondo di 
una scodella sarebbe un bacino di attra- 
zione per una palla che si trovi in un 
punto qualsiasi della parete. Nei nostri 
esperimenti il bacino di ogni attrattore 
sarebbe definito dai neuroni attivati du- 
rante l'addestramento per poter formare 
un raggruppamento. 

Riteniamo che il bulbo olfattivo e la 




12 3 4 5 

DENSITÀ DELLE ONDE (AMPIEZZA DELL'EEG IN MICROVOLT) 

Le curve sigmoidali mostrano la relazione Ira input o stimolo (densità delle onde cerebrali) 
e output o segnale (densità degli impulsi) in corrispondenza delle zone dì innesco in popo- 
lazioni di neuroni. (I grafici non valgono per singoli neuroni. I L'aumento della pendenza 
al crescere dell'eccitazione indica che la sensibilità allo stimolo, o guadagno (rapporto tra 
output e input, corrispondente alla pendenza), aumenta con l'eccitazione. In ogni caso, il 
guadagno aumenta anche quando i neuroni che sono già eccitati (quelli che si trovano in 
corrispondenza dei cerchi e alla loro destra) ricevono ulteriori stimoli. Questo aumento 
del guadagno dipendente dallo stimolo è essenziale per la formazione di raffiche di impulsi. 



corteccia olfattiva contengano molti at- 
trattori caotici, uno per ciascuna sostan- 
za odorosa che un animale o un essere 
umano può discriminare. Ogniqualvolta 
una sostanza odorosa assume un signifi- 
cato, si aggiunge un nuovo attrattore e 
tutti gli altri subiscono qualche lieve 
modificazione. 

L identificazione del caos non ne rivela 
automaticamente la fonte. Noi sup- 
poniamo che nel cervello il caos si instau- 
ri quando due o più aree, per esempio il 
bulbo e la corteccia olfattiva, soddisfano 
perlomeno due condizioni: subiscono 
un'eccitazione reciproca di intensità tale 
da impedire che una singola parte ritomi 
a essere quiescente e. nel contempo, non 
riescono ad accordarsi su una frequenza 
di oscillazione comune. La competizio- 
ne tra le parti farebbe aumentare la sen- 
sibilità e l'instabilità del sistema, contri- 
buendo al caos. L'importanza dell'inte- 
razione tra bulbo e corteccia è dimostra- 
ta dal fatto che tagliando le connessioni 
tra queste due aree il caos scompare; en- 
trambe diventano eccezionalmente sta- 
bili e quiete. 

Le sostanze modulatrici riversate nel 
sistema da altre aree cerebrali fanno an- 
ch'esse aumentare la sensibilità allo sti- 
molo, sia partecipando alla formazione 
delle sinapsi di Hebb nei raggruppamen- 
ti di neuroni sia potenziando l'eccitazio- 
ne. Dato che fattori diversi mantengono 
elevata la sensibilità, un segnale anche 
pìccolissimo (un soffio, un bisbiglio, un 
rapido sguardo) può innescare un cam- 
biamento di stato collettivo e massiccio. 

E possibile che il caos che abbiamo 
osservato sia solo un inevitabile prodot- 
to collaterale della complessità del cer- 
vello, che contempla miriadi di connes- 



sioni. Le prove di cui disponiamo indi- 
cano però che il caos controllato del cer- 
vello sia qualcosa di più di un sottopro- 
dotto accidentale. Anzi, potrebbe essere 
proprio questa la proprietà principale 
che rende il cervello umano diverso dal- 
l'intelligenza artificiale. 

Un notevole vantaggio che il caos può 
conferire al cervello è che i sistemi cao- 
tici producono continuamente nuovi tipi 
di attività. A nostro parere, queste atti- 
vità sono decisive per lo sviluppo di rag- 
gruppamenti di neuroni diversi da quelli 
già stabiliti. Più in generale, la capacità 
di creare nuovi tipi di attività può essere 
alla base della capacità del cervello di 
formulare intuizioni e di risolvere pro- 
blemi attraverso tentativi ed errori. 

Abbiamo trovato che il comporta- 
mento apparentemente caotico è diffuso 
in altre parti del cervello. Questo risul- 
tato non implica necessariamente che al- 
tri sistemi sensoriali agiscano come il si- 
stema olfattivo, ma riteniamo ciò proba- 
bile. In effetti, assieme ad altri ricerca- 
tori abbiamo documentato la presenza 
di raffiche gamma in ampie aree corticali 
interessate nel riconoscimento di imma- 
gini visive. Come nel sistema olfattivo, 
stimoli visivi ben noti sono associati a 
mappe specifiche delle ampiezze delle 
onde portanti comuni. Secondo me, 
quando si esaminano disegni dove il pri- 
mo piano e lo sfondo sono ambigui, co- 
sicché la percezione si alterna tra due 
immagini, anche le mappe relative alle 
ampiezze dovrebbero alternarsi. 

Comincio a int ravvedere la dinamica 
generale della percezione. Il cervello 
cerca l'informazione , principalmente o- 
rientando un individuo a guardare, a- 
scoltare e annusare. Questa ricerca è il 
prodotto di un'attività che si organizza 



18 LE SCIENZE n. 272, aprile 1991 



le scienze ri. 272, aprile 1991 19 



SONO DISPONIBILI 
I RACCOGLITORI 

PER IL 1991 
DELLA RIVISTA 

LE SCIENZE 



Questi raccoglitori corrispondono ai volumi XLV1 e XLVI1 
de LE SCIENZE e rispettivamente ai fascicoli da gennaio (n. 269) 

a giugno (n. 274) e da luglio (n. 275) a dicembre (n. 280). 

Sono ancora disponibili i raccoglitori dal Voi. XXXVI11 al XLV e 

raccoglitori appositamente non numerati per sostituire quelli esauriti, 

I raccoglitori si possono richiedere direttamente all'editore usando 

l'apposita cartolina allegata alla rivista e unendo il relativo importo; 

gli ordini vengono evasi solo a pagamento avvenuto. 



I raccoglitori si trovano anche presso i seguenti punti vendita: 

BOLOGNA ■ Libreria Paroìini - Via U. Bassi 14 

FIRENZE - Libreria Marzocco - Via de' Martelli 22/R 

GENOVA ■ Libreria Int. Di Stefano - Via R. Ceccardi 40/R 

MILANO ■ Le Scienze S,p.A. • Piazza della Repubblica 8 

TORINO • Libreria Zanaboni ■ C.so Vittorio Emanuele 41 

NAPOLI ■ Libreria Guida A. • Via Port'Alba 20/21 

PADOVA - Libreria Cortina - Via F. Marzolo 4 

PALERMO • Libreria Dante ■ Quattro Canti di Città 

ROMA - Libreria Feltrinelli • Via V. Emanuele Orlando 




autonomamente e si svolge nel sistema 
limbico (la parte del cervello che include 
la corteccia endorinale e si ritiene sia in- 
teressata negli stati emotivi e nella me- 
moria), il quale trasmette un ordine di 
ricerca ai sistemi motori. Quando l'ordi- 
ne viene trasmesso il sistema limbico 
emette un cosiddetto messaggio di riaf- 
ferenza, che mette in stato di allerta tutti 
i sistemi sensoriali affinché si preparino 
a rispondere alla nuova informazione. 

In effetti essi rispondono alla raffica di 
impulsi, con ogni neurone di una data 
area che partecipa all'attività collettiva. 
L'attività sincrona in ciascun sistema è 
quindi ritrasmessa al sistema limbico, 
dove si combina con segnali provenienti 
da altri sistemi sensoriali, analogamente 
generati, per formare un tutto ricco di 
significato. Poi. nel giro di una frazio- 
ne di secondo, viene richiesta un'altra 
ricerca di informazione e i sistemi senso- 
riali vengono nuovamente preparati da 
un messaggio di riafferenza. 

La consapevolezza potrebbe essere 
l'esperienza soggettiva di questo proces- 
so ricorrente di comando motorio, riaf- 
ferenza e percezione. Se è così, permette 
al cervello di pianificare ogni successiva 
azione e di preparatisi sulla base di 
azioni passate, di stimoli sensoriali e di 
sintesi percettive. In breve, l'atto della 
percezione non è la riproduzione di uno 
stimolo in arrivo, ma un passo nel cam- 
mino che il cervello percorre per accre- 
scersi , organizzarsi e prendere contatto 
con l'ambiente, che poi modifica a pro- 
prio vantaggio. 

Il noeta William Blake scriveva: «Se 
le porte della percezione fossero elimi- 
nate, ogni cosa apparirebbe ali 'uomo co- 
me è in effetti: infinita.» Una simile eli- 
minazione non è auspicabile. Senza la 
protezione delle porte della percezione, 
cioè senza l'attività caotica autocontrol- 
lata della corteccia da cui nascono le per- 
cezioni, gli esseri umani e gli animali sa- 
rebbero sopraffatti dall'infinito. 



BIBLIOGRAFIA 

FREEMAN WALTER J., Mass Action in 
the Nervous System: Examìnation of the 
Neurophysiologicat Basis of Adaptive 
Behavior through the EEG, Acade mie 
Press, 1975. 

SKARDA CHRISTINE A. e FREEMAN 

WALTER J., How Brains Moke Chaos in 
Order io Moke Seme of the World in 
«Behavioral and Brain Sciences», 10, 
n. 2. giugno 1987. 

SHEPHERD GORDON M., The Synaptic 
Organization of the Brain, terza edizio- 
ne, Oxford University Press, 1990. 

HAKEN H. e STADLER M. (a cura), 
Synergeiics ofCognition: Proceedings of 
the International Symposium at Schloss 
Elmau, Bavaria, June 4-8, 1989, Sprin- 
ger-Verlag, 1990. 



20 LE scienze n. 272, aprile 1991 



Il numero di famiglie 
della materia 

Dagli esperimenti condotti al CERN e allo SLAC per studiare il 
decadimento della particella Z° in collisioni elettrone-positrone è emerso 
che nell'universo sono solo tre le famiglie di particelle fondamentali 

di Gary J. Feldman e Jack Steinberger 



sii ultimi. Nonostante il nome, il colo- 
re è una caratteristica invisibile; esso 
è per l'interazione forte ciò che la cari- 
ca è per l'interazione elettromagnetica: 
una grandezza che caratterizza la forza. 
Mentre però la carica elettrica può esse- 
re solo positiva o negativa, la carica di 
colore ha tre stati: i quark possono esse- 
re rossi, verdi o blu; gli antiquark posso- 



no essere antirossi, antiverdi o antiblu. 
Insieme le due teorie di gauge preve- 
dono, spesso con elevatissima precisio- 
ne, tutti i fenomeni elementari finora os- 
servati, ma la loro evidente capacità pre- 
dittiva non significa che il modello sia 
completo e che i fisici non abbiano più 
nulla da fare. Le teorie di gauge preve- 
dono l'esistenza del cosiddetto bosone di 



Higgs, che dovrebbe poter spiegare l'o- 
rigine della massa delle particelle. Nes- 
sun fisico si riterrà soddisfatto finché es- 
so non verrà osservato o non se ne tro- 
verà un sostituto. Le teorie di gauge 
comprendono anche un certo numero di 
costanti fisiche arbitrarie, quali le forze 
di accoppiamento delle interazioni e le 
masse delle particelle ; una teoria com- 



1 'universo che ci circonda è formato 
da tre sole particelle fondamen- 
J tali: il quark «su», il quark «giù» 
e l'elettrone. Stelle, pianeti, molecole, 
atomi - e ovviamente gli esseri viventi - 
sono costituiti, al livello più elementare, 
da queste tre entità. Insieme al partner 
neutro e forse privo di massa dell'elet- 
trone , il neutrino elettronico , essi forma- 
no la prima famiglia della materia. 

La natura, però, non è così semplice. 
Esistono altre due famiglie di particelle 
fondamentali identiche alla prima sotto 
ogni aspetto, fatta eccezione per la mas- 
sa. Perché la natura ha prodotto tre co- 
pte dello stesso schema della materia? 
Nessuno lo sa e le teorie fisiche finora 
non danno alcuna indicazione. Potreb- 
bero esistere più di tre famiglie? Recenti 
esperimenti hanno portato a concludere 
che non ve ne sono altre. 

Nella primavera e nell'estate del 1989 
gruppi dì fisici dello Stanford Linear Ac- 
celerator Center (SLAC) e del Labora- 
torio europeo per la fisica delle particelle 
del CERN presso Ginevra hanno com- 
piuto importanti esperimenti che hanno 
permesso di produrre grandi quantità di 
particelle Z? facendo scontrare elettroni 
(e") e positroni (c + ). 

La particella ZP che è la più massiccia 
particella elementare finora osservata, 
ha un peso circa 100 volte maggiore di 
quello del protone e di poco inferiore al 
peso atomico dell'argento. Come vedre- 
mo la massa attribuita alla particella è 
solo un valore medio; infatti la vita me- 
dia della particella Z° è così breve che 
singole particelle ZP possono differire 
leggermente l'una dall'altra per la mas- 
sa. La larghezza della curva a campana 
che rappresenta la distribuzione di mas- 
sa dipende dal numero di famiglie della 
materia esistenti e, dal momento che 
questa larghezza si può misurare speri- 
mentalmente, è possibile anche ricavare 
il numero di famiglie della materia. In 
questo articolo descriveremo gli esperi- 



menti mediante i quali questo numero è 
stato determinato con certezza, 

"Der prima cosa poniamo questi risultati 
*■ in prospettiva. Negli ultimi 25 anni 
abbiamo conseguito una notevole siste- 
matizzazione delle nostre conoscenze 
sulle particelle elementari e sulle loro re- 
ciproche interazioni. Le particelle cono- 
sciute si possono classificare o come fer- 
mioni o come bosoni di gauge. 1 fermioni 
sono particelle con spin 1/2, ovvero con 
momento angolare intrinseco 1/2 fi, dove 
ti è la costante di Planck razionalizzata 
(o ridotta), pari a circa 10~"ergxsecon- 
do. I fermioni possono essere considera- 
ti i costituenti della materia. I bosoni di 
gauge sono particelle con spin 1, ossia 
con momento angolare 1 ti, e si possono 
visualizzare come portatori delie forze 
agenti tra ì fermioni. Oltre che dallo 
spin, sono distinti dalla massa e dalle di- 
verse costanti di accoppiamento, quali la 
carica elettrica, che caratterizzano le in- 
terazioni reciproche. 

Tutte le interazioni conosciute posso- 
no essere classificate in tre tipi: elettro- 
magnetica, debole e forte. (Una quarta 
interazione, quella gravitazionale, è tra- 
scurabile a livello di particelle elementa- 
ri e quindi non la considereremo.) Seb- 
bene le tre interazioni appaiano diverse, 
la loro formulazione matematica è molto 
simile: esse vengono tutte descritte da 
teorie nelle quali i fermioni interagisco- 
no scambiandosi bosoni di gauge. 

L'interazione elettromagnetica, che 
unisce elettroni e nucleo negli atomi, è 
mediata dallo scambio di fotoni , i bosoni 
di gauge elettromagnetici. I portatori 
dell'interazione debole sono i bosoni pe- 
santi W , W~ e Z°, mentre l'interazione 
forte è mediata dagli otto «gluoni», privi 
di massa. Per esempio il protone è com- 
posto da tre quark, fermioni che sono 
uniti insieme dallo scambio di gluoni. 

Queste stesse interazioni descrivono 
la creazione di particelle nelle collisioni 



di alta energia; ne è un esempio la con- 
versione di un fotone in un elettrone 
e un positrone. Allo stesso modo l'an- 
nichilazione di un elettrone con un po- 
sitrone a energie elevatissime produce 
una particella Z°. 

L'evoluzione di queste teorie di gauge 
costituisce uno sviluppo di straordinaria 
eleganza nella fisica delle particelle. L'u- 
nificazione dell'elettromagnetismo con 
l'interazione debole fu proposta negli 
anni 1968-1971, Questa teoria «elettro- 
debole» prevedeva l'esistenza dell'in- 
terazione debole neutra, osservata al 
CERN nel 1973, e dei bosoni intermedi 
pesanti W*, W e Z°, rivelati sempre al 
CERN 10 anni dopo. 

La teoria di gauge dell'interazione for- 
te venne elaborata all'inizio degli anni 
settanta. Questa teoria è anche chiamata 
cromodinamica quantistica, in quanto 
spiega la forza forte che si esercita 
tra i quark in base ai «colori» di que- 



Ak'ph . uno dei quattro rivelatori del Large 
Electron-Positron Collider (lep) del CERN 
presso Ginevra, ha registrato questi tipici 
decadimenti di particelle Z*. I diagrammi 
in sezione mostrano i prodotti di decadi- 
mento delle particelle Z" durante l'attra- 
versamento del rivelatore, I quattro deca- 
dimenti sono l 'in senso orario da sinistra in 
alto) un elettrone e un positrone, che ap- 
paiono come un'unica fila di puntini; due 
muoni, le cui traiettorie coincidono con 
quelle degli elettroni, ma penetrano fino 
ai dispositivi più esterni per il rilevamen- 
to delle tracce; due particelle tau, una del- 
le quali è decaduta in un muone e due neu- 
trini (questi ultimi non visibili) mentre 
l'altra è decaduta in tre pioni; infine due 
quark, che formano getti di adroni. La 
maggior parte delle particelle /" decade 
in quark. Gli istogrammi Un blu e rosso) 
rappresentano le energie delle particelle. 




22 le scienze n. 272, aprile 1991 



le scienze n. 272, aprile 1991 23 




L'anello di collisione in 1 produce i bosoni vettori intermedi /" 
facendo collidere elettroni e positroni in un anello di accumulazione 
con una circonferenza di 27 chilometri. Le particelle circolano in 
«pacchetti» nei due versi opposti. Elettromagneti confinano i dui- 



fasci nelle traiettorie corrette e cavità a radiofrequenza li accelera- 
no fino a un'energia combinata di quasi 90 GeV, equivalente alla 
massa della particella '/.", I pacchetti si scontrano frontalmente 
45 0O0 volte al secondo entro i rivelatori Aleph. Opal. Delphi e LA. 



pietà dovrebbe spiegare perché queste 
grandezze assumano i valori osservati. 

Una delle regole della teoria elettro- 
debole è che i fermioni esistono in cop- 
pie. Una di tali coppie è costituita dall'e- 
lettrone e dal neutrino elettronico, detti 
leptoni perché sono relativamente legge- 
ri. Una seconda regola impone che ogni 
particella abbia la propria antiparticella: 
all'elettrone fa da controparte il positro- 
ne , al neutrino elettronico l'antineutrino 
elettronico. Quando particelle e antipar- 
ticelle collìdono, si annichilano a vicen- 
da producendo particelle secondarie. 
Come vedremo, queste reazioni sono al- 
la base degli esperimenti qui descritti. 

Per evitare alcuni sottili paradossi che 
sarebbero disastrosi per la teoria, è ne- 
cessario associare a ogni coppia di lepto- 
ni una corrispondente coppia di quark. 
L'elettrone è il leptone carico più legge- 
ro e viene quindi associato ai quark più 
leggeri, il quark su e il quark giù. I quark 
non sono stati mai osservati allo stato 
libero, ma si trovano soltanto legati ad 
altri quark e antiquark. 

Il protone, per esempio, è formato da 
due quark su e da un quark giù, mentre 
il neutrone è formato da due quark giù 
e da un quark su. Esperimenti alle alte 
energie hanno dimostrato l'esistenza di 
particelle che compongono una seconda 
famiglia completa e gran parte di una 
terza. In ciascun caso le particelle sono 



molto più pesanti del corrispondente 
membro della famiglia precedente (con 
la possibile eccezione dei neutrini). I due 
leptoni della seconda famiglia sono il 
muone e il neutrino muonico; i quark 
sono il quark «incantato» e il quark 
«strano». I membri accertati della terza 
famiglia sono i due leptoni - la particella 
tau e il neutrino tauonico - e il quark 
«basso» (o «bellezza»). Il quark restan- 
te, chiamato quark «alto» (o «verità») è 
essenziale per la teoria elettrodebole; 
sebbene non sia ancora stato rivelato, la 
maggior parte dei fisici ritiene che esso 
esista e che sia semplicemente troppo 
pesante per poter essere creato con gli 
attuali acceleratori di particelle. 

Nessuno dei membri della seconda e 
della terza famiglia è stabile (di nuovo 
con la possibile eccezione dei neutrini). 
La loro vita media va da IO'*" a IO"' 3 
secondi, dopo di che essi decadono in 
particelle di massa inferiore. 

Vi sono due significative lacune nel 
modo in cui la teoria elettrodebole clas- 
sifica le particelle. In primo luogo, pur 
richiedendo che i fermioni compaiano in 
coppie, la teoria non precisa quante cop- 
pie vi siano in una famiglia. Non c'è al- 
cun motivo per cui ciascuna famiglia non 
possa avere, oltre ai leptoni e ai quark, 
particelle di un altro tipo non ancora os- 
servato. Questa possibilità interessa un 
gr a n mi me ro di nost ricolleghi, ma fin o ra 



nessuna di queste nuove particelle è mai 
stata individuata. In secondo luogo la 
teoria non dice nulla sull'argomento 
principale di questo articolo: il numero 
di famiglie della materia. Potrebbero 
esistere altre famiglie di particelle trop- 
po pesanti da poter essere prodotte con 
gli attuali acceleratori? 

Attualmente, i fisici non possono far 
** altro che inserire nella teoria, più o 
meno ad hoc, le masse osservate. Si pos- 
sono, però, distinguere alcuni andamen- 
ti precisi. All'interno di una data classe 
di particelle (per esempio un leptone ca- 
rico o un quark con carica +2/3 o - 1/3) 
la massa aumenta considerevolmente da 
una famiglia alla successiva. L'incre- 
mento più piccolo è il balzo di quasi un 
fattore 17 dal muone della seconda fami- 
glia alla particella tau della terza. 

All'interno delle singole famiglie vi è 
un altro aspetto rilevante. I leptoni sono 
sempre meno pesanti dei quark, e in cia- 
scuna coppia di leptoni il neutrino è sem- 
pre la particella più leggera. In realtà 
non si sa neppure se ì neutrini abbiano 
massa: i risultati sperimentali si limitano 
a fissare un lìmite superiore alla massa 
dei vari tipi di neutrino. 

La piccola massa dei neutrini è essen- 
ziale per il metodo di conteggio qui de- 
scritto delle famiglie di particelle. Anche 
se i quark e i leptoni appartenenti a una 



quarta, quinta o sesta famiglia fossero di 
gran lunga troppo pesanti per poter es- 
sere prodotti con gli attuali acceleratori, 
vi sono ottime probabilità che i neutrini 
corrispondenti abbiano una massa mini- 
ma o addirittura nulla. Quasi certamen- 
te la massa di tali neutrini dovrebbe es- 
sere inferiore a metà della massa della 
particella Z" e. quindi, ammesso che esi- 
stano, dovrebbero essere individuabili 
tra i prodotti di decadimento della Z°. la 
sola particella che decadendo dà origine 
a un gran numero dì coppie di neutrini. 

Purtroppo è difficile rivelare i neutrini 
perché essi non prendono parte a intera- 
zioni elettromagnetiche o forti. Queste 
particelle vengono a contatto con la ma- 
teria solo tramite forze chiamate, a ra- 
gione, «deboli»: la maggior parte dei 
neutrini attraversa tutta la Terra senza 
subire alcuna interazione. Negli esperi- 
menti che descriveremo i neutrini devo- 
no essere rivelati per via indiretta. 

11 procedimento ha inizio con la pro- 
duzione di particelle Z a partire da una 
coppia elettrone-positrone la cui energia 
cinetica totale colmi la differenza tra le 
loro masse di riposo (espresse in energia 
equivalente) e la massa di riposo della 
particella Z*. Poiché questi leptoni han- 
no una massa di riposo molto piccola, i 
fasci nei quali essi si propagano devono 
essere portati alla elevatissima energia di 
45,5 GeV (miliardi di elettronvolt), cor- 
rispondente circa a metà della massa del- 
la particella Z". Se questa fosse perfet- 
tamente stabile, l'energia del fascio do- 
vrebbe corrispondere esattamente a me- 
tà della massa della Z" perché siano con- 
servate l'energia e la quantità di moto. 
Ma una stabilità perfetta è impossibile 
perché, se la Z" può essere prodotta a 
partire da altre particelle, deve anche 
poter decadere nuovamente in esse. In 
effetti quanto maggiore è il numero di 
vie dì decadimento possibili per la parti- 
cella, tanto più breve è la sua vita media. 

All'inizio dell'articolo abbiamo affer- 
mato che la breve vita media della par- 
ticella Z° ne rende indeterminata la mas- 
sa e che l'entità dell'indeterminazione 
può essere utilizzata per contare le fami- 
glie della materia. Spieghiamone la ra- 
gione. Una delle forme del principio di 
indeterminazione di Heisenberg afferma 
che quanto minore è la durata di uno 
stato, tanto maggiore è l'incertezza nella 
misurazione della sua energia. Avendo 
la Z" una vita media molto breve, la sua 
energia - vale a dire la sua massa - deve 
avere un certo grado di indeterminazio- 
ne. Il significalo di questa affermazione 
è il seguente: la massa di ogni singola 
particella Z° può essere misurata con 
grande precisione, ma particelle diverse 
possono avere masse leggermente diffe- 
renti. Se si riportano su un grafico le 
masse misurate di molte particelle Z" 5 , si 
ottiene una curva a campana la cui lar- 
ghezza è proporzionale alla velocità di 
decadimento della particella. 

La forma della curva viene ricavata 
facendo variare l'energia di collisione e 



osservando il numero di particelle Z° 
prodotte. Le misurazioni danno origine 
a una cuna che presenta un picco, o ri- 
sonanza, a un'energìa combinata dei fa- 
scio dì circa 91 GeV. Questo punto, 
chiamato sezione d'urto di picco, fissa la 
massa media della Z°. La larghezza della 
curva di risonanza definisce l'indetermi- 



nazione nella massa della particella. 
La larghezza della curva è uguale alla 
somma delle larghezze parziali dovute a 
ciascuna delle vie di decadimento della 
Z°. Le vie conosciute sono decadimenti 
in coppie particella-antiparticella di tutti 
i fermioni di massa inferiore a metà della 
massa della Z", vale a dire le tre varietà 




I- 



CONTATORI DI MUONI 






CALORIMETRO PER ADRONI 




I rivelatori di Aleph sono disposti a strati e inviano i dati a calcolatori che ricostruiscono 
su uno schermo gli eventi di decadimento (in basso). Le particelle cariche sono individuabili 
come scie di ionizzazione nel gas dei rivelatori. L'energia delle particelle cariche e neutre 
è misurata da calorimetri e tradotta in grafico. Aleph pesa circa 4000 tonnellate (in alto). 



24 le scienze n. 272, aprile 1991 



LE SCIENZE n. 272, aprile 1991 25 




\ 

CATODO 




ANELLI 
DI SMORZAMENTO 



ELETTRONI 



SORGENTE 
DI POSITRONI 



/n/ì 




POSITRONI 



MAGNETI 
DI DEFLESSIONE 



RIVELATORE 
DI PARTICELLE 

MARK I! 



MAGNETI 

DI FOCALIZ- 

ZAZIONE FINALE 



Nello Stanford Linear Collider (SLCt i positroni e gli elettroni ven- 
gono accelerati in un iinac (acceleratore lineare) di oltre tre chilo- 
metri di lunghezza. Il cannone catodico fin alto a destra) «spara» 
contemporaneamente due fiotti di elettroni Un rosso) in un anello 
di smorzamento, che li accumula in vista della successiva focaliz- 
zazione. Un «pacchetto» entra poi nel Iinac dove viene seguito da 



un pacchetto di positroni (in blu). I due pacchetti accelerano in 
tandem prima di entrare in due archi separati, dove ciascuno viene 
focalizzato e diretto verso il punto di collisione nel rivelatore 
Mark II (in basso a sinistra). Nel frattempo il secondo pacchetto di 
elettroni incide su un bersaglio e produce positroni (a/ centro), i 
quali vengono inviati all'inizio del iinac, smorzati e accumulati. 



di leptoni carichi, i cinque tipi di quark 
e le tre varietà di neutrini. Se esistono 
altri fermioni di massa inferiore a metà 
della massa della Z°, essa potrà decadere 
anche in queste specie, e le relative vie 
di decadimento contribuiranno alla lar- 
ghezza della curva di risonanza. 

Gli esperimenti finora effettuati di- 
mostrano che non si hanno decadimenti 
in nuove particelle cariche; possiamo 
quindi essere certi che simili particelle 
non esistono o che le loro masse sono 
superiori a metà della massa della 2°. Se 
però esistono famiglie che comprendono 
particelle di massa molto grande, i loro 
neutrini - come abbiamo detto in prece- 
denza - dovrebbero ugualmente avere 
masse assai inferiori a metà della massa 
della Z°; perciò quest'ultima dovrebbe 
avere a disposizione anche queste vie di 
decadimento e. sebbene i neutrini non 
siano direttamente osservabili in questi 
esperimenti, il loro contributo alla curva 
di risonanza ne permetterebbe l'indivi- 
duazione. È questo il principio che con- 
sente, mediante gli esperimenti qui de- 
scritti, di contare il numero di famiglie 
della materia. 

La teoria elettrodebole prevede i con- 
tributi delle vie di decadimento note con 



una precisione dell' 1 per cento: 1,74 
GeV per tutti i decadimenti in quark 
combinati; 83,5 MeV per ogni decadi- 
mento in un leptone carico; 166 MeV per 
ogni decadimento in un neutrino. 

All'aumentare del numero di neutrini 
ipotizzati (e quindi di famiglie) aumenta 
anche la larghezza prevista della curva di 
risonanza. La sezione d'urto di picco 
prevista, dal canto suo, diminuisce con 
il quadrato della larghezza. Si può quindi 
ricavare il numero delle famiglie o dalla 
larghezza misurata o dalla sezione d'urto 
di picco; quest'ultima è la misurazione 
più efficace dal punto di vista statistico. 
Per determinare il numero di famiglie 
con misure sperimentali dirette si è do- 
vuto però attendere di poter produrre un 
gran numero di particelle Z° mediante 
annichilazione elettrone-positrone. 

I ricercatori del CERN hanno affron- 
tato il problema con la realizzazione 
del lep (Large Electron-Positron Colli- 
der), un anello dì accumulazione tradi- 
zionale per progetto, ma senza prece- 
denti per dimensioni (si veda l'articolo 
L'anello dì collisione LEP di Stephen 
Myers ed Emilio Picasso in «Le Scienze» 
n. 265, settembre 1990). L'anello, che 



ha una circonferenza di 27 chilometri, è 
scavato a 50-150 metri di profondità al 
di sotto della pianura che si estende da 
Ginevra al Giura francese. I due fasci, 
accelerati da cavità di risonanza a radio- 
frequenza, si muovono in versi opposti 
in una camera a vuoto di forma appros- 
simativamente circolare. Gruppi di elet- 
tromagneti guidano ì fasci nei tratti cur- 
vi dell'acceleratore e li focalizzano nei 
quattro punti di collisione, ciascuno dei 
quali dotato di un grande rivelatore. 

La configurazione ad anello ha il van- 
taggio di immagazzinare le particelle a 
tempo indefinito, in modo che esse pos- 
sano continuare a circolare e a collidere, 
ma ha lo svantaggio di dissipare l'energia 
dei fasci sotto forma dì radiazione di sin- 
crotrone, che viene emessa da qualsiasi 
particella carica deviata da un campo 
magnetico. Questa emissione, che alle 
energie in gioco si manifesta in forma di 
raggi X, aumenta con la quarta potenza 
dell'energia del fascio ed è inversamente 
proporzionale al raggio dell'anello. I 
progettisti possono quindi aumentare la 
potenza dei fasci sia fornendo più ener- 
gia, sia costruendo anelli più grandi, sia 
adottando entrambe le soluzioni. Con 
un uso ottimale delie risorse il costo di 



un anello di accumulazione cresce con il 
quadrato dell'energia dei fasci. Si ritiene 
che il lep si avvicini al limite pratico, 
dettato da considerazioni di costo, per 
acceleratori di questo tipo. 

A Stanford il problema di far collidere 
ad alta energia elettroni e positroni è sta- 
to affrontato in modo innovativo con la 
costruzione dello slc (Stanford Linear 
Collider). Gli elettroni e i positroni ven- 
gono accelerati in un acceleratore linea- 
re lungo tre chilometri (originariamente 
costruito per altri scopi) deviati in due 
grandi archi della lunghezza di un chilo- 
metro, fatti collidere e poi inviati fuori 
dal dispositivo. I fasci di positroni per- 
dono circa il 2 per cento della propria 
energia a causa della radiazione di sin- 
crotrone emessa negli archi, ma questa 
perdita è tollerabile perché le particelle 
non vengono fatte ricircolare. Nel punto 
di collisione si ha un solo rivelatore (si 
veda l'articolo Lo Stanford Linear Col- 
lider di John R. Rees in «Le Scienze» 
n. 256, dicembre 1989). 

Il LEP ha una notevole efficienza: dato 
che i fasci dì elettroni e positroni conti- 
nuano a circolare, si hanno circa 45 000 
collisioni al secondo. Nello slc i fasci 
collìdono, nel migliore dei casi, solo 120 
volte al secondo. Per migliorare l'effi- 
cienza dello slc si può ridurre la sezione 
del fascio fino a renderla estremamente 
piccola. Quanto più ridotta è la sezione 
del fascio, tanto più è probabile che un 



elettrone subisca una collisione frontale 
con un positrone. Nello slc si sono ot- 
tenuti fasci del diametro dì quattro mi- 
lionesimi di metro, circa un quinto dello 
spessore di un capello umano. 

Una delle principali motivazioni che 
hanno spinto a costruire lo slc è che esso 
dovrebbe rappresentare un prototipo dì 
una nuova classe di coliisore. In effetti si 
è visto che nei collisoli lineari si può ot- 
tenere un numero di collisioni adeguato 
e questo risultato ha incoraggiato ulte- 
riori ricerche in questa direzione sia allo 
SLAC sia al CERN. Tuttavia l'attuale 
velocità di produzione di particelle Z" 
dello SLC è ancora oltre 100 volte infe- 
riore a quella del LEP. 

Vari gruppi di fisici stanno analizzan- 
do i prodotti di collisione con i grandi 
rivelatori. rivelatore dello SLC è il 
Mark II, mentre i quattro rivelatori del 
LEP si chiamano Aleph, Opal, Delphi e 
L3. Il gruppo dello SLAC comprende 
circa 150 fisici e ognuno dei gruppi del 
CERN è formato da circa 400 studiosi, 
provenienti da istituti di ricerca e univer- 
sità di oltre 20 paesi. 

La funzione di un rivelatore è di mi- 
surare l'energia e la traiettoria del mag- 
gior numero possibile di particelle coin- 
volte in un evento di collisione e di iden- 
tificarne la natura, in particolare quella 
dei leptoni carichi. I rivelatori sono fatti 
a strati, un po' come una cipolla, con 
dispositivi per rivelare le tracce delle 



particelle all'interno e calorimetri all'e- 
sterno. I primi misurano la direzione e 
la quantità di moto delle particelle cari- 
che, le cui traiettorie vengono rese visi- 
bili dalle scie di ionizzazione lasciate in 
un gas adatto. Si impiegano anche altri 
materiali, quali rivelatori a semicondut- 
tore e fibre plastiche foto emettitrici. 

I dispositivi per rivelare le tracce delle 
particelle sono in genere immersi in in- 
tensi campì magnetici che deviano le tra- 
iettorie delle particelle in misura inver- 
samente proporzionale alla loro quantità 
di moto. Misurando la curvatura si rica- 
va la quantità dì moto che a sua volta 
fornisce una buona stima dell'energia. 
(Alle energie in gioco in questi esperi- 
menti, energia e quantità di moto di una 
particella differiscono di pochissimo.) 

I calorimetri misurano l'energia di 
particelle sia neutre sia cariche facendo 
dissipare questa energia in successive in- 
terazioni secondarie in un mezzo ad alta 
densità. Questa energia viene poi oppor- 
tunamente misurata e localizzata con la 
massima precisione consentita dalla gra- 
nularità del calorimetro. I calorimetri 
funzionano in vari modi; la loro configu- 
razione più comune è una serie di sottili 
lamine di materiale denso, come piom- 
bo, uranio o ferro, alternate a strati di 
materiale rivelatore di tracce. 

Le particelle lasciano la loro impronta 
in questi materiali strappando elettroni 
agli atomi del rivelatore; in genere per 



LE TRE FAMIGLIE DI PARTICELLE FONDAMENTALI 



MASSA IN MILIARDI DI ELETTRONVOLT (GeV) 



DELL'ELETTRONE 



CIRCA 0,01 GeV 



CIRCA 0.01 GeV 






















z 










r- 

a. 

LU 

_J 












-1 

















NEUTRINO 
ELETTRONICO 

^2~>Tio =ff eev 



ELETTRONE 
S,11 x 10"* GeV 



DEL MUONE 



INCANTATO 
CIRCA 1,5 GeV 



VARIAZIONE RELATIVA 
DI MASSA 



CIRCA 0,15 GeV 






NEUTRINO MUONICO 
<2X-10.t 4 GeV 



DELLA PARTICELLA TAU 



ALMENO 89 GeV, 
NON ANCORA 
OSSERVATO 



BASSO 

CIRCA 5.5 GeV 




NEUTRINO TAUONICO 
<O.U35GeV 



PARTICELLA TAU 




VARIAZIONE RELATIVA 
DI MASSA 



26 LE SCIENZE n. 272, aprile 1 99 1 



LE scienze n. 272, aprile 1991 27 



questo scopo viene impiegato l'argo, sia 
in forma liquida sia come gas combinato 
con gas organici. Gli scintillatoli in ma- 
teriale plastico funzionano in modo di- 
verso: quando una particella prodotta 
nella collisione li attraversa, viene pro- 
dotto un lampo di luce del quale si mi- 
sura l'intensità. Di solito il calorimetro è 
diviso in due parti, una interna destinata 
alla misurazione di elettroni e fotoni e 
una estema per gli adroni. 

Per raccogliere tutti i prodotti della 
collisione, il rivelatore ideale dovrebbe 
coprire l'intero angolo solido che circon- 
da il punto di interazione; rivelatori di 
questo tipo vennero costruiti per la pri- 
ma volta allo SLAC negli anni settanta. 
Con il rivelatore Aleph de! LEP la rico- 
struzione delle tracce dei prodotti del- 
l'annichilazione di un positrone e di un 
elettrone avviene per fasi. 

Un rivelatore di vertice a striscia di 
silicio posto nel punto di collisione fissa 
la posizione iniziale di una traiettoria 
con un errore inferiore a un decimino- 
ne si mo di metro. Otto strati di rivelatori 
a filo individuano poi la traiettoria in una 
camera intema di 60 centimetri di dia- 
metro; poi, in una seconda camera, det- 
ta a proiezione temporale, di 3,6 metri 
di diametro, un intenso campo elettrico 
raccoglie gli elettroni strappati alle mo- 
lecole del gas dal passaggio delle parti- 
celle e li avvia verso le due estremità 
delle camere cilindriche, dove essi ven- 
gono amplificati e rivelati da una schiera 
di 50 000 cellette. Il punto di orìgine dì 
ciascun elettrone viene ricavato dalla sua 
posizione di arrivo sulla schiera e dal 
tempo impiegato per raggiungerla. 

Con il passo successivo i prodotti 
di collisione raggiungono il calorimetro 
elettromagnetico, poi attraversano la 
bobina superconduttrice, che genera un 
campo magnetico di 15 000 gauss sull'as- 
se del rivelatore, e infine entrano nel ca- 
lorimetro per adroni. Questo dispositi- 
vo, costituito da una serie di lastre di 
ferro separate da contatori a gas, funge 
anche da giogo di ritomo del campo ma- 



gnetico, allo stesso modo di un nucleo di 
ferro in un elettromagnete convenziona- 
le. Aleph pesa 4000 tonnellate ed è co- 
stato oltre 60 miliardi di lire. Per ogni 
evento devono essere letti 500 000 canali 
di informazione e l'acquisizione e la suc- 
cessiva analisi dei dati richiedono un 
massiccio impiego del calcolatore. 

I dati raccolti nei primi mesi di funzio- 
namento del lep e dello slc hanno for- 
nito le migliori conferme finora disponi- 
bili delle previsioni della teoria elettro- 
debole. Ancora più importante è il fatto 
che essi abbiano consentito di determi- 
nare con grande precisione la larghezza 
della risonanza Z°. 

La stragrande maggioranza delle an- 
nichilazioni elettrqne-positrone osserva- 
te dà origine a quattro gruppi di prodot- 
ti: nelf 88 per cento dei casi sì hanno un 
quark e un antiquark, mentre il restante 
12 per cento delle interazioni è diviso in 
parti uguali tra la produzione di una par- 
ticella tau e la sua antiparticella, quella 
di un muone e un antimuone e infine 
quella di un elettrone e un positrone. 
(L'ultimo caso non è altro che il processo 
inverso della annichilazione iniziale.) 

Nei decadimenti in cui si producono 
elettroni e muoni si osservano due tracce 
che iniziano nello stesso punto e proce- 
dono in versi opposti e le cui quantità di 
moto (ed energie) corrispondono a metà 
dell'energia totale dei fasci. I due pro- 
dotti si distinguono facilmente per il loro 
diverso comportamento nei calorimetri. 
I decadimenti in cui si producono parti- 
celle tau sono più complessi perché que- 
ste permangono solo per un brevissimo 
istante - durante il quale si muovono di 
circa un millimetro - prima di decadere 
in particelle terziarie che sono le sole a 
poter essere osservate. Una particella 
tau lascia o tracce molto ravvicinate o 
una singola traccia; in entrambi i casi la 
sua traccia è l'immagine speculare di 
quella di un'altra particella tau che si 
muove in verso opposto (conservando 
così la quantità di moto). 

I quark che vengono generati nella 



maggior parte delle collisioni non si os- 
servano allo stato libero, o «nudo», per- 
ché subiscono immediatamente un pro- 
cesso di adronizzazione. Ciascun quark 
sì «riveste» dì un getto di adroni, 15 in 
media, due terzi dei quali sono carichi. 
Questo, che è il più complesso dei quat- 
tro eventi di decadimento principali, si 
manifesta di solito in forma dì getti che 
si dirigono in versi opposti, ciascuno 
contenente più tracce. 1 risultati discussi 
in questo articolo si basano sull'analisi di 
circa 80 000 decadimenti della particella 
Z" in quark, ottenuti complessivamente 
dai quattro gruppi operanti con il LEP e 
dal gruppo dello SLAC. 

T a curva di produzione delle particelle 
*^ Z° viene ricavata con una scansione 
in energia. Si misura la probabilità di 
produzione della particella £ diverse 
energie, sia in corrispondenza del picco 
sia a valori superiori e inferiori. In que- 
sto tipo di esperimento è molto impor- 
tante conoscere con esattezza l'energia 
del fascio. Al lep e allo slc essa è stata 
ricavata in modi molto differenti, ma 
ugualmente ingegnosi, e con una preci- 
sione di tre parti su 10 000. 

Come abbiamo sottolineato in prece- 
denza, la larghezza totale della risonan- 
za Z° può essere determinata o dall'al- 
tezza del picco o dall'ampiezza della cur- 
va, II primo metodo è affetto da un mi- 
nore errore statistico, ma impone di co- 
noscere non solo la frequenza degli 
eventi , ma anche la frequenza di incrocio 
delle particelle dei due fasci, denomina- 
ta luminosità del cotlisore. 

Nel semplice caso di due fasci perfet- 
tamente allineati di forma e dimensioni 
identiche, la luminosità è data dal pro- 
dotto tra il numero di elettroni e il nu- 
mero di positroni di ogni «pacchetto» 
che si incrocia moltiplicato perii numero 
di pacchetti che si incrociano in un se- 
condo e diviso per la sezione trasversale 
dei fasci. In pratica la luminosità viene 
determinata osservando la velocità del- 
l'unico processo conosciuto con preci- 



■■■* CALORIMETRI ESZhZZ 

ELETTROMAGNETICI v: ^rM 

H " — — -^_^^ „ ANGOLO DI DIFFUSIONE 1 






M^M 


UT 





Il rivelatore di luminosità di Aleph registra un evento di diffusione 
a piccolo angolo quando un positrone te ' > entra da sinistra e sflora 
un elettrone ie~> che entra da destra. Le particelle finiscono poi in 
calorimetri ad alta granularità che consentono di misurarne l'ener- 
gia e di stabilire gli angoli di diffusione. Il tasso di questi eventi 



misura la frequenza di collisione, o luminosità, del lep. È necessa- 
rio conoscere la luminosità per stabilire in che modo le variazioni 
di energia del fascio influenzino la probabilità di produrre parti- 
celle Z°. Questa funzione di probabilità fornisce a sua volta il nu- 
mero di tipi di neutrini e quindi il numero di famiglie della materia. 



28 le scienze n. 272, aprile 1991 



35 - 



LEP 



DUE FAMIGLIE 
TRE FAMIGLIE 
QUATTRO FAMIGLIE 




MASSA MEDIA DELLA & 

^ ■ I I * I I t I \ 1 I I 1 X_l 1 I 1 1 I I L 



88 89 SO 81 92 93 

MILIARDI DI ELETTRONVOLT 



94 



95 



Le curve di risonanza previste per la '/." variano a seconda del numero di famiglie della 
materia. Le migliaia di decadimenti di particelle Z° in quark osservati al CERN appaio- 
no come punti. I risultati concordano con la previsione di tre sole famìglie dì particelle. 



sione: la diffusione di elettroni e positro- 
ni che si sfiorano allontanandosi gli uni 
dagli altri a piccoli angoli senza combi- 
narsi o cambiare stato. Per registrare 
queste collisioni elastiche si installano 
due speciali rivelatori, spostati dì un pìc- 
colo angolo rispetto all'asse della camera 
a vuoto e situati uno dì fronte e uno die- 
tro al punto di collisione. Nel caso di 
Aleph, questi rivelatori sono calorimetri 
elettromagnetici ad alta granularità. 

Gli elettroni e i positroni che hanno 
subito diffusione elastica sono identifica- 
bili per il modo caratteristico con cui de- 
positano energia nei rivelatori e per il 
fatto che le traiettorie secondo cui le due 
particelle vanno a colpire, in versi oppo- 
sti, i rivelatori sono allineate su una ret- 
ta. Fondamentale è capire esattamente 
come si registrano le particelle, special- 
mente in quelle parti dei rivelatori che 
corrispondono ad angoli di diffusione 
estremamente piccoli: il tasso di rivela- 
zione è infatti estremamente sensibile a 
variazioni dell'angolo. 

Quando si confrontano i dati risultanti 
con la forma teorica della curva di riso- 
nanza, si considerano tre parametri: l'al- 
tezza del picco, la larghezza totale e la 
massa della particella Z°. In effetti i dati 
sono in buon accordo con la forma della 



distribuzione prevista dalla teoria. Il 
passo successivo è allora la determina- 
zione del numero di famiglie di neutrini 
a partire da due parametri indipendenti: 
la larghezza e l'altezza del picco. 

L'insieme dei risultati ottenuti dai cin- 
que gruppi di ricerca dà una stima media 
di 3,09 tipi di neutrini, con una indeter- 
minazione sperimentale di 0,09. Questo 
valore è molto prossimo a un numero 
intero , come dovrebbe essere , e coincide 
con il numero di tipi di neutrini già co- 
nosciuti. Un quarto neutrino potrebbe 
esistere senza contraddire questi risultati 
soltanto se la sua massa fosse superiore 
a 40 GeV, una eventualità improbabile 
date le masse estremamente piccole o 
nulle dei tre neutrini conosciuti. 

Insultati ottenuti dallo studio della 
particella Z° concordano con le pro- 
ve cosmologiche raccolte da chi studia la 
materia a scala galattica e sovraga lattica . 
Gli astronomi hanno misurato le abbon- 
danze relative dell'idrogeno, dell'elio e 
di altri elementi leggeri nell'universo e 
cosmologi e astrofisici hanno cercato di 
risalire ai processi che possono aver dato 
origine alle abbondanze osservate (si ve- 
da T'articolo Gli acceleratori di particelle 
verificano la teoria cosmologica di David 



N. Schramm e Gary Steigman in «Le 
Scienze» n. 240, agosto 1988). 

Immediatamente dopo il big bang, l'e- 
splosione primordiale che diede origine 
all'espansione dell'universo, la materia 
era tanto calda che la probabilità del pro- 
cesso di decadimento di un neutrone in 
una coppia elettrone -protone era uguale 
a quella del processo inverso. Di conse- 
guenza esisteva un numero uguale di 
protoni e di neutroni. Durante l'espan- 
sione e il raffreddamento dell'universo, 
però, i neutroni, che sono leggermente 
più pesanti, si trasformarono in protoni 
più rapidamente di quanto i protoni si 
trasformassero in neutroni. Il rapporto 
neutroni-protoni è andato perciò conti- 
nuamente diminuendo. 

Quando l'espansione portò la tempe- 
ratura dell'universo al di sotto di un mi- 
liardo di kelvin, i protoni e i neutroni 
furono per la prima volta in grado di 
unirsi e formare alcuni degli elementi più 
leggeri, soprattutto elio. Le abbondanze 
risultanti dipendono criticamente dal 
rapporto tra neutroni e protoni nel mo- 
mento in cui si stavano formando gli ele- 
menti leggeri, rapporto che dipende a 
sua volta dalla velocità di espansione e 
raffreddamento dell'universo. In questa 
fase ogni famiglia di neutrini leggeri - i 
cui costituenti cioè abbiano una massa 
inferiore a circa un milione di elettron- 
volt - contribuisce apprezzabilmente alla 
densità di energia e alla velocità di raf- 
freddamento. Le abbondanze misurate 
degli elementi leggeri sono in accordo 
con i modelli cosmologici che presup- 
pongono l'esistenza di tre famiglie di 
neutrini leggeri, ma contrastano con 
quelli che ne ipotizzano quattro o più. 

Molte domande restano ancora senza 
risposta. Perché ci sono soltanto tre fa- 
mìglie di particelle? Quale legge deter- 
mina le masse dei componenti di queste 
famiglie e stabilisce che esse coprano un 
intervallo di 10 potenze dì 10? Si tratta 
di problemi cruciali per l'attuale fisica 
delle particelle, ma determinando il nu- 
mero di famiglie della materia ci si è ora 
avvicinati di un passo alla loro soluzione . 



BIBLIOGRAFIA 

GLASHOWSHELDON LEE, Quark dotati 
di colore e sapore in «Le Scienze» n. 89, 
gennaio 1976, p. 34. 

FRITZSCHHARALD, Quark. I mattoni 
del mondo. Bollati Boringhieri, Torino, 
1983. 

QUIGG CHRIS, Particelle elementari e 
forze in «Le Scienze» n. 202. giugno 
1985, p. 20. 

CLOSE FRANK E., The Cosmic Onion, 
American Institute of Physics, 1988. 

CAHN ROBERT N. e GOLDHABER GER- 

SON, The Experimental Foundations of 
Particte Physics, Cambridge University 
Press, 1989. 



30 le scienze n. 272, aprile 199 1 



SCIENZA PER IMMAGINI 



I calcolatori 
e l'architettura 

Ci si può muovere air interno di un edifìcio 

allo stato di progetto grazie a sofisticati algoritmi 

di simulazione grafica tridimensionale 

di Donald P. Greenberg 



Dovendo progettare un edificio e 
i suoi spazi interni, gli architet- 
ti ricorrono magari a schizzi 
abbozzati su tovaglioli ni di carta. Pro- 
gettisti e clienti valutano i progetti defi- 
nitivi sulla base di disegni fatti a mano o 
di accurati modelli in miniatura. Molti 
dei cosiddetti sistemi di progettazione 
assistita da calcolatore usati dagli archi- 
tetti in realtà non sono altro che ausili 
informatici per disegnare: rendono au- 
tomatico il tracciamento dei disegni ese- 
cutivi, ma non forniscono le informazio- 
ni percettive (tonalità di colore, ombre, 
grana delle superfici e movimento) ne- 
cessarie per la valutazione di uno spazio 
architettonico. 

Oggi tuttavìa nuovi programmi e tec- 
niche avanzate di grafica prospettica al 
calcolatore cominciano a contribuire agli 
aspetti creativi dell'architettura. Questi 
programmi fanno risparmiare al proget- 
tista la parte più laboriosa del disegno e 
gli permettono dì studiare nuove idee in 
tre anziché in due dimensioni. L'archi- 
tetto può percorrere tutte le fasi prelimi- 
nari di realizzazione del progetto, dagli 
schizzi allo studio delle possibili alterna- 
tive, al perfezionamento del progetto, 
alla produzione di immagini realistiche 
da sottoporre ad analisi. 

Questi sofisticati programmi di grafica 
al calcolatore (eidomatica), che sono già 
impiegati nei laboratori di ricerca e nei 
corsi di progettazione architettonica del- 
la Cornell University, forniscono imma- 
gini che per architetti e clienti sono mol- 
to più utili dei disegni e dei modelli im- 
piegati oggi. Le immagini riescono a ri- 
produrre le più lievi sfumature di luci e 
ombre e, cosa essenziale per capire come 
si presenterà il progetto ultimato, posso- 
no essere presentate in rapida successio- 
ne, dando così all'osservatore l'impres- 
sione di muoversi entro l'edificio come 
se esso fosse già costruito. 



Il software per l'architettura deve ade- 
guarsi alle peculiarità e alle originalità 
che caratterizzano la progettazione ar- 
chitettonica. Cosa ancora più importan- 
te, il progetto è iterativo: l'architetto che 
nel perfezionare un progetto s'imbatta in 
un ostacolo invalicabile deve retrocede- 
re a una fase precedente e riconsiderare 
le proprie decisioni iniziali. Da una fase 
all'altra la forma di comunicazione subi- 
sce sottili modifiche. Scarabocchi sucar- 





RESA DEGLI INTERNI 






-^ '*>- 






La progettazione architettonica parte da 
semplici schizzi (qui sopra) e, attraverso 
livelli crescenti di dettaglio, giunge fino ai 
disegni esecutivi in base ai quali è costruita 
la struttura (per esempio il Tbeory Center 
della Cornell University). Nuovi hardware 
e software sono in grado di facilitare tutto 
il procedimento, tranne le primissime fasi. 



SCHIZZO PRELIM1N 



studio Volumetrico 



" 




32 LE SCIENZE n. 272, aprile 199 1 



LE SCIENZE n. 272, aprile 1991 33 




ta da lurido o schizzi su buste usate rap- 
presentano i primi passi del processo, 
mentre nelle fasi successive vengono ag- 
giunti particolari sempre più precisi via 
via che si fissano le aree e le dimensioni, 
e la matita cede il passo all'inchiostro. 
Nei disegni vengono inseriti gli elementi 
usuali: porte, finestre, tratti di parete. 

La fase preliminare dei progetto si 
concentra sulle dimensioni e sulla scala 
dell'edificio e sui suoi rapporti con le 
strutture vicine già esistenti. Si moltipli- 
cano gli studi per precisare la forma es- 
senziale e la composizione della struttu- 
ra e per garantire il soddisfacimento del- 
le specifiche progettuali, per esempio il 
numero di metri quadrati da assegnare 
alle diverse parti dell'edificio. La fase 
successiva, dì sviluppo, comprende il 
perfezionamento di piante, prospetti e 
sezioni, ì flussi del traffico, la distribu- 



zione degli spazi pubblici e privati e la 
pianta delle singole stanze. La terza fase , 
che è la più costosa in termini di tempo 
e di denaro, è quella del progetto esecu- 
tivo, costituito da un insieme di disegni 
dettagliati che forniscono le dimensioni 
esatte e le specifiche dei materiali neces- 
sari alla costruzione vera e propria del- 
l'edificio. Questi disegni garantiscono 
anche l'osservanza delle norme costrut- 
tive e dei vincoli posti dal bilancio pre- 
ventiva e cautelano l'architetto da con- 
troversie contrattuali, 

I programmi oggi in commercio per ta 
produzione efficiente di progetti esecu- 
tivi sono troppo rigidi per consentire una 
progettazione iterativa e non sono utili 
per scarabocchiare perché richiedono 
troppe informazioni in forma troppo 
precisa. Inoltre, in genere, il software 
per disegnare non è fatto per produrre 
prospettive di elevata qualità da cui si 
possa ricavare l'impressione che daran- 
no nella realtà gli spazi dell'edificio. 

Per tradizione, questo compito è affi- 
dato ad accurati modelli fisici in scala. 
Questi modelli sono costosi e poco fles- 
sibili e in genere riescono solo a dare 
un'immagine a volo d'uccello di un edi- 
ficio o di un interno. Non riescono certo 
a dare all'architetto o al cliente il senso 
reale che della prospettiva, dei colori, 
delle superfici e delle ombre avrebbe chi 
si muovesse nella costruzione ultimata. 

Questo lo può fare solo l'eidomatica. 
Gli straordinari progressi compiuti nel- 
l'ultimo decennio dal software e dal- 
l'rjardware consentono di generare im- 
magini a colori di scene complesse con 
una velocità sufficiente a simulare il mo- 
vimento. Questo software di simulazio- 
ne può creare immagini prospettiche di 
ambienti complessi costruiti con mate- 
riali specifici di aspetto e colore partico- 
lari: cemento, acciaio, vetro e tessuto. 
Gli algoritmi per la sintesi delle immagi- 
ni sono oramai abbastanza progrediti 
per riprodurre sfumature anche tenui di 
luci e ombre. Potenti stazioni di lavoro 
che dispongano di questi algoritmi con- 
sentono agli architetti di vedere imme- 
diatamente j risultati delle loro decisioni 
progettuali e di modificare i progetti in 
modo interattivo. 

I" 'immagine di una scena viene prodot- 
*—* ta in cinque tappe. In primo luogo 
l'architetto deve definire gli oggetti pre- 
senti, la loro forma, posizione e orienta- 
zione, le loro caratteristiche materiali e 
la finitura delle superfici. La seconda fa- 
se consiste nella scelta di un punto di 
vista: ciò equivale al posizionamento di 
una macchina fotografica e alla scelta e 
alla messa a fuoco dell'obiettivo. A que- 
sto punto il calcolatore trasforma i dati 
relativi agli oggetti e ne fornisce un'im- 
magine prospettica. 

La terza fase consiste nello stabilire 
quali superfici siano visibili all'osserva- 
tore. Nel mondo reale sono le leggi fisi- 
che a risolvere questo problema, ma nel- 
le scene prodotte dal calcolatore sono 



necessari lunghi calcoli per risolvere il 
cosiddetto problema delle superfici na- 
scoste. Tutti gli oggetti della scena devo- 
no essere controllati per scoprirne le 
eventuali sovrapposizioni. Se c'è una so- 
vrapposizione, va mostrato solo l'ogget- 
to più vicino all'osservatore. 

La quarta fase consiste nel simulare 
l'illuminazione. La luce incidente su una 
qualunque superficie della scena è una 
combinazione di quella proveniente di- 
rettamente dalle sorgenti (la cui posizio- 
ne, come quella degli altri oggetti della 
scena, è stata già determinata) e di quel- 
la riflessa dalle altre superfici (illumina- 
zione indiretta). L'intensità della lu- 
ce che raggiunge l'osservatore dipende 
inoltre dalla luce incidente su ciascuna 
superficie e dalle qualità riflettenti di 
questa. Per semplificare l'ottenimento 
della rappresentazione prospettica, mol- 
ti sistemi calcolano soltanto l'illumina- 
zione diretta delle superfici. 

L'ultima fase è quella della presenta- 
zione. Il software per la rappresentazio- 
ne prospettica deve determinare l'inten- 
sità delta luce che dalla scena reale giun- 
gerebbe all'occhio dell'osservatore e ge- 
nerare un'immagine che produca lo stes- 
so effetto visivo. I colori e le intensità 
scelte dal software possono variare a se- 
conda che l'immagine debba essere rap- 
presentata su uno schermo, stampata 
oppure proiettata da una diapositiva a 
colori. 

Le moderne stazioni di lavoro eido- 
matiche a elevate prestazioni sono prov- 
viste di un hardware specializzato che 
determina direttamente le trasformazio- 
ni di prospettiva, le superfici visibili e i 
sottoprogrammi di presentazione. Que- 
sto hardware può anche eseguire gli al- 
goritmi necessari a simulare la semplice 
illuminazione diretta. Le stazioni di la- 
voro effettuano i calcoli eidomatici con 
velocità abbastanza elevata da consenti- 
re agli architetti di simulare i progetti e 
di valutarli agevolmente fin dalle prime 
fasi. 

Tuttavia la qualità delle immagini ge- 
nerate dalle stazioni di lavoro è in genere 
modesta. Ci si accorge facilmente che le 
immagini sono state prodotte da un cal- 
colatore perché mancano gli effetti delle 
riflessioni di un oggetto sull'altro. Di 
conseguenza esse sono utili soprattutto 
nelle prime fasi della costruzione del mo- 
dello. Per poter valutare il progetto sono 
necessarie immagini molto più realisti- 
che, generate da programmi più raffina- 
ti. Inoltre queste immagini debbono es- 
sere presentate in rapida successione, in 
modo da dare l'illusione del movimento. 

I ricercatori che si occupano dì eido- 
matica hanno dedicato e dedicano molto 
impegno al problema dell'illuminazione. 
Nelle scene reali gli effetti dell'illumina- 
zione e della riflessione della luce so- 
no molto complicati e sfuggenti. Simula- 
re l'illuminazione indiretta è particolar- 
mente difficile. Benché sia possibile scri- 
vere equazioni che simulano corretta- 
mente questa illuminazione complessi- 



34 t.E SCIENZE n. 272, aprile 199 1 



DUE METODI PER LA SIMULAZIONE DI LUCI E OMBRE 




Nel metodo di tracciamento di raggi (ray tradng) 
per la generazione di immagini al calcolatore si fanno 
partire raggi di luce immaginari dal punto di vista 
dell'osservatore verso la scena che deve essere 
riprodotta. L'intensità cromatica e quella luminosa in ogni 
punto dell immagine dipendono dalla nflettività 
delle superfici incontrale dal raggio net suo passaggio 
attraverso la scena. 





L'algoritmo della radiosity calcola l'intensità della luce 
riflessa da ogni superficie di una scena come funzione 
detl' intensità luminosa di tutte le altre supertici. 
Una volta risotto l'insieme di equazioni simultanee cosi 
ottenute, la scena può essere ripresentata rapidamente 
sotto qualunque angolo visuale. 



2' * [ S&P 


v 


^1 


^t 






^ 

1 


f^ 


<^^ ^& ■ 


!•*-« 




ì 


■1 

2 




p .j^^V 


v *^H 


Wm j i 




i 


1 s 


S ì 1 




21 


X m 



va, il tempo di calcolo richiesto per risol- 
verle è eccessivo. 

Oggi gli esperti di eidomatica ricorro- 
no molto spesso a due scorciatoie: il trac- 
ciamento dì raggi (ray tracing) e la ra- 
diosiry, due metodi di costruzione di im- 
magini quasi diametralmente opposti. Il 
tracciamento di raggi tiene conto soltan- 
to della luce che raggiunge l'occhio del- 
l'osservatore ed è adatto soprattutto agli 
ambienti che contengono superfici mol- 
to riflettenti. La radiosity, invece, con- 
sente di determinare la distribuzione 
dell'energia luminosa in tutta (a scena ed 



è più adatta agli ambienti che contengo- 
no soprattutto superfici opache. 

Benché il tracciamento di raggi forni- 
sca immagini di straordinario realismo e 
possa essere benissimo impiegato ai fi- 
ni della presentazione architettonica, ta 
sua utilità per la valutazione dei progetti 
è limitata. È un metodo che dipende dal 
punto di vista e quindi, se questo cam- 
bia, occorre ripetere tutto il calcolo. Gli 
algoritmi per il tracciamento di raggi so- 
no troppo lenti per generare successioni 
dinamiche di immagini capaci di dare 
l'impressione di muoversi in uno spazio. 



Il metodo della radiosity , messo a pun- 
to alla Cornell University nel 1984, non 
dipende invece dal punto di vista: per 
ciascuna scena i calcoli vengono eseguiti 
solo una volta. Quando l'illuminazione 
complessiva è stata determinata, è facile 
generare una serie di immagini da diversi 
punti dì vista. Per di più , l'algoritmo può 
generare le immagini a una velocità tate 
da dare l'illusione del movimento. 

Il tracciamento di raggi inverte le leggi 
ordinarie della propagazione della luce. 
Nella realtà i raggi luminosi sono diffusi 
da ciascuna sorgente di luce e sono ri- 



i f scienze n. 272, aprile 1991 35 



UNA VISITA ALLA CAPPELLA DI LE CORBUSIER 
A RONCHAMPS 




■nodelli al calcolatore danno all'osserva- 
tore l'impressione di muoversi nello spazio 
architettonico. Stazioni di lavoro ad alte 
prestazioni dotate di opportuni programmi 
sono in grado di produrre ogni secondo pa- 
recchie vedute prospettiche di una struttu- 
ra da un punto di osservazione qualsiasi. 
Queste «passeggiate» sono utili sia per va- 
lutare strutture ancora da costruire, sia per 
analizzare edifici esistenti. Nella pianta in 
alto il percorso della visita è indicato in 
rosso e le frecce partono dal punto di vista. 



flessi dalle superfici presenti nella scena; 
alla fine una piccola parte di tutti i raggi 
luminosi giunge all'occhio dell'osserva- 
tore. Gli algoritmi per il tracciamento di 
raggi invertono questo processo: parto- 
no dall'occhio e, dopo aver attraversato 
la scena, giungono alle superfici e alle 
altre sorgenti di raggi luminosi. 

D metodo più diffuso per simulare 
l'illuminazione complessiva mediante il 
tracciamento di raggi fu ideato nel 1979 
da Turner Whitted dei Bell Laborato- 
ries. Esso traccia la traiettoria di un sin- 
golo raggio dall'occhio all'ambiente at- 
traverso ciascun punto del piano imma- 
gine (per esempio ogni pixel - elemento 
d'immagine - sullo schermo di una sta- 
zione di lavoro). Quando colpisce una 
superficie, il raggio genera raggi riflessi 
o rifratti, che sono a loro volta tracciati 
per determinare le superfici che interse- 
cano. L'intensità complessiva di ciascun 
pixel è determinata sommando i contri- 
buti luminosi di ciascun raggio generato. 

r metodo della radiosity , basandosi sul- 
la conservazione dell'energia, con- 
sente di determinare con precisione l'in- 
tensità luminosa di ciascuna superficie in 
una scena composta da emettitori e ri- 
flettori ideali diffusi. Si può scrivere 
un'equazione che esprime la radiosity di 
ciascuna superficie della scena (cioè l'in- 
tensità della luce emessa dalla superfi- 
cie) in funzione della radiosity di tutte le 
altre superfici. La radiosity di un oggetto 
dipende da due fattori: l'emissione (se 
l'oggetto è una sorgente luminosa) e la 
riflessione della luce incidente. A sua 
volta la luce incidente dipende dall'e mis- 
sione di tutte le sorgenti luminose del- 
l'ambiente e dalla riflessione di tutte le 
altre superfici. 





Il colore e la grana delle immagini prospettiche prodotte dal calcolatore (come questo 
ipotetico museo di arte moderna costrutti vista) possono essere modificati in modo semplice 
e rapido. Con una spesa minima, gli architetti e i loro clienti sono messi in grado di valu- 
tare le diverse scelte dei materiali da costruzione e le diverse combinazioni cromatiche. 



I valori di radiosity di tutte le superfici 
sono quindi espressi in forma di una ma- 
trice di equazioni simultanee, che si pos- 
sono risolvere per ricavare il valore del- 
l'illuminazione in qualunque zona della 
scena. Oggi i calcoli si possono eseguire 
solo per ambienti diffusi, perché per 
configurazioni di emissione o riflessione 
complesse le equazioni sono troppo dif- 
ficili per essere risolte rapidamente. 

II metodo della radiosity non è solo 
veloce, ma anche molto preciso. Può ri- 
produrre fenomeni come le frange cro- 
matiche, in cui te riflessioni da una su- 
perficie rossa possono far apparire rosa 
una superficie bianca adiacente, le va- 
riazioni di tonalità di colore per ef- 
fetto delle ombre e le sfocature ai mar- 
gini delle ombre prodotte da sorgenti lu- 
minose estese. 



I sistemi per la progettazione assistita 
da calcolatore possono già produrre i tipi 
di immagine di cui gli architetti hanno 
bisogno. Il problema più importante an- 
cora da risolvere è un software che faci- 
liti agli architetti la realizzazione di mo- 
delli. Solo ora i ricercatori cominciano a 
occuparsi delle operazioni necessarie al- 
la progettazione di un edificio: generare 
le forme, specificare le caratteristiche 
delle superfici, collegare gli oggetti sen- 
za soluzioni di continuità. Magari i primi 
schizzi grossolani di un progetto saranno 
ancora eseguiti a mano, ma nel prossimo 
decennio verranno allestiti programmi 
di facile apprendimento e uso, e tuttavia 
abbastanza potenti da padroneggiare il 
progetto di interi edifici nei minimi par- 
ticolari, e capaci di generare realistiche 
immagini in movimento. 



BIBLIOGRAFIA 
GREENBERG DONALD P., L'impiego 

del calcolatore nel progetto arch itettonico 
in «Le Scienze» n. 72, agosto 1974, 
p. 74. 

FOLEY JAMES D. e VAN DAM ANDRIES, 

Fundamentats of Interactive Computer 
Graphics, Addison-Westey, 1982. 

NEWMAN WILLIAM M. e SPROULL RO- 
BERT F., Principi di computer graphics, 
McGraw-Hill, Milano, 1987. 



le scienze n. 272, aprile 1991 37 



Catalisi di trasferimento 
di fase in flusso continuo 

Questa tecnica di sintesi organica permette di produrre con un processo 
continuo e con elevata selettività composti che per altra via sarebbero 
di difficile ottenimento e di maggior costo sia economico sia ambientale 

di Francesco Trotta 



Il modo più semplice e conveniente 
per accelerare la velocità di reazio- 
ni chimiche troppo lente per dare 
luogo a cambiamenti ri levabili in un las- 
so di tempo ragionevole consiste nell' ag- 
giungere al sistema piccole quantità di 
opportune sostanze dette catalizzatori. 
Questi ultimi possono essere di natura 
sia inorganica sia organica, ma in lutti i 
casi svolgono la loro funzione senza ap- 
parentemente alterarsi nel corso della 
reazione, tanto che una classica defini- 
zione ancora oggi accettata considera co- 
me catalizzatori «tutte quelle sostanze 
che fanno aumentare la velocità di rea- 
zione con cui un sistema chimico pervie- 
ne all'equilibrio senza essere trasforma- 
te durante il processo». Il processo nel 
suo insieme prende il nome di catalisi, 
come proposto da Jons J . Berzelius nel 
1836, anche se l'etimologia greca del ter- 
mine (scioglimento) può non agevolare 
la comprensione del fenomeno. 

È bene precisare che i catalizzatori, 
oltre ad accelerare enormemente i pro- 
cessi chimici, sono anche in grado dì in- 
dirizzare la reazione, qualora siano pos- 
sibili diversi cammini, essenzialmente 
(se non esclusivamente) verso il prodot- 
to desiderato, incrementando cioè la se- 
lettività della reazione stessa. Una par- 
ticolare forma di selettività è quella che 
si osserva nella sìntesi di materiali poli- 
merici. Per esempio, la polimerizzazione 
del propilene con iniziatori convenzio- 
nali porta solitamente a macromolecole 
amorfe dalle scadenti proprietà mecca- 
niche e di nessun interesse commerciale. 
Utilizzando invece i famosi catalizzatori 
di Ziegler-Natta (Karl W. Ziegler e Giu- 
lio Natta, insigniti del premio Nobel per 
la chimica nel 1963), come il tricloruro 
di titanio e il dietilalluminio cloruro, si 
possono facilmente ottenere polimeri 
cristallini con elevato carico di rottura, 
resistenti ai solventi organici e di grande 
importanza industriale, che trovano lar- 



ghissimo impiego nella produzione di 
numerosi manufatti. 

È appena il caso di ricordare che, per 
selettività e accelerazione delle reazioni, 
i più efficienti catalizzatori conosciuti so- 
no di natura biologica: gli enzimi. 

L'importanza della catalisi in campo 
industriale emerge chiaramente quando 
si ricordi che più del 90 per cento dei 
prodotti dell'industria chimica è ottenu- 
to tramite processi catalitici. Inoltre la 
catalisi sta assumendo una rilevanza 
sempre maggiore in campo ambientale 
sia perché permette di evitare la forma- 
zione di sottoprodotti indesiderati, sia in 
quanto rende possibile la rapida trasfor- 
mazione in molecole innocue di sostanze 
altamente inquinanti. L'esempio più co- 
mune in questo senso è l'applicazione 
alle automobili delle cosiddette «mar- 
mitte catalitiche», grazie alle quali i pe- 
ricolosi ossidi di azoto e monossido di 
carbonio vengono trasformati rispettiva- 
mente in azoto molecolare e anidride 
carbonica. 

Quando catalizzatore, reagenti e pro- 
dotti costituiscono una sola fase si parla 
di catalisi omogenea; in caso contrario sì 
definisce la catalisi di tipo eterogeneo. 
La catalisi omogenea è caratterizzata da 
ottima attività, elevata selettività e ri- 
producibilità e ben si adatta alla prepa- 
razione dei composti piuttosto complessi 
tipici della chimica fine. Tuttavia ì cata- 
lizzatori solubili sono sovente poco sta- 
bili a temperature elevate, sono molto 
sensibili ad agenti estranei e hanno una 
«vita» piuttosto breve. Inoltre, operan- 
do in condizioni di catalisi omogenea, è 
sempre difficile separare i prodotti di 
reazione dal catalizzatore e il riciclo di 
quest'ultimo (spesso costoso) è sempre 
problematico. 

In condizioni di catalisi eterogenea, 
invece, il catalizzatore, che si trova in 
una fase diversa rispetto ai reagenti e ai 
prodotti di reazione, è facile da separare 



e ciò rende possibile operare in flusso 
continuo inviando i reagenti liquidi o 
gassosi su una fase stazionaria catalitica 
e raccogliendo all'uscita i prodotti volu- 
ti. Questa semplicità operativa spiega 
perché la catalisi eterogenea trovi lar- 
ghissimo impiego nei processi petrolchi- 
mici e della chimica primaria, dove oc- 
corre trasformare enormi quantità di 
materie prime. Inoltre, lavorando in 
flusso continuo, si riducono al minimo i 
tempi morti nella produzione, si mini- 
mizza il volume del reattore in paragone 
alla quantità di prodotto ottenuto e si 
riduce la manodopera necessaria al fun- 
zionamento dell'impianto, garantendo 
al tempo stesso una maggiore sicurezza. 
La scarsa selettività dei processi operanti 
con catalisi eterogenea non consente 
sempre l'applicazione immediata di tale 
tecnica ai processi di chimica fine. 

Tno dei principali cammini sintetici 
^ seguiti per l'ottenimento di compo- 
sti organici è basato sull'attacco di parti- 
celle ricche di elettroni dette nucleofili 
(sovente anioni) su molecole organiche 
che presentano nella loro struttura un 
centro con deficienza di elettroni. Que- 
ste reazioni dipendono da molti fattori, 
ma si può dire in generale che anioni 
piccoli con carica elettrica accentrata so- 
no nucleofili più efficaci. Tuttavia, a me- 
no di lavorare in fase gassosa (e non sem- 
pre è possibile portare allo stato di va- 
pore le sostanze interessate senza che si 
decompongano), le molecole di solvente 
si associano al nucleofìlo e ne disperdo- 
no la carica negativa: il potere nucleofilo 
dell'anione si riduce e la reazione è ral- 
lentata o non avviene. 

Una forte limitazione a reazioni di 
questo tipo deriva inoltre dal fatto che i 
nucleofili si presentano spesso sotto for- 
ma di sali e quindi, al contrario della 
maggior parte dei substrati organici in- 
teressati, sono solubili in acqua: è intui- 




I a fotografìa mostra rimpiànto di produzione di dimet il carbonato 
|I)M(") dell' ENI (-'hem Svnlhesis di Ravenna, L'impiego di questo 
composto nelle sintesi organiche è in continuo aumento in quanto 
oggi si può ottenerlo evitando l'uso come reagente di partenza del 
pericolosissimo fosgene. La via sintetica utilizzala dall'ENlChem 
parte da metanolo, monossido di carbonio e ossigeno in presenza 



di sali di rame come catalizzatori. La reazione fornisce DMC di 
elevala purezza. In condizioni di catalisi di trasferimento di fase 
gas-liquido (GL-PTQ il dimetilcarbonato agisce da donatore selet- 
tivo di gruppi metile, generando come sottoprodotti di reazione solo 
metanolo (che può essere recuperato e riutilizzalo nella produzione 
di DMC I e anidride carbonica che non dà problemi di smaltimento. 



tivo che nessuna reazione chimica può 
procedere se i reagenti o i solventi in cui 
essi sono disciolti sono tra loro immisci- 
bili. Il problema veniva risolto in passato 
ricorrendo a solventi con proprietà sia 
lipofile sia idrofile, quali gli alcoli sem- 
plici, al fine di solubilizzare entrambe le 
specie reagenti. La reattività osservata 
in questi solventi è però piuttosto bassa. 

Successivamente si è avuta l'introdu- 
zione di solventi aprotici polari come la 
dimetilformammide, il dimetilsoJfossi- 
do, l'acetonitrile e così via, che sono in 
grado di ben solubilizzare entrambi i rea- 
genti; essi, inoltre, solvatano poco l'a- 
nione interessato e, dato che non disper- 
dono eccessivamente la carica negativa, 
sono in grado di ridurre l'energia di at- 
tivazione della reazione e quindi di in- 
crementarne la velocità. L'uso di tali sol- 
venti è però limitato dal fatto che essi 
sono piuttosto costosi e hanno un grado 
di noci vita non trascurabile. 

La catalisi di trasferimento di fase ha 



costituito l'ulteriore e definitivo svilup- 
po in questo campo. Un solo, classico 
esempio può valere a chiarire questa me- 
todologia. L'attacco nucleofìlo dell'a- 
nione cianuro (CN~) sciolto in acqua su 
un alogenuro a leni li co (RX) solubilizza- 
to in toluene (reazione che dà, per sosti- 
tuzione, il cianuro alchilico RCN con al- 
lontanamento dello ione cloruro CI") 
non avviene nemmeno riscaldando il si- 
stema allO gradi Celsius per una setti- 
mana sotto forte agitazione. Se alla mi- 
scela di reazione si aggiunge però una 
piccola quantità di un sale di ammonio 
quaternario, la reazione è completa in 
1-2 ore. 

Allo sviluppo della catalisi di trasferi- 
mento di fase hanno contribuito nume- 
rosi chimici, ma si riconosce general- 
mente a Charles M. Starks (allora alla 
Standard Oil Company di Ponca City, 
Oklahoma) il merito di aver organizzato 
le conoscenze in materia, di aver com- 
preso il fenomeno nella sua generalità e 



di aver coniato il termine catalisi di tra- 
sferimento di fase (PTC, dall'inglese 
phase transfer caiatysis). 

Negli ultimi 20 anni migliaia di pubbli- 
cazioni e brevetti sull'argomento hanno 
permesso di estendere la tecnica a un 
grandissimo numero di reazioni organi- 
che e di valutare la dipendenza della ca- 
talisi di trasferimento di fase da molti 
fattori, tra i quali la natura dell'anione 
(più o meno lipofilo), del solvente (che 
non deve complessare gli anioni e deve 
essere stabile chimicamente) e, natural- 
mente, del tipo di catalizzatore utiliz- 
zato. Approfonditi studi di Fernando 
Montanari e collaboratori dell'Univer- 
sità di Milano hanno permesso poi di 
comprendere l'esatto meccanismo di a- 
zione della catalisi di trasferimento di 
fase. 

Poiché le reazioni condotte in PTC 
hanno rese più elevate e sono più selet- 
tive, pur operando in condizioni più 
blande, delle analoghe sintesi condotte 



40 LE scienze n. 272, aprile 1991 



le scienze n, 272, aprile 1991 41 






i 

2 



< 

CE 
IH 

z 



© 



ANIONI XtTIVATI 
ANIONI SOLVATATI 



REAGENTI 




STATO 01 TRANSIZIONE 



PRODOTTI 



COORDINATA DI REAZIONE 



L'energia potenziale degli ioni dipende dal mitTuambientc di rea- 
zione. Cli anioni che non hanno quasi interazioni con il solvente (po- 
co sol vaiati i hanno un'energia potenziale più alta di quelli che in- 
teragiscono fortemente con il solvente (solvala!!). La stessa cosa va- 
le per lo stato di transizione, anche se in esso, essendo te cariche e- 
lettriche disperse su una superfìcie maggiore (cioè maggiormente 
delocalizzate), gli effetti sono meno marcati. La barriera energetica 
che i reagenti devono superare per evolvere nei prodotti (energia 






di attivazione) e quindi minore per gli anioni non solvatati e la ve- 
locità di reazione è corrispondentemente superiore. Si riscontra 
questo fenomeno lavorando in fase gassosa con solventi aprotici o, 
più semplicemente, in condizioni di catalisi di trasferimento di fase. 
Analoga attivazione anionica è stata osservata da Pietro Tundo, 
Giovanni Moraglio e dall'autore nei processi condotti in condizio- 
ni di catalisi di trasferimento di fase gas-liquido, qualora si operi 
in assenza di interazioni solvatanti con il supporto solido utilizzato. 



in fase omogenea, la catalisi di trasferi- 
mento di fase ha avuto e ha ampie appli- 
cazioni sia nei processi di laboratorio sia 
in quelli industriali. 

L'esigenza industriale di disporre di 
processi in flusso continuo ha favorito la 
ricerca di tecniche in cui il catalizzato- 
re di trasferimento di fase viene «etero- 
geneizzato», vale a dire legato chimica- 
mente a matrici insolubili sia inorgani- 
che (gel di silice, allumina) sia organi- 
che (essenzialmente polistirene), ope- 
rando con un sistema sintetico simile a 
quello utilizzato da Robert B. Merrifield 
(insignito del premio Nobel per la chimi- 
ca nel 1984) nella sintesi di peptidi. Tut- 
tavia questi catalizzatori non si adatta- 
no ai processi continui e quindi la loro 
separazione dai prodotti, anche se age- 
vole, richiede in ogni caso un'interru- 



zione del processo al fine di eseguire 
la necessaria filtrazione. 

Nel 1979 Pietro Tundo (ora all'Uni- 
versità di Venezia) propose una 
nuova metodologia per condurre le rea- 
zioni di sostituzione nucleofila con atti- 
vazione anionica in condizioni eteroge- 
nee e con elevata selettività secondo un 
effettivo processo continuo. In questa 
tecnica un catalizzatore di trasferimento 
di fase, stabile termicamente, viene sup- 
portato mediante impregnazione su una 
matrice solida inorganica non necessa- 
riamente inerte dal punto di vista chimi- 
co. La temperatura di lavoro è mantenu- 
ta a un livello tale da consentire la fusio- 
ne del catalizzatore, mentre la miscela 
dei reagenti viene inviata allo stato gas- 
soso in colonna, generalmente a pressio- 



ne atmosferica. I reagenti diffondono 
nello straterello liquido di catalizzatore 
dove avviene la reazione; successiva- 
mente i prodotti retrodiffondono allo 
stato gassoso e la miscela effluente dal 
reattore viene recuperata all'uscita per 
semplice condensazione. 

Questa tecnica di sintesi organica vie- 
ne denominata catalisi di trasferimen- 
to di fase gas-liquido (GL-PTC, da gas- 
-liquid phase transfer cataiysis) e per- 
mette di collegare proficuamente le co- 
noscenze acquisite in PTC con quelle 
sulle reazioni condotte in flusso conti- 
nuo. Tuttavia la GL-PTC non rappre- 
senta un semplice sviluppo tecnico o 
un'estensione impiantistica della catali- 
si di trasferimento di fase classica, in 
quanto il particolare microambiente di 
reazione che si viene a creare rende pos- 




FASE ORGANICA 
INTERFACCIA 
FASE ACQUOSA 




Secondo le prime interpretazioni della catalisi di trasferimento di 
fase {ai, U catalizzatore (Q + Y~), con il suo catione voluminoso e 
I ipofilo, porla gli anioni idrofili in fase organica, dove questi pos- 
si in et dare luogo alla reazione chimica. Il catalizzatore di trasferì- 
indilli di fase rilascia poi l'anione e ripristina la propria forma 
originaria attingendo il nucleofilo dal substrato disciolto in fase 



sibili reazioni altamente selettive che 
in caso contrario sarebbero di difficile 
esecuzione. 

In ogni caso solo i catalizzatori di tra- 
sferimento di fase promuovono queste 
reazioni, a patto che si trovino allo stato 
liquido alla temperatura di lavoro, poi- 
ché solo catalizzatori con punto di fusio- 
ne inferiore alla temperatura del proces- 
so ( 150- 180 gradi Celsius) sono attivi. Le 
reazioni non avvengono se si utilizza un 
semplice composto bassofondente privo 
delle proprietà tipiche dei catalizzatori 
di trasferimento di fase. 

Le reazioni in GL-PTC possono esse- 
re condotte secondo due procedimenti 
generali. Nel primo il letto solido è an- 
che la fonte del nucleofilo. cosicché esso 
si consuma nel corso della reazione. La 
reazione stessa non avrebbe però luogo 
se non fosse presente lo straterello liqui- 
do di catalizzatore di trasferimento di fa- 
se. Nei secondo procedimento il letto so- 
lido non è fonte de! nucleofilo, in quanto 
il precursore di quest'ultimo viene invia- 
lo in colonna dall'esterno. Il letto solido 
non viene quindi alterato nel corso della 
reazione, che può essere condotta per un 
tempo indefinito. 

È evidente che lo svantaggio di utiliz- 
zare un supporto solido che sia anche la 
fonte del nucleofilo consiste nel fatto che 
la reazione deve essere periodicamente 
interrotta per consentire il ricambio del 
letto medesimo, come del resto avviene 
per le reazioni omogenee. Il secondo 
procedimento non presenta invece que- 
sti limiti perché il processo può essere 
eseguito senza interruzioni per un tempo 
indeterminato. 



FASE ORGANICA 
INTERFACCIA 
FASE ACQUOSA 



acquosa per ricominciare un nuovo ciclo catalitico. Il reale mecca- 
nismo della PTC (£>) è stalo ampiamente dibattuto e poi definitiva- 
mente provalo da Fernando Montanari e collaboratori dell'Univer- 
sità di Milana, i quali hanno dimostrato che solo l'anione passa da 
una fase all'altra e non il voluminoso catione, in quanto anche 
catalizzatori del tutto insolubili in acqua mostrano attività ottimali. 




Sono qui mostrati alcuni dei più comuni catalizzatori di trasferimento di fase. In a è raf- 
figurato un sale dì ammonio quaternario, la cui affinità per la fase organica è dovuta alle 
quattro catene alchiliche li potile legate all'atomo di azoto centrale. Questo catione volu- 
minoso, associandosi a un anione, forma una coppia ionica che consente il trasferimento 
dell'anione in fase organica. In b è mostrato un composto appartenente alla categoria degli 
eteri corona, sintetizzati nel 1%7 da Charles J. Pedersen (premio Nobel 1987 per la 
chimica). Le molecole di questo tipo possono legare fortemente in un complesso il catione 
metallico lasciando libero di reagire l'anione a esso associato. Nei criptanti ir), ottenuti 
nel I9n9 da Jean-Marie Lehn (anch'egli premio Nobel 1987 per la chimica), questa azione 
è ancora più marcata, tantoché si possono ottenere anioni virtualmente liberi da interazioni 
con il solvente e quindi estremamente reattivi. I polietilenglicoli (tf). che sono sostanzial- 
mente eteri corona a catena aperta, complessano motto meno i cationi metallici, specie in 
presenza dì acqua; per la loro minore efficacia sono poco usati in PTC classica. In condi- 
zioni di GL-PTC dove l'acqua non è presente essi raggiungono invece attività ottimali. I 
pò liei ilen glicoli sono composti non pericolosi, tanto che sono impiegati come eccipienti in 
molte preparazioni farmaceutiche. Inoltre se utilizzati in assenza di ossigeno o dì altri agen- 
ti ossidanti essi sono stabili termicamente per lungo tempo anche a temperatura elevata. 



42 LE SCIENZE n. 272, aprile 1991 



LE sci£NZE n. 272, aprile 1991 43 



BX + Y 
REAGENTI 



CATALIZZATORE LIQUIDO 
SUPPORTATO SU FASE SOLIDA 



RY + X 
PRODOTTI 



o 



FASE 

GASSOSA 




Nella catalisi di trasferimento di fase gas -liquido i reagenti vengono inviati nel reattore In 
fase gassosa. Qui essi diffondono nella fase liquida del catalizzatore di trasferimento di 
fase, che a sua volta è supportato su una matrice solida inorganica. La reazione avviene 
nello straterello liquido di catalizzatore. Successivamente i prodotti di reazione retrodìf- 
fondono nella fase gassosa, effluiscono dal reattore e possono essere recuperati per sempli- 
ce condensazione. Solo catalizzatori di trasferimento di fase termicamente stabili e aventi 
un punto di fusione inferiore alla temperatura di lavoro trovano impiego nella GL-PTC. 



Si conoscono ormai molte reazioni 
condotte in condizioni di GL-PTC 
secondo la metodologia in flusso conti- 
nuo (interscambio di alogeni in alogenu- 
ri aldi ilici, transesterificazioni, sintesi di 
alogenurì alchilici dai corrispondenti al- 
coli, isomerizzazioni e via dicendo). Qui 
di seguito riporterò solo alcuni risulta- 



ti particolarmente significativi ottenuti 
nelle reazioni di alchilazione di svariati 
substrati organici, reazioni di cui mi sono 
interessato durante il mio dottorato di 
ricerca svolto presso l'Università di To- 
rino sotto la guida di Tundo e Giovanni 
Moraglio. 
Attualmente i più comuni agenti al- 



chilanti (sostanze in grado di cedere un 
gruppo alchilico) sono gli alogenuri al- 
chilici e i dialchilsolfati; come metilanti 
sono noti soprattutto il cloruro di metile 
e il dimetilsoffato. I composti alchilanti 
sono in genere moito tossici; in partico- 
lare il dimetilsolfato ha una LD;o (dose 
letale nel 50 per cento dei casi esaminati) 
per via orale nei ratti di 205 milligrammi 
per chilogrammo di peso corporeo e una 
concentrazione letale per gatti e scimmie 
compresa tra 25 e 200 parti per milione. 
È quindi una sostanza estremamente pe- 
ricolosa, ed è ritenuta anche un agente 
cancerogeno. Essendo piuttosto corrosi- 
vo, il dimetilsolfato dà luogo inoltre a 
numerosi problemi di manutenzione de- 
gli impianti che spesso annullano i van- 
taggi derivanti dal suo basso prezzo. 

Per questi motivi recentemente vi è 
stato un notevole impulso nella ricerca 
di agenti metilanti - e alchilanti in genere 
- che possano fungere da sostitutivi. 
Adatto a questo scopo sembra essere 
il dimetilcarbonato (DMC) che attual- 
mente è prodotto a partire da metanolo, 
monossido di carbonio e ossigeno e non 
più dal pericoloso fosgene. Il DMC ot- 
tenuto secondo questa via è notevol- 
mente puro ed esente da acido cloridri- 
co; il composto ha inoltre una tossicità 
molto bassa, non è corrosivo e non ri- 
chiede speciali precauzioni nel trasporto 
o nell'impiego se non le consuete norme 
di sicurezza. Oggigiorno il processo di 




\ 

-• 
/ 




>=o 



o^è-Ó 




>=o 



°\ 



V 



\ 



>=o 



o— • — ® + o — • O' 



/ 



/ 



Gli esteri, come il DMC, subiscono l'attacco del nucleofìlo prefe- 
renzialmente sul carbonio acitico poiché su questo atomo è mag- 
giormente localizzata la carica positiva Un alto). Il prodotto di rea- 
zione, in condizioni omogenee, è un composto di carbossimetilazio- 
ne (substrato cui è stato donato un gruppo COOCHj). Nella GL- 



-PTC, invece, il DMC fornisce solamente prodotti di mutilazione 
Un basso); in queste condizioni il nucleofìlo attacca il carbonio al- 
chilico laterale con un meccanismo poco frequente per gli esteri in 
condizioni omogenee. AI contrario degli altri metilanti noti, il DMC 
non è tossico e nelle sue reazioni non forma sottoprodotti pericolosi. 



44 LE scienze n. 272, aprile 1991 



IsoBuPhCHìCN 



DMC 




.COz 

J 




BASE 



PEG 



ISOBuPtiCHCN 




H20 
AMBIENTE ACIDO 



CH3 
^- IsoBuPhéHCOOH 
(IBUPROFEN) 




CH3OH (RECUPERO) 




CH 2 -C = N 




CH2 



CH 

/\ 

H 3 C CH 3 




CH 3 
I 

CH — COOH 




Secondo il brevetto CNR, prodotto nell'ambito del progetto fina- 
lizzato «Chimica fine», l'ibuprofen - acido 2-(4-isobutilfenil)pro- 
pionico - può essere ottenuto in condizioni di GL-PTC attraverso 
una via di sintesi molto semplice che prevede due soli passaggi; 
inoltre non è necessario ricorrere a particolari processi di separa- 



zione del prodotto, grazie all'estrema selettività con la quale II 
dimetilcarbonato melila il nìtrile di partenza. L'ibuprofen è un 
farmaco ad azione antinfiammatoria, antipiretica e analgesica; ha 
proprietà analoghe a quelle dell'aspirina (acido acetilsalicilico). 
ma secondo alcuni autori è tolleralo più facilmente dall'organismo. 



sintesi del DMC è operativo nello stabi- 
limento ENIChem di Ravenna, che nel 
1987 ha incrementato la produzione da 
5000 a 8800 tonnellate all'anno. Anche 
la Dow Chemicals ha iniziato un'analoga 
produzione negli Stati Uniti. 

Nelle sintesi in fase omogenea il dime- 
tilcarbonato è stato utilizzato con suc- 
cesso come agente metilante (donatore 
di un gruppo metile CH3 e quindi sosti- 
tutivo dei dimetilsolfato), carbossimeti- 
lante (donatore di un gruppo COOCHj 
e utilizzabile in luogo del cloroformìa- 
to di metile) e carbonilante (donatore di 
un gruppo carbonile CO e alternativo al 
fosgene). Spesso però !e tre azioni si so- 
vrappongono a discapito della selettivi- 
tà. Quando invece il DMC viene utiliz- 
zato in condizioni di GL-PTC la seletti- 
vità nei prodotti di reazione è elevatissi- 
ma, dato che il composto agisce presso- 
ché esclusivamente da agente metilante. 

Per fare un esempio, la sintesi di ani- 
solo (C&H5OCH3), un etere asimmetri- 
co, viene eseguita classicamente a parti- 
re dal fenolo in ambiente fortemente 
basico, utilizzando dimetilsolfato come 
agente metilante. Operando in condizio- 
ni di PTC si possono utilizzare basi più 
deboli (come il carbonato di potassio) e 
condizioni sperimentali più blande, ot- 
tenendo anche un notevole incremento 
di selettività, ma non è possibile utilizza- 
re il DMC come agente metilante dal 
momento che esso si idrolizza facilmente 



in ambiente basico per dare metanolo e 
anidride carbonica. 

Recentemente abbiamo scoperto che 
facendo reagire fenolo con DMC su un 
letto catalitico a base di carbonato di 
potassio e polietilenglicole come cataliz- 
zatore di trasferimento di fase, all'usci- 
ta del reattore si può rilevare la presen- 
za del solo anisolo con rese quantitati- 
ve. La reazione è facilmente estendibi- 
le anche a sistemi costituiti da altri fe- 
noli o tiofenoli e dialetti (carbonati e 
consente di produrre i più svariati eteri 
asimmetrici. 

L'acidità che si libera ne! corso della 
reazione viene allontanata dall'ambien- 
te di reazione sotto forma di CO; (ani- 
dride carbonica); di conseguenza il letto 
catalitico, una volta raggiunto l'equili- 
brio allo stato stazionario, non cambia la 
propria composizione e il processo può 
essere condotto per un arco di tempo 
indefinito. Studi effettuati in collabora- 
zione con l'ENIChem Synthesis di Boi- 
giano hanno permesso di chiarire alcuni 
aspetti del meccanismo di reazione e di 
approntare un impianta pilota per la 
produzione di anisolo che ha operato 
senza interruzioni e perdita di attività 
per diverse settimane. 

Anche altri substrati organici mostra- 
no un comportamento particolare nei 
confronti del DMC quando la reazione 
viene eseguita in condizioni di catalisi di 
trasferimento di fase gas-liquido. Così il 



DMC reagisce con svariati carbanioni 
(molecole in cui si è accentrata una ca- 
rica negativa sul carbonio per azione di 
basi forti) esclusivamente come agente 
metilante anziché come carbossimetilan- 
te; la sua azione si limita inoltre al 
solo prodotto di monometi [azione, co- 
me si può osservare nel caso di composti 
che hanno due idrogeni da sostituire, 
quale per esempio il fenilacetoniirile 
(CJhCHjCN). 

Poiché dal nìtrile. per semplice idroli- 
si, si ottiene il corrispondente acido car- 
bossilico, attraverso questa via di sintesi 
è possibile pervenire in soli due passaggi 
agli acidi 2-fenilpropionici. Si tratta di 
prodotti particolarmente utili in quanto 
a questa classe appartengono numerosi 
farmaci ad azione antinfiammatoria, an- 
tipiretica e analgesica di tipo non steroi- 
deo. In particolare l'acido 2-(4-isobutil- 
fenil)propionico possiede le stesse pro- 
prietà dell'aspirina (acido acetilsalicili- 
co), ma numerosi autori ne riportano la 
maggiore tollerabilità da parte dell'or- 
ganismo. Inoltre esso è più stabile in ac- 
qua rispetto all'acido acetilsalicilico. Per 
questi e altri motivi il farmaco, chiama- 
to ibuprofen, sta gradualmente affer- 
mandosi in molte applicazioni farmaco- 
logiche anche in Italia. In condizioni di 
GL-PTC esso viene prodotto semplice- 
mente inviando una miscela di DMC e 
4-isobutilfenilacetonitrile in un reattore 
contenente un letto catalitico a base di 



LE SCIENZE n. 272, aprile 1991 45 



MUSICA 

E STRUMENTI 

MUSICALI 



IjLj aUlLuNtiL edizione italiana ili 

SCIENTIFIC AMERICAN 



ha dedicato all'argomento 
diversi artìcoli: 



La fisica degli ottoni 

di A. H. Benade 
(n. 63, novembre 1973) 



La dinamica musicale 

di B.R. Patterson 
(n. 78, febbraio 1 975) 



Illusioni musicali 

dì D. Deutsch 
(n. 96, agosto 1976) 



Le corde accoppiate 
del pianoforte 

di G. Weinreich 
(ri. 127, marzo 1979) 



L'acustica 
dei piani armonici di violino 

di C. Maley Hutchins 
(n. 160, dicembre 1981) 



La fisica dei timpani 

di T. D. Rossing 
(n, 173, gennaio 1983] 



La fisica delie canne d'organo 

di N, H, Fletcher e S. Thwaites 
(n, 175, marzo 1983) 



La tromba barocca 

di D, Smithers, K. Wogram 

e J. Bowsher 

(n. 21 4, giugno 1 986] 



Il calcolatore e la musica 

di P. Boulez e A. Gerzso 
(n. 238, giugno 1 988) 



un carbonato e di polietilengHcole sup- 
portati su sferette di corindone. All'usci- 
ta il prodotto metilato viene inviato in 
una soluzione acquosa acida nella quale 
si trasforma in ibuprofen. Notiamo in 
questo caso la completa assenza di deri- 
vati di doppia metilazione, che invece si 
ottengono in condizioni omogenee e che 
un tempo rendevano impossibile la sin- 
tesi degli acidi ari Iprop ionici attraverso 
una sostituzione nucleofila di questo 
tipo. 

La selettività raggiungibile lavorando 
in condizioni di catalisi di trasferimen- 
to di fase gas- li qui do appare ancora più 
evidente osservando che con questa tec- 
nica è possibile monoalchilare le animi- 
ne aromatiche primarie. Classicamente 
questo è un processo difficile da condur- 
re con elevata selettività in quanto la se- 
conda alchilazìone sull'atomo di azoto 
ha luogo con uguale o maggiore velocità 
rispetto alla prima. 

Nessuno dei processi conosciuti per- 
metteva di ottenere direttamente e con 
soddisfacente selettività le N-alchilani li- 
ne dalle aniline, se non ricorrendo a con- 
dizioni di reazione perfettamente con- 
trollate. In fase omogenea il DMC pro- 
duce con l'anilina i corrispondenti pro- 
dotti di carbossimetilazione, detti ureta- 
ni, oppure una miscela di aniline N-al- 
chilate. Se invece l'anilina viene fatta 
reagire con DMC in condizioni di GL- 
-PTC, si forma solo mono N-metilanili- 
na con una selettività superiore al 99 per 
cento ed elevata velocità di reazione. Il 
fenomeno appare ancora più notevole 
quando si pensi che in queste sintesi il 
DMC viene usato in largo eccesso rispet- 
to all'anilina, condizioni queste che in 
fase omogenea favoriscono il prodotto 
di doppia metilazione. 

In conclusione mi pare opportuno evi- 
denziare i vantaggi ottenibili dall'ese- 
cuzione di processi chimici in condizioni 
di catalisi di trasferimento di fase in flus- 
so continuo. Innanzitutto si lavora in as- 
senza di solventi , e in particolare di ac- 
qua, secondo un processo continuo in un 
sistema chiuso che consente di ridurre al 
minimo i rischi per gli operatori e per 
l'ambiente. Le temperature di esercizio, 
relativamente elevate, consentono di 
raggiungere notevoli velocità di reazione 
e nello stesso tempo di utilizzare cataliz- 
zatori di trasferimento di fase assoluta- 
mente non tossici ed economicamente 
convenienti come i polietilenglicoli, che 
hanno invece una limitata applicabilità 
in PTC classica a causa della loro bassa 
attività. Il particolare ambiente di rea- 
zione consente poi di ottenere un'altissi- 
ma selettività nei prodotti e di evitare 
così costosi processi di separazione. Un 
esempio particolarmente importante è 
dato dall'impiego del DMC come agente 
metilante. Questa sostanza, a parte il 
metanolo che può essere facilmente rici- 
clato per la produzione del DMC stesso, 
genera solo COi come sottoprodotto di 
reazione e consente di evitare la forma- 



zione di composti di laborioso e costoso 
smaltimento, siano pure semplici sali 
inorganici. 

I processi sintetici condotti in condi- 
zioni di GL-PTC sono per di più note- 
volmente versatili, in quanto possono 
facilmente ed economicamente essere 
convertiti alla produzione di altre so- 
stanze anche molto differenti, rendendo 
pronta e agevole la risposta dell'indu- 
stria chimica alle mutevoli esigenze di 
mercato. 

La GL-PTC è in grado quindi di com- 
binare particolari vantaggi economici 
con rilevanti miglioramenti dal punto di 
vista dell'andamento della reazione e 
della sicurezza ambientale; anche per 
quest'ultimo aspetto essa è un proces- 
so innovativo in quanto utilizza prodot- 
ti ottenuti con processi industriali non 
pericolosi e non genera sostanze da 
smaltire. 

Recenti ricerche hanno permesso di 
dimostrare che in condizioni di GL-PTC 
è possibile utilizzare come inusuali agen- 
ti alchilanti altre sostanze non pericolose 
ed economiche, come gli esteri di acidi 
carbossilici e alcuni eteri; si è inoltre di- 
mostrato che il DMC stesso può reagire 
come donatore di un gruppo metilico an- 
che con substrati meno reattivi quali lat- 
toni (esteri ciclici) e chetoni. Anche rea- 
zioni di condensazione possono essere 
agevolmente condotte in GL-PTC. Sen- 
za dilungarsi oltre su tati risultati, è im- 
portante ribadire che le ricerche in que- 
sto campo sono tutt'altro che concluse e 
nuovi e promettenti studi stanno apren- 
do ulteriori possibilità per la preparazio- 
ne di prodotti di chimica fine ad alto va- 
lore aggiunto secondo un processo con- 
tinuo, con alto grado di purezza, elevata 
sicurezza degli operatori, compatibilità 
ambientale e convenienza economica. 



BIBLIOGRAFIA 

STARKS CHARLES M. e LIOTTA CHAR- 
LES, Phase Transfer Catalysis . Academk 
Press, New York, 1978. 

TUNDO PIETRO, Nucleophìlìc Substitu- 
tion between a Gaseous Alkyl Halide and 
a Sotid Promoted by Phase Transfer Ca- 
talysis in «Journal of Organic Chemi- 
stry», 44, pp. 2048-2049. 1979. 

MONTANARI FERNANDO, LANDINI DA- 
RIO e rolla FRANCO, Phase Transfer 
Catatyzed Reactions in Top ics in Cur- 
rent Chemistry, 101, p, 147 e seguenti. 
Springer-Verlag, 1981. 

ROMANO UGO e RIVETTI FRANCO, // 
dimctilcarbonalo: un nuovo e versatile 
intermedio per l'industria in «Chimica 
Oggi», pp. 37-45, settembre 1984. 

TL!NOO PIETRO. MORAGLtO GIOVANNI 

e trotta Francesco, Gas Liquid Pha- 
se Transfer Catalysis; a New Continuous 
Flow Mediaci in Organic Synthesis in 
«Industriai Engeneering Chemical Re- 
search». 28. pp. 881-890, 1989. 



46 le scienze n. 272, aprile 199 1 



L'echidna 



Recenti studi sui campo hanno cominciato a chiarire alcuni aspetti della 
storia evolutiva e del comportamento riproduttivo di questo misterioso 
mammifero oviparo che vive nelle boscaglie del continente australiano 

di Peggy D, Rismiller e Roger S. Seymour 



L'echidna è in Australia l'animale au- 
toctono più ampiamente diffuso 
«/ e forse anche più misterioso. 
Ben di rado la si può vedere in quel con- 
tinente, ed è virtualmente sconosciuta 
altrove, a differenza dei suo parente 
più prossimo, l'ornitorinco. Sebbene l'e- 
chidna venga studiata da quasi 200 anni, 
rimangono grosse lacune nella cono- 
scenza di questo mammifero oviparo e 
molte delle notizie raccolte si fondano su 
osservazioni incomplete. 

Di recente però, osservazioni conti- 
nuative delle attività quotidiane e delle 
abitudini stagionali delle echidne hanno 
contribuito grandemente alla compren- 
sione della loro biologia. In particolare, 
si è iniziato a far luce sul comportamento 
riproduttivo di questi animali. Questo 
lavoro, unitamente a dati storici , studi di 
laboratorio e altre osservazioni fatte da 
noi e da coileghi , ha chiarito vari aspetti 
del processo dì accoppiamento, della ge- 
stazione e dei primi stadi dello sviluppo. 

Solo comprendendo pienamente la 
biologia dell'echidna si possono valutare 
i pericoli causati dall'impatto umano sul- 
l'habitat di questo animale. Anche alla 
luce della nostra recente ricerca, non co- 
nosciamo ancora abbastanza l'echidna 
per poterla proteggere dall'estinzione e 
preservare anche il suo ambiente. 

Quando nel 3 792 George Shaw della 
Rovai Zoologica! Society di Londra 
ricevette la prima echidna dall'Austra- 
lia, si trovò in difficoltà a stilarne la 
descrizione scientifica. La presenza di 
peli e aculei gli fece pensare in un primo 
momento che si trattasse di una nuova 
specie di istrice. L'unica informazio- 
ne che accompagnava quella creatura 
spinosa, tozza, munita di una sorta di 
becco, era: «catturata nel New Holland 
su un formicaio»; per questo particolare 
e per le caratteristiche somatiche - mu- 
so nudo appuntito e lunga lingua vermi- 
forme - egli la apparentò erroneamen- 
te al formichiere gigante (genere Myr* 
mecophaga) dell'America Meridionale. 



Dieci anni dopo, Sir Everard Home, 
studioso inglese di anatomia comparata, 
ravvisò significative somiglianze tra l'e- 
chidna e l'ornitorinco, confermando in 
tal modo la parentela tra questi ammali. 
Trovò che l'echidna aveva un seno uro- 
genitale, una cavità non comune nei 
mammiferi, nella quale sboccano tutti 
gli organi interni. L'echidna e l'ornito- 
rinco hanno entrambi una sola apertura 
nel seno urogenitale per il passaggio dei 
prodotti di escrezione e riproduttivi: la 
cloaca. Per questa comune caratteristi- 
ca, echidna e ornitorinco furono rag- 
gruppati nell'ordine dei monotremi (dal 
greco monos, solo, e trema, orifizio). 

Tre sono i generi (con una soia specie) 
attuali di monotremi: l'echidna istrice 
(Tachyglossus aculeo tus), lo zag lesso di 
Bruijn (Zaglossus bruijni) e l'ornitorin- 
co (Ornithorkyncus anatittus). Attual- 
mente la sola specie di zaglosso è esclu- 
siva della Nuova Guinea e la sola specie 
di ornitorinco è distribuita lungo la costa 
orientale dell'Australia e in Tasmania. 

Al contrario l'echidna istrice è diffusa 
in tutta l'Australia. Se ne distinguono sei 
sottospecie in base alla lunghezza degli 
aculei , alla pelliccia e alla lunghezza re- 
lativa della terza unghia rispetto alla se- 
conda, nell'arto posteriore. Le echidne 
usano queste unghie più lunghe per grat- 
tarsi; gli agili arti posteriori permettono 
loro di arrivare a scelta tra gli aculei dor- 
sali o sul ventre coperto di pelliccia. 

Oltre al seno urogenitale, l'echidna e 
l'ornitorinco hanno in comune una pe- 
culiarità che li differenzia da tutti gli altri 
mammiferi: depongono uova. Sebbene 
gli aborigeni australiani e forse alcuni dei 
primi colonizzatori ne fossero consape- 
voli, Ì naturalisti rimasero scettici su que- 
sto fenomeno per ben 92 anni dai primi 
studi sulle echidne. 

Sir Richard Owen . un altro anatomi- 
sta inglese, sostenne con decisione rovo- 
viviparità dei monotremi (che cioè l'uo- 
vo rimanesse nell'utero fino alla schiu- 
sa). Nel 1864 ricevette una lettera da un 
naturalista australiano che riferiva come 



un ornitorinco in cattività avesse depo- 
sto due uova, ma la notizia non scosse la 
sua convinzione: Owen riteneva che l'a- 
nimale avesse abortito per lo stress. La 
sua teoria sulla ovoviviparità persistette 
così per 20 anni ancora. 

Nel 1884 J. Wilhelm Haacke, diretto- 
re del South Australian Museumdi Ade- 
laide, decìse di osservare più attenta- 
mente l'echidna. Nonostante la difficol- 
tà di procurarsi questi ammali, gliene fu 
inviata una coppia dall'Isola dei Cangu- 
ri, al largo delle coste meridionali del- 
l'Australia, Diverse settimane dopo l'ar- 
rivo, Haacke notò che la femmina aveva 
una tasca incubatrice ben sviluppata. La 
esaminò, sperando di trovare una giova- 
ne echidna, ma con sua grande sorpresa 
recuperò dall'interno delle pieghe del 
ventre un piccolo uovo tondeggiante. 
Haacke fu così emozionato per quel pic- 
colo uovo gommoso, simile a quello di 
un rettile, che la stretta delle sue dita ne 
causò la rottura. 

Contemporaneamente alla scoperta 
di Haacke, il naturalista scozzese Wil- 
liam H. Caldwell trovò un uovo nella 
tasca di un'echidna catturata per lui dagli 
aborigeni e subito dopo si procurò un 
ornitorinco con un uovo appena depo- 
sto. Inviò allora il famoso telegramma 
«Monotremi ovipari, uovo meroblasti- 
co», letto alla British Association di 
Montreal il 2 settembre del 1884. (In sin- 
tesi, questo era il senso del messaggio: i 
monotremi depongono uova e queste si 
dividono solo parzialmente, come quelle 
dei rettili e degli uccelli.) 

La notizia di mammiferi ovipari causò 
scompiglio nella comunità scientifica e 



La tasca d'incubazione dell'echidna è co- 
stituita dalle ghiandole mammarie ingros- 
sate e dalla muscolatura longitudinale, che 
si trovano sul lato ventrale dell'animale. 
L'interno della tasca è visìbile quando la 
femmina, come in questo caso, è rilassata. 



48 LE scienze n. 272, aprile 199 1 




le scienze n. 272, aprile 1991 49 




Un giovane di un anno, rovistando in cerca di formiche, si è ricoperto di terra, che viene 
ingerita insieme con gli insetti. Le echidne vengono allattate fino al settimo-ottavo mese. 



diede anche origine a teorie audaci se- 
condo cui l'uomo si sarebbe evoluto dai 
rettili. Dopo tutto, i monotremi rappre- 
sentavano un bizzarro miscuglio di carat- 
teri di rettile e di mammifero. Anche se 
ie ipotesi più infondate furono scartate 
rapidamente, il dibattito sull'origine dei 
monotremi infuria ancora oggi, dati an- 
che gli scarsissimi fossili rinvenuti. 

Molti zoologi sostengono l'idea intro- 
dotta nel 1W dal biologo William K. 
Gregory secondo la quale monotremi e 
marsupiali sarebbero filogeneticamente 
vicini, essendosi evoluti dallo stesso an- 
tenato, probabilmente un marsupiale 
primitivo. Una seconda teoria molto ac- 
creditata sostiene che i monotremi siano 
gli ultimi sopravvissuti di un gruppo di 
mammiferi primitivi non-euteri (privi di 
placenta), risalente a circa 150 milioni di 
anni fa. Secondo questa ipotesi i mono- 
tremi si sarebbero evoluti indipendente- 
mente da tutti gli altri mammiferi. 

TI telegramma di Caldwell stimolò le 
A prime dettagliate ricerche sul campo 
sulle abitudini riproduttive dei monotre- 
mi. Nel 1891, incuriosito dalle notizie su 
un mammifero oviparo, il biologo tede- 
sco Richard W. Semon si recò in Austra- 
lia per saperne di più. Il suo primo com- 
pito - trovare quegli animali in una terra 
sconosciuta - non fu affatto semplice. 

L'echidna conduce infatti vita appar- 
tata, normalmente solitaria. È attiva a 
volte nelle ore diurne, a volte di notte. 



a seconda della stagione e dell'habitat. 
Per un orecchio esercitato il fruscio di 
un'echidna tra i cespugli è distinguibile 
da quello della maggior parte degli uc- 
celli e dei piccoli marsupiali. Ma l'e- 
chidna sospende ogni attività se avverte 
l'avvicinarsi di un intruso. Diventa così 
immobile, indistinguibile nel suo am- 
biente. Abbiamo osservato un wallaby 
che superava con un salto un'echidna in 
cerca di cibo, senza che questa muovesse 
un aculeo e svariati canguri si sono avvi- 
cinati sfiorando le echidne, senza provo- 
care in esse la benché minima reazione. 

La presenza di un'echidna in zona può 
dì solito essere riconosciuta dalle tracce 
di attività alimentare ed escretoria. Il 
muso di un'echidna in cerca di cibo lascia 
un piccolo solco triangolare sulla sabbia 
o sul suolo soffice, con una fossetta ton- 
deggiante all'apice. Anche i termitai se- 
midistrutti, sconvolti da robuste unghie, 
sono utili indizi del passaggio di una 
echidna. Gli escrementi sono ben rico- 
noscibili grazie a una membrana lubrifi- 
cante che avvolge il terriccio ingerito, 
assieme ai resti chitinosi di formiche e 
termiti, insetti che costituiscono il com- 
ponente principale della dieta dell'e- 
chidna istrice. Nonostante tutte queste 
tracce del suo passaggio, spesso l'anima- 
le sfugge all'osservazione. 

Anche coloni vissuti per molti anni 
nell'area di studio di Semon ammisero 
di non aver mai visto echidne in libertà. 
Lo stesso Semon decise di assumere abo- 



rigeni, ritenendo che la cattura sistema- 
tica delle echidne sarebbe stata possibile 
solo con l'istinto di caccia e l'acutissima 
vista di questi. Attribuì il successo degli 
aborigeni al fatto che essi consideravano 
l'arrosto di echidna una prelibatezza, 
punto di vista che egli non condivideva. 

Su consiglio degli aborigeni Semon 
trascorse i mesi invernali a studiare i mo- 
notremi, perché sì sapeva che quello era 
il periodo dell'anno in cui gli animali sì 
riproducevano. In due anni di lavoro sul 
campo, gli aborigeni gli portarono più di 
4(X) echidne. Pur essendo maggiore la 
ricompensa per la cattura di femmine, 
gliene furono portate solo 127 (rapporto 
tra i sessi di circa uno a tre). Abbiamo 
trovato un rapporto simile tra femmi- 
ne e maschi quando abbiamo catturato 
echidne durante la stagione riprodutti- 
va. Pensiamo che questa proporzione 
possa rappresentare una deviazione sta- 
gionale, ipotesi su cui stiamo lavorando. 

Semon osservò e descrisse gli stadi di 
sviluppo dell'uovo e dell'embrione nel- 
l'utero, altre a quelli del piccolo nella 
tasca d'incubazione. Ricerche sulla di- 
mensione degli ovari e dei testicoli lo 
portarono a concludere che l'echidna si 
riproduce una volta all'anno, tra luglio e 
settembre. Con l'aiuto degli aborigeni 
egli documentò anche le cure parentali. 

Le scoperte scientifiche di Semon fu- 
rono pubblicate tra il 1894 e il 19 13 in 
una serie di monografie magistralmente 
illustrate, intitolate Zootogische For- 
schungsreisen in Australien (si veda l'il- 
lustrazione a pagina 54 a sinistra). Seb- 
bene monumentali, i suoi risultati hanno 
solo iniziato a fornire una risposta alle 
domande sull'echidna che Owen si era 
posto nel 1864. Mancavano ancora in- 
formazioni su come e quando avviene 
l'accoppiamento, sulla durata della ge- 
stazione, sulla natura delle strutture 
temporanee che alimentano il feto e gli 
forniscono ossigeno, su dimensioni, con- 
dizioni e abilità del piccolo subito dopo 
la nascita e durante l'allattamento e, in- 
fine, sull'età in cui l'animale raggiunge il 
massimo sviluppo e la maturità sessuale. 

Quasi 125 anni dopo, le domande sul- 
la biologia riproduttiva dei monotremi 
erano ancora senza risposta. Poi, nel 
1987, uno dì noi (Seymour) ha avviato 
uno studio sullo sviluppo respiratorio e 
metabolico dell'uovo di echidna durante 
l'incubazione. Di nuovo il primo proble- 
ma era catturare l'echidna. Abbiamo 
scoperto che le echidne conducono vita 
schiva, solitaria e che centinaia di ore 
dovevano essere spese sul campo per in- 
dividuare una popolazione adatta allo 
studio. Tuttavia, una volta trovato un 
numero sufficiente di individui da segui- 
re, la radiotelemetria ci permetteva di 
localizzarli regolarmente. 

Più lavoravamo sul campo, più ci ren- 
devamo conto di quanto poco si sapesse 
sulla storia naturale dell'echidna. Man- 
cavano completamente notizie sul suo 
comportamento riproduttivo in natura. 
Diecimila ore di lavoro sul campo e l'as- 



sistenza instancabile dell'Earth Watch e 
di volontari hanno iniziato a fornire al- 
cune risposte. In verità, seguendo quo- 
tidianamente le tracce dell'animale e a 
seguito di accurate osservazioni abbia- 
mo scoperto qualcosa di più su come si 
accoppia la timida echidna. 

primi ricercatori erano interessati al- 
* le modalità di riproduzione dell'e- 
chidna, ma per necessità studiavano 
esemplari protetti, ampliando poco la 
conoscenza sulle abitudini dell'animale 
in natura. Volevamo farci un'idea del ci- 
clo vitale dell'echidna, iniziando dal pe- 
riodo riproduttivo. Come fanno a incon- 
trarsi questi animali solitari durante la 
stagione riproduttiva? Quali interazioni 
sociali si verificano? Come si accoppiano 
senza ferirsi? 

Durante il periodo riproduttivo i ma- 
schi cercano attivamente le femmine 
spingendosi anche a grande distanza e 
insieme a esse formano una sorta di cor- 
teo nuziale. Abbiamo osservato cortei di 
due-sette animali che procedevano uno 
dietro l'altro in fila. In ogni corteo l'e- 
chidna di testa era una femmina, mentre 
l'animale più piccolo e spesso più giova- 
ne era di solito in coda. 

I biologi non sanno ancora con esat- 
tezza in che modo i maschi trovino le 
femmine, ma mentre stavamo distesi sul 
terreno a un metro di distanza da un 
gruppo di echidne in fase di corteggia- 
mento, abbiamo avvertito un forte odo- 
re di muschio emesso dalla femmina. 
(Semon aveva notato che sia i maschi, 
sia le femmine emanano un odore pun- 
gente durante la stagione riproduttiva, 
ma ancora non siamo stati capaci di di- 
stinguere le differenze tra i due sessi.) 

Sull'Isola dei Canguri - la nostra prin- 
cipale area di studio - sono stati notati 
cortei di echidne da metà maggio ai pri- 
mi di settembre. Riteniamo che questo 
comportamento segni l'inizio de! perio- 
do di corteggiamento. Sono stati fatti an- 
che avvistamenti casuali di cortei lungo 
margini di strade dentro recinti dì pe- 
core e ne abbiamo osservati anche men- 
tre perlustravamo dune densamente co- 
perte da vegetazione o zone pianeggianti 
a boscaglia, i tipici habitat dell'echidna. 

Quando incontriamo un corteo, con- 
trassegnamo. infilando su un aculeo un 
pezzo di guaina colorata di cavo elettri- 
co, ciascuna echidna per poterla identi- 
ficare in futuro e, prima di rimettere l'a- 
nimale in libertà, collochiamo sul suo 
dorso una piccola radio trasmittente. Gli 
esemplari possono così essere seguiti 
senza disturbarne le normali attività. 

Durante il periodo del corteggiamen- 
to si possono trovare gruppi di echidne 
in cerca di cibo, che vagano o semplice- 
mente restano insieme fino a quattro set- 
timane prima del rituale di accoppia- 
mento. Si sono visti uno o più maschi 
stuzzicare con il muso l'estremità della 
coda della femmina, e annusare a lungo 
dorso e fianchi. Maschi perseveranti 
continuano con questo rituale per oltre 



un'ora. Se la femmina non è ricettiva, si 
avvolge a palla, esponendo solo il dorso 
spinoso. Questo atteggiamento, di soli- 
to, spegne l'ardore del maschio che se ne 
va, almeno per un po' dì tempo. 

Una mattina piovigginosa e ventosa 
uno di noi (Rismiller) si avviò per segui- 
re le tracce di una femmina vista alla 
testa di un corteo per 14 giorni. Sebbe- 
ne in letteratura fosse riportato che le 
echidne stanno al riparo nei giorni pio- 
vosi, la femmina si trovava con tre ma- 
schi sul pendìo di una collinetta fitta di 
vegetazione. La femmina teneva il capo 
rivolta verso l'alto e con le zampe ante- 
riori sì ancorava alla base di un albe- 
rello. Era rilassata, con gli aculei di- 
stesi all'ìndietro e il corpo appiattito, 
ventre a terra. Un maschio le giaceva 
accanto, mentre gli altri andavano sfio- 
randola con il muso. Sembrava pronta 
all'accoppiamento. 

Poi i tre maschi , tutti con i contrasse- 
gni colorati, sì mossero in fila intorno 
alla base dell'albero e alla femmina. 
Ogni tanto si fermavano e un maschio 
scavava il terriccio su entrambi i lati della 
femmina oltre che intorno alla sua coda. 
Talvolta i maschi invertivano il senso di 
marcia mentre scavavano intorno e stuz- 
zicavano la femmina con il muso. Essa 
rimaneva tranquilla mentre il solco in- 
torno a lei e all'albero sì approfondiva. 
Più tardi abbiamo definito quella fossa a 
ciambella «solco d'accoppiamento». 

A questo punto il maschio più grosso 
si rivoltò verso uno dei compagni. Si af- 
frontarono testa a testa tentando di spin- 
gersi fuori dal solco d'accoppiamento. Il 
terzo maschio si ritirò senza competere, 
sdraiandosi a circa un metro dagli altri. 



Scavando e respingendosi, i maschi con- 
tinuarono ad affrontarsi finché ne rimase 
uno solo. La femmina, ancora tranquilla 
e appiattita sul ventre, non allentava la 
presa alla base dell'albero. 

Rimasto senza competitori, il maschio 
si diede a scavare proprio intorno all'e- 
stremità posteriore della femmina, stuz- 
zicandola ogni tanto sotto la coda con il 
muso. Dopo aver sollevato l'estremità 
della coda della femmina con la zampa 
anteriore, introdusse quest'ultima sotto 
la femmina. Gli aculei di questa ondeg- 
giarono per reazione. I! sollevamento 
della parte posteriore e il movimento de- 
gli aculei continuò, mentre il maschio 
lentamente si spostava di fianco, rannic- 
chiandosi nel solco d'accoppiamento. 

In questa posizione il maschio potè fa- 
cilmente mettere la sua coda sotto quella 
della femmina, rendendo possibile l'ac- 
coppiamento cloaca contro cloaca. Riu- 
scimmo a vedere un'azione simultanea 
di movimento in su e in giù delle code, 
con l'alternarsi di irrigidimento e rilassa- 
mento dell'orientazione degli aculei dì 
entrambi gli individui che rimasero uniti 
per circa un'ora. Poi il maschio abban- 
donò il solco d'accoppiamento, profon- 
do 18 centimetri. Poco dopo la femmina 
scomparve nei cespugli. Erano passate 
cinque ore dall'inizio dell'accoppiamen- 
to e stava ancora piovendo. 

Abbiamo visto anche accoppiamenti 
non preceduti da un corteo. In questi 
casi il salo maschio presente preparava 
un solco di accoppiamento aperto anzi- 
ché circolare; lo scavo era incentrato su 
un solo lato della femmina e intorno al- 
l'estremità della sua coda e durava fin- 
tantoché il maschio riusciva a sollevare 




Un solco d'accoppiamento circolare viene scavato da un corteo di 3-7 pretendenti che girano 
intorno a una femmina ben ancorata a un albero con le zampe anteriori. Questi solchi, 
profondi da 18 a 25 centimetri, hanno costituito per anni un enigma per gli escursionisti. 



50 le scienze n. 272, aprile 1991 



LE scienze n. 272, aprile 1991 51 





L'accoppiamento avviene cpda contro coda, di solito quando le 
echidne sono rivolte nello stesso verso; talvolta questi animali 



possono disporsi anche in versi opposti. Il maschio sta sempre sul 
fianco e pone la coda interamente sotto quella della femmina. 



la parte posteriore della femmina e a col- 
locare la sua coda sotto quella di lei. 

La copula avviene in una di queste due 
posizioni: teste rivolte nella stesso verso 
o rivolte in versi opposti (si veda l' illu- 
strazione in questa pagina). In entrambi 
i casi le code rimangono agganciate in- 
sieme, con il maschio girato sul fianco - 
quasi sul punto di ribaltarsi - e la femmi- 
na appiattita sul ventre. 

Le prime descrizioni facevano pensare 
che le echidne si accoppiassero esclusi- 
vamente nelle loro tane. In realtà abbia- 
mo osservato diversi accoppiamenti av- 
venuti sotto la copertura di bassa vege- 
tazione, all'aperto o sopra il terreno. 
Abbiamo visto anche cortei di cinque 
animali nella depressione di un'area 
molto scavata. Prima di queste recenti 
ricerche l'accoppiamento di echidne in 
natura non era mai stato osservato. 

Sebbene sia stato documentato lo svi- 
luppo iniziale del feto nell'utero, il pic- 
colo e la sua crescita sono relativamente 
poco noti. Le prime osservazioni sulla 
gestazione furono compiute dal natura- 
lista Robert Broom nel 1895, quando gli 
furono portati un maschio e una femmi- 
na di echidna catturati durante la copula. 
Il maschio rifiutò di mangiare e di bere 
e morì 14 giorni dopo. Il ventottesimo 
giorno dopo la cattura la femmina depo- 
se un uovo. Broom ipotizzò che il ma- 
schio fosse stato fisicamente incapace di 
fecondare la femmina dopo la prima set- 
timana di cattività «a causa delle sue cat- 
tive condizioni» e calcolò il periodo di 
gestazione in 21-28 giorni. 

Nel 1969 Mervyn Griffiths, la princi- 
pale autorità a livello mondiale nel cam- 



po dei monotremi (si veda l'articolo 
L'ornitorinco di Mervyn Griffiths in «Le 
Scienze» n. 239, luglio 1988). e collabo- 
ratori trovarono un'echidna femmina 
accompagnata da due maschi, che 17 
giorni dopo depose un uovo. Un'altra 
femmina fu trovata con maschi e fu se- 
parata da questi ultimi. Dopo 34 giorni 
non si era formata nessuna tasca d'incu- 
bazione, ma un'autopsia eseguita più 
tardi rivelò un uovo nell'utero. Griffiths 
ritiene che un periodo di gestazione di 
34 giorni sia troppo lungo e ipotizza che 
l'echidna, come alcuni rettili e marsupia- 
li, sia capace di conservare lo sperma. 

Sebbene non avessimo osservato l'ac- 
coppiamento di ogni femmina seguita, 
abbiamo trovato che i maschi del corteo 
abbandonavano la femmina tra 21 e 28 
giorni prima della deposizione dell'uo- 
vo. Questi tempi significano che proba- 
bilmente l'attrazione sessuale che deter- 
mina la formazione di cortei e, forse, li 
mantiene, scompare una volta che la 
femmina si è accoppiata. 

Nessuno ha mai visto in che modo 
un'echidna trasferisca l'uovo dalla cloa- 
ca alla tasca d'incubazione. Semon scri- 
veva: «Non posso riferire nulla su come 
la madre riesca a collocare nella tasca 
incubatrice l'uovo deposto, disponendo 
di arti tozzi e di un muso simile a una 
proboscide. La dimensione dell'uovo, 
paragonata alla strettezza della bocca 
dell'animale, fa escludere che possa es- 
sere preso tra le labbra. Forse l'echidna 
spinge l'uovo sul terreno e nella tasca 
incubatrice con il muso». 

Griffiths ha notato che la cloaca dì 
un'echidna che aveva da poco deposto 



un uovo sporgeva all'incirca quanto l'e- 
stremità posteriore della sua tasca d'in- 
cubazione. Questa osservazione fa pen- 
sare che un'echidna potrebbe deporre 
un uovo nella tasca se assumesse una po- 
sizione seduta. Abbiamo spesso osserva- 
to echidne sedute, ritte sulla loro coda 
senza alcun sostegno posteriore, che sì 
grattavano il ventre con il muso. In que- 
sta posizione, la cloaca dell'animale può 
facilmente estendersi a raggiungere le 
pieghe laterali della tasca incubatrice. 

Dati sull'echidna fanno pensare che 
qualche tempo dopo l'accoppia- 
mento la femmina si ritiri in una sorta di 
«tana da maternità» dove depone il suo 
unico uovo. Fino a poco tempo fa. si 
riteneva che rimanesse nella tana, digiu- 
nando durante il periodo d'incubazione 
e venendo allo scoperto solo dopo la 
schiusa dell'uovo. Ai primi osservatori la 
muscolatura longitudinale del ventre che 
costituisce la tasca d'incubazione non 
sembrò abbastanza robusta da protegge- 
re un uovo mentre la madre era attiva 
all'esterno della tana. 

Durante i nostri lavori sul campo, tut- 
tavia, abbiamo nuovamente catturato 
femmine in cerca di cibo che trasporta- 
vano un uovo. All'estremità cloacale 
della tasca d'incubazione di forma ellit- 
tica si trova una profonda sacca: li abbia- 
mo sempre trovato l'uovo, annidato e 
protetto tra i soffici peli. 

Di consistenza molle e coriacea, l'uo- 
vo dell'echidna varia da rotondo a leg- 
germente ovale e ha dimensioni che van- 
no da 13 per Ì3 a 16,5 per 13 millimetri: 
è paragonabile a un piccolo acino d'uva. 



52 lescienzeh. 272, aprile 1991 



Abbiamo pesato una decina di uova e 
abbiamo trovato un peso compreso tra 
1,323 e 1.893 grammi. Non potremmo 
con sicurezza correlare il peso dell'uovo 
con la dimensione della madre, ma l'uo- 
vo più pesante - non il più grosso - era 
prodotto dalla femmina più grossa. Que- 
sta pesava cinque chilogrammi, peso ec- 
cezionale per le echidne dell'Isola dei 
Canguri, che raggiungono in media 3,8 
chilogrammi, mentre quelle del conti- 
nente sono generalmente più grosse e 
pesano in media cinque chilogrammi. 

Un uovo di echidna viene incubato 
nella tasca della madre per 10-10 giorni 
e mezzo prima delia schiusa, Griffiths se 
ne è reso conto esaminando due volte al 
giorno la tasca incubatrice di echidne 
femmine in cattività. Tra i suoi numerosi 
altri contributi, Griffiths ha verificato e 
ampliato le osservazioni sullo sviluppo 
dell'uovo nell'utero e i primi dati em- 
briologici relativi ai monotremi, ricavati 
dagli zoologi J, P, Hill. J- B. Gatenby e 
T. T. Flynn negli anni venti e trenta. 

Pochissime persone hanno assistito fi- 
no a oggi agli straordinari eventi dell'u- 
scita di un'echidna dall'uovo. Circa un 
giorno prima della schiusa, l'uovo forma 
una fossetta. Con un po' di fortuna e 
un'accurata osservazione abbiamo visto 
l'uovo - o più esattamente l'embrione 
dentro l'uovo - muoversi. 

Alla schiusa la piccolissima echidna 
incide il tenace guscio a tre strati con uno 



speciale «dente dell'uovo». Il piccolo, 
ancora coperto da una membrana, inizia 
a muoversi e trova il modo di uscire dal 
guscio: lungo soltanto 13-15 millimetri 
dal capo alla coda, possiede straordina- 
ria vitalità e robustezza. I suoi movimen- 
ti energici sono intercalati a periodi di 
tranquillità finché si trova libero nella 
tasca d'incubazione. All'inizio gli occhi 
dell'echidna sono rudimentali e coperti 
da pelle; sebbene gli arti posteriori siano 
appena abbozzati, gli arti anteriori e le 
dita sono già ben sviluppati, muniti di 
piccole unghie trasparenti che le permet- 
tono di afferrare i peli della tasca d'in- 
cubazione. Dato che l'uovo è solitamen- 
te situato all'estremità posteriore della 
tasca, i! piccolo deve percorrere una di- 
stanza pari a sei o più volte la lunghezza 
del suo corpo per il primo pasto. 

A differenza dei marsupiali e degli al- 
tri mammiferi, l'echidna non ha capez- 
zoli dai quali il piccolo possa succhiare. 
Invece le ghiandole mammarie, situate 
anteriormente e su entrambi i lati della 
tasca incubatrice, terminano in un'area, 
il «campo mammario» o areola. Que- 
st'area presenta 100- 150 singoli pori, cia- 
scuno in corrispondenza del follicolo di 
un pelo mammario, che è strutturalmen- 
te diverso da quello degli altri peli. Non 
sappiamo come il piccolo, che pesa alla 
nascita solo da 0,27 a 0,39 grammi , riesca 
a trovare la strada per l'areola, ma ab- 
biamo notato che le sue aperture nasali 



sono straordinariamente grandi e Grif- 
fiths ha riferito che il suo odorato è ben 
sviluppato e funzionale. 

Alla schiusa, il corpo del neonato è 
semitrasparente e sono visibili i resti del 
sacco vitellino. Abbiamo visto il piccolo, 
quattro ore dopo l'uscita dall'uovo, af- 
ferrare i peli dell'areola per riempire di 
latte il suo stomaco dilatato. Al contra- 
rio di quanto si dice in letteratura, le 
giovani echidne non leccano il latte, ma 
lo succhiano. Griffiths ha verificato ciò 
studiando la forma e la funzione della 
lingua delle giovani echidne che si trova- 
no nella tasca incubatrice. 

Il piccolo nella tasca cresce a una ve- 
locita sorprendente. I piccoli, che pesa- 
no meno di mezzo grammo, in circa 60 
giorni possono aumentare fino a 400 
grammi. Brian Green e col leghi della 
Commonwealth Scientìfic and Industriai 
Research Organization di Canberra han- 
no misurato la quantità di latte assunto 
e l'aumento in peso e hanno trovato che 
il tasso di crescita era correlato alla di- 
mensione della madre. Il latte assunto 
variava da 7,6 a 36,4 millilitri al giorno, 
con un corrispondente aumento di peso 
da 3,8 a 12,6 grammi al giorno. 

Per mantenere la forte produzione di 
latte necessaria a nutrire il piccolo, la 
madre spende molto tempo in cerca di 
cibo. Abbiamo seguito per ore, senza in- 
terruzione, alcune femmine che allatta- 
vano. Si spostavano tra i cespugli, rove- 




Nel 1894 Richard W. Semon pubblicò disegni dell'embrione di 
echidna al l'in temo dell'uovo. In essi si può vedere lo sviluppo del 
sistema vascolare intorno alla regione ombelicale dell'embrione. 



tir minuscolo neonato riesce a uscire dal suo uovo coriaceo. 
In questo piccolo si vede sporgere il dente dell'uovo rivestito 
di smalto, usato per incidere il resistente guscio a Ire strati. 



54 le scienze n. 272, aprile 1991 




(I piccolo è ancora completamente nudo a 45 giorni dalla nascita, quando comincia ad 
assumere una colorazione grigia, preludio della crescita di peli e aculei. Gli occhi sono 
ancora ricoperti da pelle; alla sinistra del capo è visibile la fessura auricolare. 



sciando pietre e rovistando sotto il legno 
fradicio, in cerca di larve di insetti e 
dì termiti. Una femmina ha percorso più 
di tre chilometri in un solo giorno. 

Alcune delle attività alimentari della 
femmina mettono in pericolo il piccolo 
nella tasca. Sull'Isola dei Canguri le for- 
miche carnivore sono una fonte di cibo 
molto ricercata da luglio a novembre. 
Sebbene raramente si cibino di formiche 
adulte, le echidne apprezzano l'elevato 
contenuto di grassi delle regine vergini 
che si spostano più vicino alla superficie 
de! terreno in quel periodo dell'anno. La 
densa pelliccia e gli aculei della madre 
proteggono il piccolo dalle punture delle 
formiche quando essa ne saccheggia i ni- 
di. Tuttavia abbiamo visto un piccolo in- 
difeso, attaccato da formiche carnivore, 
abbandonare la presa della madre e sci- 
volare fuori dalla tasca protettiva. Quan- 
do la madre si mosse il piccolo restò solo 
e finì divorato. 

I ricercatori non sanno se un'echidna 
femmina che abbia perso l'uovo o il pic- 
colo all'inizio della stagione riproduttiva 
possa riprodursi di nuovo nell'anno. 
Sebbene sembri che le echidne abbiano 
un solo periodo riproduttivo all'anno. 



non ci sono prove che una singola fem- 
mina si riproduca ogni anno. Nel 1881 il 
naturalista George Bennett ipotizzò che 
una femmina potesse generare un solo 
piccolo ogni due anni e questa teoria ri- 
mane inconfutata. Alcuni pensano che 
la longevità dell'echidna ne possa con- 
trobilanciare la scarsa prolificità. Un'e- 
chidna dello zoo di Filadelfia è vissuta 49 
anni: il record di longevità attestato per 
un esemplare selvatico è dì 16 anni. 

Gli aborigeni raccontarono a Semon 
che un piccolo di echidna viene portato 
nella tasca fino a che non cominciano a 
svilupparsi gli aculei. La madre poi lascia 
il piccolo non ancora autosufficiente in 
una tana, tornando periodicamente ad 
allattarlo. Diversi anni fa Griffiths appu- 
rò che il piccolo è trasportato in media 
per 53 giorni prima che abbandoni la ta- 
sca: assieme a colleghi ha anche osserva- 
to echidne liberamente vaganti, impe- 
gnate nell'allattamento. Essi hanno sco- 
perto che quando il piccolo viene lascia- 
to nella tana, gli intervalli tra una pop- 
pata e l'altra oscillano tra cinque e Iti 
giorni, il che è reso possibile dal fatto che 
la quantità di latte che il piccolo assume 
a ogni pasto equivale al 20 per cento del 



suo peso corporeo. Tra un pasto e l'al- 
tro la femmina percorreva grandi distan- 
ze. Con un altro gruppo di ricercatori, 
Griffiths ha scoperto che la composizio- 
ne del latte dell'echidna varia man mano 
che il piccolo cresce e che il periodo di 
allattamento dura circa 200 giorni. 

La tana in cui il piccolo è posto può 
essere di qualsiasi genere, da un caldo e 
asciutto rifugio scavato sotto un termita- 
io a un riparo sotto un cumulo di detriti, 
presso edifici o al margine di una strada. 
Anche dentro la tana la giovane echidna 
non è al sicuro dai suoi predatori. In più 
di una occasione abbiamo visto una gros- 
sa lucertola dell'Isola dei Canguri che 
cercava di divorare un piccolo. In ognu- 
no dei casi, l'echidna era troppo grossa 
per essere ingerita, ma le lesioni ne cau- 
savano la morte. In altre zone anche 
grossi serpenti possono cibarsi dei picco- 
li che non hanno ancora sviluppato lun- 
ghi aculei. Attualmente la più grossa mi- 
naccia di predazione in Australia è costi- 
tuita da gatti selvatici, volpi e cani. 

"^Tonostante la crescente comprensio- 
^ ^ ne dei processi riproduttivi e di cre- 
scita dell'echidna, la durata della sua vita 
in natura e le abitudini quotidiane del- 
l'animale sono ancora un grosso mistero. 
Gii studi in corso cercano di chiarire di- 
versi punti. Ci piacerebbe sapere se, e in 
quale grado, esista un rapporto tra la 
madre e il suo piccolo una volta che que- 
sto abbandona la tana o se la curiosità 
innata del piccolo sia sufficiente per la 
sopravvivenza. Dal momento che gli 
animali di un anno non sono sessualmen- 
te maturi, contiamo di scoprire a che età 
l'animale si riproduce e se tale età è la 
stessa in entrambi i sessi. 

L'echidna è unica tra gli animali au- 
toctoni dell'Australia, Sebbene sia am- 
piamente distribuita e a quel che si dice 
comune, non ci sono cifre o fatti che in- 
dichino una popolazione in buona salu- 
te. A causa dell'impatto umano, sia pas- 
sata sia odierno, molti animali autoctoni 
e i loro habitat hanno bisogno di prote- 
zione, e l'echidna è tra questi. Tuttavia 
non si può attuare alcun intervento signi- 
ficativo finché la biologia e l'ecologia di 
questo animale non siano adeguatamen- 
te documentate e interpretate. Attual- 
mente non si hanno ancora sufficienti 
elementi scientifici per fornire una solida 
base di valutazione delle future necessità 
di conservazione di questa antica specie. 



BIBLIOGRAFIA 

Griffiths mervyn, Echidnas, Perga- 
mon Press, 1968, 

griffiths mervyn. The Biology of 
Monotremes, Academic Press, 1979. 

GRANT TOM, Platypus, New South 
Wales University Press, 19X4, 



56 LE SCIENZE n. 272, aprile 1991 



Microscopi a raggi X 

Un metodo innovativo per osservare strutture minutissime ed eseguire 
analisi chimiche è offerto dagli strumenti a raggi X «molli», dotati 
di una risoluzione 10 volte superiore a quella dei microscopi ottici 



di Malcolm R. Howells, Janos Kirz e David Sayre 



Ogni progresso nelle tecniche del- 
la microscopia ha aperto agli 
scienziati prospettive del tutto 
nuove sulle funzioni degli organismi vi- 
venti e sulla natura stessa della materia. 
L'invenzione del microscopio ottico alla 
fine del XVI secolo spalancò le porte del 
mondo, in precedenza sconosciuto, de- 
gli animali e delle piante unicellulari. Lo 
sviluppo della cristallografia a raggi X 
all'inìzio del nostro secolo forni per la 
prima volta immagini accurate della ma- 
teria a livello atomico. Nei decenni suc- 
cessivi i microscopi elettronici ci hanno 
consentito di osservare virus e minutis- 
sime strutture su vari tipi di superfici. 
Ora nuovi microscopi, che utilizzano 
raggi X anziché luce visibile o elettroni, 
offrono un metodo ancora diverso per 
esaminare dettagli minuscoli, metodo 
che dovrebbe estendere ancora di più la 
nostra percezione del mondo naturale. 
I nuovi microscopi a raggi X migliora- 
no considerevolmente la risoluzione dei 
microscopi ottici e possono anche essere 
utilizzati per costruire mappe della di- 
stribuzione dì taluni elementi chimici. 
Alcuni di essi consentono di ottenere im- 
magini ìn tempi brevissimi e altri hanno 
la potenzialità di compiere funzioni spe- 
ciali come la produzione di immagini tri- 
dimensionali. Al contrario della micro- 
scopia elettronica convenzionale, la mi- 
croscopia a raggi X permette di osserva- 
re gli oggetti in un mezzo acquoso o gas- 
soso, il che significa che i campioni bio- 
logici possono essere studiati in condi- 
zioni simili al loro stato naturale. La ra- 
diazione usata per illuminare l'oggetto (i 
cosiddetti raggi X molli, di lunghezza 
d'onda compresa tra 2 e 4 nanometri) è 
inoltre sufficientemente penetrante da 
consentire in motti casi di ottenere im- 
magini di cellule intatte. A causa della 
lunghezza d'onda della radiazione utiliz- 
zata, i microscopi a raggi X molli non 
potranno mai raggiungere la massima ri- 
soluzione possibile con i microscopi elet- 
tronici, tuttavia le loro proprietà speciali 
permetteranno di eseguire indagini com- 



plementari a quelle effettuate con gli 
strumenti ottici ed elettronici. 

Il sogno di costruire un microscopio a 
raggi X risale al 1895, quando Wilhelm 
Rontgen dell'Università di Wùrzburg 
scoprì questo tipo dì radiazione. La ca- 
pacità dei raggi X di attraversare oggetti 
solidi costituì un forte incentivo alla loro 
applicazione in microscopia, ma ben 
presto gli scienziati scoprirono che essi 
non subivano rifrazione o riflessione allo 
stesso modo della luce visibile. Le prime 
immagini vennero ottenute invece fa- 
cendo passare i raggi X attraverso un 
campione posto a contatto con una co- 
mune pellicola fotografica. Questa veni- 
va impressionata dai raggi X che attra- 
versavano il campione e l'immagine ri- 
sultante poteva essere esaminata con un 
microscopio ottico. Questo tipo di mi- 
croscopia a raggi X, delta microradio- 
grafia per contatto, è ancora oggi in uso. 

All'inizio del secolo si stabili che i rag- 
gi X sono onde elettromagnetiche, dif- 
ferenti dalla luce visibile solo per la loro 
lunghezza d'onda molto più piccola. 
Questa scoperta implicava che la micro- 
scopia a raggi X potesse costituire una 
via verso una migliore risoluzione. La 
lunghezza d'onda della luce visibile pone 
un limite invalicabile, pari a circa 250 
nanometri, alla risoluzione dei micro- 
scopi ottici ; gli strumenti di questo tipo 
che si costruivano 100 anni fa si avvici- 
navano già notevolmente a questo limi- 
te. I biologi erano consapevoli della ne- 
cessità di una migliore risoluzione per 
comprendere la funzione e l'organizza- 
zione delle cellule e supposero che i rag- 
gi X, con le loro lunghezze d'onda estre- 
mamente piccole, potessero essere uno 
strumento adatto a questo studio. 

Purtroppo, la grana abbastanza grossa 
delle pellicole fotografiche limitava in 
maniera significativa la microradiografia 
per contatto; una seconda limitazione 
era data dal microscopio ottico utilizzato 
per esaminare la pellicola esposta. Di 
conseguenza i primi microscopi a rag- 
gi X non riuscivano a raggiungere, e tan- 



to meno a superare, la risoluzione dei 
microscopi ottici esistenti. Ciò che man- 
cava era un sistema in grado di produrre 
un'immagine a fuoco con i raggi X. La 
messa a punto di un sistema di questo 
tipo si rivelò un problema difficile, che 
solo ora comincia a essere risolto. 

Nel 1923 Arthur H. Compton dimo- 
strò che i raggi X possono essere riflessi 
con efficienza se colpiscono con un an- 
golo di incidenza molto piccolo una su- 
perficie estremamente levigata. Se la su- 
perfìcie è di forma appropriala, è possi- 
bile fare si che i raggi X siano focalizzati 
e producano immagini ingrandite analo- 
ghe a quelle ottenibili con i sistemi ottici 
convenzionali. Alla fine degli anni qua- 
ranta Paul H. Kirkpatrick e il suo gruppo 
di ricerca alla Stanford University tenta- 
rono di costruire un microscopio a rag- 
gi X a elevata risoluzione basandosi su 
questo principio, ma non riuscirono a ot- 
tenere una risoluzione migliore di quella 
del microscopio ottico. Le aberrazioni 
ottiche e le tolleranze estremamente pic- 
cole richieste nella lavorazione delle su- 
perfìci imponevano limitazioni assai se- 
vere a uno strumento siffatto. 

\4"entre le prestazioni dei microscopi 
l"- a raggi X si dimostravano refratta- 
rie a ogni miglioramento, un concorren- 
te - il microscopio elettronico - faceva 
rapidi progressi. Negli anni quaranta i 
microscopi elettronici avevano di norma 
una risoluzione migliore di quella dei mi- 
croscopi ottici, e la comunità dei biologi 
cominciò a sviluppare tecniche specifi- 
che di preparazione dei campioni per 
sfruttare appieno le potenzialità del nuo- 
vo strumento. Da allora la microscopia 
elettronica è diventata lo strumento di 
elezione di un'intera generazione di bio- 
logi e ha consentito progressi straordina- 
ri nella conoscenza di strutture e funzio- 
ni della cellula. Per un certo periodo re- 
norme successo di questa tecnica ha vir- 
tualmente bloccato ogni sviluppo nel 
campo della microscopia a raggi X. 
Negli ultimi 20 anni, però, l'interesse 



58 LE scienze n. 272, aprile 1991 



per i microscopi a raggi X si è ridestato, 
soprattutto per alcuni importanti pro- 
gressi tecnici. 11 più significativo di questi 
è senz'altro lo sviluppo di nuove sorgenti 
di radiazione X, dato che per produrre 
immagini a elevata risoluzione alcuni tipi 
di microscopio a raggi X richiedono sor- 
genti di luminosità eccezionale. Lo scor- 
so decennio ha visto rapidi miglioramen- 
ti nella luminosità delle sorgenti X che 
si basano sulla radiazione di sincrotrone 
(la radiazione emessa da particelle cari- 
che di alta energia quando vengono ac- 
celerate da un campo magnetico). 

Ne deriva che la luminosità oggi rag- 
giungibile è milioni di volte superiore a 
quella dei tubi per raggi X, che per gran 
parte di questo secolo sono stati le uni- 
che sorgenti disponibili di raggi X molli. 
Si sono avuti progressi anche nella messa 
a punto di laser a raggi X e di plasmi che 
emettono raggi X, i quali possono pro- 
durre in un singolo impulso radiazione 
sufficiente a formare un'immagine nel- 
l'arco di un nanosecondo o meno. 

Anche ì rivelatori per raggi X sono 
stati notevolmente perfezionati. Si è 



avuta l'introduzione dei rivelatori elet- 
tronici e in molte applicazioni la pellicola 
fotografica è stata sostituita da un mate- 
riale sensibile senza grani (resisi), che 
spesso è uno strato molto sottile di ma- 
teriale polimerico la cui resistenza all'in- 
cisione si modifica quando viene esposto 
a elettroni o a raggi X. Questi materiali 
costituiscono rivelatori per raggi X co- 
modi e poco costosi, e la loro risoluzione 
è quasi 100 volte migliore di quella di una 
pellicola fotografica. 

I ricercatori hanno compiuto un altro 
importante passo avanti riuscendo final- 
mente a focalizzare i raggi X con estre- 
ma precisione mediante un particolare 
dispositivo, il reticolo zonato di Fresnel. 
Esso è costituito da anelli alternatamen- 
te trasparenti e opachi la cui spaziatura 
diminuisce con la distanza dal centro. Le 
onde sono diffratte nel passaggio attra- 
verso gli anelli trasparenti; in questo mo- 
do ciascuna parte del fascio incidente 
viene deflessa in maniera tale che le on- 
de si riuniscono tutte in un punto focale 
comune. 1 reticoli zonati sono stati uti- 
lizzati come lenii per focalizzare luce vi- 



sibile, onde radio, onde acustiche e per- 
sino neutroni; fu Albert V, Baez, che 
lavorava presso lo Harvard-Smithsonian 
Astrophysical Observatory, a proporre 
nel 1960 che questi dispositivi potessero 
focalizzare anche ì raggi X. 

La fabbricazione di reticoli zonati per 
alte risoluzioni è però tecnicamente im- 
pegnativa. La migliore risoluzione pos- 
sibile con un dato reticolo è all'indica 
uguale alla dimensione della più piccola 
spaziatura fra le zone. Per ottenere una 
risoluzione migliore di quella di un mi- 
croscopio ottico è pertanto necessario 
realizzare zone la cui spaziatura sia mol- 
to più piccola delle lunghezze d'onda 
della luce visibile. Le normali tecniche 
di fabbricazione di componenti ottici 
non sono certamente all'altezza del com- 
pito. Ciononostante, applicando metodi 
sviluppati per la costruzione di microcir- 
cuiti, si è recentemente riusciti nell'im- 
presa di realizzare reticoli zonati con 
spaziature di soli 30 nanometri. 

Una di queste tecniche, introdotta da 
Gùnter Schmahl e Dictbert Rudolph 
dell'Università di Gottinga, si basa su 




Un reticolo zonata di Fresnel è formato da cerchi concentrici d'oro 
fìssati a una membrana di nitruro di silicio delio spessore di soli 
120 nanometri. I raggi X che attraversano le zone fra un anello e 
l'altro sono diffraitì e focalizzati. In questo modo si possono co- 



struire lenti per raggi X, analoghe alle lenti dei microscopi ottici. 
La larghezza delle zone più sottili (che corrisponde circa aita mas- 
sima risoluzione ottenibile da un microscopio che impieghi il retico- 
lo) è di 30 nanometri. 11 reticolo è slato costruito da Erik Anderson. 



LE SCIENZE n. 272, aprile 1991 59 



FASCIO 
DI RAGGI X 




i 



MICROSCOPIA PER CONTATTO 



CAMPIONE 






^ 



RESIST 
(METACRILATO DI METILE) 



MAPPA IN RILIEVO 
NEL RESIST 



] raggi X che attraversano il campione vanno a danneggiare lo strato di resisi sottostante 
in maniera differente da una zona all'altra (a sinistra). II successivo bagno di sviluppo 
dissolve preferenzialmente le regioni del resisi danneggiate dalla radiazione {a destra). 



FASCIO 
DI RAGGI X 



MICROSCOPIO A RAGGI X A FOCALIZZATONE 

CAMPIONE *— — " 



RETICOLO 
FOCALIZZATORE 




RIVELATORE-^ 



CAMPO 
y IMMA- 
GINE 



I reticoli zonati di Fresnel vengono impiegali sia per focalizzare il fascio sul campione sia 
come obiettivi per raggi X che ingrandiscono l'immagine del campione sul rivelatore. 



MICROSCOPIO A RAGGI X A SCANSIONE 



FASCIO 
DI 
RAGGI X 



RETICOLO ZONATO 



PORTACAM PIONI 
CON DISPOSITIVO 
CAMPIONE 0I SCANSIONE 




APERTURA' 



CONTATORE 
DI RAGGI X 



Il fascio focalizzato di raggi X si muove sul campione da sinistra a destra e dall'alto in 
basso: la radiazione che penetra in ciascun punto è misurata da un contatore di raggi X. 



REGISTRAZIONE 

* 



OLOGRAFIA A RAGGI X (SECONDO G ABORl 

RICOSTRUZIONE 



a 

II 
□ oc 



CAMPIONE 



3 . 




RIVELATORE' 
DI RESIST 



z 

2 

N 
CO 






y 
s 

5 




IMMAGINE 
VIRTUALE 



L'interferenza del fascio di raggi X incidente e di quello diffuso dà origine a un ologramma 
nello strato dì resisi {a sinistrai. L'immagine viene ricostruita (a destra) o illuminando 
l'ologramma con luce laser o trasformandolo in forma digitale con il calcolatore. 



metodiche olografiche ultraviolette (una 
estensione di quelle utilizzale per realiz- 
zare i normali ologrammi in luce visibile) 
per imprimere le righe di un reticolo zo- 
nato in uno strato di resisi. II metodo 
olografico ha fatto segnare notevoli suc- 
cessi, ma è soggetto a un limite fonda- 
mentale di 50 nanometri per quanto ri- 
guarda la larghezza delle zone, limite do- 
vuto a effetti di diffrazione. 

Un'altra tecnica, ancora più precisa, 
consiste nell'inviare fasci di elettroni a 
«scrivere» nel resisi le righe del reticolo 
zonato; queste ultime possono essere 
poi trasferite in strutture di nichel, oroo 
germanio mediante metodi di microfab- 
bricazione. La tecnica a fasci di elettroni 
venne utilizzata per la prima volta nel 
1^74 al Thomas J. Watson Research 
Center dell'IBM, dove ancora oggi si 
producono i migliori reticoli zonati, nel 
laboratorio di Dieter Kern (attualmente 
essi vengono realizzati da Erik Ander- 
son del Center for X-ray Optics del Law- 
rence Berkeley La bora tory, sotto la di- 
rezione di David Attwood). Tutte le mi- 
crofotografie a scansione a raggi X che 
illustrano questo articolo sono state ot- 
tenute mediante reticoli zonati qui pro- 
dotti. Anche Pambos Charalambous, 
del gruppo di ricerca di Ronald Burge al 
King's College di Londra, ha realizzato 
reticoli zonati di alta precisione impie- 
gando una tecnica analoga. I reticoli con 
la risoluzione più elevata finora prodotti 
hanno una larghezza delle zone esteme 
compresa fra 20 e 30 nanometri , 

I reticoli zonati per raggi X sono mol- 
to piccoli, con un diametro di circa 0.1 
milli metri : sono inoltre necessariamente 
assai sottili, cosicché funzionano nel mo- 
do migliore con radiazione avente una 
lunghezza d'onda più grande di circa 0,5 
nanometri. 

"^"egli ultimi anni t progressi tecnici 
*■ ™ hanno consentito ai microscopi a 
raggi X di conseguire una risoluzione 
molto superiore ai limiti del microscopio 
ottico. Finora quattro metodi che impie- 
gano i raggi X. ognuno con propri van- 
taggi, hanno raggiunto questo traguar- 
do: la microscopia per contatto, la mi- 
croscopia a focalizzazione. la microsco- 
pia a scansione e l'olografia. 

La microscopia per contatto è la tec- 
nica di uso più comune; la versione at- 
tualmente impiegata presenta due note- 
voli differenze rispetto alla precedente 
microradiografta per contatto. I vari tipi 
di resisi (spesso si tratta di resine di me- 
ì acri i aio di metile, il materiale utilizzato 
per produrre il Plexiglas) permettono 
una risoluzione superiore a quella delle 
pellicole fotografiche usate in origine, e 
sono oggi disponibili strumenti con riso- 
luzione più elevata - in particolare il mi- 
croscopio elettronico - per osservare 
l'immagine impressionata nel resisi. En- 
trambe le soluzioni vennero proposte 
per la prima volta nel 1956 da William 
A. Ladd e collaboratori della Colum- 
bian Carbon Company di New York. 



60 LE scienze n. 272, aprile 199! 



IMMAGINI AD ALTA RISOLUZIONE PRODOTTE 
CON TRÉ DIVERSE TECNICHE DI MICROSCOPIA A RAGGI X 



MICROSCOPIA A SCANSIONE 



MICROSCOPIA 
A FOCALIZZAZIONE 



MICROSCOPIA PER CONTATTO 




Lina cellula di tessuto connettivo di un embrione di pollo (ir sini- 
strai è stata visualizzata da John Gilbert, Jerome Pine e Chri- 
stopher Buckley utilizzando il microscopio a raggi X a scansione 
del Brookhaven National Laboratory. Sono visibili due nuclei, 
ognuno contenente due nucleoli, oltre a numerosi granuli troppo 
piccoli per essere osservabili con il microscopio ottico. La cellula è 
stata fissata, ma non disseccata o colorata. Utilizzando il micro- 



scopio a raggi X a focalizzazione di Gottinga, situato presso l'anel- 
lo di accumulazione BESSY, Peter Gutlman e collaboratori hanno 
visualizzato la struttura filamentosa di un cromosoma non trattato 
di una larva di moscerino (al centro). Mediante microscopia per 
contatto, P. C. Cheng e O. C. Wells hanno ottenuto l'immagine di 
una cellula di tessuto connettivo umano fissata e disseccata (a de- 
stra), nella quale si osservano fibre da stress all'esterno del nucleo. 



Le tecniche microscopiche che si ser- 
vono di resisi come rivelatori furono in- 
trodotte da Ralph Feder ed Eberhard 
Spiller della IBM. Nonostante i molti 
vantaggi del metodo per contatto, fra cui 
la sua relativa semplicità e convenienza, 
la risoluzione delle immagini così otte- 
nute è limitata dalla fedeltà dei procedi- 
menti di lettura disponibili e dall'effetto 
di «sfocatura» dovuto alla diffrazione, 
che crea problemi soprattutto con i cam- 
pioni più spessi. 

Nel microscopio a raggi X a focalizza- 
zione le ottiche focalizzanti danno origi- 
ne a un'immagine ingrandita alcune cen- 
tinaia di volte, che può essere registrata 
da un rivelatore di modesta risoluzione. 
Gli strumenti a risoluzione più elevata 
impiegano attualmente come elemento 
di focalizzazione un reticolo zonato di 
Fresnel. Per registrare l'immagine si può 
usare una pellicola fotografica sensibile 
ai raggi X o un rivelatore elettronico. 11 
gruppo di Schmahl a Gottinga ha co- 
struito un microscopio di questo tipo ca- 
pace di raggiungere una risoluzione di 
circa 55 nanometri grazie a reticoli zona- 
ti realizzati con tecniche olografiche, co- 
me abbiamo descri ito in precedenza .Al- 
tri microscopi a raggi X a focalizzazione 
sono in fase di costruzione in Inghilterra 
e in Giappone. 

Gii strumenti di questo tipo offrono 
numerosi vantaggi, il più importante dei 
quali è che l'intero campione viene illu- 
minato e riprodotto in una sola volta. È 
così possibile ottenere immagini molto 
rapidamente, il che permette di evitare 
gli effetti di sfocatura dovuti a movi- 



menti e minimizza i danni da radiazione 
nei campioni biologici; inoltre non è ne- 
cessario ricorrere a sorgenti avanzate di 
raggi X dotate di un alto grado di coe- 
renza. Infine, dato che questi microscopi 
non possiedono parti in movimento, do- 
vrebbero dimostrarsi molto affidabili. 
Per tutti questi motivi i microscopi a rag- 
gi X a focalizzazione si prestano a uno 
sviluppo commerciale: attualmente un 
consorzio formato dalle Università di 
Gottinga e di Aquisgrana e dalla Cari 
Zeiss sta mettendo a punto uno strumen- 
to di questo tipo (si veda l'illustrazione a 
pagina 66). 

Recentemente il gruppo di Gottinga 
ha dimostrato la possibilità di produrre 
un'immagine in cui il livello di grigio sia 
proporzionale alla variazione di fase dei 
raggi X indotta dalla trasmissione attra- 



verso il campione. Questa tecnica di pro- 
duzione di immagini «a contrasto di fa- 
se» consentirà senza dubbio una più 
grande flessibilità nella lunghezza d'on- 
da della radiazione, l'impiego di dosi più 
basse di raggi X e forse anche una riso- 
luzione più elevata. 

Per anni la microscopia a raggi X per 
contatto e quella a focalizzazione hanno 
superato di gran lunga le altre tecniche 
per quanto riguarda il numero di micro- 
fotografie ottenute. Questa situazione 
sta però cambiando con l'avvento di di- 
versi nuovi microscopi a raggi X a scan- 
sione. Nei microscopi a scansione l'im- 
magine viene costruita un pixel (elemen- 
to di immagine) alla volta, proprio come 
avviene su uno schermo televisivo. Il 
processo ha inizio con la focalizzazione 
di un fascio di raggi X, mediante un re- 




I.' ologramma a raggi X (a sinistra) di un gruppo di vescicole per l'immagazzinamento di 
enzimi contiene l'informazione necessaria per ottenere le due immagini ricostruite. Quella 
al centro è stata realizzata con la tecnica del contrasto di ampiezza, l'altra per contrasto di 
fase. L'ologramma è stato ottenuto a Brookhaven da Chris Jacobsen, Howells e Kothman. 



LE SCIENZE n. 272, aprile 1 99 1 6 ! 




Un lendine umano danneggiato è stato studiato da Buckley e Yusuf 
Ali con il microscopio a raggi X a scansione di Brookhaven. Sono 
slate realizzate immagini di sezioni non colorate di tessuto a energie 
dei raggi X di poco inferiori (a sinistra) e di poco superiori (al cen- 



trai a 350 elettronvolt, il valore di energia che corrisponde a un li- 
mile di assorbimento del calcio. Sottraendo la prima immagine dal- 
la seconda, si ottiene un'immagine ricca di significato (a desimi in 
cui le zone chiare indicano concentrazioni di calcio più elevate. 



ticolo zonato, e la sua riduzione a un 
minuscolo punto che illumina un'area 
molto ristretta dei campione. Alcuni 
raggi penetrano in quest'area e ia frazio- 
ne del fascio incidente che attraversa il 
campione determina il valore di grigio di 
quel pixel, ti punto focalizzato si muove 
sulla superficie del campione da sinistra 
a destra e dall'alto ìn basso, registrando 
pixel successivi, e la sua dimensione de- 
termina la risoluzione. 

Per quanto possa apparire lento e la- 
borioso, il metodo a scansione presenta 
notevoli vantaggi. Si presta infatti facil- 
mente aila registrazione di immagini gui- 
data dal calcolatore e all'analisi chimica 
pixel per pixel; inoltre consente dì lascia- 
re comodamente it campione nell'aria, 
mentre il fascio di raggi X compie quasi 
tutto il proprio cammino nel vuoto. Il 
processo di scansione minimizza anche 
l'esposizione del campione a radiazioni 
che lo possono danneggiare. Tuttavia, 
q uando viene impiegato i n congi unzione 
con un reticolo zonato di Fresnel. questo 
metodo richiede un fascio coerente di 
raggi X molli, che può essere fornito so- 
lo da un grande dispositivo che produce 
radiazione di sincrotrone. 

Il primo microscopio a raggi X a scan- 
sione capace di raggiungere una risolu- 
zione migliore dei microscopi ottici fu 



costruito nei 1982 da uno di noi (Kirz), 
Harvey Rarback e John Kenney della 
State University of New York a Stony 
Brook ed è collocato presso il National 
Synchrotron Light Source (NSLS) del 
Brookhaven Nationa! Laboratory. Re- 
centemente questo strumento è stato ri- 
maneggiato per migliorarne la risoluzio- 
ne e aumentare la velocità di produzione 
delle immagini grazie all'impiego di un 
ondulatore che funge da sorgente di rag- 
gi X. Questo dispositivo guida gli elet- 
troni, per mezzo di un campo magneti- 
co, su una traiettoria leggermente ondu- 
lante, per cui essi emettono un sottile 
fascio di raggi X di straordinaria lumino- 
sità. Nella nuova configurazione il mi- 
croscopio può produrre un'immagine in 
circa un minuto. La modificazione è sta- 
ta eseguita da un gruppo di ricerca com- 
prendente Christopher Buckley, Mark 
Rivers. Deming Shu e altri di Stony 
Brook, del NSLS e del Center for X-ray 
Optics. Un microscopio analogo costrui- 
to dal gruppo dei King's College è ope- 
rante presso il Daresbury Laboratory e 
diversi altri sono in fase di costruzione. 

Uno degli obiettivi principali della mi- 
croscopia a raggi X è l'esame di ma- 
teriali biologici in condizioni simili a 
quelle naturali; per questo scopo i cam- 




Ua vescicola per l'immagazzinamento di enzimi in una cellula pancreatica varia di di- 
mensioni e densi! a quando libera il suo contenuto prole ieo. Questa sequenza di immagini, 
ottenuta da Kaaren Goncz e Stephen S. Rothman con il microscopio a raggi X a scansione 
di Brookhaven. dà una misura quantitativa di questi cambiamenti nell'arco di circa tre ore. 



pioni devono essere intatti, e quindi tri- 
dimensionali e di un certo spessore. Per 
esaminare oggetti di questo tipo è oppor- 
tuno utilizzare i raggi X molli, dato che 
essi hanno approssimativamente il pote- 
re penetrante richiesto. Molti ricercatori 
sono interessati alla possibilità di impie- 
gare l'olografia a raggi X, che è affine al 
metodo olografico usato per costruire i 
reticoli zonati, al fine di ottenere imma- 
gini in tre dimensioni di questi campioni. 

L'olografia a raggi X in tre dimensio- 
ni richiede una risoluzione migliore di 
quella attualmente conseguibile, ma al- 
cuni microscopisti sono riusciti di recen- 
te a ottenere immagini olografiche det- 
tagliate in due dimensioni. Inoltre l'olo- 
grafia condivide con la microscopia per 
contatto la caratteristica di non richiede- 
re un meccanismo di focalizzazione. 

La produzione olografica dì immagi- 
ni, già proposta nel 1948 da Dennis 
Gabor della British Thomson-Houston 
Company, si basa sul fatto che la luce e 
le altre forme di radiazione sono costi- 
tuite da onde che interagiscono proprio 
come le onde dell'acqua. Quando si 
combinano due onde, in certi punti le 
loro creste coincidono (rinforzandosi) 
mentre in altri una cresta coincide con 
un ventre (e sì ha elisione reciproca). Il 
risultato netto è che quando un'onda che 
è stata diffusa da un campione viene 
combinata con il fascio incidente origi- 
nale si forma una figura comprendente 
massimi e minimi: Gabor denominò olo- 
gramma la registrazione di questa figura. 
Un ologramma contiene informazioni 
sia sull'ampiezza sia sulla fase dell'onda 
diffusa, fornendo così dati sufficienti a 
ricostruire un'immagine del campione. 

Nel 1952 Baez propose lo schema di 
un microscopio a raggi X per olografia 
privo di lenti. Il suo progetto era con- 
cettualmente semplice, ma tecnicamen- 
te ino di difficoltà, dato che né l'inten- 



62 LE SCIENZE n. 272, aprile \99 1 



sita delle sorgenti di raggi X coerenti né 

la risoluzione delle emulsioni fotografi- 
che disponibili erano all'altezza del com- 
pito. Questi limiti tecnologici sono stati 
superati solo recentemente: negli ultimi 
due anni Dennis Joyeux in Francia, Sa- 
dao Aoki in Giappone e James Trebes e 
lan McNulty negli Stati Uniti, insieme 
con i rispettivi collaboratori, hanno ot- 
tenuto ologrammi ad alta risoluzione 
con i raggi X. 









La composizione chimica di un campione 
prodotto con tecniche di microrahbricazio- 
ne la ii' stata studiata da Harald Ade e col- 
leghi con un microscopio fotoelettronico a 
scansione, nel quale i raggi X strappano 
elettroni agli atomi vicini alla superficie del 
campione. Scegliendo energie caratteristi- 
che degli elettroni associate all'allumìnio 
(b), al silicio (e) e all'ossigeno (rf), si è po- 
tuto identificare e rappresentare di volta in 
volta ogni elemento. Gli atomi di silicio le- 
gati nelle molecole di biossido te) si mani- 
festano a un'energia diversa da quella del 
silicio elementare, Si sono cosi potuti distin- 
guere i due diversi stati chimici del silicio. 



Nel 1987 uno di noi (Howells) e Chris 
Jacobsen. in collaborazione con Kirz e 
con Stephen S. Rothman dell'Università 
della California a San Francisco e del 
Lawrence Berkeley Laboratory, misero 
a punto il primo microscopio per ologra- 
fia avente una risoluzione superiore a 
quella del microscopio ottico, fi nostro 
strumento, che utilizzava un ondulatore 
come sorgente di raggi X e rivelatori di 
resist a elevata risoluzione, inizialmente 
produceva un ologramma dopo un'ora 
di esposizione ai raggi X, con una riso- 
luzione complessiva dell'immagine mi- 
gliore di 100 nanometri. 

Recenti progressi hanno ridotto il 
tempo dì esposizione a un minuto e han- 
no migliorato la risoluzione fino a 60 na- 
nometri. un valore però ancora inade- 
guato per ottenere immagini in tre di- 
mensioni. Se, come speriamo, la risolu- 
zione attuate potrà essere migliorata ul- 
teriormente fino ad avvicinarla alla riso- 
luzione intrinseca del resist (circa 10 na- 
nometri per il metacrilato di metile), al- 
lora la produzione di immagini in tre di- 
mensioni dovrebbe divenire possibile. 

Ora che i microscopi a raggi X sono 
diventati realtà, si dedica grande at- 
tenzione alle loro applicazioni più frut- 
tuose. Questi strumenti sono già stati 
utilizzati per esaminare una grande va- 
rietà di campioni, dai tessuti di lombrichi 
contaminati da metalli pesanti a cellule 
cancerose umane, dalla peluria di certe 
piante a carboni, dispositivi a semicon- 
duttore e indurenti per incollaggio. Mol- 
te delle ricerche in corso sono dirette a 
indagare le potenzialità dei microscopi e 
la loro applicabilità a diversi tipi di cam- 
pioni. Considerando quanto sia breve la 
storia della microscopia a raggi X a ele- 
vata risoluzione, è ancora presto per sta- 
bilire quali applicazioni in particolare 
possano beneficiarne. 

Le immagini in raggi X e le microfo- 
tografie elettroniche di un medesimo 
campione di solito non sono uguali. I 
microscopi a raggi X sono sensibili alla 
concentrazione di particolari elementi, 
spesso carbonio e azoto, mentre i micro- 
scopi elettronici di norma rilevano la 
distribuzione nel campione dei gruppi 
chimici che si legano con uno specifico 
colorante. Nessuna delle due immagini 
è erronea; semplicemente esse descrivo- 
no due aspetti differenti della struttura 
del campione. 

In generale, la microscopia a raggi X 
e quella elettronica possono essere con- 
siderate complementari, t microscopi 
elettronici hanno da lungo tempo supe- 
rato la risoluzione di quelli ottici e, per 
molti campioni, la risoluzione oggi rag- 
giungibile va da 0,2 a 2 nanometri. La 
risoluzione degli attuali microscopi a 
raggi X è viceversa dell'ordine dì alcune 
decine di nanometri e il limite dovuto 
alla diffrazione (metà della lunghezza 
d'onda della radiazione incidente) costi- 
tuisce un ostacolo invalicabile per qual- 
siasi miglioramento. I microscopi a rag- 



gi X molli descritti in questo articolo non 
raggiungeranno mai risoluzioni migliori 
di 1-2 nanometri. 

Il contributo principale dei microscopi 
a raggi X non sarà l'avanzamento delle 
frontiere della risoluzione, ma la possi- 
bilità di compiere misurazioni quantita- 
tive su campioni biologici che non siano 
stati sottoposti a modificazioni, e quindi 
in condizioni molto simili a quelle natu- 
rali. Questi campioni possono essere stu- 
diati con la microscopia elettronica con- 
venzionale solo dopo aver subito consi- 
derevoli alterazioni chimiche o fisiche. 
Invece, in alcuni casi, gli effetti della pre- 
parazione e dell'esposizione ai raggi X 
appaiono tanto modesti che il campione 
conserva la capacità di reagire a deter- 
minati stimoli. Per questi campioni è 
possibile ottenere una sequenza di im- 
magini che consentano di studiare tali 
reazioni distinguendole dagli effetti do- 
vuti al fascio incidente di raggi X. 

Una caratteristica particolarmente si- 
gnificativa dei microscopi a raggi X è che 
essi consentono di evidenziare o di ren- 
dere invisibile un particolare elemento 
presente nel campione. Ciascun elemen- 
to chimico assorbe i raggi X in maniera 
caratteristica. A lunghezze d'onda com- 
prese tra 2,3 e 4,4 nanometri l'ossigeno 
• e quindi l'acqua - è molto più traspa- 
rente alla radiazione che non il materiale 
organico. Ciò rende possibile distingue- 
re le strutture cellulari dall'acqua, che 
costituisce i tre quarti circa della massa 
di una cellula. Questa regione dello spet- 
tro dei raggi X, la «finestra dell'acqua». 
è molto utile nell'osservazione al micro- 
scopio di campioni biologici. 

Il tipo di interazione dei raggi X con 
la materia consente di eseguire con i mi- 
croscopi a raggi X misurazioni dettaglia- 
te e quantitative della densità e della 
composizione chimica di un campione. 
Per ciascun elemento esistono alcuni va- 
lori critici di energia dei raggi X inciden- 
ti, detti limiti di assorbimento, in corri- 
spondenza dei quali l'energia della ra- 
di azione è suf fi eie n te a st ra ppa re un e let - 
trone dall'atomo. Solo i raggi X con 
un'energia almeno uguale al valore cri- 
tico vengono assorbiti in modo efficiente 
da quell'elemento. Si può sfruttare que- 
sta proprietà realizzando immagini con 
raggi X di energia di poco inferiore e di 
poco superiore a un limite di assor- 
bimento. Sottraendo la prima immagine 
dalla seconda si cancella in pratica il se- 
gnale di tutti gli elementi a eccezione di 
quello che ha il limite di assorbimento a 
quella data energia. In questo modo è 
possibile rilevare con ì microscopi a rag- 
gi X la distribuzione di un singolo ele- 
mento in un campione. 

TI problema dei danni dovuti alla radia- 
*■ zio ne limita le applicazioni sia della 
microscopia elettronica sia di quella a 
raggi X. I mutamenti indotti dalla radia- 
zione possono essere biologicamente si- 
gnificativi anche se riguardano solo una 
piccola frazione delle molecole della cel- 



64 LE SCIENZE n. 272, aprile 1 99 1 




Questo microscopio a focalizzazione compatto [fotografìa di sini- 
stra), messo a punto presso le Università di Gottinga e di Aquisgra- 
na, incorpora una propria sorgente dì raggi X a plasma e possiede 



una risoluzione che va da 100 a 200 nanomelri. Il microscopio a rag- 
gi X a scansione {fotografìa di destra) gestito dal King's College di 
Londra è collocato presso il sincrotrone di Dareshury nel Cheshire. 



lula. Pertanto la realizzazione di imma- 
gini ad alta risoluzione di cellule viventi 
per mezzo di qualsiasi tipo di radiazione 
ionizzante comporta sempre effetti bio- 
logici significativi. 

Dal nostro punto di vista di microsco- 
pisti, consideriamo i danni da radiazione 
sotto una prospettiva diversa da quella 
dei biologi. Noi desideriamo conoscere 
quale sia l'entità dei danni a\Y immagine, 
a una data risoluzione, nel contesto di 
ciò che speravamo di apprendere. I bio- 
logi, d'altro canto, si preoccupano in pri- 
mo luogo dei danni subiti daU'organismo 
e dai suoi vari apparati (per esempio, 
quello riproduttore). In ogni caso com- 
prendere quali interazioni avvengano tra 
la radiazione incidente e ì campioni è un 
problema complesso. Lo studio speri- 
mentale dei danni causati dai raggi X 
molli, in termini di effetti sulle immagini 
microscopiche, è ancora ai suoi inizi. 

Utilizzando tecniche quali lo sfrutta- 
mento dei limiti di assorbimento, le im- 
magini ottenute con i raggi X possono 
avere un contrasto (rapporto segnale-ru- 
more) molto elevato e, a differenza delle 
loro controparti elettroniche, non sono 
disturbate da fenomeni di fondo come 
la diffusione multipla degli elettroni. 
Il segnale più netto ottenibile con le tec- 
niche a raggi X consente di eseguire un 
dato compito osservativo con un danno 
inferiore a quello provocato dai metodi 
di produzione di immagini che si basa- 
no sugli elettroni o su altre particelle 
cariche. -Con i raggi X è possibile anche 
la realizzazione ultrarapida di imma- 
gini, che offre un'ulteriore opportunità 
per minimizzare gli effetti dannosi del- 
la radiazione. 



66 le scienze n. 272, aprile 1W1 



Questi vantaggi, assieme alla risolu- 
zione non eccezionale conseguibile dalla 
microscopia a raggi X in confronto a 
quella elettronica, fanno sì che questa 
tecnica sia particolarmente adatta allo 
studio di campioni biologici in condizio- 
ni naturali e senza protezione. In molti 
casi con i microscopi a raggi X si ricava- 
no immagini che non sono degradate dai 
danni da radiazione e che tuttavia hanno 
una risoluzione molto migliore di quella 
dei microscopi ottici. 

Quali sono le prospettive future della 
microscopia a raggi X? Forse lo sviluppo 
a livello più basilare sarà il migliora- 
mento delle prestazioni, soprattutto del- 
la risoluzione. I microscopi a raggi Xche 
abbiamo descritto possono visualizzare 
particolari di soli 20-100 nanometri di 
grandezza ; tuttavia sono limitati dalla lo- 
ro dipendenza dalle proprietà dei resisi, 
proprietà che hanno un ruolo diretto 
nelle tecniche olografica e per contatto, 
e indiretto nella costruzione dei reticoli 
zonati impiegati negli altri microscopi a 
raggi X, Il limite di risoluzione intrinse- 
co del metacrilato di metile - circa 10 
nanometri - è determinato fondamental- 
mente dalla dimensione della molecola, 
e quindi per ottenere qualche migliora- 
mento sarà necessario ricorrere a metodi 
del tutto nuovi. 

T a microscopia a raggi X a contrasto di 
■*— ' fase, solo di recente realizzata in 
pratica, promette di rivelarsi una tecnica 
potente, capace di offrire un migliore 
contrasto a dosi di radiazione più basse, 
utilizzando raggi X di lunghezza d'onda 
più piccola. Nuove sorgenti di radia- 
zione di sincrotrone, come r Advanced 



Light So uree in costruzione presso il 
Lawrence Berkeley La borato ry. aumen- 
teranno la luminosità della radiazione 
disponibile, permettendo di realizzare 
immagini molto più rapidamente. 

Anche una migliore risoluzione, sem- 
pre nei limiti imposti dal metacrilato di 
metile, potrebbe essere conseguibile in 
tempi abbastanza brevi. Supponiamo, 
per esempio, che la figura di diffra- 
zione dei raggi X venga misurata senza 
impiegare un'onda di riferimento, come 
si fa in cristallografia a raggi X. La di- 
stribuzione complessiva di intensità dei 
fasci in questi esperimenti dovrebbe 
permettere ai ricercatori di dedurre la 
struttura dell'oggetto che ha diffuso i 
raggi X. La finezza di risoluzione otte- 
nibile con q uesto metodo è data dall'am- 
piezza degli angoli in cui si possono mi- 
surare i raggi diffratti. Il caso limite, 
quello di una sfera completa (che può 
essere realizzato in cristallografia), per- 
metterebbe di ottenere immagini in tre 
dimensioni con una risoluzione uguale a 
metà della lunghezza d'onda dei raggi X 
impiegati. Nel caso dei raggi X molli, ciò 
andrebbe a tradursi in una risoluzione di 
1-2 nanometri. 

In recenti esperimenti proposti da uno 
di noi (Sayre) insieme con Kirz, con 
WenBing Yun delI'Argonne National 
Laboratory e con Mark Shamoff dell'U- 
niversità del Delaware, sono già state re- 
gistrate figure dì diffrazione dei rag- 
gi X in un angolo di 15 gradi rispetto alla 
direzione del fascio incidente, il che 
corrisponde a una risoluzione dell'im- 
magine di 7 nanometri. Questo valo- 
re potrebbe migliorare ulteriormente 
quando si impiegheranno, come è nelle 



intenzioni, fasci di raggi X più rigorosa- 
mente coerenti. 

La microscopia a raggi X ha già co- 
minciato a estendere il proprio raggio 
d'azione dalle scienze della vita allo stu- 
dio delle superfici e all'analisi di elemen- 
ti in traccia. Nel primo caso si rilevano 
non i raggi X stessi, ma gli elettroni che 
la radiazione strappa agli atomi situati 
presso la superficie del campione. La 
tecnica dì misurazione dell'energia degli 
elettroni cosi liberati, detta spettrosco- 
pia fotoelettronica, è ormai ben affer- 
mata. Combinando spettroscopia e im- 
magini in raggi X a elevata risoluzione 
sarà possibile identificare e cartografare 
la distribuzione degli elementi e gli stali 
di legame chimico presso la superficie 
del campione. 

Questi progressi apriranno la via allo 
studio di superfici eterogenee, come 
quelle dei catalizzatori e dei disposi- 
tivi a semiconduttore. Di recente Harald 
Ade, in collaborazione con Erik John- 
son e Steven L. Hulbert del NSLS e con 
Anderson. Kern e Kirz, è riuscito a ot- 
tenere una risoluzione submicrometrica 
in questo tipo di analisi. Il suo gruppo di 
ricerca ha potuto anche studiare, presso 
il NSLS, la chimica delle superfici me- 
diante un microscopio fotoelettronico 
munito di reticolo zonato. Dispositivi 
simili sono in fase di realizzazione ad 
Amburgo, alla Stanford University e in 
diversi altri istituti di ricerca in tutto il 
mondo. 

Dopo quasi un secolo di ricerche, le 
tecnologie dell'era della microfabbrica- 
zione hanno finalmente trasformato la 
microscopia a raggi X da sogno a realtà. 
Gli studi ora possibili in questo settore 
rappresentano una preziosa opportunità 
per ampliare la nostra conoscenza del 
mondo naturale. Siamo convinti che i 
progressi continueranno ancora e che le 
potenzialità di questi strumenti verranno 
pienamente sfruttate. 



BIBLIOGRAFIA 

schmahl G. e Rudolph D. (a cu- 
ra), X-rav Microscopv, Springer-Verlag, 
1984. 

SAYRE D.. IIOWELLS M-, KIRZJ e RAR- 

back il. (a cura), X-ray Microscopy II, 
Springer-Verlag, 1988. 

MICHETTE a. G., X-ray Microscopy in 
«Reports on Progress in Physics», 51, 
n. 12. dicembre 1988. 

DUKE P. i. e MICHETTE A. G (a cura). 
Modem Microscopies: Techniques and 
Applications. Plenum Press, 1990. 

HOwe lls M . R. . Soft X-ray Imagìngfor 
the Life Sciences in Synchrotron Radia- 
tion and Biophysks, a cura di S. S. 
Hasnain, Ellis Horwood, 1990. 

MICHETTE A.. MORR1SON G. e BUCK- 
LEY C, X-ray Microscopy IH, Springer- 
-Verlag (in stampa). 



Per accordi con 

la NICOLA ZANICHELLI S.p,A. 

siamo lieti di offrire ai lettori 

de LE SCIENZE, a prezzi speciali, 

i volumi della collana 

NUOVI CLASSICI DELLA SCIENZA 

edizione italiana 

della "Srientific American Library" 




I FOSSILI 

E UST0RL4 DELLA VITA 

di George Caylod Simpson 
L 32.500 (anziché L 36,000) 

LA SCOPERTA 

DELLE PARTICELLE SUB-ATOMICHE 

diStwHiWeinterg 

L 29.CXW (inriebé L 32.000) 

POTENZE DI DIECI 

diPHpePhrlisMfflreon 
L32S00(anad<éL 36,000) 

LA DIVERSITÀ UMANA 

di Richard kmnilin 

L 29.000 (amiche L 32.000) 

LA SCIENZA DEL SUONO 

di Jota R. Piera 
L29.0O0laaridKL32.0OOl 

IL SECONDO PRINCIPIO 

di ter W. Alta 

L 29.000 (auriche L 32.000) 

L'EREDITÀ DI EINSTEIN 

dJJulianSdwingH' 

L 31.000 (uriche L 34.009) 



IL SISTEMA SOLARE 

di Roman Smoluchowsb 

L 32500 iMricbéL 36.000) 

OCCHIO, CERVELLO E VISIONE 

iDnkt&HoM 

L 31500 (amiche L 36.000) 

FARMACI, DROGHE 

E CERVELLO 

di Satani H-Snyder 
L32JO0(amkiéL 36.000) 

SABBIA 
di Raymond Sirver 

L32Ì00 (auriche L 36.000) 

DIMENSIONI E VITA 

di Thomas A. Mettateli 

tJcànT^a-BoBMf 

L 34.509 lanrichtL 38,0001 



Per approfittare 
di questa occasione 
utilizzare la cedola 
"ordine per libri" 
allegata alla rivista. 



LE SCIENZE S.p.A. 



L'acustica del clavicembalo 

// suono brillante e fascinoso di questo strumento a tastiera, principe 
del Barocco musicale, è il risultato di una complessa interazione che si 
produce fra la vibrazione delle corde, il legno, Varia e l'orecchio umano 

di Edward L. Kottick, Kenneth D. Marshall e Thomas J. Hendrickson 



La curvatura viene immediatamente ri- 
flessa verso il capotasto all'altra estremi- 
tà della corda. Poiché questo è fissato a 
un pancone massiccio e stabile , in questa 
sede viene dissipata pochissima energia. 

La curvatura si riflette avanti e indie- 
tro fra capotasto e ponte e trasferisce un 
po' di energia a quest'ultimo a ogni viag- 
gio. Infine la corda torna a riposo, dopo 
aver trasmesso la sua energia alla tavola 
armonica e, in misura minore, all'aria 
che circonda la corda stessa. (Se a un 
unico tasto sono collegati più salterelli si 
ottiene una maggiore varietà timbrica: 
ogni tasto del nostro clavicembalo di la- 
boratorio, per esempio, aveva due salte- 
relli e quindi due corde fissate a ponti 
distinti.) 

La velocità a cui la curvatura viaggia 
dipende dalla massa per unità di lun- 



ghezza e dalla tensione della corda. La 
combinazione fra la velocità a cui si pro- 
paga la curvatura e la distanza che per- 
corre {cioè la lunghezza della corda) de- 
finisce la frequenza di vibrazione. Così, 
una vibrazione che compie 440 cicli com- 
pleti al secondo produce il la sopra il do 
centrale, il «la 440 hertz» ben noto a tutti 
i musicisti, che rappresenta il suono fon- 
damentale di quella corda. Le altre cor- 
de sono accordate alle diverse note. 

La vibrazione reale di una corda di 
clavicembalo, però, è un po' più com- 
plessa di come l'abbiamo descritta fin 
qui. Mentre oscilla a 440 hertz, la corda 
vibra anche secondo la sua metà, a circa 
880 hertz; simultaneamente vibra anche 
secondo la sua terza parte, a circa 1320 
hertz ; secondo la sua quarta parte , intor- 
no a 1760 hertz e via di questo passo. 



Questi diversi modi di vibrazione sono 
definiti parziali, o sovratoni. 

Le corde tenderebbero a oscillare il 
più possibile vicino alle parziali armoni- 
che, cioè per multipli interi della fonda- 
mentale. Nella pratica, però, i rapporti 
delle parziali non sono così semplici, 
perché ogni corda non ha solo una lun- 
ghezza, ma anche uno spessore, il che le 
conferisce una sorta di «non armonicì- 
tà», di incapacità cioè di vibrare in modo 
armonico. La non armonicità fa parte 
della qualità timbrica del clavicembalo: 
in mancanza di essa, probabilmente, il 
suono dello strumento risulterebbe un 
po' spento. 

Dato che la corda ha altri modi di vi- 
brazione, oltre a quello fondamentale, il 
ponte deve trattare anche con l'energia 
di tutte le parziali, ma, nella sua azione, 



Verso la fine del XVIII secolo, gli 
amanti della musica usavano 
discutere intomo ai pregi di 
quelli che allora erano i tre più comuni 
strumenti a tastiera. Il pianoforte, desti- 
nato a rimanere fino ai nostri giorni il più 
popolare fra gli strumenti musicali, con 
le corde messe in vibrazione dalla robu- 
sta percussione di martelletti, consentiva 
l'esecuzione di forti crescendo e dolci di- 
minuendo. Il clavicordo, con la sua mor- 
bida voce emessa da corde percosse con 
lamine di ottone, era pure in grado di 
offrire crescendo e diminuendo, ma solo 
nella parte bassa delia sua gamma di vo- 
lume: in compenso le sue dimensioni 
erano contenute e la costruzione relati- 
vamente poco costosa. Il clavicembalo 
era l'unico dei tre strumenti a corde piz- 
zicate anziché percosse . Non poteva per- 
tanto produrre altrettanta varietà di suo- 
ni intensi e morbidi, e ciò avrebbe con- 
tribuito alla sua graduale perdita di po- 
polarità: quando, nel 1809, ne fu costrui- 
to l'ultimoesemplare, sembrava destina- 
to a diventare una povera reliquia. 

Ottant'anni dopo. però, i musicisti do- 
vettero rendersi conto che nessuno stru- 
mento poteva sostituire il suono caratte- 
ristico del clavicembalo e che, del re- 
sto, questo mostrava una chiara superio- 
rità rispetto al pianoforte nell'esecuzio- 
ne della musica barocca e precedente. 
Così, nel 1889, riprese la costruzione dei 
clavicembali e. grazie a questa rinascita, 
la musica per strumenti a tastiera di 
Bach. Purcell, Rameau. Couperin, Scar- 
latti e Handel può oggi essere ancora 
ascoltata dalla voce dello strumento per 
cui era stata originariamente composta. 
Curiosamente però, nonostante i cinque 
secoli di vita del clavicembalo, fino a po- 
co tempo fa ben poco si sapeva del modo 
in cui questo strumento produce il suo 
caratteristico suono brillante. 

Molto ci è noto del pianoforte, del vio- 
lino e della chitarra, strumenti con cui il 
clavicembalo presenta qualche evidente 
somiglianza. Si sarebbe pertanto indotti 
a pensare, per analogia, che gli studiosi 



di acustica possano fare almeno qualche 
previa ipotesi su questo strumento. Co- 
me il pianoforte, il clavicembalo ha una 
cassa e una tavola armonica attraversate 
da corde. Come il violino e la chitarra ha 
tavola armonica, fasce e fondo che rac- 
chiudono un certo volume d'aria. Ma 
queste somiglianze sono illusorie. Il pia- 
noforte moderno ha una tavola armoni- 
ca spessa e fasce massicce: non ha fondo 
e perciò non racchiude un volume d'aria. 
Violino e chitarra, almeno superficial- 
mente, sono simmetrici, mentre il clavi- 
cembalo decisamente non lo è. e il suo 
ponte si misura in metri, anziché in cen- 
timetri. Se non del tutto unico, il clavi- 
cembalo è perlomeno uno strumento 
fuori dal comune in quanto a costruzione 
e a caratteristiche acustiche. 

I fabbricanti di clavicembali hanno 
sviluppato due tecniche generali di co- 
struzione. I costruttori di stile meridio- 
nale (quelli italiani in primo luogo) rea- 
lizzavano strumenti a scala corta: la lun- 
ghezza della corda che produce il do 
un'ottava sopra il do centrale va da 25 a 
28 centimetri. Il loro timbro è chiaro, 
penetrante e risonante, con un attacco 
esplosivo nell'istante in cui il plettro piz- 
zica la corda. I costruttori fiamminghi, 
invece, optarono per uno strumento più 
massiccio, meno fragile, di scala più lun- 
ga, tipicamente intorno ai 35 centimetri 
per la corda del do di soprano. Dal punto 
di vista timbrico, i clavicembali della 
scuola settentrionale avevano un suono 
più scuro e ovattato, molto diverso da 
quello dei loro cugini italiani. 

Sperando di penetrare almeno un po' 
net segreti dell'acustica del clavicemba- 
lo, uno di noi (Kottick) e il compianto 
fisico William R, Savage fondarono nel 
1976 un laboratorio di acustica all'Uni- 
versità dello lowa. Negli anni successivi, 
aiutati anche da altri ricercatori, abbia- 
mo studiato la fisica che sta alla base 
dello strumento, ottenendo in particola- 
re una quantità notevole di dati da un 
clavicembalo di stile fiammingo che ci 
siamo costruiti. Abbiamo potuto studia- 



re anche alcuni esemplari d'epoca con- 
servati al Metropolitan Museum of Art 
di New York, alla Yale University Col- 
lection, alla Smithsonian Institution e 
al Boston Museum of Fine Arts e abbia- 
mo esaminato alcuni strumenti moderni 
costruiti dalla ditta Zuckermann Harpsi- 
chords di Stonington (Connecticut). Nel 
complesso, abbiamo svolto ricerche su 
39 strumenti. 

"CVmdamentalmente i clavicembali so- 
*■ no progettali per convertire energia 
meccanica in onde di pressione che ven- 
gono trasmesse, attraverso l'aria, all'o- 
recchio. L'esecutore impartisce l'ener- 
gia meccanica alla tastiera, costituita da 
leve di legno che si muovono su e giù su 
perni fissati a una traversa. 

All'estremità distale della leva costi- 
tuita da un tasto vi sono una o più astic- 
ciole (salterelli) che si muovono in ver- 
ticale su guide di legno (crivelli). Il sal- 
terello è formato da un corpo, una lin- 
guetta che fa perno su di esso, una molla 
che riporta la linguetta in posizione di 
riposo, un plettro e uno smorzatore. 

La pressione di un tasto fa sollevare 
un salterello, che a sua volta spinge il 
proprio plettro contro la corda corri- 
spondente. L'azione di sollevamento del 
plettro provoca un incurvamento della 
cord a : poi , con un'ulteriore pressione , la 
corda si libera dal plettro. Allora la cur- 
vatura si trasmette per tutta la lunghezza 
delta corda fino a raggiungere il pirolo 
sul ponte; qui trasferisce parte della sua 
energia al ponte stesso, che la comunica 
alla tavola armonica, sottile e flessibile. 



Sul coperchio di questo clavicembalo di sti- 
le Italiano, ricostruito nel secolo scorso 
a partire da peizi risalenti al XVII secolo, 
è dipinta una scena bucolica, mentre all'e- 
sterno sono raffigurati putti e ghirlande. 
Gli strumenti di stile fiammingo tendeva- 
no a essere ancora più decorati ed ornati. 




70 le scienze n. 272, aprile IMI 



le scienze n. 272, aprile IMI 71 



tende a essere discriminante. Governa 
l'intensità delie sollecitazioni prodotte 
da alcune parziali e può negare ad altre 
ogni accesso alla tavola armonica; inol- 
tre, stabilisce la velocità con cui l'energia 
viene trasferita dalla corda alla tavola. 
L'efficienza con cui il ponte svolge 
questi compiti dipende da quella che vie- 
ne definita corrispondenza di impedenza 



fra le corde e la tavola armonica. Una 
corrispondenza perfetta, senza ostacoli 

o riflessioni da parte del ponte, consen- 
tirebbe il passaggio dell'energia dalla 
corda in vibrazione alla tavola in un'uni- 
ca soluzione. Il risultato sarebbe un 
«bang» molto forte e non troppo musi- 
cale. Una scarsa corrispondenza avreb- 
be semplicemente l'effetto opposto: l'e- 



nergia della corda vibrante si dissipereb- 
be in un arco di tempo lungo, ma si per- 
cepirebbe un suono molto debole. 

La tavola armonica, una piastra in le- 
gno d'abete di tre millimetri di spessore, 
ha forma approssimativamente triango- 
lare; le fibre corrono nella direzione più 
lunga. Si tratta di uno degli elementi più 
misteriosi del clavicembalo: la sua effi- 



ANATOMIA Di UN CLAVICEMBALO 



GUIDA 
DEI SALTERELLI 



PIROLt 

Dt ACCORDATURA 



ROSA O ORNAMENTO 
CHE IDENTIFICA 
IL COSTRUTTORE 



TAVOLA ARMONICA 



CRIVELLO INFERIORE 
FISSO 



MODANATURA 
FRONTALE 




TRAVERSA 
DEI PERNI 



DORSO 



FASCIA 

LATERALE 

CURVA 



DEL NOME 



ASSICELLA 
DEL NOME 



SOSTEGNO DEL COPERCHIO 



TRAVERSA VENTRALE INFERIORE 



GUANCIA 



THAVERSA VENTRALE 
SUPERIORE 



72 le scienze ti. 272, aprile 1 99 1 



cacia dipende dalla forma, dallo spesso- 
re, dalla distribuzione della massa, dalla 
configurazione delle fibre oltre che dalle 
caratteristiche del ponte, dalle varie co- 
ste e dai diversi elementi che sono incol- 
lati alla sua superficie inferiore. 

Saldamente fissata alla cassa, la tavola 
armonica è incollata a un telaio che rac- 
chiude dorso, coda, fascia laterale curva 
e guancia (la fascia laterale diritta). La 
parte frontale della tavola è collegata al- 
la sommità della traversa ventrale supe- 
riore, un elemento strutturale che va da 
dorso a guancia. Come un altoparlante, 
la tavola armonica può vibrare a tutte le 
frequenze significative, ma ha anche dei 
modi propri, cioè dei modi normali di 
vibrazione, a frequenze particolari. A 
queste frequenze, la tavola risuona con 
ampiezza molto maggiore che ad altre 
frequenze, perciò impone le proprie ca- 
ratteristiche all'energia impartita dalla 
corda vibrante. 

Un a de I le prime cose che abbiamo fa t- 
to, per capire il comportamento 
della tavola armonica, è stato studiare le 
curve di risposta in frequenza e i modi di 
vibrazione propri di numerosi clavicem- 
bali. Attraverso tali analisi volevamo 
identificare le frequenze alte quali si ve- 
rifica la risonanza. Il timbro del clavi- 
cembalo (come per qualsiasi altro stru- 
mento) dipende in gran parte dal modo 
in cui le fondamentali e le parziali delle 
corde eccitano risonanze. 

Per generare le curve di risposta, ab- 
biamo usato un generatore di segnali per 
produrre una frequenza sinusoidale (un 
suono puro) in corrispondenza del piro- 
Io sul ponte per ogni corda. Un misura- 
tore del livello di pressione sonora ci 
consentiva di rilevare la risposta del cla- 
vicembalo alla sollecitazione sinusoida- 
le. In questo modo abbiamo ottenuto 
curve dì risposta per le fondamentali di 
tutte le note. 

Queste curve servivano solo come mi- 
sura grezza delle caratteristiche di cia- 
scuno strumento, ma ci hanno consenti- 
to comunque di cominciare a formulare 
qualche ipotesi sulle proprietà dei clavi- 
cembali. In primo luogo, le tavole armo- 
niche hanno molte risonanze e tutte 
piuttosto ampie. In secondo luogo, i pic- 
chi di risonanza molto pronunciati iden- 
tificano il tipo di clavicembalo: quelli dì 
scuola fiamminga hanno da tre a sette di 
questi picchi, tutti al dì sotto dei 400 
hertz, mentre i clavicembali di scuola ita- 
liana non ne hanno più di tre, di solito 
nell'intervallo fra i 100 e i 200 hertz. 

Per studiare visivamente le risonanze, 
abbiamo cosparso la superfìcie della ta- 
vola armonica con brillantini da decora- 
zione. Con questo metodo di analisi, che 
prende il nome dal fisico tedesco Ernst 
F. F. Chladni, si possono dimostrare 
graficamente le figure di vibrazione di 
piastre e membrane e si possono identi- 
ficare i loro modi propri (si veda l'arti- 
colo L'acustica dei piani armonici dì vio- 
lino di Carleen Maley Hutchins in «Le 



Scienze» n. 160, dicembre 1981). Quan- 
do la tavola armonica vibra a una delle 
sue frequenze di risonanza, ì brillantini 
saltano via dalle regioni in movimento e 
vanno a raccogliersi lungo le linee noda- 
li, cioè le zone in cui la tavola non vibra, 
I brillantini circondano le zone di massi- 
mo movimento, formando dei «punti 
caldi» di forma ellittica. 

Le figure di Chladni ci hanno fornito 
molte informazioni. Al contrario di quel 
che il buon senso porterebbe a pensare, 
le sezioni della tavola che vibrano con la 
massima ampiezza di solito erano sepa- 
rate (e talvolta a buona distanza) dall'a- 
rea direttamente sottostante il pìrolo sol- 
lecitato sul ponte. Questa osservazione 
conferma l'importanza di una corretta 
corrispondenza di impedenza fra corde 
e tastiera. Se l'area in corrispondenza 
delia quale la corda incrocia il ponte si 
muove molto, l'energìa della corda vi- 
brante viene trasferita troppo rapida- 
mente, producendo un suono musical- 
mente inadeguato. 

La forma per lo più ellittica dei punti 
caldi è dovuta alla struttura del legno 
d'abete. Nell'abete il suono si propaga 
nella direzione delle fibre quattro volte 
più velocemente che in direzione tra- 
sversale. L'ellisse comunque non è per- 
fetta, a causa delle catene e dei ponti. 
Nei clavicembali fiamminghi l'orienta- 
zione delle figure è uguale a quella dei 
ponti, della traversa dei piroli d'arresto 
e di un sostegno strutturale collegato alla 
faccia inferiore della tavola armonica. 
Le tavole armoniche dei clavicembali 
italiani spesso sono fissate ad angoli qua- 
si retti al dorso o ai ponti: questa col- 
locazione tende a pareggiare la velocità 
di propagazione del suono nelle diverse 
direzioni. Le figure di Chladni dei cla- 
vicembali italiani hanno infatti una for- 
ma più circolare rispetto a quelle pro- 
dotte dai clavicembali di costruzione 
fiamminga. 

Infine, le figure di Chladni ci dicono 
che quasi tutte le posizioni sulla tavola 
armonica entrano in vibrazione a note- 
vole intensità a una o più frequenze. In 
entrambi i casi, tutta la tastiera partecipa 
a qualche comportamento modale. 

Come le curve di risposta, le figure di 
Chladni ci hanno detto molto sulle ca- 
ratteristiche generali dei clavicembali, 
ma non ci possono rivelare la struttura 
finale e ci dicono poco su quel che acca- 
de altrove rispetto alla tavola armonica. 

Siamo riusciti a capire meglio il com- 
portamento fisico del clavicembalo 
grazie a quello strumento matematico 
che è l'analisi modale. Questa tecnica 
consente al ricercatore di descrivere la 
risposta dinamica di una struttura attra- 
verso le sue proprietà modali: le fre- 
quenze di risonanza, le caratteristiche di 
smorzamento e i movimenti relativi in 
posizioni diverse. 

Abbiamo fissato alla faccia inferiore 
della tavola armonica due accelerome- 
tri, piccoli dispositivi elettronici che tra- 



[7 



PLETTRO 



PONTE 




Il salterello si muove entro guide chiamate 
crivelli. Il plettro pizzica una corda {nel 
riquadro) e la vibrazione viene trasmessa 
alla tavola armonica attraverso il ponte. 



sformano il movimento fisico in segnali 
elettrici. Per suscitare i modi vibraziona- 
li, abbiamo percosso leggermente le va- 
rie parti del clavicembalo con un martel- 
letto: complessivamente abbiamo solle- 
citato 605 posizioni olire 300 delle quali 
sulla tavola stessa. I segnali venivano re- 
gistrati da un calcolatore, che calcolava 
i modi propri. 

Le mappe modali al calcolatore hanno 
avvalorato le informazioni derivate dalle 
figure di Chladni, in particolare quelle 
riguardanti la localizzazione dei punti 
caldi e delle linee nodali. L'analisi mo- 
dale poi ci ha permesso di appurare mol- 
tissimi particolari che non sarebbe stato 
possibile identificare attraverso le sem- 
plici figure di Chladni, Questi particolari 
ci hanno fatto scoprire, sorprendendoci 
un po', che la cassa del clavicembalo è 
attivamente coinvolta nella vibrazione: 
addirittura, ad alcune frequenze basse, 
l'ampiezza del moto della cassa era pa- 
ragonabile a quella della tavola armoni- 
ca. Una rappresentazione video tridi- 
mensionale dei modi propri, generata 
dal calcolatore, ci ha mostrato come la 
cassa reagisse soprattutto intomo alla 
posizione del sostegno: spesso assomi- 
gliava a una tavola piegata attorno all'as- 
se maggiore. Non erano stazionari nem- 
meno la tastiera, il pesante pancone e il 
coperchio; anche questi «danzavano» in 
accordo con le famiglie di modi propri. 

Sembra che proprio questo tipo di vi- 
brazione non musicale renda più elevata 
la qualità dello strumento. 

La figura modale della tavola armoni- 
ca diventa sempre più complessa al cre- 



LE scienze n. 272, aprile 1 99 1 73 




56,8 HERTZ 




102,4 HERTZ 



1 modi normali di vibrazione, o modi propri, della tavola armonica 
sono evidenziati in falsi colori attraverso l'analisi modale. Le imma- 



gini mostrano i vari gradi di moto: forte verso l'alto {in rosso) 
leggero verso l'alto {in giallo), leggero verso il basso i in blu) e forte 



scere delle frequenze di risonanza: le di- 
mensioni dei punti caldi diminuiscono e 
il loro numero cresce. Le regioni della 
tastiera dalle due parti del ponte hanno 
spessori molto uniformi e in qualche mo- 
do assomigliano a lunghe membrane sot- 
tili. Oui si sviluppa e sì espande una serie 
dì punti caldi, in modo più o meno uni- 
forme, nel senso della lunghezza. Ben 
nascosta dietro questa attività ricca e 
quasi incomprensibile, sta un'informa- 
zione molto importante. Fra zero e 600 
hertz abbiamo scoperto 36 modi distinti, 
il che corrisponde a un modo vibrazio- 
nale ogni 16,7 hertz in media, una den- 
sità molto alta. Questa densità aumenta 
le probabilità che una parziale di una 
corda ecciti un modo. 

TI legno non è l'unica parte in movimen- 
-^ to del clavicembalo. Dato che lo stru- 
mento ha un fondo, il tutto costituisce 
un contenitore che racchiude un volume 
d'aria. Quando la tavola armonica entra 
in vibrazione, vibra anche questa massa 
d'aria e anch'essa, come la tavola, ha i 
suoi modi di vibrazione privilegiati. Nel- 
la forma più semplice, la cavità d'aria 
può essere considerata uno spazio a for- 
ma di cuneo limitato sui Iati e sul fondo 
da tavole piuttosto rigide e racchiuso al 
di sopra da una tavola armonica flessibi- 



le. Questo spazio, però, non è perfetta- 
mente chiuso: il varco fra le tra verse ven- 
trali superiore e inferiore, che si trovano 
subito sotto il complesso formato da ta- 
sti, salterelli e telaio della tastiera, con- 
sente la fuga dì una certa quantità d'aria. 

Si può prevedere quali tipi di modi 
propri si presentino in questo spazio a 
forma di cuneo applicando la teoria ma- 
tematica delle onde. In questo caso, le 
equazioni prevedono che la cavità d'aria 
del clavicembalo possa condividere tre 
famiglie dì modi propri. La prima ha on- 
de stazionarie ìn direzione verticale (dal 
pavimento al soffitto, per così dire): que- 
sti modi iniziano a frequenze elevate, a 
partire dai 945 hertz circa, e si presenta- 
no a intervalli armonici. 

Attraverso le soluzioni delle equazio- 
ni matematiche abbiamo trovato anche 
le altre due famiglie di modi della cavità 
d'aria: le soluzioni indicano che una fa- 
miglia provoca onde che si diffondono 
dalla coda del clavicembalo. Le onde 
vengono riflesse quando raggiungono la 
zona delle traverse ventrali, determinan- 
do onde stazionarie nella cavità. Questa 
famiglia comincia con frequenze piutto- 
sto basse e ì modi propri appaiono a in- 
tervalli regolari (ma non armonici) al di 
sopra della frequenza iniziale. 

La terza famiglia ha una superficie no- 



dale che corre lungo il centro della cavità 
d'aria. Sono sempre presenti creste e 
ventri, ma si presentano in coppie sulle 
due facce della superficie nodale, e sem- 
pre a una cresta si oppone un ventre. 

Le soluzioni matematiche ci hanno 
detto quali modi esistono nella cavità 
d'aria, ma per determinare l'intensità di 
questi modi è stato necessario effettuare 
misurazioni sperimentali. Abbiamo in- 
viato dei suoni nella cavità con un ecci- 
tatore acustico (una sorta di altoparlan- 
te) e raccolto le risonanze acustiche ri- 
sultanti nella cavità per mezzo di sei pic- 
coli microfoni. 

I dati raccolti indicano che i modi pro- 
pri di massima intensità erano quelli ri- 
flessi con forza al varco fra le traverse 
ventrali. A basse frequenze si presenta- 
va una piccola fuoriuscita, in particolare 
per il primo modo proprio, ma i modi più 
evidenti erano simili a quelli generati da 
un tubo acustico chiuso alle due estremi- 
tà. Questo significa che i modi della ca- 
vità d'aria non possono contribuire di- 
rettamente al suono che irradia dal cla- 
vicembalo. Questo non vuol dire però 
che ì modi dell'aria siano privi di impor- 
tanza: la presenza di questa aria può in- 
fluenzare il comportamento della tavola 
armonica (e di fatto lo influenza). 

Non sappiamo ancora con precisione 



120 HERTZ 



PRESSIONE 
DELLA SUPERFICIE 




PIANO MODALE 



330 HERTZ 




I modi dell'aria nella cavità del clavicembalo, mostrati qui per le 
frequenze dì 120 e 330 hertz, dipendono dal movimento della tavola 



armonica. L'aria non contribuisce direttamente al timbro, ma in- 
fluenza la tavola armonica fungendo da carico o da molla interna. 



74 le SCIENZE n. 272, aprile 1991 




483,8 HERTZ 



verso il basso Un viola). Le zone in cui la tavola non si muove sono 
dette nodi {in verde). Complessivamente sono stati scoperti 36 modi 



propri fra zero e 600 hertz (il sol più basso ha una frequenza di 50 
hertz; il la sopra il do centrale ha una frequenza di 440 hertz). 



come interagiscano aria e legno, anche 
se abbiamo informazioni sufficienti per 
collocare la maggior parte dei tasselli del 
rompicapo. Le corde non comunicano 
direttamente con la cavità d'aria: solo il 
movimento della tavola armonica può 
eccitare un modo dell'aria. L'aria però 
può intervenire in questo processo indi- 
rettamente, influenzando il movimento 
della tavola. La tavola armonica può ec- 
citare un modo dell'aria in assenza dì una 
propria risonanza, se può muoversi con 
un'ampiezza sufficiente a eccitare il pun- 
to caldo del modo dell'aria. 

I modi dell'aria possono influenzare la 
tavola anche comportandosi come un ca- 
rico o come una molla interna. Inoltre, 
si può verificare anche un accoppiamen- 
to fisico, se le forme dei modi della ta- 
vola e dell'aria sono simili e se le loro 
frequenze di risonanza sono vicine. Aria 
e tavola armonica insieme interagiscono 
sopprimendo talune frequenze ed esal- 
tandone altre. 

T~\a dove arriva dunque quel suono 
*^* brillante e caratteristico del clavi- 
cembalo? Dovremmo essere a questo 
punto in grado di rispondere alla doman- 
da. L'esecutore abbassa un tasto e mette 
in moto una corda, che assume un com- 
portamento vibratorio complesso, se- 
condo una figura costituita da una fon- 
damentale e motte parziali. La corda 
sposta poche molecole d'aria, sicura- 
mente non abbastanza da creare onde di 
pressione di ampiezza tale da essere udi- 
te facilmente dall'orecchio. Una parte 
irrilevante del suono che si percepisce 
giunge direttamente dalla corda vibran- 
te. Le corde, invece, trasmettono la loro 
energia alla tavola armonica, attraverso 
il ponte. Quest'ultimo funge da filtro se- 
lettivo, consentendo il passaggio alla ta- 
vola armonica solo di alcune tra le fre- 
quenze prodotte dalla corda vibrante. 
La tavola impone le sue caratteristiche 
alle frequenze che riceve, eliminandone 
alcune ed esaltandone altre. Anche l'a- 
ria nella cavità e gli elementi strutturali 
dello strumento contribuiscono a deter- 
minare le caratteristiche del suono inte- 
ragendo con la tavola armonica. 



Ciò che contribuisce di più al timbro 
del clavicembalo sono forse i numerosi 
modi propri che abbiamo identificato 
nei nostri esperimenti dì analisi modale. 
L'elevata densità modale della tavola ar- 
monica garantisce che un'alta percen- 
tuale delle parziali della corda vada a 
eccitare un modo della tavola o dell'aria, 
o di ambedue. 

Per esempio, se si suona il la più grave 
del clavicembalo, nota con frequenza 
fondamentale di 55 hertz, si eccitano ri- 
sonanze della tavola armonica con le pri- 
me tre parziali della corda, un modo del- 
l'aria con la nona parziale, e modi sia 
dell'aria sia della tavola con la quarta, la 
quinta , la sesta , e l'ottava parziale . Delle 
prime dieci parziali della corda del la 
grave, quindi, solo la settima e la decima 
non eccitano alcuna risonanza. Il timbro 
ricco e la pressione sonora generalmente 
uniforme del clavicembalo derivano di- 
rettamente dal gran numero di risonanze 
dell'aria e della tavola armonica eccitate 
dalle parziali della corda. 

Un'ultima fonte di colore contribuisce 
al timbro del clavicembalo: l'orec- 
chio umano. Una delle caratteristiche di 
un buon clavicembalo sono i bassi robu- 
sti , ma la fondamentale di una corda bas- 
sa non è particolarmente forte. Se lo fos- 
se, le vibrazioni della corda sarebbero 
molto ampie, e la corda stessa andrebbe 
a sbattere contro la tavola armonica e le 
altre corde. Come fa allora l'orecchio a 
percepire un basso nitido e potente? 

La risposta sta nel fenomeno psicofi- 
siologico che, con un termine preso a 
prestito dalla terminologia dall'elettro- 
tecnica, è chiamalo eterodina. Poiché le 
corde dei bassi hanno una struttura com- 
plessa di parziali molto pronunciate (le 
corde degli acuti sembrano oscillare con 
un minor numero di parziali rispetto alle 
corde dei bassi, perché la maggior parte 
delle parziali ad alta frequenza sta al dì 
sopra del limite massimo di udibilità), il 
cervello usa queste parziali per identifi- 
care le note basse del clavicembalo. 

Prendiamo per esempio ii sol basso sul 
clavicembalo, a una frequenza di circa 50 
hertz. La fondamentale è fisicamente 



presente nella corda vibrante, ma è una 
componente debole fra tutte le frequen- 
ze che raggiungono l'orecchio. Il cervel- 
lo, però, si rende conto che le parziali 
intorno a 100. 150, 200, 250 hertz e così 
via appartengono all'insieme delle fre- 
quenze strettamente correlate che costi- 
tuiscono il sol basso, e non ha alcun pro- 
blema a «darsi da sé» la frequenza a 50 
hertz. L'eterodina è lo stesso processo 
per cui si può riconoscere la voce pro- 
fonda di un amico anche se questi parla 
al telefono, un apparecchio il cui alto- 
parlante è troppo piccolo per vibrare in- 
tensamente alte frequenze più basse di 
una voce umana. 

L'orecchio produce anche un altro ti- 
po di coloritura. Il meccanismo uditivo 
percepisce molto bene le note alte degli 
strumenti, ma nel registro basso è poco 
effici en le . Pe r co m pe nsare , gli st ru me n t i 
musicali usano molta più energia per 
produrre i suoni gravi che non per quelli 
acuti. Per esempio, un clavicembalo di 
buona costruzione genera più potenza 
nei bassi che negli acuti. Cosa interes- 
sante, il risultato netto è una percezione 
omogenea di livello sonoro su tutta l'e- 
stensione dello strumento. 

Non si può dunque che ammirare lo 
squisito equilibrio fra corda, legno, aria, 
orecchio e cervello a cui diamo il nome 
di «suono» del clavicembalo. 



RIBI.HK.RU l\ 
KOTTICK EDWARD L., The AcOUStWSof 

the Harpsichord: Response Curves and 
Modes of Vibration in «The Galpin So- 
ciety Journal», 37, pp. 55-77, 1985. 

SAVAGE W. R.. KOTTICK E. L., HEN- 
DKK'KSON T. J. e MARSHALL K. D., 
Acouslical Analysis of a Harpsichord in 
«Journal of the Acouslical Society of 
America» (in stampa). 
Inoltre per ì lettori italiani segnaliamo: 

Il clavicembalo, EDT, Torino, 1984. 

SAINT-LAMBERT MICHEL de, / principi 

del clavicembalo. Bardi, Roma, 1986. 



lescienze n, 272, aprile 1991 75 



IPOTESI SULL'ORIGINE DELLA VITA 





Dopo decenni di esperimenti e controversie. 

il problema di quando, dove e soprattutto come 

la vita sia apparsa sulla Terra 

è più che mai aperto. 



trentotto anni fa, quello che può essere considerato il più grande 
mistero su cui gli scienziati sì siano mai arrovellati - l'origine 
della vita - sembrava aver trovato soluzione grazie a un sem- 
plice esperimento: Stanley L. Miller, un neolaureato ventitreenne 
dell'Università di Chicago, aveva riprodotto con un'apparecchiatura 
sperimentale da lui stesso ideata le condizioni primordiali delia Terra. 
In un pallone di vetro aveva posto alcuni litri di metano, ammoniaca 
e idrogeno (l'atmosfera), e acqua (gli oceani); mentre una serpentina 
di riscaldamento faceva ribollire l'acqua, un generatore di scariche 
elettriche simulava fulmini. 

In pochi giorni l'acqua si riempì di una sostanza appiccicosa e 
rossastra che rivestiva tutta la superficie del recipiente. Analizzatala, 
Miller trovò con soddisfazione che era ricca di amminoacidi, quei 
composti organici che, legandosi tra loro in proteine, costituiscono la 
materia prima della vita, I risultati di Miller, pubblicati su «Science» 
in un articolo di un paio di pagine, sembrarono fornire una prova 
straordinaria del fatto che la vita potrebbe essersi sviluppata in se- 
guito a semplici reazioni chimiche in un «brodo primordiale». 

1 luminari del momento ipotizzarono che entro breve tempo scien- 
ziati come il dottor Frankenstein di Mary Shelley avrebbero potuto 
ottenere nei loro laboratori organismi viventi e descrivere così nei 
particolari le tappe attraverso cui ha avuto origine la vita. Le cose 
però non sono andate così, «Il problema dell'orìgine della vita - dice 
Miller, oggi professore di chimica all'Università della California a 
San Diego - si è rivelato ben più complesso di quanto io e molti altri 
potessimo immaginare.» 

Naturalmente dal 1953 a oggi vi sono stati progressi. In quello stesso 
anno, infatti, James D. Watson e Francis H.C, Crick decifrarono la 
struttura dell'acido desossiribonucleico (DNA), il cui filamento a dop- 
pia elica porta l'informazione necessaria alla cellula per costruire e 
organizzare le proteine. Nei decenni successivi esperimenti analoghi 
a quello compiuto da Miller hanno indicato il modo in cui i nucleotidi, 
che formano il DNA, e gli amminoacidi, che formano le proteine, 
potrebbero essersi sintetizzati in condizioni prebiotiche. Questi com- 
posti organici si sarebbero potuti accumulare in vari corpi idrici: in 
una piccola pozza calda, come aveva ipotizzato Charles Darwin in 
una sua lettera, o in pozze di marea o in mari poco profondi. 



// rat ionio scientifico della genesi inizia 4,5 miliardi di anni fa con la condensatone 
del sistema solare da una nube di gas e polvere fa. h). I campasti organici 
potrebbero essere stati portati sulla Terra da meteoriti (L) a essere stati sintetizzati 
nell'atmosfera fdj . in pozze di marea (e) o in sorgenti idrotermali nelle profondità 
oceaniche (f). Queste sostanze si sarebbero combinate in campasti organici più 
compie \\i, come le proteine e gii acidi n nettici t g/ . Gii impatti metearitici e un soffocante 
effetto serra causato dall'anidride carbonica emessa dai vulcani potrebbero 
aver re™ la superficie terrestre inadatta alla vita fino a 3,H miliardi di anni fa. 
\ta 3 A miliardi di anni fa - 300 milioni d'anni in più n in menu - erano già comparsi 
batteri fotosintetici simili alle alghe azzurre fh>. Talvolta questi organismi primitivi 
formavano, lungo le rive di mari paco profondi, fitte montagnole fi), le stmmaioliti. 



n sciexji n. 272. aprii* 1991 




Simile) L. Miller e ritratto accanto a una copia dell'apparecchio da lui utilizzato nei 1953 
p«r dimostrare come gli amminoacidi avrebbero potuto formarsi sulla Terra primordiale. 



Alcuni esperimenti condotti all'inìzio 
degli anni ottanta parvero completare il 
quadro. Essi rivelarono come l'acido ri- 
bonucleico o RNA (una molecola a sin- 
golo filamento che affianca il DNA nella 
produzione delle proteine) potrebbe es- 
sere in grado di autoreplicarsi (cioè di 
produrre copie di se stesso) senza l'inter- 
vento di enzimi. Alcuni studiosi ne con- 
clusero che i primi organismi dovessero 
essere costituiti di RNA e che un antico 
«mondo a RNA» dovesse aver rappre- 
sentato un ponte tra la chimica dei com- 
posti semplici e i prototipi di quelle cel- 
lule complesse, basate sul DNA. che tro- 
viamo negli organismi attuali. In base 
alle testimonianze fossili, queste cellule 
sarebbero comparse durante il primo 
miliardo di anni che segui la formazione 
della Terra: evento, questo, collocabile 
intorno a 4,5 miliardi di anni fa. 

Sebbene questo scenario sia ormai 
universalmente accettato nei libri di te- 
sto, esso è stato messo di recente in seria 
discussione. Esperimenti relativi all'ipo- 
tesi del «mondo a RNA» hanno dimo- 
strato da un lato che è difficile sintetiz- 
zare l'RNA in condizioni analoghe a 
quelle che probabilmente dominavano 
quando ebbe inizio la vita e dall'altro che 
questa molecola non può produrre con 
facilità copie di se stessa. 

A peggiorare le cose hanno contribui- 
to scoperte recenti, in base alle quali si 
può dedurre che la vita avrebbe avuto 
inizio in un ambiente molto meno ospi- 
tale di quello riprodotto da Miller. Forse 
l'atmosfera primordiale non conteneva 
metano e ammoniaca, come aveva inve- 
ce supposto Miller: potrebbe dunque es- 
sere stata tutt'altro che favorevole alla 
sintesi dei composti organici indicata dal 
suo esperimento. Gli studi dei crateri lu- 
nari, inoltre, indicano che anche la Ter- 
ra, come la Luna, sarebbe stata ripetu- 



tamente devastata dagli urti di enormi 
meteoriti e comete. «E come se la vita 
fosse iniziata in una violenta tempesta e 
non in una piccola pozza calda» dice 
Christopher P. McKay, che lavora pres- 
so l'Ames Research Center della NASA 
in California. 

Messa in crisi la teoria tradizionale, ne 
sono state avanzate ben presto molte al- 
tre, alcune nuove, altre riciclate. L'os- 
servazione di composti organici presenti 
nelle meteoriti e nelle comete ha portato 
a pensare che le «materie prime* neces- 
sarie al sorgere della vita potrebbero es- 
sere giunte sulla Terra dallo spazio ester- 
no. Le versioni più spìnte di questa teo- 
ria sostengono l'arrivo dallo spazio non 
solo di inanimati composti organici, ma 
addirittura di organismi completi. Se- 
condo alcuni ricercatori, che pure so- 
stengono che la vita ha avuto origine sul- 
la Terra, potremo sperare di compren- 
dere meglio tale evento se e quando sarà 
possibile far riferimento a un altro tipo 
di informazione, per esempio trovando 
vita altrove, forse su Marte o addirittura 
in un altro sistema solare. 

Altri sostengono invece che la vita non 
è iniziata nelle profondità dello spazio o 
nelle acque superficiali della Terra, ma 
in bocche idrotermali (sorgenti calde) 
nelle profondità oceaniche. Secondo i 
fautori di questa posizione, queste sor- 
genti potrebbero aver fornito protezione 
e il flusso costante di energia e di sostan- 
ze nutritive necessario alla vita. Forse la 
teoria più recente, e anche la più pro- 
mettente agli occhi di alcuni ricercatori 
che studiano da tempo questo problema, 
viene da un avvocato tedesco che se ne 
occupa per hobby. Egli propone che la 
vita sia iniziata sotto forma di una pelli- 
cola gommosa sulla superficie di cristalli 
di pirite. 

Nessuna di queste teorie è tanto cre- 



dibile da poter essere considerata come 
un nuovo paradigma ma, d'altra parte, 
nessuna di esse è stata finora dimostra- 
ta falsa, e ciò infastidisce Miller, un per- 
sonaggio noto per essere un rigoroso 
sperimentatore, ma anche una persona 
piuttosto intransigente. Egli sostiene che 
alcune teorie non meritano neppure di 
essere prese in considerazione: definisce 
«perdente» la teoria della materia orga- 
nica proveniente dallo spazio, «spazza- 
tura» l'ipotesi delle sorgenti idrotermali 
e «chimica da tavolino» la teoria della 
pirite. Questo modo di procedere, pro- 
testa Miller, alimenta la convinzione che 
dell'origine della vita si interessi una 
frangia marginale del mondo scientifico, 
in quanto disciplina non degna di una 
ricerca seria. 

Altri, pur ammettendo che tutte le 
teorie hanno dei punti deboli, vedono 
con maggior favore tutta questa attività, 
«Sono entusiasta in quanto abbiamo nel 
calderone ogni sorta di nuovi ingredien- 
ti» dice James P. Ferris del Rennselaer 
Polytechnie Institute, che dirige il perio- 
dico «Origins of Life and Evolution of 
the Biosphere». Presto o tardi, Ferris ne 
è convinto, una descrizione convincente 
dell'origine della vita è destinata, magari 
un poco per volta, a saltar fuori. 

La costruzione di un Boeing 747 

Secondo alcuni scienziati, dato un 
tempo sufficiente, anche eventi appa- 
rentemente miracolosi divengono possi- 
bili, e così può essere accaduto anche per 
la comparsa spontanea di un organismo 
unicellulare da una casuale combinazio- 
ne di composti chimici. Già Fred Hoyle, 
l'eccentrico astronomo britannico, ha 
affermato che un simile evento è tanto 
probabile quanto il montaggio di un 
Boeing 747 per opera di un tornado che 
attraversi un deposito di rottami. 

La maggior parte dei ricercatori è 
d'accordo con Hoyle su questo punto 
(anche se su ben poche altre cose). Una 
convinzione che viene condivisa quasi da 
tutti è che la materia deve aver preso vita 
attraverso una serie di tappe, nessuna 
delle quali eccessivamente improbabile. 
Come per molte altre questioni biologi- 
che, questa interpretazione risale a Dar- 
win; egli ipotizzò che la vita abbia avuto 
inizio quando alcune sostanze attivate 
dal calore, dalla luce o da scariche elet- 
triche cominciarono a reagire con altre, 
generando composti organici di com- 
plessità via via crescente. (Darwin sug- 
gerì persino una spiegazione del perché 
oggi non si possa osservare la vita balzar 
fuori da sostanze inanimate: un qualsiasi 
organismo primitivo, scrisse, verrebbe 
istantaneamente distrutto o assorbito da 
quelli più evoluti.) 

La versione corrente della teoria so- 
stenuta da Miller e da altri è anch'essa 
esprimibile in termini darwiniani. La vi- 
ta ebbe inizio - essi sostengono - nel mo- 
mento in cui qualche composto o una 
intera classe di composti acquisì la capa- 



cità di copiare se stesso secondo un pro- 
cesso tale da poter dare origine di tanto 
in tanto a «errori» ereditabili. Questi er- 
rori produssero in alcuni casi generazio- 
ni di molecole in grado di replicarsi con 
maggior efficienza rispetto ai loro prede- 
cessori. Voilà: ecco spiegata l'evoluzio- 
ne e così la vita! 

Negli anni che seguirono il classico 
esperimento di Miller, le proteine sem- 
brarono essere i migliori candidati al 
ruolo di prime molecole autoreplicanti- 
si, dal momento che erano considerate 
capaci di riprodursi e anche di organiz- 
zarsi. Ulteriore sostegno a questa ipotesi 
venne, fin dalla fine degli anni cinquan- 
ta, dagli esperimenti di Sidney W. Fox, 
ora alla Southern Illinois University. Ri- 
scaldando ripetutamente degli ammi- 
noacidi e successivamente sciogliendoli 
in acqua, ne provocò l'aggregazione in 
minuscole sfere costituite da brevi cate- 
ne proteiche. Fox sosteneva, e continua 
a sostenere tuttora, che questi «protei- 
no idi» costituiscono le prime cellule, ma 
il suo lavoro ha perduto credito presso 
molti scienziati. «Una volta formati, i 
proteinoidi rimangono tali - dice Gerald 
F. Joyce del Research Institute della 
Scripps Clinic. - Non possono riprodursi 
né evolvere.» Diversi altri ricercatori, 
in particolare Cyril A. Ponnamperuma 
dell'Università del Maryland a College 
Park, sono comunque ripartiti proprio 
dal punto in cui Fox aveva lasciato il di- 
scorso in sospeso, tentando di ottenere 
proteine in grado di formarsi e di ri- 
prodursi senza l'intervento degli acidi 
nucleici. 

Prima l'uovo o la gallina? 

Oggi molti ricercatori ritengono che 
gli acidi nucleici siano candidati molto 
plausibili al ruolo di prime molecole au- 
toreplicantisì. Gli studi di Watson e 
Crick e di altri scienziati hanno dimo- 
strato che le proteine vengono prodotte 
in base alle istruzioni codificate nel 
DNA. Ma esiste una difficoltà: il DNA 
non può svolgere i propri compiti, com- 
presa la formazione di ulteriore DNA, 
senza l'aiuto di proteine catalizzatrici, gli 
enzimi. In sostanza, le proteine non si 
possono formare senza il DNA, ma nep- 
pure il DNA può formarsi senza le pro- 
teine. Per coloro che studiano l'origine 
della vita, questo è il classico problema 
dell'uovo e della gallina: che cosa si è 
formato prima, le proteine o il DNA? 

Esperimenti svolti all'inizio degli anni 
ottanta dai biologi molecolari Thomas 
R. Cech dell'Università del Colorado a 
Boulder e Sidney Altman della Yale 
University sembrano fornire una rispo- 
sta, che ancora una volta chiama in causa 
l'RNA, Si era già ipotizzato che l'RNA 
possa essere stata la prima molecola in 
grado di autoreplicarsi, ma nessuno ave- 
va dimostrato in che modo essa riesca a 
replicarsi efficientemente senza l'aiuto 
di enzimi. Cech e Altman scoprirono che 
certi tipi di RNA potevano comportarsi 



come enzimi verso se stessi, tagliandosi 
in due e ricucendosi nuovamente. 

L'importanza di questa scoperta, per 
la quale a Cech e ad Altman venne asse- 
gnato il premio Nobel nel 1989, fu subito 
colta dai ricercatori interessati al proble- 
ma dell'origine della vita: se l'RNA può 
agire come enzima, potrebbe anche re- 
plicarsi senza l'aiuto di proteine . L' RN A 
potrebbe fungere sia da gene sia da ca- 
talizzatore, da uovo e da gallina. 

Walter Gilbert, biologo della Harvard 
University, introdusse nel 1986 il termi- 
ne «mondo a RNA» e ancor oggi egli 
resta un sostenitore entusiasta di questa 
teoria. E sua opinione che i primi orga- 
nismi consistessero di semplici molecole 
di RNA autoreplica n tisi. Evolvendosi, 
essi impararono a sintetizzare proteine 
che potevano aiutarli a replicarsi più ra- 
pidamente e lipidi che potevano formare 
una membrana cellulare. In un momen- 
to successivo questi organismi «di RNA» 
formarono le prime molecole di DNA 
che avrebbe rappresentato un più sicuro 
deposito di informazione genetica. 

I biologi hanno avuto un certo succes- 
so nel riprodurre in laboratorio i diver- 
si momenti di questo «dramma stori- 
co» molecolare. Per esempio, Jack W. 
Szostak e altri ricercatori del Massa- 
chusetts General Hospital hanno co- 
strutto speciali molecole di RNA capaci 
di agire come enzimi, ossia di tagliare e 
poi saldare tra loro diverse molecole, lo- 
ro stesse incluse, per più volte di seguilo. 
Gli «enzimi» di RNA erano invece ini- 
zialmente limitati a prestazioni non ripe- 
titive, Szostak sta anche cercando di di- 
mostrare in che modo alcuni RNA po- 
trebbero essere stati inglobati in una 
membrana. 

Altri studiosi, e in particolar modo 
Manfred Eigen del Max Planck Institut 
fiir Biophysikalische Chemie di Gottin- 
ga, hanno esaminata uno stadio verosi- 
milmente successivo di questa vicenda 
che ha come protagonista l'RNA. I lo- 
ro esperimenti dimostrano come questa 
molecola, con l'aiuto di enzimi e di altri 
supporti fomiti dagli sperimentatori, sia 
capace di adattarsi e di evolversi. Questo 
effetto, chiamato «evoluzione diretta», 
è stato accolto come metodo potenzial- 
mente in grado di generare nuovi com- 
posti biologici. 

A mano a mano che ì ricercatori pro- 
seguono nell'esaminare attentamente il 
concetto di «mondo a RNA», emergono 
tuttavia ulteriori problemi. Come si è 
formato l'RNA? Questa molecola e i 
suoi componenti sono difficili da sinte- 
tizzare in laboratorio anche nelle miglio- 
ri condizioni sperimentali; a maggior ra- 
gione lo saranno stati nelle condizioni 
prebiotiche, quali almeno noi ce le im- 
maginiamo. Per esempio, il processo at- 
traverso cui si forma il ribosio, uno 
zucchero che è un ingrediente chiave 
del l'RNA, produce anche una serie di 
altri zuccheri che potrebbero inibire la 
sintesi dello stesso RNA. Inoltre nessu- 
no ha ancora trovato una spiegazione 



L'EVOLUZIONE ATTRAVERSO 
UN MONDO A RNA 




L'RNA si forma dal ribosio 
e da altri composti organici. 




Evolvendo, le molecole di RNA 
«imparano» a replicarsi. 




Le molecole di RNA iniziano 
a sintetizzare proteine che 
possono servire da catalizzatori. 




Le proteine, oltre ad aiutare 
l'RNA a replicarsi e a sintetizzare 
proteine con più efficienza, fanno 
sì che l'RNA costruisca versioni 
a doppio filamento di se stesso 
che poi evolveranno in DNA. 




Il DNA si afferma: utilizza l'RNA 
per costruire proteine che, a loro 
volta, aiutano il DNA a produrre 
copie di se stesso e a trasferire 
l'informazione genetica all'RNA. 



80 le scienze n. 272, aprile 1991 



le scienze n. 272, aprile 199 1 81 




Questi fossili risalenti all' incirca a 3,5 miliardi di anni fa sono una 
fila di cellule che rassomiglia agli attuali cianobatteri o alghe az- 
' (a sinistra) e una stromatoiite {ai centro); entrambi proven- 



gono da siti dell'Australia occidentale. Formazioni stronutoliticbe 
si possono osservare ancora oggi sulle coste dell'Australia i a destra ) 
e in altre località che si affacciano su mari caldi e poco profondi. 



soddisfacente di come il fosforo, un e- 
lemento relativamente raro in natura, 
sia diventato un ingrediente così fonda- 
mentale nella formazione dell'RN A (e 
del DNA). 

Una volta sintetizzato, l'RNA può 
produrre nuove copie di se stesso solo 
con un sostanzioso aiuto da parte degli 
scienziati, dice Joyce della Scripps Cli- 
nic. «È una molecola inetta - spiega - 
specialmente se viene paragonata alle 
proteine.» Leslie E. Orge! del Salk In- 
sti tute for Biologica] Studio», che forse 
più di qualsiasi altro scienziato ha esplo- 
rato lo scenario di questo mondo a 
RNA, concorda con Joyce. Gli esperi- 
menti che simulano i primi stadi del 
mondo a RNA sono troppo complicati 
per rappresentare uno scenario plausibi- 
le per l'origine della vita, dice Orgel; e 
aggiunge: «Occorre che un mucchio e- 
norme di cose vada nel modo giusto e 
nessuna in quello sbagliato.» 

Orgel è giunto alla conclusione che 
qualche molecola più semplice, e forse 
del tutto diversa, possa aver preparato 
la strada all'RNA. L'identificazione di 
questo composto non sarà facile. La chi- 
mica degli acidi nucleici, sottolinea Or- 
gel, è oggi ben conosciuta; quando però 
ci sì spinge fuori da questo regno, occor- 
re in pratica ripartire da zero, e non è 
cosa da poco. 

Alcuni ricercatori si sono già avventu- 
rati in questa terra sconosciuta. La scor- 
sa estate un gruppo coordinato da Julius 
Rebek, Jr.„ chimico del Massachusetts 
Institute of Technology, creò un certo 
subbuglio annunciando di aver sintetiz- 
zato una nuova molecola organica in gra- 
do di replicarsi, costituita da due com- 
ponenti che, da un punto di vista chimi- 
co, assomigliano sia alle proteine sia agli 
acidi nucleici. Poste in una soluzione di 
cloroformio contenente i necessari in- 
gredienti molecolari, queste molecole 
possono servire da stampo per la forma- 
zione di nuove molecole della stessa 
specie. 

Secondo Joyce, gli esperimenti di Re- 
bek hanno due inconvenienti: le mole- 
cole si replicano solo in condizioni estre- 



mamente artificiali, innaturali, e, cosa 
ancora più importante, si riproducono 
troppo accuratamente. Senza mutazioni 
le molecole non possono evolvere nel 
senso darwiniano del termine. Orgel è 
dello stesso avviso: «Ciò che Rebek ha 
compiuto è molto ingegnoso - dice - ma 
non vedo la sua importanza per l'origine 
della vita.» 

In realtà, sebbene voci recenti ripor- 
tate sulla stampa facciano pensare che 
Szostak, Rebek e altri siano a un passo 
dal generare «la vita in provetta» (un ar- 
ticolo riguardante Rebek su «Discover» 
era intitolato: Urrah! È vivoff), a molti 
questo traguardo sembra più che mai di- 
stante. «Il più semplice batterio è cosi 
maledettamente complicato dal punto di 
vista di un chimico, che è quasi impossi- 
bile immaginare come si sia formato» di- 
ce Harold P. Klein della Santa Clara 
University, presidente del comitato del- 
la National Academy of Sciences che re- 
centemente ha passato in rassegna tutti 
i programmi di ricerca sull 'origine della 
vita, concludendo che è necessaria una 
quantità di ricerca molto maggiore. 

Anche se gli scienziati in laboratorio 
creassero qualcosa dotato di proprietà 
simili alla vita, rimarrebbe comunque 
in sospeso la domanda: è proprio cosi 
che andarono le cose? Rispondere a que- 
sto interrogativo sarà straordinariamen- 
te difficile dal momento che la tettonica 
delle zolle, il vulcanismo e l'erosione 
hanno cancellato la maggior parte delle 
tracce risalenti al primo miliardo di anni 
della Terra. Per stimare l'età del nostro 
pianeta, per esempio, ci si deve rivolgere 
alle meteoriti, che si presume siano re- 
litti dell'era in cui il sistema solare si con- 
densò da una nube di gas e polvere. Il 
tasso di decadimento radioattivo osser- 
vato nelle meteoriti indica che esse, e 
cosi la Terra, hanno approssimativa- 
mente un'età di 4,5 miliardi di anni. 

Gli scarti della Terra 

Naturalmente, per stabilire in quali 
condizioni abbia avuto origine la vita è 
necessario sapere in che epoca sia com- 



parsa. Un tempo gli scienziati riteneva- 
no che dovessero essere trascorsi miliar- 
di di anni perché la Terra arrivasse a 
ospitare la vita. Infatti i fossili riferibili a 
organismi pluricellulari - dalle trilobiti 
all'uomo di Neandertal - ci consentono 
di risalire solo fino a 600 milioni d'anni 
fa. (Homo sapiens è comparso meno di 
un milione di anni fa.) Negli ultimi de- 
cenni, però, i paleontologi hanno sco- 
perto che prima della comparsa degli or- 
ganismi pluricellulari la Terra è stata po- 
polata per miliardi di anni da creatu- 
re semplici come le alghe, o «scarti del- 
le pozze» come le chiama J. William 
Schopf dell'Università della California a 
Los Angeles, un'autorità nel campo dei 
fossili più antichi. 

I dati raccolti da Schopf e altri dimo- 
strerebbero in maniera inequivocabile 
che la vita era già presente sulla Terra 
almeno 3,5 miliardi d'anni fa. Queste 
prove consistono in due serie di fossili 
provenienti da siti dell'Australia e del 
Sudafrica, la cui età è stata stabilita at- 
traverso metodi di datazione con radio- 
elementi. Una prima serie è costituita da 
rocce bitorzolute, di color bruno-ver- 
dastro, che una volta erano stromatoliti, 
ossia densi agglomerati di organismi uni- 
cellulari i quali anche oggi si formano in 
acque calde e tranquille in diversi luoghi 
della Terra. Gli altri fossili sono le im- 
pronte microscopiche di file di cellule 
rassomiglianti agli attuali cianobatteri 
(chiamati anche alghe azzurre). Secondo 
Schopf, anche questi organismi antichis- 
simi, al pari dei cianobatteri, si avvale- 
vano probabilmente del processo foto- 
sintetico ed eliminavano l'ossigeno come 
prodotto dì scarto. 

C'è almeno uno studioso, Manfred 
Schidlowski del Max Planck Institut fur 
Chemìe di Magonza. che ritiene di aver 
trovalo la prova dell'esistenza di organi- 
smi fotosintetici in tempi ancor più re- 
moti. Questa prova è rinvenibile in rocce 
sedimentarie parzialmente metamorfo- 
sate, datate 3,8 miliardi di anni e prove- 
nienti da Isua in Groenlandia. Sono le 
rocce più antiche della Terra, e hanno 
molto da raccontare. (Per inciso, il re- 



82 le scienze n. 272, aprile 199 1 



cord assoluto di antichità è detenuto da 
cristalli di zircone provenienti dall'Au- 
stralia e datati a 4,2 miliardi d'anni fa, 
ma essi sono «muti» per quanto riguarda 
il passato.) La natura sedimentaria del- 
ie rocce di Isua rivela la presenza di 
acqua allo stato liquido, uno dei prere- 
quìsiti necessari all'esistenza di forme 
di vita. Secondo Schidlowski, il contenu- 
to in carbonio delle rocce indica anche 
che organismi fotosintetici, che predili- 
gono alcuni isotopi del carbonio rispetto 
ad altri, devono averle «contaminate». 

Questo tentativo di e- 
stendere il dato fossile an- 
cor più indietro nel tempo 
è stato accolto con un cer- 
to scetticismo. David J. 
Des Marais dell' Ames Re- 
search Center della NASA 
è convinto che le tracce di 
carbonio nelle rocce di I- 
sua siano troppo poco con- 
sistenti per essere corret- 
tamente interpretate. Ro- 
ger Buick, un paleontolo- 
go australiano che lavora 
alla Harvard University, 
ritiene che con lo stesso 
scetticismo si dovrebbero 
considerare anche le stro- 
matoliti e ì microfossili di 
3,5 miliardi d'anni che, a 
differenza delle rocce di 
Isua, vengono da alcuni 
considerati come le prime 
tracce di vita sulla Terra. 
Le stromatoliti potrebbero 
essere sedimenti deforma- 
ti da processi geologici - di- 
ce Buick - e i microfossili 
gli appaiono come «picco- 
le tracce di escrementi». Li 
chiama «fossili dubbi». Se- 
condo Buick i primi fossili 
che mostrino con chiarez- 
za una struttura cellulare 
risalgono solo a 3,1 o 3,2 
miliardi di anni fa. 

Altri esperti sui cosid- 
detti fossili arche ani, fra 
cui Donald R. Lowe della 
Stanford University, riten- 
gono che Buick, e forse 
anche Des Marais, siano 
troppo scettici. Anche se i 
singoli esemplari fossili so- 
no ambigui - dice Lowe - 
nel loro complesso sugge- 
riscono che la vita 3,5 mi- 
liardi di anni fa doveva es- 
sere «diffusa, diversificata e complessa» 
e che probabilmente doveva essere bene 
avviata già 3,8 miliardi d'anni fa. Se que- 
sto scenario è corretto, ne consegue che 
la vita deve essersi evoluta e deve essere 
sopravvissuta in circostanze avverse e 
talvolta anche molto sfavorevoli. 

Dall'analisi dei crateri lunari, una spe- 
cie di messaggio in scrittura Braille che 
documenta la frequenza degli impatti 
che si verificavano nel sistema solare ap- 
pena formatosi, due gruppi di ricercatori 



guidati rispettivamente dai geofisici Da- 
vid J. Stevenson del California Institute 
of Technology e Norman H. Sleep della 
Stanford University un paio d'anni fa 
hanno concluso, indipendentemente l'u- 
no dall'altro, che le meteoriti e le comete 
cadute sulla Terra potrebbero aver co- 
stituito per centinaia di milioni di anni 
un impedimento alla comparsa della vi- 
ta. Molti dei «proiettili» sarebbero stati 
assai più grandi di quella meteorite di 10 
chilometri dì diametro che, secondo al- 
cuni, avrebbe provocato l'estinzione dei 




Per la ricchezza di sostanze nutritive e l'ambiente protetto le bocche 
idrotermali che si aprono nelle profondità oceaniche potrebbero esse- 
re state il luogo ideale per la comparsa delle più antiche forme dì vita. 



dinosauri alla transizione tra Cretaceo e 
Terziario, 65 milioni di anni fa. 

L'impatto di corpi di grandi dimensio- 
ni - dice Sleep - avrebbe originato un 
calore sufficiente a portare in ebollizione 
la superficie degli oceani e forse anche a 
farli evaporare completamente. Le col- 
lisioni avrebbero anche scagliato nell'at- 
mosfera enormi nubi di polvere e roccia 
fusa. Le implicazioni di queste ipotesi 
sono drammatiche: nel migliore dei casi 
gli impatti avrebbero distrutto ogni ini- 



ziale forma di vita presente sulla terra- 
ferma o in prossimità della superficie 
degli oceani fino a 3,8 miliardi di anni 
fa; particolarmente vulnerabili sarebbe- 
ro state le forme di vita dipendenti dalla 
fotosintesi. 

Sembra probabile, inoltre, che duran- 
te questo periodo la composizione del- 
l'atmosfera non fosse favorevole alla sin- 
tesi di composti organici come invece si 
credeva. Questo punto di vista tradizio- 
nale era stato propugnato all'inizio de- 
gli anni cinquanta da Harold C. Urey 
dell'Università di Chica- 
go, premio Nobel per la 
chimica. Egli presuppone- 
va che l'atmosfera primor- 
diale fosse riducente, ossia 
ricca di gas contenenti i- 
drogeno come metano e 
ammoniaca, che sono en- 
trambi abbondanti su Sa- 
turno, Giove e Urano. Fu 
il lavoro di Urey a indur- 
re Miller, suo studente, 
a effettuare l'esperimento 
del 1953. 

Durante gli ultimi 10 an- 
ni sono però sorti alcuni 
dubbi circa le ipotesi sul- 
l'atmosfera dì Urey e Mil- 
ler. In base agii esperimen- 
ti di laboratorio e alle ri- 
costruzioni al calcolatore 
dell'atmosfera compiuti da 
James C. G. Walker del- 
l'Università del Michigan 
ad Ann Arbor e da altri, le 
radiazioni solari ultravio- 
lette, che oggi sono blocca- 
te dallo strato dì ozono, 
avrebbero distrutto le mo- 
lecole contenenti idroge- 
no presenti nell'atmosfe- 
ra. L'idrogeno libero sa- 
rebbe così sfuggito nello 
spazio. 

Questi risultati fanno ri- 
tenere che i componenti 
più abbondanti dell'atmo- 
sfera fossero anidride car- 
bonica e azoto, espulsi dai 
vulcani. Questo tipo di at- 
mosfera non sarebbe stato 
favorevole alla sintesi di 
amminoacidi e di altri pre- 
cursori delle molecole ca- 
ratteristiche della materia 
vivente. Secondo i calcoli 
di James F. Kasting, del- 
la Pennsylvania State Uni- 
versity, l'anidride carbonica potrebbe 
anche aver creato un effetto serra così 
spìnto che la temperatura alla superficie 
della Terra avrebbe raggiunto quasi il 
punto di ebollizione dell'acqua. 

Tuttavia il modello dell'atmosfera ri- 
ducente ha ancora i suoi sostenitori. Mil- 
ler, per nominarne uno, fa osservare che 
fumo e nubi potrebbero aver protetto i 
gas contenenti idrogeno dalle radiazioni 
ultraviolette. «Vi sono molti studiosi - 
egli dice - che servendosi di modelli ma- 



le scienze n. 272, aprile 1991 83 



tematici affermano che nell'atmosfera 
primordiale non vi era metano, ma non 
dispongono di dati concreti a soste- 
gno. » Un lavoro recente svolto da ricer- 
catori dell'Università di Yokohama sem- 
bra dare conferma alla posizione di Mil- 
ler. Gli scienziati giapponesi affermano 
che particelle di origine solare e raggi 
cosmici potrebbero aver favorito la sin- 
tesi di idrogeno libero - e, di conseguen- 
za, di metano e ammoniaca - provocan- 
do la dissociazione di molecole d'acqua, 

Le ricerche sugli impatti 
di meteoriti e sull'atmosfe- 
ra, combinate con la con- 
vinzione che gli organismi 
primitivi risalgano almeno 
a 3,8 miliardi di anni fa. 
hanno portato tuttavia al- 
cuni studiosi a supporre 
che la vita non sia nata in 
torbide pozze di marea sul- 
la superficie della Terra, 
ma nelle profondità degli 
oceani. Alla fine degli an- 
ni settanta vennero sco- 
perte nelle profondità o- 
ceaniche, vicino alle isole 
Galapagos, diverse bocche 
idrotermali, le quali ali- 
mentano comunità bioti- 
che di vermi tubicoli, bi- 
valvi e batteri la cui fonte 
primaria di energia non è 
la luce, ma composti dello 
zolfo emessi da queste sor- 
genti. Da allora sono state 
individuate decine di boc- 
che idrotermali di questo 
tipo, generalmente nelle 
vicinanze delle dorsali sot- 
tomarine che si formano 
tra due zolle tettoniche. 

Uno dei più autorevoli 
sostenitori della teoria se- 
condo cui le bocche idro- 
termali sottomarine sareb- 
bero il luogo di origine del- 
la vita è John B. Corliss 
del Goddard Space Flight 
Center della NASA, mem- 
bro del gruppo che scopri 
le prime sorgenti. Secondo 
Corliss le bocche idroter- 
mali potrebbero aver for- 
nito l'energia e le sostanze 
nutritive necessarie per o- 
riginare e mantenere la vi- 
ta. L'interno delle bocche, 
egli afferma, sarebbe an- 
che stato protetto da eventi dannosi, ec- 
cettuati gli impatti di oggetti extraterre- 
stri molto grandi oppure le collisioni di- 
rette, (Secondo Corliss le specie che at- 
tualmente vìvono nelle bocche idroter- 
mali o che popolano le acque circostanti 
relativamente fredde sono arrivate suc- 
cessivamente e non sono quindi discen- 
denti dirette degli esseri originari.) 

Una prova importante a favore dell'i- 
potetico ruolo delle bocche idrotermali 
sottomarine deriva da studi condotti su 
molte specie di organismi unicellulari da 

84 LE scienze n, 272, aprile 1991 



Cari R, Woese dell'Università dell'I Di- 
no is a Urbana- Champaign. Confrontan- 
do l'assetto genetico di queste forme vi- 
venti, Woese ha identificato una classe 
di microrganismi - da lui chiamati ar- 
cheobatteri - che sembrano aver subito 
nel tempo un minor numero di cambia- 
menti evolutivi rispetto a ogni altra spe- 
cie vivente. Tutti gli archeobatteri pre- 
feriscono ambienti caldi; alcuni possono 
sopravvivere a una temperatura anche di 
120 gradi Celsius. Certe specie preferi- 




Gùnter Wàchtershàuser. un legale di Monaco di Baviera che sì occu' 
pa di brevetti, si dedica nel tempo libero a studiare l 'origine della vita 



scono anche ambienti acidi e privi di os- 
sigeno con una stabile presenza di zolfo: 
proprio le condizioni che prevalgono 
nelle bocche idrotermali sottomarine. 

Norman R. Pace, biologo dell'Uni- 
versità dell'Indiana, trova convincente 
l'ipotesi delle sorgenti idrotermali. Egli 
descrive la crosta della Terra primordia- 
le come un sottile strato schiumoso di 
rocce butterato da una miriade di boc- 
che idrotermali. Eppure, a differenza di 
Corliss, che insiste sulle sorgenti idroter- 
mali sottomarine come luogo di origine 



della vita, Pace dice che i primi organi- 
smi potrebbero aver avuto origine altro- 
ve , forse in superficie o nei pressi di essa , 
in un periodo di tregua tra un impatto e 
l'altro, per trasferirsi in un secondo tem- 
po alla relativa sicurezza delle bocche 
idrotermali sottomarine. Impatti succes- 
sivi potrebbero aver distrutto tutti gli or- 
ganismi a eccezione di quelli rifugiati- 
si nelle profondità oceaniche. Sebbene 
questi organismi idrotermali non fossero 
i primi esistiti sulla Terra, sarebbero tut- 
tavia gli antenati di tutte le 
forme di vita successive. 
Pace è convinto che ancora 
oggi vaste comunità di bat- 
teri possano dimorare in 
reti di fenditure e caverne 
riscaldate geotermicamen- 
te al di sotto delle dorsali 
medio-oceaniche. 

Storie di zolfo 

A Miller non piacciono 
le bocche idrotermali sot- 
tomarine, per lo meno non 
come luogo d'origine della 
vita. Egli fa notare come le 
bocche idrotermali attuali 
sembrino avere vita breve 
dato che rimangono attive 
per poche decine di anni 
prima di otturarsi. Inoltre, 
in collaborazione con Jef- 
frey L. Bada, che lavora 
anch'egli presso l'Univer- 
sità della California a San 
Diego, ha condotto esperi- 
menti che indicano come 
l'acqua surriscaldata all'in- 
terno delle bocche, la cui 
temperatura supera qual- 
che volta i 300 gradi Cel- 
sius, dovrebbe in realtà di- 
struggere i composti orga- 
nici complessi, non crearli. 
Se la superficie della Terra 
era una sorta di padella per 
friggere - dice Miller - una 
bocca idrotermale era il 
braciere. 

La teoria delle bocche i- 
drotermali sottomarine ha 
comunque dato sostegno a 
tre diverse ipotesi - due 
nuove e una terza un po' 
sciupata dal tempo - che 
offrono un'alternativa agli 
scenari basati sull'RNA. 
L'ultima e la più inconsueta è quella di 
Gùnter Wàchtershàuser. egli stesso un 
teorico inconsueto. Wàchtershàuser, di 
professione avvocato, è responsabile di 
uno studio legale specializzato in brevet- 
ti da lui stesso fondato a Monaco di Ba- 
viera. Prima di entrare nella professione 
legale, tuttavia, egli si è laureato in chi- 
mica organica e ha sviluppato un parti- 
colare interesse per l'orìgine delia vita. 
Accontentatosi dapprima del sempli- 
ce ruolo di osservatore, Wàchtershàuser 
ha incominciato, circa cinque anni fa, a 



sviluppare una propria teoria. Mentre 
secondo gran parte degli studiosi la vita 
avrebbe avuto inizio quando un compo- 
sto relativamente semplice incominciò a 
costruire copte di se stesso in soluzione, 
secondo Wàchtershàuser la vita sarebbe 
incominciata come un processo metabo- 
lico - un ciclo di reazioni chimiche ali- 
mentato da una qualche fonte di energia 
- sulla superficie di un corpo solido. 

Queste idee hanno dei precedenti, ma 
la sua proposta è unica nei particolari. 
Egli fa riferimento a una specifica super- 
ficie solida, quella dei cristalli di pirite, 
un solfuro di ferro. Si è trovata pirite 
nelle bocche idrotermali, ma ciò non 
sorprende poiché essa è molto diffusa. 
Secondo Wàchtershàuser, la pirite offre 
una superficie di carica positiva a cui 
possono legarsi composti organici sem- 
plici. La continua formazione di pirite a 
partire da ferro e zolfo fornisce anche 
energia (sotto forma di elettroni) che in- 
duce i composti organici a reagire reci- 
procamente e a diventare più complessi. 

La prima cellula potrebbe essere stata 
un granulo di pirite racchiuso in una 
membrana di composti organici. La cel- 
lula potrebbe essersi riprodotta quando 
il granulo di pirite diede origine a una 
nuova «gemma» cristallina che venne in- 
capsulata in una propria membrana e si 
staccò dalla cellula genitrice. Wàchters- 
hàuser ha esposto le sue idee in pubbli- 
cazioni prestigiose come «Proceedings 
of the National Academy of Sciences», 
«Microbio logy Reviews» e «Nature». 
Esperimenti condotti da un gruppo di 
ricercatori dell'Università di Ratisbona 
in Germania sembrano dare conferma 
alla su a i de a d el l a piri te co me «batteria » , 
ma lo stesso Wàchtershàuser ammette 
che la sua teoria è ancora in gran parte 
pura speculazione. 

Le sue idee si sono però conquistate 
molte simpatie, fra cui quelle di Pace, 
Woese e del filosofo della scienza Karl 
Popper, Secondo Pace, questo modello 
che vede l'inizio della vita come un pro- 
cesso metabolico a contatto con una su- 
perficie solida potrebbe portare ad ab- 
bandonare il vecchio concetto secondo 
cui la vita ha avuto inizio con le prime 
forme di autoreplicazione molecolare. 

Altri studiosi sono tutt 'altro che inti- 
miditi. Joyce sospetta che l'attitudine fo- 
rense di Wàchtershàuser possa averlo 
aiutato a fare accettare la sua teoria più 
di quanto essa non meriti. «È un eccel- 
lente difensore della propria causa» os- 
serva Joyce, ma ammette di essere affa- 
scinato dal parallelo tra Wàchtershàuser 
e un altro tedesco che praticava la scien- 
za pur lavorando sui brevetti: Albert 
Einstein. «Dato il precedente - afferma 
Joyce - suppongo che dovremmo pren- 
derlo sul serio.» 

Un modello che presenta analogie con 
quello di Wàchtershàuser è stato propo- 
sto da Christian R. de Duve, professore 
emerito della Rockefeller University e 
premio Nobel nel 1974 per i suoi studi 
sulla struttura della cellula. La teoria di 



ORIGINE DELLA VITA AL CALCOLATORE 



Sebbene il modo tradizionale di 
verificare le teorìe sull'orìgine 
della vita richieda la miscela- 
zione di composti chimici veri in una 
provetta reale, diversi ricercatori stan- 
no cercando di simulare l'evento al 
calcolatore. Stuart A. Kauffman, un 
biologo che fa la spola fra l'Università 
della Pennsylvania e II Santa Fé Inso- 
lute del New Mexico, è un pioniere in 
questo campo. 

Kauffman ritiene da tempo che l'o- 
rigine della vita possa dipendere da un 
principio fondamentale che fa si che 
l'ordine emerga da interazioni chimi- 
che apparentemente casuali ed estre- 
mamente complesse. Per verificare 
questa teoria, Kauffman e colleghi del 
Santa Fé Institute effettuano simula- 
zioni ai calcolatore delle interazioni tra 
gruppi di polimeri generici dotati di ge- 
neriche attività catalitiche. 

In una rappresentazione semplifi- 
cata di una di queste simulazioni, mo- 
no meri semplici (quadrati) dotati di at- 
tività catalitica (frecce in bianco) pro- 
vocano una cascata di reazioni (curve 
in nero e cerchi in giallo) tra polimeri 
(cerchi in verde), che a loro volta ca- 
talizzano ulteriori reazioni. 

Secondo Kauffman le simulazioni 
dimostrano che un sistema contenen- 
te un numero sufficiente di questi po- 
limeri va incontro a una «transizione 



di fase» che lo rende «autocatalitico»; 
ciò significa che esso inizia sponta- 
neamente a produrre polimeri di com- 
plessità e capacità catalitiche via via 
superiori. 

Kauffman si dichiara assolutamen- 
te convinto che sia stato un processo 
del genere a condurre alla vita, e non 
la formazione casuale di molecole di 
un solo tipo capaci di evolversi. Alla 
domanda se egli possieda qualche ri- 
sultato ottenuto in provetta a sostegno 
di queste simulazioni al calcolatore, 
Kauffman risponde: «Nessuno ha an- 
cora condotto questi esperimenti, ma 
io sono sicuro di aver ragione». 

I tradizionalisti che sperimentano in 
provetta arricciano il naso. Secondo 
Stanley L. Miller dell'Università della 
California a San Diego «la soluzione 
di equazioni al calcolatore non rappre- 
senta un esperimento», e anche Ge- 
rald F. Joyce del Research Institute 
della Scripps Clinic, un altro speri- 
mentatore, è alquanto scettico; egli, 
tuttavia, ammette che la ricerca sul- 
l'intelligenza artificiale, un tempo derì- 
sa dalla maggior parte degli studiosi 
del cervello umano, ha invece iniziato 
a dare importanti contributi alla neuro- 
biologia. «Se un giorno la vita artificia- 
le darà analogo impulso allo studio 
dell'origine della vita - dice Joyce - sa- 
rà fantastico.» 




de Duve, esposta Del suo nuovo libro 
Btueprìnt for a Ceti, si sviluppa attorno 
ai tu icsi e ri. composti dello zolfo che 
hanno un molo cruciale nel metaboli- 
smo cellulare e che, secondo alcune ri- 
cerche, potrebbero essere stati una sor- 
gente di energia per le cellule primitive. 
De Duve propone che nel fluido pri- 
mordiale i tioesteri potrebbero aver cau- 
sato una cascata di reazioni chimiche si- 
mili a quelle che avvengono nel metabo- 
lismo delie cellule attuali. Le reazioni 
sarebbero state catalizzate da «protoen- 
zimi», anch'essi costituiti da tioesteri. 
Alla lunga queste reazioni avrebbero 
avuto come risultato la sintesi di acidi 
ribonucleici , che avrebbero quindi inau- 
gurato il mondo a RNA. La sintesi dei 
tioesteri richiede un ambiente caldo e 
acido quale, secondo de Duve, potrebbe 
essere fornito dalle bocche idrotermali, 
«Mi piacerebbe vedere una dimostrazio- 
ne sperimentale di questa teoria» dice 
Miller. Eppure riconosce che sperimen- 
tatori come lui potrebbero aver trascu- 
rato la chimica dei composti dello zolfo 
per una ragione tutt'altro che scientifica: 
«I composti dello zolfo puzzano e appe- 
sterebbero tutto il laboratorio». 

Fatti di argilla 

A. G. Cairns-Smith, chimico dell'U- 
niversità di Glasgow, afferma di avere 
buone ragioni per dubitare dell'ipotesi di 
de Duve: secondo una teoria sua e di 
David C. Mauzerall delta Rockefeller 
University, una reazione che coinvolga 
ferro e acqua avrebbe potuto arricchi- 
re di idrogeno l'atmosfera primordiale. 
«Quello che de Duve non dice - nota 
Cairns-Smith - è che questo processo 
rende gli oceani meno adatti alla sintesi 
di molecole organiche.» 

Da oltre 10 anni Cairns-Smith porta 
avanti la propria ipotesi. Al pari di 
Wàchtershàuser, sostiene che la vita 
avrebbe avuto origine a contatto di sub- 
strati solidi presenti sia nelle bocche 



idrotermali sottomarine sia altrove, ma 
alla pirite preferisce l'argilla cristallina . 
Tutti i cristalli consistono di unità che 
si autoreplicano, osserva Cairns-Smith, 
ma i cristalli d'argilla sono sufficiente- 
mente complessi da mutare ed evolvere 
in modo simile a quello degli organismi 
viventi. Alcune argille potrebbero esse- 
re diventate dei riproduttori ancora più 
efficienti sviluppando la capacità di at- 
trarre o di sintetizzare composti organici 
come acidi nucleici o proteine. Alla fine 
i composti organici sarebbero diventati 
abbastanza sofisticati da comi fidare a re- 
plicarsi ed evolversi da soli. 

A differenza di altri teorici che si oc- 
cupano dell'origine della vita, Caims- 
-Smith ammette allegramente i difetti 
della propria teoria: nessuno è riuscito a 
ricostruire in laboratorio, a partire dal- 
l'argilla, qualcosa che assomigli a un pro- 
cesso evolutivo; né alcuno ha trovato in 
natura qualcosa che assomigli a un orga- 
nismo le cui proprietà biologiche siano 
basate sull'argilla. Eppure, secondo lui, 
nessuna teoria che postuli composti or- 
ganici in grado di organizzarsi e replicar- 
si senza alcun aiuto può fare dì meglio. 
«Le molecole organiche - dice - sono 
troppo irrequiete per funzionare.» 

Invasori dallo spazio 

C'è, tuttavia, un altro modo per uscire 
da questo frustrante vicolo cieco. Se né 
l'atmosfera né le bocche idrotermali sot- 
tomarine sono un luogo adatto per la 
sintesi di composti organici complessi, 
forse questi sono arrivati dallo spazio 
esterno, eventualità proposta da Juan 
Orò dell'Università di Houston fin dagli 
anni sessanta. La sua teoria ha ricevuto 
più attenzione da quando gli astronomi 
hanno identificato gli spettri di un nume- 
ro sempre maggiore di composti organici 
presenti nello spazio, sia intorno a sin- 
gole stelle, sia alla deriva nello spazio 
interstellare. 

Amminoacidi sono stati trovati anche 




Vescicole molto simili a cellule sono state ottenute da composti organici estratti da una 
condrite carbonacea caduta nel 1969 nei pressi della città di Murchison, in Australia. 



nelle meteoriti note come condriti car- 
bonacee, che assommano al 5 per cento 
delle meteoriti che colpiscono la Terra. 
I dati delle osservazioni sulla cometa di 
Halley, passata vicino alla Terra cinque 
anni fa, indicano che le comete potreb- 
bero essere ancor più ricche di composti 
organici di quanto non siano le condriti 
carbonacee. 

Le condriti contengono perfino idro- 
carburi, alcoli e composti lipidici i quali 
potrebbero aver formato le membrane 
che proteggevano le cellule primitive. 
David W. Deamer, biochimico dell'Uni- 
versità della California a Davis, ha pro- 
dotto membrane sferiche, o vescicole. 
con composti ricavati da una meteorite 
caduta vicino a Murchison, in Australia, 
nel 1969. Queste vescicole, a suo avviso, 
potrebbero aver rappresentato un am- 
biente entro cui amminoacidi , nucleotidi 
o altri composti organici potrebbero 
aver subito le trasformazioni necessarie 
all'inizio della vita. 

L'idea che l'impatto di oggetti extra- 
terrestri possa avere favorito la vita e, 
all'opposto, averne ritardato l'afferma- 
zione ha preso consistenza nel 1989, 
quando si scoprirono amminoacidi im- 
mediatamente sopra e sotto uno strato 
di argilla depositatosi al limite fra Creta- 
ceo e Terziario. Bada e Meixun Zhao, 
anch' egli dell'Università della California 
a San Diego, stabilirono che questi am- 
minoacidi non erano presenti negli esseri 
viventi e in precedenza erano stati tro- 
vati solo nelle meteoriti. Il loro studio 
parve dare sostegno alla teoria secondo 
cui l'impatto dì una meteorite avrebbe 
causato l'estinzione dei dinosauri e di- 
mostrare nel contempo che impatti vio- 
lenti potrebbero arricchire la Terra di 
composti organici. 

Rimangono tuttavia aperti molti pro- 
blemi: perché gli amminoacidi sono stati 
trovati sopra e sotto il limite Cretaceo- 
-Terziario e non al suo interno? E come 
sopravvissero all'enorme calore sprigio- 
nato dall'impatto? Secondo calcoli effet- 
tuati da Christopher F. Chyba, esperto 
di scienze planetarie della Cornell Uni- 
versity, e da altri, un oggetto extraterre- 
stre abbastanza grande da fornire ingenti 
quantità di materiale organico alla Terra 
genererebbe tanto calore nell'impatto 
da incenerire la maggior parte del mate- 
riale stesso. 

Lo scorso novembre Kevin J. Zahnle 
e David Grinspoon dell'Ames Research 
Center delia NASA hanno cercato di 
spiegare questo paradosso. Secondo lo- 
ro gli amminoacidi provenivano da una 
o più comete che non colpirono la Terra, 
ma le passarono semplicemente vicino - 
lasciando tracce di polvere organica nel- 
la loro scia - prima e dopo l'impatto cor- 
rispondente al limite Cretaceo-Terzia- 
rio. In questo modo le comete potrebbe- 
ro anche aver cosparso la Terra dì com- 
posti organici durante i primi stadi della 
sua storia. 

Chyba ha proposto altri modi in cui gli 
impatti potrebbero aver arricchito la 



86 LE SCIENZE n. 272, aprile 1 99 1 




[ laghi dell'Antartide ospitano prospere comunità di microrganismi 
al di sotto della superficie ghiacciata. Simili scoperte fanno sperare 



che su Marte, che ha un clima altrettanto freddo e asciutto e dove 
è probabile la presenza di ghiaccio d'acqua, vi siano forme di vita. 



Terra di composti organici. Le ondate di 
calore e le onde d'urto causate da un 
impatto potrebbero avviare nell'atmo- 
sfera reazioni chimiche che porterebbe- 
ro alla sintesi di composti organici. Un 
oggetto extraterrestre potrebbe inoltre 
rompersi in frammenti abbastanza leg- 
geri da essere decelerati dall'atmosfera 
e atterrare relativamente intatti. 

Altri trovano lo scenario deirimpatto 
intrinsecamente improbabile. «È troppo 
simile alla manna dal cielo» dice Sher- 
wood Chang dell'Ames Research Cen- 
ter della NASA, un'autorità in materia 
dì composti organici extraterrestri. Gli 
studiosi dovrebbero indagare più a fon- 
do su come i composti organici potreb- 
bero essersi sintetizzati sulla Terra prima 
di chiamare in causa gli impatti. Le teo- 
rìe che attribuiscono agli impatti un ruo- 
lo nella genesi «sono molto di moda - 
aggiunge - ma anche molto speculative». 

La versione più estrema della «manna 
dallo spazio» è la teoria della pansper- 
mia, proposta alla fine del secolo scorso 
dal chimico svedese Svante A. Arrhe- 
nius il quale asseriva che microrganismi 
alla deriva nello spazio sarebbero serviti 
da «semi di vita» sulla Te rra . Attuai m en - 
te Fred Hoyle e l'astronomo singalese 
N. Ch andrà Wickramasinghe (entrambi 
noti anche per i loro attacchi alla teoria 
cosmologica del big bang) continuano a 
sostenere questa idea, affermando che 
microrganismi extraterrestri sarebbero 
addirittura la causa dell'influenza, del- 
l' A IDS e di altre malattie. 

Molti scienziati rifiutano drasticamen- 
te queste asserzioni, dichiarando che 



nello spazio non sono stati mai trovati 
microrganismi e non sembra probabile 
che ve ne siano: lo spazio è troppo ostile 
alla vita. Eppure esperimenti condotti 
da J. Mayo Greenberg, astrofisico del- 
l'Università di Leida nei Paesi Bassi, 
hanno effettivamente fornito una qual- 
che credibilità alla panspermia. Secondo 
Greenberg una cellula «nuda» potrebbe 
sopravvivere per centinaia di anni nello 
spazio, e addirittura per 10 milioni di 
anni se venisse protetta dalle radiazioni 
da un sottile involucro di ghiaccio. 

Greenberg nota che è ancora difficile 
immaginare come degli organismi po- 
trebbero lasciare altri pianeti o giungere 
intatti sul nostro. Come molti altri scien- 
ziati è convinto che la vita abbia avuto 
origine sulla Terra, tuttavia egli afferma 
che l'ipotesi della panspermia, pur es- 
sendo improbabile e certamente avver- 
sata da molti, non può essere rifiutata, 
almeno sulla base degli esperimenti da 
lui condotti. 

Circa 10 anni fa, Orgel e Crick susci- 
tarono uno scandalo avanzando l'ipotesi 
che i semi della vita fossero stati spediti 
sulla Terra, in una navicella spaziale, da 
esseri intelligenti viventi su un altro pia- 
neta. Orgel dice che la proposta, nota 
come «panspermia diretta», fu «una sor- 
ta di scherzo». Tuttavia fa notare come 
essa partisse da intenzioni serie: mettere 
in luce l'inadeguatezza di tutte le teorie 
che cercano di spiegare l'origine della 
vita sulla Terra. «L'origine della vita - ha 
scritto Crick - appare quasi come un mi- 
racolo, tante sono le condizioni da sod- 
disfare perché abbia luogo.» 



Siamo soli nell'universo? 

Eppure altri scienziati pensano che la 
nascita della vita, lungi dall'essere un mi- 
racolo, possa essere un fenomeno piut- 
tosto comune. In effetti l'apparente ra- 
pidità con cui la vita è comparsa sulla 
Terra e l'abbondanza di molecole orga- 
niche nello spazio fanno pensare che la 
vita possa esistere anche altrove nell'u- 
niverso, dice John D. Rummell, che di- 
rige i! programma di esobiologla della 
NASA. Trovare prove dell'esistenza di 
forme di vita extraterrestri - egli sostiene 
- oltre a costituire di per sé un evento di 
portata storica, potrebbe illuminarci sul- 
le primissime fasi della vita terrestre. 

La NASA sta espandendo il proprio 
programma di ricerca di intelligenze 
extraterrestri, che prevede la registra- 
zione continua di radiazioni elettroma- 
gnetiche di diversa lunghezza d'onda 
nell'intento di captare segnali che po- 
trebbero provenire da altre civiltà. En- 
tro i prossimi 10 anni, gli studiosi della 
NASA rileveranno segnali radio prove- 
nienti da tutto il cielo, focalizzando l'at- 
tenzione su circa 700 stelle relativamente 
vicine alla Terra, che si ritiene possano 
essere circondate da pianeti. La NASA 
ha messo a punto strumentazioni molto 
sofisticate, tali che un singolo telescopio 
è in grado di registrare miliardi di canali 
contemporaneamente e di portare auto- 
maticamente segnali interessanti all'at- 
tenzione degli scienziati. 

Si sta anche indagando di nuovo sulla 
possibilità che la vita abbia avuto origine 
su un pianeta a noi vicino, cioè Marte. 



Secondo McKay, Marte e la Terra nelle 
prime centinaia di milioni di anni della 
loro esistenza erano più simili dì quanto 
non siano attualmente. Le strutture si- 
mili a vecchi alvei e a canali erosi osser- 
vabili sulla superficie di Marte fanno 
pensare che un tempo vi fosse acqua e 
che il pianeta fosse avvolto da una densa, 
calda atmosfera di anidride carbonica. 

La sonda spaziale Viking che atterrò 
su Marte nel 1970 non trovò tracce di 
vita. Secondo McKay, tuttavia, la possi- 
bilità che una futura missione possa tro- 
vare queste prove, in forma o di fossili o 
di esseri viventi, è resa verosimile dalla 
scoperta di microrganismi in luoghi ino- 
spitali del nostro pianeta. McKay e altri 
studiosi hanno rinvenuto densi «tappeti» 
microbici nei fondali di laghi perenne- 
mente ghiacciati in Antartide, dove il cli- 
ma freddo e secco ricorda quello di Mar- 
te. Batteri sono stati trovati anche in roc- 
ce sedimentarie e in giacimenti di petro- 
lio migliaia di metri al di sotto della su- 
perficie terrestre, in depositi di sale e, 
naturalmente, nelle sorgenti idrotermali 
delle profondità oceaniche. 

Marte sarebbe ideale per la caccia ai 
fossili, secondo McKay. «Questo piane- 
ta è rimasto in congelatore per quattro 
miliardi di anni - egli dice - e non è sog- 
getto a movimenti tettonici. È un sogno 
per il paleontologo.» McKay riconosce 
però che a Marte manca una caratteri- 
stica terrestre potenzialmente significa- 
tiva: un grande satellite. «Se riteniamo 
che la vita sia sorta in pozze di marea, 
allora l'analogia con Marte viene a cade- 
re.» McKay ritiene che trovare forme di 
vita extraterrestri porterebbe le ricerche 
suH'origine della vita sul solido terreno 
dell'osservazione, cosi come la scoperta, 
nel 1965, della radiazione a microonde 
che permea tutto l'universo consolidò le 
basi della cosmologia. «Per acquistare 
credibilità, abbiamo bisogno di qualcosa 
che sia paragonabile con il fondo cosmi- 
co a microonde.» 

Anche per Miller, che dopo quasi 40 
anni è ancora alla dura ricerca del più 
grande segreto della vita, il campo ne- 
cessita di una scoperta sensazionale per 
porre freno a una troppo disinvolta spe- 
culazione. Egli ritiene tuttavia più pro- 
babile che una scoperta di questo tipo 
avvenga in un laboratorio sulla Terra. 
Quello di cui necessita oggi questo set- 
tore di studio - commenta Miller - non 
sono altre teorie o la ricerca di forme di 
vita extraterrestre, ma un maggior nu- 
mero di esperimenti. «Ogni giorno sfor- 
no una decina di idee e generalmente - 
riflette un momento - le scarto tutte.» 

Considera mai, Miller, la possibilità 
che la genesi sia un miracolo non ripro- 
ducibile da semplici esseri umani? Cer- 
tamente no, egli replica e aggiunge: 
«Penso che, semplicemente, non abbia- 
mo ancora imparato i trucchi giusti. Il 
giorno in cui troveremo la risposta, essa 
apparirà forse così dannatamente sem- 
plice che noi tutti diremo: "Come ho fat- 
to a non pensarci prima?"» 



In una serie di articoli originali 

appositamente scritti per il quaderno 

IL RISCHIO SISMICO, curato da Enzo Boschi, 

un'equipe interdisciplinare analizza 

la situazione italiana. 




Sei QUADERNI all'anno. 
Prezzo di copertini: L. 9000. 



In questo numero: 

Il rischio sismico di V. Petrilli 

La difesa dai terremoti di F. Barberi 

Rìschio sismico e beni culturali dì A. Huber 

/ moli violenti del suolo durame ì terremoti di A. Rovelli 

Proprietà della litosfera terrestre di R. Sabadini e G. Spada 

Plasticità delle rocce e meccanismo dei terremoti di M. Bonafede e M. Dragoni 

/ grandi terremoti medievali in Italia di E. Guidoboni ed E. Boschi 

La previsione dei terremoti di E. Boschi e M. Dragoni 

La valutazione della pericolosità sismica in Italia di E. Mantovani 

La previsione statistica dei terremoti di F. Mulargia e P. Gasperini 

Deformazioni crostali e sismicità diV. Achilli e P. Baldi 

Geografìa sismica in Italia di C. Gasparini e A. Te nulli ani 

Tomografia sismica per l'area italiana di A. Amato e B. Alessandrini 

Macrozonazione sismica del territorio italiano di P. Favali. G. Scalerà e G. Simiglio 

/ nuovi strumenti della sismologia di D. Giardini. A. Morelli e G. Romeo 

La rete sismica nazionale di R. Console. B. De Simont, F. Mele e Q. Taccettì 

Il controllo delle aree sismogenetiche con reti locali di A. Basili e M. Cocco 

Il terremoto dell' Ir pinia: 10 anni di ricerche di E, Boschi, D. Pan tosti e G. V ale n si se 

/ maremoti di S. Tinti 



88 LE scienze n. 272. aprile 1991 



le scienze n. 272, aprile 199 1 89 



L'ANGOLO 
MATEMATICO 



di lan Stewart 



La vera storia di come Teseo 
riuscì a uscire dal labirinto 



Dopo sì e no cinque svolte nel la- 
birinto, Teseo aveva già con- 
sumato tutto il gomitolo. «Ac- 
cidenti ad Arianna! Non poteva darmi 
un filo più lungo?» borbottò invelenito. 
Con irritazione gettò il rocchetto sul pa- 
vimento. Doveva tornare sui suoi passi 
e affrontare la derisione di re Minosse e 
dei cittadini di Creta? 

Gli eroi non tornano mai indietro, 
pensò. Sguainò la spada e avanzò bal- 
danzosamente, pronto a cogliere il pri- 
mo segno del terribile Minotauro. Una 



zaffata di tanfo vagamente bovino gli 
disse che la direzione era giusta, e Teseo 
si inoltrò nel labirinto seguendo la trac- 
cia. Cercava di fissare nella memoria la 
strada seguita , m a i corridoi sembravano 
tutti uguali e ben presto si rese conto di 
essersi irrimediabilmente perduto. 

Passando per un corridoio sentì un 
grugnito soffocato. Si diresse verso il ru- 
more e finì dritto contro una parete mor- 
bida, una parete calda... una parete in 
movimento! Per Zeus, era il Minotauro! 

Teseo brandì la spada e si slanciò co- 




Come possono Teseo e il Minotauro trovare tutte le fanciulle e i giovinetti 
senza passare più di una volta per ciascun corridoio o incrocio? 



raggiosamente, ma con scarso successo: 
mancò la bestia e colpì il muro con tale 
forza che la spada gli cadde di mano. 

«Riponi quell'inutile spiedo prima di 
farti male davvero!» ruggì il Minotauro. 
«Non mi darò per vinto, brutto figlio 
di un toro! Io, Teseo, vendicherò la mor- 
te di tutte le fanciulle e i giovinetti che 
hai divorato.» 

«Io non ho mai divorato nessuno. Non 
lo sai che i tori sono vegetariani? Le fan- 
ciulle e i giovinetti di cui parli stanno 
ancora vagando per il labirinto, senza 
riuscire a trovare l'uscita.» 

Per la verità, questo Minotauro non 
aveva proprio nulla del toro assetato di 
sangue; sembrava piuttosto una placida 
mucca con le corna. «Perché non ti calmi 
un po', Teseo? Ho l'impressione che do- 
vrai starci un bel pezzo in questo labirin- 
to. Magari potresti aiutarmi a risolvere 
un rompicapo.» 

«L'unico rompicapo che mi interessa 
è come uscire da qui» ribatté Teseo. 

«Beh, se tu fossi stato abbastanza fur- 
bo da portarti una mappa del labirinto» 
disse il Minotauro «potremmo risolvere 
il problema tagliando fuori tutti i vicoli 
ciechi.» 

«E dove credi che avrei potuto trovar- 
la una mappa?» lo interruppe Teseo con 
aria indignata. «Pensi che Dedalo, dopo 
aver costruito questo posto, abbia depo- 
sitato una copia del progetto al Munici- 
pio di Creta? No, ha distrutto tutti i di- 
segni. Qualche altra idea brillante?» 

«Si potrebbe provare con il vecchio 
trucco della zampa sinistra sulla parete» 
disse il Minotauro. 

«Che cosa?» chiese Teseo alzando la 
testa speranzoso. 

«Quando entri nel labirinto, appoggi 
la zampa sinistra (o la mano se preferi- 
sci) alla parete e continui a tenercela. 
Avanzando in questo modo, sei sicuro di 
riuscire infine a ritrovarti fuori.» 

«Grazie per il suggerimento» disse Te- 
seo con gratitudine. Appoggiò la mano 
sinistra alla parete e partì lungo il labi- 
rinto alla ricerca dell'uscita. 

Tre giorni dopo un esausto e zoppi- 
cante Teseo si rifece vivo. «Lo sapevo 
che saresti tornato» ammise il Minotau- 
ro. «Io ho provato a seguire quel metodo 
almeno una decina di volte. Come ti ave- 
vo avvertito, funziona sicuramente solo 
se lo applichi fin dall'inizio. Se cominci 
a usarlo quando sei già nel labirinto, sei 
sicuro soltanto di tornare al punto di par- 
tenza. In realtà tu percorri interamente 
un sistema di pareti connesso, e se il si- 
stema non è connesso anche all'entrata, 
beh, non arrivi da nessuna parte.» 
«Avresti potuto dirmelo tre giorni fa!» 
«Non volevo scoraggiarti. In realtà te- 
mo che non ce la faremo mai a uscire da 
questolabirinto. Vedi, se tu, io e tutti gli 
altri che sono intrappolati qui dentro ri- 
uscissimo ad andarcene, scoppierebbe 
uno scandalo: Minosse dovrebbe spiega- 
re ai cittadini di Creta perché ci ha im- 
prigionati. Credi forse che permettereb- 
be a quel cronista, Omero, di scrivere un 



90 le scienze n. 272, aprile 1 99 1 



bell'articolo su di noi? Oh, no. Minosse, 
da bravo politico, farebbe tutto il possi- 
bile per insabbiare la storia. Se riuscissi- 
mo a scappare, deciderebbe forse di sa- 
crificarci davvero agli dei.» 

«Meglio combattere contro Minosse 
che languire in questo labirinto per l'e- 
ternità» dichiarò l'eroe con fermezza. 
«Ci deve ben essere una via per tirarci 
fuori da questo impiccio.» 

«Mentre fai piani per la nostra grande 
fuga, Teseo, potresti trovare il tempo 
per risolvere un indovinello che ho ap- 
pena inventato. Un eunuco, una ninfa, 
un ciclope e un satiro cercano di attra- 
versare il fiume Stige. Trovano una bar- 
ca che contiene al massimo due di loro e 
solo l'eunuco è capace di remare. Se il 
ciclope e la ninfa rimanessero soli sulla 
riva, il ciclope si mangerebbe la ninfa. Se 
rimanessero soli il satiro e la ninfa, il 
satiro., beh, non entriamo in particola- 
ri. Come può fare l'eunuco a portare tut- 
ti sani e salvi sull'altra riva?» 

«Non mi seccare con queste sciocchez- 
ze» protestò Teseo. «Non sai nient'altro 
sui labirinti?» 

Il Minotauro si grattò le corna con uno 
zoccolo. «Beh, la cosa più importante di 
un labirinto è il modo in cui si collegano 
gli incroci . La lunghezza dei corridoi non 
conta nulla.» 

«Non credo di essere d'accordo con 
te» disse Teseo medicandosi le vesciche 
ai piedi. 

«Voglio dire che la lunghezza dei cor- 
ridoi non ha incidenza sul percorso da 
seguire pertrovarel'uscita. Va bene, co- 
sì? Stiamo parlando delle proprietà to- 
pologiche del labirinto, non di quelle 
metriche. Possiamo rappresentare gli 
aspetti topologicamente essenziali del 
labirinto con un grafo i cui punti corri- 
spondono agli incroci del labirinto e i lati 
ai corridoi. Allora il problema di uscire 
da un labirinto -odi trovare un determi- 
nato luogo al suo interno - diventa quello 
di attraversare un grafo da un punto a un 
altro. Un teorema fondamentale della 
teoria dei grafi consente di trasformare 
un problema relativo ai labirinti in un 
problema sui grafi.» 

«Splendido!» esclamò Teseo. «Ora sì 
che facciamo progressi. Io adoro i teore- 
mi. Un giorno Pitagora me ne ha fatto 
vedere uno che era un vero schianto. 
Qualcosa a proposito dell'ippopotamo 
di un triatleta retto.» 

«Non ora, Teseo. Concentriamoci sul 
teorema del labirinto. Si possono con- 
giungere due punti con un percorso con- 
tinuo se e solo se si trovano nello stesso 
sottoinsieme connesso del grafo.» 

«Hmm» mormorò Teseo perplesso. 
«E che cos'è un sottoinsieme connesso?» 

«E l'insieme di tutti i punti che si pos- 
sono raggiungere da un certo punto se- 
guendo un percorso continuo» recitò il 
Minotauro tutto orgoglioso. 

«Ah! Vediamo un po' se ho capito be- 
ne. Stai affermando che due punti pos- 
sono essere congiunti da un percorso 
continuo se, e solamente se, esiste un 



percorso continuo che li congiunge?» 

fi Minotauro assunse un'aria offesa 
«Beh, puoi anche metterla in questi ter- 
mini, ma mi sembra che tu stia banaliz- 
zando un concetto molto importante.» 

«Sarà... Ma direi che abbiamo biso- 
gno di qualcosa di più costruttivo.» 

«Oh, va bene. Tu vuoi un vero algo- 
ritmo del labirinto.» 

«Un... che cosa? Non starai parlando 
di quel famigerato mostro a nove teste 
con le zanne affilate come rasoi e serpen- 
ti per capelli!» 

«No, Teseo, un algoritmo non è una 
bestia. E solo una parola che sarà rica- 
vata dal nome di un matematico arabo 
del IX secolo, Muhammad ibn Musa abu 
Abdallah al-Khorezmi al-Madjusi al- 
-Qutrubilli. Il nome "al-Khorezmi" di- 
venne "al-Gorizmi'\ poi "algorismi" e 
infine "algoritmo". E un termine che si 
usa per indicare una specifica procedura 
matematica quale un programma per 
calcolatore.» 

«Ma che cosa accidenti sarebbe un 



programma per calcolatore?» 

«Lascia perdere. Nel 1892 M. Tré- 
maux inventerà un algoritmo per risol- 
vere i labirinti. Circa un secolo più tardi, 
l'algoritmo verrà riscoperto da John 
Hopcroft e Robert Tarjan nel contesto 
della teoria dei grafi, che, come ti ho 
detto, è veramente molto simile alla teo- 
ria dei labirinti. L'algoritmo per risolve- 
re i labirinti è detto ricerca con priorità 
alla profondità (si veda la «finestra» in 
questa pagina): si tratta di un algoritmo 
davvero appropriato per il nostro pro- 
blema, in quanto lo si può applicare sen- 
za avere una mappa. Impone solo di se- 
guire alcune regole locali a livello dei 
punti e di tenere una registrazione dei 
punti e dei lati già percorsi. Anche se si 
rimane intrappolati nel labirinto, l'algo- 
ritmo può servire per uscirne.» 

«Magnifico!» proruppe Teseo. «Que- 
sta idea ci darà la libertà! Non ci rimane 
che applicare al labirinto la ricerca con 
priorità alla profondità!» 

Il Minotauro si affrettò a spegnere il 




Un incrocio diventa un grafo 



-O 



Si eliminano i vicoli ciechi 



RICERCA CON PRIORITÀ ALLA PROFONDITÀ E LABIRINTI 

L'algoritmo della ricerca con priorità 
alla profondità può risolvere qualsia- 
si labirinto, ammesso che si siano regi- 
strate tutte le svolte effettuate. L'idea 
alla base di questo algoritmo è dare la 
massima priorità all'esplorazione sem- 
pre più profonda del labirinto. Per sem- 
plificare l'applicazione dell'algoritmo, 
bisogna prima trasformare il labirinto in 
un grafo formato solo da incroci tripli. 
L'algoritmo della ricerca con priorità alla 
profondità passa per tutti i punti del sot- 
toinsieme connesso che contiene il 
punto di partenza, in particolare, può 
essere fatto terminare quando giunge a 
un punto «di arrivo», l'uscita del labirin- 
to. L'algoritmo inizia cosi: 

1. Cominciare da un punto qualsiasi. 

2. Passare per qualunque punto adia- 
cente da cui non si sia già passati. 

3. Ripetere il passo finché è possibile. 

4. Se si ò già passati da tutti i punti 
adiacenti, ripercorrere la successio- 
ne di punti attraversati fino a trovar- 
ne uno che sia adiacente a un punto 
da cui non si è ancora passati e tran- 
sitare per questo punto. 

5. Cancellare tutti i lati ripercorsi. 

6. Ripetere i passi da 2 a 5 finché si 
ritoma al punto di partenza senza 
che vi siano punti a esso adiacenti 
per cui non si sia passati. 

L'algoritmo fa passare per tutti i punti 
del sottoinsieme connesso del grafo 
che contiene il punto di partenza. È un 
algoritmo molto efficiente: il numero dei 
passi è al massimo il doppio del numero 
di lati del grafo. 

Ricerca con priorità alla profon- 
dità: in blu i tratti ripercorsi 




& 



Si sostituisce un incrocio multi- 
plo con incroci trip» 




LE SCIENZE n. 272, aprile 1991 91 



suo entusiasmo: «Il problema, Teseo, è 
che ci vuole qualcosa con cui si possano 
segnare gli incroci, in modo da sapere se 
ci si è passati in precedenza e da dove 
si viene. Non è che Arianna ti abbia mes- 
so anche un gessetto nel cestino da 
viaggio?» 

Teseo rispose sconfortato che il suo 
equipaggiamento non contemplava il 
gesso. «Ho la spada, però. Inciderò un 
segno sulla parete.» 

«Niente da fare: questa roccia è dura 
come il diamante.» 

«Accidenti!» 

Rimasero in silenzio, ciascuno immer- 
so nei suoi pensieri, finché a un tratto il 
Minotauro si riscosse con un sussulto. 



«Ehi, mi è appena venuta un'idea.» 

«Complimenti!» disse Teseo con aria 
sarcastica. «È un'idea che ci porterà fuo- 
ri di qui?» 

«No, ma riguarda il rompicapo del- 
l'eunuco.» 

«Ah, quello» fece Teseo con malcela- 
to disprezzo. 

«Vedi, mi sono reso conto che il mio 
rompicapo - e molti altri analoghi - è 
in realtà un problema relativo ai labirin- 
ti, anche se viene formulato in termini 
diversi.» 

«Intendi dire che la barca diretta agli 
Inferi deve passare per un labirinto?» 
chiese Teseo. «Questa giungerà nuova a 
Caronte.» 



«No, non un labirinto fatto di corridoi 
e incroci; in questo caso si tratta di un 
labirinto logico.» 

«Senti, Minotauro, non capisco una 
parola di quello che stai dicendo.» 

Il Minotauro si sforzò di spiegare che 
ciascuna posizione possibile nel rompi- 
capo dell'eunuco può essere vista come 
un punto di un grafo e ciascuna mossa da 
una posizione a un'altra può essere con- 
siderata come un lato che unisce i punti 
corrispondenti. L'idea del Minotauro 
era di utilizzare l'algoritmo della ricerca 
con priorità alla profondità per attraver- 
sare il grafo. Tornando sui propri passi 
quando è necessario, ed eliminando le 
vie senza uscita, si ha una soluzione del 



RICERCA CON PRIORITÀ ALLA PROFONDITÀ E ROMPICAPO 



La ricerca con priorità alla profondità è un metodo effi- 
cace per risolvere rompicapo in cui siano date regole 
per lo spostamento di persone, animali e oggetti da una 
posizione iniziale a una finale. La ricerca con priorità alla 
profondità, però, funziona solo se il numero di posizioni 
possibili è finito. L'algoritmo assume la forma seguente: 

1 . Ogniqualvolta si arriva a una nuova posizione (compre- 
sa la posizione iniziale del rompicapo), elencare tutte le 
posizioni che da lì si possono raggiungere. 

2. Dalla posizione iniziale scegliere a caso e fare una mos- 
sa qualsiasi che porti a una «nuova» posizione. 

3. Ripetere i passi 1 e 2 finché è possibile. 

4. Se tutte le mosse possibili portano a posizioni «vec- 
chie», ripercorrere la successione di mosse fatte fino a 
una posizione da cui sia possibile passare a una posizione 
«nuova» e fare quella mossa. 

5. Da qui in avanti ignorare tutte le mosse già ripercorse. 

6. Ripetere i passi da 1 a 5 fino a raggiungere la posizione 
voluta o quella di partenza dopo aver esaminato ogni pos- 



sibilità. Nel secondo caso, il rompicapo non è risolvibile. 

Si può applicare la ricerca con priorità alla profondità 
al rompicapo dell'eunuco. Un eunuco, una ninfa, un ciclo- 
pe e un satiro devono attraversare in barca il fiume Stige. 
Solo l'eunuco sa remare, e la barca può ospitare solo due 
persone per volta. Non si può lasciare né il satiro né il 
ciclope soli con la ninfa. 

Rappresentiamo i partecipanti con E (eunuco), C (ci- 
clope), N (ninfa), S (satiro). Il simbolo II indica lo Stige. Per 
esempio, [EN II CS] significa che l'eunuco e la ninfa sono 
sulla riva sinistra e il ciclope e il satiro sono sulla riva 
destra. L'algoritmo della ricerca con priorità alla profondità 
risolve il rompicapo dell'eunuco come mostra la tabella. 

L'algoritmo fa una cattiva mossa al passo 6, ma rime- 
dia tornando indietro. La risposta al rompicapo dell'eunu- 
co equivale alla soluzione del labirinto qui presentata. 

Va sottolineato che l'algoritmo non richiede che questo 
grafo sia disegnato in precedenza: infatti esso viene 
esplorato mentre si cerca la soluzione. 



POSIZIONE 
ATTUALE 


MOSSE 
POSSIBILI 


COMMENTI 


MOSSA 
EFFETTUATA 


[ECNSH 


[CS||EN] 


posizione & partenza 


pS || ENI 


PS || ENJ 


[ECNSH 
[ECS ||N] 


posizione vecchia 
obbligata dal» algoritmo 


[ECS || N] 


IECSIIN] 


[CS||EN1 
[C||ENS] 
[SIIECNl 


posizione vecchia 

scelta casuale delle mosse possibili 

altra scelta possibile 


[C||ENS] 


(C || ENS] 


[ECS 
[ECN 


IN] 

J si 


posizione vecchia 

obbligata dall'algoritmo 


(ECN || S) 


[ECN||S] 


[CHENS] 
(N || ECS] 


posizione vecchia 
obbligata da» algoritmo 


[N |1 ECS) 


[N || ECS] 


[ECN || S] 
(ESN || q 

(EN||CS) 


posizione vecchia 
scelta casuale (brutta mossa, ma 
indica come se la cava l'algoritmo) 
altra scelta possibile 


[ESN || q 


(ESNIiq 


[NHECS] 

[S|| ECN] 


posizione vecchia 

obbligata oaH'aluorttmo 


[S||ECN] 


[SIIECN) 


(ECS 
[ESN 


NI 

q 


posizione vecchia 
posizione vecchia 


tornare al passo 7 


(ESNIiq 


IN || ECS] 
[SIIECN] 


posizione vecchia 
posizione vecchia 


tornare al passo 6 


[N || ECS) 


[ECN II S) 
[ESN || q 
[ENIICS! 


posizione vecchia 
posizione vecchia 
<^itfiga1ii daM algoritmo 


[ENIICS] 


[ENIICS] 


[N || ECS) 
HIECNSj 


posizione vecchia 
obbligata dall'algoritmo (fine) 


HIECNS] 




92 le scienze n. 272, aprile 1991 



rompicapo (si veda la «finestra» nella pa- 
gina a fronte). 

«Si direbbe che tu abbia inventato l'al- 
goritmo SURM, il Solutore Universale di 
Rompicapo del Minotauro» disse Teseo 
ammirando l'elegante soluzione algorit- 
mica al rompicapo dell'eunuco presen- 
tatogli dal Minotauro. «Ma quello che in 
realtà ci serve è un metodo universale 
per uscire da qualunque possibile labi- 
rinto senza dover far segni sulla parete.» 

«Niente da fare» ironizzò il Minotau- 
ro. «Nessuno riuscirebbe a pronunciare 
l'algoritmo mupudoplsdfssp.» 

«Molto spiritoso» ringhiò Teseo. Poi, 
improvvisamente, saltò in piedi tutto ec- 
citato. «Aspetta! Quella lunga successio- 
ne di lettere mi ha dato un'idea. Sappia- 
mo che esiste sempre una successione 
finita di svolte a sinistra e a destra che 
portano fuori da un dato labirinto. Forse 
c'è una successione di svolte a sinistra e 
a destra che portano fuori da qualsiasi 
labirinto possibile. Una sola successio- 
ne, la stessa per tutti i labirinti! Qualcosa 
come SSSDDSDSDDSDDDDDS... ma senza 
fine. Lo chiamerò algoritmo SULT, Solu- 
tore Universale di Labirinti di Teseo. Lo 
brevetterò e farò dracme a palate!» 

«Assurdo!» lo interruppe il Minotau- 
ro. «Tanto per cominciare, alcuni incro- 
ci potrebbero avere più di due percorsi 
alternativi. Se devi andare diritto, non ti 
serve poter scegliere solo tra sinistra o 
destra, non è vero? E poi che cosa suc- 
cede nei vicoli ciechi?» 

«Già» concesse Teseo a malincuore. 
«Aspetta un po', però! Non è vero quel- 
lo che dici sugli incroci multipli e sui vi- 
coli ciechi, Minotauro. La scelta sarà co- 
munque tra "destra" e "sinistra", am- 
messo che a un incrocio si congiungano 
esattamente tre corridoi: quello da cui 
provieni più i due che si biforcano.» 

«Ma potrebbero non essere sempre 
tre» protestò il Minotauro. 

«Ah, ma io posso ridurre qualsiasi gra- 
fo, e quindi anche qualsiasi labirinto, a 
uno che abbia solo incroci tripli. Devo 
solo sostituire un incrocio multiplo con 
un anello di incroci tripli collegati. Posso 
anche aggiungere un cappio chiuso a 
ogni vicolo cieco. E se c'è un incrocio 
"truccato" in cui si incontrano solo due 
lati, lo cancello. Ora da qualsiasi grafo 
posso ricavare un grafo modificato che 
ha solo incroci tripli. Se riesco ad attra- 
versare il grafo modificato, allora posso 
ricostruire facilmente una via per attra- 
versare il grafo originario riducendo a 
punti le mie aggiunte.» 

Con questo, l'obiezione del Minotau- 
ro era sistemata, ma Teseo doveva an- 
cora superare una piccola difficoltà: tro- 
vare una successione universale di svolte 
a destra e a sinistra per la soluzione di 
labirinti. Dopo averci pensato un po', 
disse: «Supponiamo che io generi un 
elenco di tutti i possibili labirinti che con- 
tengano solo incroci tripli.» 

«Dovrebbe essere un elenco ben lun- 
go» disse il Minotauro in tono dubbioso. 

«Infinito! Ma io ho bisogno di questo 



elenco solo in linea di principio, mio caro 
amico bicornuto. Ci deve essere un mo- 
do per farlo: iniziare con il labirinto più 
semplice e procedere verso labirinti più 
complessi in tutti i modi possibili.» 

«Sì! sì!» gridò il Minotauro con gli oc- 
chi sfavillanti. «Adesso inizio a capire! 
Prima elenchi tutti i labirinti - cioè i grafi 
- con due punti, poi quelli con tre, poi 
quelli con quattro e così via, naturalmen- 
te contando solo i grafi che abbiano in- 
croci tripli. Poi metti in fila gli elenchi, 
uno dopo l'altro.» 

Teseo si chiedeva se la cosa fosse pos- 
sibile. «E se per un certo numero di pun- 
ti ci fossero infiniti grafi? Allora l'elenco 
andrebbe all'infinito e non ci sarebbe 
nessun "dopo" a cui collegare l'elenco 
successivo.» 

«Sì, Teseo, ma il numero di grafi di- 
stinti con un dato numero finito di punti 
è sempre finito.» 

«Perché?» 

«Si può rappresentare un grafo qual- 
siasi a n punti con una matrice formata 
da n righe e n colonne. Per prima cosa si 
numerano i punti da 1 a n. Poi, se il 
punto a è collegato al punto b, si intro- 
duce il valore 1 nella riga a e colonna b 
della matrice; in caso contrario si attri- 
buisce a quella posizione della matrice il 
valore 0. Una volta definiti tutti i valori 
di ciascuna riga e colonna, la matrice 
specifica in modo completo la topologia 
del grafo. Il numero di tutte le matrici 
che si possono generare a partire da un 
grafo a n punti è al massimo 2 elevato a 
n al quadrato. Quindi il numero delle 
matrici è grande ma finito.» 

«Proprio così» convenne Teseo. «E se 
il numero delle matrici è finito, allora il 
numero di grafi a n punti topologica- 
mente distinti è più piccolo, e quindi an- 
ch'esso finito. Se scegliamo solo i grafi 
con incroci tripli, il numero di grafi è 
ancora più finito, se afferri quello che 
intendo dire.» 

«Esattamente. Sì, stiamo andando be- 
ne. Adesso mi è tutto chiaro... Fammi 
capire, Teseo.» 

«Dunque, una volta elencati tutti i 
possibili grafi-labirinto come questo, si 
prende in considerazione il primo, si sce- 
glie un punto di partenza e un punto di 
arrivo e si esamina quale successione di 
svolte a destra e a sinistra porti all'uscita. 
La successione sarà finita.» 

«Sì, ma se si parte da un altro punto 
del labirinto? O se si vuole trovare un'al- 
tra uscita?» 

«Qui sta il bello. Si scelgono un punto 
di partenza e uno di arrivo diversi nel 
primo grafo e si guarda dove avrebbe 
portato la successione precedente se non 
si fosse stati nel luogo da cui originaria- 
mente si era partiti.» 

Ci fu una lunga pausa mentre il Mino- 
tauro meditava su questa affermazione. 
Teseo stava per riprendere il discorso 
quando il Minotauro lo interruppe. 

«Se così si esce, bene; altrimenti si ag- 
giunge un'altra successione che permet- 
ta di trovare l'uscita. Si deve continuare 



a trovare successioni per tutte le altre 
combinazioni di punti di partenza e di 
arrivo del primo labirinto?» 

«Sì. Probabilmente non è il metodo 
più efficiente, ma funziona. Una volta 
finito, si passa al secondo labirinto e si 
estende la successione fino a compren- 
dere tutte le possibili partenze e uscite, 
una dopo l'altra; poi si passa al terzo 
labirinto e così via.» 

«Ma non ci vorrà un tempo spavento- 
samente lungo per elencare tutti quei la- 
birinti, Teseo?» domandò perplesso il 
Minotauro. 

«Qui viene il meglio. Possiamo segui- 
re la successione di svolte a destra e a 
sinistra a mano a mano che produciamo 
l'elenco. Iniziamo con SS. Vedi l'uscita?» 

«Solo altri corridoi.» 

«Niente paura. Vediamo... SDDD.» 

«Altri corridoi. Ma suppongo che stia- 
mo facendo progressi...» 

«...SDDDSSDSDDSSS» balbettava Te- 
seo un mese dopo. 

La voce del Minotauro era lugubre. 
«Niente uscita, ancora. Quanto è com- 
plesso adesso il labirinto rappresentato 
dal tuo elenco?» 

«Undici incroci. Credo che abbiamo 
scoperto che cosa non va nel mio meto- 
do. Il labirinto ha probabilmente centi- 
naia di incroci. Forse non ne verremo 
mai fuori. Ma aspetta! Se gli occhi non 
mi ingannano questo è il mio filo! L'ho 
ritrovato!» 

Mentre seguivano il filo di Arianna, il 
Minotauro borbottò: «Sai, mi sono ri- 
cordato adesso che un metodo molto ef- 
ficace per uscire da un labirinto è quello 
di muoversi a caso.» 

«È proprio il momento giusto per dir- 
melo!» replicò Teseo. «Vedo una luce 
alla fine del corridoio.» 

Il Minotauro si congratulò con Teseo 
e si avviò rapidamente verso pascoli più 
verdeggianti mentre l'eroe si diresse 
al palazzo di Minosse dove trovò Arian- 
na addormentata. La svegliò con un ab- 
braccio appassionato. «Oh, tesoro!» e- 
sclamò lei. «Lo sapevo che il mio filo ti 
avrebbe salvato!» 



BIBLIOGRAFIA 

ball w. w. rouse, Mathematica! Re- 
creations and Essays, Macmillan, 1959. 

TARJAN ROBERT, Depth-First Search 
and Linear Graph Algorithms in «So- 
ciety for Industriai and Applied Mathe- 
matica Journal on Computing», 1, n. 2, 
giugno 1972. 

HOPCROFr JOHN e TARJAN ROBERT, 

Algorithm 447 - Efficient Algorithms for 
Graph Manipulation in «Communica- 
tions of the Association for Computing 
Machinery», 16, n. 6, giugno 1973. 

gould RONALD, Graph Theory, 
Benjamin-Cummings, 1988. 



LE scienze n. 272, aprile 1991 93