Clicca qui per iniziare subito a leggere!

Harold J. Morowitz, già direttore del Krasnow Institute for Advanced Study di
Fairfax, Virginia, è Robinson Professor di biologia e filosofia naturale alla
George Mason University. È autore di numerosi libri e articoli scientifici. I suoi
scritti sono apparsi su grandi quotidiani e riviste come «The New York Times»,
«Discover», «The Washington Post», «The Sciences» e «Psychology Today».
www.lindau.it
www.facebook.com/Edizioni.Lindau
twitter.com/EdizioniLindau
(@EdizioniLindau)
€ 26,00
Iva assolta dall’Editore
I S B N 978-88-6708-100-4
9
788867 081004
LA NASCITA DI OGNI COSA
«Con una cultura enciclopedica, senso dell’umorismo, chiarezza di
stile e grande acutezza, Morowitz affronta le questioni fondamentali
che stanno fra scienza e religione, e spiega in modo convincente l’inesorabile crescita della complessità, dal Big Bang fino alle galassie e alla
vita, e forse oltre.» (Robert Hazen, Carnegie Institution di Washington)
H.J. Morowitz
Nella Nascita di ogni cosa Harold J. Morowitz, uno fra i più importanti
scienziati che si dedicano allo studio della complessità, ci guida in un
affascinante tour in 28 tappe (ognuna delle quali corrisponde a
un’emergenza fondamentale) della genesi dell’universo: dalla nascita
delle stelle a quella degli elementi, alla formazione del sistema solare e
dei pianeti, dal primo apparire della vita fino all’emergere del linguaggio, all’invenzione dell’agricoltura, alla nascita delle città.
Nella storia dell’universo Morowitz ricerca però anche le tracce di Dio,
di quel Dio non personale postulato da Spinoza, Giordano Bruno ed
Einstein, che secondo lui è possibile riconoscere attraverso lo studio
delle leggi della natura.
La nascita di ogni cosa propone un punto di vista nuovo e affascinante
sul nostro passato remoto e offre un contributo importante al dialogo
fra scienza e religione.
Harold J. Morowitz
LA NASCITA
DI OGNI COSA
Come l’universo è diventato complesso
Dal Big Bang allo spirito dell’uomo in 28 passaggi
I Delfini
Titolo originale: The Emergence of Everything. How the World Became Complex.
© 2002 by Harold J. Morowitz
Traduzione di Luisa Anzolin, Vincenzo Perna e Thais Siciliano
© 2014 Lindau s.r.l.
corso Re Umberto 37 - 10128 Torino
Prima edizione: aprile 2014
ISBN 978-88-6708-100-4
Harold J. Morowitz
LA NASCITA
DI OGNI COSA
Come l’universo è diventato complesso
Dal Big Bang allo spirito dell’uomo in 28 passaggi
LA NASCITA DI OGNI COSA
Prefazione
Ho iniziato a scrivere questo libro nel tentativo di reificare il concetto di emergenza osservandone alcuni esempi,
di cui ho indagato le caratteristiche e le analogie più significative. Ho voluto porre l’accento sulle emergenze naturali
piuttosto che su quelle che possono essere generate quasi
senza limiti creando sistemi complessi per mezzo del computer. Anziché scegliere alcune situazioni a caso ne ho selezionate una gamma in ordine temporale, partendo dagli
inizi dell’universo conosciuto per arrivare alla più umana
delle attività. Le ho poi suddivise, un po’ arbitrariamente,
in 28 casi, con l’intento di osservare nel modo più dettagliato possibile le caratteristiche di ogni emergenza.
Mentre riflettevo sui casi che avevo scelto, continuavo a
leggere con attenzione le riviste «Nature» e «Science». Quasi ogni settimana vi trovavo almeno un articolo che esplorava in modo significativo una o più emergenze. Ben presto
mi sono reso conto che il mio obiettivo originario era fin
troppo ambizioso. Sebbene desiderabile, pretendere di
svolgere un’analisi dettagliata di ogni emergenza era davvero poco realistico. Così alla fine ho deciso di dare al libro
un taglio di più ampio respiro, cercando di cogliere una visione d’insieme delle emergenze. Porgo dunque le mie scu-
8
LA NASCITA DI OGNI COSA
se agli esperti per aver fornito un ritratto piuttosto fugace
di ciascuna emergenza. Mi torna in mente ciò che scrisse
Herman Melville a proposito del suo sistema cetologico:
«L’intero libro altro non è se non un abbozzo, anzi, solo
l’abbozzo di un abbozzo».
Ovviamente, abbiamo appena cominciato a guardare la
scienza dalla nuova prospettiva delle emergenze. Sono convinto che ciò aiuterà a comprendere meglio lo sviluppo
evolutivo dell’universo, del nostro sistema solare, del nostro biota e dell’umanità. Quest’opera vuole introdurre alcuni concetti che stanno cominciando ad attirare l’attenzione. L’approccio da me scelto è prevalentemente scientifico,
ma vi compaiono alcuni elementi più filosofici e teologici.
Non devo certo scusarmene. Credo profondamente nel monismo, in un mondo in definitiva abbracciato da un unico
percorso di comprensione. Giorno dopo giorno, il sole si alza sempre sullo stesso mondo.
Questo libro deve molto a tutti coloro che hanno discusso con me i suoi argomenti, letto e commentato alcuni
estratti del manoscritto e condiviso la mia ricerca. Sperando
di non dimenticare nessuno, voglio ringraziare in particolare Ann Butler, James Trefil, Ann Palkovich, James Olds, Robert Hazen, Rob Shumaker, Barbara Given, Lev Vekker,
Neil Manson, Karl Stephan, James Barham, Rob Waltzer, James Salmon e Philip Clayton. Un ringraziamento speciale
va a Iris Knell, amanuense, coordinatrice dei Robinson Professors e ferrea custode della sintassi.
1
L’emergenza dell’emergenza
L’autore di Ecclesiaste dichiarando che: «Ciò che è stato
sarà e ciò che si è fatto si rifarà; non c’è niente di nuovo sotto il sole» aveva un punto di vista molto limitato. Senza
dubbio non aveva considerato che, in un universo che probabilmente risale a circa 12 miliardi di anni fa, il sole ha meno di cinque miliardi di anni; e neppure aveva osservato
che il regno di cui era suddito esisteva da poche centinaia
di anni, e inoltre si verificavano in continuazione cambiamenti culturali e politici.
Questo libro sull’emergenza si occupa di modi di pensare totalmente nuovi: moderne prospettive sul mondo che
accompagnano la rivoluzione informatica, una nuova propensione degli scienziati a fare i conti con la complessità, e
il concetto stesso di emergenza che indica come in un universo così vecchio possa nascere la novità. Insomma, contesteremo sia l’autore di Ecclesiaste sia quelli che pensano alla «fine della scienza». Nel pensiero analitico sta avvenendo qualcosa di nuovo e stimolante, che promette modi inediti di intendere la filosofia, la religione e tutto il mondo.
All’università lessi José Ortega y Gasset, il filosofo che
dice che la scienza sostituisce le domande difficili a cui non
riusciamo a rispondere con domande più semplici per le
10
LA NASCITA DI OGNI COSA
quali possiamo invece cercare delle soluzioni. Ortega y
Gasset (1883-1955) si riferiva alla scienza e alla mentalità
del suo tempo, quando la ricerca della semplificazione e
della certezza matematica prevaleva sulle prospettive della
complessificazione, limitando perciò l’ambito delle scienze.
Negli ultimi cinquant’anni, l’invenzione e lo sviluppo di
computer molto veloci hanno modificato radicalmente le
domande che possiamo porci e il modo in cui scegliamo di
formularle. Vediamo come siamo arrivati a tutto ciò.
Per apprezzare il concetto di emergenza e il contesto di
complessità da cui nasce, faremo prima un breve sunto della
storia della scienza post-rinascimentale, per capire come si
sia sviluppata la mentalità precedente al computer e come le
prospettive siano cambiate in continuazione. Vedremo poi
le cause dei profondi mutamenti della conoscenza che sono
intervenuti negli ultimi anni con le scoperte più recenti.
Cominciamo da quello che molti considerano l’inizio
della scienza moderna, la meccanica di Galileo Galilei, che
identificò lo spazio e il tempo come variabili appropriate
per lo studio della fisica. Lo studioso formulò la legge della
caduta dei corpi e sviluppò il concetto di inerzia: le opinioni dell’epoca furono radicalmente sconvolte in un momento di grande fermento intellettuale. Galilei sostenne anche
la teoria eliocentrica di Copernico. Il suo contemporaneo
Keplero dedusse dalle osservazioni di Tycho Brahe che le
orbite descritte dai pianeti sono ellissi di cui il Sole occupa
uno dei fuochi. Keplero scoprì inoltre che un segmento (il
raggio vettore) che unisce un pianeta al centro del Sole descrive aree uguali in intervalli di tempo uguali. La terza legge del moto dei pianeti mette in rapporto il quadrato del
periodo orbitale dei pianeti con il cubo della distanza media dal Sole.
L’EMERGENZA DELL’EMERGENZA
11
Le leggi del movimento dei pianeti con il Sole in uno
dei fuochi, dedotte dall’osservazione, rimasero evidenze
sperimentali finché Isaac Newton non formulò le leggi
del moto, sviluppò il calcolo differenziale e postulò la
legge della gravitazione universale fra due corpi. Utilizzando queste leggi generali della meccanica e della gravità divenne possibile derivare da principi fondamentali
le leggi di Keplero sul moto dei pianeti. Si tratta di fisica
elementare, che oggi viene comunemente insegnata nei
primi anni di università. Ricordo ancora l’emozione che
provai nel derivare quelle leggi fisiche durante il corso di
meccanica di cui conservo ancora il libro di testo. Tali risultati sulla dinamica planetaria, disponibili dalla fine
del ’600, erano molto importanti, poiché permettevano di
prevedere le traiettorie dei pianeti in base a leggi matematiche; l’osservazione confermava poi le previsioni teoriche. Questo approccio definì il contesto metodologico
della fisica per i successivi 300 anni. Faccio notare che per
mettere in atto le possibilità della fisica newtoniana fu necessaria l’invenzione del calcolo infinitesimale da parte di
Newton e di Leibnitz indipendentemente, una scoperta
matematica necessaria per elaborare soluzioni numeriche. Il rapporto della matematica con la scienza è un argomento molto interessante. Alcuni, e io con loro, sostengono che la computazione veloce stia alla biologia e alle
scienze sociali come il calcolo infinitesimale sta alla fisica.
L’informatica è lo strumento matematico o formale che
sembra meglio associarsi alla struttura dei problemi posti
da molte scienze naturali moderne, spingendosi fino al
campo delle scienze sociali.
Il successo della fisica newtoniana ebbe un impatto significativo in svariati campi del pensiero del XVIII secolo.
12
LA NASCITA DI OGNI COSA
Alexander Pope riassunse molte di queste idee scrivendo:
«La natura e le leggi della natura giacevano nascoste nella
notte; Dio disse: Sia Newton! e tutto fu luce».
In meccanica, astronomia e meccanica celeste l’approccio di Newton fu portato avanti dai meccanicisti francesi
Laplace, Lagrange, D’Alembert, e altri. Nell’800 gli studi di
Gauss, Faraday, Maxwell e Herz diedero vita alle branche
fondamentali dell’ottica, dell’elettrologia e del magnetismo. Alla fine del XIX secolo la scienza mostrava una certa
completezza in diverse aree denominate oggi fisica classica.
In questi domini condizioni iniziali e condizioni al contorno conducevano a solide previsioni numeriche che potevano essere verificate dalle osservazioni. La gamma dei problemi risolvibili era limitata soltanto dalle complicazioni
matematiche.
In biologia l’800 vide affermarsi due teorie principali,
una profondamente riduzionista e l’altra di carattere diverso. La prima era la teoria cellulare, secondo cui tutta la materia vivente è costituita da cellule, che provengono da cellule preesistenti. L’istologia fu sviluppata per osservare e
analizzare i tessuti in termini di cellule, e la chimica fisiologica fu fondata per spiegare le cellule in termini di molecole. La seconda teoria, quella dell’evoluzione, era enigmatica
in quanto spiegava la comparsa di tutte le specie in termini
di evoluzione da taxa precedenti, ma senza una reale formulazione teorica a parte una vaga e un po’ tautologica teoria dell’idoneità alla sopravvivenza. Una terza teoria, la genetica, ossia l’analisi della trasmissione ereditaria dei caratteri, avrebbe chiarito le altre due, ma ci vollero quarant’anni perché fosse riscoperta, cosa che avvenne all’inizio del
’900. Gli studi originali di Gregor Mendel, infatti, non erano
mai stati accolti dalla scienza tradizionale, e passò molto
L’EMERGENZA DELL’EMERGENZA
13
tempo prima che le stesse leggi dell’ereditarietà fossero riscoperte indipendentemente.
Nel tardo ’800 la chimica venne unificata dalla stesura
della tavola periodica degli elementi come evidenza sperimentale. Tuttavia si discuteva se gli atomi fossero reali o
soltanto un espediente interpretativo. Credo che l’aspra discussione sia finita, perché tutte le teorie consistono di
espedienti esplicativi per prevedere i fenomeni, e i «veri»
atomi corrispondono all’inconoscibile Ding an sich (cosa in
sé) di Immanuel Kant, che sottende ai fenomeni. Si tratta di
una diatriba simbolica fra positivisti e realisti, che non deve
necessariamente essere risolta per andare avanti, anche se
la discussione è ancora aperta.
Molte delle questioni riguardanti l’atomismo trovarono
una convergenza nella vita e nel suicidio, nel 1906, del
grande fisico austriaco Ludwig Boltzmann. Il suo biografo
Engelbert Broda scrisse:
Può aver contribuito alla sua morte l’impressione che la teoria
atomica, per la quale aveva combattuto tutta la vita, stesse
passando in secondo piano. Lo sostenne, fra gli altri, il suo allievo di Lipsia Georg Jaffe. Alois Höfler, un influente amico
personale ma avversario filosofico, scrisse dopo la morte di
Boltzmann nel 1906: «I nemici dell’atomismo tradizionale che
facevano capo a Ernst Mach lo chiamavano (Boltzmann) “l’ultima colonna” di quell’ardita struttura mentale. Alcuni attribuivano addirittura i sintomi della sua depressione, che risalivano a diversi anni prima, alla sua consapevolezza che quella struttura stava vacillando e all’incapacità di impedirlo, nonostante la sua bravura matematica. […]
Fu una tragedia che la resistenza alla teoria atomica contribuisse alla depressione di Boltzmann, perché proprio all’epo-
14
LA NASCITA DI OGNI COSA
ca della sua morte questa teoria ottenne le vittorie più grandi.
Des Coudres scrisse: «In questo Boltzmann ingannò se stesso
a proprio svantaggio […]. E anche la bandiera sotto la quale i
nostri giovani sperimentatori fanno oggi scoperte sorprendenti – siano esse l’ultramicroscopio, l’effetto Doppler nei raggi
anodici (raggi canale) o le meraviglie delle sostanze radioattive – è quella dell’atomismo, la bandiera di Ludwig Boltzmann». Nel 1906 l’atomismo aveva già superato il momento
di minor considerazione, in gran parte grazie ai nuovi risultati
sperimentali.
I suddetti nuovi risultati sperimentali furono raccolti nel
1913 in un’opera eccezionale, Les atomes di Jean Perrin. In
quello che fu forse l’esempio più fulgido di come connettere diversi metodi della scienza classica, Perrin si concentrò
sulla determinazione del numero di Avogadro, cioè il numero universale di molecole presenti in una mole di sostanza. Perrin passò in rassegna 16 diversi metodi per determinarlo, molti dei quali sperimentati di persona in laboratorio (vedi tavola 1).
I metodi scelti da Perrin rispecchiano la fisica e la chimica della sua epoca. La viscosità dei gas può essere calcolata
a partire dalla teoria cinetica dei gas e dipende dal numero
di molecole per unità di volume. Poiché tale quantità è il
numero di moli per unità di volume moltiplicato per il numero di Avogadro, il valore sperimentale della viscosità
permette di ottenere la quantità desiderata.
La distribuzione delle emulsioni in un campo gravitazionale è calcolata con la meccanica statistica e dipende dall’energia potenziale delle particelle (mgh, massa per accelerazione gravitazionale per altezza) divisa per l’energia cinetica (kT, la costante di Boltzmann moltiplicata per la tem-
L’EMERGENZA DELL’EMERGENZA
15
peratura assoluta). Siccome la costante di Boltzmann è la
costante dei gas derivata dalla legge di Boyle divisa per il
numero di Avogadro, il suo valore determina la quantità
desiderata.
I tre metodi successivi dipendono dalla misura del moto browniano, ovvero il movimento casuale di particelle
microscopiche in un gas o un liquido. (Robert Brown osTavola 1
VALORI DEL NUMERO DI AVOGADRO
N/1022
Fenomeni osservati
(numero di Avogadro)
Viscosità dei gas (teoria cinetica)
62
Distribuzione verticale in emulsioni diluite
68
Distribuzione verticale in emulsioni concentrate
60
Spostamenti browniani
64
Moto browniano: rotazioni
65
diffusione
69
Fluttuazioni di densità in emulsioni concentrate
60
Opalescenza critica
65
Azzurro del cielo
65
Diffusione della luce nell’argon
69
Spettro del corpo nero
61
Carica di particelle microscopiche
61
Radioattività: cariche proiettate
62
elio generato
66
radio scomparso
64
energia irraggiata
60
16
LA NASCITA DI OGNI COSA
servò per primo il fenomeno nei granuli di polline in acqua.) Nel 1905 Einstein per spiegare il fenomeno formulò
una teoria basata sulla teoria cinetica molecolare dei liquidi. Osservando la traiettoria delle particelle browniane,
Perrin riuscì a calcolare la costante di Boltzmann e quindi
il numero di Avogadro.
I quattro metodi successivi sono basati sulla diffusione
della luce dovuta a una fluttuazione locale del numero di
molecole per unità di volume: il fenomeno determina una
fluttuazione locale dell’indice di rifrazione e diffusione della luce. (Fra l’altro, è per questo che il cielo è azzurro.) La
fluttuazione dipende dal numero di molecole per unità di
volume nel gas, che è il numero di moli per unità di volume
moltiplicato per il numero di Avogadro.
Per una nuova determinazione Perrin fece riferimento
alla famosa formula di Planck del 1901 per la distribuzione
spettrale della radiazione del corpo nero. Questa legge può
essere rappresentata usando due costanti universali: la costante di Planck (h) e quella di Boltzmann (k). Quest’ultima, come già detto, è la costante dei gas divisa per il numero di Avogadro, che conduce a una determinazione indipendente di N.
Il metodo successivo è basato sull’elettrochimica, in cui
la carica per mole di ioni univalenti è stata determinata da
Faraday e viene definita con il nome del suo creatore. Con
la prima determinazione della carica unitaria dell’elettrone,
divenne chiaro che la costante di Faraday divisa per la carica dell’elettrone era il numero di Avogadro.
Per gli ultimi quattro valori Perrin sfruttò il fenomeno appena scoperto della radioattività, dal quale ricavò quattro
metodi per determinare la costante universale di Avogadro,
uno dei quali illustra il fenomeno. Nel decadimento parti-
L’EMERGENZA DELL’EMERGENZA
17
cellare a viene espulso un nucleo di elio ionizzato. I decadimenti possono essere calcolati con un rilevatore di scintillamento, l’elio può essere raccolto sotto forma di gas, e la
quantità determinata con l’analisi volumetrica.
Perciò
n° di decadimenti/numero di Avogadro = moli di elio.
Contando i decadimenti e le moli di elio, si può determinare direttamente in maniera sperimentale il numero di Avogadro.
Perrin conclude:
Si rimane ammirati di fronte al miracolo di concordanze così
precise partendo da fenomeni così diversi. Dapprima il fatto
che si ritrovi la stessa grandezza, per ciascuno dei metodi adoperati, variando al massimo le condizioni della sua applicazione, e poi, che i numeri così definiti senza ambiguità da tanti
metodi coincidano. Tutto ciò dà alla realtà molecolare una verosimiglianza ben vicina alla certezza. […].
La teoria atomica ha trionfato. Ancora poco tempo fa assai numerosi, i suoi avversari, alfine conquistati, rinunciano uno dopo l’altro a sfide che furono a lungo legittime e senz’altro utili.
È a proposito di altre idee che ormai sarà condotto il conflitto
degli istinti di prudenza e di audacia il cui equilibrio è necessario al lento progresso della scienza umana. 1
In tutti e 16 i casi analizzati da Perrin la teoria consente
di eseguire degli esperimenti che conducono a dei numeri.
La corrispondenza numerica è la prova che convalida le
teorie: nella fisica classica si tratta di una condizione necessaria per accettare una teoria.
18
LA NASCITA DI OGNI COSA
La teoria atomica è centrale in fisica, chimica e biologia.
Proprio all’epoca in cui Perrin conduceva gli esperimenti
che portarono a Les atomes, Einstein e Planck portavano
avanti gli studi che condussero alla relatività e alla meccanica quantistica e con esse a un punto di vista del tutto nuovo sul mondo fisico. Nello stesso periodo Bohr formulava
la teoria dei livelli energetici degli atomi. Prima di rivolgerci a questo nuovo mondo, vediamo a che punto si trovava
la scienza all’inizio del XX secolo.
La meccanica, l’elettrologia e il magnetismo, l’ottica, l’idrodinamica, la termodinamica, la teoria cinetica e la meccanica celeste si erano ormai imposte come i pilastri della fisica. In biologia cominciava la grande stagione della genetica, e la fisiologia era alla ricerca delle proprie radici chimiche. La chimica organica stava trovando una spiegazione
nella geometria tetraedrica dei legami del carbonio, e la sintesi organica era impiegata in una grande varietà di nuovi
prodotti. La scoperta delle strutture degli zuccheri, degli
amminoacidi e dei composti eterociclici dell’azoto forniva
una solida base allo sviluppo della biochimica. La convinzione che la biologia potesse essere ricondotta alla chimica,
che a sua volta poteva ricondursi alla fisica, cominciava a
diventare diffusa anche se non universale.
La filosofia della scienza, spesso implicita, nelle sue varie forme si basava su un’osservazione iniziale, lo sviluppo di spiegazioni teoriche per i fenomeni osservati e il loro
successivo uso per prevedere altre osservazioni. Il successo o il fallimento delle previsioni forniva le radici epistemologiche per qualsiasi scienza. L’esempio emblematico
di questo tipo di scienza era lo studio del sistema solare,
in cui si potevano prevedere le traiettorie future dei pianeti con grande precisione. Le discipline sociali e cognitive
L’EMERGENZA DELL’EMERGENZA
19
erano considerate un campo del tutto separato dalle scienze chimiche e fisiche; la biologia stava nel mezzo, e ammiccava da una parte alla chimica e dall’altra all’etologia
e all’antropologia.
Ci furono tuttavia alcuni tentativi di colmare i vuoti. Gli
economisti del tardo ’800 avevano scoperto la termodinamica e cercavano di utilizzare i principi matematici di questa
scienza come base su cui sviluppare una teoria; a quest’approccio mancava però il potere predittivo della fisica.
Un approccio generico alla filosofia della scienza proseguì per tutto il XX secolo. È quanto delineato in due libri:
Logica della scoperta scientifica di Karl Popper (1934) e The
Nature of Physical Reality di Henry Margenau (1950). Popper
fornisce un punto di vista normativo sui requisiti logici necessari a una disciplina per essere considerata una scienza
empirica, mentre Margenau adotta un punto di vista descrittivo dei presupposti metafisici sui quali i fisici si basavano per formulare e accettare una teoria.
Entrambi gli approcci partono dall’osservabile e procedono con la formulazione di una teoria, solitamente matematica, per spiegare le relazioni fra gli oggetti osservati. La
teoria fa poi delle previsioni su altri oggetti osservabili e
viene verificata confrontando le previsioni con le osservazioni. Questa teoria rimane valida o decade in base alle corrispondenze o alle contraddizioni, di solito numeriche, fra
previsioni e osservazioni. È difficile inserire la teoria dell’evoluzione in tale sistema, perciò la biologia non rientra in
questo schema epistemologico bene come la fisica: i nemici
ideologici dell’evoluzionismo non mancano mai di sottolineare questa mancanza. Quando tratteremo la natura emergente dell’evoluzione, sarà più chiaro perché la scienza biologica non rientra in questo schema semplificato.
20
LA NASCITA DI OGNI COSA
Sia Popper sia Margenau si occuparono dell’epistemologia della scienza: «In che modo conosciamo?». Questa domanda è stata posta per la prima volta da Immanuel Kant
nelle sue Critiche. Non è stato un argomento molto amato
nel campo della scienza, e ancor meno nella religione, per
la quale la norma fondamentale è conoscere attraverso la
fede. Io invece considero l’epistemologia essenziale per la
comprensione.
Nella scienza partiamo da quello che ci appare immediatamente, i dati sensoriali che sono i contenuti del pensiero. Da questi dati, che sono forme, colori, suoni, sensazioni e misurazioni, sviluppiamo dei concetti teorici come gli oggetti solidi, gli atomi, gli elettroni e le onde di
probabilità. I concetti, nota Kant, non sono le inconoscibili «cose in sé», ma hanno a che fare con i contenuti del
pensiero. La scienza incomincia con la mente, che da un
lato percepisce le sensazioni e dall’altro formula i concetti; inoltre presuppone anche una comunità di cervelli che
siano d’accordo sui dati sensoriali e la verificabilità delle
conseguenze dei concetti. Qualsiasi siano le nostre idee filosofiche, la scienza comincia con la mente ed è un’attività pubblica. I concetti sono ordinati secondo una gerarchia che va dai quark agli atomi alle molecole agli organismi. La maggior parte dei neurobiologi contemporanei
tenta di risalire la scala gerarchica dagli atomi alla mente
per capire l’emergenza del pensiero in base agli elementi
sottostanti della gerarchia.
È ovvio che ciò crea un circolo epistemico: si comincia
con la mente come fattore primario e si percorre il circolo
dei concetti nel tentativo di spiegare la mente. Per me questa circolarità non è un problema, ma per molti scienziati è
una sorpresa. Si tratta di un’epistemologia che si accorda in
L’EMERGENZA DELL’EMERGENZA
21
qualche modo con l’idea di emergenza nell’universo (o almeno la parte di esso in cui viviamo) in evoluzione.
In base a questi concetti, si possono definire i seguaci del
materialismo o del realismo ingenuo come persone che credono che gli insiemi di particelle siano più reali del pensiero che le ha costruite. Al contrario, gli idealisti in senso filosofico ritengono che il pensiero sia più reale della gerarchia
di cose che costituisce il mondo esterno, le cose in sé. Secondo me entrambi i punti di vista sono meno soddisfacenti
dell’accettazione del circolo come conseguenza ontologica
di questo tipo di epistemologia. Esso riconosce l’esistenza
del mondo esterno senza bisogno che esista l’uomo, ma
ammette anche che la nostra conoscenza del mondo non è
indipendente da noi stessi, e che non potremo mai conoscere la cosa in sé come la conosce Dio.
Nella mia serie gerarchica di emergenze non seguo
un’ontologia, che potrebbe essere sconosciuta, ma adotto
l’epistemologia che ha permesso alla fisica di fare passi
avanti. In ogni caso, sviscerando i nuovi concetti di emergenza, scopriremo che questa epistemologia necessita di alcuni sviluppi non ancora considerati.
Spesso si fa una netta distinzione tra i dati sensoriali immediati e i concetti razionali. Tali discriminazioni sono
piuttosto vaghe, poiché la mente lavora con entrambe le cose, spesso senza separarle nettamente: le osservazioni hanno già una componente teorica e i concetti spesso non sono
lontani dai dati. Ciò non deve creare dei problemi filosofici:
il mondo è quello che è. La distinzione netta fra pensiero e
natura semplicemente non esiste.
All’inizio del nuovo secolo due sviluppi della fisica anticiparono idee la cui importanza filosofica non fu colta appieno fino a quasi 100 anni dopo. I concetti principali di emer-
22
LA NASCITA DI OGNI COSA
genza fanno riferimento alla meccanica statistica di Ludwig
Boltzmann, James Clark Maxwell e Josiah Willard Gibbs. L’idea fondante di caos deterministico fu formulata negli studi
di Henri Poincaré sulla stabilità del sistema solare.
I fondatori della meccanica statistica accettarono la visione atomistica e molecolare della materia e affermarono
inoltre che gli atomi e le molecole obbediscono alle leggi
della meccanica. Intendevano dimostrare che le leggi macroscopiche della termodinamica e della teoria cinetica si
possono ricavare dal moto di atomi e molecole, gli elementi
a cui tutto si riduce. Lavorando con insiemi di particelle o
di stati e dimostrando che i dati macroscopici osservabili
erano una media degli stati microscopici, furono in grado
di trattare variabili quali la pressione e la temperatura come
proprietà emergenti. Perciò mentre Perrin e altri sviluppavano la visione riduzionista degli atomi e delle molecole
come agenti operativi, i meccanici statistici dimostravano
che lo studio delle particelle microscopiche conduceva alle
leggi della termodinamica in termini di proprietà emergenti. Si tratta di un modello che dobbiamo tenere presente
passando in continuazione dal riduzionismo all’emergenza
nello studio dei livelli gerarchici.
Perciò, se per certi aspetti la meccanica statistica è simile
alla moderna teoria dell’emergenza, in una caratteristica
fondamentale è completamente diversa. Nell’approccio
gibbsiano si presuppone che la media temporale del comportamento di un sistema semplice sia uguale alla media di
un insieme di possibili entità scelte per rappresentare il sistema di interesse; perciò le leggi di sfoltimento impongono
al comportamento di convergere verso la media e non gli
permettono di divergere, come a volte succede nei sistemi
non in equilibrio studiati negli esempi contemporanei di
L’EMERGENZA DELL’EMERGENZA
23
emergenza. Il paradosso si risolve considerando che il caso
classico si riferisce soltanto a uno stato di equilibrio, che è
un estremo globale e si trova al fondo a una buca di energia
potenziale. Invece i sistemi complessi di solito sono ben
lontani dall’equilibrio e si rappresentano matematicamente
con un andamento irregolare nello spazio delle fasi. C’è
una differenza fondamentale fra i sistemi in equilibrio e
quelli non in equilibrio. Questi ultimi non possono essere
considerati in base agli estremi globali, un errore che spesso
commette chi non ha colto appieno la differenza fra i due
casi e crede di poter derivare un comportamento biologico
nello stesso modo degli estremi di una funzione.
Henri Poincaré fu un matematico francese inserito nella
tradizione (risalente a Isaac Newton) degli studi matematici sul funzionamento del sistema solare, delle orbite dei
pianeti e altre ricerche più specifiche. Decantando il successo delle leggi meccaniche e gravitazionali di Newton nel
predire le leggi di Keplero sul moto dei pianeti, abbiamo
ignorato un problema di questo approccio, che fu in seguito
considerato da Poincaré.
Le leggi di Keplero e la spiegazione di Newton avevano
tenuto conto di due soli corpi: la Terra e il Sole. Quando cercarono di includere nei calcoli anche la Luna e gli altri pianeti, i teorici successivi incontrarono un grave problema:
per i sistemi formati da tre o più corpi non erano possibili
soluzioni analitiche esatte dei problemi meccanici. La difficoltà aveva radici profonde nella matematica utilizzata.
Dopo Newton generazioni di matematici tentarono di risolvere il problema dei tre corpi dal punto di vista analitico,
tutti senza successo.
Una difficoltà analoga si presentò nello studio della stabilità del sistema solare. Le orbite dei pianeti erano fisse per
24
LA NASCITA DI OGNI COSA
sempre o sarebbero cambiate in qualche modo sconosciuto?
Nel tardo ’800 Poincaré studiò la questione e scoprì alcune
incertezze nella dinamica celeste che oggi chiameremmo
caos deterministico: non era possibile prevedere le orbite
per un futuro molto lontano. Cent’anni dopo, la scoperta di
Poincaré divenne determinante per le teorie del caos e della
complessità.
La fisica del XIX secolo considerava lo scienziato come
un osservatore separato dal funzionamento del sistema in
esame. Nella prima metà del XX secolo questo punto di vista è cambiato in tre modi. Primo, la teoria della relatività
speciale ha inserito tutte le misurazioni nel contesto del sistema di riferimento inerziale dell’osservatore, collegando in
questo modo lo scienziato e il sistema oggetto di studio.
Una delle prospettive della meccanica quantistica ha poi ridotto funzione di probabilità cumulata a un evento in cui
un osservatore compie un’osservazione: lo scienziato come
osservatore diventa perciò parte integrante del sistema studiato. Da ultimo, la teoria dell’informazione ha definito
l’entropia come misura dell’ignoranza dell’osservatore rispetto allo stato microscopico di un sistema quando ne è
noto lo stato macroscopico. La natura probabilistica della
meccanica quantistica ha messo in crisi la certezza della
realtà fisica com’era concepita dalla fisica classica. Tutto ciò
era coerente con il circolo epistemico che parte dall’osservazione e arriva alla teoria per poi tornare all’osservazione,
proprio della maggior parte delle teorie riduzionistiche, ma
che conferisce all’osservatore un ruolo speciale.
La biologia, che nel XX secolo era partita come scienza
osservativa per classificare gli organismi e collocarli in una
piramide evolutiva, nel secolo successivo è diventata la più
riduzionistica, atomistica e strutturale di tutte le scienze. I
L’EMERGENZA DELL’EMERGENZA
25
biologi molecolari hanno infatti ridotto tutti i processi al
funzionamento di strutture chimiche note. La biologia molecolare, il cui simbolo è la struttura a doppia elica del
DNA, ha raggiunto un enorme successo, il massimo possibile con tale approccio scientifico. Solo con le scienze neurologiche e cognitive è stato necessario ritornare alla questione dell’osservatore in biologia.
Sarà istruttivo un esempio di che cosa si possa e non si
possa fare nel contesto della biologia molecolare riduzionistica. Data una proteina purificata, possiamo farla cristallizzare, e con la diffrazione a raggi X possiamo determinarne
con precisione la struttura tridimensionale, atomo per atomo. Supponiamo invece di avere la sequenza di amminoacidi di una proteina, derivata dalla sequenza del DNA che
ne rappresenta il codice genetico, e di voler calcolare la
struttura a partire da quella sequenza. Assumendo di avere
tutte le energie di interazione in funzione della distanza fra
i vari amminoacidi, vogliamo trovare la configurazione stabile, ovvero quella per cui l’energia è minima. Ci sono talmente tante configurazioni possibili che un computer grande e antico quando l’universo non potrebbe calcolarle tutte.
Calcoli di questo tipo si definiscono non computabili.
Dobbiamo trovare un modo di eseguire o aggirare un
calcolo del genere selezionando o «sfoltendo» o eliminando
radicalmente la maggior parte degli stati. La soluzione
emergente fornisce un’idea del percorso verso lo stato stabile. Per ridurre la dimensionalità del sistema in modo che
sia computazionalmente trattabile è necessario un algoritmo di selezione.
Il tentativo di calcolare il risultato tenendo conto di tutte
le possibili configurazioni è l’approccio convenzionale alla
Popper (The Methodology of Karl Popper) al ripiegamento
26
LA NASCITA DI OGNI COSA
proteico. L’introduzione di algoritmi selettivi per cercare
soluzioni plausibili è un approccio epistemologico piuttosto diverso e molto più difficile da provare attraverso la falsificazione, ed è troppo semplice per essere toccato da una
verifica metaforica. Tuttavia la selezione è un modo di utilizzare la scienza per affrontare svariati problemi che prima
non erano suscettibili di studio. Quando funziona può far
emergere qualcosa di nuovo e una visione del mondo insolita. Ritorneremo su questo approccio dopo esserci occupati
di varie emergenze che hanno reso il mondo quello che è.
Alla fine del XIX secolo diversi rami della scienza biologica stavano maturando nelle discipline della neurobiologia. Gli studi di Ramón y Cajal e di Camillo Golgi rivelarono che la base istologica del sistema nervoso è un immenso insieme di neuroni, cellule collegate fra loro in una
rete raffinata e molto complessa. Si scoprì che il numero di
cellule nervose che compongono il cervello umano è nell’ordine di grandezza di 10 trilioni. Benché la sensazione
fisica e la conoscenza siano entrambe collegate all’attività
del cervello, c’è uno scarto fra le attività fisiologiche e l’atto del pensiero più semplice. Anche se comprendiamo l’istologia del sistema nervoso e la fisiologia del potenziale
d’azione e dell’attività sinaptica, siamo ben lungi dal penetrare la natura della coscienza e altre proprietà integrate
del sistema nervoso.
Verso la metà del XX secolo, quando i computer cominciarono a elaborare le informazioni su vasta scala, sorsero
nuovi problemi. John von Neumann, uno dei fondatori della scienza computazionale, scrisse nel 1957 un libro eccezionale, in cui poneva la questione del rapporto fra computer
e cervello (Il computer e il cervello). Branche dell’informatica
come le reti neurali hanno contribuito ai tentativi di model-
L’EMERGENZA DELL’EMERGENZA
27
lizzare con algoritmi l’attività di gruppi di neuroni.
Tutti gli sviluppi della neurobiologia rientrano nello sforzo tuttora in corso di capire come il pensiero emerga dall’attività degli organismi. Personalmente credo sia chiaro che
siamo solo all’inizio di quest’importantissima ricerca.
Nel corso del XX secolo aumentò sempre più la consapevolezza che la biologia si occupa non solo di materia ed
energia, ma anche di informazione. Quando quest’ultima
prese forma negli studi di Claude Shannon, i biologi risposero subito, e nel 1953 Henry Quastler pubblicò Essays on
the Use of Information Theory in Biology. La genetica e lo studio dell’evoluzione hanno adottato il linguaggio della teoria dell’informazione, che trova anche diversi usi nella linguistica. La biologia a livello molecolare o di ecologia globale è ricca di informazioni, e ciò ha stabilito le basi della
biologia matematica. Le emergenze biologiche di cui parleremo sono in parte anche emergenze di informazione.
La caratteristica fondamentale della scienza teorica dell’ultimo terzo del ’900 è lo sviluppo e l’utilizzo dei computer
digitali veloci come strumento principale. In passato molti
problemi di chimica e fisica concettualmente comprensibili
erano stati accantonati perché non affrontabili con le tecniche matematiche allora a disposizione. A lungo si era applicata ad alcuni di quei problemi la tecnica computazionale
senza ausili meccanici, fin dai tempi di matematici famosi
come Carl Friedrich Gauss. Oggi i computer hanno aumentato di molti ordini di grandezza la velocità e la complessità
dei problemi che sono in grado di affrontare. In seguito al
grande successo della computazione si cominciò ad affrontare problemi sempre più complessi in chimica e in fisica, e
gli studiosi di certi rami della biologia e delle scienze sociali,
come gli economisti, presero a basarsi sulla costruzione di
28
LA NASCITA DI OGNI COSA
modelli computerizzati. I nuovi campi e approcci furono
riuniti sotto il nome di scienza della complessità, e si cercarono caratteristiche in comune fra le varie discipline.
Nei modelli costruiti su computer per risolvere vari problemi, a cominciare dagli studi meteorologici di Edward
Lorenz, le traiettorie del computer dipendevano strettamente dalle condizioni iniziali o dalle condizioni al contorno. Ciò portava al caos deterministico nei casi in cui non era
possibile calcolare il risultato perché non si potevano porre
le condizioni in modo abbastanza preciso: il computer, limitato dal numero di cifre significative che può trattare, non
riusciva a fare i calcoli con precisione sufficiente a ottenere
un risultato, seppur approssimativo. Così si è sviluppato il
campo del caos deterministico.
In un altro genere di problemi si conoscono le leggi di interazione, ma la complessità è tale (o il numero di stati possibili è così alto) che il problema supera la capacità di qualsiasi computer disponibile o perfino immaginabile. Gli
scienziati, piuttosto che rinunciare, hanno cercato modi di
sfoltire il campo delle soluzioni possibili o i gruppi delle soluzioni ammissibili. Ciò può causare delle sorprese nelle
traiettorie di sistema, creando dei comportamenti nuovi,
che sono le proprietà emergenti del sistema, proprietà del
tutto. Si tratta di elementi nuovi che conseguono dalle leggi
di sistema, ma non si possono prevedere in base alle proprietà delle componenti del sistema. Gli individui che compongono il tutto sono gli agenti designati. Ad esempio, le
leggi di interazione dei singoli insetti (gli agenti) possono
dare vita alla configurazione e al comportamento dello
sciame (il successivo livello gerarchico degli agenti).
L’approccio riduzionista ci porta a cercare le soluzioni
in livelli gerarchici sempre più bassi. Per andare nella di-
L’EMERGENZA DELL’EMERGENZA
29
rezione opposta, invece, dobbiamo applicare degli algoritmi di sfoltimento e cercare le entità o proprietà emergenti
che diventano gli agenti del passaggio al livello gerarchico
successivo.
L’emergenza è una proprietà sia dei modelli creati al
computer sia dei sistemi su cui si basano tali modelli. E così
la natura a ogni livello crea strutture e comportamenti nuovi selezionandoli nell’enorme campo del possibile tramite
lo sfoltimento, che estrapola il reale dal potenziale. Le leggi
di sfoltimento sono l’aspetto meno chiaro di questa prospettiva sull’emergenza, e la loro comprensione sarà essenziale nella scienza del futuro. Sicuramente saranno necessari nuovi approcci epistemologici: abbiamo per così dire costretto la scienza a entrare in campi inesplorati.
L’emergenza è dunque il contrario del riduzionismo.
Quest’ultimo cerca di andare dal tutto alle parti, e ha avuto
un successo enorme. L’emergenza invece cerca di dedurre
le caratteristiche del tutto a partire dalla comprensione delle parti. Entrambi gli approcci possono risultare reciprocamente coerenti.
Letture consigliate:
Engelbert Broda, Ludwig Boltzmann, Ox Bow Press, Woodbridge 1983 (originale tedesco: Ludwig Boltzmann: Mensch,
Physicker, Philosoph, F. Deuticke, Wien 1955).
Murray Gell-Mann, Il quark e il giaguaro: avventure nel semplice e nel complesso, Bollati Boringhieri, Torino 2000.
John H. Holland, Hidden Order: How Adaptation Builds Complexity, Addison Wesley, Reading 1995.
Stuart Kauffman, A casa nell’universo: le leggi del caos e della
30
LA NASCITA DI OGNI COSA
complessità, Editori Riuniti, Roma 2001.
Robert Lindsay, Physical Mechanics, D. Van Nostrand Co.,
Inc., Princeton 1933.
Henri Margenau, The Nature of Physical Reality, Mc GrawHill, New York 1950 (ristampa Ox Bow Press, Woodbridge
1977).
Jean Perrin, Gli atomi, Editori Riuniti, Roma 1981.
Karl Popper, Logica della scoperta scientifica: il carattere autocorrettivo della scienza, Torino, Einaudi 2010.
Henry Quastler (ed. by), Essays on the Use of Information
Theory in Biology, University of Illinois Press, Urbana 1953.
John Von Neumann, Il computer e il cervello, Bompiani, Milano 1999.
1
Jean Perrin, Gli atomi, Editori Riuniti, Roma 1981, pp. 218-219.