Harold J. Morowitz, già direttore del Krasnow Institute for Advanced Study di Fairfax, Virginia, è Robinson Professor di biologia e filosofia naturale alla George Mason University. È autore di numerosi libri e articoli scientifici. I suoi scritti sono apparsi su grandi quotidiani e riviste come «The New York Times», «Discover», «The Washington Post», «The Sciences» e «Psychology Today». www.lindau.it www.facebook.com/Edizioni.Lindau twitter.com/EdizioniLindau (@EdizioniLindau) € 26,00 Iva assolta dall’Editore I S B N 978-88-6708-100-4 9 788867 081004 LA NASCITA DI OGNI COSA «Con una cultura enciclopedica, senso dell’umorismo, chiarezza di stile e grande acutezza, Morowitz affronta le questioni fondamentali che stanno fra scienza e religione, e spiega in modo convincente l’inesorabile crescita della complessità, dal Big Bang fino alle galassie e alla vita, e forse oltre.» (Robert Hazen, Carnegie Institution di Washington) H.J. Morowitz Nella Nascita di ogni cosa Harold J. Morowitz, uno fra i più importanti scienziati che si dedicano allo studio della complessità, ci guida in un affascinante tour in 28 tappe (ognuna delle quali corrisponde a un’emergenza fondamentale) della genesi dell’universo: dalla nascita delle stelle a quella degli elementi, alla formazione del sistema solare e dei pianeti, dal primo apparire della vita fino all’emergere del linguaggio, all’invenzione dell’agricoltura, alla nascita delle città. Nella storia dell’universo Morowitz ricerca però anche le tracce di Dio, di quel Dio non personale postulato da Spinoza, Giordano Bruno ed Einstein, che secondo lui è possibile riconoscere attraverso lo studio delle leggi della natura. La nascita di ogni cosa propone un punto di vista nuovo e affascinante sul nostro passato remoto e offre un contributo importante al dialogo fra scienza e religione. Harold J. Morowitz LA NASCITA DI OGNI COSA Come l’universo è diventato complesso Dal Big Bang allo spirito dell’uomo in 28 passaggi I Delfini Titolo originale: The Emergence of Everything. How the World Became Complex. © 2002 by Harold J. Morowitz Traduzione di Luisa Anzolin, Vincenzo Perna e Thais Siciliano © 2014 Lindau s.r.l. corso Re Umberto 37 - 10128 Torino Prima edizione: aprile 2014 ISBN 978-88-6708-100-4 Harold J. Morowitz LA NASCITA DI OGNI COSA Come l’universo è diventato complesso Dal Big Bang allo spirito dell’uomo in 28 passaggi LA NASCITA DI OGNI COSA Prefazione Ho iniziato a scrivere questo libro nel tentativo di reificare il concetto di emergenza osservandone alcuni esempi, di cui ho indagato le caratteristiche e le analogie più significative. Ho voluto porre l’accento sulle emergenze naturali piuttosto che su quelle che possono essere generate quasi senza limiti creando sistemi complessi per mezzo del computer. Anziché scegliere alcune situazioni a caso ne ho selezionate una gamma in ordine temporale, partendo dagli inizi dell’universo conosciuto per arrivare alla più umana delle attività. Le ho poi suddivise, un po’ arbitrariamente, in 28 casi, con l’intento di osservare nel modo più dettagliato possibile le caratteristiche di ogni emergenza. Mentre riflettevo sui casi che avevo scelto, continuavo a leggere con attenzione le riviste «Nature» e «Science». Quasi ogni settimana vi trovavo almeno un articolo che esplorava in modo significativo una o più emergenze. Ben presto mi sono reso conto che il mio obiettivo originario era fin troppo ambizioso. Sebbene desiderabile, pretendere di svolgere un’analisi dettagliata di ogni emergenza era davvero poco realistico. Così alla fine ho deciso di dare al libro un taglio di più ampio respiro, cercando di cogliere una visione d’insieme delle emergenze. Porgo dunque le mie scu- 8 LA NASCITA DI OGNI COSA se agli esperti per aver fornito un ritratto piuttosto fugace di ciascuna emergenza. Mi torna in mente ciò che scrisse Herman Melville a proposito del suo sistema cetologico: «L’intero libro altro non è se non un abbozzo, anzi, solo l’abbozzo di un abbozzo». Ovviamente, abbiamo appena cominciato a guardare la scienza dalla nuova prospettiva delle emergenze. Sono convinto che ciò aiuterà a comprendere meglio lo sviluppo evolutivo dell’universo, del nostro sistema solare, del nostro biota e dell’umanità. Quest’opera vuole introdurre alcuni concetti che stanno cominciando ad attirare l’attenzione. L’approccio da me scelto è prevalentemente scientifico, ma vi compaiono alcuni elementi più filosofici e teologici. Non devo certo scusarmene. Credo profondamente nel monismo, in un mondo in definitiva abbracciato da un unico percorso di comprensione. Giorno dopo giorno, il sole si alza sempre sullo stesso mondo. Questo libro deve molto a tutti coloro che hanno discusso con me i suoi argomenti, letto e commentato alcuni estratti del manoscritto e condiviso la mia ricerca. Sperando di non dimenticare nessuno, voglio ringraziare in particolare Ann Butler, James Trefil, Ann Palkovich, James Olds, Robert Hazen, Rob Shumaker, Barbara Given, Lev Vekker, Neil Manson, Karl Stephan, James Barham, Rob Waltzer, James Salmon e Philip Clayton. Un ringraziamento speciale va a Iris Knell, amanuense, coordinatrice dei Robinson Professors e ferrea custode della sintassi. 1 L’emergenza dell’emergenza L’autore di Ecclesiaste dichiarando che: «Ciò che è stato sarà e ciò che si è fatto si rifarà; non c’è niente di nuovo sotto il sole» aveva un punto di vista molto limitato. Senza dubbio non aveva considerato che, in un universo che probabilmente risale a circa 12 miliardi di anni fa, il sole ha meno di cinque miliardi di anni; e neppure aveva osservato che il regno di cui era suddito esisteva da poche centinaia di anni, e inoltre si verificavano in continuazione cambiamenti culturali e politici. Questo libro sull’emergenza si occupa di modi di pensare totalmente nuovi: moderne prospettive sul mondo che accompagnano la rivoluzione informatica, una nuova propensione degli scienziati a fare i conti con la complessità, e il concetto stesso di emergenza che indica come in un universo così vecchio possa nascere la novità. Insomma, contesteremo sia l’autore di Ecclesiaste sia quelli che pensano alla «fine della scienza». Nel pensiero analitico sta avvenendo qualcosa di nuovo e stimolante, che promette modi inediti di intendere la filosofia, la religione e tutto il mondo. All’università lessi José Ortega y Gasset, il filosofo che dice che la scienza sostituisce le domande difficili a cui non riusciamo a rispondere con domande più semplici per le 10 LA NASCITA DI OGNI COSA quali possiamo invece cercare delle soluzioni. Ortega y Gasset (1883-1955) si riferiva alla scienza e alla mentalità del suo tempo, quando la ricerca della semplificazione e della certezza matematica prevaleva sulle prospettive della complessificazione, limitando perciò l’ambito delle scienze. Negli ultimi cinquant’anni, l’invenzione e lo sviluppo di computer molto veloci hanno modificato radicalmente le domande che possiamo porci e il modo in cui scegliamo di formularle. Vediamo come siamo arrivati a tutto ciò. Per apprezzare il concetto di emergenza e il contesto di complessità da cui nasce, faremo prima un breve sunto della storia della scienza post-rinascimentale, per capire come si sia sviluppata la mentalità precedente al computer e come le prospettive siano cambiate in continuazione. Vedremo poi le cause dei profondi mutamenti della conoscenza che sono intervenuti negli ultimi anni con le scoperte più recenti. Cominciamo da quello che molti considerano l’inizio della scienza moderna, la meccanica di Galileo Galilei, che identificò lo spazio e il tempo come variabili appropriate per lo studio della fisica. Lo studioso formulò la legge della caduta dei corpi e sviluppò il concetto di inerzia: le opinioni dell’epoca furono radicalmente sconvolte in un momento di grande fermento intellettuale. Galilei sostenne anche la teoria eliocentrica di Copernico. Il suo contemporaneo Keplero dedusse dalle osservazioni di Tycho Brahe che le orbite descritte dai pianeti sono ellissi di cui il Sole occupa uno dei fuochi. Keplero scoprì inoltre che un segmento (il raggio vettore) che unisce un pianeta al centro del Sole descrive aree uguali in intervalli di tempo uguali. La terza legge del moto dei pianeti mette in rapporto il quadrato del periodo orbitale dei pianeti con il cubo della distanza media dal Sole. L’EMERGENZA DELL’EMERGENZA 11 Le leggi del movimento dei pianeti con il Sole in uno dei fuochi, dedotte dall’osservazione, rimasero evidenze sperimentali finché Isaac Newton non formulò le leggi del moto, sviluppò il calcolo differenziale e postulò la legge della gravitazione universale fra due corpi. Utilizzando queste leggi generali della meccanica e della gravità divenne possibile derivare da principi fondamentali le leggi di Keplero sul moto dei pianeti. Si tratta di fisica elementare, che oggi viene comunemente insegnata nei primi anni di università. Ricordo ancora l’emozione che provai nel derivare quelle leggi fisiche durante il corso di meccanica di cui conservo ancora il libro di testo. Tali risultati sulla dinamica planetaria, disponibili dalla fine del ’600, erano molto importanti, poiché permettevano di prevedere le traiettorie dei pianeti in base a leggi matematiche; l’osservazione confermava poi le previsioni teoriche. Questo approccio definì il contesto metodologico della fisica per i successivi 300 anni. Faccio notare che per mettere in atto le possibilità della fisica newtoniana fu necessaria l’invenzione del calcolo infinitesimale da parte di Newton e di Leibnitz indipendentemente, una scoperta matematica necessaria per elaborare soluzioni numeriche. Il rapporto della matematica con la scienza è un argomento molto interessante. Alcuni, e io con loro, sostengono che la computazione veloce stia alla biologia e alle scienze sociali come il calcolo infinitesimale sta alla fisica. L’informatica è lo strumento matematico o formale che sembra meglio associarsi alla struttura dei problemi posti da molte scienze naturali moderne, spingendosi fino al campo delle scienze sociali. Il successo della fisica newtoniana ebbe un impatto significativo in svariati campi del pensiero del XVIII secolo. 12 LA NASCITA DI OGNI COSA Alexander Pope riassunse molte di queste idee scrivendo: «La natura e le leggi della natura giacevano nascoste nella notte; Dio disse: Sia Newton! e tutto fu luce». In meccanica, astronomia e meccanica celeste l’approccio di Newton fu portato avanti dai meccanicisti francesi Laplace, Lagrange, D’Alembert, e altri. Nell’800 gli studi di Gauss, Faraday, Maxwell e Herz diedero vita alle branche fondamentali dell’ottica, dell’elettrologia e del magnetismo. Alla fine del XIX secolo la scienza mostrava una certa completezza in diverse aree denominate oggi fisica classica. In questi domini condizioni iniziali e condizioni al contorno conducevano a solide previsioni numeriche che potevano essere verificate dalle osservazioni. La gamma dei problemi risolvibili era limitata soltanto dalle complicazioni matematiche. In biologia l’800 vide affermarsi due teorie principali, una profondamente riduzionista e l’altra di carattere diverso. La prima era la teoria cellulare, secondo cui tutta la materia vivente è costituita da cellule, che provengono da cellule preesistenti. L’istologia fu sviluppata per osservare e analizzare i tessuti in termini di cellule, e la chimica fisiologica fu fondata per spiegare le cellule in termini di molecole. La seconda teoria, quella dell’evoluzione, era enigmatica in quanto spiegava la comparsa di tutte le specie in termini di evoluzione da taxa precedenti, ma senza una reale formulazione teorica a parte una vaga e un po’ tautologica teoria dell’idoneità alla sopravvivenza. Una terza teoria, la genetica, ossia l’analisi della trasmissione ereditaria dei caratteri, avrebbe chiarito le altre due, ma ci vollero quarant’anni perché fosse riscoperta, cosa che avvenne all’inizio del ’900. Gli studi originali di Gregor Mendel, infatti, non erano mai stati accolti dalla scienza tradizionale, e passò molto L’EMERGENZA DELL’EMERGENZA 13 tempo prima che le stesse leggi dell’ereditarietà fossero riscoperte indipendentemente. Nel tardo ’800 la chimica venne unificata dalla stesura della tavola periodica degli elementi come evidenza sperimentale. Tuttavia si discuteva se gli atomi fossero reali o soltanto un espediente interpretativo. Credo che l’aspra discussione sia finita, perché tutte le teorie consistono di espedienti esplicativi per prevedere i fenomeni, e i «veri» atomi corrispondono all’inconoscibile Ding an sich (cosa in sé) di Immanuel Kant, che sottende ai fenomeni. Si tratta di una diatriba simbolica fra positivisti e realisti, che non deve necessariamente essere risolta per andare avanti, anche se la discussione è ancora aperta. Molte delle questioni riguardanti l’atomismo trovarono una convergenza nella vita e nel suicidio, nel 1906, del grande fisico austriaco Ludwig Boltzmann. Il suo biografo Engelbert Broda scrisse: Può aver contribuito alla sua morte l’impressione che la teoria atomica, per la quale aveva combattuto tutta la vita, stesse passando in secondo piano. Lo sostenne, fra gli altri, il suo allievo di Lipsia Georg Jaffe. Alois Höfler, un influente amico personale ma avversario filosofico, scrisse dopo la morte di Boltzmann nel 1906: «I nemici dell’atomismo tradizionale che facevano capo a Ernst Mach lo chiamavano (Boltzmann) “l’ultima colonna” di quell’ardita struttura mentale. Alcuni attribuivano addirittura i sintomi della sua depressione, che risalivano a diversi anni prima, alla sua consapevolezza che quella struttura stava vacillando e all’incapacità di impedirlo, nonostante la sua bravura matematica. […] Fu una tragedia che la resistenza alla teoria atomica contribuisse alla depressione di Boltzmann, perché proprio all’epo- 14 LA NASCITA DI OGNI COSA ca della sua morte questa teoria ottenne le vittorie più grandi. Des Coudres scrisse: «In questo Boltzmann ingannò se stesso a proprio svantaggio […]. E anche la bandiera sotto la quale i nostri giovani sperimentatori fanno oggi scoperte sorprendenti – siano esse l’ultramicroscopio, l’effetto Doppler nei raggi anodici (raggi canale) o le meraviglie delle sostanze radioattive – è quella dell’atomismo, la bandiera di Ludwig Boltzmann». Nel 1906 l’atomismo aveva già superato il momento di minor considerazione, in gran parte grazie ai nuovi risultati sperimentali. I suddetti nuovi risultati sperimentali furono raccolti nel 1913 in un’opera eccezionale, Les atomes di Jean Perrin. In quello che fu forse l’esempio più fulgido di come connettere diversi metodi della scienza classica, Perrin si concentrò sulla determinazione del numero di Avogadro, cioè il numero universale di molecole presenti in una mole di sostanza. Perrin passò in rassegna 16 diversi metodi per determinarlo, molti dei quali sperimentati di persona in laboratorio (vedi tavola 1). I metodi scelti da Perrin rispecchiano la fisica e la chimica della sua epoca. La viscosità dei gas può essere calcolata a partire dalla teoria cinetica dei gas e dipende dal numero di molecole per unità di volume. Poiché tale quantità è il numero di moli per unità di volume moltiplicato per il numero di Avogadro, il valore sperimentale della viscosità permette di ottenere la quantità desiderata. La distribuzione delle emulsioni in un campo gravitazionale è calcolata con la meccanica statistica e dipende dall’energia potenziale delle particelle (mgh, massa per accelerazione gravitazionale per altezza) divisa per l’energia cinetica (kT, la costante di Boltzmann moltiplicata per la tem- L’EMERGENZA DELL’EMERGENZA 15 peratura assoluta). Siccome la costante di Boltzmann è la costante dei gas derivata dalla legge di Boyle divisa per il numero di Avogadro, il suo valore determina la quantità desiderata. I tre metodi successivi dipendono dalla misura del moto browniano, ovvero il movimento casuale di particelle microscopiche in un gas o un liquido. (Robert Brown osTavola 1 VALORI DEL NUMERO DI AVOGADRO N/1022 Fenomeni osservati (numero di Avogadro) Viscosità dei gas (teoria cinetica) 62 Distribuzione verticale in emulsioni diluite 68 Distribuzione verticale in emulsioni concentrate 60 Spostamenti browniani 64 Moto browniano: rotazioni 65 diffusione 69 Fluttuazioni di densità in emulsioni concentrate 60 Opalescenza critica 65 Azzurro del cielo 65 Diffusione della luce nell’argon 69 Spettro del corpo nero 61 Carica di particelle microscopiche 61 Radioattività: cariche proiettate 62 elio generato 66 radio scomparso 64 energia irraggiata 60 16 LA NASCITA DI OGNI COSA servò per primo il fenomeno nei granuli di polline in acqua.) Nel 1905 Einstein per spiegare il fenomeno formulò una teoria basata sulla teoria cinetica molecolare dei liquidi. Osservando la traiettoria delle particelle browniane, Perrin riuscì a calcolare la costante di Boltzmann e quindi il numero di Avogadro. I quattro metodi successivi sono basati sulla diffusione della luce dovuta a una fluttuazione locale del numero di molecole per unità di volume: il fenomeno determina una fluttuazione locale dell’indice di rifrazione e diffusione della luce. (Fra l’altro, è per questo che il cielo è azzurro.) La fluttuazione dipende dal numero di molecole per unità di volume nel gas, che è il numero di moli per unità di volume moltiplicato per il numero di Avogadro. Per una nuova determinazione Perrin fece riferimento alla famosa formula di Planck del 1901 per la distribuzione spettrale della radiazione del corpo nero. Questa legge può essere rappresentata usando due costanti universali: la costante di Planck (h) e quella di Boltzmann (k). Quest’ultima, come già detto, è la costante dei gas divisa per il numero di Avogadro, che conduce a una determinazione indipendente di N. Il metodo successivo è basato sull’elettrochimica, in cui la carica per mole di ioni univalenti è stata determinata da Faraday e viene definita con il nome del suo creatore. Con la prima determinazione della carica unitaria dell’elettrone, divenne chiaro che la costante di Faraday divisa per la carica dell’elettrone era il numero di Avogadro. Per gli ultimi quattro valori Perrin sfruttò il fenomeno appena scoperto della radioattività, dal quale ricavò quattro metodi per determinare la costante universale di Avogadro, uno dei quali illustra il fenomeno. Nel decadimento parti- L’EMERGENZA DELL’EMERGENZA 17 cellare a viene espulso un nucleo di elio ionizzato. I decadimenti possono essere calcolati con un rilevatore di scintillamento, l’elio può essere raccolto sotto forma di gas, e la quantità determinata con l’analisi volumetrica. Perciò n° di decadimenti/numero di Avogadro = moli di elio. Contando i decadimenti e le moli di elio, si può determinare direttamente in maniera sperimentale il numero di Avogadro. Perrin conclude: Si rimane ammirati di fronte al miracolo di concordanze così precise partendo da fenomeni così diversi. Dapprima il fatto che si ritrovi la stessa grandezza, per ciascuno dei metodi adoperati, variando al massimo le condizioni della sua applicazione, e poi, che i numeri così definiti senza ambiguità da tanti metodi coincidano. Tutto ciò dà alla realtà molecolare una verosimiglianza ben vicina alla certezza. […]. La teoria atomica ha trionfato. Ancora poco tempo fa assai numerosi, i suoi avversari, alfine conquistati, rinunciano uno dopo l’altro a sfide che furono a lungo legittime e senz’altro utili. È a proposito di altre idee che ormai sarà condotto il conflitto degli istinti di prudenza e di audacia il cui equilibrio è necessario al lento progresso della scienza umana. 1 In tutti e 16 i casi analizzati da Perrin la teoria consente di eseguire degli esperimenti che conducono a dei numeri. La corrispondenza numerica è la prova che convalida le teorie: nella fisica classica si tratta di una condizione necessaria per accettare una teoria. 18 LA NASCITA DI OGNI COSA La teoria atomica è centrale in fisica, chimica e biologia. Proprio all’epoca in cui Perrin conduceva gli esperimenti che portarono a Les atomes, Einstein e Planck portavano avanti gli studi che condussero alla relatività e alla meccanica quantistica e con esse a un punto di vista del tutto nuovo sul mondo fisico. Nello stesso periodo Bohr formulava la teoria dei livelli energetici degli atomi. Prima di rivolgerci a questo nuovo mondo, vediamo a che punto si trovava la scienza all’inizio del XX secolo. La meccanica, l’elettrologia e il magnetismo, l’ottica, l’idrodinamica, la termodinamica, la teoria cinetica e la meccanica celeste si erano ormai imposte come i pilastri della fisica. In biologia cominciava la grande stagione della genetica, e la fisiologia era alla ricerca delle proprie radici chimiche. La chimica organica stava trovando una spiegazione nella geometria tetraedrica dei legami del carbonio, e la sintesi organica era impiegata in una grande varietà di nuovi prodotti. La scoperta delle strutture degli zuccheri, degli amminoacidi e dei composti eterociclici dell’azoto forniva una solida base allo sviluppo della biochimica. La convinzione che la biologia potesse essere ricondotta alla chimica, che a sua volta poteva ricondursi alla fisica, cominciava a diventare diffusa anche se non universale. La filosofia della scienza, spesso implicita, nelle sue varie forme si basava su un’osservazione iniziale, lo sviluppo di spiegazioni teoriche per i fenomeni osservati e il loro successivo uso per prevedere altre osservazioni. Il successo o il fallimento delle previsioni forniva le radici epistemologiche per qualsiasi scienza. L’esempio emblematico di questo tipo di scienza era lo studio del sistema solare, in cui si potevano prevedere le traiettorie future dei pianeti con grande precisione. Le discipline sociali e cognitive L’EMERGENZA DELL’EMERGENZA 19 erano considerate un campo del tutto separato dalle scienze chimiche e fisiche; la biologia stava nel mezzo, e ammiccava da una parte alla chimica e dall’altra all’etologia e all’antropologia. Ci furono tuttavia alcuni tentativi di colmare i vuoti. Gli economisti del tardo ’800 avevano scoperto la termodinamica e cercavano di utilizzare i principi matematici di questa scienza come base su cui sviluppare una teoria; a quest’approccio mancava però il potere predittivo della fisica. Un approccio generico alla filosofia della scienza proseguì per tutto il XX secolo. È quanto delineato in due libri: Logica della scoperta scientifica di Karl Popper (1934) e The Nature of Physical Reality di Henry Margenau (1950). Popper fornisce un punto di vista normativo sui requisiti logici necessari a una disciplina per essere considerata una scienza empirica, mentre Margenau adotta un punto di vista descrittivo dei presupposti metafisici sui quali i fisici si basavano per formulare e accettare una teoria. Entrambi gli approcci partono dall’osservabile e procedono con la formulazione di una teoria, solitamente matematica, per spiegare le relazioni fra gli oggetti osservati. La teoria fa poi delle previsioni su altri oggetti osservabili e viene verificata confrontando le previsioni con le osservazioni. Questa teoria rimane valida o decade in base alle corrispondenze o alle contraddizioni, di solito numeriche, fra previsioni e osservazioni. È difficile inserire la teoria dell’evoluzione in tale sistema, perciò la biologia non rientra in questo schema epistemologico bene come la fisica: i nemici ideologici dell’evoluzionismo non mancano mai di sottolineare questa mancanza. Quando tratteremo la natura emergente dell’evoluzione, sarà più chiaro perché la scienza biologica non rientra in questo schema semplificato. 20 LA NASCITA DI OGNI COSA Sia Popper sia Margenau si occuparono dell’epistemologia della scienza: «In che modo conosciamo?». Questa domanda è stata posta per la prima volta da Immanuel Kant nelle sue Critiche. Non è stato un argomento molto amato nel campo della scienza, e ancor meno nella religione, per la quale la norma fondamentale è conoscere attraverso la fede. Io invece considero l’epistemologia essenziale per la comprensione. Nella scienza partiamo da quello che ci appare immediatamente, i dati sensoriali che sono i contenuti del pensiero. Da questi dati, che sono forme, colori, suoni, sensazioni e misurazioni, sviluppiamo dei concetti teorici come gli oggetti solidi, gli atomi, gli elettroni e le onde di probabilità. I concetti, nota Kant, non sono le inconoscibili «cose in sé», ma hanno a che fare con i contenuti del pensiero. La scienza incomincia con la mente, che da un lato percepisce le sensazioni e dall’altro formula i concetti; inoltre presuppone anche una comunità di cervelli che siano d’accordo sui dati sensoriali e la verificabilità delle conseguenze dei concetti. Qualsiasi siano le nostre idee filosofiche, la scienza comincia con la mente ed è un’attività pubblica. I concetti sono ordinati secondo una gerarchia che va dai quark agli atomi alle molecole agli organismi. La maggior parte dei neurobiologi contemporanei tenta di risalire la scala gerarchica dagli atomi alla mente per capire l’emergenza del pensiero in base agli elementi sottostanti della gerarchia. È ovvio che ciò crea un circolo epistemico: si comincia con la mente come fattore primario e si percorre il circolo dei concetti nel tentativo di spiegare la mente. Per me questa circolarità non è un problema, ma per molti scienziati è una sorpresa. Si tratta di un’epistemologia che si accorda in L’EMERGENZA DELL’EMERGENZA 21 qualche modo con l’idea di emergenza nell’universo (o almeno la parte di esso in cui viviamo) in evoluzione. In base a questi concetti, si possono definire i seguaci del materialismo o del realismo ingenuo come persone che credono che gli insiemi di particelle siano più reali del pensiero che le ha costruite. Al contrario, gli idealisti in senso filosofico ritengono che il pensiero sia più reale della gerarchia di cose che costituisce il mondo esterno, le cose in sé. Secondo me entrambi i punti di vista sono meno soddisfacenti dell’accettazione del circolo come conseguenza ontologica di questo tipo di epistemologia. Esso riconosce l’esistenza del mondo esterno senza bisogno che esista l’uomo, ma ammette anche che la nostra conoscenza del mondo non è indipendente da noi stessi, e che non potremo mai conoscere la cosa in sé come la conosce Dio. Nella mia serie gerarchica di emergenze non seguo un’ontologia, che potrebbe essere sconosciuta, ma adotto l’epistemologia che ha permesso alla fisica di fare passi avanti. In ogni caso, sviscerando i nuovi concetti di emergenza, scopriremo che questa epistemologia necessita di alcuni sviluppi non ancora considerati. Spesso si fa una netta distinzione tra i dati sensoriali immediati e i concetti razionali. Tali discriminazioni sono piuttosto vaghe, poiché la mente lavora con entrambe le cose, spesso senza separarle nettamente: le osservazioni hanno già una componente teorica e i concetti spesso non sono lontani dai dati. Ciò non deve creare dei problemi filosofici: il mondo è quello che è. La distinzione netta fra pensiero e natura semplicemente non esiste. All’inizio del nuovo secolo due sviluppi della fisica anticiparono idee la cui importanza filosofica non fu colta appieno fino a quasi 100 anni dopo. I concetti principali di emer- 22 LA NASCITA DI OGNI COSA genza fanno riferimento alla meccanica statistica di Ludwig Boltzmann, James Clark Maxwell e Josiah Willard Gibbs. L’idea fondante di caos deterministico fu formulata negli studi di Henri Poincaré sulla stabilità del sistema solare. I fondatori della meccanica statistica accettarono la visione atomistica e molecolare della materia e affermarono inoltre che gli atomi e le molecole obbediscono alle leggi della meccanica. Intendevano dimostrare che le leggi macroscopiche della termodinamica e della teoria cinetica si possono ricavare dal moto di atomi e molecole, gli elementi a cui tutto si riduce. Lavorando con insiemi di particelle o di stati e dimostrando che i dati macroscopici osservabili erano una media degli stati microscopici, furono in grado di trattare variabili quali la pressione e la temperatura come proprietà emergenti. Perciò mentre Perrin e altri sviluppavano la visione riduzionista degli atomi e delle molecole come agenti operativi, i meccanici statistici dimostravano che lo studio delle particelle microscopiche conduceva alle leggi della termodinamica in termini di proprietà emergenti. Si tratta di un modello che dobbiamo tenere presente passando in continuazione dal riduzionismo all’emergenza nello studio dei livelli gerarchici. Perciò, se per certi aspetti la meccanica statistica è simile alla moderna teoria dell’emergenza, in una caratteristica fondamentale è completamente diversa. Nell’approccio gibbsiano si presuppone che la media temporale del comportamento di un sistema semplice sia uguale alla media di un insieme di possibili entità scelte per rappresentare il sistema di interesse; perciò le leggi di sfoltimento impongono al comportamento di convergere verso la media e non gli permettono di divergere, come a volte succede nei sistemi non in equilibrio studiati negli esempi contemporanei di L’EMERGENZA DELL’EMERGENZA 23 emergenza. Il paradosso si risolve considerando che il caso classico si riferisce soltanto a uno stato di equilibrio, che è un estremo globale e si trova al fondo a una buca di energia potenziale. Invece i sistemi complessi di solito sono ben lontani dall’equilibrio e si rappresentano matematicamente con un andamento irregolare nello spazio delle fasi. C’è una differenza fondamentale fra i sistemi in equilibrio e quelli non in equilibrio. Questi ultimi non possono essere considerati in base agli estremi globali, un errore che spesso commette chi non ha colto appieno la differenza fra i due casi e crede di poter derivare un comportamento biologico nello stesso modo degli estremi di una funzione. Henri Poincaré fu un matematico francese inserito nella tradizione (risalente a Isaac Newton) degli studi matematici sul funzionamento del sistema solare, delle orbite dei pianeti e altre ricerche più specifiche. Decantando il successo delle leggi meccaniche e gravitazionali di Newton nel predire le leggi di Keplero sul moto dei pianeti, abbiamo ignorato un problema di questo approccio, che fu in seguito considerato da Poincaré. Le leggi di Keplero e la spiegazione di Newton avevano tenuto conto di due soli corpi: la Terra e il Sole. Quando cercarono di includere nei calcoli anche la Luna e gli altri pianeti, i teorici successivi incontrarono un grave problema: per i sistemi formati da tre o più corpi non erano possibili soluzioni analitiche esatte dei problemi meccanici. La difficoltà aveva radici profonde nella matematica utilizzata. Dopo Newton generazioni di matematici tentarono di risolvere il problema dei tre corpi dal punto di vista analitico, tutti senza successo. Una difficoltà analoga si presentò nello studio della stabilità del sistema solare. Le orbite dei pianeti erano fisse per 24 LA NASCITA DI OGNI COSA sempre o sarebbero cambiate in qualche modo sconosciuto? Nel tardo ’800 Poincaré studiò la questione e scoprì alcune incertezze nella dinamica celeste che oggi chiameremmo caos deterministico: non era possibile prevedere le orbite per un futuro molto lontano. Cent’anni dopo, la scoperta di Poincaré divenne determinante per le teorie del caos e della complessità. La fisica del XIX secolo considerava lo scienziato come un osservatore separato dal funzionamento del sistema in esame. Nella prima metà del XX secolo questo punto di vista è cambiato in tre modi. Primo, la teoria della relatività speciale ha inserito tutte le misurazioni nel contesto del sistema di riferimento inerziale dell’osservatore, collegando in questo modo lo scienziato e il sistema oggetto di studio. Una delle prospettive della meccanica quantistica ha poi ridotto funzione di probabilità cumulata a un evento in cui un osservatore compie un’osservazione: lo scienziato come osservatore diventa perciò parte integrante del sistema studiato. Da ultimo, la teoria dell’informazione ha definito l’entropia come misura dell’ignoranza dell’osservatore rispetto allo stato microscopico di un sistema quando ne è noto lo stato macroscopico. La natura probabilistica della meccanica quantistica ha messo in crisi la certezza della realtà fisica com’era concepita dalla fisica classica. Tutto ciò era coerente con il circolo epistemico che parte dall’osservazione e arriva alla teoria per poi tornare all’osservazione, proprio della maggior parte delle teorie riduzionistiche, ma che conferisce all’osservatore un ruolo speciale. La biologia, che nel XX secolo era partita come scienza osservativa per classificare gli organismi e collocarli in una piramide evolutiva, nel secolo successivo è diventata la più riduzionistica, atomistica e strutturale di tutte le scienze. I L’EMERGENZA DELL’EMERGENZA 25 biologi molecolari hanno infatti ridotto tutti i processi al funzionamento di strutture chimiche note. La biologia molecolare, il cui simbolo è la struttura a doppia elica del DNA, ha raggiunto un enorme successo, il massimo possibile con tale approccio scientifico. Solo con le scienze neurologiche e cognitive è stato necessario ritornare alla questione dell’osservatore in biologia. Sarà istruttivo un esempio di che cosa si possa e non si possa fare nel contesto della biologia molecolare riduzionistica. Data una proteina purificata, possiamo farla cristallizzare, e con la diffrazione a raggi X possiamo determinarne con precisione la struttura tridimensionale, atomo per atomo. Supponiamo invece di avere la sequenza di amminoacidi di una proteina, derivata dalla sequenza del DNA che ne rappresenta il codice genetico, e di voler calcolare la struttura a partire da quella sequenza. Assumendo di avere tutte le energie di interazione in funzione della distanza fra i vari amminoacidi, vogliamo trovare la configurazione stabile, ovvero quella per cui l’energia è minima. Ci sono talmente tante configurazioni possibili che un computer grande e antico quando l’universo non potrebbe calcolarle tutte. Calcoli di questo tipo si definiscono non computabili. Dobbiamo trovare un modo di eseguire o aggirare un calcolo del genere selezionando o «sfoltendo» o eliminando radicalmente la maggior parte degli stati. La soluzione emergente fornisce un’idea del percorso verso lo stato stabile. Per ridurre la dimensionalità del sistema in modo che sia computazionalmente trattabile è necessario un algoritmo di selezione. Il tentativo di calcolare il risultato tenendo conto di tutte le possibili configurazioni è l’approccio convenzionale alla Popper (The Methodology of Karl Popper) al ripiegamento 26 LA NASCITA DI OGNI COSA proteico. L’introduzione di algoritmi selettivi per cercare soluzioni plausibili è un approccio epistemologico piuttosto diverso e molto più difficile da provare attraverso la falsificazione, ed è troppo semplice per essere toccato da una verifica metaforica. Tuttavia la selezione è un modo di utilizzare la scienza per affrontare svariati problemi che prima non erano suscettibili di studio. Quando funziona può far emergere qualcosa di nuovo e una visione del mondo insolita. Ritorneremo su questo approccio dopo esserci occupati di varie emergenze che hanno reso il mondo quello che è. Alla fine del XIX secolo diversi rami della scienza biologica stavano maturando nelle discipline della neurobiologia. Gli studi di Ramón y Cajal e di Camillo Golgi rivelarono che la base istologica del sistema nervoso è un immenso insieme di neuroni, cellule collegate fra loro in una rete raffinata e molto complessa. Si scoprì che il numero di cellule nervose che compongono il cervello umano è nell’ordine di grandezza di 10 trilioni. Benché la sensazione fisica e la conoscenza siano entrambe collegate all’attività del cervello, c’è uno scarto fra le attività fisiologiche e l’atto del pensiero più semplice. Anche se comprendiamo l’istologia del sistema nervoso e la fisiologia del potenziale d’azione e dell’attività sinaptica, siamo ben lungi dal penetrare la natura della coscienza e altre proprietà integrate del sistema nervoso. Verso la metà del XX secolo, quando i computer cominciarono a elaborare le informazioni su vasta scala, sorsero nuovi problemi. John von Neumann, uno dei fondatori della scienza computazionale, scrisse nel 1957 un libro eccezionale, in cui poneva la questione del rapporto fra computer e cervello (Il computer e il cervello). Branche dell’informatica come le reti neurali hanno contribuito ai tentativi di model- L’EMERGENZA DELL’EMERGENZA 27 lizzare con algoritmi l’attività di gruppi di neuroni. Tutti gli sviluppi della neurobiologia rientrano nello sforzo tuttora in corso di capire come il pensiero emerga dall’attività degli organismi. Personalmente credo sia chiaro che siamo solo all’inizio di quest’importantissima ricerca. Nel corso del XX secolo aumentò sempre più la consapevolezza che la biologia si occupa non solo di materia ed energia, ma anche di informazione. Quando quest’ultima prese forma negli studi di Claude Shannon, i biologi risposero subito, e nel 1953 Henry Quastler pubblicò Essays on the Use of Information Theory in Biology. La genetica e lo studio dell’evoluzione hanno adottato il linguaggio della teoria dell’informazione, che trova anche diversi usi nella linguistica. La biologia a livello molecolare o di ecologia globale è ricca di informazioni, e ciò ha stabilito le basi della biologia matematica. Le emergenze biologiche di cui parleremo sono in parte anche emergenze di informazione. La caratteristica fondamentale della scienza teorica dell’ultimo terzo del ’900 è lo sviluppo e l’utilizzo dei computer digitali veloci come strumento principale. In passato molti problemi di chimica e fisica concettualmente comprensibili erano stati accantonati perché non affrontabili con le tecniche matematiche allora a disposizione. A lungo si era applicata ad alcuni di quei problemi la tecnica computazionale senza ausili meccanici, fin dai tempi di matematici famosi come Carl Friedrich Gauss. Oggi i computer hanno aumentato di molti ordini di grandezza la velocità e la complessità dei problemi che sono in grado di affrontare. In seguito al grande successo della computazione si cominciò ad affrontare problemi sempre più complessi in chimica e in fisica, e gli studiosi di certi rami della biologia e delle scienze sociali, come gli economisti, presero a basarsi sulla costruzione di 28 LA NASCITA DI OGNI COSA modelli computerizzati. I nuovi campi e approcci furono riuniti sotto il nome di scienza della complessità, e si cercarono caratteristiche in comune fra le varie discipline. Nei modelli costruiti su computer per risolvere vari problemi, a cominciare dagli studi meteorologici di Edward Lorenz, le traiettorie del computer dipendevano strettamente dalle condizioni iniziali o dalle condizioni al contorno. Ciò portava al caos deterministico nei casi in cui non era possibile calcolare il risultato perché non si potevano porre le condizioni in modo abbastanza preciso: il computer, limitato dal numero di cifre significative che può trattare, non riusciva a fare i calcoli con precisione sufficiente a ottenere un risultato, seppur approssimativo. Così si è sviluppato il campo del caos deterministico. In un altro genere di problemi si conoscono le leggi di interazione, ma la complessità è tale (o il numero di stati possibili è così alto) che il problema supera la capacità di qualsiasi computer disponibile o perfino immaginabile. Gli scienziati, piuttosto che rinunciare, hanno cercato modi di sfoltire il campo delle soluzioni possibili o i gruppi delle soluzioni ammissibili. Ciò può causare delle sorprese nelle traiettorie di sistema, creando dei comportamenti nuovi, che sono le proprietà emergenti del sistema, proprietà del tutto. Si tratta di elementi nuovi che conseguono dalle leggi di sistema, ma non si possono prevedere in base alle proprietà delle componenti del sistema. Gli individui che compongono il tutto sono gli agenti designati. Ad esempio, le leggi di interazione dei singoli insetti (gli agenti) possono dare vita alla configurazione e al comportamento dello sciame (il successivo livello gerarchico degli agenti). L’approccio riduzionista ci porta a cercare le soluzioni in livelli gerarchici sempre più bassi. Per andare nella di- L’EMERGENZA DELL’EMERGENZA 29 rezione opposta, invece, dobbiamo applicare degli algoritmi di sfoltimento e cercare le entità o proprietà emergenti che diventano gli agenti del passaggio al livello gerarchico successivo. L’emergenza è una proprietà sia dei modelli creati al computer sia dei sistemi su cui si basano tali modelli. E così la natura a ogni livello crea strutture e comportamenti nuovi selezionandoli nell’enorme campo del possibile tramite lo sfoltimento, che estrapola il reale dal potenziale. Le leggi di sfoltimento sono l’aspetto meno chiaro di questa prospettiva sull’emergenza, e la loro comprensione sarà essenziale nella scienza del futuro. Sicuramente saranno necessari nuovi approcci epistemologici: abbiamo per così dire costretto la scienza a entrare in campi inesplorati. L’emergenza è dunque il contrario del riduzionismo. Quest’ultimo cerca di andare dal tutto alle parti, e ha avuto un successo enorme. L’emergenza invece cerca di dedurre le caratteristiche del tutto a partire dalla comprensione delle parti. Entrambi gli approcci possono risultare reciprocamente coerenti. Letture consigliate: Engelbert Broda, Ludwig Boltzmann, Ox Bow Press, Woodbridge 1983 (originale tedesco: Ludwig Boltzmann: Mensch, Physicker, Philosoph, F. Deuticke, Wien 1955). Murray Gell-Mann, Il quark e il giaguaro: avventure nel semplice e nel complesso, Bollati Boringhieri, Torino 2000. John H. Holland, Hidden Order: How Adaptation Builds Complexity, Addison Wesley, Reading 1995. Stuart Kauffman, A casa nell’universo: le leggi del caos e della 30 LA NASCITA DI OGNI COSA complessità, Editori Riuniti, Roma 2001. Robert Lindsay, Physical Mechanics, D. Van Nostrand Co., Inc., Princeton 1933. Henri Margenau, The Nature of Physical Reality, Mc GrawHill, New York 1950 (ristampa Ox Bow Press, Woodbridge 1977). Jean Perrin, Gli atomi, Editori Riuniti, Roma 1981. Karl Popper, Logica della scoperta scientifica: il carattere autocorrettivo della scienza, Torino, Einaudi 2010. Henry Quastler (ed. by), Essays on the Use of Information Theory in Biology, University of Illinois Press, Urbana 1953. John Von Neumann, Il computer e il cervello, Bompiani, Milano 1999. 1 Jean Perrin, Gli atomi, Editori Riuniti, Roma 1981, pp. 218-219.
© Copyright 2024 ExpyDoc