Scienze chimiche ed ingegneria: integrazione culturale e sinergia

Scienze chimiche ed ingegneria: integrazione culturale e sinergia
applicativa in uno sguardo storico e prospettico.
Sergio Carrà
“Che pianeta mi hai fatto?”. Con questo titolo, Robert Shekley uno scrittore di
fantascienza, ha scritto nel 1968 un divertente racconto nel quale il quesito veniva
posto ad una società specializzata nella costruzione di pianeti su commissione.
Ispirandoci ad esso potremmo chiederci se sia possibile trasformare la terra in un
mondo di nostra piena soddisfazione, partendo dalla constatazione che l’attuale
sistema produttivo ha portato miliardi di persone fuori dalla povertà offrendo loro un
dignitoso standard di vita. Infatti , grazie alle tecnologie, frutto dell’ingegno umano,
ci si sta avviando verso una abbondanza di beni di consumo con il pericolo di
raggiungere un punto critico di non ritorno per i danni che vengono arrecati
all’ambiente.
Si tratta di un processo che ha radici remote e si è consolidato nei secoli arricchendo
il suo contenuto sulla scia di attività produttive sempre più efficaci e sempre più
complesse. Un punto di svolta è stato raggiunto con il processo di sintesi
dell’ammoniaca, realizzato nel 1925 da Fritz Haber e Carl Bosch, che, grazie alla
produzione dei fertilizzanti sintetici, ha fatto impennare la curva della popolazione
umana, dimostrando che i chimici e gli ingegneri chimici, pur pensando a cose
piccole quali gli atomi, stavano realizzando cose grandi, in grado di cambiare il
mondo. Tutto ciò traendo giovamento dai risultati che venivano ottenuti nelle
disciplina emergente della “Chimica Fisica” che grazie all’impiego della
termodinamica riusciva a prevedere i limiti entro i quali potevano essere attuate le
trasformazioni chimiche.
Lo sfruttamento del petrolio, sia sul piano energetico che chimico nel contempo stava
favorendo il gigantismo e la complessità degli impianti la cui progettazione
presentava una autentica sfida per l’ingegneria. Tale vertiginoso sviluppo, dovuto in
gran parte all’individuazione di nuovi processi catalitici, ha avuto luogo attraverso
profonde trasformazioni delle materie prime esistenti in natura.
Questi sviluppi traevano ovviamente linfa dalla cultura europea, ma la maturità
scientifica dell’ingegneria chimica, e la sua piena saldatura con la chimica fisica, si è
consolidata nella seconda metà del secolo scorso al di là dell’Atlantico attraverso
l’approfondimento del comportamento dei fluidi e delle loro miscele. Negli anni
sessanta mi trovavo quale ricercatore presso l’Università di Madison, nel Wisconsin,
dove venne pubblicato a cura di Byron Bird il libro intitolato “Transport
Phenomena” che avrebbe conferito un rinnovato slancio alla progettazione degli
impianti chimici e di ogni apparecchiatura che coinvolga fluidi e miscele fluide. In
realtà la sua matrice culturale era un’altro libro contraddistinto con l’acronimo
MTGL (Molecular Theory of Gases and Liquids) che aveva come principale autore
John Hirschfelder. Costituiva il frutto di una linea di studio intrapresa nel Theoretical
1
Chemistry Institute, che mi ospitava . L’approccio era ambizioso e di ampio respiro
poiché partendo dalle conoscenze fondamentali maturate nell’ambito della teoria
cinetica dei fluidi, tenendo conto delle forze intermolecolari, venivano offerti i criteri
per il calcolo della velocità dei processi di trasporto di energia e materia che hanno
luogo nelle miscele fluide.
In un certo senso si trattava della ricaduta applicativa del lavoro condotto alla fine
dell’ottocento dall’austriaco Ludwig Boltzmann inteso a descrivere l’evoluzione di
una miscela gassosa verso lo stato di equilibrio, con lo scopo di derivare dalle leggi
della meccanica classica il secondo principio della termodinamica, il cui contenuto
va oltre i confini della scienza per invadere quelli della filosofia. Infatti veniva
sancita l’esistenza di una freccia del tempo in virtù della quale il passato differisce
dal futuro.
Paradossalmente gli eccellenti risultati così ottenuti avrebbero creato la curiosa
situazione di una teoria in ottimo accordo con l’esperienza che veniva però messa
in discussione per una ipotesi che stava alla sua base chiamata del caos molecolare.
Con conseguenze tragiche sul piano umano che sono culminate con il suicidio di
Boltzmann . Testimoniando però che i percorsi della scienza, anche se hanno aspetti
inquietanti, offrono comunque alla tecnologia l’opportunità di trarre utili
conseguenze. Infatti l’approccio che era stato dato alle ricerche sui processi di
trasporto di materia ed energia si sarebbe esteso con successo a macchia d’olio ,
dagli impianti chimici ai sistemi naturali di diversa natura, inclusa l’atmosfera.
In quegli anni lo stato liquido era considerato il più misterioso della materia perché
sembrava mancassero le competenze per cogliere il comportamento di sistemi le
cui molecole interagiscono a gruppi senza poter fare appello alle relazioni di
simmetria presenti nei solidi. In realtà proprio allora stavano maturando le idee che
avrebbero permesso di affrontare tale spinoso problema, fruendo di un approccio
perturbativo basato sull’impiego di un opportuno sistema di riferimento che
nell’accezione più semplice è costituito da corpi duri (sfere, dischi, sigari etc). In
termini tecnici sembrava legittimo separare gli effetti entropici da quelli entalpici.
L’approccio menzionato avrebbe avuto una significativa ricaduta negli studi sugli
equilibri fra le fasi che tanta importanza rivestono nella progettazione degli impianti
di separazione di miscele fluide riguardanti la chimica industriale, e soprattutto
nell’utilizzo del petrolio e nella petrolchimica. I costi, dovuti al menzionato
gigantismo che stavano assumendo i corrispondenti impianti richiedeva infatti
metodi di calcolo e progettazione sempre più accurati. Le indagini sugli equilibri fra
le fasi trovava pertanto una adeguata collocazione nell’ambito
della
“Termodinamica Molecolare” che affrontava lo studio degli stati di equilibrio
facendo ampio ricorso alle conoscenze sulla struttura delle molecole e sulle loro
interazioni. In realtà si portava così a compimento, da parte soprattutto di John
Prausnitz professore a Berkeley, il programma di un altro grande scienziato
contemporaneo a Boltzmann, Willard Gibbs che focalizzando l’attenzione sugli stati
di equilibrio aveva conferito alla termodinamica il nitore della geometria euclidea,
ponendo l’accento sullo studio delle “vite private dei sistemi”. Questa impostazione
sarebbe dilagata a macchia d’olio nella soluzione di problemi di grande interesse ed
2
attualità quali la preparazione dei solidi polifasici, l’evoluzione delle gocce liquide e
delle particelle solide presenti nei gas ambientali e la valutazione della distribuzione
degli idrocarburi nei giacimenti petroliferi.
Nella seconda metà del secolo scorso la chimica stava subendo un vero e proprio
cambiamento di paradigma poiché il progresso del calcolo computerizzato stava
offrendo la possibilità di simulare con accuratezza gli eventi molecolari. Si tratta di
uno sviluppo che trae le sue origini dai principi della meccanica quantistica che erano
in attesa da mezzo secolo (dal 1925) di poter essere applicati con confidenza alla
chimica. In sostanza se fino a qualche anno prima i chimici teorici dovevano
accontentarsi di riprodurre dati sperimentali già noti, stavano maturando i tempi per
potersi avventurare nella previsione di dati utili per orientare le indagini in diversi
settori, quali:
- le sintesi chimiche
la combustione
la catalisi
la chimica ambientale ed atmosferica
la preparazione di materiali
la biologia molecolare
Tali risultati testimoniano il superamento di difficoltà che secondo John Pople,
premio Nobel per le attività svolte in tale settore, costituivano un vero e proprio
incubo. La constatazione che con il calcolo si possono affrontare difficoltà che
venivano considerate insuperabili ci induce a meditare profondamento sull’avvenire
dei metodi di simulazione anche in settori di avanguardia che vanno al di là della
chimica.
Già nella prima metà del secolo scorso l’attenzione si era focalizzata sulla
valutazione per via teorica della velocità con la quale si svolgono le trasformazioni
chimiche sulla base dalle conoscenze sulla struttura delle molecole. In tale impresa
erano coinvolti scienziati di prim’ordine (Eugene Wigner, Michael Polany, Henry
Eyring, Cyril Hinshelwood), impegnati ad indagare come dalla dinamica della
collisione fra due molecole possa emergere una trasformazione chimica.
Le idee erano chiare, ma il compito difficile in assenza di adeguati metodi di calcolo;
tuttavia è affiorata l’idea che il passaggio dai reagenti ai prodotti richiedesse il
superamento di una barriera di energia potenziale al cui culmine si poteva
identificare una supermolecola chiamata “complesso attivato” o “stato di
transizione”. La velocità della reazione veniva espressa dal prodotto della sua
concentrazione per la sua frequenza di dissociazione, che a parità di temperatura
risulta essere la stessa per qualunque reazione.
La sua applicazione permetteva di uniformare il linguaggio della cinetica delle
reazioni in fase gassosa, in soluzione ed enzimatiche. Ricordo che con lungimiranza
John Hirschfelder, direttore del Theoretical Chemistry Institute di Madison,
dichiarava che tale approccio forniva “an epoca making concept”.
Con il passare degli anni l’impiego del concetto di stato di transizione è apparso di
grande utilità, tanto da assumere il carattere di uno strumento euristico che permette
3
di affrontare con fiducia lo studio dell’evoluzione nel tempo dei sistemi complessi di
reazioni. Con enormi ricadute anche sul piano applicativo.
Nell’insieme si stavano consolidando le metodologie di calcolo dei moderni
processi chimici coinvolgenti unità collegate fra di loro, nelle quali si svolgono
molte reazioni interconnesse. La loro progettazione basata su solide conoscenze
scientifiche risponde ai presupposti peculiari dell’ingegneria concernenti gli aspetti:
1- energetici, che tenendo opportunamente conto degli effetti termici,
minimizzano il consumo di energia;
2- strutturali, riguardanti le connessioni fra le diverse unità;
3- di controllo, per garantirne una gestione affidabile ed efficiente.
Su una scala più piccola gli sforzi si stavano dirigendo verso la preparazione dei
materiali funzionali, impiegati nella costruzione dei dispositivi di diversa natura
in particolare riguardanti l’ottica e la microelettronica, mediante processi concernenti
la deposizione chimica da fase vapore. L’impiego di particolari configurazioni
geometriche permettono di controllare il percorso e il flusso dei reagenti gassosi
che lambiscono la superficie di deposizione in modo tale da conferire al materiale le
caratteristiche strutturali desiderate. In sostanza le superfici diventavano dei
microreattori la cui simulazione richiede uno scaling down dei concetti
dell’ingegneria chimica.
Questa capacità di trasformare “metaforicamente” il silicio,
elemento molto
abbondante sulla terra, in oro in virtù del ruolo che stava acquistando nello sviluppo
della microelettronica, ha fatto attribuire ai tecnici che lavorano nel settore
l’appellativo di “nuovi alchimisti”. Grazie alla simulazione condotta a più scale, da
quella molecolare sino al cuore della fase gassosa, ne venivano migliorate le
caratteristiche superficiali aumentandone le prestazioni in accordo alla nota legge di
Moore.
Sulla scia di tali risultati stava maturando l’euforica ambizione di sintetizzare nuove
molecole e materiali opportunamente progettati, con proprietà e caratteristiche
funzionali sempre più rispondenti ai bisogni dell’uomo, quasi a confermare
l’affermazione di Leonardo: “Dove la natura finisce di produrre le sue proprie
specie, comincia l’uomo, in armonia con le leggi della natura, a creare una infinità
di specie”.
Tali conoscenze sono state estese alle scienze della vita, in accordo con
l’affermazione di Jim Watson: “La vita non è che una vastissima gamma di reazioni
chimiche coordinate”. Nelle cellule, è infatti presente una complessa rete di reazioni
la cui interconnessione costituisce la peculiarità dei sistemi viventi. In questo quadro
un obbiettivo ambizioso, con profonde potenzialità nei settori biotecnologico e
farmaceutico, è la simulazione del comportamento di una cellula sia per quanto
riguarda il suo metabolismo sia per quanto concerne la reazione agli stimoli esterni.
In un certo senso si tratta di applicare su una scala minore di circa cinque ordini di
grandezza i concetti e i metodi dell’ingegneria delle reazioni chimiche.
Poiché il DNA contiene tutte le informazioni sugli organismi viventi, se viene
opportunamente modificato si possono creare nuovi micro-organismi con le
4
caratteristiche desiderate. Questo approccio nel quale convergono chimica, biologia
e matematica, persegue un obbiettivo ambizioso che include la progettazione al
computer di opportuni cammini metabolici in grado di generare sistemi artificiali
aventi le proprietà delle cellule viventi. Operando su organismi monocellulari
procariotici se ne isolano i passaggi rilevanti connettendoli fra di loro in modo da
favorire la produzione di prodotti chimici, farmaci e carburanti. La ricostruzione dei
loro genomi, offre la possibilità di progettare cellule che si comportano come
catalizzatori per processi chimici mirati. Queste indagini appaiono molto interessanti
sul piano prospettico poiché potrebbero ridefinire il volto della chimica sintetica. In
particolare l’ impiego delle tecniche precedenti nella preparazione di biocarburanti da
biomasse, trasformando la cellulosa presente nelle piante, appaiono promettenti.
Le conoscenze maturate nella seconda metà del novecento hanno avuto conseguenze
significative sulle attività produttive della chimica, poiché dai processi di larga scala
si è ripiegato su quelli di minori dimensioni più strettamente connessi alle attività
sociali, con particolare riferimento alla salute, ai servizi e all’ intrattenimento, dove
talora le capacità tecniche devono saper colloquiare con i desideri e le velleità umane.
Questa situazione ha favorito in particolare nel nostro paese un modello di sviluppo
basato su un tessuto di piccole e medie imprese, molto vivace anche se per certi
aspetti vulnerabile perché per competere sui mercati globali è necessario disporre di
strutture di ricerca che risultino all’avanguardia nelle tecnologie che manifestano le
più efficaci spinte innovative. Situazione che fortunatamente si è conservata sino ad
oggi resistendo ai venti di crisi che hanno intaccato molte altre attività.
In realtà la competizione sta impegnando agguerriti centri di ricerca mondiali,
accademici e industriali, nel cui quadro anche l’Italia dà un importante contributo,
che avrebbe sicuramente più elevata ricadute sullo sviluppo del paese se suscitasse
maggiore attenzione da parte degli organismi politici ed economici. I giovani di
talento vedono nello studio della chimica e dell’ingegneria chimica un motivo per
soddisfare la propria curiosità e le loro ambizioni professionali grazie all’impegno di
validi docenti aperti ai nuovi sviluppi scientifici e al confronto internazionale.
Cosa riserva il futuro? Sta emergendo una frontiera volta all’avvicendamento delle
risorse fossili con quelle derivanti da prodotti naturali con prospettive che potrebbero
trasformare molti aspetti della nostra società.
“Fine del petrolio” recita uno slogan inteso a trasmettere la preoccupazione per
l’esaurimento della più importante delle risorse. Con sgomento perché
se ciò si
verificasse l’attuale società dovrebbe fronteggiare una crisi drammatica. In realtà la
scoperta di nuovi giacimenti non tende a diminuire, mentre sta prendendo piede la
prospettiva di sfruttare su larga scala il metano di cui sono impregnate le rocce. Ci si
deve quindi chiedere perché il pianeta sia così ricco di idrocarburi e quali ne saranno
le conseguenze sulle strategie energetiche. Infatti anche se la produzione di
idrocarburi sembra assicurata per decine di anni la sfida viene trasferita sulla
sostenibilità, intesa a:
5
- Controllare il riscaldamento globale.
- Diminuire, o minimizzare, la volatilità dell’approvvigionamento dell’energia
stabilizzando il clima politico.
- Allentare la transizione dall’impiego dei combustibili fossili ad energie
alternative.
Gli approcci per fronteggiare i precedenti problemi sono stati, e sono tuttora l’oggetto
di dibattiti, prese di posizione politiche, ricerche e proposte tecnologiche che si
protraggono da mezzo secolo, cercando di cogliere una possibile transizione verso
una era post petrolifera mantenendo sostanzialmente le attuali condizioni di vita e le
stesse consuetudini. Con risultati sino ad ora obbiettivamente modesti.
Sta maturando però la consapevolezza che l’impiego dell’energia non può prescindere
dalla sua qualità poiché solo una parte è utile per effettuare le trasformazioni
meccaniche, termiche, elettriche, chimiche e così via, in grado di conferire al pianeta
una complessa struttura tale da agevolare le attività umane. In questo quadro un
concetto unificante è quello di exergia, mutuato dall’energia libera di Gibbs, che
costituisce il massimo lavoro che può essere ottenuto quando un sistema raggiunge il
suo equilibrio con l’ambiente circostante. A differenza dell’energia non si conserva.
Una risorsa energetica è costituita da materia con un elevato contenuto di exergia
derivante dalla sua composizione chimica. Ad esempio i combustibili fossili, , il cui
accumulo locale provoca sul pianeta situazioni di squilibrio. Dal sole proviene sulla
terra un flusso di exergia che ammonta a circa 140000 TW, che interviene nei processi
naturali associati ai moti marini ed atmosferici, alle trasformazioni fisiche o chimiche
di natura geologica e allo sviluppo dei processi biologici.
In questo quadro una particolare attenzione merita la fotosintesi, processo naturale,
frutto dell’evoluzione, che combina l’anidride carbonica con l’acqua per formare
carboidrati, catturando l’energia libera contenuta nella luce solare per convertirla in
energia chimica di elevata qualità. In circa 4 miliardi di anni ha contribuito alla
produzione delle complesse strutture che hanno trasformato il pianeta attraverso lo
sviluppo degli organismi viventi e le corrispondenti modifiche del mondo fisico, in
particolare la comparsa e l’accumulo dell’ossigeno nell’atmosfera. La quantità che ne
viene impiegata nei processi fotosintetici ammonta a circa 90 TW.
Lo studio in termini storici dei processi chimico-fisici coinvolti nella fotosintesi offre
una eccellente esemplificazione di come i sistemi aperti
si adattano nel tempo al
mondo esterno attraverso la fruizione di processi di retroazione che favoriscono la
formazione di nuove strutture complesse fruendo di meccanismi simili ai processi
autocatalitici. Sul piano delle attività umane contribuiscono all’organizzazione e al
progresso tecnologico che favorisce la miniaturizzazione degli impianti che utilizzano
una minore quantità di materiali, ed impiegano meno energia.
E’ comunque opportuno fare una distinzione fra:
Crescita: ovvero espansione per solo accrescimento. che si manifesta in termini:
spaziali, materiali ed energetici.
Sviluppo: in cui prevale l’aumento del livello organizzativo.
Nella nostra società sono necessari entrambi ma con il passare del tempo la prima
deve cedere il passo al secondo.
6
Le connessioni fra le diverse attività produttive si manifestano attraverso una rete di
scambi di materia, energia e informazione che, richiamando i movimenti di trasporto
presenti nelle cellule, favoriscono la diversificazione e l’auto organizzazione verso
livelli di complessità sempre più elevati. In questo quadro è pertanto legittimo
ipotizzare che non ci siano limiti allo sviluppo.
Tuttavia perché si possa proseguire al ritmo attuale è necessario che esista:
-un accumulo o un avvicendamento adeguato di
risorse da garantire
l’approvvigionamento energetico.
-la capacità di impedire che un troppo intenso impiego dell’energia, in particolare
attraverso la combustione, provochi indesiderate evoluzioni ambientali.
Partendo da questa consapevolezza è allora possibile costruire un futuro sostenibile? Ci
ha provato, almeno sulla carta, Peter Viktor un economista della York University di
Toronto, che ha rimodellato l’economia canadese interrogandosi se si potesse realizzare
una transizione verso una situazione di stabilità economica stazionaria che non
comprometta lo stato fisico e chimico del pianeta. L’ obbiettivo viene perseguito
mediante l’impiego della carbon-tax, di programmi anti povertà e della riduzione delle
ore di lavoro. Si attua così uno stato stazionario, con un relativamente basso livello di
emissione della anidride carbonica e con un reddito pro capite ad un livello
relativamente elevato: risultati che prospettano condizioni del tutto accettabili per la
tutela del pianeta garantendo un ragionevole benessere per la società umana. Tuttavia
lascia aperti importanti quesiti sulla sua applicabilità in termini concreti poiché
richiede il raggiungimento di un accordo internazionale, l’imposizione di leggi,
regolamentazioni, tasse, sussidi, esteso impiego delle nuove tecnologie ed infine
cambiamenti strutturali del sistema bancario e finanziario. Si dovrebbe quindi
convincere i politici e la popolazione di tutto il mondo di cambiare il modo di vita,
includendo gli abitanti dei paesi in via di sviluppo che tendono a convergere verso lo
stato di benessere dei paesi ricchi. Si tratta in sostanza di un cambiamento epocale che
potrebbe includere anche la pianificazione familiare, per decreto.
Nel quadro precedente curiosamente si deve osservare che la parte scientifica del
programma risulterebbe la più facile da perseguire poiché si basa sostanzialmente su
tecnologie note. In sostanza il successo del programma riguarderebbe più la politica
della scienza.
Paul Krugman, premio Nobel per l’economia, in una sua nota sul New York Times
dal titolo: “Salvare il pianeta non costa niente” , sostiene che gli scienziati non
capiscono cosa significa crescita economica. Probabilmente ha ragione, anche perché
se si giudica da come va il mondo sembra che non lo capiscano nemmeno gli
economisti. Comunque non si può che essere d’accordo con la sua filosofia del “mai
dire mai” , purché si tenga opportunamente conto, come dicono gli scienziati, delle
condizioni al contorno nel cui ambito si può operare.
In nessun altro momento della storia il progresso scientifico e tecnologico ha offerto
agli abitanti del pianeta la prospettiva di rimuovere la povertà che ancora assilla
buona parte della popolazione umana. Pertanto qualunque progetto futuro non può
7
prescindere dallo sviluppare le attività grazie alle quali le tecnologie sino ad ora
acquisite vengano trasferite.
La scienza e la tecnologia si trovano tuttavia ad un bivio poiché da parte di alcuni si
sostiene che la prospettiva che si verifichi entro breve tempo una svolta simile a
quelle che si sono avute nella precedenti ere, quella industriale e quella tecnologica,
appare improbabile, anche se la comunità scientifica è numerosa e fruisce
globalmente di generosi finanziamenti. Da parte di altri si paventa invece lo sviluppo
della tecnologia perché considerata responsabile dell’eccessivo consumo delle risorse
naturali e del degrado ambientale sino a preconizzare l’avvento di autentiche
catastrofi. Tanto da invocare una improbabile decrescita.
Tuttavia se non si vuole appartenere alla schiera di coloro che
cercano
disperatamente un miracolo ritengo che il perseguimento di un equilibrato benessere
generalizzato, senza imporre modifiche sociali e politiche difficilmente praticabili, o
addirittura utopiche, non possa prescindere dall’intensificazione delle di ricerca con
l’intento di sviluppare tecnologie innovative, accettando il rischio implicito derivante
dalla loro applicazione. In accordo alla consuetudine che ha sempre contraddistinto la
società umana e che sta alla base di ogni progresso.
8