Scienze chimiche ed ingegneria: integrazione culturale e sinergia applicativa in uno sguardo storico e prospettico. Sergio Carrà “Che pianeta mi hai fatto?”. Con questo titolo, Robert Shekley uno scrittore di fantascienza, ha scritto nel 1968 un divertente racconto nel quale il quesito veniva posto ad una società specializzata nella costruzione di pianeti su commissione. Ispirandoci ad esso potremmo chiederci se sia possibile trasformare la terra in un mondo di nostra piena soddisfazione, partendo dalla constatazione che l’attuale sistema produttivo ha portato miliardi di persone fuori dalla povertà offrendo loro un dignitoso standard di vita. Infatti , grazie alle tecnologie, frutto dell’ingegno umano, ci si sta avviando verso una abbondanza di beni di consumo con il pericolo di raggiungere un punto critico di non ritorno per i danni che vengono arrecati all’ambiente. Si tratta di un processo che ha radici remote e si è consolidato nei secoli arricchendo il suo contenuto sulla scia di attività produttive sempre più efficaci e sempre più complesse. Un punto di svolta è stato raggiunto con il processo di sintesi dell’ammoniaca, realizzato nel 1925 da Fritz Haber e Carl Bosch, che, grazie alla produzione dei fertilizzanti sintetici, ha fatto impennare la curva della popolazione umana, dimostrando che i chimici e gli ingegneri chimici, pur pensando a cose piccole quali gli atomi, stavano realizzando cose grandi, in grado di cambiare il mondo. Tutto ciò traendo giovamento dai risultati che venivano ottenuti nelle disciplina emergente della “Chimica Fisica” che grazie all’impiego della termodinamica riusciva a prevedere i limiti entro i quali potevano essere attuate le trasformazioni chimiche. Lo sfruttamento del petrolio, sia sul piano energetico che chimico nel contempo stava favorendo il gigantismo e la complessità degli impianti la cui progettazione presentava una autentica sfida per l’ingegneria. Tale vertiginoso sviluppo, dovuto in gran parte all’individuazione di nuovi processi catalitici, ha avuto luogo attraverso profonde trasformazioni delle materie prime esistenti in natura. Questi sviluppi traevano ovviamente linfa dalla cultura europea, ma la maturità scientifica dell’ingegneria chimica, e la sua piena saldatura con la chimica fisica, si è consolidata nella seconda metà del secolo scorso al di là dell’Atlantico attraverso l’approfondimento del comportamento dei fluidi e delle loro miscele. Negli anni sessanta mi trovavo quale ricercatore presso l’Università di Madison, nel Wisconsin, dove venne pubblicato a cura di Byron Bird il libro intitolato “Transport Phenomena” che avrebbe conferito un rinnovato slancio alla progettazione degli impianti chimici e di ogni apparecchiatura che coinvolga fluidi e miscele fluide. In realtà la sua matrice culturale era un’altro libro contraddistinto con l’acronimo MTGL (Molecular Theory of Gases and Liquids) che aveva come principale autore John Hirschfelder. Costituiva il frutto di una linea di studio intrapresa nel Theoretical 1 Chemistry Institute, che mi ospitava . L’approccio era ambizioso e di ampio respiro poiché partendo dalle conoscenze fondamentali maturate nell’ambito della teoria cinetica dei fluidi, tenendo conto delle forze intermolecolari, venivano offerti i criteri per il calcolo della velocità dei processi di trasporto di energia e materia che hanno luogo nelle miscele fluide. In un certo senso si trattava della ricaduta applicativa del lavoro condotto alla fine dell’ottocento dall’austriaco Ludwig Boltzmann inteso a descrivere l’evoluzione di una miscela gassosa verso lo stato di equilibrio, con lo scopo di derivare dalle leggi della meccanica classica il secondo principio della termodinamica, il cui contenuto va oltre i confini della scienza per invadere quelli della filosofia. Infatti veniva sancita l’esistenza di una freccia del tempo in virtù della quale il passato differisce dal futuro. Paradossalmente gli eccellenti risultati così ottenuti avrebbero creato la curiosa situazione di una teoria in ottimo accordo con l’esperienza che veniva però messa in discussione per una ipotesi che stava alla sua base chiamata del caos molecolare. Con conseguenze tragiche sul piano umano che sono culminate con il suicidio di Boltzmann . Testimoniando però che i percorsi della scienza, anche se hanno aspetti inquietanti, offrono comunque alla tecnologia l’opportunità di trarre utili conseguenze. Infatti l’approccio che era stato dato alle ricerche sui processi di trasporto di materia ed energia si sarebbe esteso con successo a macchia d’olio , dagli impianti chimici ai sistemi naturali di diversa natura, inclusa l’atmosfera. In quegli anni lo stato liquido era considerato il più misterioso della materia perché sembrava mancassero le competenze per cogliere il comportamento di sistemi le cui molecole interagiscono a gruppi senza poter fare appello alle relazioni di simmetria presenti nei solidi. In realtà proprio allora stavano maturando le idee che avrebbero permesso di affrontare tale spinoso problema, fruendo di un approccio perturbativo basato sull’impiego di un opportuno sistema di riferimento che nell’accezione più semplice è costituito da corpi duri (sfere, dischi, sigari etc). In termini tecnici sembrava legittimo separare gli effetti entropici da quelli entalpici. L’approccio menzionato avrebbe avuto una significativa ricaduta negli studi sugli equilibri fra le fasi che tanta importanza rivestono nella progettazione degli impianti di separazione di miscele fluide riguardanti la chimica industriale, e soprattutto nell’utilizzo del petrolio e nella petrolchimica. I costi, dovuti al menzionato gigantismo che stavano assumendo i corrispondenti impianti richiedeva infatti metodi di calcolo e progettazione sempre più accurati. Le indagini sugli equilibri fra le fasi trovava pertanto una adeguata collocazione nell’ambito della “Termodinamica Molecolare” che affrontava lo studio degli stati di equilibrio facendo ampio ricorso alle conoscenze sulla struttura delle molecole e sulle loro interazioni. In realtà si portava così a compimento, da parte soprattutto di John Prausnitz professore a Berkeley, il programma di un altro grande scienziato contemporaneo a Boltzmann, Willard Gibbs che focalizzando l’attenzione sugli stati di equilibrio aveva conferito alla termodinamica il nitore della geometria euclidea, ponendo l’accento sullo studio delle “vite private dei sistemi”. Questa impostazione sarebbe dilagata a macchia d’olio nella soluzione di problemi di grande interesse ed 2 attualità quali la preparazione dei solidi polifasici, l’evoluzione delle gocce liquide e delle particelle solide presenti nei gas ambientali e la valutazione della distribuzione degli idrocarburi nei giacimenti petroliferi. Nella seconda metà del secolo scorso la chimica stava subendo un vero e proprio cambiamento di paradigma poiché il progresso del calcolo computerizzato stava offrendo la possibilità di simulare con accuratezza gli eventi molecolari. Si tratta di uno sviluppo che trae le sue origini dai principi della meccanica quantistica che erano in attesa da mezzo secolo (dal 1925) di poter essere applicati con confidenza alla chimica. In sostanza se fino a qualche anno prima i chimici teorici dovevano accontentarsi di riprodurre dati sperimentali già noti, stavano maturando i tempi per potersi avventurare nella previsione di dati utili per orientare le indagini in diversi settori, quali: - le sintesi chimiche la combustione la catalisi la chimica ambientale ed atmosferica la preparazione di materiali la biologia molecolare Tali risultati testimoniano il superamento di difficoltà che secondo John Pople, premio Nobel per le attività svolte in tale settore, costituivano un vero e proprio incubo. La constatazione che con il calcolo si possono affrontare difficoltà che venivano considerate insuperabili ci induce a meditare profondamento sull’avvenire dei metodi di simulazione anche in settori di avanguardia che vanno al di là della chimica. Già nella prima metà del secolo scorso l’attenzione si era focalizzata sulla valutazione per via teorica della velocità con la quale si svolgono le trasformazioni chimiche sulla base dalle conoscenze sulla struttura delle molecole. In tale impresa erano coinvolti scienziati di prim’ordine (Eugene Wigner, Michael Polany, Henry Eyring, Cyril Hinshelwood), impegnati ad indagare come dalla dinamica della collisione fra due molecole possa emergere una trasformazione chimica. Le idee erano chiare, ma il compito difficile in assenza di adeguati metodi di calcolo; tuttavia è affiorata l’idea che il passaggio dai reagenti ai prodotti richiedesse il superamento di una barriera di energia potenziale al cui culmine si poteva identificare una supermolecola chiamata “complesso attivato” o “stato di transizione”. La velocità della reazione veniva espressa dal prodotto della sua concentrazione per la sua frequenza di dissociazione, che a parità di temperatura risulta essere la stessa per qualunque reazione. La sua applicazione permetteva di uniformare il linguaggio della cinetica delle reazioni in fase gassosa, in soluzione ed enzimatiche. Ricordo che con lungimiranza John Hirschfelder, direttore del Theoretical Chemistry Institute di Madison, dichiarava che tale approccio forniva “an epoca making concept”. Con il passare degli anni l’impiego del concetto di stato di transizione è apparso di grande utilità, tanto da assumere il carattere di uno strumento euristico che permette 3 di affrontare con fiducia lo studio dell’evoluzione nel tempo dei sistemi complessi di reazioni. Con enormi ricadute anche sul piano applicativo. Nell’insieme si stavano consolidando le metodologie di calcolo dei moderni processi chimici coinvolgenti unità collegate fra di loro, nelle quali si svolgono molte reazioni interconnesse. La loro progettazione basata su solide conoscenze scientifiche risponde ai presupposti peculiari dell’ingegneria concernenti gli aspetti: 1- energetici, che tenendo opportunamente conto degli effetti termici, minimizzano il consumo di energia; 2- strutturali, riguardanti le connessioni fra le diverse unità; 3- di controllo, per garantirne una gestione affidabile ed efficiente. Su una scala più piccola gli sforzi si stavano dirigendo verso la preparazione dei materiali funzionali, impiegati nella costruzione dei dispositivi di diversa natura in particolare riguardanti l’ottica e la microelettronica, mediante processi concernenti la deposizione chimica da fase vapore. L’impiego di particolari configurazioni geometriche permettono di controllare il percorso e il flusso dei reagenti gassosi che lambiscono la superficie di deposizione in modo tale da conferire al materiale le caratteristiche strutturali desiderate. In sostanza le superfici diventavano dei microreattori la cui simulazione richiede uno scaling down dei concetti dell’ingegneria chimica. Questa capacità di trasformare “metaforicamente” il silicio, elemento molto abbondante sulla terra, in oro in virtù del ruolo che stava acquistando nello sviluppo della microelettronica, ha fatto attribuire ai tecnici che lavorano nel settore l’appellativo di “nuovi alchimisti”. Grazie alla simulazione condotta a più scale, da quella molecolare sino al cuore della fase gassosa, ne venivano migliorate le caratteristiche superficiali aumentandone le prestazioni in accordo alla nota legge di Moore. Sulla scia di tali risultati stava maturando l’euforica ambizione di sintetizzare nuove molecole e materiali opportunamente progettati, con proprietà e caratteristiche funzionali sempre più rispondenti ai bisogni dell’uomo, quasi a confermare l’affermazione di Leonardo: “Dove la natura finisce di produrre le sue proprie specie, comincia l’uomo, in armonia con le leggi della natura, a creare una infinità di specie”. Tali conoscenze sono state estese alle scienze della vita, in accordo con l’affermazione di Jim Watson: “La vita non è che una vastissima gamma di reazioni chimiche coordinate”. Nelle cellule, è infatti presente una complessa rete di reazioni la cui interconnessione costituisce la peculiarità dei sistemi viventi. In questo quadro un obbiettivo ambizioso, con profonde potenzialità nei settori biotecnologico e farmaceutico, è la simulazione del comportamento di una cellula sia per quanto riguarda il suo metabolismo sia per quanto concerne la reazione agli stimoli esterni. In un certo senso si tratta di applicare su una scala minore di circa cinque ordini di grandezza i concetti e i metodi dell’ingegneria delle reazioni chimiche. Poiché il DNA contiene tutte le informazioni sugli organismi viventi, se viene opportunamente modificato si possono creare nuovi micro-organismi con le 4 caratteristiche desiderate. Questo approccio nel quale convergono chimica, biologia e matematica, persegue un obbiettivo ambizioso che include la progettazione al computer di opportuni cammini metabolici in grado di generare sistemi artificiali aventi le proprietà delle cellule viventi. Operando su organismi monocellulari procariotici se ne isolano i passaggi rilevanti connettendoli fra di loro in modo da favorire la produzione di prodotti chimici, farmaci e carburanti. La ricostruzione dei loro genomi, offre la possibilità di progettare cellule che si comportano come catalizzatori per processi chimici mirati. Queste indagini appaiono molto interessanti sul piano prospettico poiché potrebbero ridefinire il volto della chimica sintetica. In particolare l’ impiego delle tecniche precedenti nella preparazione di biocarburanti da biomasse, trasformando la cellulosa presente nelle piante, appaiono promettenti. Le conoscenze maturate nella seconda metà del novecento hanno avuto conseguenze significative sulle attività produttive della chimica, poiché dai processi di larga scala si è ripiegato su quelli di minori dimensioni più strettamente connessi alle attività sociali, con particolare riferimento alla salute, ai servizi e all’ intrattenimento, dove talora le capacità tecniche devono saper colloquiare con i desideri e le velleità umane. Questa situazione ha favorito in particolare nel nostro paese un modello di sviluppo basato su un tessuto di piccole e medie imprese, molto vivace anche se per certi aspetti vulnerabile perché per competere sui mercati globali è necessario disporre di strutture di ricerca che risultino all’avanguardia nelle tecnologie che manifestano le più efficaci spinte innovative. Situazione che fortunatamente si è conservata sino ad oggi resistendo ai venti di crisi che hanno intaccato molte altre attività. In realtà la competizione sta impegnando agguerriti centri di ricerca mondiali, accademici e industriali, nel cui quadro anche l’Italia dà un importante contributo, che avrebbe sicuramente più elevata ricadute sullo sviluppo del paese se suscitasse maggiore attenzione da parte degli organismi politici ed economici. I giovani di talento vedono nello studio della chimica e dell’ingegneria chimica un motivo per soddisfare la propria curiosità e le loro ambizioni professionali grazie all’impegno di validi docenti aperti ai nuovi sviluppi scientifici e al confronto internazionale. Cosa riserva il futuro? Sta emergendo una frontiera volta all’avvicendamento delle risorse fossili con quelle derivanti da prodotti naturali con prospettive che potrebbero trasformare molti aspetti della nostra società. “Fine del petrolio” recita uno slogan inteso a trasmettere la preoccupazione per l’esaurimento della più importante delle risorse. Con sgomento perché se ciò si verificasse l’attuale società dovrebbe fronteggiare una crisi drammatica. In realtà la scoperta di nuovi giacimenti non tende a diminuire, mentre sta prendendo piede la prospettiva di sfruttare su larga scala il metano di cui sono impregnate le rocce. Ci si deve quindi chiedere perché il pianeta sia così ricco di idrocarburi e quali ne saranno le conseguenze sulle strategie energetiche. Infatti anche se la produzione di idrocarburi sembra assicurata per decine di anni la sfida viene trasferita sulla sostenibilità, intesa a: 5 - Controllare il riscaldamento globale. - Diminuire, o minimizzare, la volatilità dell’approvvigionamento dell’energia stabilizzando il clima politico. - Allentare la transizione dall’impiego dei combustibili fossili ad energie alternative. Gli approcci per fronteggiare i precedenti problemi sono stati, e sono tuttora l’oggetto di dibattiti, prese di posizione politiche, ricerche e proposte tecnologiche che si protraggono da mezzo secolo, cercando di cogliere una possibile transizione verso una era post petrolifera mantenendo sostanzialmente le attuali condizioni di vita e le stesse consuetudini. Con risultati sino ad ora obbiettivamente modesti. Sta maturando però la consapevolezza che l’impiego dell’energia non può prescindere dalla sua qualità poiché solo una parte è utile per effettuare le trasformazioni meccaniche, termiche, elettriche, chimiche e così via, in grado di conferire al pianeta una complessa struttura tale da agevolare le attività umane. In questo quadro un concetto unificante è quello di exergia, mutuato dall’energia libera di Gibbs, che costituisce il massimo lavoro che può essere ottenuto quando un sistema raggiunge il suo equilibrio con l’ambiente circostante. A differenza dell’energia non si conserva. Una risorsa energetica è costituita da materia con un elevato contenuto di exergia derivante dalla sua composizione chimica. Ad esempio i combustibili fossili, , il cui accumulo locale provoca sul pianeta situazioni di squilibrio. Dal sole proviene sulla terra un flusso di exergia che ammonta a circa 140000 TW, che interviene nei processi naturali associati ai moti marini ed atmosferici, alle trasformazioni fisiche o chimiche di natura geologica e allo sviluppo dei processi biologici. In questo quadro una particolare attenzione merita la fotosintesi, processo naturale, frutto dell’evoluzione, che combina l’anidride carbonica con l’acqua per formare carboidrati, catturando l’energia libera contenuta nella luce solare per convertirla in energia chimica di elevata qualità. In circa 4 miliardi di anni ha contribuito alla produzione delle complesse strutture che hanno trasformato il pianeta attraverso lo sviluppo degli organismi viventi e le corrispondenti modifiche del mondo fisico, in particolare la comparsa e l’accumulo dell’ossigeno nell’atmosfera. La quantità che ne viene impiegata nei processi fotosintetici ammonta a circa 90 TW. Lo studio in termini storici dei processi chimico-fisici coinvolti nella fotosintesi offre una eccellente esemplificazione di come i sistemi aperti si adattano nel tempo al mondo esterno attraverso la fruizione di processi di retroazione che favoriscono la formazione di nuove strutture complesse fruendo di meccanismi simili ai processi autocatalitici. Sul piano delle attività umane contribuiscono all’organizzazione e al progresso tecnologico che favorisce la miniaturizzazione degli impianti che utilizzano una minore quantità di materiali, ed impiegano meno energia. E’ comunque opportuno fare una distinzione fra: Crescita: ovvero espansione per solo accrescimento. che si manifesta in termini: spaziali, materiali ed energetici. Sviluppo: in cui prevale l’aumento del livello organizzativo. Nella nostra società sono necessari entrambi ma con il passare del tempo la prima deve cedere il passo al secondo. 6 Le connessioni fra le diverse attività produttive si manifestano attraverso una rete di scambi di materia, energia e informazione che, richiamando i movimenti di trasporto presenti nelle cellule, favoriscono la diversificazione e l’auto organizzazione verso livelli di complessità sempre più elevati. In questo quadro è pertanto legittimo ipotizzare che non ci siano limiti allo sviluppo. Tuttavia perché si possa proseguire al ritmo attuale è necessario che esista: -un accumulo o un avvicendamento adeguato di risorse da garantire l’approvvigionamento energetico. -la capacità di impedire che un troppo intenso impiego dell’energia, in particolare attraverso la combustione, provochi indesiderate evoluzioni ambientali. Partendo da questa consapevolezza è allora possibile costruire un futuro sostenibile? Ci ha provato, almeno sulla carta, Peter Viktor un economista della York University di Toronto, che ha rimodellato l’economia canadese interrogandosi se si potesse realizzare una transizione verso una situazione di stabilità economica stazionaria che non comprometta lo stato fisico e chimico del pianeta. L’ obbiettivo viene perseguito mediante l’impiego della carbon-tax, di programmi anti povertà e della riduzione delle ore di lavoro. Si attua così uno stato stazionario, con un relativamente basso livello di emissione della anidride carbonica e con un reddito pro capite ad un livello relativamente elevato: risultati che prospettano condizioni del tutto accettabili per la tutela del pianeta garantendo un ragionevole benessere per la società umana. Tuttavia lascia aperti importanti quesiti sulla sua applicabilità in termini concreti poiché richiede il raggiungimento di un accordo internazionale, l’imposizione di leggi, regolamentazioni, tasse, sussidi, esteso impiego delle nuove tecnologie ed infine cambiamenti strutturali del sistema bancario e finanziario. Si dovrebbe quindi convincere i politici e la popolazione di tutto il mondo di cambiare il modo di vita, includendo gli abitanti dei paesi in via di sviluppo che tendono a convergere verso lo stato di benessere dei paesi ricchi. Si tratta in sostanza di un cambiamento epocale che potrebbe includere anche la pianificazione familiare, per decreto. Nel quadro precedente curiosamente si deve osservare che la parte scientifica del programma risulterebbe la più facile da perseguire poiché si basa sostanzialmente su tecnologie note. In sostanza il successo del programma riguarderebbe più la politica della scienza. Paul Krugman, premio Nobel per l’economia, in una sua nota sul New York Times dal titolo: “Salvare il pianeta non costa niente” , sostiene che gli scienziati non capiscono cosa significa crescita economica. Probabilmente ha ragione, anche perché se si giudica da come va il mondo sembra che non lo capiscano nemmeno gli economisti. Comunque non si può che essere d’accordo con la sua filosofia del “mai dire mai” , purché si tenga opportunamente conto, come dicono gli scienziati, delle condizioni al contorno nel cui ambito si può operare. In nessun altro momento della storia il progresso scientifico e tecnologico ha offerto agli abitanti del pianeta la prospettiva di rimuovere la povertà che ancora assilla buona parte della popolazione umana. Pertanto qualunque progetto futuro non può 7 prescindere dallo sviluppare le attività grazie alle quali le tecnologie sino ad ora acquisite vengano trasferite. La scienza e la tecnologia si trovano tuttavia ad un bivio poiché da parte di alcuni si sostiene che la prospettiva che si verifichi entro breve tempo una svolta simile a quelle che si sono avute nella precedenti ere, quella industriale e quella tecnologica, appare improbabile, anche se la comunità scientifica è numerosa e fruisce globalmente di generosi finanziamenti. Da parte di altri si paventa invece lo sviluppo della tecnologia perché considerata responsabile dell’eccessivo consumo delle risorse naturali e del degrado ambientale sino a preconizzare l’avvento di autentiche catastrofi. Tanto da invocare una improbabile decrescita. Tuttavia se non si vuole appartenere alla schiera di coloro che cercano disperatamente un miracolo ritengo che il perseguimento di un equilibrato benessere generalizzato, senza imporre modifiche sociali e politiche difficilmente praticabili, o addirittura utopiche, non possa prescindere dall’intensificazione delle di ricerca con l’intento di sviluppare tecnologie innovative, accettando il rischio implicito derivante dalla loro applicazione. In accordo alla consuetudine che ha sempre contraddistinto la società umana e che sta alla base di ogni progresso. 8
© Copyright 2024 ExpyDoc