Download - Scienze - Psicologie e scienze cognitive

Francesco Coniglione
Lezioni di logica e
filosofia della scienza
Dispense per gli studenti del
Corso di laurea in Scienze dell’educazione
a.a. 2002-2003
1/229
Lezioni di logica e filosofia della scienza
INDICE
PREMESSA
Capitolo primo
CHE COS’È LA FILOSOFIA DELLA SCIENZA
1. Questioni terminologiche
2. L’epistemologia come teoria della conoscenza
3. La filosofia della scienza come disciplina autonoma
4. Alle origini della filosofia della scienza
Capitolo secondo
LE TRASFORMAZIONI DELLA SCIENZA TRA OTTOCENTO E NOVECENTO
1. Il mondo secondo Laplace
2. Il calore e la termodinamica
3. L’elettromagnetismo e l’idea di campo
4. La teoria della relatività
5. La meccanica quantistica.
Capitolo terzo
I CONCETTI E IL LINGUAGGIO DELLA LOGICA SIMBOLICA
1. Dalla logica ‘classica’ alla “nuova logica”
2. Gli strumenti della logistica
Capitolo quarto
LEGGI E TEORIE SCIENTIFICHE
1. Le leggi come asserti universali
2. La legge scientifica come asserto idealizzazionale
3. La Concezione Standard delle teorie scientifiche
4. Riduzione e definibilità dei termini teorici
Capitolo quinto
INDUZIONE, PROBABILITÀ E CONFERMA
1. Differenza tra induzione e deduzione.
2. Diverse accezioni della ‘inferenza’ induttiva.
3. Diversi approcci all’induzione metodologica.
4. L’approccio pragmatico.
5. Dalla verificazione alla conferma.
6. I problemi della conferma qualitativa e i suoi paradossi
Capitolo sesto
SPIEGAZIONE
1. La spiegazione dalla preistoria alla storia
2. Il modello nomologico-deduttivo
3. Le difficoltà del modello e i controesempi
4. I modelli statistico-induttivo e statistico-deduttivo
2/229
Lezioni di logica e filosofia della scienza
5. Ambiguità esplicativa e relativizzazione epistemica
6. Altri modelli e tipi di spiegazione
Capitolo settimo
SPIEGAZIONE E LEGGI NELLE SCIENZE UMANE E PSICOLOGICHE
1. Due tradizioni
2. Origini e caratteri della contrapposizione tra scienze umane scienze
naturali
3. La spiegazione dell’individuale
4. Concretezza e idealità nella scienza: Galilei come esempio
5. Idealizzazione e valori: Weber come esempio
6. Una possibile convergenza: Popper come esempio
7. Principio di razionalità e spiegazione nomologico-deduttiva
3/229
Lezioni di logica e filosofia della scienza
Capitolo primo
CHE COS’È LA FILOSOFIA DELLA SCIENZA
1. Questioni terminologiche
In questo capitolo vogliamo porci una Lo statuto della filosofia della
domanda preliminare, concernente lo statuto della scienza e l’ambiguità termidisciplina che ci accingianmo a studiare. In cosa nologica
consiste, cioè, la filosofia della scienza e come possiamo caratterizzarla
nell’ambito della ormai vasta famiglia delle discipline filosofiche? È naturale che allo scopo di dare una risposta a queste domande è necessario
innanzi tutto indicare quale sia l’oggetto da essa studiato e, poi, cercare di
capire quali siano le metodologie da essa adoperate, in modo da
distinguerla con chiarezza dalle altre discipline filosofiche che ad essa
potrebbero essere accostate. Partiamo innanzi tutto da una constatazione di
fatto: nella letteratura filosofica locuzioni come “gnoseologia”, “teoria della
conoscenza”, “epistemologia” e “filosofia della scienza” sono a volte usate,
in diverse combinazioni, in maniera interscambiabile, implicitamente o
esplicitamente intendendole come sinonime; altre volte sono invece
differenziate, attribuendo a ciascuna di esse un campo di indagine peculiare
rispetto alle altre ed in relazione alla riflessione scientifica.
Il termine col quale la filosofia della scienza
Origine del termine ‘epistepiù spesso viene assimilata è quello di “epistemo- mologia’
logia”. Esso è stato usato per la prima volta dallo
studioso inglese J.F. Ferrier nell’800, per indicare una delle due parti
fondamentali della filosofia, la seconda essendo costituita dall’ontologia (o
metafisica). Tale termine veniva da lui inteso come sinonimo di “teoria
della conoscenza”, però precisando che, a differenza di altri termini usati
anche in questa accezione, esso è sempre più riferito alla “teoria della
conoscenza scientifica.”1 Già si esprime in questa definizione la tensione tra
Cfr. J.F. Ferrier, Institutes of Metaphysics, Paris 1854; AA.VV., Mały slownik terminów i
poj´c filozoficznych, Inst. Wyd. Pax, Warszawa 1983; AA.VV., Leksykon Filozofii klasycznej,
Tow. Nauk. KUL, Lublin 1997.
1
4/229
Lezioni di logica e filosofia della scienza
i diversi significati che il termine assumerà nel corso del suo impiego nel
pensiero del Novecento.
Ciò dipende anche dalle diverse tradizioni Il significato di ‘epistemolonazionali e dall’uso che si è in esse venuto a con- gia’ nella filosofia francese
solidare. Così in Italia (e spesso anche in Francia) ed italiana
l’epistemologia tende a collocarsi nel campo della riflessione sul pensiero
scientifico, per cui viene assimilata in sostanza alla filosofia della scienza2;
sebbene si riconosca che, a rigore, tra esse non possa stabilirsi una perfetta
relazione di equivalenza, tuttavia i due termini vengono usati come
sinonimi. In tal modo, col termine “epistemologia” si indica di solito
«quella branca della teoria generale della conoscenza che si occupa di
problemi quali i fondamenti, la natura, i limiti e le condizioni di validità del
sapere scientifico»3. Essa è dunque concepita come «una ‘teoria della
scienza’ che riconosce l’esemplarità del sapere positivo e si propone di
analizzarne metodi e strutture», sostituendo la ormai erosa “gnoseologia”,
in piena decadenza a partire dall’idealismo che, con Hegel, ne aveva messo
in dubbio lo stesso diritto all’esistenza.4
Diversamente vanno le cose nella tradizione Il significato di ‘epistemolofilosofica anglosassone, nella quale di solito l’epi- gia’ nella cultura anglosassostemologia è assimilata alla “teoria della cono- ne
scenza” ed è pertanto distinta dalla filosofia della
scienza. Ad esempio, nell’opera La filosofia, curata da Paolo Rossi, nel
capitolo dedicato alla “Teoria della conoscenza”, l’autore si attiene all’uso
corrente nella letteratura di lingua inglese nel «considerare come sinonimi
‘teoria della conoscenza’, ‘epistemologia’ e il più arcaico ‘gnoseologia’»5.
2!Per
tale assimilazione vedi Pasquinelli, “Filosofia della scienza (epistemologia)”, in
Enciclopedia Feltrinelli-Fischer, Feltrinelli, Milano 1972, vol. 14, p. 184. A tale impostazione
Pasquinelli si attiene anche in Nuovi principi di epistemologia, Feltrinelli, Milano 1974 (6ª ed.). Fa
eccezione Abbagnano (Dizionario di filosofia, UTET, Torino, 1971), che assimila del tutto
epistemologia e teoria della conoscenza o gnoseologia. In Francia la tradizione comtiana ha fatto
assimilare la filosofia della scienza con l’epistemologia già in E. Meyerson (cfr. F. Minazzi,
“L’epistemologia tra teoria e storia”, in Storia della Filosofia, diretta da M. Dal Pra, vol. 11, La
filosofia contemporanea. Seconda metà del Novecento, tomo I, a cura di G. Paganini, p. 439); vedi
anche Foulquié (Dictionnaire de la langue philosophique, PUF, Paris 19865, p. 217) e A. Lalande
(Dizionario critico di filosofia ISEDI, Milano 196810, pp. 256-7), che distingue chiaramente tra
teoria della conoscenza ed epistemologia, in quanto quest’ultima «studia la conoscenza
dettagliatamente e a posteriori, nella diversità delle scienze e degli oggetti piuttosto che nell’unità
dell’intelletto».
3!Aa.Vv. Enciclopedia Garzanti di Filosofia, Garzanti, Milano1981, p. 256. Analogamente in
Aa.Vv., Enciclopedia filosofica, a cura del Centro Studi di Gallarate, Sansoni, Firenze 1968, p.
886): «Benché il termine si trovi tuttora usato in altri significati (teoria del conoscere,
gnoseologia), il significato dominante è quello di indagine critica intorno alle scienze naturali e
matematiche (‘scienza’ o ‘scienze’ del linguaggio corrente)» (voce redatta da F. Amerio).
4 V. Cappelletti, “Epistemologia”, in Enciclopedia del Novecento, Ist. della Encicl. Italiana,
Roma 1977, vol. II, pp. 695-8. Conferma questa tendenza tipicamente italiana la voce “Epistemologia” contenuta in D.F. Runes (a cura di), Dizionario di filosofia, Mondadori, Milano 1972, p.
291, scritta da Aldo Devizzi, che ha “tradotto ed integrato” l’originale inglese e che identifica
l’epistemologia in generale con la filosofia della scienza, aggiungendo che «a volte, ma oggi più
raramente, il termine sta ad indicare la teoria della conoscenza, che con più precisione si denomina
gnoseologia».
5 A. Pagnini, “Teoria della conoscenza”, in La filosofia, a cura di P. Rossi, vol. III, L e
5/229
Lezioni di logica e filosofia della scienza
Secondo questa interpretazione, dunque, l’epistemologia (sia essa considerata solo una branca della teoria della conoscenza o venga con quest’ultima
in toto identificata), dovrebbe occuparsi «della natura e degli scopi della
conoscenza, dei suoi presupposti e delle sue basi e della generale
affidabilità delle pretese di conoscenza».6 L’epistemologo, da questo punto
di vista, «si occupa non di sapere se o come possiamo affermare di
conoscere qualche cosa particolare, ma se siamo giustificati nel sostenere la
conoscenza di qualche intera classe di verità o, anche, se la conoscenza è in
ogni caso possibile»7. E ancora più recentemente si equipara
l’epistemologia alla teoria della conoscenza e la si definisce come «la
branca della filosofia che concerne l’indagine sulla natura, le fonti e la
validità della conoscenza. Fra le questioni chiave cui essa tenta di
rispondere ci sono: Che cos’è la conoscenza? Come possiamo ottenerla?
Possiamo difendere i mezzi che ci permettono di ottenerla dalla sfida
scettica?»8. Anche in Polonia, paese che ha avuto in questo secolo un ruolo
di primo piano nel campo delle ricerche logico-epistemologiche9, prevale
questo modo di intendere il concetto di epistemologia, sulla base dell’insegnamento di Kazimierz Ajdukiewicz, per il quale teoria della conoscenza,
epistemologia e gnoseologia sono da intendere come sinonimi, in quanto
tutti hanno come oggetto ciò che egli chiama la “scienza della
conoscenza”.10
2. L’epistemologia come teoria della conoscenza
Vediamo ora in che modo è stata concepita I quesisti che si pone l’epistetradizionalmente l’epistemologia, considerata nel- mologia tradizionale
l’accezione anglosassone, cioè come teoria della
conoscenza in generale. Il suo problema centrale consiste nell’individuare i
criteri e i caratteri che devono essere presi in considerazione per giungere
alla conoscenza del reale. Esso, è di solito articolato in alcuni classici
quesiti:
(a) Che cos’è la conoscenza?
discipline filosofiche, UTET, Torino 1997, p. 110.
6 D.W. Hamlyn, “Epistemology, History of”, in The Encyclopedia of Philosophy, New
York/London, vol. 3, pp. 8-9.
7 Ib., p. 9.
8 A.C. Grayling, “Epistemology”, in Blackwell Companion to Philosophy, ed. by N. Bunnin,
E.P. Tsui-James, Blackwell, Oxford 1996, p. 38; vedi anche J. Dancy, Introduction to
Contemporary Epistemology, Blackwell, Oxford 1996, p. 1; J. Greco, “Introduction: What is
Epistemology?”, in J. Greco, E. Sosa (eds.), The Blackwell Guide to Epistemology, Blackwell,
Oxford 1999; D.H. Ruben, Explaining Explanation, Routledge, London and New York 1990, pp.
2-3; M. Bunge, Exploring the World. Epistemology & Methodology I, vol. 5 di Treatise on Basic
Philosophy, Reidel, Dordrecht 1974-86, pp. 1-3.
9!Cfr. F. Coniglione, Nel segno della scienza. La filosofia polacca del Novecento, Angeli,
Milano 1996.
10!Cfr. K. Ajdukiewicz, Problems and Theories of Philosophy, Cambridge Univ. Press, London
1973.
6/229
Lezioni di logica e filosofia della scienza
•
•
•
•
(b) Come dovremmo arrivare ad essa?
(c) Come ci arriviamo?
(d) I processi con cui ci arriviamo sono i medesimi di quelli con cui
dovremmo arrivarci?
La concezione tradizionale dell’epistemologia ritiene che:
La conoscenza sia definibile come credenza vera giustificata: credenza
(belief), in quanto essa consiste in uno stato psicologico del soggetto il
quale possiede certe idee (o ‘credenze’), di solito espresse in forma
proposizionale (del tipo: “la moglie di mio fratello Giovanni ha i capelli
rossi”); vera, in quanto tali credenze non possono essere il mero frutto
della fantasia, ma devono in qualche modo rispecchiare o corrispondere
o informarci sulla realtà che hanno come oggetto; giustificata, in quanto
non è sufficiente che le nostre credenze siano vere (potremmo aver
azzeccato per caso, come capita con le estrazioni del lotto), ma è
necessario che abbiamo delle ragioni o motivi per ritenerle tali, cioè che
siamo in grado di giustificare perché esse sono vere.
Sia compito dei filosofi rispondere al quesito (b), concernente il quid
juris, cioè quali siano le regole che bisogna seguire per pervenire alla
conoscenza, intesa come credenza vera giustificata (ad esempio
proponendo la teoria coerentista della giustificazione e della verità,
oppure stabilendo dei criteri di accertamento empirico che diano
sufficienti garanzie affinché la credenza cui perveniamo sia
effettivamente giustificata e vera);
Competa agli psicologi (o anche ai sociologi) la risposta alla domanda
(c), concernente il quid facti, ovvero il modo in cui effettivamente si
comportano gli individui nel procurarsi le loro conoscenze (ad es.,
potrebbero anche, per sapere che tempo farà domani, leggere nella sfera
di cristallo, consultare uno stregone della pioggia o rivolgersi a un
metereologo);
Sia possibile, infine, effettuare una comparazione tra le risposte date
alle domande (b) e (c) in modo da poter anche rispondere alla domanda
(d)11.
È tipico dell’epistemologia tradizionale cercare di rispondere a tali
quesiti «mediante la riflessione su casi possibili. Gli epistemologi
descrivono i casi possibili, consultano le loro intuizioni per sapere se siano
o no in presenza di una conoscenza e decidono su questa base se il caso
esaminato dimostri o meno che l’analisi proposta sia errata. Ancora una
volta, il compito è portato avanti solo da un epistemologo seduto in
poltrona, senza l’aiuto della scienza»12. Ciò che è importante rilevare è che
fa parte di questo modo di intendere il lavoro dell’epistemologo la tesi che
11 Cfr. H. Kornblith, “Introduction: What is Naturalistic Epistemology?” (1988), in Id. (ed.),
Naturalizing Epistemology, MIT Press, Cambridge/London 19942, p. 3.
12 R. Feldmann, “Naturalized Epistemology”. In: Stanford Encyclopedia of Philosophy, ed.
2001, § 1, http://plato.stanford.edu / entries / epistemology-naturalized/.
7/229
Lezioni di logica e filosofia della scienza
la risposta alla domanda (c) non ha alcuna rilevanza per la domanda (b).
Nessun epistemologo tradizionale si sognerebbe di consultare un libro di
testo di neurofisiologia per sapere, ad esempio, se le nostre credenze
percettive sono affidabili o meno, in quanto la sua domanda sta a monte di
questa stessa consultazione: trarre informazioni da un manuale di
psicologia o neurofisiologia significa già conoscere ed egli si domanda se
già questa conoscenza sia conoscenza; per cui l’epistemologia rivendica
una priorità concettuale e metodologica sulla scienza13.
Intesa in tal modo, l’epistemologia assume il Il carattere normativo dell’ecarattere di una disciplina normativa14; essa, pistemologia e suo atteggiacioè, non si limita a descrivere i processi mento ‘fondazionalistico’: la
conoscitivi effettivamente messi in atto dagli prima philosophia
individui (questo è compito, abbiamo visto, dello psicologo o al limite del
sociologo), ma indica delle norme sul modo in cui si debbono condurre le
nostre attività cognitive allo scopo di ottenere una conoscenza vera e
giustificata. Ciò la porta a porsi un compito assai ambizioso: quello di
trovare il fondamento delle pretese di conoscenza avanzate dall’umanità, in
ogni suo aspetto e campo disciplinare, ivi compreso quello proprio della
scienza naturale. È questa la prospettiva che si chiama “fondazionalistica”:
compito dell’epistemologia sarebbe fornire alla scienza una base sicura,
una classe di credenze indubitabili, di dati immediati, che stanno a
fondamento di tutte le altre e sulle quali costruire l’intera conoscenza
scientifica15. In tal modo, per così dire, lo scienziato (il fisico, il chimico
ecc.) deve richiedere la garanzia di autenticità dei propri risultati
all’epistemologo, che gli rilascerebbe una sorta di certificato attestante il
loro carattere di “fondata o giustificata conoscenza”. Il filosofo, dunque, a
cui spetta il compito della riflessione epistemologica, si pone compiti assai
ambiziosi: ambisce alla fondazione della conoscenza scientifica (vista come
specificazione esemplare della conoscenza in generale) in quanto è lui in
grado di risolvere in generale il problema della conoscenza; e ciò deve
essere attuato facendo ricorso solo alle proprie forze, solo alla filosofia in
quanto filosofia, in un genuino sforzo teoretico che trae le proprie
argomentazioni e tesi dalla generale capacità razionale umana. Nella
13
Come afferma J.K. Crumley, «le asserzioni della conoscenza scientifica non possono essere
usate nelle indagini dell’epistemologo se esso vuole comprendere come tale conoscenza è in
primo luogo possibile. Non solo il richiamo alla scienza sembra scavalcare la domanda
epistemologica, ma la scienza sembra fornire il genere sbagliato di risposta. La scienza descrive e
spiega; non è affar suo rispondere alle domande normative. La scienza afferma di dirci come
stanno le cose. Non ci dice ciò a cui dovremmo credere. Essa in effetti non ci dice, e per alcuni
non può dirci, se noi dovremmo credere alla miriade di affermazioni scientifiche». Ne segue che
«il metodo scientifico dà per garantito ciò che l’epistemologo vuole spiegare» (“Naturalized
Epistemology”, in Id. (ed.), Readings in Epistemology, Mayfield Publishing Co, Mountain View
1999, p. 445).
14 Cfr. J. S. Crumley II, “Epistemology and the Nature of Knowledge”, in Id. (eds.), Readings
in Epistemology, Mayfield Publishing Company, Mountain View (California) 1999, p. 3.
15 E’ su questa accezione di epistemologia, ad es., che viene costruito tutto il discorso
‘antifondazionalista’ di Richard Rorty nel suo fortunato volume La filosofia e lo specchio della
natura (1979), Bompiani, Milano 1986.
8/229
Lezioni di logica e filosofia della scienza
sostanza l’orizzonte problematico in cui si pone l’epistemologia è definito
dalla necessità di rispondere alla sfida scettica, dissipando l’ombra del
dubbio dalle nostre conoscenze con l’assicurare loro una fondazione certa
ed indubitabile. Pertanto l’epistemologia viene intesa come una sorta di
filosofia fondamentale o prima philosophia, e si pone in perfetta continuità
con quella sua tradizionale attività che ne ha segnato l’intera storia e che è
stata di solito indicata come “problema gnoseologico”. La sua storia
verrebbe così a coincidere tout court con quella del problema della
conoscenza, ad iniziare dalla grecità classica: la maggior parte dei suoi
problemi sono i medesimi di quelli discussi in dettaglio da Platone,
Aristotele e dagli scettici antichi.16
Tuttavia il problema della conoscenza è stato Origini cartesiane della
posto in modo esemplare e radicale in età moder- epistemologia, come ‘giudice’
na con il filosofo francese René Descartes (Car- nei confronti della scienza
tesio, 1596-1650), che ha posto le fondamenta della epistemologia come
branca autonoma della filosofia e ne ha tracciato le coordinate concettuali
che da allora in poi segneranno il dibattito successivo: «l’agenda
epistemologica di Cartesio è stata l’agenda dell’epistemologia Occidentale
sino ad oggi»17. In essa sono iscritti i problemi epistemologici fondamentali
che da allora in poi tormenteranno i filosofi e costituiranno la carta di
identità della disciplina. Le proposte di Cartesio costituivano una
prospettiva unitaria caratterizzata da: (a) una assunzione fondazionalista:
una credenza può essere considerata autentica conoscenza quando è fondata
su di una base indubitabile; (b) da un ideale deduttivista, per cui è possibile
quella conoscenza che si può derivare da tale fondamento immune da
errori, così rispondendo al dubbio scettico; (c) dalla conseguente ricetta per
ottenere autentica conoscenza: dobbiamo scartare tutte quelle credenze che
non siano immuni da dubbi o che non possono essere a queste ricondotte
mediante una catena inferenziale18. Era questa una proposta che risentiva
ancora di un insufficiente sviluppo del pensiero scientifico, per cui era
modellata più sulla matematica che sul metodo delle scienze empiriche.
Tuttavia in essa sono contenuti i temi che da allora hanno affaticato i teorici
della conoscenza: il riconoscimento dei contenuti della coscienza (le
“idee”) quale punto di partenza del processo conoscitivo e quindi il
problema del rapporto o “ponte” tra il soggetto e l’oggetto, con la connessa
esigenza di rinvenire i criteri che possono assicurare la corrispondenza tra
concetti e realtà.
L’impostazione cartesiana ha talmente segnato l’epistemologia classica
16 J. Chisholm, The Foundations of Knowing, Harvester Press, Brighton 1982, p. 109. Non a
caso Pagnini (op. cit., pp. 113-6), identificando epistemologia e teoria della conoscenza, fa
coincidere poi quest’ultima integralmente col tentativo di rispondere alle sfide dello scetticismo.
17 J. Kim, “What Is ‘Naturalized Epistemology’?”, in J.S. Crumley II (ed.), op. cit., p. 467. I
più rappresentativi epistemologi del Novecento che ancora rimangono fedeli al programma
cartesiano sono da Kim ritrenuti B. Russell, C.I. Lewis, R. Chisholm e A.J. Ayer.
18 Cfr. H. Kornblith, “In Defense of a Naturalized Epistemology”, in J. Greco & E. Sosa, eds.,
The Blackwell Guide to Epistemology, Blackwell, Malden MA / Oxford 1999, p. 159.
9/229
Lezioni di logica e filosofia della scienza
da esser visto nel suo abbandono una svolta radicale o addirittura la sua
“morte”, causata in primo luogo dalle critiche ad essa portate dai cosiddetti
teorici “antifondazionalisti”. Questi, infatti, criticano e delegittimano
l’epistemologia in quanto vedono in essa «una disciplina non empirica, la
cui funzione è di sedere in giudizio circa tutte la pratiche discorsive
particolari in vista di determinarne lo statuto cognitivo. L’epistemologo
[…] è un professionista attrezzato in modo da determinare quali forme di
giudizio sono ‘scientifici’, ‘razionali’, ‘meramente espressivi’ e così via»19.
Essi contestano, insomma, la tendenza tipica dell’epistemologo ad
assumere il carattere di giudice nei confronti della scienza, dichiarandola
priva di valore conoscitivo qualora non si attenga ai criteri e ai desiderata
da esso stabiliti.
3. La filosofia della scienza come disciplina autonoma
Coloro che propendono, invece, ad assimilare Assimilazione della ‘el’epistemologia alla filosofia della scienza pistemologia’ alla filosofia
intendono quest’ultima come una disciplina in della scienza e suo carattere
gran parte autonoma rispetto alla gnoseologia e metadiscorsivo
alla teoria della conoscenza, assegnandole un preciso compito ed ambito:
«Scopo di tale disciplina non è tanto costituire un fondamento oppure
un’estensione delle scienze quanto piuttosto affrontare o descrivere il
proprio oggetto – cioè le scienze stesse – dal punto di vista metodologico e
critico. Ciò a cui i filosofi sono interessati è quindi descrivere l’attività
scientifica isolandone quelle che considerano le proprietà generali e le
forme caratteristiche, analizzando concetti usati non tanto dagli scienziati
nel loro lavoro quanto dai filosofi nel descrivere ciò che gli scienziati fanno
[…]!Scopo della filosofia della scienza sarebbe, in questo caso, ricostruire
in modo razionale i metodi impiegati dalla scienza oggetto della propria
considerazione»20. È evidente che in questo caso la filosofia della scienza
viene considerata come un’attività “riflessa”: l’analisi dei concetti adoperati
dalla scienza e dei risultati cui essa perviene (quali leggi e teorie) è il dato
di partenza per arrivare a delle considerazioni sul modo di procedere degli
scienziati, sulla natura delle loro asserzioni e sul metodo da essi adoperato.
Non a caso, in riferimento a tale precipuo suo carattere metadiscorsivo, ci si
riferisce alla filosofia della scienza anche col nome di “metascienza” o di
“scienza della scienza”21.
19!M. Williams, “Death of epistemology”, in A Companion to Epistemology, ed. by J. Dancy
and E. Sosa, Blackwell, Oxford 1992, p. 89.
20!R. Lanfredini, “Filosofia della scienza”, in La filosofia, a cura di P. Rossi, vol. I, L e
discipline filosofiche, UTET, Torino 1997, p. 70.
21!Cfr. D. Oldroyd, Storia della filosofia della scienza, Il Saggiatore, Milano 1989, pp. 4-5.
10/229
Lezioni di logica e filosofia della scienza
Intesa in tal modo, l’epistemologia rivendica La rivendicazione dell’autoun’autonomia disciplinare e scientifica rispetto nomia della epistemologia
alla teoria della conoscenza o alla “gnoseologia”, rispetto alla gnoseologia
termine più tradizionalmente impiegato nei manuali di storia della filosofia. Tale piena autonomia è stata rivendicata in
particolare per la prima volta nella filosofia tedesca del XIX secolo, che ha
introdotto la distinzione tra Wissenschaftlehre [dottrina della scienza] e
Erkenntnislehre [dottrina della conoscenza]: la prima stava appunto ad
indicare l’epistemologia intesa come metodologia o teoria della ricerca
scientifica, mentre la seconda veniva ad indicare la tradizionale filosofia
della conoscenza (o gnoseologia).22
Tale emancipazione dell’epistemologia dalla La posizione ancora ambigua
sua progenitrice filosofica, la gnoseologia, non è di Russell
tuttavia un processo lineare. Così, ad esempio,
può capitare che un autore come Bertrand Russell, che pure ha inteso la
pratica della filosofia in stretta connessione con l’indagine scientifica,
ancora agli inizi del secolo tenda a intendere l’epistemologia come mera
gnoseologia: «Il problema centrale dell’epistemologia è il problema di
distinguere tra le credenze vere e quelle false, e di trovare, in quanti più
campi è possibile, criteri di credenza vera all’interno di quei campi», per
cui «possiamo definire l’epistemologia nei termini di questo problema, cioè
come l’analisi della credenza vera e falsa e dei loro presupposti, insieme
con la ricerca di criteri di credenza vera»23. Ne consegue che la teoria della
conoscenza non deve presupporre una conoscenza della fisica, la quale
serve semmai a “saggiare” la nostra epistemologia e non a fornire le
premesse su cui essa dovrebbe costruirsi. Insomma, la scienza, secondo
questa prospettiva “gnoseologistica”, avrebbe dovuto essere fondata nel suo
valore conoscitivo dalla gnoseologia generale.
Tale impostazione muta, però, all’esordio La svolta con il Circolo di
dell’epistemologia contemporanea, che possiamo Vienna
far coincidere con le attività dei filosofi afferenti o
vicini al Circolo di Vienna, fondato da Moritz Schlick nel 1929. Benché nel
suo seno venga spesso ancora adoperata la locuzione “teoria della
conoscenza” (o “gnoseologia”), nell’epistemologia si tende a vedere
sempre più, non lo studio della conoscenza in generale, bensì di quel suo
particolare tipo che viene esemplarmente incarnato nella scienza.24 Essa,
pertanto, assume come dato di fatto che la scienza sia la forma conoscitiva
par excellence, che ha dato prova concreta di sé nella spiegazione e
comprensione della natura e nei risultati tecnici conseguiti, sicché compito
22
Cfr. M. Hempoliƒski, Filozofia współczesna. Wprowadzenie do zagadnieƒ i kierunków [La
filosofia contemporanea. Introduzione ai problemi ed agli indirizzi], PWN, Warszawa, 1989, p.
349.
23 B. Russell, Teoria della conoscenza (1913), Newton, Roma 1996, p. 120.
24 Cfr. W. Gasparski, “Teoria poznania” [Teoria della conoscenza], in Filozofia a nauka
[Filosofia e scienza], Ossolineum Wrocław et al. 1987, p. 708.
11/229
Lezioni di logica e filosofia della scienza
del filosofo (che così si identifica con l’epistemologo) è capirne la struttura
e il modus operandi, senza pretendere di prevaricarla o influenzarla nei suoi
contenuti specifici. In tale approccio era implicita (ma spesso anche
programmaticamente dichiarata) la speranza che, una volta compreso l’arcano che rende la scienza conoscitivamente efficace, fosse possibile poi
applicarlo agli altri campi dell’umana attività pratico-teorica. In tal modo il
rapporto viene capovolto: non è la gnoseologia a giudicare della scienza,
ma l’epistemologia a giudicare di ogni pretesa conoscitiva diversa da quella
incarnata nella scienza.
La ridefinizione del compito dell’epistemologia avviene, per Hans
Reichenbach, in seguito alla crisi dell’impostazione trascendentale kantiana
(da lui criticata): compito dell’epistemologia «non sarà più, come Kant
pretendeva, l’indagine critica della ragion pura, bensì l’analisi logica della
conoscenza scientifica concretamente data»;25 la critica al kantismo porta a
«introdurre il “metodo della analisi della scienza” nell’indagine
gnoseologica, anticipando la concezione della filosofia che verrà fatta
propria dai Circoli di Vienna e Berlino».26 La transizione dalla teoria della
conoscenza (o gnoseologia) al significato più tecnico di epistemologia è
chiaramente espresso all’atto di fondazione della rivista ufficiale del
Circolo di Vienna, “Erkenntnis”, quando uno dei suoi più significativi
esponenti, Rudolf Carnap, enuncia il compito e i caratteri del “nuovo
metodo scientifico di filosofare” di cui la rivista si vuole fare portatrice.
Esso infatti «potrebbe forse essere molto brevemente caratterizzato come
analisi logica degli enunciati e dei concetti della scienza empirica. Con ciò
sono indicati i due principali contrassegni che distinguono questo metodo
da quello della filosofia tradizionale. Il primo consiste nel fatto che questo
filosofare si svolge in stretta connessione colla scienza empirica, e in
genere solo con essa, in modo che non viene più riconosciuta una filosofia
come particolare settore di conoscenza, accanto o al di là della scienza
empirica. Il secondo indica in che cosa consiste il lavoro filosofico
riguardante la scienza empirica: consiste nella chiarificazione dei suoi
enunciati mediante l’analisi logica; più particolarmente: nella
scomposizione degli enunciati in parti (concetti), nella riduzione graduale
dei concetti a concetti più fondamentali, e nella riduzione graduale degli
enunciati a enunciati più fondamentali»27. Qualche anno dopo, nella
25 P. Parrini, “Empirismo logico e filosofia della scienza”, in Storia della filosofia, a cura di M.
Dal Pra, Piccin-Vallardi, Padova, vol. 10, 2ª ed., p. 434.
26 Ibidem.
27 R. Carnap, Sintassi logica del linguaggio (1934), Silva, Milano 1966, pp. 3-4. Con ciò
Carnap abbandona il vecchio progetto fondazionista che aveva ancora coltivato nella sua
Costruzione logica del mondo (1928), nella quale si proponeva il compito di fornire una
fondazione della scienza su solide basi non metafisiche, coll’adottare un punto di vista
fenomenistico, con ciò assegnando ancora alla filosofia, per quanto resa scientifica, il compito
giustificare il valore conoscitivo della scienza. Tuttavia quest’opera, benché pubblicata nel 1928,
cioè dopo lo stabilimento del suo autore a Vienna (avvenuto nel 1926) e quindi quando già
partecipava alle attività del Circolo di Vienna, era stata già finita nel 1925 ed ancora risentiva
delle discussioni e dei progetti fondazionali che negli anni 1923-1926 egli coltivava insieme al suo
12/229
Lezioni di logica e filosofia della scienza
Sintassi logica, l’epistemologia coincide tout court con la logica della
scienza.28
La fondazione della episteAll’incirca negli stessi anni Popper, dopo aver mologia come teoria della
identificato (nel volume che raccoglie quanto scienza su base trascenrimasto del manoscritto preparatorio alla Logica dentale in Popper
della scoperta scientifica) la teoria della conoscenza con l’epistemologia,
intende poi quest’ultima come teoria generale del metodo delle scienze
empiriche: «La teoria della conoscenza è scienza della scienza: sta alle
scienze empiriche speciali come queste stanno alla realtà empirica.»29
Recuperando in una sua accezione peculiare il trascendentale kantiano,
Popper sostiene che «le asserzioni e le costruzioni dei concetti propri della
teoria della conoscenza devono essere messe criticamente alla prova in base
al procedimento effettivo di fondazione in uso nelle scienze empiriche; e
soltanto questo controllo trascendentale è in grado di decidere del destino di
tali asserzioni.»30
La scienza non deve essere messa in discussione dalla filosofia, né tanto
meno da essa giustificata; è piuttosto il contrario, in quanto la conoscenza
scientifica è un faktum, come aveva per primo indicato Kant, che la teoria
della conoscenza non deve e non può mettere in dubbio, ma solo spiegare.31
Ne segue l’intento esplicitamente antifondazionista di Popper, in quanto a
suo avviso la teoria della conoscenza «non si propone di fondare nessuna
conoscenza: essa si attiene al punto di vista che ogni scienza - non importa
se si tratti di una scienza speciale o della teoria della conoscenza - deve
prendersi cura di se stessa: ogni scienza deve giustificare da sé le sue
proprie asserzioni, deve fornire da sé i fondamenti delle proprie conoscenze, indipendentemente dal fatto che si tratti di un fondamento ‘ultimo’
o di un fondamento ‘primo’; infatti soltanto attraverso la fondazione metodica delle proprie asserzioni una scienza diventa scienza.»32
Nella Logica della scoperta scientifica di qualche anno dopo tale
transizione, benché non più collegata alla ripresa dell’impostazione trascendentale, viene ribadita, per cui si afferma con nettezza che «[…] l’epistemologia, o dottrina della scoperta scientifica, dev’essere identificata con la
interlocutore principale, Hans Reichenbach. Sicché, contrariamente a quanto di solito si sostiene,
quest’opera non può essere considerata una tipica espressione del positivismo logico come
venutosi a formare a Vienna, bensì un’opera di transizione, le cui tesi più caratteristiche saranno in
seguito profondamente reinterpretate e modificate. Cf. per tale approccio all’opera di Carnap il
fondamentale volume di R. Cirera, Carnap and the Vienna Circle. Empiricism and Logical
Syntax, Rodopi, Amsterdam / Atlanta 1994, pp. 1-42.
28 Cfr. R. Carnap, “Von Erkenntnistheorie zur Wissenschaftslogik”, in Actes du Congrés
Internationale de Philosophie Scientifique, Sorbonne, Paris 1936. Vol. 4, Induction et Probabilité,
Hermann, Paris 1936, p. 430. [Trad. inglese come “Truth and Confirmation” in: Feigl & Sellars
1949: 119-27]
29 K. Popper, I due problemi fondamentali della teoria della conoscenza (1930-33), Il
Saggiatore, Milano 1987, p. 8.
30 Ib., p. 58.
31 Cfr. ib., p. 59.
32 Ib., p. 111.
13/229
Lezioni di logica e filosofia della scienza
teoria del metodo scientifico»33, in quanto solo lo studio di quest’ultimo
può gettare lumi sulla crescita della conoscenza, che ha costituito da sempre l’oggetto dell’epistemologia. Con ciò viene affermato con decisione il
carattere paradigmatico attribuito alla scienza come luogo di massima realizzazione della conoscenza e della razionalità umana e viene sanzionato il
nuovo significato di epistemologia: «Il problema centrale dell’epistemologia è sempre stato, e ancora è, il problema dell’accrescersi della conoscenza. E l’accrescersi della conoscenza può essere studiato, meglio che in qualsiasi altro modo, studiando l’accrescersi della conoscenza scientifica».34
È proprio questo il significato con cui hanno L’epistemologia intesa in
inteso la “teoria della conoscenza” – come ancora modo antifondazionista nel
veniva spesso definita – coloro che le hanno dato neopositivismo
origine, fondandola su basi logico-linguistiche, cioè sia quei filosofi, logici
e scienziati che si è soliti, con una certa semplificazione, riunire sotto la
comune denominazione di “neopositivisti” (oppure “neoempiristi” o “empiristi logici”), sia chi a tale impostazione si è con più vigore opposto (come
Popper); e ciò allo scopo di chiaramente demarcare scienza e metafisica,
razionalità logico-analitica e razionalità storico-dialettica. Dunque, un programma che consuma al suo interno i residui fondazionistici che gli
pervenivano dalla tradizione della vecchia gnoseologia (e la cui permanenza è presente in alcuni suoi antesignani, come abbiamo visto con
Russell, e rappresentanti, come Schlick, ed in alcune particolari fasi del
pensiero di altri) per porsi con sempre maggiore chiarezza su di un piano di
analisi alternativo a quello fondazionalista - diversamente da quanto hanno
sostenuto recentemente Quine, Rorty e Giere35 - che invece era stato tipico
della teoria della conoscenza intesa tradizionalmente. Come afferma
Friedman, «i positivisti logici […] hanno respinto con forza una concezione
fondazionalista della filosofia rispetto alle scienze speciali. Non v’è alcun
punto privilegiato dal quale la filosofia possa sottoporre a giudizio
epistemico le scienze speciali: si ritiene piuttosto che essa debba tenere
dietro alle scienze speciali in modo da rettificare se stessa in risposta ai
risultati da esse acquisiti.»36. Una posizione del resto ben documentata negli
scritti dei maestri del neopositivismo, per i quali era ben chiaro, come
sostiene Reichenbach in polemica con l’impostazione neocriticista, che «la
pretesa secondo cui la gnoseologia dovrebbe giustificare gli ultimi
fondamenti della conoscenza della realtà, nello sviluppo storico della teoria
33
K. Popper, Logica della scoperta scientifica (1934), Einaudi, Torino 1970, p. 32.
K. Popper, “Prefazione alla prima edizione inglese”, in Id., Logica della scoperta scientifica,
cit., p. xxii. Corsivo di Popper.
35 Vedi W.V.O. Quine, “L’epistemologia naturalizzata”, in Id., La relatività ontologica e altri
saggi, Armando, Roma 1986; R. Rorty, La filosofia e lo specchio della natura, cit.; R.N. Giere,
Spiegare la scienza (1988), Il Mulino, Bologna 1996, pp. 47-8.
36 M. Friedman, “The Re-evaluation of Logical Positivism”, in Journal of Philosophy, 88
(1991), p. 515. Invece J. Kim (op. cit., p. 469) ritiene il positivismo logico come un movimento
tipicamente fondazionalistico in quanto per esso l’osservazione serve a fondare non solo la
conoscenza ma anche ogni significato cognitivo e quindi costituisce un fondamento sia
epistemologico che semantico.
34
14/229
Lezioni di logica e filosofia della scienza
della conoscenza si è dimostrata insostenibile»37; onde l’avvertenza che
«per la teoria della conoscenza non può esservi altro procedimento che
stabilire quali siano i principi di fatto impiegati nella conoscenza».38 Sono
queste le ragioni che ci hanno portato ad indicare nell’elaborazione teorica
del Circolo di Vienna la nascita della vera e propria epistemologia nel
senso odierno, distinta dalla gnoseologia o teoria della conoscenza, ovvero
come vera e propria filosofia della scienza.
Non è quella sinora esposta una semplice questione terminologica. Non
si tratta di escogitare una nuova etichetta per un contenuto che rimane
sostanzialmente immutato, ma di definire un nuovo ambito disciplinare, un
nuovo modo di guardare al lavoro della scienza e della filosofia. Se infatti
si assimilano epistemologia e filosofia della scienza, allora bisogna
decidersi per quale delle due accezioni prima esaminate si intende optare
(se per la versione “normativa” o per quella “descrittiva”); se invece le si
distingue potrebbero ben esser conservati tali due modi diversi di intenderle
(assegnando all’epistemologia un carattere normativo ed alla filosofia della
scienza uno descrittivo), attribuendo a ciascuno di essi un suo ambito, un
suo scopo ed una sua dignità teorica. Infatti, dal modo in cui si concepisce
la filosofia della scienza e l’epistemologia (ma anche la gnoseologia e la
teoria della conoscenza) derivano anche le diverse strategie che ne
caratterizzano il lavoro teorico, le soluzioni che di conseguenza ci si può
aspettare e i diversi giudizi che si possono dare circa l’adeguatezza dei loro
risultati. Così, per riprendere il caso prima citato, un’impostazione
antifondazionalista non può che presupporre un modo particolare di
concepire l’epistemologia, assai simile a quello che abbiamo visto è stato il
modo di intendere la filosofia della scienza. Non bisogna dunque lasciarsi
sviare dalle etichette e così criticare, in quanto “fondazionalista”, chi in
effetti aspira a praticare una sobria filosofia della scienza, per il solo fatto
che questi si riferisce al proprio lavoro col termine di “epistemologia”,
inteso dal critico nella sua accezione di “teoria della conoscenza” e quindi
carico di intenzionalità fondazionistiche e normative.
Quale criterio di distinzione tra queste due Il carattere discriminante delaccezioni si potrebbe assumere la posizione nei la posizione assunta verso lo
confronti dello scetticismo: se ci si pone il scetticismo
compito di rispondere, mediante argomentazioni
di carattere filosofico, al dubbio da questo posto - e quindi ci si pone in
continuità con la sua problematica - allora abbiamo a che fare con
l’epistemologia nell’accezione criticata dagli antifondazionalisti; se
viceversa si ritiene questo dubbio assorbito e dissolto dalla pratica della
scienza, sicché questa viene a costituire il paradigma della conoscenza in
37 H. Reichenbach, “Causalità e probabilità” (1930), in Il Neoempirismo, a cura di A.
Pasquinelli UTET, Torino1969, p. 450. Ma vedi anche quanto scritto da Reichenbach in “Scopo e
metodi della moderna filosofia della natura” (1931), in Id., L’analisi filosofica della conoscenza
scientifica, Marsilio, Padova, 1968, pp. 109-115.
38 H. Reichenbach, Relatività e conoscenza a priori (1920), Laterza, Bari 1984, p. 125.
15/229
Lezioni di logica e filosofia della scienza
atto, allora ci si pone su di un piano non più fondativo, ma puramente
descrittivo.
E’ certamente vero, però, che nel continuo che
Il continuum di normatività e
va, da un massimo di descrittività (ed un minimo descrittività
di normatività) ad un massimo di normatività (e
un minimo di descrittività) si collocano molteplici opzioni teoriche e si
posizionano le elaborazioni che hanno segnato il corso dell’epistemologia
di questo secolo; ciò spiega come si siano spesso scambiate le
denominazioni e le definizioni, attribuendo di volta in volta il nome di
filosofia della scienza, epistemologia o teoria della conoscenza a
prospettive che sono o alternative o tra loro assimilabili. Sicché forse la
strategia più saggia non è quella di volere a qualunque costo definire il
significato di espressioni quali “filosofia della scienza” o “epistemologia”,
ma fare attenzione al grado di normatività (o di descrittività) in esse
presente, evidenziando nelle diverse posizioni teoriche la presenza o meno
(e in quale misura) della prospettiva fondazionalistica o il prevalere di un
atteggiamento meno impegnato dal punto di vista normativo.
4. Alle origini della filosofia della scienza
Non v’è dubbio che ad aver avuto un decisivo Il programma della “filosofia
impulso nella nascita della filosofia della scienza scientifica “ e l’esigenza di
di questo secolo è stata la duplice e convergente una collaborazione tra filoforza di impatto avuta sia dalla trasformazione sofia e scienza
della scienza, col suo ruolo sempre più pervasivo nella vita della civiltà
europea (vedi il capitolo secondo), sia dalla nascita della logica matematica
contemporanea (vedi capitolo terzo). In tale clima, all’inizio del Novecento
divenne parola d’ordine di molti filosofi, specie di formazione scientifica
od addirittura scienziati, l’esigenza di rifondare la filosofia in modo da
renderla “scientifica”. Si forma così una sempre più insistente campagna in
favore della “filosofia scientifica”, locuzione che può avere, secondo
Tatarkiewicz, tre significati diversi: «in primo luogo, che la scienza
costituisce il fondamento della filosofia, che non ha altro lavoro da fare che
trarre conclusioni generali dai suoi risultati. […] In secondo luogo che la
scienza è l’oggetto della filosofia, che non deve essere nient’altro che teoria
della scienza, indagine sulle sue assunzioni, finalità, metodi. […] In terzo
luogo, che la scienza deve essere il modello per la filosofia, che deve porre
e risolvere i suoi problemi secondo quegli stessi metodi e criteri, in base
alle stesse esigenze di precisione, delle scienze particolari»39.
In questi tre diverse accezioni è racchiuso il
nascita della filosofia
campo problematico che ispira tutti quegli scien- La
scientifica nell’impero asburziati e filosofi che si collocano sotto la bandiera gico: la “Grande Vienna”
39
W. Tatarkiewicz, Historia filozofii (1950), PWN, Warszawa 1988, vol. III, p. 263.
16/229
Lezioni di logica e filosofia della scienza
della “filosofia scientifica”. È questo un movimento che, originatosi
all’inizio del secolo, affonda tuttavia le sue radici molto più lontano, al
tempo in cui si affermò nel Seicento la scienza moderna ed è accomunato
dalla comune esigenza di rendere sempre più rigorosa ed esatta la filosofia;
di pervenire, insomma, ad una filosofia che tenesse conto dei risultati cui le
scienze sperimentali erano pervenute nel corso dell’ultimo secolo40 e in un
certo qual modo assumesse nei riguardi dei propri campi di indagine il
medesimo rigore del quale aveva sinora fatto mostra la scienza. Le sue
origini più prossime sono da rintracciare nell’impero multinazionale degli
Asburgo di fine Ottocento, nella “Grande Vienna” in cui si mescolano
diverse culture nazionali e convivono lingue e tradizioni diverse. Qui si
afferma una cultura filosofica caratterizzata dall’accentuata tendenza
analitica, in contrapposizione a quella sintetica tipica della Germania;
dall’attenzione per il linguaggio, che con Fritz Mauthner arriva alla
diagnosi della genesi linguistica dei problemi filosofici; dalla esigenza di
una nuova interpretazione della scienza e quindi di una nuova filosofia ad
essa adeguata; dall’attenzione per il rigore logico, alla ricerca di ciò che
Musil chiamò “filosofia esatta”41. Una filosofia che fu tipicamente austriaca
e che risentì più l’influenza dell’empirismo inglese e francese piuttosto che
quella dell’idealismo classico tedesco o del kantismo.42 Ricorda Karl
Menger, nel descrivere l’atmosfera filosofica di Vienna negli anni venti,
che i filosofi austriaci non hanno mai dato alcun contributo al tipo di
metafisica culminata con Fichte, Schelling ed Hegel e che i suoi più grandi
pensatori, come Bolzano e Mach, preferivano coltivare la filosofia lungo
linee scientifiche.43 Ma, occorre aggiungere, una cultura filosofica che non
investì nella sua interezza la società viennese o le strutture accademiche ed
educative, rimanendo appannaggio di un ristretto gruppo di intellettuali, di
una élite che si riconosceva in informali “circoli” culturali tra loro
interagenti. La cosiddetta avanguardia culturale viennese, che oggi si
riassume in una serie di nomi che hanno inciso profondamente in tutti i
campi della cultura europea (Arnold Schönberg, Gustav Klimt, Alfred
Loos, Karl Kraus, Robert Musil, Sigmund Freud, nonché filosofi quali
Brentano, Wittgenstein, Schlick, Frank, Hahn, Neurath), doveva scontrarsi
con un’aristocrazia ed una borghesia culturalmente conservatrice, che
vedeva con sospetto la prevalente matrice ebraica di molti di questi
40 Cfr. A. Grzegorczyk, Mała propedeutyka filozofii naukowej [Breve propedeutica alla
filosofia scientifica], Inst. Wyd. Pax, Warszawa 1989, p. 13.
41 Cfr. M. Libardi, “In Itinere: Vienna 1870-1918”, in In Itinere. European Cities and the
Birth of Modern Scientific Philosophy, ed. by R. Poli, Rodopi, Amsterdam / Atlanta 1997.
42 R. Haller, “On the Historiography of Austrian Philosophy”, in Rediscovering the Forgotten
Vienna Circle, ed. by T. Uebel, Kluwer, Dordrecht / Boston / London 1991, pp. 41-2. Otto
Neurath (Il Circolo di Vienna e l’avvenire dell’empirismo logico, 1935, Armando, Roma 1977, pp.
52-3) dà anche una spiegazione socio-politica di questo fatto, attribuendolo alla influenza della
Chiesa e della Corte, che respingevano la filosofia di Kant e l’idealismo speculativo in quanto
frutto della rivoluzione francese ed appoggiavano invece le posizioni dei seguaci di Leibniz.
43 K. Menger, Reminiscences of the Vienna Circle and the Mathematical Colloquium, Kluwer
Academic Publishers, Dordrecht / Boston / London 1994, p. 18.
17/229
Lezioni di logica e filosofia della scienza
intellettuali.44
Più esattamente la filosofia scientifica viene L’inizio della storia: Brentafatta iniziare nel 1874, anno in cui Franz Brentano no e la sua scuola
ottenne la cattedra di filosofia a Vienna, dopo aver
insegnato a Würzburg dal 1866 al 1873. Il suo insegnamento, che può
essere sintetizzato nel motto «Vera philosophiae methodus nulla alia nisi
scientia naturalis est»45, ebbe grande influenza nella vita culturale austriaca,
nella quale fu attivo personalmente sino al 1895, quando lasciò Vienna per
l’Italia (la sua cattedra di filosofia delle scienze induttive verrà occupata
successivamente da Mach, L. Boltzmann e A. Stöhr). Il suo insegnamento
si concretizzò nella formazione di un certo numero di discepoli che poi
occuparono posti di rilievo in altre università, come Meinong (a Graz),
Husserl (a Göttingen), Ehrenfels (a Praga), Höfler (a Vienna), Twardowski
(a Leopoli), Stumpf (che ereditò la cattedra di Brentano a Würzburg).
Non a caso Kevin Mulligan ha indicato una data precisa dell’inizio della
filosofia scientifica e della sua contrapposizione alla filosofia tradizionale,
di impostazione “storica”46: è il 1884, quando un discepolo di Brentano,
Franz Hillebrand, scrive una celebre stroncatura della Introduzione alle
scienze dello spirito di Dilthey, l’iniziatore dello storicismo tedesco ed
erede della filosofia classica centroeuropea, in cui se ne denuncia la
mancanza di rigore argomentativo, l’assoluta ignoranza delle più elementari
regole logiche, nonché imprecisioni ed errori, oltre alla “oscurità” di uno
stile che ha la pretesa di parlare della “vita” nella sua “totalità”. È l’inizio
di una divaricazione tra due tradizioni filosofiche, poi sintetizzate nel
binomio analitico-continentale, e che per il momento si esprime come
contrapposizione tra una filosofia che aspira ad una sempre maggiore scientificità, sul modello delle scienze naturali ed esatte, ed una filosofia
“storica”, intrisa di umori valutativi, problematica e dialettica, dall’argomentazione turgidamente carica dei sensi filtrati da una imprescindibile
situazionalità storica.
In contrapposizione a questa tendenza, Il significato di ‘filosofia
Brentano e i suoi allievi condivisero una mede- scientifica’ nella scuola brensima concezione del significato della ricerca filo- taniana e le ‘costanti’ della
sofica e del suo metodo: «tutti, almeno inizial- filosofia austriaca
mente, sottoscrissero le virtù brentaniane di una analisi strettamente
empirica (principalmente grazie alla psicologia), dell’antiidealismo,
dell’accento posto sulla chiarezza e sull’obiettività, sul filosofare poco alla
volta piuttosto che sistematico, e di tutto ciò che si riconduceva
all’ossessione per la verità e la rappresentazione».47 Dunque filosofia
scientifica significava per loro filosofia rigorosa, esatta, chiara, facente uso
44
Cfr. Libardi, op. cit., pp. 56-8.
F. Brentano, Über die Zukunft der Philosophie (1929), Felix Meiner, Hamburg 1968, p. 136.
46 P. Simons, op. cit., p. 7.
46 Cfr. K. Mulligan, “Sulla storia e l’analisi della filosofia continentale”, in Iride 8 (1992).
47 P. Simons, op. cit., p. 7.
45
18/229
Lezioni di logica e filosofia della scienza
di termini non ambigui, fondata sull’esperienza (il “nisi est in intellectus…”
di derivazione aristotelica), “minimalista” ed aliena dalle grandi sintesi,
preceduta dall’accurata descrizione dell’oggetto di indagine e facente uso
dell’analisi logica dei concetti, ripudio della metafisica.48 Quattro, nella
ricostruzione di Haller, sono i tratti che caratterizzano l’opera di Brentano e
dei suoi discepoli: 1) temperamento empirista; 2) convinzione della
necessità di praticare la filosofia con criteri scientifici; 3) attenzione per il
linguaggio ed in particolare per gli errori commessi per sua causa; 4)
antikantismo.49
Nello stesso periodo, alla fine del secolo, L’altra parte della storia:
anche in Inghilterra, per vie autonome, si instaura Cambridge e il contributo di
uno stile di pensiero ed una esigenza di riforma Moore e Russell
della filosofia che va nella medesima direzione della scuola brentaniana
austriaca. A Cambridge, Moore e Russell maturano il loro distacco e la
loro critica nei confronti dell’idealismo allora dominante con le figure di
F.H. Bradley (che aveva pubblicato nel 1893 il suo capolavoro Appearance
and Reality) e di J. McTaggart. Dopo una breve fase definita come realismo
platonico o pluralismo realistico platonico, Moore col suo classico articolo
“The Refutation of Idealism” (1903) e i Principia ethica (1903) inaugura la
cosiddetta “tradizione analitica inglese” col porre le basi per una filosofia
realistica, in accordo con le verità del senso comune e facente uso del
metodo della analisi dei concetti in contrapposizione al privilegiamento del
punto di vista della totalità tipico della tradizione idealista. Nello stesso
lasso di tempo avviene la formazione di Russell, più impregnata di interessi
logico-matematici, che ricevono un vero e proprio impulso dalla conoscenza nel 1900 dell’opera del matematico e logico italiano Giuseppe Peano.
Nascono così i suoi lavori miranti alla dimostrazione della tesi del
logicismo, per la quale la matematica può essere fondata sulla logica,
culminanti nell’opera scritta in collaborazione di Whitehead, i Principia
Mathematica (1910-13), che avrà un vero e proprio valore paradigmatico
per l’intero movimento della filosofia scientifica, in quanto indicherà lo
strumento, il metodo, mediante il quale questa avrebbe potuto raggiungere i
fini di rigore che si proponeva. Contestualmente a tale opera di riflessione
sulla logica, nasce l’idea in Russell di poter fruire dei nuovi strumenti da
48 K. Mulligan, “Exactness, Description and Variation: How Austrian Analytical Philosophy
Was Done”, in From Bolzano to Wittgenstein. The Tradition of Austrian Philosophy, ed. by J.C.
Nyiri, Verlag Hölder-Pichler-Tempsky ,Vienna 1986; B. Smith, “Austrian Origins of Logical
Positivism”, in The Vienna Circle and Lvov-Warsaw School, ed. by K. Szaniawski, Kluwer,
Dordrech 1989. Riteniamo sia più corretto fare uso della locuzione “filosofia scientifica”, piuttosto
che di quella tradizionale di “filosofia analitica”, per identificare i movimenti filosofici che, come
ha efficacemente affermato P. Frank (La scienza moderna e la sua filosofia, Il Mulino, Bologna
1973, pp. 40-1), facevano parte del «movimento centroeuropeo per una concezione scientifica del
mondo». Si vedano ad esempio i volumi Polish Scientific Philosophy, ed. by F. Coniglione, R.
Poli, J. Wolenski, Rodopi, Amsterdam / Atlanta 1993; In Itinere…, cit.; M. Marsonet,
Introduzione alla filosofia scientifica del ’900, Studium, Roma 1995.
49 Cfr. R. Haller, “Wittgenstein and Austrian Philosophy”, in Austrian Philosophy: Studies and
Texts, ed. by. J.C. Nyiri, Philosophia Verlag, München 1981, pp. 91-102.
19/229
Lezioni di logica e filosofia della scienza
questa messi a disposizione per poter scientificizzare la filosofia mediante
il metodo della analisi, che riceve una prima applicazione nel classico
articolo “On denoting” (1905). Dopo il fortunato volumetto The Problems
of Philosophy (1912), che chiude quel periodo del suo pensiero in cui
ancora sono evidenti i residui della sua fase platonica, e l’incontro col
giovane Wittgenstein nel 1912, il suo pensiero inizia una nuova stagione
caratterizzata dalla problematica concernente il rapporto tra linguaggio e
fatti e che riceve nell’atomismo logico (la cui prima espressione è
rinvenibile in Our Knowledge of the External World del 1914) la sua
formulazione più significativa ed influente per il pensiero filosofico
successivo (è del 1918 il suo classico The Philosophy of Logical Atomism).
Ovviamente i due movimenti non si sviluppano Interazioni tra le due tradinel reciproco isolamento; così come erano ben zioni di pensiero: britannica
note le opere logiche di Russell ai discepoli di ed austriaca
Brentano, analogamente Moore e Russell, grazie
anche alla mediazione di G.F. Stout, erano a conoscenza delle idee della
scuola brentaniana.50 Ciò contribuì a creare un comune background, che
concerneva in particolare la teoria degli oggetti e quella dell’intero e delle
parti, nonché il modo di concepire la natura e il significato della filosofia,
che andava sempre più scientificizzata. Tale condivisione di un comune
programma dura sino al primo conflitto mondiale, per cui possiamo ben
dire che sino a quel periodo esisteva una comune tradizione anglo-austriaca
riassumibile nel nome di filosofia scientifica.
Ma all’inizio del secolo a Vienna non v’era Ancora in Austria: la formasolo la scuola brentaniana. Infatti a partire dal zione del primo nucleo del
1907 cominciarono a riunirsi un gruppo di amici ‘Circolo di Vienna’
accomunati da un comune modo di vedere la
filosofia e la scienza. Racconta uno dei suoi protagonisti, Philipp Frank:
«Nel 1907 [...] mi ero appena laureato in fisica all’Università di Vienna,
tuttavia, i miei interessi più vivi si indirizzavano alla filosofia della scienza.
Ero solito frequentare un gruppo di studenti, che si riunivano ogni giovedì
sera in un antico caffè viennese. Vi restavamo fino a mezzanotte, e anche
più tardi, discutendo problemi di scienza e filosofia. L’orizzonte dei nostri
interessi era molto ampio, ma il problema centrale a cui ritornavamo con
insistenza era sempre lo stesso: come è possibile evitare le ambiguità e
l’oscurità tradizionali della filosofia? Come possiamo realizzare un accostamento, quanto più possibile intimo, tra filosofia e scienza? Con il termine “scienza” non intendevamo riferirci solo alle “scienze naturali”, bensì
includere sempre in esso anche le discipline sociali e umanistiche. Il
matematico Hans Hahn e l’economista Otto Neurath, oltre a me, erano i
componenti più assidui ed attivi del gruppo»51.
50 Cfr. M. van der Schaar, “From Analytic Psychology to Analytic Philosophy: The Reception
of Twardowski’s Ideas in Cambridge”, in Axiomathes, 3, (1996); L. Dappiano, “Cambridge and
the Austrian Connection”, in In Itinere…, cit.
51 P. Frank, op. cit., p. 15.
20/229
Lezioni di logica e filosofia della scienza
Questo gruppo di discussione, per la cui formazione si era adoperato il
matematico Hans Hahn, era in particolare interessato alla nuova immagine
di scienza che si andava delineando in seguito al declino del paradigma
meccanicistico ottocentesco e che faceva parlare di “crisi delle scienze”:
«Per oltre due secoli l’idea del progresso nella scienza e nella vita umana, è
stata connessa con l’avanzamento della spiegazione meccanicistica dei
fenomeni naturali. Ora la scienza per prima sembrava abbandonare questa
concezione meccanicistica, e si ebbe così la situazione paradossale che si
potesse combattere la concezione scientifica del mondo in nome del
progresso scientifico»52.
È la medesima esigenza che era stata espressa da Brentano e poi
perseguita dai suoi allievi, ma che qui nasce autonomamente come una
riflessione di studiosi non di derivazione filosofica, ma prevalentemente di
formazione scientifica, fortemente influenzati oltre che dal pensiero di
Ernst Mach, anche da quello dei convenzionalisti francesi, in particolare da
Henri Poincaré, Pierre Duhem ed Abel Rey. Con questi studiosi che si
viene a formare il primo nucleo del Circolo di Vienna, quella che potrebbe
considerare la sua prima generazione.53 Ed è all’interno di esso che emerge
l’esigenza di discutere dei problemi della scienza anche con chi fosse
maggiormente fornito di competenza filosofica, con un “filosofo autentico”
che avesse familiarità in campo epistemologico. Il progetto verrà a
realizzarsi solo dopo la guerra, quando Hahn ritornerà da Bonn nel 1921 e
chiama a Vienna il filosofo Moritz Schlick, che nelo 1929 fonderà il
Circolo di Vienna.
Ma intanto viene nel 1895 creata all’università Le conseguenze della prima
di Vienna una terza cattedra di filosofia, alla quale guerra mondiale sulla filovenne chiamato per divenirne il primo titolare il sofia scientifica viennese
fisico Ernst Mach, che si diede il titolo di “professore di storia e teoria delle scienze induttive”, poi cambiato, nel 1902, dal
suo successore Ludwig Boltzmann in “professore di fisica teorica e di
filosofia naturale”.54 Mach, inaugurò un modo di affrontare la problematica
filosofica maggiormente segnata da interessi scientifici e fortemente
caratterizzata in senso empirico-fenomenista, e che andava particolarmente
incontro alle esigenze del gruppo di amici del caffè viennese. Lo scoppio
della prima guerra mondiale e lo smembramento dell’Impero asburgico con
la creazione di nuove entità nazionali fu l’evento successivo che incise
profondamente sullo sviluppo della filosofia scientifica austriaca. Le città
nelle quali insegnavano i discepoli di Brentano diventarono parte di nazioni
diverse: Praga della repubblica cecoslovacca, Leopoli della nuova Polonia,
Gottinga della Germania. Si smarrì quel terreno comune di dibattito e
confronto che prima aveva caratterizzato la cultura della Grande Vienna.
52
Ib., p. 18.
Cfr. R. Haller, “The First Vienna Circle”, in Rediscovering the Forgotten Vienna Circle, cit.
54 A.J. Ayer, “Le Cercle de Vienne”, in Le Cercle de Vienne, doctrines et controverses, cit., pp.
59-60.
53
21/229
Lezioni di logica e filosofia della scienza
Ciò portò anche alla quasi totale eclissi della linea di pensiero brentaniana,
nonostante le molteplici influenze da essa esercitate: «L’unità di questa
tradizione filosofica è andata persa con la fine dell’unità geografica e
politica dell’Impero Austro-Ungarico e con gli eventi che ne accompagnarono il collasso. Dopo il 1918 […] molti dei suoi esponenti furono
costretti ad emigrare e pertanto la ricca rete di scambi, contatti e relazioni
fu per sempre lacerata.»55 Da quel momento, in particolare, la scuola
fondata da Twardowski ebbe una sua vita autonoma, entrando solo
sporadicamente in contatto con i membri dell’ambiente viennese, ma
conservando alcune caratteristiche peculiari della sua originaria ascendenza
brentaniana.
Caratteristiche che invece furono profonda- Schlick a Vienna nel dopomente modificate nell’ambiente viennese ad opera guerra e l’influenza di Wittdi quegli studiosi che daranno origine a quello che genstein
poi sarà il Circolo di Vienna nella sua configurazione matura successiva alla venuta a Vienna nel 1922 di Schlick. Essi, pur
condividendo il programma generale di Brentano, come prima delineato56, e
riconoscendo ad esso il merito di aver nuovamente attirato l’attenzione
sulla riflessione logica grazie alla sua conoscenza della scolastica57 (non
dimentichiamo che Brentano era un ex prete), tuttavia lo innestarono con
influenze ed esigenze che ne trasformarono i connotati, specie in direzione
del rifiuto dello psicologismo su cui esso voleva edificare la teoria della
conoscenza e le stesse scienze empiriche.
Ad incidere ulteriormente ed in modo decisivo sulla fisionomia che nel
primo dopoguerra assunse la filosofia scientifica v’è l’impatto avuto dalla
pubblicazione del Tractatus di Wittgenstein. Indipendentemente da quello
che era il significato autenticamente attribuitogli dal suo autore (che andava
più in direzione etica che a supporto delo programma di una filosofia
scientifica), esso ebbe una grandissima influenza sia nella elaborazione del
cosiddetto atomismo logico di Russell, sia nella formazione del Circolo di
Vienna, che dalla sua lettura trasse numerosi spunti e mutuò parecchie
dottrine. Non solo, ma il Circolo di Vienna nel tronco brentaniano innestò
anche influenze ad esso estranee, come quella dell’empiriocriticismo di
Mach, della riflessione sulla logica consegnata nelle opere di Russell e
Whitehead, nonché le dottrine logico-linguistiche nel frattempo elaborate
da Frege.
Possiamo a questo punto sintetizzare l’evoluzione della filosofia
55
M. Libardi, op. cit., p. 64.
Come ha notato Barry Smith (op. cit., p. 29), «Brentano, grazie al suo retroterra scolastico,
non solo era simpatetico con un metodo rigorosamente scientifico in filosofia, ma condivideva col
positivismo logico anche un certo orientamento antimetafisico e la sua opera comporta l’uso di
metodi di analisi linguistica simili, per certi aspetti, a quelli sviluppati successivamente dai filosofi
inglesi».
57 H. Hahn, O. Neurath, R. Carnap, op. cit., pp. 61-2. E’ questo il cosiddetto “Manifesto”
programmatico del Circolo di Vienna.
56
22/229
Lezioni di logica e filosofia della scienza
scientifica del Novecento nei seguenti momenti temporali:
• Anteriormente alla prima guerra mondiale:
• Formazione della filosofia scientifica con due poli autonomi ma non
isolati: Brentano e la sua scuola a Vienna; Moore e Russell a
Cambridge; sicché si può parlare di una comune tradizione “austroinglese”, con una consistente diramazione in Polonia grazie a
Twardowski, allievo di Brentano.
ß Contemporaneamente si ha la formazione del primo nucleo del
futuro Circolo di Vienna con Frank, Hahn e Neurath, costituito da
scienziati più che da filosofi.
• Tra le due guerre:
ß Creazione di autonome tradizioni nazionali nelle quali la filosofia
scientifica si specifica ulteriormente, come (a) la Scuola di LeopoliVarsavia in Polonia, più fedele all’insegnamento brentaniano e poco
o per nulla influenzata dall’empiriocriticismo di Mach e dal
Tractatus di Wittgenstein, ma sviluppante una autonoma ed assai
originale riflessione logica (con ¸ukasiewicz, Chwistek e Le_niewski
in particolare); (b) la filosofia analitica inglese caratterizzata dal
metodo dell’analisi e dall’atomismo logico, con un Russell
fortemente influenzato da Wittgenstein; (c) formazione del Circolo
di Vienna con la venuta di Schlick; (d) formazione della scuola di
Berlino con Reichenbach (Gesellschaft für empirische Philosophie,
1928); (e) le scuole scandinave di filosofia analitica e scientifica,
con A. Petzäll (a Lund), Th. Skolem (in Norvegia), J. Joergensen (in
Danimarca), E. Kaila (a Helsinki).
ß Nel merito, tale periodo si caratterizza principalmente per le
seguenti due ragioni:
(a) Avviene la svolta linguistica (sulla base dell’insegnamento di
Frege e del suo antipsicologismo e grazie al Tractatus), che incide in
particolare nella formazione del Circolo di Vienna, dove però il
linguaggio che diventa oggetto precipuo di studio è quello della
scienza. A tale svolta linguistica non partecipa Russell, che è
accomunato a Frege solo dall’interesse per la fondazione della matematica su base logica (il programma del cosiddetto “logicismo”).
(b) Si afferma l’influenza del Tractatus di Wittgenstein che, al di là
delle intenzioni del suo autore, viene inteso come parte integrante di
una visione scientifica del mondo e quindi interpretato in senso
scientista (sia dal Circolo di Vienna, come anche da Russell) e nel
quale sostanzialmente confluiscono e sono fuse sia l’esigenza posta
in essere dalla svolta linguistica, sia il metodo dell’analisi.58
58 Con ciò non si vuole arruolare Wittgenstein, nella completezza del suo pensiero, all’interno
della “filosofia scientifica”, bensì si collocano all’interno di essa quelle parti del Tractatus che,
nella unanime interpretazione dei contemporanei, sembravano portare argomenti alla sua
edificazione. E’ questo Tractatus, così letto ed interpretato dai contemporanei, che ebbe rilevanza
decisiva nella formazione di alcuni dei caratteri fondamentali della filosofia scientifica.
23/229
Lezioni di logica e filosofia della scienza
• Dopo la seconda guerra mondiale:
ß Metodo dell’analisi e svolta linguistica si congiungono ad OxfordCambridge grazie all’insegnamento del secondo Wittgenstein, ma
l’attenzione viene rivolta non al linguaggio della scienza, bensì a
quello ordinario; nasce così la filosofia analitica come tradizionalmente intesa, cioè quale analisi del linguaggio comune avente
come scopo la sua chiarificazione e lo svelamento delle trappole cui
esso può portare.
ß Dispersione degli studiosi che avevano composto il Circolo di
Vienna e di Berlino, parte in Inghilterra, parte negli Stati Uniti, che
in tal modo diffondono le loro concezioni sulla scienza e danno
luogo a quel radicarsi di un modo di intendere l’epistemologia, cioè
come filosofia della scienza, che diventa dominante sino alla fine
degli anni 60, quando poi entra in crisi (per i motivi che in seguito
esamineremo);
ß Dissoluzione dell’originario gruppo di studiosi della Scuola di
Leopoli-Varsavia (alcuni scompaiono nel lager nazisti o se ne perde
traccia durante la guerra, altri, come ¸ ukasiewicz e Tarski,
emigrano) e sopravvivenza dei superstiti (Ajdukiewicz, Kotarbiƒski,
Cze˝owski) in condizioni difficili a causa dell’ostilità del regime
comunista che nel frattempo si era instaurato in Polonia. Questi
ultimi proseguono nella coltivazione della filosofia scientifica,
perdendo in parte i caratteri originari di derivazione brentaniana per
avvicinarsi sempre più alla filosofia analitica ed all’epistemologia
occidentale.
È nel quadro complessivo della formazione e dello sviluppo della
filosofia scientifica che la filosofia della scienza si afferma come disciplina
autonoma, dotata di un proprio compito specifico, pur non perdendo mai i
contatti col più ampio contesto prima delineato. La filosofia della scienza,
infatti, finisce per privilegiare uno dei tre significati da Tatarkiewicz
attribuiti alla filosofia scientifica, ed esattamente quello che fa della
scienza l’oggetto della filosofia; si propone, quindi, consapevolmente come
teoria della scienza, senza dimenticare, però, mai del tutto l’ambizione
rettificatrice nei confronti della filosofia, nel senso di assumere spesso un
tono normativo volto ad ammaestrare la filosofia sulla vera conoscenza e
sul giusto metodo con cui pervenire ad autentiche conoscenze (vedi il §
precedente).
Ma di quale scienza voleva essere teoria la filosofia della scienza?
24/229
Capitolo secondo
LE TRASFORMAZIONI DELLA SCIENZA
TRA OTTOCENTO E NOVECENTO
1. Il mondo secondo Laplace
La sistemazione della fisica classica, operata La sistemazione del newtoda Newton e legittimata filosoficamente da Kant, nianismo con Laplace
aveva ricevuto una sua formulazione esemplare
con l’opera dello scienziato francese Pierre-Simone de Laplace (17491827). Formatosi nello spirito dell’illuminismo, Laplace coltivò sempre
l’idea di scienza come conoscenza per eccellenza, contrapposta alla
filosofia tradizionale e caratterizzata per l’applicazione sistematica del
“metodo induttivo”, proposto da Bacone e quindi magistralmente applicato
da Newton, il solo in grado di assicurare un progresso continuo e sicuro
verso una sempre più approfondita conoscenza del mondo. La sua opera
scientifica consiste in sostanza nella elaborazione, perfezionamento ed
estensione della scienza newtoniana, cercandone di risolvere le difficoltà
applicative nei vari campi dell’esperienza, specie in astronomia, nella
convinzione che il futuro della scienza non dovesse conoscere fratture
rivoluzionarie che la potessero mettere in discussione, ma solo un suo
perfezionamento matematico e statistico ed un accumulo quantitativo di
sempre nuove conoscenze59. In questo spirito egli edifica un “sistema del
mondo” in cui cerca di coniugare una visione meccanicistica e
deterministica del reale con la consapevolezza dei limiti della conoscenza
umana, per ovviare ai quali sviluppò e giustificò teoricamente il calcolo
delle probabilità.
La visione del reale di Laplace è plasticamente La metafora della intelligenresa da una sua celebre metafora: «Dobbiamo za divina, infinita ed onnidunque considerare lo stato presente dell’universo sciente
come l’effetto del suo stato anteriore e come la causa del suo stato futuro.
Un’Intelligenza che, per un dato istante, conoscesse tutte le forze da cui è
animata la natura e la collocazione rispettiva degli esseri che la
compongono, se per di più fosse abbastanza profonda per sottomettere
59
Cfr. F. Barone, “L’epistemologia di Pierre Simone de Laplace” (1978), in Id., Immagini
filosofiche della scienza, Laterza, Roma-Bari 1983, pp. 115-137.
25/229
Lezioni di logica e filosofia della scienza
questi dati all’analisi, abbraccerebbe nella stessa formula i movimenti dei
più grandi corpi dell’universo e dell’atomo più leggero: nulla sarebbe
incerto per essa e l’avvenire, come il passato, sarebbe presente ai suoi
occhi. Lo spirito umano offre, nella perfezione che ha saputo dare
all’astronomia, un pallido esempio di quest’Intelligenza. Le sue scoperte in
meccanica e in geometria, unite a quella della gravitazione universale,
l’hanno messo in grado di abbracciare nelle stesse espressioni analitiche gli
stati passati e quelli futuri del sistema del mondo»60.
In questo brano di Laplace v’è innanzi tutto I caratteri della concezione di
l’idea illuministica di una sostanziale unitarietà Laplace: unitarietà e seme semplicità dell’universo, composto di parti plicità dell’universo, meccanistrettamente interconnesse e suscettibili di una cismo, riduzionismo e deterspiegazione e comprensione complessiva da minismo
parte della scienza, essa stessa unitaria e semplice nelle sue premesse, le
quali devono essere quanto più generali possibili. Tale unitarietà si esprime
nelle leggi che ne governano il divenire e che hanno natura essenzialmente
meccanica, cioè si basano sulla applicabilità illimitata della dinamica
settecentesca e sulla possibilità di risolvere con equazioni differenziali ogni
problema di calcolo. Alla base della dinamica v’è la «tendenza a
considerare ogni sistema reale come l’aggregato di componenti elementari
e l’evoluzione del sistema come il risultato dell’interazione di queste unità
elementari»61; ne derivava la predilezione per un approccio atomista alla
natura, ogni fenomeno della quale veniva ridotto alla azione di forze agenti
tra particelle materiali. In ciò si sintetizza il cosiddetto “meccanicismo ottocentesco”, consistente nella credenza «che fosse effettivamente possibile
descrivere tutti i fenomeni in base a forze semplici, agenti fra particelle
inalterabili […] Gl’incontestabili successi della meccanica suggeriscono
che l’interpretazione meccanicistica può coerentemente estendersi ad ogni
ramo della fisica e che tutti i fenomeni possono spiegarsi con le azioni di
forze, consistenti in attrazioni o ripulsioni, dipendenti unicamente dalla
distanza ed agenti su particelle immutabili»62. Questa impostazione
meccanicistica esprime, dal punto di vista epistemologico, una concezione
della scienza riduzionistica, «ossia una prospettiva secondo la quale esiste
una scienza fondamentale (in questo caso la meccanica) i cui concetti
devono consentire di ottenere, con opportuni processi definitori, i concetti
base delle altre scienze e i cui princìpi o leggi devono consentire di
ottenere, grazie ad opportune dimostrazioni, i princìpi base delle altre
scienze»63; al punto da proporre di riportare ai principi della meccanica
anche le manifestazioni della vita intellettuale e spirituale. Infine, è chiaro
che si esprime anche una posizione determinista, che in seguito avrà un suo
60 P.S. Laplace, Saggio filosofico sulle probabilità, cit. in L. Geymonat, Storia del pensiero
filsoofico e scientifico, vol. IV, L’Ottocento, Garzanti, Milano 1971, p. 90.
61 G. Israel, La visione matematica della realtà, Laterza, Roma 1996, p. 65.
62 A. Einstein – L. Infeld, L’evoluzione della fisica. Dai concetti iniziali alla relatività e ai
quanti, Boringhieri, Torino 1965, pp. 66, 75.
63 E. Agazzi, “Filosofia della scienza”, in Questioni di storiografia filosofica, a cura di A.
Bausola, La Scuola, Brescia 1977, vol. 6, tomo III, p. 475.
26/229
Lezioni di logica e filosofia della scienza
potente supporto matematico dalla scoperta del teorema di esistenza ed
unicità delle equazioni differenziali effettuata da Cauchy nel 1837. Nella
formulazione di Laplace il determinismo consiste nella tesi che la
conoscenza esatta - con precisione infinita - dello stato iniziale di un certo
sistema fisico è sufficiente per prevedere con certezza il suo futuro, e che
quindi ogni sua componente elementare fosse soggetta ad una causa che ne
determina in maniera univoca l’evoluzione; ne segue che lo stato futuro di
un sistema è completamente determinato dal suo stato presente. Detto in
altri termini, «l’evoluzione nel tempo di un sistema meccanico è
completamente e univocamente determinata dallo stato meccanico iniziale
in cui esso si trova (ovvero dalle sue posizioni e velocità iniziali)»64. Alla
base dell’impostazione riduzionistica stava la convinzione che il mondo microscopico fosse più semplice di quello macroscopico: per comprendere
quest’ultimo è sufficiente scomporre i sistemi complessi in modo da trovare
le loro componenti semplici, governate dalle tradizionali leggi della meccanica. Fatto ciò, si pensava fosse possibile formulare una espressione
matematica (detta lagrangiana), grazie alla quale ricavare (mediante
l’operazione di integrazione) le equazioni dinamiche che descrivono il
divenire del sistema. Trovata la lagrangiana, si sosteneva, tutto era
spiegato. «Nella concezione di Laplace il mondo non è che un enorme
sistema meccanico. Ogni fenomeno che accade nel mondo può essere
espresso o descritto mediante assegnate funzioni delle coordinate
lagrangiane e dei loro momenti coniugati, relativi e tutti i momenti di
libertà del mondo stesso; quindi, una volta assegnato lo stato del mondo in
un istante qualunque, tutti gli accadimenti naturali restano perfettamente
determinati. Non vi è nulla di contingente o storico nel mondo di Laplace,
se non lo stato dell’universo in un qualunque istante prefissato. Questa è
l’espressione esatta del determinismo meccanicistico»65.
Ma l’ipotesi dell’Intelligenza infinita mette in Il calcolo della probabilità
luce chiaramente anche il fatto che tale ideale – la come rimedio alla limitatezperfetta conoscenza dello stato iniziale da cui za della conoscenza umana
evolve il sistema, in questo caso l’universo – non
è per nulla realistico: l’uomo, lo scienziato, non potrà mai ottenere questa
infinita precisione delle misure, concernenti le posizioni iniziali in cui si
trovano tutte le componenti dell’universo e la distribuzione delle forze su di
esse agenti, in modo da poter prevedere con altrettanta esattezza ogni
evoluzione futura a partire da un momento arbitrario. In effetti conosciamo
solo in modo inesatto lo stato di un sistema; e, non essendo in grado di
conoscere tutte le forze agenti su ogni singola particella, possiamo farci
solo un’idea approssimata di esso. Pur essendo fiducioso nella illimitata
possibilità di estendere la nostra conoscenza, in modo da avvicinare
progressivamente il mondo fisico – descritto dalle nostre teorie – al mondo
obiettivo, ovvero la realtà fatta di atomi e forze, tuttavia Laplace sapeva
64
G. Israel, op. cit., p. 118.
B. Ferretti, “Fisica”, in Enciclopedia del Novecento, vol. II, Istituto della Enciclopedia
Italiana, Roma 1977, p. 1033.
65
27/229
Lezioni di logica e filosofia della scienza
bene che il perfetto adeguamento tra i due non può che essere solo il limite
a cui il sapere razionale costantemente punta e che viene da esso sempre
più approssimato. L’avvicinarsi al vero è un processo infinito e l’uomo
resterà sempre infinitamente lontano dalla conoscenza completa, pur
allontanandosi sempre più dall’ignoranza e dalla barbarie. Questo scarto
sempre esistente tra la nostra conoscenza e la verità, tra il mondo fisico e
quello oggettivo, giustifica per Laplace l’introduzione del calcolo delle
probabilità.66
Consideriamo una nostra puntata al tavolo della roulette: non siamo in
grado di calcolare dove la pallina andrà a finire, in quanto per far ciò
dovremmo conoscere con infinita precisione tutte le particolarità del tavolo,
le sue asperità, le sue imperfezioni, la sua inclinazione, la forza esatta con
cui la pallina è stata gettata, eventuali influssi derivanti da venti, attriti e
così via. Conoscendo tutto ciò, quasi fossimo una intelligenza infinita,
certamente saremmo in grado di calcolare con esattezza la posizione finale
della pallina. Ma non siamo in grado avere una tale conoscenza. Ecco allora
che viene in nostro soccorso della nostra ignoranza il calcolo della
probabilità, permettendoci di prevedere che, ad es., il rosso ha una certa
probabilità di uscire; esso ci informa che sulla base delle precedenti uscite,
dobbiamo aspettarci certi risultati piuttosto che altri; e così via. In breve
esso ci mette in grado di effettuare delle scelte razionali in situazioni di
incertezza, che permettono di porre, per così dire, una pezza alla nostra
ignoranza, in modo da poter massimizzare le nostre vincite e minimizzare
le perdite.
Lo stesso ragionamento si applica, per Laplace, alla conoscenza della
natura: l’impossibilità di conoscere con esattezza lo stato di un sistema
fisico in un certo momento non ci consegna irrimediabilmente all’ignoranza, in quanto grazie alla teoria della probabilità possimo gettare un ponte
tra essa e la natura, in modo da procedere ad un calcolo approssimato e
probabilistico del suo divenire. Il determinismo meccanicistico non viene
per ciò inficiato (esso rimane perfettamente valido come presupposto ad
ogni possibile conoscenza della natura) ma solo completato mediante l’ipotesi della limitatezza della nostra conoscenza: negata all’uomo la possibilità
della onniscienza (propria solo a Dio), resta nondimeno uno spazio enorme
e fruttuoso tra essa e l’ignoranza, uno spazio che Laplace ritiene possa
essere occupato dalla teoria delle probabilità. La scienza diventa così
probabilistica senza perdere il suo carattere meccanicistico e riduzionistico
e l’uso del calcolo delle probabilità diventa d’ora innanzi uno strumento
indispensabile in fisica: determinismo e probabilismo non si escludono ma
si completano a vicenda. La probabilità viene dunque intesa come rimedio
per la nostra ignoranza e limitatezza e quindi si riferisce ad un limite
epistemico; non è pertanto considerata come una proprietà della natura,
66
Cfr. E. Bellone, I modelli e la concezione del mondo nella fisica moderna da Laplace a
Bohr, Feltrinelli, Milano 1973, pp. 33-5. Id., “L’esposizione del sistema del mondo”, in Storia
della scienza moderna e contemporanea, diretta da Paolo Rossi, vol. II, 1, Dall’età romantica alla
società industriale, TEA, Milano 2000, pp. 166-7.
28/229
Lezioni di logica e filosofia della scienza
come se questa fosse intrinsecamente probabilistica; tutt’affatto, in quanto
la realtà viene sempre concepita come perfettamente determinata in ogni
suo momento e retta da leggi causali che non lasciano alcuno spazio alla
indeterminazione ed al caso.
2. Il calore e la termodinamica.
Il modello teorico proposto da Laplace «ha esercitato e esercita tuttora
un enorme fascino su molte menti. Per molti rimane un ideale della
descrizione scientifica della natura»67. Esso segnò tutto l’Ottocento ed ebbe
un immenso successo grazie alle sue applicazioni in molteplici campi, nei
quali sembrava poter effettivamente costituire una chiave per la conoscenza
della natura. Ma dei sinistri scricchiolii cominciano a sentirsi in alcuni
settori della ricerca scientifica, che evidenziano fenomeni ed aspetti della
natura che non sembrano essere del tutto congruenti con l’immagine
consegnata dal meccanicismo laplaciano e che non si lasciano facilmente
spiegare mediante le leggi della dinamica newtoniana. Ciò accade in
particolare in due campi – quello dei fenomeni termici e quello dei
fenomeni elettrici e magnetici – per i quali si mostra particolarmente irta di
difficoltà una loro immediata riconduzione al modello meccanicisticio
laplaciano.
Cominciamo dal primo campo, quello dei
nascita della termodinafenomeni termici, nel quale era stato già proposto La
mica con Fourier mette in
l’esempio di un modo non laplaciano di intendere crisi l’idea laplaciana di
la scienza dal fisico francese Joseph Fourier scienza unitaria
(1768-1830). Questi aveva, infatti, dimostrato
all’inizio dell’Ottocento come fosse possibile edificare una scienza dei
fenomeni termici prescindendo da una visione meccanicistica della realtà e
quindi dall’ipotesi di sue componenti ultime: egli partiva da grandezze
macroscopiche e quindi da fatti ‘generali’ che permettevano la previsione e
la formulazione di teoremi ed equazioni sulla propagazione del calore che
avevano altrettanta validità e rigore matematico di quelli tipici della
meccanica. Veniva a cadere nella sua impostazione l’idea che fosse
necessario trarre le equazioni che regolamentano il comportamento del
calore da ipotesi di fisica molecolare e quindi cadeva la necessità –
sottolineata da Laplace – di inserire le leggi fenomeniche della
termodinamica in un quadro unitario coerente che abbracciasse tutta la
realtà. La teoria del calore di Fourier metteva in crisi la fisica laplaciana in
quanto, spezzandone l’unità, «si veniva a porre come capitolo indipendente
dal resto della fisica e, in particolare, dalla meccanica (su questo punto
Fourier fu esplicito), che forniva i principali strumenti necessari alla
trattazione dei modelli molecolari»68. In tal modo la termodinamica si
poteva costituire come scienza autonoma, indipendentemente dalla
67
68
B. Ferretti, op. cit., p. 1033.
R. Maiocchi, op. cit., p. 383.
29/229
Lezioni di logica e filosofia della scienza
meccanica e senza condividerne le ipotesi di fondo: l’unitarietà della
scienza e della natura sembrava così messa in grave difficoltà. «La rottura
dell’unità della fisica, assicurata dal modello meccanico, il venir meno
della speranza di possedere uno schema di natura sufficientemente potente
ed elastico da essere applicato all’insieme dei fenomeni inorganici, in ciò
consistette la crisi della fisica laplaciana. Nel corso del secolo, sotto gli
attacchi che provenivano dalle prospettive più disparate […] il modello
della fisica molecolare si rivelò inesorabilmente inadeguato al compito che
Laplace gli aveva assegnato, quello di riunificare la fisica. Esso rimarrà
perfettamente adeguato alla trattazione di alcuni settori limitati
dell’esperienza, come l’elasticità dei solidi o la capillarità, ma si
manifesterà troppo povero per raggiungere l’ambizioso obiettivo di fungere
da elemento unificatore di tutta l’esperienza. Gran parte della storia della
scienza ottocentesca è storia del riconoscimento dei limiti sempre nuovi,
sempre più numerosi alla applicabilità del modello di Laplace al mondo
empirico»69.
Ma ulteriori difficoltà per la visione meccani- I fenomeni termici e la freccia
cistica del mondo nascono anche dai concetti che del tempo
via via vengono elaborati nel campo dello studio
dei fenomeni termici. In effetti, i fenomeni connessi alla propagazione del
calore manifestavano un comportamento che contraddiceva alcuni dei
principi basilari della dinamica classica. Costituisce una evidenza empirica
il fatto che il calore si trasmette secondo una direzione: esso va sempre dal
corpo più caldo a quello più freddo, e mai avviene il contrario (che cioè un
corpo più freddo si raffreddi ulteriormente per rendere più caldo un corpo
col quale è in contatto, avente una temperatura iniziale più elevata). Questo
comportamento metteva in luce la circostanza che certi fenomeni naturali
seguono spontaneamente una direzione temporale; si evolvono cioè solo in
una direzione, diversamente dai fenomeni descritti dalla meccanica, che
invece sono indifferenti rispetto al tempo e possono svolgersi in un senso o
in un altro. In meccanica, cioè, tutti i fenomeni sono governati da equazioni
nelle quali si può invertire la variabile che indica il tempo senza che il
fenomeno diventi per ciò impossibile: un pianeta può ruotare intorno al sole
in un verso o nell’altro senza che ciò contraddica alcuna legge della
meccanica70.Ciò invece non accade appunto nei fenomeni termici: il calore
non può scorrere indifferentemente in una direzione o nell’altra; esso
sembra avere un decorso privilegiato. Al mondo senza tempo (o ad esso
indifferente) della meccanica sembra contrapporsi un mondo che segue la
cosiddetta freccia del tempo. Come conciliare, dunque, il mondo descritto
69
Ibidem.
«Per avere un’idea di questa simmetria del tempo, potremmo servirci, ad esempio, della
ripresa cinematografica dei moti planetari eseguita dalla sonda spaziale Voyager 2, lanciata nel
1977 per esplorare il sistema solare esterno. I moti dei pianeti furono i primi movimenti che
Newton ridusse ad una legge matematica. Ebbene, il film sarebbe perfettamente coerente con
queste leggi della meccanica celeste sia se fosse proiettato in avanti, sia se fosse proiettato
all’indietro. Questa credenza in un mondo deterministico, nel quale il tempo non ha direzione e il
passato e il futuro sono predeterminati, ha svolto un ruolo di grande importanza nello sviluppo
della fisica» (P. Coveney, R. Highfield, La freccia del tempo, Rizzoli, Milano 1991, p. 25).
70
30/229
Lezioni di logica e filosofia della scienza
dalla meccanica con i fenomeni di diffusione termica? Ovvero – guardando
la cosa dal punto di vista di un laplaciano – come spiegare i fenomeni
termici nel quadro della scienza meccanicistica? Come ristabilire
l’unitarietà della natura e della scienza?
Il solco tra i fenomeni descritti dalla Il secondo principio della
termodinamica e la visione meccanicistica sembrò termodinamica e l’entropia
ulteriormente approfondirsi quando venne
scoperto – ad opera di Rudolf Clausius (1822-88) nel 1854, che aveva
profittato delle riflessioni di Sadi Carnot sulle macchine termiche del 1824
– il cosiddetto secondo principio della termodinamica, che introdusse il
concetto di entropia, reso poi celebre dalla formulazione fornitane da
William Thomson (Lord Kelvin) (1824-1907) nel 1852.
Il secondo principio della termodinamica
Esso viene solitamente presentato in due formulazioni71. Nella formulazione di
Kelvin afferma: «È impossibile una trasformazione il cui unico risultato finale sia di
trasformare in lavoro del calore preso da una sorgente che si trova alla stessa
temperatura». Cioè esso fissa la determinazione del trasferimento del calore col
negare la possibilità che l’energia possa fluire da un corpo freddo ad uno caldo, a
meno che non si fornisca lavoro dell’esterno. In quella di Clausius, equivalente a
quella di Kelvin, afferma: «È impossibile che una macchina ciclica produca come
unico risultato un trasferimento continuo di calore da un corpo a un altro che si
trova a temperatura più elevata». Ciò significa che non è possibile trasferire calore
da un corpo freddo ad uno caldo se non si fornisce del lavoro tratto da un sistema
esterno; ovvero, come avevamo detto nel testo, il calore non passa mai
spontaneamente da un corpo più freddo ad uno più caldo. Così ad es., non è
possibile costruire un frigorifero che trasferisca il calore dal suo interno all’esterno
senza che ad esso sia fornita energia esterna; ed in effetti, nei nostri frigoriferi
domestici questa energia è quella elettrica che permette di far funzionare la pompa
di calore. L’equivalenza delle due formulazioni deriva dalla dimostrazione che se una
di essa fosse falsa, allora anche l’altra lo sarebbe, sicché insieme esprimono
un’unica legge, legata al concetto di irreversibilità, esprimibile in forma matematica.
Tuttavia lo stesso Clausius dimostrò che il secondo principio è legato ad una
variabile termodinamica, che lui chiamò appunto entropia, per cui esso si può anche
esprimere quantitativamente nei termini di questa. In tal modo il secondo principio
può essere fornito in forma più semplice e generale utilizzando il concetto di
entropia; si può affermare allora che in un sistema chiuso nel quale avvengono solo
trasformazioni reversibili l’entropia è costante, mentre se in esso avvengono
trasformazioni irreversibili, l’entropia aumenta. In sintesi, in un sistema chiuso
l’entropia non può diminuire. Questo enunciato (detto legge dell’entropia e che
costituisce un modo ulteriore di enunciare il secondo principio della termodinamica), afferma in sostanza che dati due stati qualsiasi di un sistema chiuso, lo
stato che presenta una maggiore entropia è sicuramente futuro rispetto a quello che
presenta una minore entropia; viene così introdotta nei processi fisici la cosiddetta
freccia del tempo: è l’aumento dell’entropia ad indicare il verso in cui scorre il
tempo e quindi ad essere l’indicatore dell’evoluzione di un sistema. Ciò ad ulteriore
chiarimento di quanto detto nel testo.
Questa nuova grandezza fisica stava ad indicare il processo necessario
di decadimento dell’energia derivante dal fatto che, in un sistema chiuso, i
corpi prima o poi finiscono per assumere la medesima temperatura,
qualunque sia la loro differenza iniziale. Si dice che in questo caso
71
Ne diamo di entrambe la versione contenuta in R. Resnick, D. Halliday, Fisica, Casa
Editrice Ambrosiana, Milano 1979, p. 581.
31/229
Lezioni di logica e filosofia della scienza
l’entropia del sistema è pervenuta al suo massimo. Pertanto si afferma che
in un sistema chiuso – senza scambi di energia con l’esterno – l’entropia
tende inesorabilmente ad aumentare e non può accadere il contrario: è
pertanto questo un processo irreversibile, che contrasta con il divenire della
meccanica, che viene descritto sempre come reversibile. Essendo la
differenza tra temperature essenziale affinché si possa produrre lavoro,
come aveva dimostrato Sadi Carnot, ne derivava che un sistema in cui
l’entropia giunge al suo massimo (cioè tutte le sue parti hanno la stessa
temperatura) non è in grado di generare alcun lavoro; diremo che esso è
inerte. Insomma l’universo (considerato come un sistema termodinamico
chiuso) tenderebbe ad evolvere nel senso di un progressivo aumento
dell’entropia, la quale pertanto ne definisce la direzione. Il tempo non è
altro che un’espressione del processo entropico. Diversamente dalla
meccanica, per la quale il tempo era indifferente, nei processi
termodinamici esso è un elemento essenziale, che scorre nel senso
dell’aumento progressivo ed inesorabile dell’entropia. Come era possibile
conciliare la meccanica con questi aspetti della natura messi in evidenza
dalla termodinamica?
Reversibile ed irreversibile
Per dare un’idea intuitiva della differenza tra processi reversibili ed irreversibili,
immaginiamo di filmare un fenomeno meccanico molto semplice: due palle di
biliardo si avvicinano, si urtano e quindi si allontanano l’una dall’altra. Ebbene il
filmato così ottenuto può essere proiettato sia nel verso giusto sia al contrario e
otterremo sempre la raffigurazione di un fenomeno meccanico perfettamente
possibile, al punto che una persona che non abbia visto il fenomeno originale non
sarebbe in grado di dire quale tra i due filmati è quello corretto. Ciò significa che la
direzione del processo può essere invertita senza contraddice nessuna delle leggi
della dinamica newtoniana; esso è pertanto reversibile dal punto di vista meccanico.
Lo stesso non accadrebbe invece se filmassimo l’avanzare di una locomotaiva a
vapore (che è una macchina termica che trasforma calore in lavoro): proiettando il
filmato al contrario vedremmo il fumo rientrare nel fumaiolo e tutti ci
accorgeremmo che in questo caso non è indifferente il verso in cui avviene il
fenomeno fisico. In questo caso esso è irreversibile. Gran parte dei fenomeni che
avvengono in natura sono di questo tipo: lo zucchero che si scioglie nell’acqua, il
calore che si diffonde da una stufa in una stanza, il legno che brucia nel camino ecc.
Le conseguenze che scaturiscono da questa La morte termica dell’univerprospettiva sono gravide di implicazioni filosofi- so e le sue implicazioni filoche, che colpiscono i contemporanei e che accen- sofiche
dono una vivace discussione. Infatti, se si assume
che l’universo sia un sistema chiuso e finito, prima o poi tutte le sue parti
avranno la medesima temperatura e quindi in esso non sarà possibile più
alcun tipo di lavoro: esso andrà incontro alla morte termica. Questa la
conclusione cui giunse Thomson nel 1852, cui fece successivamente eco
Hermann Helmhotz nel 1854, che così sintetizza la questione: «Se
l’universo è lasciato in balìa del decorso dei suoi processi fisici senza
l’intervento di azioni esterne, alla fine tutto il contenuto di forza dovrà
trapassare in calore, e tutto il calore distribuirsi in un equilibrio termico.
Allora è esaurita ogni possibilità di un’ulteriore trasformazione; allora
debbono completamente cessare tutti i processi naturali di qualsiasi tipo.
32/229
Lezioni di logica e filosofia della scienza
Anche la vita delle piante, degli animali e degli uomini non può
ulteriormente sussistere, ove il Sole abbia perduto la sua elevata temperatura e, con essa, la sua luce, e quando tutte le parti costitutive della
superficie terrestre abbiano contratto i legami chimici, che comportano le
loro forze di affinità. In breve, da questo momento in poi l’universo sarà
condannato alla quiete eterna»72. Questa prospettiva di una vera e propria
fine del mondo contrasta con la tesi, sostenuta da materialisti e
meccanicisti, di un universo infinito ed eterno, che si basava sull’idea della
conservazione dell’energia formulata dal primo principio della
termodinamica, proposto nella sua forma più completa e generale dallo
stesso Helmholtz (e che in breve afferma che in nessun caso l’energia viene
creata o distrutta, ma viene piuttosto continuamente scambiata fra i vari
sistemi fisici sotto forma di calore o lavoro). Ma ora l’ammissione della
morte termica dell’universo dava fiato a tutti coloro che volevano combattere il materialismo ed il positivismo col negare l’autonomia e l’eternità
della natura e miravano quindi ad introdurre, con l’idea di un inizio e di una
fine del mondo, la necessità di ammettere un intervento esterno in grado di
spiegarne la nascita e di scongiurarne l’altrimenti inevitabile fine:
l’ammissione dell’esistenza di un provvido Dio sembrava ormai una
esigenza che scaturiva dal seno stesso della scienza. Ovviamente non tutti i
filosofi e gli scienziati accettavano una tale prospettiva; essa, ribattevano, si
basa sul postulato che l’universo sia un sistema chiuso e finito, in quanto
solo in questi sistemi termodinamici l’entropia tende inevitabilmente ad
aumentare sino a raggiungere l’equilibrio termico. Far derivare dal secondo
principio della termodinamica la necessità di ammettere la fine del mondo,
e quindi un universo finito e non eterno, significa commettere una vera e
propria petitio principii, cioè assumere che l’universo sia un sistema chiuso
e finito, presupponendo così la tesi che si vuole dimostrare. Così ad
esempio il filosofo Herbert Spencer, rigettava l’ipotesi della morte termica
sostenendo l’idea che il nostro universo fosse parte di un universo più
ampio ed infinito in grado di intervenire dall’esterno e quindi di impedirne
il degrado entropico.
Il primo principio della termodinamica
Il primo principio della termodinamica esprime nella sua forma più generale la legge
di conservazione dell’energia mediante una formula che lega l’energia interna U di
un sistema (cioè l’energia, per così dire, ‘immagazzinata’ da esso, ad es. sotto
forma di calore, che corrisponde alla somma delle energie cinetiche e delle energie
potenziali di tutte le sue molecole) alla quantità di calore Q assorbita dal sistema
(positiva se il sistema riceve calore, negativa se lo cede) ed al lavoro L che da esso
vien fatto, per cui è ∆U = Q – L (indicando con ∆U la variazione dell’energia
interna). Questa formula dice che la variazione dell’energia interna di un sistema
termodinamico qualsiasi quando subisce una trasformazione è eguale alla differenza
tra il calore assorbito ed il lavoro fatto. In sostanza essa esprime l’idea di un
bilancio tra le diverse forme di energia (energia termica Q, lavoro meccanico L e
variazione dell’energia interna ∆U), analogamente a come le variazioni di una certa
72 H. Helmhotz, “Sull’azione reciproca delle forze naturali e sulle più recenti determinazioni
della fisica che ad essa si riferiscono” (1854), in Id., Opere, a cura di V. Cappelletti, UTET,
Torino 1967, p. 231.
33/229
Lezioni di logica e filosofia della scienza
quantità di denaro depositata in banca (∆U) dipende dalla differenza tra tutti i
versamenti (Q) e tutti i prelievi effettuati (L). Ciò equivale a dire che ogni scambio
di calore e di lavoro tra un certo sistema e l’ambiente che lo circonda deve essere
accompagnatoda un mutamento dello stato fisico del sistema stesso, ossia della sua
temperatura, del suo stato di aggregazione (solido, liquido ecc.), della sua
composizione chimica ecc., ma in nessun caso l’energia viene creata o distrutta;
essa viene invece scambiata continuamente fra i vari sistemi sotto forma di calore e
di lavoro. Esistono pertanto diverse forme di energia, che esprimono i vari modi in
cui un sistema può mutare il suo stato fisico scambiando calore e lavoro: oltre
l’energia termica e quella chimica, anche quella nucleare.
Ma, al di là delle implicazioni filosofiche tratte a ragione o meno dal
degrado entropico, è importante rilevare che emerge in ogni caso una
discrepanza, in seno stesso alla termodinamica, tra il primo e il secondo
principio. Il primo principio, infatti, sostiene la conservazione dell’energia
e quindi la persistente capacità di lavoro (essendo appunto l’energia
definita come capacità di compiere lavoro); il secondo, invece, afferma il
necessario degrado dell’energia e quindi l’impossibiltà di compiere lavoro
una volta raggiunto l’equilibrio termico. Il primo è del tutto in linea con
una visione meccanicistica della natura; il secondo, invece, introducendo la
freccia del tempo e l’irreversibilità, è in palese contrasto con la reversibilità
propria della dinamica classica. Come era possibile conciliare tali due
principi?
Una risposta venne dalla teoria cinetica dei
gas, che sembrava costituire una rivincita della Il problema di una interprecinetica del calore e
concezione atomista e meccanicistica. Già da tazione
del comportamento dei gas
tempo, infatti, v’erano stati dei fisici che avevano
cercato di sostenere la natura meccanica del calore, rifiutando la concezione
del calorico, inteso come un fluido indistruttibile che viene trasmesso da un
corpo all’altro, analogamente a come avviene per i fluidi, che sembrava
spiegare abbastanza bene i fenomeni termici allora conosciuti. Questa
teoria – a suo tempo proposta tra gli altri da A. L. Lavoisier (1743-1794) e
C.L. Berthollet (1755-1794) – aveva subito dei duri colpi in seguito alle
scoperte effettuate nei primi anni quaranta da J.R. Mayer (1814-1878) e J.P.
Joule (1814-1878), nei cui lavori si era dimostrato che il calore è prodotto
da una certa quantità di lavoro meccanico, arrivando Joule a stabilire nel
1843, con un ingegnoso esperimento, l’esistenza di una proporzionalità
diretta tra quantità di calore prodotto e lavoro eseguito. Si affermava
pertanto l’idea che il calore non è un fluido indistruttibile ma una
particolare forma di energia che può essere trasformata in energia elettrica
o meccanica (con ciò introducendo l’idea di quel principio della
conservazione dell’energia, o primo principio della termodinamica, che,
come abbiamo visto prima, venne pienamente formulato da Helmholtz).
Tuttavia lo sviluppo delle termodinamica, mettendo da parte il problema di
elaborare un modello meccanico del calore, si era sviluppata su di una base
fenomenologica a partire da grandezze macroscopiche (come pressione,
volume e temperatura). È evidente in tale approccio l’influenza della teoria
analitica del calore elaborata da Fourier. Non erano però mancati i tentativi
di interpretare la costituzione fisica dei gas come costituita da molecole in
rapido movimento e su questa base Daniel Bernuilli aveva cercato di
34/229
Lezioni di logica e filosofia della scienza
spiegare già nel 1738 la pressione esercitata da un gas sulle pareti di un
contenitore come l’effetto dell’urto delle molecole che lo costituivano su di
esse. Successivamente passi in avanti in questa direzione erano stati
compiuti da J. Herapath (1790-1868) e J.J. Waterston (1811-1883), senza
tuttavia esercitare un grande impatto sulla comunità scientifica dell’epoca.
L’interpretazione cinetica della costituzione dei gas venne in seguito ripresa
da Joule e A.K. Krönig (1822-1879), il quale, benché non abbia detto nulla
di nuovo rispetto a quanto sostenuto dai suoi predecessori, tuttavia ebbe
grande risonanza grazie al suo prestigio di scienziato. L’articolo in cui egli
riproponeva la teoria cinetica ebbe una influenza decisiva su Clausius, che
si decise a pubblicare le riflessioni in merito già effettuate in connessione
alla sua teoria del calore e nelle quali stabilisce una importante espressione
matematica che lega insieme pressione, volume e moti molecolari.
Ma è solo a partire dal 1860 che il grande
Maxwell e la formulazione
fisico inglese James Clark Maxwell (1831-1879) della teoria cinetica dei gas
dà alla teoria cinetica dei gas una sua
formulazione convincente, stimolato dalla lettura dell’articolo di Clausius
in cui questi esponeva le sue concezioni. In essa il comportamento delle
molecole veniva trattato in modo probabilistico, riuscendosi così a
calcolare sia il percorso medio da ciascuna effettuato nel suo moto casuale
prima di collidere con un’altra particella, sia la distribuzione statistica della
loro velocità, che viene compresa entro certi valori con un addensamento
intorno a quelli medi (secondo la nota curva a campana di Gauss). Maxwell
rappresenta le molecole mediante un’analogia, paragonandole a sfere di
piccolissime dimensioni, dure e perfettamente elastiche, che si muovono
caoticamente all’interno di un recipiente, sicché esse possono occupare
indifferentemente qualsiasi posizione: tutte le direzioni e le posizioni da
esse tenute sono pertanto equiprobabili. Considerando che le molecole
hanno massa e velocità media – e quindi una certa energia cinetica – nel
loro movimento caotico un certo numero di esse finisce per urtare contro
una delle pareti del recipiente, trasmettendole parte della propria energia e
quindi esercitando una certa spinta. Se si considera che questo avviene per
milioni e milioni di molecole che compongono il gas, sarà facile
immaginare come l’energia così trasmessa alle pareti non sia altro che la
pressione, cioè una delle grandezze macroscopiche fondamentali della
termodinamica. Questo ragionamento, che qui abbiamo svolto in maniera
informale ed intuitiva, viene rigorosamente condotto da Maxwell con
considerazioni matematiche e probabilistiche che gli permettevano di
derivare in modo stringente una grandezza macroscopica (la pressione) dal
comportamento di grandezze microscopiche (le molecole), che ubbidiscono
solo alle leggi classiche della dinamica newtoniana. Con l’aiuto di un
semplice modello meccanico e di alcune ipotesi statistiche, Maxwell
compiva un grande passo per gettare un ponte tra i fenomeni appartenenti al
mondo macroscopico e quelli del mondo microscopico: il meccanicismo e
l’idea laplaciana del reale sembrava risorgere a nuova vita.
35/229
Lezioni di logica e filosofia della scienza
Egli riusciva così a spiegare importanti pro- La teoria cinetica permette di
prietà osservabili dei gas e a proporre la teoria superare il contrasto tra
cinetica come una prospettiva teorica assai primo e secondo principio
promettente per spiegare i fenomeni naturali, della termodinamica
utilizzando il calcolo delle probabilità già adoperato da Laplace, e per
sostenere una visione atomistica della materia. Inoltre è in grado di fornire
una interpretazione della termodinamica che permette di superare il
contrasto tra il primo e il secondo principio. Infatti «se si considera
l’energia, che si conserva secondo il primo principio, come la somma delle
energie delle singole molecole del corpo, allora il secondo principio non
nega affatto, con la dissipazione dell’energia, che l’energia, cioè la capacità
di compiere lavoro, delle singole molecole diminuisca. Tale principio
afferma soltanto che essa non è più utilizzabile per l’uomo, ad esempio
quando si ha un livellamento di temperatura fra i corpi, cioè si ha una
distribuzione più uniforme della velocità delle molecole in essi»73. Insomma
l’energia non si annulla, non scompare, ma solo si distribuisce in modo da
risultare inutilizzabile, cioè da non essere più in grado di produrre lavoro
(che, abbiamo visto, può essere ottenuto solo se si hanno sistemi fisici a
diversa temperatura).
Analogamente, diventa possibile spiegare con
la teoria cinetica dei gas il contrasto tra la La spiegazione dell’entropia
base statistica: il diavoreversibilità che caratterizza i processi meccanici su
letto di Maxwell
e l’irreversibilità dei fenomeni termodinamici,
espressa dall’aumento dell’entropia e dovuta al fatto che il calore si sposta
spontaneamente dal corpo più caldo a quello più freddo. Anche in questo
caso, spiegando il calore effetto macroscopico del moto più o meno
vorticoso delle molecole che compongono il gas, Maxwell sostiene che «la
irreversibilità riguarda il fenomeno nel suo complesso, ma che, da un punto
di vista molecolare sarebbe possibile, per quanto estremamente
improbabile, una reversibilità della conduzione del calore»74. Per chiarire
questo punto egli introdusse il famoso esempio del diavoletto.
Immaginiamo un sistema chiuso, ad es. un recipiente, in cui temperatura e
pressione sono le stesse e che non cambia di volume. In questo caso
sappiamo che non è possibile alcun tipo di lavoro e inoltre – per il secondo
principio della termodinamica – non è possibile che parte del calore si
trasferisca spontaneamente in una metà del recipiente, lasciando l’altra
metà più fredda. Ma, afferma Maxwell, «se noi concepiamo un essere le cui
facoltà sono così raffinate che egli può seguire ogni molecola nel suo corso,
un tale essere i cui attributi sono essenzialmente finiti come i nostri,
sarebbe in grado di compiere ciò che ci è attualmente impossibile. Si è visto
infatti che le molecole in un recipiente pieno d’aria a temperatura
uniforme,non si muovono affatto con velocità uniforme, sebbene la velocità
media di un gran numero di esse, scelte arbitrariamente, è quasi esattamente
73 L. Geymonat, Storia del pensiero filosofico e scientifico, vol. V, Dall’Ottocento al
Novecento, Garzanti, Milano 1971, p. 217.
74 Ibidem.
36/229
Lezioni di logica e filosofia della scienza
uniforme. Si supponga ora che il recipiente in questione sia diviso in due
parti, A e B, mediante un divisorio in cui vi sia un piccolo foro e che il
nostro essere, che può vedere le singole molecole, apra e chiuda il foro, in
modo da lasciar passare soltanto le molecole più veloci da A a B e soltanto
le più lente da B a A. Egli in tal modo, senza dispendio di lavoro, aumenterà
la temperatura di B ed abbasserà la temperatura di A, in contrasto con la
seconda legge della termodinamica»75. Questo esempio immaginario serve
solo per sottolineare che in effetti la seconda legge della termodinamica è il
risultato a livello macroscopico di un comportamento statistico medio delle
molecole che compongono il gas e che ubbidiscono alle normali leggi della
meccanica; come dice Maxwell la funzione di tale ‘diavoletto’ è quella di
«mostrare che la seconda legge della termodinamica ha solo una certezza
statistica»76.
La strada intrapresa da Maxwell fu in seguito Boltzmann e la connessione
perfezionata ed ulteriormente studiata a fondo da tra probabilità ed ordine:
un altro grande scienziato austriaco, Ludwig l’entropia come evoluzione
Boltzmann (1844-1906), il fondatore con J.W. verso il disordine
Gibbs (1839-1903) della meccanica statistica. Egli approfondì il significato
della distribuzione probabilistica delle molecole che compongono un gas e
interpretò l’entropia come lo stato macroscopico più probabile verso il
quale evolve il sistema. A sua volta, anche su suggerimento di Helmholtz e
sviluppando alcune implicite conseguenze già contenute in Maxwell,
stabiliva una stretta connessione tra probabilità ed ordine, nel senso che la
condizione di maggiore probabilità veniva ad essere identificata con la
condizione di maggior disordine del sistema e così l’aumento dell’entropia
poteva essere considerato come l’evoluzione dall’ordine al disordine.
Di solito per illustrare tali caratteristiche dell’entropia si porta nei
manuali di fisica il seguente esempio: si consideri un contenitore a pareti
isolanti (come ad esempio un thermos) contenente del gas, che perciò non
ha alcun tipo di interazione con l’ambiente esterno al contenitore (il sistema
fisico è “isolato”) e sia questo gas separato all’interno per mezzo di una
parete che lo divida in due porzioni, una più calda e l’altra più fredda.
Possiamo dire che questo gas ha una determinata misura di “ordine”, in
quanto noi possiamo predire che una molecola più veloce si troverà più
probabilmente nel lato caldo piuttosto che nel lato freddo e viceversa (come
accade ad es. in un’urna nella quale si abbiano in una metà le palline
bianche e nell’altra le palline nere: in questo caso il sistema sarà ordinato).
Eliminiamo ora la parete interna: dopo un certo periodo il sistema evolverà
verso una situazione di equilibrio, in quanto il gas si diffonderà
uniformemente per il contenitore e si perverrà ad una temperatura uniforme
in tutto il contenitore: ora il sistema è più “disordinato”, in quanto le
molecole di gas, qualunque sia la loro velocità, si sono uniformemente
mescolate in modo casuale in tutto il recipiente. Si badi che l’energia totale
75
J.C. Maxwell, cit. in L. Geymonat, op. cit., p. 218.
J.C. Maxwell, cit. in G. Peruzzi, Maxwell. Dai campi elettromagnetici ai costituenti ultimi
della materia, Le Scienze, Milano 1998, p. 92.
76
37/229
Lezioni di logica e filosofia della scienza
è rimasta quella di prima, in quanto il sistema è isolato e non si può avere
dispersione verso l’esterno: è cambiata solo la disposizione di essa per il
diverso disporsi delle molecole di diversa velocità. Tuttavia, ciò è
fondamentale perché in questo modo non è possibile generare all’interno
del sistema alcun lavoro, cioè trasformazione di energia, in quanto esso può
avvenire solo in presenza di diversi livelli termici. Viceversa, ogni lavoro
utile, che presuppone la trasformazione dell’energia, necessariamente
produce entropia o, altrimenti detto, aumenta il disordine complessivo del
sistema. Affinché si possa ancora produrre lavoro (ad es. per ridare
“ordine” alle molecole del nostro gas) è necessario mettere in contatto il
nostro sistema (nel nostro caso il contenitore) con un altro sistema che
possa accollarsi l’entropia in eccesso e quindi fornire l’ordine mancante:
cioè un sistema dal quale il nostro gas possa trarre “negaentropia” (o
“entropia negativa”) (ad es., che il nostro contenitore venga messo in
contatto con l’ambiente esterno, sostituendo le pareti isolanti con pareti che
conducano il calore, e quindi non sia più isolato, e dal quale attraverso un
opportuno meccanismo possa trarre negaentropia). Un esempio di una
macchina del genere è fornito dal frigorifero domestico che trae
dall’esterno – energia elettrica più ambiente circostante – la negaentropia
che gli permette di mantenere una temperatura interna costantemente bassa
con l’espellere entropia sotto forma di calore verso l’esterno.
Diventa ancora più evidente in tal modo la naLa natura probabilistica e
tura non assoluta, ma semplicemente probabili- non assoluta del secondo
stica, della seconda legge della termodinamica e principio della termodinaminulla in linea di principio può escludere che il ca
processo che porta al “mescolamento” delle molecole calde e fredde – e
quindi ad uno stato di maggior disordine – non possa essere invertito (ad es.
grazie al demone di Maxwell). In fin dei conti, trattandosi di eventi
probabili, anche il processo inverso che porta “ordine” al sistema è
possibile, nonostante sia la sua probabilità di accadere bassissima; ma
aspettando un tempo infinitamente lungo potrà benissimo capitare una volta
che le molecole calde (ovvero con più energia cinetica), nel loro
movimento casuale si dirigano tutte in una direzione, occupando una metà
del recipiente e così ricreando la condizione di partenza: una parte più calda
ed una più fredda.
Su queste basi si è sviluppata la meccanica
statistica tra il 1860 e il 1880. Essa non solo Discontinuità tra conoscenza
del macroscopico e del micostituiva una risposta da un punto di vista croscopico
“classico” alle sfide poste dalla termodinamica,
ma introduceva nel modo di considerare la conoscenza della natura una
discontinuità tra la conoscenza sensibile dei suoi stati macroscopici e la
conoscenza concettuale di quelli microscopici: uno stato di quiete
empiricamente constatabile, ad es., veniva ad essere il risultato di un moto
vorticoso di miliardi di particelle, il cui comportamento non poteva essere
direttamente osservato ma solo ipotizzato grazie all’utilizzo di sofisticate
tecniche matematiche e probabilistiche. «Ciò significava ammettere che
una particella costituente un corpo può avere proprietà meccaniche molto
38/229
Lezioni di logica e filosofia della scienza
differenti dal corpo a cui essa appartiene. L’uniformità apparente di un
corpo perciò non è più la pura somma di uniformità infinitesime delle sue
particelle ma la compensazione o la media di difformità reali»77. Inoltre la
trattazione statistica dei processi fisici segna una importante svolta nella
fisica ottocentesca in quanto segna il passaggio dalla interpretazione
causale deterministica, propria delle leggi della meccanica, a una
interpretazione di tipo probabilistico che contribuisce a mettere sempre più
in luce i nessi tra determinismo e predicibilità e il ruolo della nozione di
causalità e caso nei processi fisici, con ciò preparando il terreno ad
importanti sviluppi della fisica del Novecento78. Come afferma L.
Geymonat, «ciò che più interessa, dal punto di vista metodologico, è che –
con i lavori di Maxwell e Boltzmann – il calcolo delle probabilità entra a
far parte, come uno dei suoi componenti essenziali, dell’apparato
matematico in uso nella fisica. Il ricorso a questo tipo di calcolo non
comportava di per sé – è bene notarlo in modo esplicito – una totale
rinuncia al vecchio determinismo laplaciano, potendosi sempre pensare che
il moto di ogni singola molecola risulti “in realtà” determinato secondo le
leggi della meccanica classica, e che l’uso di metodi statistici sia per noi
necessario solo per l’impossibilità pratica in cui ci troviamo di seguire i
singoli percorsi. Si avrebbe cioè un divario tra ciò che accade nel mondo
“oggettivo” e ciò che siamo in grado di descrivere di esso»79.
La menzionata dicotomia tra ipotesi teoriche Il contrasto tra concezione
concernenti il microscopico ed osservazione della scienza puramente deempirica del macroscopico fece sì che molti fisici, scrittiva e concezione realiattaccati ad una concezione strettamente empirista stica facente uso di ipotesi
della scienza, fossero portati a respingere la teoria teoriche
cinetica e la meccanica statistica. Ciò fece sì che negli ultimi due decenni
dell’Ottocento e nei primi anni del Novecento i risultati raggiunti in questi
due campi siano stati per lo più ignorati e rifiutati dagli ambienti scientifici
più influenti, che vedevano nell’atomismo un’ipotesi più speculativa che
empiricamente fondata, motivata da una visione materialistica della natura.
Vana fu la lotta ingaggiata da Boltzmann per difendere la teoria cinetica e
per sostenere un’idea della conoscenza scientifica che non si fermasse a
cogliere solo gli aspetti fenomenici del reale, limitandosi a sistematizzarli
mediante la loro trascrizione matematica. In nome di una concezione
realistica della conoscenza, Boltzmann era infatti convinto della necessità
di penetrare oltre l’apparenza fenomenica, servendosi di audaci ipotesi in
grado di stabilire connessioni tra i componenti più intimi della materia e di
spiegare quanto ci viene mostrato dall’esperienza. Era pertanto importante
per lui dare penetrare teoreticamente i meccanismi profondi che spiegano i
fenomeni della termodinamica, consentendo di inquadrarli in una visione
unitaria della natura, nello spirito di Laplace, senza fermarsi alla sola
considerazione delle grandezze macroscopiche. Il sostanziale fallimento di
77
L. Geymonat, op, cit., p. 221.
Cfr. G. Peruzzi, op. cit., p. 86.
79 L. Geymonat, op. cit., p.169.
78
39/229
Lezioni di logica e filosofia della scienza
questa sua battaglia e l’incomprensione dei contemporanei per la sua
meccanica statistica non furono certo irrilevanti sulla sua decisione di
suicidarsi.
Altre erano le direzioni verso le quali si muo- La tendenza fenomenologiveva la scienza di fine secolo: fisici come J.B. ca: la fisica energetica
Stallo (1823-1900), G. R. Kirkhoff (1824-87), P.
Duhem (1861-1916) ed E. Mach (1838-1916), che tanta influenza avrà sul
futuro Circolo di Vienna, erano orientati verso una critica del
meccanicismo e dell’atomismo, cui contrapponevano una visione della
fisica che fosse aderente all’evidenza empirica e quindi non facesse ipotesi
su entità non osservabili (come gli atomi), ma consistesse solo nella
trattazione matematica di regolarità empiriche. Non solo, ma sembrava che
gli sviluppi della termodinamica, specie in campo chimico, dessero la
possibilità di concepire questa scienza – assunta nella sua interpretazione
fenomenologica – come un possibile sostituto della meccanica, scalzandone
il primato secolare. Tale impostazione venne sviluppata in particolare dalla
cosiddetta fisica energetica, che assumeva quale suo concetto di base
quello di energia. Proposta da William Rankine (1820-72) e quindi dal
fisico tedesco Georg Helm (1851-1923) – che riprendevano le intuizioni di
Robert Mayer – essa rifiutava la riduzione dell’energia all’azione di masse
corpuscolari; essa veniva piuttosto concepita come qualcosa di originario e
primitivo, capace di assumere in natura varie forme di manifestazione. Il
suo più deciso sostenitore fu il chimico-fisico tedesco Wilhelm Ostwald
(1853-1932), che interpretava l’energia come il substrato di tutti i
fenomeni, cercando di edificare sulla sua base una vera e propria filosofia
monistica.
3. L’elettromagnetismo e l’idea di campo.
Un altro punto di crisi della concezione mecca- I problemi suscitati dallo stunica della natura sorgeva nel campo dei fenomeni dio dei fenomeni magnetici
magnetici ed elettrici. Un esperimento condotto ed elettrici
nel 1820 dallo scienziato danese Hans Christian Oersted (1777-1851) mise
in luce come sia possibile generare effetti magnetici mediante la corrente
elettrica, in tal modo mettendo in relazione fenomeni sino ad allora ritenuti
diversi: magnetismo ed elettricità. Ma ancora più interessante era il fatto
che l’esperimento ed il tipo di interazioni messo in luce tra elettricità e
magnetismo non seguiva affatto le leggi della dinamica newtoniana, in
quanto la forza agente non agiva lungo la congiungente tra i corpi (nel caso
specifico, un filo percorso da corrente ed un ago magnetico), bensì si
rivelava perpendicolare ad essa; esattamente all’opposto di come agiva la
forza gravitazionale, cioè lungo la linea di congiunzione di due corpi che si
attirano o respingono. Sembrava pertanto che gli esperimenti di Oersted
non fossero riconducibili ad interazioni tra particelle di tipo newtoniano,
bensì fossero il sintomo di forze che operavano in tutto lo spazio
circostante al conduttore, secondo delle traiettorie circolari intorno al filo
40/229
Lezioni di logica e filosofia della scienza
(così come è possibile rilevare quando si faccia l’esperimento del magnete
e della limatura di ferro). Il che equivaleva ad ammettere una concezione
della materia e dello spazio non più discontinua, come ipotizzata dalla
fisica newtoniana, bensì continua.
La distinzione tra continuità e discontinuità Fisica cartesiana del continuo
della materia risale alla contrapposizione tra la contro fisica newtoniana del
fisica di Cartesio e quella di Newton. Per il discontinuo
filosofo e scienziato francese l’universo non può ammettere vuoti, ma deve
essere un plenum di materia: anche là dove sembra che i corpi siano
separati da una distanza priva di materia (come la Terra e il Sole) è
necessario ammettere l’esistenza di un mezzo continuo, un fluido etereo,
che compie moti vorticosi e nel quale “nuotano” i corpi celesti. È questo
fluido etereo a spiegare la reciproca azione tra i corpi celesti, altrimenti
incomprensibile se si ammettesse l’esistenza del vuoto: in un approccio
strettamente meccanicistico quale quello di Cartesio la reciproca
interazione è ammissibile solo mediante il contatto tra materia, assicurato
da questo fluido etereo. Per Newton, al contrario, è ammissibile il ricorso a
forze che si comunicano a distanza in modo istantaneo e senza contatto
meccanico tra materia, come appunto avviene nei fenomeni gravitazionali;
per cui in quest’ottica tutte le forze agenti in natura avrebbero dovuto
essere ridotte alle attrazioni e repulsioni istantanee e a distanza tra
particelle, tra loro separate dal vuoto.
In effetti il programma di ricerca newtoniano Supremazia del programma
aveva mostrato nel corso del Settecento la sua newtoniano e il problema
superiorità su quello cartesiano, ottenendo sempre della azione a distanza
più numerosi dati sperimentali che lo confermavano e portando a numerose scoperte. Tra queste merita di essere menzionata
la cosiddetta legge di Coulomb, che formula tra i corpi elettricamente
carichi una dipendenza perfettamente analoga a quella individuata dalla
legge di gravitazione universale trovata da Newton. Ma, a fronte di questi
successi, lasciava tuttavia perplessi gli scienziati – in gran parte orientati in
senso maccanicista – l’idea di una azione a distanza che sembrava far
rivivere passati tentativi di spiegazione dei fenomeni naturali facendo
ricorso a cause occulte, virtù attrattive, simpatie e cose simili, appartenenti
al repertorio dell’immaginario medievale. E non poche critiche erano state
mosse a Newton dai suoi contemporanei per l’appunto su questa questione.
Lo stesso Newton, del resto consapevole delle difficoltà, aveva rifiutato di
indagare sulla natura di questa forza, affermando che ad essere importante
era determinare come essa agisse, e a tal fine era sufficiente la legge
matematica da lui fornita. Una posizione che cercava di trovare un punto
equilibrio che non entrasse in conflitto con la sua fede meccanicistica, ma
che non poteva impedire ai più attenti seguaci del newtonesimo di notare le
conseguenze antimeccanicistiche dell’ammissione di un’azione a distanza.
41/229
Lezioni di logica e filosofia della scienza
Analogia formale tra legge di gravitazione universale di Newton
e legge di Coulomb
La legge di gravitazione universale di Newton mette in relazione la massa dei corpi
mm
celesti con la loro distanza, secondo la formula F = G 1 2 , dove m 1 e m 2
r2
rappresentano le masse dei due corpi celesti, r la loro distanza e G è la costante di
gravitazione universale. Essa ci dice che due corpi materiali si attraggono con una
forza, diretta lungo la loro congiungente, che è direttamente proporzionale alle
rispettive masse e inversamente proporzionale al quadrato della loro distanza.
qq
Analogamente la legge di Coulomb si esprime con la formula F = k 1 2 , nella quale
r2
k è una costante (detta costante di Coulomb), q 1 e q 2 sono le cariche elettriche
(supposte puntiformi) e r la distanza tra le due. Come si vede le due formule sono
formalmente identiche, con le cariche al posto delle masse e la costante k al posto
della costante di gravitazione G.
Ora l’esperienza di Oersted sembrava riproporre la questione col lasciare ipotizzare nuovamente Le conseguenze della scoperta di Oersted: la riproposta
la possibilità di uno spazio non vuoto, ridando del newtonesimo in Ampère
quindi fiato ai fisici sostenitori della teoria continuista della materia, di ascendenza cartesiana. La comunità scientifica
coglie immediatamente l’importanza dell’effetto scoperto dal fisico danese
e si impegna alla ricerca di spiegazioni che vanno o nella direzione del
tentativo di ricondurlo all’interno del quadro teorico dominante legato
all’azione a distanza, o in quella che ammetteva la sola azione per contatto,
sulla scia del rinato interesse per le teorie dell’etere, rimesse in campo
anche dal successo crescente della concezione ondulatoria della luce. Nella
prima direzione si avvia il matematico francese André-Marie Ampère
(1775-1836), che riprende e generalizza – con un apparato matematico
assai complicato – gli esperimenti di Oersted in modo da interpretare
unitariamente i fenomeni del magnetismo, cui venne attribuita natura
fondamentalmente elettrica; egli riesce così a ridurre tutti i fenomeni di
attrazione e repulsione tra magneti (descritti dalla legge di Coulomb) e tra
magneti e correnti (evidenziati dell’esperimento di Oersted) alla legge
fondamentale della forza tra correnti da lui formulata. Alla base stava
l’esplicito richiamo all’idea di Newton che l’importante fosse «osservare i
fatti, compiere precise misure per ricavare leggi empiriche da cui dedurre,
senza tentare di spiegare la natura delle forze in gioco, l’espressione
matematica di queste forze»80. Una posizione del resto in perfetta linea con
l’impostazione che abbiamo già visto aveva dato Fourier al suo studio dei
fenomeni termici.
In tutt’altra direzione vanno invece le ricer- Faraday e la scoperta delche di Michael Faraday (1791-1867), scienziato l’induzione elettromagnetica
con una formazione da autodidatta e pertanto
poco esperto nelle raffinate tecniche matematiche impiegate dai fisici
francesi: «La sua estraneità al tipo di formalismo usato dalla scuola
francese lo spingeva ad esprimere le leggi di natura non attraverso
80
G. Peruzzi, op, cit., p. 44.
42/229
Lezioni di logica e filosofia della scienza
equazioni stabilite nel linguaggio dell’analisi matematica ma mediante un
simbolismo, quello delle “linee di forza”, che affondava le sue radici
nell’intuizione di tipo geometrico»81. La convinzione della necessità di
studiare il processo complessivo dei fenomeni elettrici, che portava Faraday
a concentrare l’attenzione non solo sui corpi interagenti, ma anche sullo
spazio interposto, certamente non fu senza rilievo nella sua scoperta della
induzione elettromagnetica (ovvero la possibilità di produrre flussi di
corrente elettrica facendo variare un campo magnetico, ad es. avvicinando
od allontanando una calamita in vicinanza di un circuito o, viceversa,
facendo muovere il circuito rispetto al magnete), così completando la
scoperta di Oersted: era possibile ormai generare energia elettrica senza far
ricorso alle pile, ma sfruttando solo il movimento meccanico (come
dimostrava la dinamo a disco inventata da Faraday). È aperta così la strada
ad un nuovo settore dell’indagine umana ed a una nuova disciplina,
l’elettrodinamica, che ebbe importanti conseguenze applicative: quasi tutta
l’energia elettrica oggi prodotta si basa sull’induzione elettromagnetica,
come avviene ad es. con le centrali idroelettriche, che sfruttano l’energia di
caduta di grandi masse d’acqua per ottenere energia meccanica che viena
trasformata in corrente elettrica, o come accade più semplicemente con la
dinamo della bicicletta o con l’alternatore delle automobili.
Ciò che veniva alla luce dallo sviluppo di
L’idea di ‘campo’ e le linee di
questo nuovo ambito di indagine era una nuova forza
realtà fisica che, già ipotizzata dai sostenitori
della teoria ondulatoria della luce (in particolare Christian Huygens) nel
corso del dibattito contro i sostenitori della teoria corpuscolare (proposta
per primo da Newton), ora sembrava essere sostenuta da evidenze
incontrovertibili: quella del campo. Faraday, infatti, per spiegare i fenomeni
di induzione elettromagnetica faceva uso di linee di forza e di azioni per
contatto, che potevano essere ammesse solo se si ipotizzava un continuo
materiale, contraddicendo così la descrizione dualistica del mondo fisico
fatta dai newtoniani. La materia infatti era per lui “ovunque”: un continuo
dove non sussistono distinzioni tra gli atomi e l’ipotetico spazio intermedio
e dove non risultavano più ammissibili l’azione a distanza e la
propagazione istantanea di forze fisiche. Si affacciava l’intuizione di un
“campo unificato di forze”, che risiederebbe nell’intero spazio e che
permetterebbe di spiegare in maniera unitaria i fenomeni elettrici,
magnetici, chimici e gravitazionali. Sullo sfondo, l’idea della sostanziale
unità delle forze della natura, che era stata propria della Naturphilosophie
continentale e che aveva ispirato anche Oersted.
Concezioni queste, però, che sembravano ai Maxwell cerca di dare rigore
fisici a lui contemporanei troppo qualitative e matematico alle idee qualioscure: Faraday aveva cercato sì di descrivere il tative di Faraday
campo come un insieme di linee di forza estendendosi nello spazio a partire dalle cariche elettriche (o dai magneti), ma
81
Ib., p. 46.
43/229
Lezioni di logica e filosofia della scienza
non era stato in grado di dare loro quell’elegante veste matematica che
invece era caratteristica della scuola francese ed era stata espressa nel suo
massimo grado da Ampère. Gli avversari potevano benissimo sostenere che
tutte le sue teorie si basavano solo su di una arbitraria estrapolazione a
partire da quanto accade per la limatura di ferro sparsa su un foglio
appoggiato ad una calamita. Sarà Maxwell a dare vero e proprio statuto
scientifico a queste idee, fornendo loro una veste matematica rigorosa:
«Quella che mancava era una sintesi soddisfacente tra la descrizione
matematica e l’interpretazione fisica; la complessità della prima finiva con
l’offuscare la seconda. Una sintesi che nei dieci anni successivi Maxwell
riuscirà ad esprimere nella forma della teoria dei campi elettromagnetici»82.
Dopo aver avanzato nei suoi primi due lavori Maxwell: dal meccanicismo
una interpretazione meccanicistica dell’induzione alla formalizzazione mateelettromagnetica, dove aveva anche fornito un matica facente a meno di
modello di etere in grado di spiegare sia i modelli meccanici
fenomeni ottici sia l’affinità tra onde luminose e onde elettromagnetiche
(giungendo alla notevole conclusione che esse si propagano alla stessa
velocità), nell’ultimo lavoro che compone la trilogia dei suoi studi
sull’argomento Maxwell si preoccupa unicamente di sviluppare una teoria
matematica dei fenomeni elettromagnetici, in modo da ottenere una serie di
equazioni da cui poi derivare logicamente tutte le conseguenze che erano
state riscontrate empiricamente nei numerosi esperimenti condotti da
Faraday e da lui stesso. Perde anche interesse per lui la costruzione di
un’immagine visualizzabile dell’etere, al cui posto subentra il desiderio di
formulare le equazioni differenziali che regolano i fenomeni in esso
verificantesi. Egli vuole così costruire una “teoria dinamica del campo
elettromagnetico”: dinamica «perché assume che in quello spazio vi sia
materia in movimento dalla quale vengono prodotti i fenomeni
elettromagnetici osservati»83, con ciò continuando a far propria l’ipotesi
meccanicistica, secondo la quale la spiegazione ultima dei fenomeni risiede
in ciò che avviene in un mezzo meccanico; del campo, in quanto ha a che
fare con lo spazio nella vicinanza dei corpi magnetici o elettrici,
introducendo così una nuova entità fisica «che permette la deduzione delle
leggi che unificano i fenomeni elettromagnetici e quelli luminosi non a
partire dalla descrizione del funzionamento di un particolare meccanismo
ma dall’analisi delle relazioni sussistenti tra i vari risultati sperimentali.
[…] Al centro di una teoria fisica non devono esserci modelli particolari
ma le relazioni generali che si possono stabilire, a partire dai dati
sperimentali, tra il più vasto numero possibile di fenomeni diversi»84.
Tuttavia, nella elaborazione successiva, effettuata in direzione di una
teoria lagrangiana generalizzata del campo elettromagnetico, la teoria si
svincola completamente dalla necessità di ipotizzare qualsivoglia ipotesi
meccanicistica che spieghi la generazione dei fenomeni considerati: pur
82
Ib., p. 53.
J. Clerk Maxwell, cit. in ib., p. 68.
84 G. Peruzzi, op. cit., p. 70.
83
44/229
Lezioni di logica e filosofia della scienza
restando convinto che il substrato dei fenomeni possa essere sempre
concepito in linea di principio su base meccanica – mai Maxwell
abbandonò la sua fede nel meccanicismo, come del resto testimonia la sua
teoria cinetica dei gas (di cui al § precedente) – tuttavia egli ritiene che
modelli e interpretazioni diventano irrilevanti quando si sono trovati le
leggi generali in grado di ordinare un certo ambito fenomenico. Sicché
Hertz potè poi sostenere che la teoria di Maxwell è il sistema delle
equazioni di Maxwell, analogamente a come si è sostenuto che la teoria
gravitazionale di Newton non è altro che la sua legge di gravitazione
universale. In entrambi i casi la forma matematica, con la sua capacità
esplicativa, fa mettere in secondo piano la necessità di postulare modelli
che descrivano i meccanismi concreti che stanno alla base del
comportamento dei fenomeni. Questa tendenza antimodellista – che di fatto
si traduce in una critica del meccanicismo newtoniano – ebbe un notevole
successo nella fisica di fine secolo, come testimoniano le riflessioni
epistemologiche in questo senso effettuate da due grandi fisici e storici
della scienza, Pierre Duhem ed Ernst Mach; ma fece anche sì che l’opera di
Maxwell fosse avversata dai fisici più attaccati all’ipotesi meccanicistica,
per i quali era indispensabile far ricorso a modelli meccanici nella
spiegazione dei fenomeni.
Il frutto del lavoro teorico dello scienziato in- Le “equazioni di Maxwell” e
glese saranno le famose “equazioni di Maxwell”, la loro importanza per la
perfezionate nel suo Treatise on Electricity and fisica successiva
Magnetism del 1873 e quindi riformulate e confermate sperimentalmente
negli anni novanta da Heinrich Hertz (1857-1894). Come affermano
Einstein ed Infeld, «la formulazione di queste equazioni costituisce
l’avvenimento più importante verificatosi in fisica dal tempo di Newton»85.
Esse «definiscono la struttura del campo elettromagnetico. Sono leggi
valide nell’intero spazio e non soltanto nei punti in cui materia o cariche
elettriche sono presenti, com’è il caso per le leggi meccaniche. Rammentiamo come stanno le cose in meccanica. Conoscendo posizione e velocità
di una particella, in un dato istante, e conoscendo inoltre le forze agenti su
di essa, è possibile prevedere l’intero futuro percorso della particella stessa.
Nella teoria di Maxwell invece basta conoscere il campo in un dato istante
per poter dedurre dalle equazioni omonime in qual modo l’intero campo
varierà nello spazio e nel tempo. Le equazioni di Maxwell permettono di
seguire le vicende del campo, così come le equazioni della meccanica
consentono di seguire le vicende di particelle materiali»86. Grazie ad esse
viene fornito in forma matematicamente ineccepibile un quadro unitario nel
quale descrivere sia i fenomeni elettromagnetici sia quelli luminosi, che
Maxwell sperava di poter generalizzare in modo da ricomprendere in esso
anche i fenomeni gravitazionali. E difatti negli anni successivi si estese il
vocabolario introdotto da Maxwell alla teoria newtoniana della gravitazione, iniziandosi a parlare di “campo gravitazionale”; e sebbene la
85
86
A. Einstein, L. Infeld, op. cit., p. 153.
Ib., p. 156.
45/229
Lezioni di logica e filosofia della scienza
speranza di poter ottenere una teoria unificata del campo s’è dimostrata
vana ed è ancora oggi, com’è noto, irrealizzata, tuttavia è a partire da
queste equazioni e dalla nozione di campo da esse introdotta che Einstein
partirà per proporre la sua teoria della relatività speciale ed in seguito
sostenere che il campo gravitazionale si propaga in modo quasi identico a
quello delle onde elettromagnetiche, e quindi con una velocità finita. In tal
modo l’azione istantanea a distanza viene definitivamente respinta in favore
dell’azione per contiguità anche nei fenomeni gravitazionali.
Ma costituiva la teoria del campo elettroma- L’etere quale punto di
gnetico elaborata da Maxwell una reale alternativa unificazione tra meccanica ed
alla meccanica classica di origine newtoniana? elettromagnetismo
Certo, come abbiamo visto, il concetto di campo e le stesse equazioni che
lo descrivono sono in netto contrasto con il concetto di particelle e le
equazioni tipiche della meccanica classica. Tuttavia nessun fisico ortodosso
di fine Ottocento avrebbe mai accettato l’idea di una scienza della natura
divisa in due fisiche diverse, tra loro inconciliabili. Avrebbe piuttosto
cercato di ricondurre la teoria elettromagnetica alla meccanica classica,
ipotizzando un supporto materiale del campo che ne spiegazze l’azione.
Così infatti vanno le cose e a venire in soccorso è l’analogia delle onde
elettromagnetiche con le onde in un liquido: queste ultime possono
avvenire perché vè un mezzo elastico (ad es., l’acqua) nel quale si formano;
analogamente le onde descritte da Maxwell avvengono in un mezzo
materiale – del resto da lui già ipotizzato in una prima fase del suo pensiero
– che ne costituisce il supporto: è il vecchio concetto di etere a servire alla
bisogna. È pertanto questo fluido imponderabile ad essere posto alla base,
negli ultimi anni dell’Ottocento, delle teorie ottiche, elettriche e
magnetiche: il campo elettromagnetico maxwelliano è pensato come un
insieme di perturbazioni propagantesi in un etere che si estende occupando
tutto lo spazio. Quest’etere cosmico finisce quindi per svolgere l’importante funzione di unificare due settori della scienza fisica altrimenti
inconciliabili: la teoria meccanica e il concetto di campo. Così come del
resto aveva indicato lo stesso Maxwell, la propagazione delle onde
elettromagnetiche veniva giustificata facendo ricorso ad un supporto
meccanico che costituisce il mezzo della loro trasmissione: l’etere è,
dunque, il mezzo elastico – fatto di particelle in moto e di forze agenti su di
esse – le cui vibrazioni assicurano la trasmissione del moto ondulatorio
della luce, del magnetismo e dell’elettricità, in ottemperanza alle leggi
classiche che regolano le oscillazioni dei corpi perfettamente elastici, già
ben studiate nell’ambito della fisica meccanicistica. L’esistenza dell’etere
veniva ritenuta così logica ed indispensabile da essere esso universalmente
accettato da tutti i fisici del tempo come una delle sostanze componenti
dell’universo. Due diverse branche della fisica potevano, suo tramite,
essere collegate tra di loro, preservando il prezioso bene della unitarietà
della scienza, che era stato al centro della concezione di Laplace, e
salvaguardando l’immagine meccanica della natura.
46/229
Lezioni di logica e filosofia della scienza
I grandi progressi nei vari campi della scienza
Fiducia nella scienza ed ottie la capacità delle nuove teorie (come la termodi- mismo sul suo sviluppo funamica, la meccanica statistica, la teoria dei turo tra Ottocento e Novecampi) non solo di spiegare i fatti e farne cento
prevedere di nuovi, ma anche di trovare applicazione in scoperte e ritrovati
tecnici che stavano letteralmente cambiando il volto al mondo, facevano
pensare che la conoscenza umana si fosse incamminata su binari sicuri e
che non restasse che applicare ed ulteriormente estendere a nuovi domini
dell’esperienza umana i metodi e le teorie note per accumulare nuove
conoscenze e scoperte. «Confortata da questi spettacolari progressi, la
comunità dei fisici entrò nel XX secolo con passo baldanzoso. Tutte le
tessere del mosaico sembravano andare al loro posto: la meccanica
newtoniana era una descrizione completa del moto di ogni possibile corpo
massivo, dai pianeti giù giù sino agli atomi; la teoria maxwelliana
dell’elettromagnetismo non soltanto svelava i più riposti segreti dell’ottica,
ma adombrava la possibilità di comprendere le interazioni, supposte di
natura soprattutto elettrica, tra atomi e molecole; la meccanica statistica
prometteva infine di spiegare le proprietà degli oggetti macroscopici come
conseguenza di quelle dei loro componenti atomici. Restava, è vero,
qualche punto oscuro: la struttura fine degli atomi e le inesplicabili
regolarità dei loro spettri; l’inanità degli sforzi volti ad estendere ai liquidi e
ai solidi l’eccellente teoria microscopica, qualitativa ed entro certi limiti
anche quantitativa, del comportamento macroscopico dei gas. Ma erano
dettagli. Chi poteve dubitare che l’intelaiatura della fisica fosse solida e che
alla fine questi enigmi sarebbero stati risolti al suo interno? A suggello
dell’ottimismo dilagante, il fisico inglese Lord Kelvin nel 1900 terminò una
conferenza dedicata a un esame sommario dello stato di solute della “sua”
scienza all’alba del nuovo secolo tratteggiando un orizzonte sereno al di là
di un paio di ‘nuvolette’; per il resto non v’era da sospettare che il
convoglio non fosse avviato nella giusta direzione»87.
Ben presto, però, queste “nuvolette” genereranno una vera e propria
bufera.
4. La teoria della relatività
Il rivolgimento più radicale della scienza del Novecento si deve ad un
oscuro impiegato dell’Ufficio Brevetti di Berna, Albert Einstein (19791955), il cui nome ben presto divenne un punto di riferimento per indicare
una rivoluzione scientifica paragonabile a quella operata a suo tempo da
Copernico. In tre articoli del 1905 (uno dei quali gli valse il premio Nobel),
scritti con un apparato matematico non troppo sofisticato ma con grande
forza deduttiva e capacità di ripensare i fondamenti della fisica, sino ad
allora dati per scontati, dà con la Teoria della relatività speciale ( o
87
A.J. Legget, I problemi della fisica, Einaudi, Torino 1991, pp. 25-6.
47/229
Lezioni di logica e filosofia della scienza
ristretta)88 un contributo alla fisica che non ha eguali e che sarà
ulteriormente approfondito negli anni successivi con la Teoria della
relatività generale. Come ricorda Max Born, egli «possedeva il dono di
vedere un significato dietro fatti ben noti e poco appariscenti, significato
che a tutti gli altri era sfuggito […] Era questa sua misteriosa capacità di
vedere dentro al modo di funzionare della natura che lo distingueva da tutti
noi, non la sua abilità matematica»89.
Il punto di partenza di Einstein è costituito Il principio di relatività fordalla riflessione sul principio di relatività gali- mulato da Galileo: l’esempio
leiana, valido nella meccanica classica. Questo della nave
principio (noto anche come principio di relatività meccanica) era stato
formulato da Galileo per sostenere la mobilità della terra durante la
controversia per l’affermazione del sistema copernicano. Una delle
obiezioni fondamentali mosse dai tolemaici consisteva nell’osservare che,
qualora la terra fosse in moto, un peso lasciato cadere dalla sommità di una
torre dovrebbe giungere al suolo non alla sua base, ma spostato di un spazio
corrispondente al moto nel contempo effettuato dalla terra. Per rispondere a
tale obiezione Galileo aveva concepito un esperimento ideale:
immaginiamo, scrive nel Dialogo sopra i due massimi sistemi del mondo,
di essere rinchiusi nella stiva di una nave, sul pavimento della quale è posto
un vaso con una piccola apertura e sopra di esso un secchio dal quale delle
gocce d’acqua si stacchino versandovisi; se la nave è ferma vedremo che
tutte le gocce cadendo verticalmente si verseranno entro il vaso deposto a
terra. Facciamo ora muover la nave a qualsivoglia velocità, ma con moto
uniforme e non fluttuante qua e là; allora non vedremo alcuna differenza
nel comportamento delle gocce, che cadranno dal secchio sospeso sempre
in modo da centrare la bocca del vaso. Lo stesso accadrà per ogni altro
fenomeno fisico che avviene nella stiva della nave, a condizione però che il
moto sia rettilineo e uniforme, ovvero non subisca oscillazioni e
fluttuazioni (cioè non sia accelerato verso nessuna direzione)90. È del resto
l’esperienza che ciascuno di noi può fare quando si trova a bordo di un
aereo o di un treno che si muovano sempre alla stessa velocità, senza
effettuare alcuna deviazione (o vibrazione): ogni evento fisico che accada
in esso, avverrà allo stesso modo che se avvenisse in un sistema che è
fermo. Le differenze sono invece avvertite quando l’aereo vira o il treno è
in curva: in questo caso subiremo una forza che ci spinge nella direzione
contraria alla direzione che il mezzo sta assumendo. Applicando il principio
di relatività alla teoria di Copernico, Galileo era così in grado di sostenere
che non è possibile con esperienze di tipo meccanico affermare che la Terra
è ferma; cade quindi l’argomento della torre.
88
L’articolo nel quale venne per la prima volta formulata tale teoria è “Elektrodynamik
bewegter Körper”, in Annalen der Physik, 4, 17 (1905), pp. 891-921.
89 M. Born, Autobiografia di un fisico, Editori Riuniti, Roma 1980, p. 251.
90 Cfr. G. Galilei, Dialogo sopra i due massimi sistemi del mondo, in Opere, a cura di F.
Brunetti, UTET, Torino 1980, vol. II, pp. 236-7.
48/229
Lezioni di logica e filosofia della scienza
Insomma, chi stia nella stiva della nave di I sistemi inerziali e la ricerca
Galileo – o in un qualunque sistema fisico che del sistema di riferimento per
stia in quiete o si muova con moto rettilineo eccellenza: lo spazio assoluto
uniforme – non può capire in alcun modo se sia in moto o in quiete, a meno
che non abbia la possibilità di misurarne la velocità facendo riferimento ad
un sistema esterno rispetto al quale effettuare la misura: è questo sistema di
riferimento a permettere di misurare la velocità del sistema in cui si trova
l’osservatore. La velocità è, dunque, una quantità relativa al sistema di
riferimento rispetto al quale viene effettuata la sua misura; nel caso della
nave di Galileo, del treno o dell’aereo questo sistema di riferimento è
rappresentato dalla terra. Quando il sistema di riferimento in cui si trova
l’osservatore si muove di moto rettilineo uniforme o sta in quiete si dice
che esso è un sistema inerziale, cioè un sistema per il quale vale il primo
principio della dinamica formulato da Newton: «ogni corpo persiste nel suo
stato di quiete o di moto rettilineo uniforme finché forze esterne ad esso
applicate non lo costringano a mutare questo stato»91.
Un sistema di coordinate spaziali (secondo gli assi x, y, z) inerziale è
detto sistema di coordinate galileiane. A voler essere esatti, il ragionamento di Galileo contro i tolemaici non è del tutto corretto, in quanto la
terra non è in effetti un sistema inerziale: essa compie un movimento
rotatorio intorno al sole e ruota sul proprio asse, per cui dovrebbe
comportarsi a rigore come un treno in curva; quindi i fenomeni fisici in essa
realizzantesi dovrebbero subire una certa forza: in teoria il primo principio
della dinamica non può essere esattamente verificato in un laboratorio
terrestre. Per tale ragione, nonostante l’influenza di tale moto sia talmente
piccola da essere ininfluente negli esperimenti di laboratorio, nondimeno
Newton sentì l’esigenza di assumere come sistema di riferimento per
eccellenza lo spazio assoluto, considerato il contenitore immobile di tutti i
corpi, cioè quel sistema inerziale di riferimento privilegiato nel quale
valgono tutte le leggi della meccanica e al quale devono essere riferite tutte
le nostre misure. Una buona approssimazione di tale sistema di riferimento
privilegiato poteva essere, secondo Newton, il centro di massa del sistema
solare, allora considerato il centro dell’universo; successivamente si scoprì
che anche il sistema solare ruota con le altre stelle intorno al centro della
Galassia, ma tale rotazione è talmente lenta da lasciare immutata la
posizione reciproca delle stelle, sicché si può ritenere il cosiddetto cielo
delle stelle fisse come un sistema di riferimento in cui il primo principio è
pressochè del tutto realizzato.
Secondo principio della dinamica e sistemi inerziali
Il nesso tra il concetto di sistema inerziale e il secondo principio della dinamica
newtoniana, espresso dalla legge F=ma (ovvero, forza = massa x accelerazione), è
dato dal fatto che quest’ultima non sarebbe più valida in un sistema che non fosse
inerziale, in quanto dovremmo considerare altre forze agenti sulla massa. Per
esempio, la terra gira intorno al suo asse e quindi non è inerziale; a rigore, quindi,
91
Formulazione tratta da R. Resnick, D. Halliday, op. cit., p. 80.
49/229
Lezioni di logica e filosofia della scienza
tale legge non vale per essa, in quanto si dovrebbe tener conto della forza
centrifuga che agisce sui corpi. Benché tale influsso sia molto piccolo e ai fini degli
esperimenti di laboratorio del tutto trascurabile, nondimeno esso è teoricamente
presente e riveste importanza in quanto mette in luce che la terra non è un sistema
inerziale nel quale sono valide le leggi delle meccanica newtoniana. Onde l’esigenza
di Newton di postulare il “giusto” sistema di riferimento caratterizzato dal fatto che
in esso sono valide le leggi da lui scoperte; e questo non poteva essere uno degli
infiniti sistemi di riferimento da noi descrivibili, ma un sistema appunto assoluto,
fisso, al quale riportare tutti gli altri con le trasformazioni galileiane. E questo era
per lui lo spazio assoluto.
La sostanza del principio di relatività meccaniEquivalenza dei sistemi inerca è dunque l’idea secondo la quale tutti i sistemi ziali per le leggi della mecinerziali sono tra loro equivalenti, cioè i fenomeni canica e trasformazioni galimeccanici avvengono in modo identico sia entro leiane
un sistema in moto rettilineo uniforme, sia in un sistema in quiete rispetto
allo spazio assoluto. Come dice Einstein, «se K’ è un sistema di coordinate
che si muove, rispetto a K, uniformemente e senza rotazione [cioè in modo
rettilineo], allora i fenomeni naturali si svolgono rispetto a K’ secondo le
stesse precise regole generali come rispetto a K. Questo enunciato viene
detto principio di relatività (nel senso ristretto)»92. Ciò equivale a dire che
tra i sistemi in moto rettilineo uniforme, cioè inerziali, non vi sono sistemi
di riferimento privilegiati. Ne segue che due osservatori, l’uno in quiete e
l’altro in moto rettilineo uniforme, vedono un qualunque fenomeno
meccanico che avvenga nel proprio sistema nello stesso modo dell’altro;
per entrambi il comportamento meccanico dei corpi è identico. Se, ad
esempio, un corpo si muove di moto rettilineo uniforme in un certo sistema
di coordinate galileiane, allora esso si muoverà anche di moto rettilineo
uniforme rispetto ad un altro sistema di coordinate galileiane che rispetto al
primo si muove di moto rettilineo uniforme. Se le leggi fondamentali della
dinamica assumono sempre la stessa forma in tutti i sistemi di riferimento
inerziali, allora è impossibile per un osservatore stabilire con esperimenti di
carattere meccanico se il sistema in cui si trova è in moto rettilineo
uniforme o in quiete, così come abbiamo visto nel caso dell’esperimento
galileiano della nave. Matematicamente questa proprietà si esprime dicendo
che le equazioni della meccanica non cambiano, sono cioè invarianti, nei
diversi sistemi di riferimento inerziali. Tuttavia è sempre possibile
“tradurre” la descrizione di un fenomeno fisico effettuata da un osservatore
a nel sistema fisico inerziale S nella descrizione effettuata da un altro
osservatore a’ appartenente ad un altro sistema fisico inerziale S’. Ciò
avviene grazie alle cosiddette trasformazioni galileiane, cioè delle
particolari formule che consentono di passare, ad es., dalla descrizione di
un qualsiasi fenomeno meccanico fatta da un osservatore immobile alla
descrizione fatta da un altro osservatore in moto rettilineo uniforme rispetto
al primo.
92 A. Einstein, Relatività (1916), in Einstein et al., Relatività: esposizione divulgativa, Bollati
Boringhieri, Torino1967, p. 53. Cfr. anche A. Einstein, Il significato della relatività (1922, 19503),
Einaudi, Torino 1950, pp. 33-4.
50/229
Lezioni di logica e filosofia della scienza
Consideriamo ad es. un treno che si muove di Esempio del treno e applimoto rettilineo uniforme alla velocità di 10 Kmh cazione delle trasformazioni
rispetto al sistema di riferimento costituito dal galileiane
marciapiede della stazione. Sul treno un passeggero cammina nella stessa
direzione in cui avanza il treno, che costituisce per lui il suo sistema di
riferimento inerziale e pertanto può essere considerato in quiete, alla
velocità di 5 Kmh. Consideriamo ora un osservatore che sta fermo sul
marciapiede della stazione (il suo sistema di riferimento inerziale): questi
vedrà il passeggero muoversi ad una velocità che è la somma della sua
velocità all’interno del treno e di quella tenuta da questo, cioè alla velocità
di 15 Kmh. Le trasformazioni galileiane ci permettono di conoscere la
posizione di un corpo (il passeggero) rispetto a diversi sistemi di
riferimento inerziali (quello del passeggero e quello dello spettatore sul
marciapiede), per cui se nel sistema di riferimento S cui appartiene il corpo
la posizione da questo occupata dopo aver camminato per un certo tempo t
è contrassegnata dalle coordinate (x, y, z), nel sistema di riferimento S’ la
sua posizione sarà contrassegnata dalle coordinate (x’, y, z) (muta solo la x
in quanto si suppone che il moto avvenga in una sola direzione, quella della
x, per cui sarà y’=y e z’=z), dove x’= x+vt (tenendo presente che lo spazio
percorso s è eguale alla velocità v per il tempo t, cioè s=vt).
Come si vede dall’esempio fatto, nell’effettua- Un corollario importante delre il passaggio da un sistema di riferimento all’al- le trasformazioni galileiane:
tro, abbiamo effettuato la somma delle velocità la legge della somma delle
tenute rispettivamente dal treno (rispetto al velocità
marciapiede) e del viaggiatore (rispetto al treno). Ciò viene espresso nella
meccanica classica dalla cosiddetta legge della somma delle velocità.
Nell’esempio il sistema di riferimento rispetto al quale si effettuava la
somma era quello costituito dal marciapiede (solidale con la terra), che
costituiva per così dire il sistema ritenuto “privilegiato”; se avessimo
assunto come sistema di riferimento il sistema solare, allora avremmo
dovuto aggiungere anche la velocità di spostamento della terra nella sua
orbita intorno al sole. In ogni caso saremmo stati in grado di effettuare la
somma delle relative velocità in modo da ottenere quella risultante rispetto
al sistema di riferimento “privilegiato”, al quale abbiamo deciso di riportare
le velocità degli altri sistemi di riferimento, applicando le trasformazioni
galileiane.
Ma come stanno le cose quando passiamo dal- L’esistenza dell’etere come
le leggi della meccanica a quelle dell’elettroma- sistema di riferimento privilegnetismo? Una delle conseguenze teoriche più giato
importanti delle equazioni di Maxwell e della sua teoria elettromagnetica è
che la velocità di propagazione della luce è costante, ed equivale a c (circa
300.000 Km al secondo nel vuoto)93, indipendentemente da qualsiasi
93
L’idea che la luce non si propagasse istantaneamente e che avesse, analogamente al suono,
una velocità finita cominciò a farsi strada sin dal Seicento con Galileo, che cercò senza successo
di misurarla. Una sua prima determinazione abbastanza precisa venne effettuata dall’astronomo
Olaf Römer nel 1676; quindi dall’inglese James Bradley nel 1729, da Hippolyte Fizeau nel 1849
51/229
Lezioni di logica e filosofia della scienza
sistema di riferimento. Ovvero la velocità della luce è la medesima in
qualsiasi sistema di riferimento, qualunque sia la sua velocità relativa. Ma,
come sappiamo, si può misurare la velocità solo all’interno di un sistema di
riferimento; sorge quindi la domanda: quale è il sistema di riferimento nel
quale la velocità della luce è uguale a c? Era naturale rispondere, con
Newton: lo spazio assoluto, che poi di fatto veniva ad essere identificato
con l’etere immobile, che pervade tutto l’universo e che permette la stessa
trasmissione della luce (come abbiamo visto nel § precedente). L’etere,
dunque, diversamente da ogni altro sistema di riferimento, finisce per
costituire un sistema di riferimento privilegiato, che ha la stessa funzione
assunta dallo spazio assoluto per le leggi della meccanica di Newton: era
rispetto ad esso che le onde elettromagnetiche – e tra queste in particolare
la luce – avevano una velocità costante, come previsto da Maxwell.
Insomma, solo grazie all’etere sarebbe possibile accertare il moto assoluto
di un mezzo, e non solo il suo moto relativo ad un sistema di coordinate
convenzionalmente assunte: esso sarebbe il sistema di coordinate privilegiato relativamente al quale ogni moto poteva essere valutato nella sua
dimensione assoluta e non più relativa. Era questa una situazione in un
certo qual modo assai strana, in quanto la fisica si trovava ad ammettere
una dualità di comportamenti: mentre per le leggi della meccanica erano
equivalenti tutti i sistemi inerziali, invece per quelle dell’ottica e dell’elettromagnetismo ne era valido uno solo, quello definito rispetto al solo
sistema privilegiato, costituito dall’etere immobile. Tuttavia tale situazione
porta ad un evidente ed insanabile contrasto col principio fondamentale
della relatività galileiana, che sta alla base della meccanica classica, per la
quale vale la legge della somma delle velocità.
Vediamo di chiarire questo aspetto nuovamen- L’esempio del treno e la conte con l’esempio del treno. In base alla relatività traddizione tra teoria elettrogalileiana, se dal centro di un treno in moto magnetica e meccanica clasrettilineo uniforme viaggiante alla velocità di 150 sica
Kmh (che costituisce il sistema di riferimento S) facciamo partire un raggio
di luce esso possiede per il viaggiatore a che sta all’interno del treno la
velocità c, qualunque direzione si consideri (ovvero, sia che si prenda il
raggio che va in avanti, verso la direzione in cui si muove il treno, sia
quello che va all’indietro). Invece per lo spettatore a’ che sta sul
marciapiede (sistema di riferimento S’), il raggio di luce che va nella stessa
direzione del treno dovrebbe possedere la velocità di c+150 Kmh, ovvero la
velocità del treno sommata alla velocità della luce; quello che va invece in
direzione opposta del treno dovrebbe avere invece la velocità di c-150
Kmh, cioè la velocità della luce meno quella del treno. Questo è quanto si
deve evincere dalla legge della somma delle velocità. Ma questo è proprio
quanto viene negato dalla teoria elettromagnetica, per la quale il raggio di
luce ha la stessa velocità c sia per il passeggero, sia per l’osservatore sul
marciapiede della stazione: è come se la luce dentro il treno si muovesse
e infine con grande precisione dall’americano Albert Michelson nel 1926 (autore del celebre
esperimento effettuato con Edward Morley, esposto nel testo).
52/229
Lezioni di logica e filosofia della scienza
“ignorando” l’esistenza del treno e del suo moto e quindi percorresse
comunque 300.000 Kms, rispetto a qualsiasi sistema di riferimento
inerziale, sia S che S’ o qualunque altro si voglia assumere. Siamo quindi di
fronte ad un problema cruciale: due delle teorie fondamentali della fisica
classica – la meccanica e l’elettromagnetismo, aventi un vastissimo campo
di applicazioni ed innumerevoli conferme sperimentali – sono in contrasto
tra di loro.
Era pertanto fondamentale poter accertare L’esperimento di Michelson e
l’esistenza di questo etere; e per far ciò vennero Morley
condotti da Albert Michelson e Edward Morley
una serie di esperimenti (il primo dei quali nel 1881) aventi lo scopo di
verificare se esistessero delle differenze nella velocità di un raggio di luce
viaggiante in due direzioni tra loro perpendicolari, una delle quali in
direzione del moto della terra. Infatti si riteneva che, se la terra viaggia
attraverso l’etere, un raggio luminoso viaggiante nella direzione del moto
orbitale avrebbe dovuto essere rallentato dal cosiddetto “vento d’etere” che
le veniva incontro controcorrente, mentre un raggio che viaggia in
direzione opposta avrebbe dovuto essere accelerato; analogamente a come
avviene per il suono, la cui velocità dipende dal moto dell’aria che ne
permette la trasmissione. Ma il risultato dell’esperimento non faceva
rilevare alcuna differenza nella velocità della luce e pertanto non sembrava
lasciar vie di scampo: era impossibile rilevare in alcun modo l’esistenza
dell’etere, in quanto gli effetti che esso avrebbe dovuto esercitare sulla
velocità della luce non avevano luogo. In conclusione, l’ammissione
dell’etere quale sistema privilegiato, rispetto al quale poteva essere
misurata la velocità della terra, portava a delle conclusioni in contrasto con
l’esperienza.
La “contrazione” di Lorentz
Per spiegare i risultati ottenuti da Michelson e Morley e ad un tempo salvare il
principio della somma delle velocità – salvaguardando così meccanica classica ed
elettromagnetismo, con la connessa idea di etere come mezzo di propagazione
dell’interazione elettromagnetica – i fisici G.F. Fitzgerald e H.L. Lorentz nel 1892,
indipendentemente l’uno dall’altro, formularono l’ipotesi che la mancata differenza
della velocità della luce nelle due direzioni rispetto al moto terrestre fosse causata
dal fatto che i corpi subissero una contrazione nella direzione del loro movimento.
In tale modo, l’apparecchio con cui Michelson e Morley avevano affettuato il loro
esperimento (l’interferometro), subendo una contrazione nella direzione del moto
della terra, avrebbe compensato la differenza che avrebbe dovuto riscontrarsi in
base alla legge della somma delle velocità tra i due raggi di luce. La contrazione dei
corpi era calcolata in base alla formula l ¢ = l 1 -
v2
, dove con l’ viene indicata la
c2
lunghezza del corpo contratto, con l la lunghezza del corpo che non ha subito la
contrazione, con v la velocità del corpo e con c quella della luce. Se ad es. poniamo
che un corpo si muova alla velocità di 240.000 Kms e la sua lunghezza in quiete è
eguale
a
15
decimetri,
risulterà
che
2 4 0 . 0 020
16
9
3
=15 1=15
= 1 5 ¥ = 9 ,per cui la lunghezza del
25
25
5
3 0 0 . 0 020
corpo che si muove alla velocità di 240.000 Kms risulta essere di 9 decimetri, ben 6
decimetri meno di quando era in quiete.
l¢ = 1 5 1 -
53/229
Lezioni di logica e filosofia della scienza
Perchè dunque non abbandonare tale concetto? Einstein: abbandono del conCome conclude Einstein, «tutti i tentativi di fare cetto di etere e primo postudell’etere una realtà sono falliti. Esso non ha lato della teoria della relatività ristretta
rivelato né la propria struttura meccanica, né il
moto assoluto. Nulla è rimasto di tutte le proprietà dell’etere, eccetto quella
per la quale esso venne inventato, ovvero la facoltà di trasmettere le onde
elettromagnetiche. E poiché i nostri tentativi per scoprirne le proprietà non
hanno fatto che creare difficoltà e contraddizioni, sembra giunto il
momento di dimenticare l’etere e di non pronunciarne più il nome»94. In
effetti quando Einstein scrisse il suo articolo del 1905 in cui propose per la
prima volta la teoria della relatività non menziona affatto l’esperimento di
Michelson e Morley, ma era piuttosto motivato da esigenze di semplicità ed
eleganza, ovvero dalla necessità di risolvere il dissidio nel campo della
fisica tra elettromagnetismo e meccanica classica. Era tale esigenza alla
base della sua decisione di abbandonare il sistema di riferimento
privilegiato o assoluto costituito dall’etere e di accettare la validità generale
del principio di relatività galileiana, che si applica non solo ai fenomeni
meccanici, ma anche a quelli elettromagnetici: non è possibile fare alcuna
distinzione tra due sistemi in moto rettilineo uniforme. È questo il primo
postulato fondamentale da cui parte Einstein per formulare la sua teoria:
«Le leggi secondo cui variano gli stati di un sistema fisico non dipendono
dal fatto di essere riferite all’uno o all’altro di due sistemi di coordinate in
moto relativo uniforme»; o, detto, in altri termini: le leggi della fisica hanno
la stessa forma in tutti i sistemi di riferimento inerziali. Insomma, con
questo postulato si estende a tutta la fisica – e quindi anche
all’elettromagnetismo – il principio di relatività galileiana, prima riferito
solo alla meccanica.
Il secondo postulato permette di spiegare nel Il secondo postulato della
modo più semplice il risultato dell’esperimento di teoria della relatività
Michelson e Morley ma, ancora più importante, aaccetta la validità
generale delle equazioni di Maxwell che prevedono teoricamente un ben
preciso valore della velocità della luce, che è appunto quello che si deve
poter misurare indipendentemente dal sistema di riferimento (ecco dunque
il perché dei risultati di Michelson e Morley). Esso consiste, pertanto, nel
sostenere che la velocità della luce è sempre la stessa (eguale a c) in tutti i
sistemi di riferimento inerziali, siano essi in moto o in quiete. Ma
l’accettazione di questi due principi – imposta da ragioni teoriche e
dall’evidenza sperimentale – porta a rigettare il presupposto che era alla
base della meccanica classica, cioè la legge della somma della velocità:
questa non può più essere rigorosamente valida e di conseguenza si impone
la necessità di riformulare le trasformazioni galileiane. A tale scopo,
Einstein dovette costruire una nuova fisica, della quale la vecchia fisica
newtoniana rappresenta una approssimazione utile solo nel caso in cui si
prendono in considerazione velocità molto piccole rispetto a quella della
94
A. Einstein, L. Infeld, op. cit., p. 184.
54/229
Lezioni di logica e filosofia della scienza
luce.
In questa nuova fisica viene sottoposto a Cambia anche il concetto di
radicale modifica non solo il concetto di spazio tempo: analisi della simulta(come abbiamo visto, con l’abbandono della sua neità
assolutezza), ma anche quello di tempo. Ciò viene
effettuato con l’analisi critica del concetto di simultaneità di due eventi, che
porta Einstein a concludere che in due diversi sistemi inerziali eventi che
sono contemporanei per l’osservatore posto in uno di essi non sono
contemporanei per un osservatore posto nell’altro sistema di riferimento.95
Ne concludiamo che un orologio cambia il suo ritmo quando è in moto e
che quanto più un sistema inerziale si muove ad una velocità vicina alla
luce, tanto più il tempo in esso scorre lentamente. Insomma, anche il
tempo, oltre allo spazio, non è assoluto e non scorre uniformemente in tutti
i sistemi di riferimento, così come richiesto dalla meccanica classica96. Ne
segue anche che la lunghezza di un regolo muta in diversi sistemi di
riferimento in quanto la sua misura non può fare a meno di misure prese in
successivi momenti temporali, che dipendono a loro volta dal sistema di
riferimento; più esattamente, per un osservatore in un sistema K i regoli
posti nel sistema K’ si accorciano quanto più la differenza nella velocità tra
i due sistemi si avvicina a quella della luce (ma ovviamente rimangono
eguali per un osservatore che si muove con essi); lo stesso può dirsi di un
osservatore posto nel sistema K’ quando osservi un regolo posto nel sistema
K. Anche la lunghezza come il tempo è relativa.
Poiché le nozioni di lunghezza e di tempo sono Il continuo quadridimensiofondamentali per qualsiasi considerazione scienti- nale di Minkowski
fica di qualsivoglia evento naturale, il quale non
può mai essere collocato fuori dallo spazio e dal tempo, la teoria di Einstein
comportava una radicale modificazione dell’intera fisica e dava l’avvio a
una nuova fisica relativistica che, lasciati cadere i concetti assoluti di spazio
e di tempo, considerava gli eventi fisici rispetto a spazi e tempi relativi
95
Riportiamo la spiegazione di questo fatto fornita da L. Infeld, che per dieci anni collaborò
con Einstein nello sviluppo della teoria della relatività (Albert Einstein, Einaudi, Torino 1968, p.
41): «Dal centro di un treno (sistema mobile) mandiamo in uno stesso istante due raggi di luce in
due direzioni opposte. Poiché la velocità della luce (c) è costante per l’osservatore posto
all’interno del suo sistema questi due raggi di luce raggiungeranno le pareti opposte nello stesso
tempo e per lui questi due avvenimenti (l’incontro dei raggi di luce con le due pareti opposte)
saranno contemporanei. Che cosa dirà l’osservatore posto all’esterno (sulla terra)? Anche per lui la
velocità della luce è ancora la costante c nel suo sistema; ma guardando il treno egli vede che una
parete si allontana dalla luce e una le si avvicina. Quindi, per lui un raggio di luce colpirà prima la
parete che si muove verso di esso, e dopo un certo tempo la parete che da esso si allontana. Ciò
porta all’inevitabile conclusione che due eventi simultanei per gli osservatori posti in un sistema
non sono simultanei per gli osservatori di un secondo sistema in moto uniforme rispetto al primo».
96 Una conseguenza di questa relatività del tempo è il cosiddetto «paradosso dei gemelli»,
escogitato dai fisici del tempo per criticare la teoria della relatività evidenziando le assurdità cui
essa conduceva. Immaginiamo che di due fratelli gemelli uno resta sulla terra e l’altro parte per un
viaggio su di un’astronave che viaggia ad una velocità prossima a quella della luce. Il tempo nel
sistema di riferimento dell’astronave scorre più lentamente e quindi quando il gemello ritorna dal
suo viaggio cosmico troverà il proprio fratello molto più invecchiato di lui. Benché questo
esempio sia stato portato per denigrare la teoria di Einstein, in effetti le cose stanno proprio come
esso le descrive e questo è stato possibile constatarlo con un esperimento condotto già nel 1938 da
Ives sull’atomo di idrogeno.
55/229
Lezioni di logica e filosofia della scienza
all’osservatore. Con l’abbandono dello spazio assoluto e del tempo assoluto
veniva a crollare il quadro concettuale in cui era iscritto il grande e
gloriosissimo universo-macchina newtoniano. Spazio e tempo non sono più
grandezze reciprocamente indipendenti, ma strettamente correlate tra loro
in modo da formare un’unica entità chiamata spazio-tempo: è questo il
continuo quadridimensionale (o spaziotemporale) con il quale il matematico Hermann Minkowski sintetizzò nel 1908 in elegante forma
geometrica le conseguenze della relatività speciale (o ristretta), affermando
che «lo spazio in sé e il tempo in sé sono destinati a svanire come mere
ombre, e solo una certa unità fra i due conserverà una realtà autonoma»97.
Nasce il problema di trovare il modo per pas- La trasformazioni di Lorentz
sare da un sistema di riferimento all’altro, modo sostituiscono quelle di Galileo
che nella fisica classica era assicurato dalle trasformazioni galileiane. Questo fu assicurato dalle cosiddette trasformazioni
di Lorentz, già note in quanto proposte per spiegare la mancata rilevazione
del vento d’etere mediante l’ipotesi della contrazione dei corpi lungo la
direzione del movimento; esse permettono di trovare le coordinate di spazio
e di tempo in un sistema se queste sono note nell’altro sistema e se è nota
anche la velocità relativa tra i due sistemi. La differenza rispetto alle
trasformazioni galileiane consiste nel fatto di considerare ora la variabile
tempo non più eguale in ogni sistema (ipotesi dello scorrimento uniforme
del tempo), ma diversa, in quanto dipendente dal ritmo degli orologi, che
varia al variare della velocità del sistema al quale essi appartengono.
Tuttavia la discordanza tra i due tipi di trasformazioni è avvertibile solo per
velocità assai prossime a quella della luce, mentre per velocità molto
piccole (quelle che di solito riscontriamo nell’esperienza di ogni giorno ed
anche in astronautica) le trasformazioni galileiane rappresentano una buona
approssimazione. L’importanza delle trasformazioni di Lorentz consiste nel
fatto che tutte le leggi di natura sono invarianti rispetto ad esse (sia quelle
della meccanica, sia quelle dell’elettrodinamica). Su questa base è possibile
allora costruire una nuova fisica: è questo quanto volle fare Einstein nella
sua opera del 1905, unificando così le due branche della fisica, la teoria
meccanica e quella dei campi, non grazie all’ipotesi dell’esistenza di un
etere, ma per mezzo del suo nuovo principio di relatività che assicura
l’invarianza delle leggi di natura mediante le trasformazioni di Lorentz. «La
teoria della relatività esige che tutte indistintamente le leggi della natura
siano invarianti rispetto alla trasformazione di Lorentz anziché rispetto alla
trasformazione galileiana. Quest’ultima si riduce allora ad un caso speciale
o caso limite della trasformazione di Lorentz, al caso cioè, in cui le velocità
relative di due sistemi di coordinate sono molto piccole»98.
Le trasformazioni di Lorentz
97
H. Minkowski, cit. in P. Coveney – R. Highfield, La freccia del tempo, Rizzoli, Milano
1991, p. 89. Cfr. su ciò A. Einstein, Il significato…, cit., pp. 38-40.
98 A. Einstein, L. Infeld, op. cit., p. 202. Cfr. anche A. Einstein, Autobiografia scientifica,
Boringhieri, Torino 1979, p. 36.
56/229
Lezioni di logica e filosofia della scienza
Abbiamo visto che per le trasformazioni di Galileo si poneva x’=x-vt, y’=y, z’=z e
t’=t, assumendo che il sistema di riferimento K’ si muova rispetto al sistema di
riferimento K solo lungo l’asse x e che il tempo scorra uniformemente per entrambi
(per cui t’=t). Le trasformazioni di Lorentz sono invece caratterizzate dalle seguenti
x -vt
equazioni (sempre assumendo il moto solo lungo l’asse x): x ¢ =
, y’=y, z’=z
v2
1c2
v
tx
c 2 . Per cui per passare da un sistema di riferimento K’ al sistema di
e t¢ =
1-
v2
c2
riferimento K occorre applicare queste equazioni. Facciamo un esempio.
Supponiamo che il sistema K’ si muova alla velocità di v = 240.000 Kms rispetto a
K, partendo da un punto A, e supponiamo che un osservatore nel sistema K fermo
nel punto A constati che dopo un tempo t = 10 sec. avviene in K’ un certo
fenomeno ad una certa distanza x da K. Si tratta di calcolare dopo quanto tempo t’
tale fenomeno si verifica per un osservatore solidale col sistema di riferimento K’. È
ovvio che dopo 10 sec. il sistema K’ avrà percorso una distanza pari a 2.400.000
Km (ottenuti moltiplicando velocità per tempo). Vediamo ora quanto tempo sarà
trascorso relativamente al sistema K’. Applichiamo la quarta equazione di Lorentz:
1 0t¢ =
2 4 0.0 0 0
2
3 0 0. 0 0 0
1-
¥ 2. 4 0 0. 0 0 0 1 0-
2 4 0.0 0 02
3 0 0.0 0 02
=
24
¥ 2 4 0 1 0 - 2 4 ¥ 2 4 0 1 0- 4 ¥ 8 1 8
18 5 18
900
5
=
=
= 5 =
¥ =
=6
3
5
3
3
2
2
1
6
24
4
1115
25
3 02
52
3 02
Per cui l’evento che per l’osservatore posto in K avviene dopo 10 sec., avviene
invece per l’osservatore in K’ dopo soli 6 sec., a dimostrazione che per un sistema la
cui velocità si approssima a quella della luce il tempo si “accorcia”, “scorre più
lentamente”. Si faccia attenzione al fatto che tra i due sistemi di riferimento K e K’
vale il principio della reciprocità; infatti, rispetto al sistema di riferimento K sono in
moto rettilineo uniforme i corpi del sistema K’ ed è in essi che il tempo rallenta. Ma
un osservatore posto nel sistema di riferimento K’ non nota nessun cambiamento
nel ritmo di scorrimento del proprio tempo, in quanto per esso è il sistema K in
moto rettilineo uniforme e quindi è in questo sistema che il tempo rallenta.
Bisogna però osservare che nel contesto della teoria della relatività ristretta le
equazioni di Lorentz – originariamente proposte per spiegare l’esito negativo
dell’esperimento di Michelson e Morley – non hanno la funzione di salvare la tesi
dell’esistenza dell’etere, ma sono introdotte come conseguenza della accettazione
dei due presupposti che Einstein aveva posto alla base della propria teoria99. Esse,
infatti,
Il fatto che le trasformazioni galileiane siano una buona approssimazione di quelle di
Lorentz per velocità molto piccole si può illustrare con un esempio. Se infatti
poniamo nelle equazioni di Lorentz una velocità del corpo in movimento molto bassa
rispetto a quella della luce, vedremo che il risultato si scosterà molto poco da quello
v
ottenuto con le formule classiche. Se infatti è
<< 1 (col simbolo << si indica
c
“molto minore di”) si avrebbe che
v2
c2
ª 0 (con il simbolo ≈ che significa
99
Cfr. A. Einstein, Relatività, cit., p. 85
57/229
1-
v2
ª 1 , onde la prima e la
c2
quarta equazione di Lorentz si ridurrebbero a quelle di Galileo. Si potrebbe
paragonare il rapporto tra la relatività speciale e la fisica classica a quello esistente
tra la trigonometria sferica e quella piana: dalle formule della prima si ottengono
quelle della seconda quando si supponga che il raggio della sfera sia infinito e che
“approssimativamente eguale a”) e quindi sarebbe
Lezioni di logica e filosofia della scienza
quindi la curvatura sie eguale a zero. Analogamente dalle formule della relatività
ristretta possiamo ricavare quelle della fisica classica quando su supponga che la
velocità della luce sia infinitamente grande. In tal caso nella espressione
1-
v2
c2
la
frazione v / c diventa eguale a zero e si avrebbe
1 - 0 = 1 = 1, per cui le
trasformazioni di Lorentz si riducono a quelle di Galileo. Ciò sta ad indicare che le
previsioni della teoria della relatività ristretta diventano indistinguibili da quelle della
meccanica classica quando le velocità prese in considerazioni sono molto più piccole
di quella della luce.
Un’altra importante conseguenza della teoria La convertibilità tra massa ed
della relatività, da Einstein tratta negli anni energia
successivi, è consistita nella unificazione delle
due leggi classiche di conservazione accettate nel diciannovesimo secolo: la
legge della conservazione della massa e la legge di conservazione
dell’energia100. Per il fisico classico massa ed energia sono entità
nettamente distinte sia qualitativamente che quantitativamente: un corpo
che riceve energia (ad es. venga riscaldato) non cambia di massa; e
viceversa l’energia può generare solo lavoro, ma non massa (così come
dimostrato dalle macchine termiche ben studiate in termodinamica). Invece
grazie alla teoria della relatività Einstein dimostra che l’energia non è
qualcosa di imponderabile, ma possiede anche una massa ben definita,
anche se estremamente piccola; ed a sua volta la massa ha un’energia.
Insomma non vi sono due principi di conservazione, ma solo uno, il
principio di conservazione della massa-energia, che viene sintetizzato nella
celebre formula
E=mc2
cioè l’energia è uguale alla massa del corpo moltiplicata per il quadrato
della velocità della luce.
Questa conseguenza deriva anch’essa dal La velocità della luce come
limite della velocità della luce. Se nessun corpo limite insuperabile
può superare la velocità della luce, ciò significa
che non può essere ulteriormente accelerato; ma questo avviene solo se al
crescere della sua velocità, e cioè della sua energia cinetica, cresce anche la
sua massa inerziale: per esempio, a una velocità pari al 10% di quella della
luce la massa di un corpo aumenta solo dello 0,5%; al 90% di c, essa
aumenta a più del 200%. Man mano che il corpo si approssima alla velocità
della luce la sua massa aumenta sempre più rapidamente richiedendo per la
sua ulteriore accelerazione una quantità di energia sempre maggiore; alla
velocità della luce, la sua massa diventerebbe infinita, in modo tale da
richiedere per la sua accelerazione una energia infinita. Il che significa che
nessun corpo può raggiungere la velocità della luce, a meno che non sia
privo di massa (come appunto accade con i fotoni, le particelle che
100
L’articolo in cui appare per la prima volta è del 1907, “Relativitätsprinzip und die aus
demselben gezogenen Folgerungen”, in Jahrbuch der Radioaktivität, 4, pp. 411-62; 5, pp. 98-99.
58/229
Lezioni di logica e filosofia della scienza
trasmettono la luce). Ma se la massa varia al variare della velocità, allora
l’energia cinetica deve possedere una massa, per quanto piccola e
trascurabile alle velocità cui siamo normalmente abituati. E il rapporto tra
massa ed energia cinetica (che non è altro che una delle forme che l’energia
può assumere) è dato appunto dalla formula E=mc2, che introduce il nuovo
principio della conservazione della massa-energia. Da come si evince dalla
formula, per produrre una grandezza estremamente piccola di massa
occorre una grande quantità di energia; ciò spiega perché nei normali
fenomeni termici non si avverte nessun cambiamento della massa quando a
questa viene fornita energia: esso è così piccolo da non poter esser rilevato
neanche con le bilance più sensibili. Ad esempio, la quantità di energia in
grado di trasformare interamente in vapore mille tonnellate di acqua
peserebbe circa un trentesimo di grammo. La convertibilità tra massa ed
energia è alla base della possibilità di trarre energia dalla massa: è su questo
principio che si basano le bombe atomiche e le centrali elettriche nucleari,
in quanto la frammentazione del nucleo di un minerale pesante come
l’uranio libera una enorme quantità di energia.
La relazione tra massa in quiete e in moto: un esempio
L’equazione che regola la relazione tra la massa in quiete m e la massa in moto m’
presenta al solito il radicale tipico delle trasformazioni di Lorentz, per cui abbiamo
m
; se un corpo si nuovesse con la velocità della luce, sarebbe v = c
che m¢ =
v2
1c2
per cui il radicale della precedente formula sarebbe eguale a 1 -
m
, che dà una grandezza infinita. Nel caso
0
quanto detto nella nota 106, si ponga la velocità della
m
m
=
=
grande, avremmo ottenuto che m¢ =
2
v
v2
11•
c2
sarebbe m¢ =
c2
c2
=
1 -1 = 0e
in cui, conformemente a
luce come infinitamente
m
m
=
= m, ovvero la
1
1-0
massa del corpo in movimento sarebbe eguale alla massa del corpo in quiete, così
come vuole la fisica classica, per la quale la massa si conserva invariata qualunque
sia la sua velocità.
La teoria presentata da Einstein nel 1905 era La relatività generale come
limitata ai sistemi in moto inerziale (rettilineo e estensione di quella speciale
uniforme). Negli anni successivi Einstein affrontò
il problema di una fisica relativistica per i sistemi non inerziali, cioè quei
sistemi che subiscono una forza, la quale può derivare o dall’influsso del
campo gravitazionale, oppure dalla applicazione di una accelerazione. Se
con la meccanica classica si era provata la invarianza di tutte le leggi della
dinamica nei sistemi inerziali (grazie alle trasformazioni di Galilei), e con
la relatività speciale era stata affermata l’invarianza di tutte le leggi della
fisica nei sistemi inerziali (grazie alle trasformazioni di Lorentz), si trattava
ora di trovare una teoria per la quale tutte le leggi della natura fossero
valide in un sistema arbitrario (sia esso inerziale o meno): «Le leggi della
59/229
Lezioni di logica e filosofia della scienza
fisica devono essere di natura tale che esse si possano applicare a sistemi
di riferimento comunque in moto. Seguendo questa via giungiamo a una
generalizzazione della teoria della relatività [ristretta]»101. Questa
generalizzazione fu appunto la teoria della relatività generale proposta nel
1916, per elaborare la quale Einstein lavorò duramente per anni, dovendosi
anche dotare di un apparato matematico assai complesso, ancora appena
abbozzato in quegli anni.
Come sappiamo, le leggi che governano un Il principio di equivalenza tra
fenomeno fisico che avvenga in un sistema in massa gravitazionale e masmoto non inerziale non sono invarianti, in quanto sa inerziale
devono tener conto dell’influenza esercitata
dall’accelerazione; per cui in tutti i sistemi di riferimento accelerati le leggi
di Newton sono valide solo introducendo le cosiddette forze inerziali, come
per es. la forza centrifuga per un corpo in moto curvilineo (che subisce per
suo effetto una spinta in direzione opposta alla curva seguita). Pertanto
l’accelerazione è un concetto assoluto, indipendente dallo stato di
movimento dell’osservatore; esso sembra implicare l’esistenza di sistemi di
riferimento privilegiati; le trasformazioni di Lorentz non potevano essere
applicate a sistemi di riferimento non inerziali. Come superare questa
limitazione, in modo da ottenere una teoria valida per ogni sistema di
riferimento, indipendentemente dal suo stato di moto? La risposta prese la
forma di una teoria della gravitazione basata sull’estensione del principio di
equivalenza, valido nella fisica newtoniana per i sistemi meccanici102, a tutti
gli altri processi fisici. In tal caso esso prende la seguente forma: «Per ogni
ragione spazio-temporale infinitamente piccola (così piccola, cioè, che in
essa la variazione spaziale e temporale della gravità possa venire
trascurata) esiste sempre un sistema di coordinate K0 (x1, x2, x3, x4) nel
quale è assente ogni effetto della gravità sia sul movimento dei punti
materiali, che su qualunque altro fenomeno fisico. In breve, è sempre
possibile eliminare qualunque campo gravitazionale in regioni di universo
infinitamente piccole»103. Tale eliminazione è possibile solo in quanto sono
poste come eguali la massa gravitazionale e la massa inerziale, ovvero
gravità ed accelerazione. Detto più semplicemente, il principio di
equivalenza afferma che qualunque sistema di riferimento posto in un
campo gravitazionale uniforme e costante nel tempo è del tutto equivalente,
per quanto riguarda i fenomeni fisici, ad un sistema sottoposto ad una
opportuna accelerazione costante e posto in una zona di spazio in cui il
campo gravitazionale è nullo. Ne segue che è sempre possibile scegliere, in
una zona delimitata dello spazio-tempo, un opportuno sistema di
101 A. Einstein, “Die Grundlage der allgemeinen Relativitätstheorie”(1916), trad. it. “I
fondamenti della teoria della relatività generale”, in M. Pantaleo (a cura di), Cinquant’anni di
relatività, Editrice Universitaria, Firenze 1955, p. 511.
102 Ne diamo la formulazione di Wolfgang Pauli: «Nella teoria newtoniana, un sistema situato
in un campo gravitazionale uniforme è perfettamente equivalente, dal punto di vista meccanico, a
un sistema di riferimento uniformemente accelerato» (W. Pauli, Teoria della relatività,
Boringhieri, Torino 1964, pp. 212-3).
103 Id., pp. 216-7.
60/229
Lezioni di logica e filosofia della scienza
riferimento in modo da simulare l’esistenza di un dato campo gravitazionale uniforme o, reciprocamente, in modo da eliminare l’effetto della
forza di gravità costante. Insomma, per fare un esempio, un passeggero
chiuso in un sistema isolato non ha la possibilità di distinguere se la forza
che lo tiene attaccato al pavimento derivi dalla forza gravitazionale che lo
attrae verso una data massa oppure sia causata da una accelerazione del suo
sistema in direzione opposta alla forza: non è possibile distinguere in alcun
modo una forza gravitazionale da una forza inerziale, essendo gli effetti
dell’una spiegabili come dovuti all’altra e viceversa. Una conseguenza di
tale equivalenza è il fatto che un raggio di luce (come anche tutte le onde
elettromagnetiche, le onde radio ecc.) dovrebbe essere deviato da un campo
gravitazionale, come se fosse costituito da particelle dotate di massa e
quindi di peso: viene così gettato un ponte fra gravitazione ed
elettromagnetismo.
Massa inerziale e massa gravitazionale
Nella fisica classica per massa inerziale (o inerte) si indica la capacità di un corpo di
resistere ad una forza ad esso applicata, volta a modificarne lo stato di moto o di
quiete. È una banale constatazione empirica osservare che un corpo più pesante
oppone maggior resistenza, sicché per spostare un corpo che pesa il doppio di un
altro corpo occorre impiegare il doppio della forza. È quanto del resto viene
espresso dal secondo principio della dinamica: «un corpo soggetto all’azione di una
forza subisce un’accelerazione direttamente proporzionale alla forza e avente la
stessa direzione e lo stesso verso di questa», che in formule si indica con F = m a
(con F = forza, m = massa e a = accelerazione). Per cui la massa è eguale a
F
m = , dove la m indica appunto la massa inerziale. Per massa gravitazionale si
a
intende invece la capacità di un corpo di resistere all’azione di un campo
gravitazionale. Così sappiamo dalle esperienze di Galileo che un corpo che sia
lasciato cadere liberamente ha una velocità di caduta indipendente dalla sua massa:
due corpi aventi diversa massa cadono (eliminando le perturbazioni dell’aria) con la
stessa accelerazione e quindi raggiungono la terra nello stesso momento. In questo
caso dunque, per accelerare un corpo a partire da uno stato di quiete (quando viene
rilasciato) non occorre esercitare una forza proporzionale alla massa da esso
posseduta. I due fenomeni esprimono concetti del tutto diversi: un corpo ha una
massa inerziale indipendentemente dalla sua relazione con altri corpi e solo nella
misura in cui oppone resistenza ad una qualunque forza ad esso applicata; invece
un corpo ha una massa gravitazionale solo in quanto è attratto da un altro corpo.
Roland von Eötvös ideò nel 1889 un esperimento per misurare il rapporto tra le due
masse, pervenendo alla conclusione che il rapporto tra massa gravitazionale e
massa inerziale è lo stesso per tutti i corpi con una precisione di 1 su 109; si
constata così sperimentalmente che la massa gravitazionale e la massa inerziale di
un corpo sono eguali tra loro, anche se non si riesce a capirne la ragione; come
afferma Einstein, «l’eguaglianza di queste due masse, definite in maniera così
diversa, è un fatto confermato da esperienze di grandissima precisione […], ma la
meccanica classica non offre alcuna giustificazione di una tale eguaglianza»104. È
forse questa circostanza una fortuita e fortunata, per quanto inesplicabile,
coincidenza, dovuta ad un capriccio della natura? Come si conciliano tra loro questi
due aspetti della massa? È per rispondere a queste domande che Einstein propone il
principio di equivalenza, facendo di questa eguaglianza un assioma su cui costruire
una nuova teoria della realtà che estendesse la relatività ristretta.
104
Einstein, Il significato…, cit., p. 64.
61/229
Lezioni di logica e filosofia della scienza
Tuttavia Einstein non si fermò a ciò, in quanto La curvatura dello spaziopropose una interpretazione geometrica della tempo per effetto del campo
gravitazione, per la quale lo spazio, sinora ritenuto gravitazionale
come euclideo, in effetti non è “piatto”, bensì
curvo in quanto “piegato” o “distorto” dalle masse gravitazionali in esso
esistenti. Applicando l’apparato teorico delle geometrie non euclidee105,
pervenne alla conclusione che la luce si propaga seguendo il cammino più
breve tra due punti, come previsto dalle leggi dell’ottica e dell’elettromagnetismo, ma questo cammino non coincide con la retta euclidea se nello
spazio è presente un campo gravitazionale. Dal principio di equivalenza fra
inerzia e gravitazione Einstein trasse la conseguenza che anche il tempo
viene influenzato dal campo gravitazionale: un orologio posto in un campo
gravitazionale rallenta il suo moto. Questo effetto è noto come “dilatazione
gravitazionale dei tempi” (che non deve essere confusa con la dilataziona
dei tempi della relatività speciale, dovuta al moto del sistema di
riferimento). Per spiegare sia il rallentamento degli orologi che la curvatura
dello spazio Einstein postula che il campo gravitazionale renda non
euclidea la struttura dell’intero spazio-tempo, per cui abbiamo a che fare
con un unico fenomeno fisico: la curvatura dello spazio-tempo dovuta al
campo gravitazionale. In tal modo lo spazio ed il tempo non solo non sono
più assoluti, come riteneva Newton, e non sono neanche indipendenti dai
fenomeni che in essi avvengono, i quali ne definiscono la geometria
attraverso la distribuzione di masse ed energia, che determina il campo
gravitazionale.106
Benché la teoria della relatività generale fosse Le verifiche sperimentali delestremamente complicata e matematicamente la teoria
complessa, essa dava tuttavia la possibilità di
prevedere alcuni effetti della curvatura dello spazio-tempo suscettibili di
verifica sperimentale. Tra questi menzioniamo la deviazione che un raggio
luminoso proveniente da una stella subisce quando attraversa il campo
gravitazionale del Sole; lo spostamento del perielio di Mercurio nel suo
moto di rivoluzione intorno al Sole; e lo spostamento verso il rosso della
luce proveniente dal Sole o da altre stelle. Ebbene il primo effetto è stato
verificato per la prima volte nel 1919 da Sir Arthur Eddington mediante
105
Sulle geometrie non euclidee vedi il capitolo terzo, § 1.6.
«Con la fusione di gravitazione e metrica trova una soluzione soddisfacente non solo il
problema della gravitazione, ma anche quello della geometria. Le domande circa la verità dei
teoremi geometrici e la geometria effettivamente valida nello spazio sono prive di significato, fino
a che la geometria si occupa solo di oggetti ideali e non di quelli del mondo dell’esperienza. Se si
aggiunge ai teoremi della geometria la definizione in base alla quale la lunghezza di un segmento
(infinitamente piccolo) è il numero ottenuto mediante regoli rigidi o fili di misura secondo un ben
definito metodo, allora la geometria diventa un ramo della fisica e i predetti interrogativi
acquistano un ben preciso significato. A questo punto la teoria della relatività generale permette di
enunciare la seguente proposizione. Poiché la gravitazione è determinata dalla materia, dobbiamo
postulare la stessa cosa anche per la geometria. La geometria dello spazio non è data a priori, ma
risulta determinata dalla materia. […] Una concezione analoga era già in Riemann. Ma allora
poteva soltanto rimanere un ardito progetto, poiché la deduzione del rapporto tra geometria e
gravitazione è possibile solo quando sia già stata riconosciuta l’interconnessione metrica dello
spazio e del tempo» (W. Pauli, op. cit., pp. 221-2).
106
62/229
Lezioni di logica e filosofia della scienza
l’osservazione della luce delle stelle circostanti il Sole durante la sua
eclisse; anche il secondo e terzo effetto sono stati sperimentalmente
verificati, sicché si può a ragione dire che la teoria della relatività generale
è ben confermata, superando lo scetticismo che scienziati e filosofi
nutrirono verso di essa quando fu proposta per la prima volta.
L’opera di Einstein non ha avuto solo un signi- Il significato filosofico della
ficato profondo per la scienza fisica, ma ha anche relatività: Einstein ‘filosofo
comportato delle consequenze rilevanti sul piano implicito’
filosofico. Come ha sostenuto Hans Reichenbach, sarebbe un errore credere
che la teoria della relatività non sia anche una teoria filosofica; infatti,
benché Einstein personalmente sia rimasto sostanzialmente un «filosofo
implicito» e non si sia addentrato in un esame filosofico della sua teoria,
tuttavia essa «ha conseguenze radicali per la teoria della conoscenza: ci
costringe a riprendere in esame certe concezioni tradizionali che hanno
avuto una parte importante nella storia della filosofia e dà una soluzione a
certe questioni, vecchie come la storia della filosofia, che prima non
ammettevano alcuna risposta»107. A sua volta per Moritz Schlick, la teoria
della relatività è strettamente legata alla filosofia, da un duplice punto di
vista: metodologico, in quanto Einstein rigettò l’ipotesi puramente fisica di
Lorentz e Fitzgerald sulla contrazione dei corpi in movimento sulla base di
un principio puramente epistemologico, «il principio che solo qualcosa di
realmente osservabile dovrebbe essere introdotto come base per la
spiegazione nella scienza»108, e questo è un requisito filosofico, non una
proposizione sperimentale. Per cui si può ben affermare che la teoria della
relatività «tende per propria natura verso la filosofia e cerca qui le sue basi
e il suo compimento. Essa persegue l’approccio scientifico sino al limite
più spinto, al di là del quale essa non può ulteriormente procedere, e si
rende conto che la decisione finale può essere ottenuta solo sulla base di un
principio filosofico. Essa deve concedere alla filosofia l’ultima parola
[…]»109. Ma la teoria della relatività ha anche conseguenze sulla filosofia,
ed è questo il suo secondo aspetto, quello materiale: essa, infatti, può
fornire contributi diretti alla soluzione di vecchi problemi filosofici (come
ad es. quello dello spazio e del tempo, della sostanza, dell’a priori, ecc.) e
dare sostegno alla filosofia dell’empirismo, come quella più adeguata per
intenderne le caratteristiche110.
Tale rilevanza filosofica delle teorie einsteiniane è testimoniato dal
dibattito immediatamente seguente alla loro presentazione e diffusione, nel
quale furono impegnati filosofi e scienziati di diversa formazione ed
orientamento filosofico, ciascuno dei quali cercava di interpretarne concetti
e risultati alla luce delle proprie convinzioni. Non ci dilungheremo su tutte
107 H. Reichenbach, “Il significato filosofico della teoria della relatività”, in A. Einstein,
Autobiografia scientifica, cit., p. 176.
108 M. Schlick, “The Theory of Relativity in Philosophy” (1922), in Philosophical Papers, vol.
I (1909-1922), ed. by H.L. Mulder and B. F.B. van de Velde-Schlick, Reidel, Dordrecht 1979, p.
345.
109 Ib., p. 344.
110 Cfr. ib., pp. 347 ss.
63/229
Lezioni di logica e filosofia della scienza
le diverse interpretazioni che ne sono state fornite; ci limiteremo ad
accennare a quelle che sono state più significative per il dibattito
epistemologico che fu alla base dell’elaborazione dei principali concetti
della filosofia della scienza di questo secolo.111
Innanzi tutto occorre sgombrare il campo da
Un possibile equivoco: conun possibile equivoco cui potrebbe indurre lo fondere relatività fisica e restesso termine di “relatività”. Si potrebbe infatti lativismo filosofico
pensare – e qualche filosofo in passato l’ha fatto –
che tale teoria deponga a favore di una visione relativistica della
conoscenza, una sorta di scetticismo o protagorismo santificato con i crismi
della scienza contemporanea: “tutto è relativo”, si dice, intendendo con ciò
affermare che tutto dipende dalla soggettività dell’osservatore; che non è
possibile quindi pervenire a nessuna conoscenza intersoggettiva, erigendo a
canone il capriccio del singolo. Nulla di più errato. Come osservava già nel
1925 un grande filosofo e logico come Bertrand Russell, presentando la
teoria della relatività in un’opera magistralmente divulgativa, questa «è
volta a escludere quel che è relativo e a giungere ad una sistemazione delle
leggi fisiche che sia completamente indipendente dalle condizioni
dell’osservatore»112. Infatti, «la “soggettività” di cui parla la teoria della
relatività è una soggettività fisica, che esisterebbe anche se nel mondo non
ci fosse proprio niente di simile ai cervelli e ai sensi. Inoltre, si tratta di una
soggettività strettamente limitata. La teoria non dice che tutto è relativo; al
contrario mette a disposizione una tecnica per distinguere quel che è
relativo da quel che a buon diritto fa effettivamente parte di un fenomeno
fisico»113. E come ha commentato un fisico contemporaneo esperto in
relatività, Mendel Sachs, «secondo le idee di Einstein quello che bisogna
considerare come relativo è il linguaggio che il singolo osservatore deve
usare per esprimere delle leggi assolute della materia; queste sono invece
indipendenti da ogni sistema di riferimento. Cosicché la teoria della
relatività è da considerare in realtà una teoria degli assoluti; infatti
concentra l’attenzione sulle leggi della natura piuttosto che sul linguaggio
che le esprime. Essa non ha quindi niente a che fare col relativismo
filosofico, contrariamente a ciò che molti hanno voluto credere»114. Del
resto è quanto viene espresso dallo stesso “principio di relatività”, per il
quale – come abbiamo visto – tutte le leggi della natura devono essere
formulate in modo da essere indipendenti dal sistema di riferimento e dal
modo in cui qualunque osservatore collocato in uno di essi potrebbe
111 Per una presentazione complessiva delle varie interpretazioni della teoria della relatività si
può consultare utilmente U. Giacomini, “Esame delle discussioni filosofico-scientifiche sulla
teoria della relatività”, in L. Geymonat, Storia del pensiero filosofico e scientifico, Garzanti,
Milano 1972, vol. VI, pp. 439-468 e P. Parrini, “Empirismo logico e filosofia della scienza”, in M.
Dal Pra (a cura di), Storia della filosofia contemporanea / La prima metà del Novecento, II ed.,
Vallardi – Piccin, Milano 1991, pp. 425-34, § 1 (“La discussione sul significato filosofico della
teoria della relatività: Weyl, Dingler, Cassirer, Schlick, Reichenbach”).
112 B. Russell, L’ABC della relatività (1925), Longanesi, Milano 1961, p. 23.
113 Id., pp. 224-5.
114 M. Sachs, “Il realismo astratto di Einstein”, in Laboratorio Quaderni, 1987 (numero zero),
p. 57. Di Sachs vedi anche General Relativity and Matter, Reidel, Dordrecht 1982, cap. I.
64/229
Lezioni di logica e filosofia della scienza
esprimerle; il che non significa altro che asserire l’oggettività di tutte le
leggi di natura.115
Ma in che senso, dunque, la teoria della Le implicazioni filosofiche
relatività ha “implicazioni” filosofiche o può della relatività: la crisi della
costituire per il filosofo – in particolare quello concezione kantiana di spadella scienza – un importante oggetto di rifles- zio e tempo e l’abbandono
del senso comune
sione che ha trasformato il modo in cui erano stati
sino ad allora affrontati certi problemi tradizionali del pensiero? Nel
rispondere a questa domanda l’attenzione è stata puntata innanzi tutto sulla
concezione einsteiniana di spazio e tempo, in quanto su questi temi si erano
storicamente impegnati molti filosofi, sin dall’antichità classica agli anni
più recenti. In particolare, all’epoca in cui Einstein propose la relatività
speciale, aveva un particolare credito, specie in ambito filosofico tedesco,
la concezione di Kant, per la quale lo spazio e il tempo costituivano forme a
priori e trascendentali dell’intuizione sensibile, preesistenti ai fenomeni:
nulla, infatti, si può concepire se non nello spazio e nel tempo. Tale
impostazione, che si rifaceva alle idee di Newton, pur privandole di
sostanzialità per avvicinarle alla soggettività umana, finisce per concepire
lo spazio secondo il modello euclideo ed il tempo come qualcosa di
universale e comune a tutti gli uomini. Come si concilia la posizione di
Kant con le nuove idee portate avanti da Einstein? Mentre i seguaci del
filosofo tedesco cercavano in qualche modo di conciliarne le idee con
quelle della nuova teoria (e tra costoro il più intelligente ed acuto è stato
senza dubbio Ernst Cassirer116), sul versante dei filosofi della scienza il
verdetto fu più univoco: la relatività, a loro avviso, fa cadere il carattere a
priori di spazio e tempo, mostrando come la presunta loro naturalezza
(siano essi intesi in modo sostanziale, come da Newton, sia in modo
trascendentale, come in Kant) nasca solo da un pregiudizio psicologico,
cioè dal fatto che nella nostra esperienza quotidiana abbiamo a che fare con
velocità assai distanti da quella della luce e con campi gravitazionali molto
deboli, circostanze nelle quali gli effetti relativistici prima esposti non si
fanno notare: «[…] se vi fossero esseri umani a cui le esperienze quotidiane
rendessero apprezzabili gli effetti della velocità finita della luce, essi si
abituerebbero alla relatività della simultaneità e considererebbero le regole
della trasformazione di Lorentz necessarie e di per sé evidenti, proprio
come noi consideriamo di per sé evidenti le regole classiche del moto e
della simultaneità. […] Ciò che i filosofi avevano considerato come leggi
della ragione si sono dimostrate essere un adattamento alle leggi fisiche
dell’ambiente circostante; e vi è ragione di credere che, in un ambiente
diverso, un adattamento corrispondente avrebbe portato l’uomo ad avere
un’altra formazione mentale».117 Si assume così sempre più consapevolezza, da una parte, del fatto che è estremamente pericoloso erigere i
115
116
Cfr. id., p. 58. Cfr. anche B. Russell, op. cit., pp. 34-5 e M. Schlick, op. cit., pp. 348-9.
Cfr. E. Cassirer, Sulla teoria della relatività di Einstein (1920), La Nuova Italia, Firenze
1973.
117
H. Reichenbach, “Il significato filosofico…”, cit., pp. 196-6.
65/229
Lezioni di logica e filosofia della scienza
concetti derivanti dalla nostra esperienza quotidiana a principi generali
della natura118 e che pertanto, a lungo andare, le novità introdotte dalla
relatività avrebbero finito per ripercuotersi sul modo con cui finora sono
stati concepiti i rapporti di causalità, l’evoluzione, il tempo e così via,
creando un nuovo senso comune119; dall’altro, si afferma sempre più l’idea
che la filosofia – ancora più che nel passato – non può non tener conto delle
nuove acquisizioni che vengono effettuate nel campo della scienza, che
sono ormai direttamente rilevanti per dare una risposta non più metafisica a
molti problemi tradizionali della storia del pensiero.120
5. La meccanica quantistica.121
Se le teorie viste in precedenza presentavano La messa in discussione del
molteplici aspetti innovativi rispetto alla concetto di determinismo
concezione meccanicistica dominante all’inizio
del XIX secolo, esse conservavano pur sempre un carattere che era stato
considerato, anche entro culture assai antiche come l’aristotelismo,
l’essenza stessa della scienza: tali teorie si fondavano sulla convinzione che
la natura fosse retta da leggi rigorose, deterministiche, di portata universale.
La scienza doveva quindi innanzitutto caratterizzarsi per la ricerca di un
determinismo negli eventi naturali, al di là delle differenti forme che tale
determinismo poteva assumere. La teoria atomistica del Novecento, detta
meccanica quantistica, ha messo in discussione anche questo pilastro
rimasto saldo per millenni, proponendo una scienza che si occupa di corpi
che non sembrano essere soggetti al determinismo e non sembrano
obbedire a leggi rigorose.
L’elaborazione di questa nuova teoria apparve Il progresso della ricerca sula molti una vera e propria lacerazione nella storia l’atomo e lo studio dei
della scienza, una inaccettabile rottura con la modelli atomici
fisica tradizionale, assai più grave di quella
prodotta dalla relatività einsteiniana – e infatti Einstein fu un critico tenace
della fisica atomica. Essa avvenne in stretta connessione con una
sorprendente serie di scoperte sperimentali che, a cavallo tra i due secoli,
dischiusero alla ricerca fisica il mondo degli oggetti atomici. Ancora
all’inizio dell’ultimo decennio dell’Ottocento l’atomo era considerato una
costruzione del pensiero, una convenzione linguistica utile a organizzare un
gran numero di dati sperimentali, soprattutto in chimica; pochissimi
scienziati, tuttavia, erano disposti ad ammettere esplicitamente che a tale
Cfr. W. Heisenberg, Fisica e filosofia (1958), Il Saggiatore, Milano 19662, pp. 150-1.
Cfr. B. Russell, L’ABC…, cit., pp. 229-30.
120 In questa direzione si sono mossi in particolare i filosofi che hanno sostenuto l’esigenza di
una “filosofia scientifica”, dei quali Bertrand Russell è stato uno dei più significativi esponenti, o
che hanno cercato di sviluppare le potenzialità filosofiche della teoria della relatività, come ad
esempio ha fatto A.N. Whitehead, che con Russell ha collaborato nella stesura dei Principia
Mathematica (vedi cap. terzo, § 1.7).
121 Questo paragrafo è tratto, con qualche adattamento, da AA.VV., Il testo filosofico, Bruno
Mondadori, Milano 1993, vol. 3/1, unità 20 a cura di R. Maiocchi.
118
119
66/229
Lezioni di logica e filosofia della scienza
concetto corrispondesse una realtà oggettiva, che esistessero realmente in
natura particelle ultime e indivisibili. Nel giro di poco più di un decennio,
grosso modo tra il 1895 e il 1908, non solo ci si convinse che la materia ha
realmente una struttura discontinua, discreta, “atomica”, ma ci si accorse
anche che queste particelle “ultime” sono a loro volta costituite da
particelle ancora più piccole, possiedono una struttura complessa, capace di
comportamenti inaspettati.
Le ricerche sugli spettri degli elementi (cioè sui colori emessi dai vari
elementi chimici ad alte temperature) e sui raggi catodici (radiazioni che si
manifestano in contenitori dai quali è stata estratta l’aria e sottoposti a
campi elettrici e magnetici), la scoperta dei raggi X (radiazioni capaci di
attraversare la materia ponderabile), quella della radioattività naturale (la
capacità che hanno alcune sostanze, come il radio, di emettere
spontaneamente radiazioni analoghe a quelle create artificialmente con i
tubi catodici), gli studi sugli effetti delle interazioni tra radiazioni e atomi,
alcune teorizzazioni sul moto browniano, sull’effetto fotoelettrico, sui
fenomeni diffusivi, tutto questo fiorire di nuove conoscenze sperimentali e
di progressi teorici impose nei primi anni del Novecento una nuova
considerazione del concetto di materia. Era ormai necessario considerare la
struttura atomica della materia come discontinua, ma fu necessario pensare
anche l’atomo come un edificio complesso, una struttura di componenti
ancora più piccole dell’atomo stesso (via via furono introdotti gli elettroni, i
protoni, i neutroni); fu necessario cioè elaborare un modello dell’atomo e di
ricercarne le regole di comportamento.
Tutti gli svariati modelli dell’atomo proposti Bohr e la nascita della fisica
nei primi anni del Novecento tentavano di appli- quantistica: la discontinuità
care al mondo atomico le leggi della fisica che si nel comportamento dell’eleterano dimostrate valide per i corpi macroscopici, trone
ma tutti andavano incontro a difficoltà di vario genere. Nel 1913 Niels Bohr
propose un modello che superava alcune di queste difficoltà pagando però
un prezzo gravissimo: i corpuscoli in movimento all’interno dell’atomo (gli
elettroni) non obbediscono a tutte le leggi della fisica classica. Innanzitutto
gli elettroni non possono muoversi attorno al nucleo dell’atomo lungo tutte
le orbite che sarebbero possibili secondo la teoria meccanica classica:
alcune di queste orbite sono proibite (senza che se ne comprenda il motivo),
altre sono permesse, e queste sono dette orbite stazionarie. Inoltre, quando
un elettrone si muove su un’orbita che gli è permessa non emette radiazione
elettromagnetica, come vorrebbero le equazioni di Maxwell, poiché
altrimenti, perdendo continuamente energia sotto forma di radiazione,
l’atomo non risulterebbe stabile. L’elettrone può emettere radiazione
elettromagnetica (cioè luce) solamente quando passa da un’orbita
stazionaria a un’altra; tuttavia questo passaggio è caratterizzato da una
sostanziale discontinuttà: l’elettrone, infatti, può passare da un’orbita
stazionaria all’altra ma non può esistere, per un postulato fondamentale
della teoria di Bohr, nelle orbite intermedie; esso “scompare” da un’orbita e
“riappare” in un’altra, essendogli proibita l’esistenza in stati intermedi. In
altri termini, nel modello di Bohr l’energia degli elettroni non può variare
67/229
Lezioni di logica e filosofia della scienza
con continuità, poiché ciò comporterebbe la transizione continua da uno
stato all’altro; essa può cambiare solo per scalini bruschi, per salti, per
quanti. L’idea della quantizzazione dell’energia degli elettroni era già stata
introdotta nel 1900 da Max Planck nella trattazione del problema
dell’interazione tra radiazione elettromagnetica e materia ponderabile e
ripresa nel 1907 da Einstein nello studio dell’effetto fotoelettrico, ma era
rimasta ai margini della teorizzazione scientifica; con l’opera di Bohr
questa idea veniva ad assumere un ruolo centrale nella nuova fisica degli
atomi.
La quantizzazione dell’energia rappresentava La rottura con le concezioni
una brusca rottura con la millenaria convinzione scientifiche classiche e la
circa la sostanziale continuità dei processi ‘nuova’ meccanica quantistica
naturali. L’antica massima secondo cui “la natura
non fa salti” era manifestamente violata dal comportamento dell’elettrone
che, nel modello di Bohr, mutava il proprio stato con repentine
discontinuità, con salti quantici. Pur problematico dal punto di vista della
rappresentazione concettuale e modellistica, l’atomo di Bohr era comunque
riuscito a render ragione, in particolare, di alcuni caratteri dei dati della
spettroscopia che altrimenti sarebbero apparsi non collocabili entro una
qualche teorizzazione, e il modello di Bohr rimase il punto di riferimento
fondamentale per gli studi sui modelli atomici per circa un decennio, dando
origine a una impostazione dei problemi della fisica degli atomi che gli
storici chiamano “vecchia meccanica quantistica”. La nuova meccanica
quantistica venne elaborata in pochi anni, tra il 1924 e il 1927, con il
contributo di vari studiosi (de Broglie, Heisenberg, Born, Bohr,
Schroedinger), che partivano da prospettive anche profondamente diverse
tra di loro. I fondamenti teorici elaborati in quegli anni hanno rappresentato
il pilastro su cui è stata costruita tutta la fisica atomica del Novecento.
La nuova meccanica quantistica suscitò un
Natura statistica della nuova
dibattito scientifico e filosofico amplissimo, in meccanica e dualismo tra
quanto presentava aspetti concettuali che rivolu- onde e corpuscoli
zionavano concezioni scientifiche, ma anche
concezioni del senso comune, consolidate da secoli di storia. Due, in
particolare, furono gli aspetti sui quali si focalizzò la discussione: la natura
statistica della nuova fisica e il dualismo tra onde e corpuscoli che essa
introduce.
La teoria quantistica non è in grado di determinare con precisione il
comportamento di una particella atomica, per esempio di un elettrone; essa
può soltanto effettuare una previsione statistica circa il suo movimento in
determinate condizioni. L’elettrone sembra non essere soggetto a leggi
rigorosamente deterministiche, appare dotato di una sorta di “capacità di
scelta” tra vari percorsi possibili (molti parlarono di “libero arbitrio”).
Questa caduta del determinismo mise in difficoltà l’ideale di scienza che
aveva dominato sin da Aristotele, ideale secondo il quale la scienza è
conoscenza dell’universale e si esprime secondo leggi che non ammettono
eccezioni; proprio per questo motivo, grandi scienziati come Einstein,
Planck e Schroedinger si rifiutarono di ammettere che la nuova fisica fosse
68/229
Lezioni di logica e filosofia della scienza
una teoria scientifica completa, definitiva, non superabile da una ulteriore
teoria atomistica che ripristinasse il determinismo degli eventi naturali.
Questi critici finirono però per essere tacitati dai crescenti successi della
meccanica quantistica e si affermò, dell’indeterminismo atomistico, una
interpretazione che si fondava sulle concezioni di Heisenberg.
Per Heisenberg i gravi problemi interpretativi Il principio di indeterminache si associavano alla meccanica quantistica zione di Heisenberg
dipendevano dall’abitudine a usare immagini
ricavate dal mondo dell’esperienza macroscopica per rappresentare gli
oggetti del mondo atomico. Per esempio, quando si rappresenta un elettrone
rotante attorno a un nucleo atomico usando l’analogia di un satellite che
gira attorno a un pianeta, sorgono questioni irrisolvibili quali quella posta
dalla domanda: «Come fa un elettrone a passare da un’orbita a un’altra
senza passare per le orbite intermedie?». L’esperienza non ci fornisce però
alcuna informazione su un concetto quale quello di “orbita” di un elettrone,
il cui movimento non si può in alcun modo seguire passo passo come si fa
con la Luna. Che senso ha parlare allora di grandezze delle orbite o di
forma delle orbite quando queste sono al di là di ogni esperienza possibile?
Dal punto di vista scientifico, nessuno. Meglio allora rinunciare a ogni
visualizzazione, a ogni rappresentazione modellistica degli oggetti atomici,
per limitarsi a trattare teoricamente solo di quei dati circa tali oggetti che
l’esperienza ci consente di raccogliere – per esempio frequenze di radiazioni emesse e intensità luminose. Proprio prendendo in esame quello che
l’esperienza ci permette di dire attorno agli oggetti atomici, Heisenberg
giunse a esprimere il principio basilare della propria interpretazione, il principio di indeterminazione.
Se si considerano le esperienze che ci permettono di ottenere
informazioni sugli oggetti atomici partendo dai princìpi della nuova teoria,
ci si trova di fronte costantemente a una conclusione che è assolutamente
nuova rispetto alla meccanica classica. Nella meccanica classica è possibile
prevedere il comportamento futuro di un corpo se si conoscono in un dato
istante due informazioni sul suo stato, due cosiddette coordinate canoniche.
Le più semplici tra queste coppie di coordinate sono la posizione e la
velocità. Nelle esperienze che riguardano gli oggetti macroscopici si era
sempre ammesso che fosse possibile assumere informazioni empiriche
circa le coordinate canoniche senza perturbare lo stato degli oggetti in
esame: si ammetteva, per esempio, che si potesse misurare in un certo
istante la posizione e la velocità di un corpo con precisione grande a
piacere senza alterare il suo movimento. Se invece di considerare un corpo
macroscopico si considera un oggetto atomico ciò non risulta più possibile:
non è possibile misurare con precisione grande a piacere le coordinate
canoniche di un oggetto atomico.
Nel caso di un elettrone in movimento, per Il problema dell’interazione
esempio, i tentativi di misurarne posizione o tra strumento di rilevazione e
velocità alterano inevitabilmente il suo stato di oggetto di osservazione
moto a causa della quantizzazione dell’energia
tanto delle particelle quanto delle radiazioni luminose, quantizzazione che
69/229
Lezioni di logica e filosofia della scienza
impedisce che si possa render piccolo a piacere il disturbo prodotto dalla
interazione tra particella e apparato di misura. Questa perturbazione
avviene in modo tale che se si cerca di diminuire l’incertezza della
misurazione di una delle due coordinate, si interagisce con l’elettrone in
maniera da aumentare l’incertezza con la quale si può misurare l’altra
coordinata. La precisione nella misurazione di una coordinata canonica va
necessariamente a discapito della precisione nella misurazione dell’altra.
Per esempio, se si cerca di determinare con precisione assoluta la posizione
di un elettrone in un dato istante facendolo scontrare con una lastra
fotografica che ne registra l’arrivo, l’urto con la lastra consente
effettivamente di annullare l’incertezza circa la misurazione della
posizione, ma contemporaneamente altera del tutto il movimento della
particella e dunque preclude la possibilità di ottenere informazioni su quella
che era la velocità dell’elettrone nel momento in cui giungeva sulla lastra.
L’indagine sulle procedure sperimentali L’impossibilità di superare
possibili per gli oggetti atomici condusse perciò nelle misurazioni una soglia
Heisenberg a enunciare un principio di data di indeterminazione
indeterminazione: nella misura delle coordinate
canoniche di un oggetto atomico l’incertezza dei risultati di misura non si
può rendere piccola a piacere. Il prodotto delle incertezze nelle misurazioni
delle coordinate canoniche non può scendere sotto un limite inferiore.
Perciò la diminuzione dell’incertezza, ovvero l’aumento di precisione nella
misurazione di una coordinata, provoca necessariamente un aumento di
imprecisione nella misurazione dell’altra. Non è possibile conoscere
contemporaneamente con precisione assoluta i valori di due coordinate
canoniche.
Il principio di indeterminazione spiega, per Ogni tipo di osservazione
Heisenberg, la natura statistica della nuova teoria, implica un’interazione con
l’apparente caduta del determinismo. Infatti, se l’oggetto osservato
non siamo in grado di avere informazioni precise
sullo stato di un oggetto, non potremo neppure fare previsioni precise sul
suo comportamento futuro. La meccanica classica compie previsioni
deterministiche solo a patto che siano disponibili informazioni sui valori
delle coordinate canoniche dell’oggetto in esame in un dato istante e
ammette che sia sempre possibile ottenere simili informazioni. Il principio
di indeterminazione stabilisce invece l’impossibilità di conoscere con
precisione le coordinate canoniche e dunque esclude che si possa prevedere
con precisione il futuro comportamento di un oggetto. È il disturbo
provocato dagli apparati di misura sulle particelle a impedire di conoscere
le coordinate canoniche, è l’interazione tra oggetto e apparato di
osservazione a generare un comportamento apparentemente indeterministico degli oggetti microscopici; sarebbe però insensato , prosegue
Heisenberg, porsi la questione di come si comportino questi oggetti quando
nessuno li osserva, quando nessuno strumento li disturba, e chiedersi se “in
realtà” il loro comportamento è di tipo deterministico oppure no, in quanto
è evidente che lo scienziato non ha nulla da dire circa quello che fa la
natura allorquando nessuno la osserva. Limitandosi a quel che dicono le
70/229
Lezioni di logica e filosofia della scienza
esperienze, la scienza non può far altro che sottolineare come nel mondo
atomico le esperienze non consentono di misurare con precisione quei dati
che sarebbero necessari per poter effettuare una previsione deterministica e
lasciare ad altri l’onere di discutere se la natura sia o no “in se stessa”
intrinsecamente deterministica.
Strettamente connesso al principio di indeter- Il problema del dualismo tra
minazione è l’altro aspetto della meccanica onda e corpuscolo nel comquantistica sul quale si concentrò la discussione portamento dell’elettrone
scientifica e filosofica: il dualismo onda-corpuscolo. Secondo il buon senso, e anche secondo la fisica classica, un’onda è
radicalmente differente da un corpuscolo e da sempre i concetti fondati
sulla nozione di onda erano stati radicalmente distinti da quelli fondati sulla
teoria corpuscolare; mai per uno stesso oggetto si erano mescolate le
rappresentazioni ondulatorie con quelle corpuscolari. Cominciò a porre in
discussione questa dicotomia Einstein nel 1907, esponendo una teoria della
luce, per la spiegazione dell’effetto fotoelettrico, nella quale un raggio
luminoso è considerato come un treno di particelle di luce, dette fotoni. In
quel periodo era universalmente accettata la visione ondulatoria della luce
imperniata sulla teoria di Maxwell, che identificava la radiazione luminosa
con un’onda che si propaga in un campo elettromagnetico. Proponendo che,
per il caso dell’effetto fotoelettrico, la luce non venisse considerata un
fenomeno ondulatorio ma un insieme di corpuscoli luminosi, Einstein veniva evidentemente a introdurre una contraddizione nelle rappresentazioni
fisiche.
La contraddizione si allargò ulteriormente quando al mondo dei
corpuscoli atomici vennero applicate immagini e nozioni ondulatorie. Nel
1924 Louis de Broglie propose di risolvere i problemi insiti nel modello
atomico di Bohr immaginando l’elettrone rotante come un’onda che si
propaga lungo un’orbita. Questa idea fu sviluppata nel 1926 in forme
matematiche molto sofisticate da Erwin Schroedinger e diede luogo a un
formalismo matematico che divenne il corpo centrale della nuova
meccanica quantistica. Dopo alcuni tentativi iniziali di intendere l’elettrone
come se fosse un fenomeno puramente ondulatorio divenne chiaro che il
concetto di onda non poteva sostituire completamente quello di corpuscolo,
che l’elettrone, come la luce, richiedeva per la propria comprensione
entrambe le concezioni: in determinate circostanze esso sembra comportarsi
come un perfetto corpuscolo, in altre manifesta indubbi caratteri ondulatori.
Questo duplice comportamento divenne evidente anche sul piano
sperimentale: inserita in un dato apparato, una fonte di elettroni fa
registrare immagini nettamente corpuscolari, quali possono essere delle
tacche luminose molto limitate e nettamente definite che segnalano l’arrivo
di un corpuscolo su una lastra fotografica; inserito in un dispositivo
differente, lo stesso cannoncino elettronico produce fenomeni tipicamente
ondulatori, come possono essere la formazione di figure d’interferenza
sulla lastra fotografica rivelatrice, cioè alternanze di bande chiare e bande
scure, fenomeno, questo, che è da considerarsi tra i più caratteristici della
presenza di onde.
71/229
Lezioni di logica e filosofia della scienza
Nel tentativo di razionalizzare in qualche
di complementamodo questa imbarazzante situazione, Bohr Ilritàprincipio
di Bohr: la compatibilità
enunciò nel 1927 il principio di complementarità. dell’interpretazione ondulaEsso, in sintesi, sostiene che i concetti di onda e toria e di quella corpuscolare
corpuscolo sono entrambi necessari se si vuole dell’atomo
comprendere la totalità delle manifestazioni fenomeniche degli oggetti
atomici, ma il loro uso non conduce a contraddizioni poiché l’esperienza
dimostra che i due concetti non debbono mai venire impiegati
contemporaneamente nella descrizione dello stesso esperimento: negli
esperimenti in cui prevalgono i caratteri ondulatori delle particelle quelli
corpuscolari sono trascurabili, e viceversa. Le particelle atomiche non sono
né pure onde né puri corpuscoli, ma non si presentano mai allo stesso
tempo come onde e corpuscoli. Il termine “complementare” sta appunto a
indicare questo duplice rapporto che intercorre tra i due concetti: da un lato
essi sono entrambi necessari a capire la totalità fenomenica, dall’altro onda
e corpuscolo si escludono reciprocamente nella comprensione di una
singola esperienza.
Naturalmente questa visione degli oggetti atomici rompe radicalmente
con la nozione di oggetto propria della fisica classica e del senso comune,
per i quali si pone l’alternativa radicale onde o corpuscoli, e risulta
incomprensibile la natura duplice delle particelle che si comportano ora
come onde, ora come corpuscoli. Questa duplicità di comportamenti venne
ricondotta da Bohr all’interpretazione che Heisenberg aveva dato del
principio di indeterminazione: in ogni esperienza sugli oggetti atomici ha
luogo una interazione tra oggetto e strumento di misura che altera lo stato
dell’oggetto; cambiando l’apparato sperimentale muta anche il tipo di
disturbo che si verifica, e dunque cambia anche il tipo di mutamento di
stato subito dall’oggetto. È questo diverso modo di interagire con l’oggetto
che spiega le diversità di comportamento che si rilevano nei diversi apparati
sperimentali: in alcuni dispositivi sperimentali vengono evidenziate
caratteristiche ondulatorie, in altri, mutando l’interazione tra apparato e
oggetto, emergono caratteristiche corpuscolari.
L’interpretazione di Heisenberg e di Bohr della meccanica quantistica fu
criticata da vari scienziati di primissimo piano; in particolare venne
attaccata la nozione di complementarità, giudicata una pura soluzione
verbale, una parola inventata per mascherare una reale ignoranza. Tuttavia
tale interpretazione, detta “di Copenhagen”, finì per conquistare la
maggioranza degli studiosi, anche perché i suoi avversari, i già citati
Einstein, Planck e Schroedinger, seppero opporle solo argomenti di
principio, più filosofIci che fisici, non certo una teoria alternativa. Con essa
giunse a completa dissoluzione l’ideale meccanicistico e si impose una
fisica nella quale non trovavano più posto la nozione classica di oggetto e la
stessa idea di determinismo della natura.
Con la meccanica quantistica avviene anche un L’importanza della meccanica
deciso allontanamento dal dato concreto della quantistica: la fine della
intuizione sensibile. È quanto mette in luce intuizione sensibile
Heisenberg, quando sottolinea come col passaggio
72/229
Lezioni di logica e filosofia della scienza
alla fisica atomica i corpi vengono a perdere la possibilità di poter essere
determinati in uno spazio e in un tempo oggettivo, indipendente dal sistema
osservativo: «Nella fisica moderna gli atomi perdono anche quest’ultima
qualità, e non posseggono le proprietà geometriche in maggior misura che
le altre, quali il colore, il gusto eccetera. L’atomo della fisica moderna può
per ora essere simbolizzato solo mediante un’equazione differenziale parziale in uno spazio astratto pluridimensionale; soltanto l’esperimento che
l’osservatore intraprende su esso estorce dall’atomo l’indicazione di un
luogo, di un colore, di una quantità di calore. Per l’atomo della fisica
moderna tutte le qualità sono dedotte, direttamente non possiamo attribuirgli alcuna proprietà materiale; il che vuol dire che qualunque immagine
che la nostra mente possa farsi dell’atomo è eo ipso errata».122 Onde si può
legittimamente concludere che «le particelle elementari sono in definitiva
delle forme matematiche».123
Si viene a creare, pertanto, una scissione nel Il bisogno di rinnovati strucorpo della scienza: da una parte v’è la fisica menti concettuali per intenclassica con le sue leggi deterministiche (o al dere la nuova fisica
massimo statistiche); dall’altra, il mondo del
microscopico in cui non valgono più le leggi classiche, ormai inadeguate a
descriverne i processi e pertanto sostituite da leggi e princìpi del tutto
diversi. È questa la situazione che hanno di fronte i fondatori del Circolo di
Vienna e filosofi della scienza dei primi decenni del Novecento. Essi si
pongono, pertanto, il compito di trovare per tale crisi una soluzione tale da
salvare la realtà della nuova fisica mediante l’elaborazione di nuovi
strumenti concettuali che meglio permettano di comprenderne la natura e
che siano diversi da quelli forniti dalle vecchie filosofie delle scuole (come
il kantismo), le quali, ormai alle corde di fronte alla nuova situazione, non
esitano a dichiarare la bancarotta delle scienze invece che dei propri criteri
di scientificità. È una circostanza, questa, che si è più volte verificata nel
corso della storia: le “immagini della scienza” si trasformano da utili mezzi
di comprensione della scienza in camicie di forza entro le quali la si
vorrebbe costringere. L’epistemologia si muta così in gnoseologia rendendosi indipendente dal materiale da cui si è originata e, in quanto tale,
pretende giudicare del valore conoscitivo della scienza; ma dato che questa
cambia molto più velocemente della immaginazione dei filosofi, ecco che
questi ultimi, non riuscendo più a comprenderla con i loro schemi concettuali, ne dichiarano la inconsistenza conoscitiva e la riducono ad utile
raccolta di ricette pratiche.
Si tratta, insomma, come dice il Frank parafra- Frank: mettere il vino nuovo
sando una parabola evangelica, di mettere il vino in otri nuovi
nuovo in otri nuovi, dove «gli otri vecchi erano gli
schemi della filosofia tradizionale, e il vino nuovo la scienza del
Novecento».124 E, una volta fatto il vino, bisogna trovare le botti filosofiche
W. Heisenberg, Mutamenti nelle basi della scienza, Boringhieri, Milano 19662, pp. 16-17.
Id., Fisica e filosofia (1958), Il Saggiatore, Milano 1966 (2ª ed.), p. 88.
124 P. Frank, op. cit., p. 40.
122
123
73/229
Lezioni di logica e filosofia della scienza
adatte, che non ne rovinino il sapore. Alla costruzione di queste “botti”
avevano mirato le discussioni che avevano luogo in quello che abbiamo
chiamato il “primo Circolo di Vienna”, la cui importanza è consistita come ha puntualizzato F. Stadler125 - nel prefigurare ancor prima del
conflitto mondiale le posizioni che poi saranno l’eredità raccolta dal futuro
empirismo logico e di tutta la filosofia della scienza successiva.
125
Cfr. F. Stadler, Studien zum Wiener Kreis. Ursprung, Entwicklung und Wirkung des
Logischen Empirisus im Kontext, Suhrkamp, Frankfurt a.M. 1997, pp. 187-8.
74/229
Lezioni di logica e filosofia della scienza
Capitolo terzo
I CONCETTI E IL LINGUAGGIO DELLA LOGICA SIMBOLICA
1. Dalla logica “classica” alla “nuova logica”
1.1 Lontano da Aristotele. La storia della filosofia della scienza di questo
secolo sarebbe incomprensibile se non la si leggesse in stretta connessione
all’affermazione della “nuova logica”. Con tale attribuzione si vuole
intendere un modo di concepire questa disciplina, la cui fondazione risale
ad Aristotele, che rompe con quella che veniva chiamata “logica classica” o
anche “vecchia logica”.
In effetti la logica, dopo il periodo medievale,
L’atteggiamento di Galileo e
nel corso del quale la sillogistica aristotelica la nuova scienza
aveva conseguito notevoli progressi senza tuttavia
discostarsi dai caratteri fondamentali impressigli dal suo fondatore, aveva
conosciuto un lungo periodo di eclisse e di letargo. La nuova scienza che
nasceva dopo la tarda scolastica trovava inutili le formule astratte e
capziose con cui i medievali avevano cercato di sistematizzare la
sillogistica, né riusciva a valutare adeguatamente quanto di nuovo essa
aveva elaborato. Piuttosto che a questa dottrina, ormai inariditasi nella
pratica delle Scuole, si preferiva rivolgere la propria attenzione alla
matematica, molto più utile nel processo di edificazione della nuova
scienza: con i suoi caratteri - sosteneva Galilei - era scritto il “libro della
natura”. La logica medievale e quella aristotelica, così, venivano spesso
messe sul banco degli accusati, col rimprovero di creare menti inutilmente
capziose, di abituare i fanciulli a vane sottigliezze, distogliendoli dalla vera
conoscenza: alla logica insegnata, teorizzata e sistematizzata nei manuali
delle Scuole, si preferiva quella implicita, in atto, operativa, incarnata nella
matematica e nella geometria. Sicché alla esaltazione della logica aristotelica operata da Simplicio, Galilei poteva ribattere: «Il sonar l’organo
non s’impara da quelli che sanno far organi, ma da chi gli sa sonare; la
poesia s’impara dalla continua lettura de’ poeti; il dipignere s’apprende col
continuo disegnare e dipignere; il dimostrare, dalla lettura dei libri pieni di
dimostrazioni, che sono i matematici soli, e non i logici».126
126
G. Galilei, Dialogo sopra i due massimi sistemi del mondo (1632), in Opere, a cura di F.
Brunetti, UTET, Torino 1980, pp. 54-5.
75/229
Lezioni di logica e filosofia della scienza
Tale svalutazione della logica tradizionale
Nasce la contrapposizione tra
aveva fatto deperire l’interesse per il suo carat- logica e matematica
tere formale, che pure era uno degli acquisti più
importanti del pensiero aristotelico, ed aveva fatto anche trascurare le
notevoli acquisizioni che i medievali avevano fatto nel campo della logica
proposizionale. Come spesso accade nei periodi di grande rinnovamento
culturale - e tale era quello che vide la nascita della nuova scienza e la
creazione del mondo moderno - il desiderio di far piazza pulita di quanto
ereditato dal passato, che si sente come un vincolo all’avanzamento
ulteriore, finisce per far buttar via “il bambino con l’acqua sporca”. Ciò
ovviamente non significò che la vecchia logica si fosse del tutto eclissata;
piuttosto essa rimase, ormai isterilita e non più sviluppata, come un corpo
di conoscenze che sopravviveva nelle scuole e nell’insegnamento, come
una sorta di grammatica del pensiero indispensabile per l’educazione ma
del tutto insufficiente per gli scopi dell’avanzamento del sapere e per la
riflessione filosofica.
Quanto dice Galilei è interessante perché fa intravvedere in nuce una
contrapposizione tra logica e matematica che segnerà i secoli successivi.
Infatti si avrà, da un lato, la tesi della loro separazione radicale e quindi il
tentativo di proseguire la logica classica in modo autonomo rispetto alla
matematica, ossia sui vecchi binari della sillogistica aristotelica e
scolastica; dall’altro, assisteremo ad una accettazione del carattere
deduttivo della sillogistica aristotelica non in antitesi al ragionamento matematico, per cui si pensa che in sostanza o tutta la matematica, se
correttamente interpretata, possa trasformarsi un una catena di sillogismi,
oppure che la stessa sillogistica possa essere perfezionata grazie alla sua
matematizzazione, liberandola così dall’apparenza cabalistica ormai
acquisita nelle mani degli scolastici.
Lasciando da parte la prima strada, ben presto isterilitasi, è nel fecondo
rapporto tra logica e matematica che deve ritrovarsi il filo conduttore che
conduce alla logistica contemporanea. Un rapporto spesso ambiguo, fatto di
timidezze ed innovazioni, di preservazione di quanto tramandato dalla
vecchia sillogistica ed esigenze di ammodernamento (come avviene ad
esempio con la cosiddetta Logica di Port-Royal di A. Arnauld e P. Nicole,
del 1662, che ebbe una fortuna eccezionale per due secoli), ma che conosce
un punto di accumulo significativo nell’opera di Leibniz.
1.2 Calculemus. Ritenuto dai logici moderni Leibniz e l’indicazione di una
come il loro precursore, come il grande pioniere nuova strada per la logica
ed iniziatore della nuova strada che porta alla
logistica moderna, G. W. Leibniz (1646-1716) in effetti incarna tutte le
ambiguità della vecchia logica, che non riesce ancora a trasformarsi
pienamente, ed insieme la messa in campo di nuove esigenze che
costituiscono come il nuovo motto iscritto sulle bandiere dei tentativi di
rinnovamento della logica. Non solo, ma tale funzione cruciale quale
fondatore ed iniziatore di una nuova strada gli venne attribuita solo quando
questa era già stata da tempo intrapresa e in gran parte percorsa, sicché non
76/229
Lezioni di logica e filosofia della scienza
si può affatto affermare che i suoi scritti in merito abbiano avuto una
incidenza diretta sulla rinascita della logica nella seconda metà
dell’Ottocento. La sua opera fu per lo più ignorata dai contemporanei e dai
successori, i suoi scritti sull’argomento rimasero a lungo inediti e solo agli
inizi del Novecento si ritornò a guardare con rinnovato interesse alla sua
opera logica, quando questa, già in piena crescita, cercava anche di darsi un
pedigree illustre e cercava nel passato i precorrimenti delle proprie idee. I
giudizi di Giuseppe Peano nel 1901 e del suo allievo G. Vacca nel 1899127,
gli studi del logico francese L. Couturat, che ne pubblicò per primo gli
scritti inediti di logica nel 1903128, il primo importante lavoro di B. Russell
nel 1900129, nonché i riconoscimenti di Husserl nello stesso periodo130, tutto
ciò avviene al volgere del secolo, quando la nuova logica era già in fase di
matura elaborazione e poteva valorizzare negli scritti di Leibniz quei
concetti fondamentali, che ai contemporanei eran parsi delle bizzarrie,
cadendo pertanto nel dimenticatoio. In nessuna altra disciplina, come nella
logica, appare vero che l’anatomia dell’uomo è la chiave per comprendere
quella della scimmia.
Ma vi sono altri caratteri dell’opera logica di Fedeltà alla logica tradizioLeibniz che bisogna tratteggiare per capirne esat- nale e suo tentativo di perfetamente la portata. Innanzi tutto egli non abban- zionarla mediante le creadonò mai del tutto l’impostazione della logica zione di una lingua simbolica
e la creazione di
tradizionale ed anzi si poneva esplicitamente in universale
un ‘calcolo’
continuità con essa: il suo attaccamento alla forma
attributiva della proposizione, composta da soggetto e predicato, gli
impedisce l’elaborazione di una vera e propria logica delle relazioni.
Tuttavia egli vuole perfezionare questa logica e così, accanto a tutta una
serie di miglioramenti in suoi aspetti particolari (circa le figure e i modi del
sillogismo, le rappresentazioni diagrammatiche delle varie figure ecc.),
introduce delle esigenze che portano tendenzialmente oltre di essa ed
enuncia un programma che prefigura già chiaramente qualcosa di nuovo
che con essa non ha più nulla a che vedere. Infatti, il suo scrupolo
formalista, mutuato dalla matematica che parimenti aveva sviluppato (non
si dimentichi che Leibniz è stato l’inventore, insieme a Newton, del calcolo
infinitesimale) gli fa venire in mente il programma di una lingua simbolica
universale che potesse dare certezza, grazie ad una rigorosa simbolizzazione dei concetti, alle argomentazioni sino ad allora svolte nella lingua
naturale, con tutte le ambiguità e i tranelli tipici di uno strumento
imperfetto. Ma anche in questo caso siamo di fronte ad un programma, ad
un ‘manifesto’ ideologico, più che ad una effettiva realizzazione: i suoi
127 Cfr. G. Peano, Formulaire de mathématique, Tome III, Preface, Torino 1901; G. Vacca,
“Sui manoscritti inediti di Leibniz”, in Bollettino di bibliografia e storia delle scienze
matematiche, 1899, pp. 113-116.
128 Cfr. L. Couturat, La logique de Leibniz d’aprés des documents inédits, Paris 1901;
Opuscules et fragments inédits de Leibniz, a cura di L. Couturat, Paris, P.U.F. 1903.
129 Cfr. B. Russell, Esposizione critica della filosofia di Leibniz (1900), Longanesi, Milano
1971.
130 Cfr. E. Husserl, Ricerche logiche (1900), Il Saggiatore, Milano 1968.
77/229
Lezioni di logica e filosofia della scienza
lavori in questa direzione non furono che frammentari, a volte tra loro
incoerenti, ed in ogni caso ignorati. Ma la sua parola d’ordine, l’idea
centrale che stava alla sua base era la medesima che entusiasmava i giovani
logici e filosofi dell’inizio del ‘900: ridurre il ragionamento e quindi
l’argomentazione filosofica ad un semplice calcolo grazie al quale, una
volta messisi d’accordo sulle idee semplici di partenza, fosse possibile
ricondurre la polifonia cacofonica delle metafisiche e delle filosofie alla
grandiosa armonia di cui aveva dato già prova la matematica.
Alla realizzazione di tale progetto era neces- La creazione di una lingua
sario, in primo luogo, il possesso di uno stru- artificiale, simbolica e univermento nuovo, una lingua characteristica univer- sale
salis avente natura ideografica, che svincolasse la trasmissione delle idee
dalla lingua parlata per esprimerle direttamente con simboli appropriati, sui
quali poi effettuare trasformazioni ed operazioni, ottenendo altri simboli
che designano altre idee. Questa è una lingua artificiale, svincolata da
quelle naturali, simbolica, in quanto introduce propri ideogrammi aventi un
significato preciso e non ambiguo, ed universale, in quanto sostituisce le
singole lingue naturali per diventare uno strumento razionale valido per
ogni uomo. E’ essa una “scrittura razionale”, che serva da strumento
filosofico al servizio della ragione: una ars characteristica sive lingua
rationalis; sull’esempio dell’algebra, si tratta di costruire un’algebra
generale o algebra logica, che non abbia come proprio campo solo i
numeri, ma sia in grado di esprimere tutte le idee e possa servire da rimedio
in ogni campo della conoscenza in cui agisce il ragionamento; in tal modo
si potrà ovviare alle sue incertezze grazie all’infallibilità di un calculus
ratiocinator.131
Al fine di poter rendere effettivo tale calculus L’inventario delle idee semera però necessario procedere ad un inventarium, plici, da combinare mediante
logico-matematiche e
cioè ad un vero a proprio catalogo delle idee leggi
riottenere il complesso: l’ars
semplici, espresse mediante adeguati ‘segni’ (i inveniendi
131 Così efficacemente sintetizza il concetto di caratteristica universale N.I. Stjazkin: «Sul
piano logico, dunque, la caratteristica universale è un sistema di simboli rigorosamente definiti,
che si possono usare in logica e nelle altre scienze deduttive per denotare gli elementi semplici
degli oggetti studiati da una data scienza. In primo luogo, tali simboli debbono essere di forma
breve e compatta, racchiudendo la massima informazione nel minimo spazio; in secondo luogo,
deve esistere un isomorfismo tra i simboli e gli oggetti che essi denotano, al fine di poter
rappresentare le idee semplici nel modo piú naturale possibile. Le idee complesse debbono essere
rappresentabili come combinazioni di idee elementari. Nel linguaggio della caratteristica
universale, le tesi logiche astratte debbono presentarsi sotto forma di regole intuitivamente
evidenti di manipolazione dei simboli. Tali regole debbono descrivere le proprietà formali delle
trasformazioni dei simboli, e basarsi su procedimenti che rendano univoca la rappresentazione. /
Secondo Leibniz, la caratteristica universale dovrebbe essere l'origine di una vera e propria
algebra logica, da applicarsi ai vari tipi di ragionamento; essa rappresenterebbe l’erede della logica
scolastica, vittima sfortunata delle circostanze. A suo parere, la mancanza di successi della logica
scolastica era dovuta in primo luogo alla mancanza di un linguaggio rigoroso e preciso, soggetto
alle regole proprie di una formalizzazione accuratamente elaborata. Tuttavia, la caratteristica
universale dovrebbe denotare tutti gli elementi semplici dei ragionamenti logici con lettere, i
ragionamenti logici complessi con formule, e i giudizi con equazioni. Diventerebbe cosí possibile
ricavare tutte le conseguenze logiche che seguono necessariamente dagli elementi considerati»
(Storia della logica, 1964, Editori Riuniti, Roma 1980, pp. 94-5).
78/229
Lezioni di logica e filosofia della scienza
“termini semplici”), che costituissero una sorta di ‘atomi’ o mattoni della
nostra conoscenza, un ‘alfabeto’ del pensiero umano, e dalla cui
composizione ed aggregazione operata mediante opportune leggi logicomatematiche (la ‘grammatica’ del pensiero umano), potessero
successivamente scaturire tutte le altre nostre conoscenze derivate (i
“termini derivati”). «A me invero […] apparve manifesto che tutti i pensieri
umani potevano risolversi completamente in pochi pensieri da ritenersi
come primitivi. E che se si assegnano a questi ultimi dei caratteri, da essi si
possono formare i caratteri delle nozioni derivate, dai quali sarà sempre
possibile ricavare i loro requisiti e le nozioni primitive in essi racchiuse e,
per dirla in una parola, le definizioni o valori, e quindi anche i rapporti
derivabili dalle definizioni. Ora, una volta che ciò fosse realizzato,
chiunque nel ragionamento e nello scrivere facesse uso di siffatti caratteri o
non sbaglierebbe mai oppure riconoscerebbe da sé i propri errori non meno
che quelli degli altri mediante esami facilissimi; e scoprirebbe poi la verità
nella misura in cui i dati lo renderebbero possibile, e se talora i dati non
fossero sufficienti a trovare ciò che fosse richiesto egli potrebbe vedere
quali esperienze o quali notizie fossero necessarie per potersi almeno
avvicinare alla verità quanto lo consentono i dati, sia procedendo per
approssimazione, sia determinando il grado di maggiore probabilità; i
sofismi e i paralogismi non sarebbero in questo caso niente di diverso dagli
errori di calcolo in aritmetica e dai solecismi o i barbarismi nelle lingue»132.
Dunque, prima una analisi risalente dal dato ai suoi elementi semplici;
quindi una sintesi, che dal semplice ricompone il complesso. In tale duplice
processo Leibniz vedeva il fulcro di un’ars inveniendi che dia la possibilità
di pervenire a nuove conoscenze, in modo da ampliare il patrimonio
culturale dell’umanità. Non solo un’arte del giudicare, cioè del giustificare
come corretta una argomentazione o ragionamento, ma anche un’arte dello
scoprire, cioè di produrre qualcosa di nuovo; ovvero un metodo scientifico,
una “logica della scoperta” che stabilisse un procedimento per
l’allargamento del pensiero scientifico.
Ciò doveva essere realizzato mediante la La matematizzazione del
matematizzazione del pensiero umano, cioè pensiero
l’assegnazione ad ogni nozione di un numero
caratteristico, in modo che fosse possibile poi applicare le tecniche
dell’algebra e della matematica: «una volta stabiliti i numeri caratteristici
della maggior parte delle nozioni, l’umanità avrà un nuovo genere di
organo, che aumenterà la potenza della mente assai più di quanto le lenti
ottiche giovino alla vista, e di tanto superiore ai microscopi e ai telescopi di
quanto la ragione sopravanza la vista»133. Una logica, dunque, che si pone
all’interno di una matematica non intesa soltanto come trattamento della
quantità, e che cerca in questa gli strumenti per una propria fondazione,
132
G. Leibniz, Saggio sulla caratteristica (1684?), in Leibniz e la logica simbolica, a cura di
M. Mugnai, Sansoni, Firenze 1973, pp. 60-1.
133 G. Leibniz, Storia ed elogio della lingua caratteristica universale (1679-80), in Scritti di
logica, a cura di F. Barone, Zanichelli, Bologna 1968, p. 165.
79/229
Lezioni di logica e filosofia della scienza
mediante una sua algebrizzazione: «Quello cui Leibniz pensava era una
teoria generale delle strutture che potesse fornire la sintassi della sua
characteristica universalis»134.
Grazie a questa logica può prender corpo il La filosofia ed il ragionagrande progetto della possibilità di trasformare mento trasformati in puro
ogni ragionamento umano, e quindi la filosofia, calcolo: un programma per il
in un’operazione sostanzialmente meccanica, futuro
algoritmica, che ponesse fine alle continue controversie tra scuole
metafisiche. Insomma, mediante la logica intesa come calcolo, sarebbe
stato possibile edificare una filosofia scientifica, che avesse la medesima
certezza e lo stesso rigore di cui aveva dato prova la matematica; così,
afferma Leibniz, «quando sorgeranno delle controversie, sarà altrettanto
inutile stabilire una discussione tra due filosofi, quanto lo è il farlo tra due
calcolatori. Basterà infatti prendere la penna in mano, o sedersi innanzi agli
abbachi e, dopo avere all’occorrenza convocato un amico, dirsi a vicenda:
calcoliamo!»135.
E’ in questo calculemus che si riassume il messaggio che Leibniz
consegna ai posteri e che, al di là dei singoli contributi tecnici da lui forniti
e della sua incapacità a produrre un sistema definitivo136, infiammerà
l’immaginazione dei logici e dei filosofi contemporanei, che in esso
vedranno il preannuncio del sogno che la nuova logica simbolica, nel
contempo maturata, avrebbe reso finalmente possibile, grazie ai potenti
strumenti da essa forgiati: avviare la filosofia sulla strada della scienza, così
trasformandola infine in una disciplina ‘seria’.
2.3 L’algebra della logica. Come ha sostenuto il Le due strade intraprese dalBlanché, dopo Leibniz la logica ha progressi- la logica: la filosofica e la
vamente conosciuto un processo di divaricazione: matematica
«La logica cosiddetta classica, considerata come derivante dalla filosofia, si
accontenterà generalmente di prolungare, con qualche emendamento più o
meno felice, le dottrine ricevute, asservite alla proposizione attributiva e
incentrate sulla sillogistica, dottrine peraltro ridotte speso alle loro parti più
elementari, a quella che talora è chiamata la logica minore. Al tempo stesso
però, e in margine alle opere dei filosofi, tale logica sarà coltivata anche da
alcuni matematici che, pur restando largamente tributari dell’insegnamento
tradizionale, introducono tuttavia idee e metodi nuovi. La rottura tra le due
134
W.C. Kneale - M. Kneale, Storia della logica (1962), Torino, Einaudi 1972, pp. 384-5.
G. Leibniz, Sulla scienza universale o calcolo filosofico (1684-5), cit. in R. Blanché, La
logica e la sua storia da Aristotele a Russell (1970), Ubaldini, Roma 1973, p. 246.
136 Per i Kneale, sono state due le ragioni di una tale incapacità: «La prima era l’impossibilità
di comporre un dizionario per il nuovo linguaggio finché il lavoro di ricerca scientifica non fosse
stato portato a compimento, o almeno più vicino al compimento di quanto non lo fosse stato
all’epoca di Leibniz. Non possiamo provvedere un simbolismo esplicativo per la chimica finché la
chimica non esiste come scienza […] Ma vi era una seconda ragione, sconosciuta a Leibniz, per
cui poteva fare pochi progressi nella costruzione di un linguaggio ideale, ed era che non si fosse
liberato dal dogma soggetto-predicato della logica tradizionale» (W.C. Kneale – M. Kneale, op.
cit., p. 376). Per una presentazione sintetica dei suoi contributi algebrico-logici vedi P. Freguglia,
L’algebra della logica, Editori Riuniti, Roma 1978, pp. 13-9.
135
80/229
Lezioni di logica e filosofia della scienza
correnti non avverrà che nella seconda metà del XIX secolo; ma prima, per
quasi due secoli assistiamo, ai confini della scienza ufficiale, a svariati
tentativi di introdurre nelle speculazioni logiche lo spirito e i metodi della
matematica»137.
Tali due correnti, in quella fase della storia La duplice eredità della lodella moderna logica matematica che Bocheƒski gica di Leibniz e i difficili
indica come sua ‘preistoria’138, si riallacciano rapporti con la matematica
all’eredità leibniziana secondo due direttrici
fondamentali. Da una parte abbiamo il lavoro di studiosi di prevalente
formazione matematica come G. Saccheri (1667-1733), J.H. Lambert
(1728-1777), G. Ploucquet (1716-1790), L. Eulero (1707-1783), J.
Gergonne (1771-1859), B. Bolzano (1781-1848), che cercano di sviluppare,
riallacciandosi più o meno consapevolmente a Leibniz, l’aspetto algoritmico e calcolistico della logica, accentuandone così l’aspetto formale. Ma
questa è una tendenza largamente minoritaria, che ebbe scarsissima
influenza sia sul pensiero filosofico sia sulla rinascita successiva della
logica. Di gran lunga più importante fu la seconda direttrice, che si poneva
esplicitamente su una linea di continuità col pensiero leibniziano e il cui
iniziatore fu il tedesco Christian Wolff (1679-1754). Tuttavia la
problematica logica di Leibniz veniva da lui ridotta ad una illustrazione
precettistica della sillogistica aristotelica, con ciò mettendone a tacere gli
aspetti di novità, ad essa preferendo l’algebra e la geometria come vere
artes inveniendi et demostrandi, il cui metodo non può essere esteso al di
fuori di esse, e tanto meno alla logica, che rimaneva quella tradizionale.139
L’impossibilità della reciproca fecondazione con la matematica, faceva sì,
in questa prospettiva, che la logica venisse in linea di principio considerata
una disciplina filosofica, con ciò squalificando, sulla scia della posizione
cartesiana, la sua interpretazione prevalentemente formale, tentata da
Leibniz. Ciò portava ad un allargamento del campo della logica a settori
che con essa poco hanno a che fare, come l’ontologia, la gnoseologia o la
psicologia: è quanto avviene ad es. con Kant e con la sua logica
trascendentale, il cui giudizio sulla storia della logica peserà come un
macigno sul suo futuro sviluppo140; od addirittura con Hegel, per il quale la
137
138
R. Blanché, op. cit., p. 253.
J.M. Bocheƒski, La logica formale. La logica matematica (1956), Einaudi, Torino 1972, p.
350.
139
Questa concezione, che abbiamo visto risale a Galilei e che è anche tipica di Cartesio, la
troviamo ancora espressa in matematici di valore come i fratelli Bernuilli i quali, facendo il
parallelismo tra algebra e logica, affermano che «c’è più ingegno e giudizio nella riduzione della
più semplice equazione algebrica di quanto non ce ne sia nei più difficili raziocinii [sillogismi] del
resto ovvi nell’uso comune della vita»; per cui concludono che «l’algebra è la vera logica utile per
scoprire la verità e per dare alla mente tutta l’estensione di cui questa è capace» (cit. in C.
Mangione, “Logica e fondamenti della matematica”, in L. Geymonat, Storia del pensiero
filosofico e scientifico, Garzanti, Milano 1971, vol. III, p. 166).
140 Kant sostiene che la logica non ha fatto alcun progresso dopo Aristotele, che viene così
visto come il suo fondatore e sistematizzatore definitivo: «Che la logica abbia seguito questa
strada sicura sin dai tempi più antichi, si può scorgere dal fatto, che da Aristotele in poi essa non
ha dovuto fare alcun passo indietro, a meno che non si voglia eventualmente attribuirle, come
perfezionamenti, l’eliminazione di alcune sottigliezze superflue o la determinazione più chiara
della materia esposta; ciò peraltro è pertinente più all’eleganza, che alla sicurezza della scienza.
81/229
Lezioni di logica e filosofia della scienza
logica diventa inseparabile dall’ontologia e quindi perde la sua
caratteristica più tipica, ossia la formalità. Ma in particolare la logica
prende all’inizio dell’Ottocento la direzione del psicologismo con J. Fries,
J.S. Mill e F. Brentano.
Si va così accentuando, nella seconda metà del La divaricazione tra matemaXIX secolo la separazione tra le due maniere tici e filosofi nel modo di
d’approccio allo studio della logica: quello dei intendere la logica
matematici e quello dei filosofi. «Mentre i primi spingono decisamente la
logica sulla strada aperta da Leibniz e dai suoi successori, i filosofi, da
parte loro, sembrano aver ripreso gusto alla logica, ritenendo di poterla
ancora far progredire senza scostarsi dalla linea tradizionale […] Semplificando un po’, li possiamo ripartire secondo due grandi tendenze:
l’idealistica, nella discendenza di Kant e dei postkantiani, e l’empiristica,
che assume allora generalmente la forma di quello che è stato chiamato lo
psicologismo»141.
Lungo la prima direzione troviamo la rottura esplicita con la logica
tradizionale o “logica classica” (che costituisce una prosecuzione di quella
aristotelica e sillogistica), di provenienza filosofica, e la continuazione del
programma leibniziano nell’opera di George Boole (1815-1864). L’anno
decisivo è il 1847, in cui vede la luce la sua The Mathematical Analysis of
Logic: è questa la data che segna, per gli storici e i logici contemporanei,
l’atto di nascita della logica formale moderna142. E’ infatti nella sua opera
che avviene per la prima volta il confinamento della sillogistica ad un ruolo
secondario e subordinato, in base alla convinzione che «sillogismo, conversione, e via dicendo, non sono i processi fondamentali della logica», in
quanto «sono fondati su, e risolubili in, processi ulteriori e più semplici che
costituiscono i veri e propri elementi del metodo della logica»143.
Tale ricollocazione del ruolo della logica tradi- Le trasformazioni del penzionale (la cui trattazione occupa uno spazio limi- siero matematico: la scuola
tato dell’opera di Boole) è il frutto delle trasfor- di analisi di Cambridge
mazioni subite nel contempo dal pensiero mateNella logica è ancora degno di nota il fatto, che sino ad oggi essa non ha neppure potuto fare alcun
passo in avanti e quindi, secondo ogni apparenza, sembra essere chiusa e compiuta. In effetti, se è
vero che alcuni moderni hanno pensato di ampliarla, inserendovi sia dei capitoli psicologici sulle
differenti capacità conoscitive (la capacità d’immaginazione, l’arguzia), sia dei capitoli metafisici
sull’origine della conoscenza oppure sulle differenti specie di certezza secondo la differenza degli
oggetti (idealismo, scetticismo, ecc.), sia dei capitoli antropologici sui pregiudizi (sulle cause ed i
rimedi di questi), ebbene, tutto ciò proviene dalla loro ignoranza della vera e propria natura di
questa scienza. Quando qualcuno fa si che i confini delle scienze si confondano, queste non
risultano accresciute, bensì deformate. Il confine della logica, per contro, è segnato con perfetta
precisione dal fatto che essa è una scienza, la quale espone in modo circostanziato e dimostra
rigorosamente null’altro che le regole formali di ogni pensiero (sia esso a priori oppure empirico,
abbia esso una qualsivoglia origine o un qualsivoglia oggetto, incontri esso nel nostro animo
impedimenti contingenti oppure naturali) (Critica della ragion pura, trad. di G. Colli, Bompiani,
Milano 1987, pp. 17-8).
141 R. Blanché, op. cit., p. 303.
142 Non bisogna dimenticare che nello stesso anno viene anche pubblicata la Formal Logic di
A. de Morgan, anch’essa ritenuta importante nella svolta di metà secolo.
143 G. Boole, Indagine sulle leggi del pensiero su cui sono fondate le teorie matematiche della
logica e della probabilità (1854), Einaudi, Torino 1976, p. 22.
82/229
Lezioni di logica e filosofia della scienza
matico. Questo, infatti, si era vieppiù liberato dalla connessione esclusiva
con la misurazione e la quantità, che era stata tipica dei matematici del
Settecento, come ad es. Eulero. In Inghilterra, in particolare, si era
affermata, grazie alla riflessione di matematici della cosiddetta “Scuola di
Cambridge” come R. Woodhouse, G. Peacock, D.F. Gregory e A. de
Morgan, l’idea che le leggi e i calcoli che stanno alla base dell’algebra non
trovano applicazione solo nel campo numerico, ma anche ad entità diverse,
non legate alla misura della quantità (da questo programma si svilupperà
quella che oggi è chiamata “algebra astratta”).144 E’ riallacciandosi a questo
determinato quadro storico, infatti, che Boole afferma con decisione: «non
è essenziale alla matematica il trattare con le idee di numero o di
quantità»145. E’ così possibile avere una idea più chiara del formalismo e
dell’essenza del calcolo logico, la cui ‘validità’ non dipende dal significato
dei simboli che in esso occorrono, ma solo dalle leggi che ne regolano la
combinazione. Da ciò l’ulteriore passo di concepire un calcolo algebrico
astratto i cui simboli non possedessero già un significato stabilito, ma
potessero venire interpretati in modi diversi, sia quantitativamente, sia
anche in modo da rispecchiare la logica delle classi e dei concetti.146
Grazie a questa considerazione sempre più
Si realizza con Boole il proastratta dell’algebra è possibile formulare l’idea – gramma solo annunciato da
che è quella propria di Boole ma costituisce anche Leibniz: la logica diventa una
la continuazione del progetto intuito da Cartesio e disciplina matematica
da Leibniz – che sia possibile matematizzare il ragionamento, ovvero
effettuare argomentazioni logiche utilizzando le leggi e i calcoli dell’algebra. Infatti, «non soltanto esiste una stretta analogia fra le operazioni che
144 Su tale scuola ed il suo apporto per svincolare la “matematica pura” da quella “applicata”,
intesa come scienza della quantità, vedi F. Barone, Logica formale e logica trascendentale. II.
L’algebra della logica, Ed. di Filosofia, Torino 1965, pp. 29-63.
145 G. Boole, op. cit., p. 24. Cfr. anche Id., Analisi matematica della logica (1847), Silva,
Milano 1965, pp. 52-3.
146 «Coloro che hanno familiarità con lo stato attuale della teoria dell’algebra simbolica, sono
consapevoli che la validità dei procedimenti dell’analisi non dipende dall’interpretazione dei
simboli che vi sono impiegati, ma soltanto dalle leggi che regolano la loro combinazione. Ogni
sistema di interpretazione che non modifichi la verità delle relazioni che si suppone sussistano tra
tali simboli è egualmente ammissibile, ed è così che il medesimo processo può, secondo uno
schema d’interpretazione, rappresentare la soluzione di una questione riguardante la proprietà dei
numeri, secondo un altro schema quella di un problema di geometria, e, secondo un altro ancora,
quella di un problema di dinamica o di ottica […] Potremmo cioè correttamente affermare che la
caratteristica che definice un calcolo autentico consiste in questo: che esso è un metodo fondato
sull’impiego dei simboli le cui leggi di combinazione sono note e generali, e i cui risultati
ammettono un’interpretazione coerente. Il fatto che alle forme esistenti di analisi venga assegnata
un’interpretazione quantitativa è il risultato delle circostanze che determinarono il sorgere di tali
forme, e noi non dobbiamo farne una condizione universale dell’analisi. Sulla base di questo
principio generale, io intendo appunto fondare il calcolo logico, e reclamare, per esso, un posto tra
le forme di analisi matematica ormai generalmente riconosciute […]» (Boole, Analisi matematica
della logica, 1847, Silva, Milano 1965, pp. 51-4). In queste celebri parole della Introduzione alla
sua prima opera, come nota Barone, «viene affermata la possibilità di un’interpretazione logica
d’un calcolo algebrico e […] traspare, indirettamente, tutta l’efficacia suggestiva della
problematica scientifica dibattuta dai membri della scuola di Cambridge e, più in generale, dai
maggiori matematici inglesi contemporanei» (Barone, op. cit., p. 81). Sull’importanza di tale
carattere formale del calcolo booleano insiste anche Mangione, “La svolta della logica
nell’Ottocento”, in L. Geymonat, op. cit., vol. V, pp. 106-8.
83/229
Lezioni di logica e filosofia della scienza
la mente esegue quando fa ragionamenti generali, e quelle che esegue nella
scienza particolare dell’algebra: c’è anche, in misura considerevole,
un’esatta concordanza fra le leggi in virtù delle quali si eseguono le due
classi di operazioni»147.
In tal modo per Boole la logica non era che una parte della matematica e
poteva quindi essere resa scientifica, liberandola dagli equivoci e dagli
errori di quella tradizionale, applicandole le sue leggi ed effettuando
conseguentemente dei calcoli del tutto simili a quelli algebrici: il
calculemus di Leibniz sembra poter aver realizzazione. La logica cessa di
essere una disciplina filosofica (diversamente da come sosteneva Hamilton,
col quale Boole implicitamente polemizza), recide le sue connessione con
la metafisica, e diviene una disciplina matematica: «Se vogliamo attenerci
ai principi di una classificazione vera, non dobbiamo più associare logica e
metafisica, ma logica e matematica […] Si vedrà che la logica riposa, come
la geometria, sopra verità assiomatiche, e che i suoi teoremi sono costruiti
su quella dottrina generale dei simboli che costituisce il fondamento
dell’analisi istituzionale»148.
Insomma, con Boole «la ricerca filosofica perde la presunta proprietà
esclusiva su quella che era stata considerata tradizionalmente una delle sue
branche»149. E’ per tale ragione che il suo progetto, e quello dei logici che
ne seguono l’impostazione, viene ad essere caratterizzato col nome di
“algebra della logica”.
Con questa virata in direzione algebrica Boole, diversamente da
Leibniz, non si limitò ad enunciare un programma, ma si forzò di darne una
esecuzione quanto più completa possibile, in stretta connessione con i
procedimenti dell’algebra e dell’aritmetica, della quale usa i simboli (ad es.
la congiunzione logica viene espressa con +, per cui x + y sta ad indicare ad
es. “pecore e buoi”). In lui non è ancora emersa la consapevolezza
dell’esistenza di metodi puramente logici, con un simbolismo diverso ed
autonomo rispetto a quello dell’algebra.
Un aspetto particolare dell’approccio booleano La logica come studio delle
è quello di intendere la logica come lo studio delle leggi del pensiero umano: è
leggi del pensiero umano (ciò è in particolare psicologismo?
evidente nella sua seconda opera, come indica del resto il suo stesso titolo,
An Investigation of the Laws of the Thought, on which are Founded the
Mathematical Theories of Logic and Probabilities). Per tale aspetto egli è
stato criticato, dai logici contemporanei che hanno seguito l’impostazione
della logica di Russell150, per essere ancora legato a quell’impostazione
psicologistica, tipica della filosofia della metà del secolo, che egli avrebbe
ripreso dal logico suo contemporaneo W. Hamilton (1788-1856)151, il cui
rifiuto sarà il contrassegno più tipico della logica matematica
147
G. Boole, Indagine…, cit., p. 15.
G. Boole, Analisi matematica…, cit., p. 69.
149 F. Barone, op. cit., p. 63.
150 Su tale interpretazione russelliana, poi fatta propria dai protagonisti del Circolo di Vienna,
cfr. M. Trinchero, Introduzione a Boole, Indagine…, cit., pp. lxxiii-lxxviii.
151 Cfr. Barone, op. cit., pp. 77-8.
148
84/229
Lezioni di logica e filosofia della scienza
contemporanea152. Secondo questa interpretazione, la matematica e la logica, che Boole vuole ricostruire sulla base di quella, non fanno altro che
esprimere il modo di funzionamento del cervello umano, le sue leggi
empiriche: «In primo luogo, nostro scopo è il sottoporre ad indagine le
leggi fondamentali delle operazioni mentali, in virtù delle quali si attua il
ragionamento»153. La conseguenza sarebbe che la logica non godrebbe di
alcun statuto privilegiato rispetto a qualunque altra scienza empirica, e
quindi verrebbe a perdere quella universalità e necessità che sempre le è
stata riconosciuta. Tuttavia, è stato fatto notare, le operazioni della mente
alle quali Boole si riferisce non sono quelle che di fatto essa compie, in
tutte le accidentalità tipiche ed idiosincratiche del singolo individuo;
ovvero, egli non mira a descrivere come di fatto ragionano gli uomini,
bensì quali siano le leggi del ragionamento corretto; le leggi logiche non
hanno pertanto natura descrittiva, ma normativa154. Ne segue, grazie a
questa sua convinzione di fondo, che il contenuto della sua opera – specie
nel suo primo lavoro The Mathematic Analysis of Logic – fu libero dal
condizionamento psicologico: «fu l’opera di Boole a mostrare chiaramente,
con l’esempio, che la logica poteva studiarsi proficuamente senza alcun
riferimento a nostri processi psichici. Senza dubbio egli credeva di trattare
leggi del pensiero in qualche senso psicologico di quell’ambiguo termine,
ma in realtà trattava alcune delle leggi generalissime dei pensabili»155.
Sulla base dei segni e delle leggi introdotte
reinterpretazione del silBoole può procedere a tradurre il calcolo La
logismo nell’algebra delle
sillogistico nella sua algebra logica, innanzi tutto classi e la liquidazione della
operando la trascrizione delle proposizioni logica aristotelica
universali e particolari: «Intendo mostrare in qual
modo i processi del sillogismo e della conversione si possano condurre in
maniera estremamente generale, in base ai principi di questo trattato e,
considerandoli in relazione a un sistema di logica le cui fondazioni si
ritiene di aver gettato nelle leggi ultime del pensiero, cercherò di determinare il posto che gli spetta veramente e il loro carattere essenziale»156.
La conclusione non può che essere devastante: la logica aristotelica è
152
Si veda ad es. la valutazione che ne dà P.E.B. Jourdain ad inizio secolo, nel periodo di
massimo trionfo dell’impostazione logicista, esplicitando una linea interpretativa che avrà una
grande fortuna («The Development of Theories of Mathematical Logic and the Principles of
Mathematics», The Quarterly Journal of Pure and Applied Mathematics, xli, 1910, pp. 324-52).
Ancora in tempi recenti è questa l’interpretazione che ne dà C. Mangione, op. cit., pp. 93, 108110.
153 Boole, Indagine…, cit., p. 12.
154 Cfr. C. Celluci, Le ragioni della logica, Laterza, Bari 1998, p. 58.
155 W.C. Kneale – M. Kneale, op. cit., p. 463. Dello stesso avviso Blanché, op. cit., p. 313.
Afferma Trinchero: «In realtà, Boole non s’era mai proposto distabilire “come la gente pensi”, né
di far della logica un ramo della psicologia; né tanto meno s’era sognato d’affermare che
“l’enunciazione di un fatto è vera solo perché qualcuno pensa che lo sia” o che le leggi del
pensiero siano paragonabili alle leggi fisiche […] Allo stesso modo cadevano fuori della
competenza delle Laws proprio quelle questioni che avrebbero fatto saltare di gioia uno
psicologista vero […] appariva chiaro che l’appello alle leggi della mente aveva la funzione di
accentrare l’analisi sul piano del linguaggio, tenendovela rigorosamente ancorata» (op. cit., pp.
lxxviii-lxxix).
156 Boole, op. cit., pp. 317-8.
85/229
Lezioni di logica e filosofia della scienza
definitivamente affossata, ridotta solo ad una applicazione particolare del
sistema generale da lui proposto, con un carattere quindi assolutamente
secondario e del tutto inefficace come strumento d’analisi del sapere. Viene
in particolare demolita la struttura soggetto-predicato della logica classica,
in favore del suo metodo più generale, che non confina la sua attenzione al
soggetto e predicato, ma può partire da qualsiasi elemento o combinazione
di elementi e quindi elaborare liberamente la struttura della proposizione.
Anche il sillogismo viene ridotto al simbolismo da lui introdotto ed è
destituito dal suo ruolo centrale come strumento principe del ragionamento
umano. Tracciando il suo bilancio finale, Boole tesse l’elogio funebre della
logica classica col riconoscerle i meriti passati, per poi definitivamente
seppellirla, privandola di ogni avvenire: «Quali sono dunque le conclusioni
finali sulla natura e l’estensione della logica scolastica, a cui ci conduce la
nostra analisi? Ritengo che siano le seguenti: che la logica delle Scuole non
è una scienza, ma una collezione di verità scientifiche troppo incomplete
per formare un sistema di per sé stesse e non sufficientemente fondamentali
da servire come la base su cui possa riposare un sistema perfetto. Tuttavia,
dal fatto che la logica delle Scuole è stata rivestita di attributi ai quali non
ha alcun diritto, non segue che essa non sia meritevole di considerazione.
Un sistema che è stato associato con la stessa crescita del linguaggio, e che
ha lasciato un’orma così profonda sui maggiori problemi e sulle più famose
dimostrazioni della filosofia, non può essere completamente immeritevole
d’attenzione. Si deve ammettere che anche la memoria e l’uso hanno molto
da fare con i processi dell'intelletto; e alcuni canoni dell’antica logica si
sono profondamente intessuti nella trama del pensiero degli intelletti più
alti. Ma se le forme mnemoniche nelle quali sono state presentate le regole
particolari della conversione e del sillogismo posseggano una qualche
utilità reale; se la stessa abilità che si suppone esse conferiscano non possa,
con maggiore profitto per i poteri mentali, essere acquistata dagli sforzi
autonomi di una mente lasciata libera di usare le proprie risorse; questi
sono problemi che non sarebbe inutile rimettere in discussione. Per quanto
riguarda i risultati particolari che abbiamo ottenuto […], si deve osservare
che essi sono intesi unicamente ad aiutare la ricerca sulla natura della
logica ordinaria o scolastica, e le sue relazioni con una teoria più perfetta
del ragionamento deduttivo»157.
Infine, il nuovo strumento che in tal modo La fecondità filosofica della
Boole ha forgiato avrebbe mostrato la sua logica booleana: l’analisi
fecondità nella sua applicazione filosofica, delle opere di Clarke e Spinoza
permettendo una migliore analisi e chiarimento
dei tradizionali problemi della filosofia. A tal scopo Boole si propone di
analizzare due esempi di argomentazione, tratti dalla Dimostrazione
dell’essere e degli attributi di Dio di Samuel Clarke e dall’Etica di Spinoza,
cioè da due opere che venivano al suo tempo universalmente considerate
come un modello di rigore argomentativo, che seguiva, specie quella di
157
Ib., p. 337.
86/229
Lezioni di logica e filosofia della scienza
Spinoza, l’esempio delle matematiche e della geometria. Di queste Boole
effettua una vera e propria ricostruzione analitica, esplicitando le premesse
contenute nelle loro argomentazioni, esprimendole nel “linguaggio dei
simboli” e quindi, impiegando i metodi già esposti nella sua opera, trae «le
conclusioni più importanti che tali premesse implicano»158. La
manchevolezza di tali opere si scorge subito proprio nella difficoltà di
accertarne le premesse, per cui si constata che «in quelli che sono
considerati come gli esempi più rigorosi di ragionamento applicato alle
questioni metafisiche, sono spesso confuse insieme diverse concatenazioni
di ragionamenti; che certe parti della dimostrazione, che hanno un carattere
loro particolare, ma che nondimeno sono essenziali, vengono menzionate
per inciso o vengono lasciate fuori del corso principale
dell’argomentazione; che talvolta il significato di una premessa è in certa
misura ambiguo, e che abbastanza sovente certe argomentazioni, considerate dal punto di vista delle leggi rigorose del ragionamento formale, sono
scorrette o inconcludenti»159.
Ne conclude Boole sulla «futilità di stabilire interamente a priori
l’esistenza di un essere infinito, i suoi attributi e le sue relazioni con
l’universo»160; in sostanza, sull’impossibilità di passare dal piano puramente
logico a quello esistenziale. Era questa una lezione severa che indicava i
limiti della ragione ed anche della validità dello stesso sistema da Boole
proposto; ma anche una indicazione positiva sul carattere analogico ed
induttivo della conoscenza implicante l’allargamento dell’esperienza, al cui
fine Boole propone la sua teoria della probabilità.161
1.4 Alcune nozioni elementari dell’algebra
Il concetto di ‘classe’ e le
della logica. Alla base del sistema booleano v’è principali operazioni tra esse
il concetto di ‘classe’, che indica una collezione
di individui (o elementi), caratterizzati per il fatto di essere denominati o
descritti in un certo modo. Ad es., col simbolo x indicheremo la classe
formata da tutti gli uomini, cioè la classe ‘uomini’; con y la classe formata
da tutti i ‘buoni’ (ovvero, da «tutte quelle cose alle quali può applicarsi la
descrizione ‘buono’»162) e così via163. Due classi particolari sono quelle che
Boole indica col numero 1 e col numero 0: sono rispettivamente la classe
‘universo’ (ovvero quella classe che comprende ogni classe possibile di og158
Ib., p. 261.
Ib., p. 262
160 Ib., p. 304.
161 A tale argomento sono dedicate le parti finali della sua Indagine…, dal cap. xvi al cap. xxi
(pp. 338-544).
162 Boole, op. cit., p. 47.
163 Nella sua precedente opera Boole distingueva tra l’oggetto o classe X e il “simbolo elettivo”
x che simbolizza l’operazione di scelta operata dalla mente di modo che esso, «operando su un
qualsiasi soggetto comprendente individui o classi, scelga da quel soggetto tutte le X che esso
contiene. In maniera analoga si assumerà che il simbolo y, operando su un qualsiasi oggetto,
scelga da esso tutti gli individui membri della classe Y che sono compresi in esso, e così via»
(Analisi matematica, cit., p. 76). Pertanto il simbolo x sceglie da un dato soggetto tutti gli X e così
via. Tale distinzione viene fatta cadere nella Indagine…, cit., la cui impostazione sarà da noi
seguita.
159
87/229
Lezioni di logica e filosofia della scienza
getti, sia esistenti che immaginabili) e la classe ‘vuota’ (o nulla, che non
comprende alcun oggetto). A queste classi Boole applica un certo numero
di operazioni, indicate dai segni +, –, ¥. Così abbiamo la classe formata da
x ¥ y (indicata anche con xy, come in algebra,), cioè da tutte le cose «a cui
sono applicabili, simultaneamente, i nomi o le descrizioni rappresentati da x
e y» 164. Se, ad es., x sta per ‘cose bianche’ e y sta per ‘animali’, allora xy
indicherà la classe formata dagli ‘animali bianchi’. L’operazione x + y
indica l’aggregazione (o unione) di classi, che nel linguaggio comune si
indica con le congiunzioni ‘e’ oppure ‘o’; per cui, seguendo l’esempio
precedente, x + y indica la classe formata dalle cose bianche e/o dagli
animali (che è diversa da quella formata dagli ‘animali bianchi’)165.
L’operazione x - y indica la separazione delle classi, cioè la classe degli
oggetti che sono x e non y, che nel linguaggio comune viene indicata con la
locuzione ‘ad eccezione’, ‘eccetto’; per cui avremo (in base all’esempio
dato) la classe delle cose bianche eccetto gli animali. Infine Boole
introduce il segno di identità =, che è un segno di relazione e permette di
formare le proposizioni; esso sta ad indicare l’equivalenza delle classi ed
esprime ciò che nel linguaggio comune viene di solito reso mediante la
copula ‘è’, in senso esistenzale, in quanto ritiene che tutti gli altri verbi
siano in essa trasformabili (“Cesare conquistò la Gallia” equivale a dire
“Cesare è colui che conquistò la Gallia”, ovvero “Cesare e il conquistatore
della Gallia sono la medesima persona”). Una volta stabilito il
‘vocabolario’ del suo sistema di logica, Boole introduce alcune leggi che ne
regolano il funzionamento e che sono in gran parte riprese da quelle
dell’algebra. Sono sostanzialmente
• la legge di distributività: z(x + y) = zx + zy;
• la legge di commutatività: xy = yx;
• le legge degli indici: xn = x, quest’ultima propria dall’algebra logica e
non valida invece in quella numerica (dove non è vero che 32 = 3).
Inoltre, in base a quanto detto, Boole introduce anche i termini negativi,
ad es. la negazione della classe x, senza la necessità di introdurre nuovi
simboli od operazioni, ma concependola come il complemento di x rispetto
all’universo: (1 – x) sta ad indicare tutti gli oggetti eccetto x, cioè che non
sono x, e pertanto rappresenta la negazione di x.
Possiamo sintetizzare quanto detto nella seguente tabella:
Espressione booliana
x, y, z, ecc.
Significato
Esempio
Simboli letterali, che rappresen- x sta per ‘gli uomini’, y sta per ‘le
tano classi, ovvero collezioni di cose bianche’, z per ‘gli animali’,
individui o di cose aventi una ecc.
certa caratteristica
164
Ibidem.
Boole intepreta la disgiunzione ‘o’ in modo esclusivo, in quanto afferma che «a rigore le
parole ‘e’, ‘o’, interposte fra i termini che descrivono due o più classi di oggetti, implicano
l’assoluta distinzione di queste classi, così che nessun membro dell’una appartiene anche all’altra»
(ib., p. 53). Ciò si discosta dal modo usuale in cui viene intesa la disgiunzione nella logica
contemporanea, che la interpreta nel senso di vel: l’uno o l’altro oppure entrambi, per cui la
proposizione complessa formata da “p o q” è falsa solo nel caso in cui entrambe le proposizioni
componenti sono false.
165
88/229
Lezioni di logica e filosofia della scienza
certa caratteristica
Simbolo che indica una classe vx sta per “alcuni degli uomini”
avente almeno un elemento e
v
pertanto viene interpretato come
esprimente il termine ‘alcuni’.
Segni di operazioni applicantesi x + y sta per la classe degli “anialle classi
mali e/o cose bianche”
+, –, x
x - y , sta per la classe degli
“animali eccetto quelli bianchi”
x x y (oppure x y ) sta per la
classe degli “animali bianchi
Segno di relazione, indicante Se rappresentiamo con x le ‘stelidentità; permette la formazione le’, con y i ‘soli’, con z i ‘pianeti’,
=
delle proposizioni
allora x = y + z sta a significare
la proposizione “le stelle sono i
soli e i pianeti”.
Segni rappresentanti l’universo
(cioè l’insieme di ogni classe di
1, 0
oggetti) e il ‘niente’ (ovvero la
classe che non contiene alcun
elemento, o ‘vuota’)
Leggi di distributività del pro- Stiano z per ‘europeo’, x per ‘uoz(x + y) = zx + zy
dotto, rispetto alla somma e ri- mini’ e y per ‘donne’, allora dire
z(x - y) = zx - zy
spetto alla differenza. Valide an- “uomini e donne europei” è la
che in algebra
stessa cosa che dire “uomini europei e donne europee”
xy = yx
Leggi di commutatività per il Dire “uomini bianchi” e “bianchi
x+y=y+x
prodotto e per la somma. Valide uomini” è la stessa cosa
anche in algebra
Legge degli indici. Non valida in Nel caso in cui n=2, dire che un
algebra
classe è formata di “uomini uomixn = x
ni” è lo stesso che dire essa è
formata da ‘uomini’ (cioè xx = x).
La reiterazione può avere solo
una funzione retorica.
Negazione
Se x sta per ‘uomini’, allora l’espressione significa “tutte le cose
(1 – x)
eccetto gli uomini”, ovvero tutto
ciò che non è ‘uomini’, cioè nonuomini
x (1 - y) = 0
Proposizione universale afferma- Se x sta per ‘uomini’ e y sta per
tiva
‘mortali’, allora l’espressione sta
a significare che la classe degli
“uomini non-mortali” è vuota,
cioè che non esistono uomini
immortali e quindi “tutti gli uomini sono mortali”.
xy = 0
Proposizione universale negativa Se x sta per ‘uomini’ e y sta per
‘mortali’, allora l’espressione sta
a significare che la classe degli
“uomini mortali” è vuota; cioè
nessun uomo è mortale.
Proposizione particolare afferma- Se y sta per ‘animali’ e x per
y = vx
tiva
‘quadrupedi’, allora l’espressione
significa “gli animali sono alcuni
dei quadrupedi”, ovvero che “alcuni animali sono quadrupedi”.
x (1 - y) = v
Proposizione particolare negativa Se x sta per ‘uomini’ e y sta per
‘greci’, allora l’espressione sta a
significare che il prodotto tra gli
‘uomini’ e i ‘non-greci’ dà luogo
ad una classe che contiene
almeno un elemento; ovvero
“alcuni uomini non sono greci”.
Principali espressioni e leggi booliane. Si riportano i segni e le operazioni fondamentali ammessi da Boole, nonché il modo in cui rendono nel suo sistema le proposizioni universali e particolari (affermative e negative) appartenenti alla tradizione sillogistica. Gli esempi utilizzati sono
tratti in gran parte dalla sua Indagine sulle leggi del pensiero, citata nel testo.
89/229
Lezioni di logica e filosofia della scienza
Il passaggio dall’algebra delle classi a quella “Proposizioni primarie” e
delle proposizioni avviene mediante la distinzione “secondarie”: il passaggio al
tra “proposizioni primarie” e “proposizioni calcolo proposizionale
secondarie”.166 Le prime (dette anche ‘concrete’)
esprimono relazioni tra cose, come quando affermo “il Sole brilla”, che
equivale a dire “il Sole è una cosa brillante”, con ciò esprimendo una
relazione tra due classi di cose. Le “proposizioni secondarie” esprimono
una relazione tra proposizioni, come quando affermo “se il Sole brilla, la
Terra si riscalda”, in cui metto in relazione due proposizioni primarie e così
ottengo proposizioni condizionali, disgiuntive ecc. In tal modo il calcolo ha
come suoi costituenti non delle classi di oggetti o elementi, bensì delle
proposizioni primarie che non vengono analizzate nei loro costituenti
(ovvero nella loro struttura interna, formata da soggetto e predicato, così
come avveniva nella logica aristotelica e classica), ma solo nei loro rapporti
reciproci. Questo passaggio dal piano ‘primario’ a quello ‘secondario’
comporta un significato diverso dei simboli prima introdotti, in quanto ora
è necessario considerare la proposizione per la sua verità o falsità. Pertanto
i simboli 1 e 0 – che prima indicavano la classe universo e quella vuota
–stanno ora ad indicare il vero ed il falso e le variabili x, y, z indicano proposizioni. Avremo dunque che se x è vera, allora (1 - x) è falsa (e
viceversa); e nel caso di relazione tra due proposizioni potremo avere solo
quattro casi:
• xy, cioè x vera, y vera;
• x(1 – y), cioè x vera, y falsa;
• (1 – x)y, cioè x falsa, y vera;
• (1 – x) (1 – y), cioè x falsa, y falsa.
Quanto detto basta a far vedere una Identità strutturale tra calcolo
caratteristica molto importante del sistema di delle classi e calcolo propoBoole, e cioè il fatto che il calcolo delle classi e sizionale, diverse solo per
quello delle proposizioni hanno la stessa struttura l’interpretazione. Nasce “l’alformale; a differenziarli è solo l’interpretazione gebra astratta”
che viene data ai segni che in essi compaiono. Come afferma Boole, «le
leggi, gli assiomi e i processi di una tale algebra [delle classi] saranno in
tutto e per tutto identici alle leggi, agli assiomi e ai processi di un’algebra
della logica. Divideranno le due algebre soltanto differenze di interpretazione»;167 e spiega: «[…] la discussione della teoria delle proposizioni
166
Il fatto che il calcolo delle proposizioni di Boole, ottenuto per traduzione da quello delle
classi, non corrisponda completamente a quanto poi sarà inteso con tale nome è stato messo in
evidenza dai logici successivi. Cfr. F. Barone, op. cit., pp. 96-7.
167 Ib., p. 60. Tuttavia, come è stato notato da Mangione (sulla scorta di Barone), tale perfetta
identità formale non può essere stabilita in quanto, dato il significato attribuito a 1 e 0, affermare
che x = 0 non significa affermare semplicemente la falsità di x, bensì la sua contraddittorietà, nel
senso che “x è sempre falsa”; ed analogamente x = 1 sta a significare che “x è sempre vera”
(ovvero, si direbbe oggi, è una tautologia). Una delle ragioni fondamentali di ciò viene individuata
«nel fatto che per Boole il calcolo delle classi (delle proposizioni categoriche) costituisce il
fondamento del calcolo delle proposizioni (secondarie). Oggi sappiamo che tale rapporto è
esattamente invertito, riconosciamo cioè priorità logica al calcolo delle proposizioni (secondarie in
terminologia booleana) rispetto a quello delle classi» (C. Mangione, op. cit., pp. 122-3). Tale
critica assume, però che nel calcolo formale puramente astratto di Boole sia possibile interpretare
90/229
Lezioni di logica e filosofia della scienza
secondarie è interessante per la stretta e notevole analogia che essa presenta
nei confronti della teoria delle proposizioni primarie. Si vedrà che in
entrambi i casi le leggi formali a cui sono sottoposte le operazioni della
mente sono identiche dal punto di vista della loro espressione. Pertanto
saranno identici anche i procedimenti matematici che si fondano su tali
leggi […] Ma mentre le leggi e i procedimenti del metodo rimangono
immutati, la regola d’interpretazione dev’essere adattata a nuove
condizioni. Alle classi di cose dovremo sostituire proposizioni e in luogo di
relazioni fra classi e individui dovremo prendere in considerazione le
connessioni di proposizioni o di eventi. Ancora, si vedrà che, nonostante la
differenza di scopi e d’interpretazione, tra i due sistemi esiste dovunque
un’armoniosa correlazione: esiste un’analogia che, mentre serve a facilitare
la risoluzione di tutte le difficoltà superstiti, costituisce di per sé stessa un
interessante argomento di studio e una prova conclusiva di quell’unità di
carattere che contrassegna la costituzione delle facoltà umane»168.
Seguendo questa strada ed ispirandosi a questa impostazione sarà poi
sviluppata la nozione di “algebra di Boole”, ovvero di una struttura formale
che può essere interpretata in vari modi, o come teoria degli insiemi, o
come calcolo proposizionale o come teoria dei numeri, e così via: è questa
la strada che porta alla moderna “algebra astratta”169.
1.5 Il perfezionamento dell’algebra della logica. I successori di Boole: Jevons e
L’opera di Boole non fu senza seguito; è grazie al Venn
suo impulso che nella seconda metà dell’Ottocento fiorirono una molteplicità di ricerche come mai prima s’era visto e che
portarono nel giro di circa mezzo secolo alla edificazione di quella che oggi
viene chiamato solitamente “algebra della logica”: è nel suo contesto che si
situano la gran parte dei lavori di logica ‘scientifica’ della seconda metà del
secolo (con l’eccezione di Frege, del quale parleremo in seguito). Essa
scaturisce dal proseguimento del programma booleano ed al tempo stesso
dal superamento di alcune sue limitazioni, sia tecniche sia nella
impostazione di fondo.
Innanzi tutto è urgente perfezionare il suo simbolismo e reinterpretare
alcuni suoi concetti in modo da renderli più consoni alla espressione
dell’argomentazione logica, che fa uso di proposizioni e non di classi. Così
diversamente tutti i simboli tranne 1 e 0, che restano costanti nel loro significato; sicché il calcolo
delle proposizioni non sarebbe una interpretazione del formalismo astratto individuato da Boole e
che sta alla base di ogni interpretazione (come quelle che danno origine al calcolo delle classi e
delle proposizioni), bensì di un sistema formale già interpretato, quello delle classi, del quale si
“reinterpretano” tutti simboli ad accezione di 1 e 0, che mantengono lo stesso significato.
168 Ib., p. 228. Come ha messo in luce Bochenski, riferendosi in particolare al brano citato
nella n. 19, «La caratteristica del testo di Boole che ha fatto epoca è la spiegazione esemplarmente
lucida dell’essenza del calcolo, cioè del formalismo […] Boole si rende anche conto della
possibilità di interpretare lo stesso sistema formale in modi diversi. Ciò fa supporre che egli, a
differenza di tutti i logici precedenti, non pensasse alla logica come a un’astrazione fatta a partire
da procedimenti attuali, ma come a una costruzione formale di cui soltanto successivamente si
debba ricercare un’interpretazione. Ciò è del tutto nuovo e in contrasto con l’intera tradizione,
Leibniz incluso» (op. cit., p. 363).
169 Cfr. L. Lombardo-Radice, Istituzioni di algebra astratta, Feltrinelli, Milano 1982.
91/229
Lezioni di logica e filosofia della scienza
William Stanley Jevons (1835-1882) propone, in ossequio al pensiero comune, di intendere la disgiunzione ‘o’ in modo non esclusivo ed introduce
la “legge di unità” (A + A = A) e la “legge di assorbimento” (A + AB = A),
così come in effetti avviene nella logica contemporanea (vedi riquadro). A
sua volta John Venn (1834-1923), più fedele all’insegnamento di Boole
(mantiene la somma esclusiva), introduce il suo sistema di rappresentazione
delle classi per mezzo di cerchi, che perfeziona quello a suo tempo
introdotto da Eulero (vedi riquadro).
Legge di unità
Nel sistema di Jevons le lettere A , B , C denotano classi (se interpretate
estensionalmente) oppure qualità o proprietà (dal punto di vista intensionale). Se
consideriamo la classe A = “i triangoli equilateri”, allora è evidente che la somma
tra la classe dei triangoli equilateri e se stessa dà come risultato sempre la classe
dei triangoli equilateri. In Boole, come si ricorderà, ciò era espresso dalla “legge
degli indici”, che però si riferiva al prodotto logico.
Legge di assorbimento
Può essere chiarita con un esempio. Sia A formata dai “greci ateniesi” e B dai “greci
spartani”; allora AB sarà formata dai greci semplicemente (in quanto si prende ciò
che è in comune alle due classi). Ora sommando A e AB (cioè i “greci ateniesi” e i
“greci”) otterremo ovviamente nuovamente i “greci ateniesi”, cioè A. Ciò è ancora
più chiaro con un esempio numerico, scritto nel linguaggio della teoria degli
insiemi. Se A = {1, 2, 3} e B = {3, 4, 5}, sarà A « B = {3} e quindi A » (A « B) =
{1, 2, 3}, cioè A.
Ma l’esigenza più sentita dai logici che si rial- L’esigenza di liberare la
lacciavano più o meno direttamente a Boole è logica dalla troppo stretta
quella di liberare la logica dalla troppo stretta connessione col simbolismo e
sottomissione verso la matematica. L’adozione i procedimenti matematici
del simbolismo algebrico e la subordinazione del calcolo proposizionale a
quello delle classi, sembravano costituire una camicia di forza che
impediva alla logica di sprigionare tutte le proprie potenzialità come disciplina autonoma. Era questa la critica di fondo mossa da Jevons all’algebra
booliana, ritenendo un vero e proprio ‘pregiudizio’ la fondamentalità del
calcolo delle classi e quindi della matematica rispetto alla logica, da lui
invece ritenuta scienza superiore e base della matematica come di tutte le
altre scienze: è questa la strada che sarà poi ripresa dal logicismo. Lo stesso
Venn - pur più fedele all’impostazione di Boole - cerca nella sua opera di
limitare il peso della veste eccessivamente matematizzante, assunta
dall’algebra della logica, accentuando il suo formalismo e quindi valorizzando il carattere astratto condiviso sia dalla logica che dalla matematica,
in nome di un più generale “linguaggio dei simboli”.
Altre necessarie integrazioni andavano fatte McColl e de Morgan: la preall’impostazione booliana sia per quanto riguarda minenza dell’implicazione e
il calcolo proposizionale, sia in direzione di una l’importanza delle relazioni
adeguata valorizzazione delle relazioni. Nella non simmetriche
prima direzione il contributo più rilevante fu dato da Hugh McColl (18351909), che cercò di costruire un calcolo proposizionale centrato sull’uso
dell’implicazione “se… allora”, considerata come componente fonda92/229
Lezioni di logica e filosofia della scienza
mentale di una logica rivolta principalmente alle argomentazioni deduttive
e svincolata pertanto dalla subordinazione al calcolo delle classi. Per cui in
lui comincia ad intravedersi il capovolgimento della prospettiva booleana,
in direzione di quella valorizzazione della componente proposizionale considerata quale momento fondamentale della logica e con ciò
preannunciando il capovolgimento del rapporto tra calcolo delle classi e
calcolo proposizionale che sarà teorizzato a pieno solo da Frege. Nella
seconda direzione invece diede preziose indicazioni Alexius de Morgan
(1806-1871), che criticò il calcolo booleano incentrato sulle classi in quanto
vedeva in esso un residuo della vecchia logica fondata sul nesso tra
soggetto e predicato e quindi sulla univoca interpretazione della copula ‘è’.
Egli invece mise in luce come siano possibili altri tipi di nessi tra termini,
come ad es. “maggiore di” o “minore di”, che non sono riducibili alla
identità booliana, in quanto hanno il carattere della non simmetricità: se a è
maggiore di b, non è vero che b è maggiore di a. Egli pertanto individuava
delle ‘relazioni’ tra termini aventi carattere generale (e che quindi possono
ricevere diverse interpretazioni), come quelle della transitività e della simmetricità. È questo il programma di una “logica delle relazioni”, già intuita
da Lambert e dal leibniziano G. Ploucquet (1716-1790), che avrà in seguito
un grande sviluppo e che solo l’eccessivo attaccamento alla sillogistica
aristotelica, della quale si voleva fornire una generalizzazione e
sistematizzazione, impedì a de Morgan di sviluppare adeguatamente.170
Rappresentazione di Venn
Consideriamo il sillogismo seguente: Ogni animale è mortale; ogni uomo è animale;
quindi, ogni uomo è mortale. Le tre classi sono rappresentate dai tre cerchi che si
intersecano. Si rappresenta la prima proposizione ‘oscurando’ la parte di cerchio
che non contiene alcun elemento. In questo caso è resa col grigio la parte del
cerchio rappresentante la classe degli animali esterna al cerchio dei ‘mortali, per
indicare che essa non comprende alcun elemento, essendo tutti gli animali compresi
tra i mortali. Quindi si rappresenta la seconda proposizione in modo analogo, e
pertanto si ‘oscura’ la parte del cerchio ‘uomini’ esterna a quello di ‘animali’ (sempre
per indicare che essa non comprende alcun elemento). La conclusione del sillogismo
è data dalla parte della figura non ‘oscurata’ (quella centrale), che appunto
comprende tutti gli uomini che sono mortali (infatti la parte esterna ed essa,
appartenente al cerchio ‘uomini’, è oscurata).
170
«[…] l’ancoramento del logico inglese al modello aristotelico agì in definitiva più come un
momento bloccante che come stimolo per la sua visione della logica, sicché egli non seppe
concretare operativamente possibili prospettive di un calcolo più generale in senso moderno,
prospettive che qua e là affiorano, a livello di anticipazione, nei suoi scritti; in particolare per
quanto riguarda la teoria delle relazioni non seppe comprendere che la teoria stessa,
indipendentemente dal suo rapporto con la sillogistica, costituiva una dottrina autonomamente
importante e interessante ogni campo della matematica. Intravvide insomma varie
generalizzazioni e aperture possibili, nell’ambito però di un contesto che ormai aveva fatto il suo
tempo ed era stato di fatto superato dalla prospettiva booleana» (C. Mangione, op. cit., p. 106).
93/229
Lezioni di logica e filosofia della scienza
L’approfondimento della logica delle relazioni Il contributo misconosciuto di
(che tende a sostituirsi a quella delle classi, vista Peirce
ora come un suo caso particolare), una più esatta
definizione dell’operazione di quantificazione e della sua scrittura, lo
sviluppo del calcolo proposizionale basato sulla nozione di “implicazione
materiale” e l’individuazione di una procedura di decisione facente uso di
tavole di verità (poi ritrovata indipendentemente e divulgata da
Wittgenstein, Post e ¸ukasiewicz; vedi il § seg.), nonché una sempre più
decisa affermazione della indipendenza della logica dalla matematica,
cercando così di porre rimedio all’eccessivo matematismo di Boole171
(come nel caso dell’uso della relazione di inclusione in luogo di quella di
identità, che così veniva definita suo tramite): questi i contributi più
significativi forniti da Charles S. Peirce (1839-1914). Tuttavia la
frammentarietà dei suoi scritti logici e la scarsa conoscenza che si ebbe
della sua opera quando era ancora in vita – aspetti che richiamano in mente
Leibniz – hanno fatto sì che i suoi contributi non abbiano inciso
direttamente sullo sviluppo della logica successiva, anche se oggi si
riconosce a Peirce un posto di prima grandezza tra i logici contemporanei.
Infatti a lungo la sua figura è stata nota perché legata alla corrente filosofica
della quale è stato riconosciuto uno dei maggiori rappresentanti, il
pragmatismo, piuttosto che ai suoi contributi in campo logico.
Legato alla figura di Peirce è in qualche modo Schröder e la sistematizzaanche il tedesco Ernst Schröder (1841-1902), sia a zione dell’algebra della logicausa degli innumerevoli influssi reciproci, sia in ca e i limiti della sua opera
quanto entrambi parteciparono al comune progetto
di sviluppo di quell’algebra della logica il cui fondatore era stato Boole,
cercando di perfezionarla non solo tecnicamente, ma anche col chiarirne
alcuni aspetti concettuali, lasciati in ombra dal suo fondatore. Diversamente
da Peirce, le opere di Schröder hanno una tipica sistematicità teutonica: le
Vorlesungen über die Algebra der Logik (pubblicate tra il 1890 e il 1905)
ambiscono in tre monumentali volumi a presentare una sintesi di tutta la
171 E’ per questo aspetto che Peirce è stato considerato come «l’anello di mediazione fra
l’impostazione algebrica della logica dovuta e Boole e il filone ‘logicistico’ in seguito sviluppato,
come vedremo, da Russell e Frege (cfr. C. Mangione, op. cit., pp. 94, 137).
94/229
Lezioni di logica e filosofia della scienza
scienza della logica al suo tempo disponibile, dando una sistematica
organicità e portando a perfezionamento l’eredità di Boole, del quale
mantiene la priorità del calcolo delle classi su quello proposizionale. E’
l’algebra della logica, da lui portata a compimento, che costituisce
l’orizzonte che circoscrive, a suo avviso, ogni possibile ulteriore sviluppo
della materia, sicché – come afferma icasticamente Husserl in una lettera a
Frege – «è un brillante tecnico matematico, ma niente di più», privo di
finezza e rigorosità logica.172
Tuttavia la complicatezza del sistema simbolico non accompagnato da
una seria ed approfondita riflessione sul suo significato, l’eccessivo
attaccamento alla impostazione booliana con una conseguente rigidezza di
impostazione, un chiaro psicologismo (del quale fu però immune Peirce),
tutto ciò fece sentire l’esigenza di una logica rinnovata, svincolata dalla
matematica e che si ponesse direttamente il problema della comprensione
delle leggi che stanno alla base del ragionamento, di ogni ragionamento, ivi
compreso quello matematico. All’assunzione acritica della matematica
come modello su cui edificare la logica – questo il progetto che ha origine
con Boole e dà luogo all’algebra della logica, il cui ultimo esponente è
Schröder – ora succede l’idea che bisogna dare una giustificazione logica
dei procedimenti della matematica, ovvero porre quest’ultima in forma
rigorosa mediante la sua logicizzazione. Sono ovviamente sempre i
matematici a sentire questa esigenza di rigore ed in fin dei conti la logica
viene vista comunque come una scienza ausiliare della matematica (come è
evidente con Peano e la sua scuola); tuttavia ora è l’insoddisfazione dei
procedimenti intuitivi utilizzati dal matematico a far nascere l’esigenza e
l’idea che sia possibili ‘fondarli’ mediante una chiarificazione logica delle
sue procedure: «Per le esigenze stesse della loro scienza essi avevano
bisogno non già di introdurre la matematica nella logica algebrizzando
quest’ultima, ma piuttosto, inversamente, di introdurre la logica nella
matematica e per questo di rinnovare anzitutto il vecchio strumento logico,
affatto insufficiente per il compito che gli era assegnato».173
Sono queste motivazioni e queste prospettive a stare alla base del
programma di una diversa generazione di matematici e logici, che si
riassume nel nome del ‘logicismo’.
1.6 La riflessione sui fondamenti della L’esigenza di dare rigore
matematica. La nuova impostazione del rapporto all’analisi matematica, esatra logica e matematica, come abbiamo già minandone criticamente i
accennato, nasce dal seno stesso di quest’ultima, e fondamenti
cioè dalla necessità di introdurre maggiore rigore nell’analisi,
riesaminandone criticamente i fondamenti. È questo il punto di vista che
sempre più si afferma nel corso dell’Ottocento, quando «di fronte alla
172
E. Husserl, Lettera a Frege del 18 luglio 1891, in G. Frege, Alle origini della nuova logica.
Epistolario scientifico con Hilbert, Husserl, Peano, Russell, Vailati, Boringhieri, Milano 1983, p.
81.
173 R. Blanché, op. cit., p. 350.
95/229
Lezioni di logica e filosofia della scienza
straordinaria ricchezza di risultati, i matematici più attenti alle questioni
metodologiche cominciarono a rendersi conto che anche le nozioni
apparentemente più sicure e i teoremi fondamentali dell’analisi mancavano
di una base rigorosa»174. Non era più possibile attenersi alla settecentesca e
ottimistica professione di fede che D’Alembert, forte dei successi pratici
dell’analisi, lanciava in sfida a coloro che ne mettevano in dubbio le
equivoche e poco chiare basi concettuali: «allez en avant, la foi vous
viendra». È in questo periodo che ha luogo quel «ripensamento di tutta la
matematica che attraverso l’acquisizione della nozione di teoria come sistema ipotetico deduttivo porterà alla concezione dei sistemi matematici
come puri sistemi formali, staccati a priori da ogni interpretazione, che sarà
affermata consapevolmente e in tutta la sua portata soltanto nel nostro
secolo».175
Ma come introdurre tale rigore nella La liberazione della matematematica, specie per alcuni suoi concetti matica dalla sottomissione ai
cruciali come quello di continuità, che sta alla concetti intuitivi della geobase dell’analisi infinitesimale? «La convinzione metria
che lentamente si venne affermando (non senza polemiche ed opposizioni
irriducibili) fu che il rigore desiderato si poteva raggiungere soltanto a patto
di abbandonare il terreno intuitivo dell’evidenza geometrica, da sempre il
riferimento naturale degli argomenti di analisi, e di considerare il concetto
di numero naturale (e l’aritmetica dei naturali) come il fondamento su cui
ricostruire l’edificio dell’analisi».176 Si voleva, insomma, liberare la
matematica dalla tradizionale sottomissione alla geometria: era sulla sua
base che erano stati plasmati i suoi concetti, che così trovavano una
conferma intuitiva nella ‘osservazione’ delle grandezze geometriche. Ciò,
del resto, sin dai tempi di Newton e Leibniz era parso naturale, in quanto
l’analisi aveva a che fare con grandezze continue come lunghezze, aree,
velocità e accelerazioni, cioè tali che la loro variazione poteva avvenire per
incrementi (o decrementi) “infinitamente piccoli”; onde il nome di analisi
infinitesimale. Diversamente dall’aritmetica, il cui campo di studio erano i
numeri naturali che si presentavano come grandezze discrete, le figure
geometriche possedevano la caratteristica dell’infinita divisibilità e della
continuità, che venivano appunto colte in modo intuitivo e pertanto
sembravano costituire una esemplificazione dei concetti analitici. Come
osserva il grande matematico, nonché protagonista del Circolo di Vienna,
Karl Menger, «per secoli le cosiddette “intuizioni geometriche” erano state
usate come mezzo di prova. Nelle dimostrazioni geometriche, certi passi
erano permessi perché “autoevidenti”, perché la correttezza della
conclusione era “mostrata dai diagrammi allegati”, etc. La crisi avvenne
174 U. Bottazzini, Il calcolo sublime. Storia dell’analisi matematica da Euler a Weierstrass,
Boringhieri, Torino 1981, p. 214.
175 C. Mangione, “Logica e fondamenti della matematica nella prima metà dell’Ottocento”, in
L. Geymonat, op. cit., vol. IV, p. 142. Ad un esempio di tale tipo di evoluzione abbiamo già
accennato a proposito della scuola algebrica inglese di Cambridge, che ci ha permesso di capire la
genesi del pensiero di Boole.
176 U. Bottazzini, op. cit., p. 215.
96/229
Lezioni di logica e filosofia della scienza
quando in geometria tali intuizioni si rivelarono inaffidabili. Molte delle
proposizioni considerate come autoevidenti o basate sulla considerazione di
diagrammi si rivelarono false»177.
Tale crisi del ruolo privilegiato dell’intuizione
La nascita delle geometrie
avviene, innanzi tutto, proprio nel terreno della non euclidee e la crisi della
stessa geometria con la progressiva affermazione concezione kantiana
delle geometrie non euclidee. Già preannunciate
nell’opera pionieristica di Gerolamo Saccheri (1667-1733) e quindi oggetto
di riflessione di Carl F. Gauss (1777-1855) (che però non pubblicò nulla
per timore dell’incomprensione dei contemporanei), la geometria non
euclidea fu per la prima volta posta all’attenzione dei matematici dal russo
Nicolaj I. Lobaceskij (1793-1856) e dall’ungherese Janos Bolyai (18021860), ma senza grande eco: «le pubblicazioni dei due finirono ben presto
quasi dimenticate nel novero delle bizzarrie e stravaganti elucubrazioni che
di tanto in tanto si affacciano ai margini della ricerca scientifica»178. Solo
grazie a Bernhard Riemann (1826-1866), nel 1867 (anno di pubblicazione
della sua celebre memoria Sulle ipotesi che stanno alla base della
geometria, letta come dissertazione nel 1857) le nuove geometrie non euclidee riescono a destare l’attenzione del mondo degli studiosi, per poi
entrare di diritto nel mondo della matematica grazie all’opera del grande
matematico francese Henri Poincarè (1854-1912) e ad avere così una funzione determinante per un nuovo modo di intendere la scienza geometrica
in generale. Tralasciando l’esposizione dei suoi dettagli tecnici179, il
significato concettuale di tali geometrie va appunto visto nella crisi di
quella concezione ‘intuitiva’ della geometria che era stata alla base della
concezione kantiana. Il grande filosofo tedesco riteneva la geometria, come
edificata da Euclide, fondata sulla “intuizione pura” e pensava che fosse
l’unica corretta traduzione dello spazio assoluto newtoniano. Essa
costituiva un esempio paradigmatico di conoscenza sintetica a priori:
sintetica, in quanto i suoi teoremi ci dicono qualcosa intorno al mondo, ed
esattamente ci descrivono la struttura dello spazio fisico nel quale viviamo;
a priori in quanto assolutamente certa e non bisognosa di essere giustificata
facendo ricorso all’esperienza. Sembrava pertanto accoppiare in maniera
indissolubile certezza intuitiva e rilevanza empirica: si riassumeva in tale
prospettiva la concezione che sin dall’antichità era stata tramandata della
geometria.
177 K. Menger, “The New Logic” (1937), in Science and Philosophy in the Twentieth Century.
Vol. 2: Logical Empircism at its Peak. Schlick, Carnap, and Neurath, ed. by. S. Sarkar, Garland,
New York & London 1996, p. 141.
178 U. Bottazzini, “La scienza dello spazio e la geometria ‘immaginaria’”, in Storia della
scienza moderna e contemporanea, a cura di P. Rossi, Dall’età romantica alla società industriale,
vol. II, 2, cit., p. 525.
179 Per i quali rinviamo, tra la numerosa letteratura esistente, a testi ottimi per la loro chiarezza
quali E. Agazzi - D. Palladino, Le geometrie non euclidee e i fondamenti della geometria, La
Scuola, Brescia 1998; R. Carnap, I fondamenti filosofici della fisica, Il Saggiatore, Milano 1971.
Vedi anche l’antologica di testi curata da L. Magnani, Le geometrie non euclidee, Zanichelli,
bologna 1978.
97/229
Lezioni di logica e filosofia della scienza
Ma i tentativi infruttuosi, risalenti già all’epoca Il problema del quinto poclassica, di dimostrare il quinto postulato di stulato e la liberazione della
Euclide, quello delle parallele180, avevano condot- geometria dalle intuizioni
to gli studiosi ad ammettere la possibilità di spaziali e dall’evidenza: il
costruire delle geometrie che ne facessero a meno: requisito della coerenza
la negazione del postulato non conduceva affatto ad una contraddizione,
che ne avrebbe dimostrato per assurdo la indispensabilità, ma portava alla
ammissione di due nuove geometrie (quella iperbolica e quella ellittica)
assai ‘strane’, certamente paradossali per la comune intuizione, ma la cui
coerenza venne dimostrata nel 1868 dal matematico italiano Eugenio
Beltrami (1835-1900). Non era quindi necessario accettare il quinto
postulato di Euclide (tutt’altro che evidente), il quale finiva così per essere
una delle possibili ipotesi per costruire una geometria. Sono ammissibili,
insomma, diverse geometrie che, per quanto paradossali e lontane dalla
nostra comune intuizione dello spazio, sono tuttavia coerenti e prive di
contraddizioni interne. In tal modo l’evidenza di cui la geometria euclidea
sembrava essere in massimo grado dotata non è più una garanzia della sua
verità; ciò sta a significare, in generale, che la costruzione di una teoria
matematica non è più subordinata a questioni di evidenza intuitiva, ma
piuttosto all’accertamento della sua mancanza di contraddizioni. Ne deriva
un’altra conseguenza: la geometria non viene più vista come la descrizione
di enti, di ‘oggetti’ ma solo come una costruzione formale astratta, il cui
unico requisito deve essere quello della coerenza: i suoi teoremi non
possono più essere detti ‘veri’, quasi descrivessero degli oggetti aventi
precise caratteristiche ed a cui dovrebbero ‘corrispondere’ le conclusioni in
essi provate. Il problema della verità degli asserti geometrici e matematici
non si pone più a questo livello – che è quello della cosiddetta matematica
‘pura’ – ma solo quando essi vengano ‘applicati’, cioè quando la
matematica venga impiegata per descrivere gli oggetti appartenenti al
mondo fisico, sia esso quello della nostra esperienza quotidiana oppure il
cosmo nella sia interezza. Solo in questo caso è possibile porsi il problema
di sapere quale delle geometrie non euclidee sia quella ‘vera’; è una
questione che ha ormai solo un significato empirico, relativo al tipo di
‘oggetti’ cui siamo interessati. Ad esempio, solo una indagine fisica sulla
struttura dello spazio cosmico può farci decidere quale delle diverse
geometrie sia quella che ad esso corrisponda (ed infatti, come abbiamo
visto, Einstein con la teoria della relatività generale ha dimostrato che la
geometria ‘vera’ per lo spazio cosmico è di tipo non euclideo).
180
Il postulato viene così enunciato da Euclide: «se una linea retta che cade su due altre linee
rette forma dalla stessa parte degli angoli interni la cui somma è minore di due angoli retti, allora
le due linee rette prolungate illimitatamente si incontreranno da quella parte in cui vi sono i due
angoli minori di quello retto» (The thirteen books of Euclid’s Elements, transl. with introd. and
commentary by Thomas L. Heath, Dover Publications, New York 1956, 2ª ed., vol. 1, p. 155).
Esso può più sempliceente esprimersi in una forma equivalente dicendo che, dati un punto ed una
retta esiste sul piano da essi determinato una e una sola parallela per quel punto alla data retta.
Come si può facilmente notare, tale postulato nella formulazione di Euclide non è affatto semplice
da intendere e quindi non ha quel carattere di intuitività ed evidenza posseduti dagli altri enunciati.
Onde l’esigenza di farne in qualche modo a meno.
98/229
Lezioni di logica e filosofia della scienza
La messa in discussione del privilegio dell’in- L’aritmetizzazione dell’analituizione avviene anche nel campo della analisi si e l’esigenza di chiarire il
matematica e porta alla richiesta di un maggior concetto di numero naturale,
rigore nella definizione dei suoi concetti fon- su cui fondare quello di numero reale
damentali. Grandi matematici come Kronecker,
Dedekind, Cantor e Weierstrass (sempre nello stesso torno di anni)
convergono sulla esigenza di chiarificare e definire in maniera rigorosa,
prescindendo da intuizioni geometriche, il concetto di numero reale che ne
sta alla base. Ma la domanda circa la natura dei numeri reali porta ben
presto Dedekind alla convinzione che questi siano riconducibili ai soli
numeri naturali (1, 2, 3, …) e che quindi fosse possibile realizzare la
cosiddetta aritmetizzazione dell’analisi, cioè la fondazione di questa sulla
sola teoria dei numeri naturali, previa una chiarificazione di questi ultimi:
«in senso stretto, per aritmetizzazione dell’Analisi si può allora intendere
l’affrancamento da questa “servitù” geometrica nella stessa definizione di
numero reale e quindi, in una più ampia accezione, la conseguente edificazione dell’Analisi su basi chiarite non più sulla scorta di intuizioni
geometriche non analizzate, ma in termini di oggetti e processi aritmetici
elementari»181. Si pensava inoltre di poter così ricondurre anche le
geometrie non euclidee all’analisi, definendo il concetto di continuo che ne
stava alla base non mediante intuizioni spaziali ma attraverso una sua
determinazione mediante concetti aritmetici. Il rapporto tra analisi e geometria veniva ad invertirsi: tutta l’analisi veniva fondata sulla definizione di
numero reale, che a sua volta poggiava sul concetto di numero intero, che
veniva a costituire così il fulcro intorno a cui ruotava tutto il processo di
rigorizzazione della matematica ottocentesca, la meta per raggiungere la
quale avevano impegnato le loro forze i più grandi matematici del secolo.
Tale risultato fu conseguito dall’italiano Giuseppe Peano (1858-1932) nel
suo Formulario mathematico (1895-1908), grazie alla riduzione di tutto
l’edificio della matematica a soli nove assiomi fondamentali, ammessa la
cui verità è possibile ottenere con pure deduzioni logiche tutto il resto.
L’approccio di Peano aveva inoltre il vantaggio di offrire per la prima volta
un simbolismo assai efficace, di natura logica182, mediante il quale era
possibile effettuare una presentazione assiomatica dell’intera matematica.
Sembrava dunque che fosse stato portato a compimento il processo di
aritmetizzazione: i numeri naturali, come definiti negli assiomi di Peano,
stavano alla base di tutta la matematica. Come affermò Kronecker, «il buon
Dio ci ha dato i numeri naturali, tutto il resto è opera dell’uomo»183.
181
C. Mangione, “Logica e problemi dei fondamenti nella seconda metà dell’Ottocento”, in L.
Geymonat, op. cit., p. 761.
182 B. Russell afferma che il merito principale di Peano «non consiste tanto nelle sue scoperte
logiche particolari o nei dettagli delle sue notazioni (ancorché entrambi eccellenti) quanto nel fatto
di essere stato il primo a mostrare come la logica simbolica dovesse essere liberata dalla sua
ingiustificata ossessione delle forme dell’algebra ordinaria, e a farne con ciò uno strumento
adeguato di ricerca» (Introduzione ai “Principia Mathematica”, a cura di P. Parrini, La Nuova
Italia, Firenze 1977, p. 10).
183 Citato da R. Maiocchi, Storia della scienza in Occidente. Dalle origini alla bomba atomica,
La Nuova Italia, Firenze 1995, p. 418.
99/229
Lezioni di logica e filosofia della scienza
Pareva dunque che coi numeri naturali si fosse arrivati ad un punto oltre
il quale non era possibile più ulteriormente procedere: bisognava dunque
ammettere che ai numeri naturali, doni del buon Dio, non bisognava,
potremmo dire, “guardare in bocca”, con ciò accedendo ad una posizione
sostanzialmente intuizionista, poi ripresa come vero e proprio programma
filosofico dal matematico olandese Luitzen E.J. Brouwer? Oppure
bisognava rassegnarsi a considerare l’aritmetica una attività simbolica resa
possibile da particolari proprietà della mente umana, una rappresentazione
soggettiva tratta mediante generalizzazione dall’esperienza, come
sostenevano su basi empiriste e psicologiste John S. Mill, Helmholtz ed il
primo Husserl? Oppure ritenere, come faceva Dedekind, che i numeri siano
delle “libere creazioni della mente umana”, che li ‘pone’ mediante quella
sua specifica capacità che consiste nell’atto del ‘contare’, cioè di collegare
e far corrispondere cose a cose, senza la quale non sarebbe possibile
neanche pensare?184
E’ in questo frangente che si inserisce la Il problema del chiarimento
proposta di Gottlob Frege: se si voleva pervenire logico del concetto di ‘nuad una comprensione rigorosa del concetto di mero’: il programma di
numero naturale era necessario enucleare quali Frege
fossero le sue caratteristiche logiche. E questo non era rinvenibile
nell’opera di Peano: la logica era da lui usata solo per effettuare le
deduzioni matematiche ed il suo simbolismo aveva un carattere pragmatico,
non ponendosi egli né il problema di ulteriormente fondare gli assiomi da
lui proposti né quello di chiarire lo statuto delle procedure logiche
utilizzate: ciò ripugnava al suo atteggiamento ‘afilosofico’.185 Con Frege,
invece, l’aritmetica – e per suo tramite la matematica – si rivolgeva alla
logica per risolvere le proprie difficoltà: «mentre con Peano ha termine la
riduzione della matematica all’aritmetica, con Frege inizia la sua riduzione
alla logica»186. Come afferma Carnap, «non ci si accontentò di ridurre i
diversi concetti dell’analisi matematica al concetto fondamentale di
184
Cfr. C. Mangione, op. cit., pp. 777-80.
«La logica viene intesa essenzialmente come linguaggio artificiale atto ad esprimere con la
massima chiarezza i concetti matematici e le dimostrazioni matematiche, fino ad allora espresse
sostanzialmente nel linguaggio comune. I principi di logica non sono altro che la trascrizione in
simboli dei modi corretti di ragionare in matematica, come lo stesso Peano sottolinea in diverse
occasioni […]. La logica matematica, dunque, intesa come strumento in ordine alla realizzazione
del progetto del Formulario, e non tanto, come si è portati a considerarla oggigiorno, disciplina
matematica autonoma […]. E questo, paradossalmente, proprio nel momento in cui all’estero
cominciavano a fiorire quegli studi che avrebbero portato alla maturazione della logica come
disciplina veramente autonoma e, soprattutto, alle ricerche metalogiche. Ancora più sorprendente
è il fatto che, anche nell’ambito della scuola, vi sia sempre stato un ancoramento a questa visione»
(M. Borga, “La logica, il metodo assiomatico e la problematica metateorica”, in M. Borga - P.
Freguglia - D. Palladino, I contributi fondazionali della Scuola di Peano, Angeli, Milano 1985,
pp. 14-6).
186 F. Waismann, Introduzione al pensiero matematico (1939), Boringhieri, Torino 1976, p. 86.
Benché quest’opera sia stata scritta alla fine degli anni trenta da uno dei più significativi esponenti
del Circolo di Vienna e sia grandemente ispirata alle idee matematiche che in quel torno di anni
Wittgenstein andava elaborando, essa rimane tuttavia, a mio avviso, una delle più chiare
presentazioni dell’evoluzione e dei problemi della matematica tra fine Ottocento ed inizio del
Novecento.
185
100/229
Lezioni di logica e filosofia della scienza
numero, ma ci si propose il compito di una chiarificazione logica dello
stesso concetto di numero. Queste ricerche sui fondamenti logici dell’aritmetica per operare un’analisi logica del numero esigettero perentoriamente un sistema logico che per la sua vastità fosse in grado di assolvere
quel compito»187.
È stato questo il compito intrapreso da Frege e quindi continuato da
Russell e Whitehead con quel monumento della logica contemporanea
rappresentato dai Principia Mathematica. Tale progetto – al quale portarono il loro contributo altri matematici e logici di primo piano (basti
ricordare il nome di Wittgenstein) – è indicato col nome di ‘logicismo’.
1.7 Il logicismo di Gottlob Frege. Come tutti i grandi innovatori, anche
Gottlob Frege (1848-1925) non conobbe in vita grande stima ed
ammirazione da parte dei suoi contemporanei. Le sue concezioni logiche
rimasero pressoché ignorate per tutta la sua vita, vivendo egli in un
doloroso isolamento (insegnò all’Università di Jena, senza mai accedere ai
più alti gradi accademici). Le sue opere venivano sistematicamente
sottovalutate alla loro pubblicazione e furono oggetto di astiose polemiche
con lo establishment matematico e logico a lui contemporaneo, sicchè la
sua opera venne conosciuta ed apprezzata solo da pochi ammiratori (anche
se di rilievo, come Dedekind, Peano, Russell, Wittgenstein, Carnap ed in un
primo tempo anche Husserl). Anzi, si potrebbe dire che essa venne resa
nota proprio da Russell, che nell’appendice ai suoi Principles of
Mathematics ne espose i contenuti in modo assai lusinghiero, anche se poi
riteneva che la propria opera avesse superato quanto concepito da Frege,
perché aveva saputo porre rimedio all’antinomia da lui stesso scoperta.
Sicché nell’opinione dei contemporanei l’opera di Russell finì per eclissare
quella di Frege.
Come abbiamo detto, i contributi in campo Il significato del progetto
logico di Frege sono funzionali al suo progetto logicistico e l’obiettivo del
fondamentale: fornire una base sicura alla perfetto rigore in matematica
matematica mediante la chiarificazione logica del
concetto di numero, al fine di raggiungere l’obiettivo del perfetto rigore.
Ciò comportava un lavoro teso a rendere espliciti i principi logici che
garantiscono la correttezza del ragionamento matematico, che doveva
dismettere il ricorso all’evidenza in favore di connessioni argomentative in
cui nessun anello fosse difettoso. Bisognava evitar di fare come molti
matematici, che «sembrano tanto poco sensibili alla purezza logica ed al
rigore che usano una parola per tre o quattro cose differenti […]»188. Solo la
logica – riformata e perfezionata – poteva garantire un tale obiettivo.
Queste le motivazioni che stanno alla base del progetto logicistico, che può
essere così riassunto: «Si tratta: a) di definire in termini puramente logici i
concetti della matematica pura, in particolare quelli tradizionalmente
187 R. Carnap, “La vecchia e la nuova logica” (1930), in La filosofia della scienza, a cura di A.
Crescini, La Scuola, Brescia 1964, p. 7.
188 Frege, I principi…, vol. II, § 60.
101/229
Lezioni di logica e filosofia della scienza
riguardati come ‘primitivi’, irriducibili: primo fra tutti, lo stesso concetto di
numero naturale; b) di derivare le ‘verità’ della matematica pura (e in particolare quelle ritenute più ‘evidenti’) a partire da principi meramente logici,
e impiegando metodi di ragionamento del tutto espliciti»189. Lo scopo che
così Frege si assume, quello di chiarire il concetto di numero, si condensa
nelle due tesi secondo cui i numeri sono oggetti (logici) e i giudizi
dell’aritmetica sono giudizi analitici a priori: «[…] egli desidera mostrare
che il discorso intorno ai numeri naturali può ridursi ad un discorso intorno
a insiemi, classi, o molteplicità, ossia, per dirla nella terminologia dei
logici, intorno alle estensioni dei concetti. Esplicitamente egli dice che gli
oggetti dell’aritmetica sono oggetti logici»190. A tal fine era però necessario
separare nettamente il logico dallo psicologico, l’oggettivo dal soggettivo,
ed inoltre tenere sempre presente la differenza tra oggetto e concetto, tra
denotazione delle parole e loro significato logico.
L’obiettivo di mettere al sicuro il contenuto og- La critica all’intuizionismo
gettivo della matematica poteva essere assicurato, matematico di Kant: i giudizi
innanzi tutto, a condizione di sconfiggere i suoi matematici non sono sintetici
più pericolosi avversari: l’intuizionismo matema- a priori, ma analitici
tico di Kant e lo psicologismo di J.S. Mill. Nel primo caso si trattava di
confutare la nota concezione kantiana dei giudizi aritmetici come giudizi
sintetici a priori, in favore del loro carattere analitico, consistente nella
possibilità di giustificarli riconducendoli a verità fondamentali, grazie a
dimostrazioni nelle quali si faccia uso solo di leggi logiche generali e di
precise definizioni. D’altra parte, il richiamo kantiano all’intuizione non gli
sembra adeguato, sia in quanto «noi siamo troppo disposti a invocare
l’intuizione interiore quando non sappiamo addurre alcun altro fondamento
della conoscenza», sia in quanto non è chiaro cosa si intenda con essa.
Quando infatti nella sua teoria dell’aritmetica Kant afferma che l’addizione
7 + 5 = 12 non può essere puramente analitica, in quanto bisogna andare
oltre i concetti che stanno per gli addendi ed appellarci all’intuizione
corrispondente, ad es. alle cinque dita della mano191, non si riesce a capire
quale possa essere la corrispondente intuizione di una somma con numeri
molto alti, quale 135664 + 37863 = 173527. Dobbiamo forse appellarci
all’intuizione di 173527 dita? Non v’è per Frege bisogno di far ricorso
all’intuizione, in quanto le formule con numeri superiori a 10 sono
dimostrabili benissimo senza farvi ricorso, per cui non vede perché sia
necessario farla entrare in campo per i numeri inferiori. L’aritmetica ha
dunque uno status diverso dalla geometria (che Frege accettava nella
formulazione datane da Kant), in quanto non verte intorno a dita allo stesso
modo in cui la geometria verte intorno a punti, linee, piani.
189
C. Mangione, op. cit., p. 808.
W.C. Kneale – M. Kneale, op. cit., p. 516.
191 Cfr. I. Kant, Prolegomeni…, cit., pp. 51-2.
190
102/229
Lezioni di logica e filosofia della scienza
Più decisa e senza quartiere la lotta contro lo La critica dello psicologismo
psicologismo sostenuto in seno empiristico ed il di Mill e Erdmann:la confucui principale rappresentante era oltre al già citato sione tra leggi oggettive ed iMill, anche Benno Erdmann. In questa battaglia deali e principi psicologici
Frege era in buona compagnia: anche Husserl, soggettivi
dopo una prima fase psicologistica espressa nella sua Filosofia
dell’aritmetica, si era schierato con le Ricerche logiche sul medesimo
fronte (anche se in seguito le loro strade nuovamente si divideranno).
Come chiarisce Engel, «lo psicologismo designa generalmente una
confusione fra ciò che è di natura non psicologica e ciò che si suppone (a
torto) di natura psicologica. Più esattamente lo psicologismo è un certo tipo
di spiegazione o di analisi di una nozione, di un insieme di fenomeni o di
entità in termini psicologici, ovvero in termini di fenomeni o di entità che
sono di pertinenza della psicologia, e questo tipo di spiegazione o di analisi
è considerata illegittima»192. In particolare, per quanto riguarda la logica e
la matematica Frege e Husserl denunziano la confusione tra entità, leggi e
principi considerati ‘oggettivi’ e ‘ideali’ (cioè non facenti parte della
‘natura’) ed entità o principi psicologici considerati ‘soggettivi’ e ‘naturali’.
È in sostanza una critica alla psicologia associazionistica del XIX secolo,
per la quale le entità della logica e della matematica sono ridotte ad entità e
leggi proprie della psicologia e costituirebbero una sorta di
rappresentazione mentale, astratta mediante procedure di generalizzazione
dalla esperienza concreta. Invece per Frege, «le entità logiche e
matematiche non appartengono né al mondo delle cose naturali o fisiche, né
al mondo delle rappresentazioni mentali, ma a un “terzo regno” indipendente, quello dell’“esser-vero”, completamente autonomo rispetto alla
mente, che non è inventato da questa, ma ‘scoperto’, nello stesso modo in
cui si può scoprire un nuovo continente»193. E’ una concezione ‘platonica’
(fatta in seguito propria anche da Russell) che fa del logico uno scienziato
che, come il naturalista, ‘scopre’ le verità della logica come se descrivesse
un universo non creato da noi e nel quale le dimostrazioni hanno un loro
corso naturale, in cui il soggetto gioca un ruolo puramente passivo, da
osservatore, in quanto la necessità logica del loro svolgimento è de re,
inscritta nell’ordine delle cose.194 In quest’ottica ‘cognitivista’, «alle verità
necessarie della logica (e delle matematiche) corrisponde un universo di
‘fatti’, distinti dai fatti empirici e pur tuttavia non meno reali, che ci è
possibile conoscere e scoprire»195.
Si comprendono pertanto le motivazioni che Critica delle correnti concestanno alla base del rifiuto fregeano di quella zioni della matematica
192
P. Engel, Filosofia e psicologia (1996), Einaudi, Torino 2000, p. 45.
Ib., p. 46.
194 «Il teorema di Pitagora esprime il medesimo pensiero per tutti gli uomini, mentre ognuno
ha le proprie rappresentazioni, sentimenti, decisioni, che sono diversi da quelli di ogni altro
individuo. I pensieri non sono configurazioni psichiche, e il pensare non è un produrre e formare
interiore, ma è invece una comprensione di pensieri oggettivamente già esistenti» (Frege, Lettera a
Husserl del 30ottobre-1° novembre 1906, in G. Frege, Alle origini della nuova logica, cit., p. 82).
195 P. Engel, La norme du vrai. Philosophie de la logique, Gallimard, Paris 1989, p. 328.
193
103/229
Lezioni di logica e filosofia della scienza
concezione della matematica, diffusa tra i suoi contemporanei, per la quale
essa è una libera creazione dello spirito umano, non soggetta ad altro che
alle limitazioni della logica. Essa considerava ‘coerenza’ ed ‘esistenza’
come sinonimi, per cui un ente matematico non logicamente contraddittorio
era ritenuto esistente. Ma, ribatteva Frege, «come il geografo, neppure il
matematico può creare qualcosa ad libitum; anch’egli può solo scoprire ciò
che già v’è, e dargli un nome»196.
E parimenti non accettava la tesi di coloro che invece ritenevano la
matematica pura una mera combinatoria di simboli, senza alcun significato,
così come avviene nel gioco degli scacchi, i cui pezzi hanno un valore solo
per le regole di movimento cui devono obbedire: era una netta presa di
posizione contro Hilbert e la sua scuola, verso la quale non si stancò di
polemizzare sino alla fine della sua vita197. E si capisce anche perché
ritenesse limitato e riduttivo il modo in cui Kant intendeva la nozione di
analiticità, con ciò contribuendo alla leggenda della ‘sterilità’ della logica
pura; per Frege una proposizione analitica non è affatto ‘vuota’, priva di
contenuto cognitivo: le leggi e le deduzioni logiche che esse generano sono
produttive per il fatto che descrivono una realtà obiettiva ed hanno quindi
valore conoscitivo. In un giudizio analitico sono contenute sì tutte le sue
conseguenze, ma «come la pianta nel seme, non come una trave nella
casa»198.
Quando si parla di “legge logica” si intende Carattere normativo della loqualcosa di totalmente diverso da una legge gica, la quale non descrive il
psicologica: questa enuncia ciò che è, il comportamento medio degli
comportamento di fatto tenuto dagli uomini, «il uomini
modo comune, intermedio di pensare; allo stesso modo come potrebbe
venir indicato in che modo proceda nell’uomo la digestione sana, o in che
modo si parli in forma grammaticalmente esatta, o in che modo si vesta
modernamente»199. Invece la legge logica enuncia ciò che deve essere,
stabilisce come si debba pensare ovunque e ogniqualvolta si voglia
giudicare in modo vero; essa ha carattere normativo. Insomma, lo
psicologismo avrebbe il vizio capitale di confondere sistematicamente ciò
che ha la natura di una regola o di una norma con ciò che invece esprime
solo un principio di funzionamento o una legge psicologica; questa scelta in
favore del normativismo in logica avrà anche le sue conseguenze nel futuro
sviluppo della filosofia della scienza, ad esempio nella distinzione che sarà
effettuata tra contesto della scoperta e contesto della giustificazione.200
196
Fondamenti, § 96.
Cfr. W.C. Kneale – M. Kneale, op. cit., pp. 516-20, dove sono sintetizzate le quattro
critiche fondamentali portate da Frege al formalismo.
198 Cit. in Mangione, op. cit., p. 810.
199 G. Frege, I principi dell’aritmetica (1893), in Id., Logica e aritmetica, a cura di C.
Mangione, Boringhieri, Torino 1965, pp. 485-6.
200 Cfr. P. Engel, op. cit., pp. 55-7.
197
104/229
Lezioni di logica e filosofia della scienza
Alla base dell’impostazione fregeana v’è una Visione oggettivistica della
visione oggettivistica della verità: essa non è ciò verità, che non può ridursi
che viene comunemente accettato dalla maggior all’accordo generale e non
parte o anche da tutti gli uomini; essa non si dipende dal giudizio del
singolo
riduce all’accordo generale, come sostiene Benno
Erdmann nella sua Logica. Infatti, «l’essere vero è qualcosa di
completamente diverso dall’esser ritenuto vero […] Per leggi logiche io
non intendo le leggi del ritener vero, ma le leggi dell’esser vero […] Se
l’esser vero non dipende dall’essere ritenuto tale da chicchessia, allora
anche le leggi dell’esser vero non possono risultare leggi psicologiche, ma
sono pietre basilari, poggiate su una roccia eterna, pietre che possono forse
venir sommerse ma non scosse dal nostro pensiero, se esso vuol
raggiungere la verità»201.
Ovviamente il carattere normativo che è tipico In difesa dell’oggettività: la
della legge logica non impedisce che di fatto vi distinzione tra ‘senso’ e
siano esseri che la rifiutino; essa però ci assicura ‘denotazione’
che questi così facendo hanno torto. Pertanto la
‘verità’ è per Frege qualcosa di oggettivo e di indipendente da chi giudica,
in quanto «un pensiero vero è già vero prima di venir afferrato da un essere
umano»202. Tale oggettività attribuita al vero, tuttavia, non deve essere
confusa con quella tangibilità propria degli esseri concretamente esistenti,
che è palpabile, occupa uno spazio. È piuttosto paragonabile a quella
dell’asse terrestre, del baricentro del sistema solare o dell’equatore; sarebbe
un errore pensare che queste siano entità immaginarie, create dal pensiero,
frutto di un processo psichico, in quanto il pensiero ha la funzione solo di
riconoscerle, di ‘afferrarle’: «è chiaro pertanto che, parlando di oggettività,
io intendo una indipendenza dal nostro sentire, intuire, rappresentare, dal
nostro formarci immagini mentali in base al ricordo di precedenti
sensazioni, ma non indipendenza dalla ragione»203; infatti, «il pensiero
riconosciuto come vero non è modificato dal giudizio». Diversamente da
Erdmann, che confonde sistematicamente l’irrealtà tipica della logica con la
soggettività e la riduce quindi a semplice risultato delle operazioni della
mente, ad una loro espressione astratta.
La difesa dell’oggettività viene da Frege perseguita anche mediante la
distinzione tra senso e denotazione dei termini singolari (intendendo con
ciò anche le cosiddette “descrizioni definite”, come “la montagna più alta
del mondo”). Essa nasce dall’esigenza di chiarire il significato della eguaglianza, quando ad esempio distinguiamo tra a!=!a e a !=!b. Infatti,
possiamo domandarci, perché riteniamo la seconda eguaglianza
informativa, mentre invece la prima ci sembra un semplice truismo? La
risposta sta per Frege nella distinzione tra il senso (Sinn) di un termine e la
sua denotazione (Bedeutung, a volta tradotta anche con ‘significato’,
‘designazione’ o ‘riferimento’). Facciamo l’esempio di Frege: quando
201
G. Frege, op. cit., pp. 486-7.
G. Frege, Scritti postumi, Bibliopolis, Napoli 1986, p. 393.
203 G. Frege, I fondamenti dell’aritmetica (1884), in Logica e aritmetica, cit., p. 258.
202
105/229
Lezioni di logica e filosofia della scienza
usiamo l’espressione “la stella del mattino” evidentemente indichiamo un
particolare oggetto, un determinato corpo celeste, ovvero il pianeta Venere;
analogamente quando utilizziamo l’altra espressione “la stella della sera”
denotiamo il medesimo oggetto, ovverossia sempre Venere. E tuttavia
abbiamo fatto uso di due “descrizioni definite” il cui senso è chiaramente
diverso; pertanto quando stabiliamo l’eguaglianza “la stella del mattino” =
“la stella della sera” abbiamo fornito una indicazione precisa: s’è voluto
indicare che due espressioni diverse per il loro senso fanno tuttavia
riferimento al medesimo oggetto e non a due distinti corpi celesti. Possiamo
pertanto affermare che le due espressioni portate ad esempio hanno sensi
diversi ma identica denotazione. Per cui ogni ‘segno’ possiede un senso ed
una denotazione: «un nome proprio (parola, segno, connessione di segni,
espressione) esprime il suo senso, denota o designa la sua denotazione»204.
Tale distinzione serve a Frege per trovare il luogo dove collocare
l’oggettività del numero e quindi della matematica, distinguendola dai
processi soggettivi. Infatti egli differenzia dal senso e dalla denotazione la
‘rappresentazione’, costituita dalla immagine interna che ciascuno si fa, in
base a ricordi personali o inclinazioni soggettive, di un dato oggetto,
indicato mediante un segno ed espresso da un senso oggettivo. In merito
Frege è estremamente preciso: «La denotazione di un nome proprio è
l’oggetto stesso che con esso designiamo; la rappresentazione che ne
abbiamo è del tutto soggettiva; tra l’una e l’altra c’è il senso, che non è più
soggettivo come la rappresentazione, ma non è neppure l’oggetto stesso.
Per chiarire questi rapporti può forse essere utile il seguente paragone.
Immaginiamo che qualcuno osservi la luna attraverso un cannocchiale. Ora,
io paragono la luna alla denotazione; esso è l’oggetto di osservazione reso
possibile dall’immagine reale proiettata dalla lente dell’obiettivo dentro il
cannocchiale e dall’immagine retinica dell’osservatore. In questo paragone,
l’immagine dell’obiettivo è il senso, e l’immagine retinica è la
rappresentazione o intuizione. L’immagine del cannocchiale è cioè solo
parziale poiché dipende dal punto d’osservazione, eppure è oggettiva,
poiché può servire a più osservatori. Si può predisporla in modo tale che
più persone contemporaneamente possano utilizzarla; l’immagine retinica è
invece tale che ognuno deve avere necessariamente la sua. Sarebbe perfino
difficile ottenere una congruenza geometrica, per la diversa conformazione
degli occhi; una effettiva coincidenza sarebbe comunque da escludersi.»205
Delle esperienze soggettive che sono connesse alla rappresentazione si
occupa la psicologia, non la logica o la scienza: viene così completato il
disegno fregeano teso ad escludere l’oggettività del pensiero dal campo
psicologico, assegnando a quest’ultimo una sua specifica area di
competenza. In ciò, «la preoccupazione di Frege, nel sottolineare la distinzione tra senso a rappresentazione, è anzitutto quella di salvaguardare la
204 G. Frege, “Senso e denotazione” (1892), in La struttura logica del linguaggio, a cura di A.
Bonomi, Bompiano, Milano 1973, p. 14.
205 Ib., p. 13.
106/229
Lezioni di logica e filosofia della scienza
condivisibilità intersoggettiva del senso»206, e quindi la possibilità di una
scienza che avesse come suo obiettivo il coglimento del vero e non il
semplice accordo tra individui.
Per poter dar corpo a tale concezione
La costruzione di un linguagoggettivistica e normativa della logica Frege si gio logico adeguato, libero
assume come primo compito quello di creare un dagli equivoci di quello cosimbolismo logico in grado di permettere una cor- mune e con un simbolismo
retta e rigorosa espressione del pensiero e così peculiare
evitare le trappole causate dall’imperfezione e dalle ambiguità del
linguaggio naturale: «Se è compito della filosofia spezzare il dominio della
parola sullo spirito umano svelando gli inganni che, nell’ambito delle
relazioni concettuali, traggono origine, spesso quasi inevitabilmente,
dall’uso della lingua e liberare così il pensiero da quanto di difettoso gli
proviene soltanto dalla natura dei mezzi linguistici di espressione, ebbene:
la mia ideografia, ulteriormente perfezionata a questo scopo, potrà
diventare per i filosofi un utile strumento»207.
Questo il programma annunciato nella L’Ideografia e la concezione
Premessa della sua prima opera, la Begriffsschrift di un nuovo simbolismo pudel 1879 (tradotta in italiano col nome di ramente logico, distinto da
I d e o g r a f i a ), nella quale ci si riallaccia quello matematico
intenzionalmente al progetto leibniziano di una lingua characteristica
universalis. Frege non esita a paragonare il rapporto tra la sua ideografia e
la lingua di tutti giorni a quello esistente tra il microscopio e l’occhio:
«Quest’ultimo, per l’estensione della sua applicabilità con la quale sa
adattarsi alle più disparate circostanze, ha una grande superiorità nei
confronti del microscopio. Considerato però come apparecchio ottico esso
rivela certamente parecchie imperfezioni che di solito passano inosservate
solo in conseguenza del suo intimo collegamento con la vita spirituale. Ma
non appena scopi scientifici richiedano la precisione nel discernere,
l’occhio si rivela insufficiente. Il microscopio invece è adatto nel modo più
perfetto proprio a tali scopi, ma appunto per questo risulta inutilizzabile per
tutti gli altri»208.
In quest’opera di un centinaio di pagine – che da Bocheƒski è stata
paragonata per importanza agli stessi Primi analitici di Aristotele e da van
Heijenoort è stata ritenuta uno dei più importanti scritti in logica mai
pubblicati – viene data esecuzione in maniera sistematica al progetto
leibniziano, liberandolo dalla subordinazione alla matematica, come era
stato per Boole. Viene così concepito per la prima volta un simbolismo che
è autonomo rispetto a quello impiegato in matematica ed è proprio solo
della logica, in modo che possa servire quale linguaggio universale che
domini tutti quelli specialistici e particolari, ivi compreso quello
matematico. I simboli in esso costruiti sono nettamente distinti da quelli
206
P. Casalegno, “Il paradigna di Frege”, in Introduzione alla filosofia analitica del
linguaggio, a cura di M. Santambrogio, Laterza, Bari-Roma 1992, p. 10.
207 G. Frege, Ideografia (1879), in Id., Logica e aritmetica, cit., pp. 107-8.
208 Ib., p. 105.
107/229
Lezioni di logica e filosofia della scienza
impiegati in aritmetica: non più somme, moltiplicazioni ed elevazioni a
potenza, come avveniva nell’algebra della logica di Boole, con inevitabili
equivoci e confusione di domini; ad essere comune era solo il modo di
impiegare le lettere, che venivano intese come variabili. Tuttavia tale
simbolismo si dimostrava parecchio complesso e difficile da realizzare
tipograficamente, sicché esso fu poi sostituito da quello assai più intuitivo e
semplice di Russell, che a sua volta si ispirò largamente a quello introdotto
da Peano.
Per realizzare il compito che egli si era Le innovazioni principali
prefisso era anche necessario che fossero apportati della nuova logica rispetto a
due perfezionamenti alla presentazione della quella tradizionale
logica: «Il primo perfezionamento doveva consistere nella sistematicità:
organizzare le idee tradizionali ed i nuovi contributi di Leibniz e Boole in
modo da chiarire la struttura di quella scienza e la grande varietà delle
forme proposizionali da considerare nella logica generale. Il secondo
perfezionamento doveva consistere nel rigore: esporre esplicitamente
all’inizio quanto richiesto per la dimostrazione dei teoremi e ridurre il
procedimento di deduzione ad un piccolo numero di mosse standard,
prevenendo così il pericolo di contrabbandare inconsciamente ciò che
invece dobbiamo dimostrare»209.
I capisaldi di questa nuova logica ideografica sono:
ß il superamento della vecchia impostazione sino ad allora invalsa,
basata sulla distinzione tra soggetto e predicato, e la sua sostituzione
con quella che assume la bipartizione argomento/funzione;
ß il privilegiamento della logica proposizionale su quella terministica,
ovvero della proposizione sul concetto, e quindi il ricongiungimento
di due tradizioni logiche – quella aristotelica e quella stoica – sino a
quel momento ritenute distinte e sinora mai incontratisi;
ß la trattazione degli enunciati universali e particolari della vecchia
logica mediante l’introduzione dei quantificatori universali ed
esistenziali.
Benchè tali nuove concezioni siano state in gran parte introdotte per
primo da Frege, tuttavia sono state canonizzate e rese universalmente note
dall’opera di Russell, che ovviamente non mancò di apportare dei personali
contributi; inoltre le acquisizioni tecniche della nuova logica così ottenute –
oltre ad essere il frutto dell’evoluzione sinora tratteggiata – costituiscono
ormai il patrimonio condiviso della logica matematica contemporanea,
sicché è più opportuno esporle in maniera sistematica in un apposito
paragrafo, piuttosto che seguire i singoli contributi apportati da Frege e dai
suoi successori.
Resta invece da dire, in fase di bilancio conclusivo, qualcosa sul
progetto logicistico per il quale Frege aveva Il collasso del logicismo in
impegnato la sua vita.
Frege: la scoperta dell’antiCome abbiamo visto, la scrittura della nomia di Russell
209
W.C. Kneale, M. Kneale, op. cit., pp. 497-8.
108/229
Lezioni di logica e filosofia della scienza
Ideografia era funzionale alla fondazione della matematica mediante la sua
riduzione ai chiari concetti della logica e la definizione di tutte le sue
procedure con gli strumenti rigorosi che questa avrebbe fornito. Tale opera
è appunto quella che Frege esprime programmaticamente nel già citato Die
Grundlagen der Arithmetik (I fondamenti dell’aritmetica), del 1884, e che
ha una vera e propria esecuzione nei due volumi dei Grundgesetze der
Arithmetik (I principi dell’aritmetica, del 1893 e 1903). Ma proprio quando
Frege stava per completarne il secondo volume, riceve il 16 giugno del
1902 una lettera da parte del giovane Russell nel quale gli viene
comunicata la scoperta di un’antinomia logica che si annida proprio negli
assunti di fondo dei Grundgesetze (vedi riquadro)210. Nulla poteva essere
più disastroso per il progetto di Frege: la logica, che doveva costituire la
base sicura a cui ancorare la matematica, si dimostrava dunque uno
strumento inaffidabile, addirittura contraddittorio! Frege rimane annichilito
da questa notizia: «Non c’è infortunio – confessa Frege in un poscritto ai
Principi – che possa colpire più duramente uno scrittore di quello di veder
crollare una delle pietre basilari del suo edificio subito dopo che esso sia
stato portato a termine. Tale fu la condizione in cui io stesso mi trovai
quando ricevetti una lettera di B. Russell mentre la stampa di questo
volume era ormai vicina alla sua conclusione»211.
L’antinomia di Russell
Essa si riferisce alle basi insiemistiche della logica fregeana, ma colpisce egualmente
anche la nozione logica di predicazione. Si parte dalla constatazione che un insieme
può essere membro di se stesso oppure può non esserlo. Ad esempio, l’insieme dei
cavalli non è un cavallo e l’insieme che contiene solo Socrate non è Socrate (v’è
infatti differenza tra elemento di un insieme ed insieme formato da un solo
elemento). Gli insiemi con cui abbiamo di solito a che fare non sono elememti di se
stessi, per cui li chiameremo ‘normali’: la maggior parte degli insiemi sono dunque
‘normali’. Tuttavia possiamo costruire degli insiemi che non sono ‘normali’, cioè che
possiedono la caratteristica di contenere se stessi come elementi; li chiameremo
insiemi ad ‘auto-ingerimento’. Uno di questi è l’insieme di tutti gli insiemi, cioè
l’insieme che comprende tutti gli insiemi come suoi elementi. Ora costruiamo un
insieme A che comprende tutti gli insiemi ‘normali’: è l’insieme così costruito
‘normale’ o ad ‘autoingerimento’?
Analizziamo i due casi:
• se affermiamo che A è un insieme ‘normale’ (cioè non contiene se stesso come
suo elemento) allora esso dovrà contenere se stesso (in quanto abbiamo detto che
A è l’insieme di tutti gli insiemi ‘normali’); ma se contiene se stesso, allora è un
insieme ad ‘auto-ingerimento’; onde abbiamo negato il punto di partenza.
• se affermiamo che A è un insieme ad ‘auto-ingerimento’ (cioè che contiene se
stesso come proprio elemento), allora non è vero che esso è l’insieme di tutti gli
insiemi ‘normali’, come avevamo dichiarato nel costruirlo.
Come si vede, qualunque sia la scelta fatta, si finisce per negarla e dover
ammettere la tesi opposta, sicché incorriamo in una vera e propria antinomia.
210
Il carteggio tra Russell e Frege in merito all’antinomia è riportato in Frege, Alle origini
della nuova logica, cit., pp. 169-224, dove è contenuta la celebre frase con cui il logico tedesco
accolse la comunicazione di Russell: «La Sua scoperta della contraddizione mi ha sorpreso al
massimo e, quasi vorrei dire, mi ha costernato, perché con essa vacilla la base sulla quale pensavo
si fondasse l’aritmetica» (p. 185).
211 G. Frege, Grundgesetze der Aritmetik, II vol., Jena 1903, p. 253.
109/229
Lezioni di logica e filosofia della scienza
In un’affrettata appendice dei Principi egli cerca di abbozzare una
risposta, che tuttavia lascia insoddisfatto innanzi tutto lui stesso. Come si
rende ben conto il logico tedesco, viene così messa in discussione non solo
la sua opera, ma la stessa possibilità di trovare una fondazione logica alla
matematica. Il progetto logicistico sembra essere colpito al cuore ed il terzo
volume di Principi che Frege progettava di scrivere non vedrà più la luce.
Un colpo dal quale Frege non si riprese più.
Il silenzio di Frege ed il ritorBenchè, come ci testimoniano gli scritti postumi, no alla geometria come fonte
egli abbia tentato per tutta la vita di porre rimedio della intuizione matematica
a questo problema – senza tuttavia trovare una
risposta soddisfacente – tuttavia per oltre vent’anni non pubblicò più nulla,
se non alcuni saggi di geometria e tre brevi scritti di logica filosofica. Così,
«proprio nel periodo in cui, grazie a Russell, la sua opera cominciava ad
essere conosciuta ed apprezzata in tutto il suo valore, Frege si ritira dalla
ricerca logica attiva, quale veniva configurandosi in quel periodo, in gran
parte proprio a causa dell’antinomia scoperta nel suo sistema: egli lascia il
problema fondamentale […] alle nuove generazioni e si dedica alla
trattazione di argomenti più filosoficamente impegnati in senso tradizionale»212. Ma è proprio alle riflessioni sulla geometria che egli dedica le
sue ultime fatiche, nel tentativo di percorrere una nuova strada di fondazione della matematica: con l’ammissione che l’elemento intuitivo della
geometria possa costituire una speciale “fonte conoscitiva” per l’aritmetica,
il ciclo si chiude. La prospettiva di un ritorno alla tesi kantiana del carattere
sintetico di tutte le proposizioni matematiche finisce per restaurare una
sostanziale frattura tra logica e matematica213. L’aritmetizzazione dell’analisi –!che delle evidenze geometriche si era voluta liberare per basarsi su
quelle «pietre basilari, poggiate su una roccia eterna» offerte dalla logica –
sembra con Frege compiere il ritorno alla casa di partenza, riabilitando
l’intuizione, dimostratasi in fin dei conti molto più salda di quanto non si
fosse mai sospettato. Non sarà Frege a proseguire sulla strada del
logicismo. Un suo tentativo di salvezza sarà tentato da Russell, che cercò di
risolvere il problema dell’antinomia da lui scoperta costruendo la cosiddetta
“teoria dei tipi”.
Ora invece passiamo ad illustrare quegli strumenti tecnici propri della
logistica che, creati da Frege mettendo a frutto quanto prodotto a
cominciare dall’opera di Boole, e perfezionati da Russell, hanno costituito
da allora in poi la “cassetta degli attrezzi” di ogni filosofo della scienza.
2. Gli strumenti della logistica
Nel corso di circa tre decenni – dalla pubblicazione della Begriffsschrift
di Frege nel 1879 a quella dei Principia mathematica di Russell e
Whitehead nel 1910-13 – la logistica sviluppa tutti i concetti fondamentali
212
213
C. Mangione, op. cit., p. 823.
Cfr. R. Blanché, op. cit., p. 372.
110/229
Lezioni di logica e filosofia della scienza
del patrimonio della logica formale contemporanea, in seguito ulteriormente perfezionati tecnicamente e anche approfonditi filosoficamente (non
possiamo non menzionare in proposito il Tractatus logico-philosophicus di
Wittgenstein). Nella sua duplice articolazione di logica (o calcolo) proposizionale e logica dei predicati, la “nuova logica” (come viene anche chiamata dai suoi fondatori per differenziarla da quella classica e sillogistica)
fornirà al filosofo ‘scientifico’, all’epistemologo e al filosofo della scienza
gli strumenti fondamentali per la discussione sulla scienza e sui suoi
metodi. In questo paragrafo cercheremo di presentarne i concetti di base
così come essi sono di solito introdotti nei manuali odierni di logica, in
maniera da offrire anche un’essenziale guida per la comprensione delle
discussioni odierne nel campo della filosofia della scienza.
2.1 La preminenza della logica proposizionale. La logica tradizionale come
La logica tradizionale aristotelica iniziava innanzi logica dei termini
tutto con una dottrina dei termini, distinguendoli
in base alla loro ‘estensione’ e ‘comprensione’; su questa base edificava la
dottrina delle categorie o “sommi predicabili”. Quindi proseguiva
‘componendo’ i termini in modo da formare il giudizio; così, ad es., nell’espressione “l’uomo corre”, abbiamo due termini: ‘uomo’ e ‘corre’, la cui
combinazione in una proposizione fatta di soggetto e predicato dà luogo ad
un giudizio che può essere vero o falso. I diversi giudizi vengono quindi ad
essere articolati in un ragionamento, la cui massima espressione è fornita
dal sillogismo. Seguendo questo modello, rimasto invariato sostanzialmente
per due millenni, tutti i trattati tradizionali di logica si svolgevano
progressivamente partendo dall’analisi dei termini, proseguendo con quella
delle proposizioni e quindi componendo queste in maniera da formare
l’argomentazione logica.
La “nuova logica”, in particolare con Frege, La proposizione, punto di
assume come proprio punto di partenza la propo- partenza della ‘nuova logica’
sizione, con ciò riallacciandosi inconsapevolmente
ad una tradizione di pensiero logico, quello stoico, che era stato minoritario
lungo tutta la tarda antichità e che era stato solo in parte valorizzato nel
medioevo con la dottrina delle ‘consequentiae’. In Frege tale punto di
partenza era giustificato con la sua idea che fosse impossibile spiegare il
significato di un’espressione isolandola dal contesto, per cui è impossibile
comprendere esattamente il significato di un termine prescindendo dalla
proposizione nella quale può entrare a far parte. Egli propone invece di
partire dai giudizi e quindi ricavare, mediante analisi, il significato dei
termini che in essi figurano: è il famoso “Principio del Contesto”.
Il calcolo proposizionale assume come sua uni- Valori di verità della proposità di base la proposizione, intesa come una espres- zione, assunta nel suo uso
sione linguistica dichiarativa, cioè affermante che dichiarativo
qualcosa è (o non è) così e così, e pertanto tale da
poter essere vera o falsa. Sono pertanto da esso esclusi gli enunciati
interrogativi e quelli imperativi, che non descrivono uno stato di cose e
quindi non possono essere né veri né falsi; ad es., è una proposizione
111/229
Lezioni di logica e filosofia della scienza
l’espressione “la terra è un pianeta”, mentre invece non lo è la domanda
“che ora è?”. Al calcolo proposizionale non interessa analizzare come una
data proposizione sia costruita, in quanto esso la assume come una totalità
indecomponibile. Di essa prende in considerazione solamente il valore di
verità, cioè il fatto di poter essere vera o falsa (ma non entrambe). In ciò
consiste il carattere bivalente del calcolo proposizionale classico: esso non
ammette altri valori di verità oltre a quelli di vero o falso. Per cui, ad
esempio, non sono ammissibili proposizioni probabili o incerte, cioè il cui
valore di verità non sia né vero né falso.
Ovviamente è anche una proposizione quella Proposizioni composte e loro
formata da due o più proposizioni semplici. Così carattere estensionale
“La terra è un pianeta e il sole è una stella” è una
proposizione composta (o molecolare) formata da due proposizioni
semplici (o atomiche), che sono rispettivamente “La terra è rotonda” e “Il
sole è una stella”. In questo caso il valore di verità della proposizione
composta dipende esclusivamente dai valori di verità delle proposizioni
componenti. In ciò consiste appunto il carattere estensionale del calcolo
proposizionale: una data proposizione composta è detta estensionale se e
solo se il suo valore di verità dipende esclusivamente dai valori di verità
delle proposizioni che la compongono.
Data una o più proposizioni, è possibile ad esse I funtori di verità e le lettere
applicare dei funtori in modo da ottenere altre proposizionali
proposizioni il cui valore di verità dipende dai
valori di verità delle proposizioni iniziali e dal tipo di funtore applicato.
Tali funtori sono estensionali (in quanto prendono in considerazione solo i
valori di verità delle proposizioni) e vengono chiamati “funtori di verità” (o
anche “operatori vero-funzionali” o più brevemente ‘connettivi’). Per
indicare una generica proposizione, cioè una variabile proposizionale, si
usano attualmente lettere minuscole, quali p, q, r, dove a lettere diverse
corrispondono proposizioni diverse. In tal modo potrà essere p = “La terra è
rotonda”, q = “5 è minore di 6” ecc. Tali lettere vengono chiamate lettere
proposizionali. Ovviamente seguiamo qui le convenzioni che sono
attualmente in uso, per cui la simbologia usata è differente da quella
introdotta da Frege e dagli altri fondatori della nuova logica.
La negazione è l’esempio più semplice e La negazione, gli altri funtori
comune di funtore di verità. Per indicare l’opera- biargomentali e le relative
zione di negazione della proposizione p si usa tavole di verità
oggi di solito il simbolo “¬”, per cui avremo: ¬p,
che leggiamo “non-p”. Se p è una proposizione vera, allora la sua
negazione ¬p è falsa; se p è falsa allora ¬p è vera. La relazione esistente tra
i valori di verità di ¬p e p può essere rappresentata schematicamente
mediante la cosiddetta tavola di verità, nozione introdotta anche per gli altri
funtori o connettivi da Wittgenstein nel suo Tractatus (ed indipendentemente anche da Post e ¸ukasiewicz) ed esemplificata nella figura sotto
riportata. In essa, sotto p sono riportati i suoi due possibili valori di verità ,
V (vero) e F (falso). Nella seconda colonna (sotto ¬p) sono riportati i valori
di verità assunti da ¬p in corrispondenza dei valori di verità della pro112/229
Lezioni di logica e filosofia della scienza
posizione p.
1ª colonna
2ª colonna
p
¬p
V
F
F
V
1ª riga
2ª riga
Altri funtori importanti sono quelli biargomentali di disgiunzione ‘o’
(non esclusiva), congiunzione ‘et’, condizionale ‘se…allora…’ e
bicondizionale ‘se e solo se’, dei quali riportiamo le tavole.
p q
pŸq
p q
p⁄q
p q
pÆq
V V
V
V V
V
V V
V
V V
V
V F
F
V F
V
V F
F
V F
F
F V
F
F V
V
F V
V
F V
F
F F
F
F F
F
F F
V
F F
V
p q
p¤q
Ovviamente non tutti questi connettivi sono necessari, tant’è vero che
Frege ne ammetteva solo due, la negazione ed il condizionale; tuttavia è
comodo averne un maggior numero a disposizione in modo da rendere
meglio le inferenze che vengono svolte in matematica e nel linguaggio
ordinario. A partire da essi è possibile costruire le forme proposizionali
complesse, il cui valore di verità può essere facilmente calcolato, in quanto
dipende dai valori di verità delle singole lettere proposizionali. Si consideri
ad esempio la seguente proposizione:
(pŸq)⁄(p⁄q)
Costruiamo innanzi tutto la tabella ad essa corrispondente. Abbiap q (p Ÿ q) ⁄ (p ⁄ q)
mo riportato i valori corrispondenti
alle lettere proposizionali di sinistra
1 1 1 1 1 1 1
1 1
sotto le corrispondenti lettere a de1 0 0 1 1 1 0
1 0
stra (indicando, come è oggi con0 0 1 1 0 1 1
0 1
suetudine, il Vero con 1 e il Falso
0 0 0 1 0 0 0
0 0
con 0). Applicando i rispettivi cona
a
nettivi abbiamo quindi ottenuto i
valori di verità delle colonne contrasse
gnate con a’;
‘
quindi alle colonne
‘a’ abbiamo applicato il connettivo “o” ottenendo come risultato finale la
colonna ‘b’, che ci fornisce i cercati valori di verità della forma proposizionale data.
Un particolare significato hanno le forme Tautologie e contraddizioni
proposizionali che sono sempre vere, indipendentemente dai valori di verità che vengono assegnati alle variabili. Tali forme
113/229
Lezioni di logica e filosofia della scienza
sono chiamate, seguendo l’uso di Wittgenstein, ‘tautologie’ (o anche “leggi
logiche”) e la corrispondente tavola di verità di una di esse avrà come
risultato dell’ultima colonna tutti 1. È ad es. una tautologia la seguente
formula:
(p ⁄ q) Æ (q ⁄ p)
Se costruiamo la relativa tavola di verità otterremo:
p
q
(p ⁄ q) Æ (q
⁄ p)
1
1
1 1 1
1
1 1 1
1
0
1 1 1
1
1 1 1
0
1
1 1 1
1
1 1 1
0
0
0 0 0
1
0 0 0
La nozione opposta a quella di tautologia è la contraddizione, che
assume sempre il valore 0. Le contraddizioni, a differenza delle tautologie,
sono false a priori, cioè sono false qualunque sia il valore di verità delle
proposizioni che le compongono. E’ una tipica contraddizione la
proposizione pŸ¬p. Ovviamente basta negare una tautologia per ottenere
una contraddizione; e viceversa.
Due tautologie molto utili per la effettuazione di inferenze all’interno
dell’argomentazione logica sono espresse dalle seguente formule:
(a) [(pÆq)Ÿp)]Æq
(b) [(pÆq)Ÿ¬q)]Ƭp
(modus ponendo ponens)
(modus tollendo tollens)
Che si tratti di tautologie è facilmente constatabile mediante l’applicazione delle tavole di verità. Il modus ponens è stato assunto da Frege come
l’unica regola di derivazione per la effettuazione delle inferenze, a partire
dai nove assiomi da lui usati come base di partenza. Il modus tollens può
essere anche espresso con la formula (pÆq)Æ(¬qƬp), la quale sta a
significare che se una certa causa determina un certo effetto, allora la
negazione dell’effetto determina la negazione della causa. Bisogna fare
però attenzione a due forme proposizionali che potrebbero essere
intuitivamente considerate delle tautologie ed invece non lo sono.
Quest’inganno nasce dal loro essere apparentemente simili al modus ponens
e al modus tollens. Sono le seguenti:
(a’) [(pÆq)Ÿq)]Æp
(fallacia dell’affermazione del conseguente)
(b’) [(pÆq)Ÿ¬p)]Ƭq (fallacia della negazione dell’antecedente)
Applicando le tavole di verità si vede facilmente che queste non sono
delle tautologie, ma solo forme proposizionali contingenti.
Centrale è il concetto di implicazione logica Implicazione logica ed
(che non deve essere confuso con l’operatore del implicazione materiale
114/229
Lezioni di logica e filosofia della scienza
condizionale, detto anche implicazione materiale). Essa viene definita nel
modo seguente: una formula proposizionale p1 implica logicamente una
forma proposizionale p2 se e solo se ogni assegnamento di valori di verità
che rende vera la prima rende anche vera la seconda. Questa definizione
dice, in altri termini, che la verità di p1 è condizione sufficiente perché p2
sia vera. Tutta la definizione, pertanto, si può riformulare nel modo
seguente: condizione necessaria e sufficiente affinché p1 implichi p2 è che la
verità di p1 sia condizione sufficiente della verità di p2. Per indicare
l’implicazione logica si usa il simbolo ‘fi’ (da non confondere con ‘Æ’).
E’ ad esempio una implicazione logica “pfip”, cioè “p implica p”. Infatti
ogni qualvolta la prima p è vera, è vera anche la seconda. Inoltre è anche
pfi(p⁄q), in quanto ogni qualvolta p è vera, è anche vera la (p⁄q) (si
ricordi che affinché una disgiunzione sia vera è sufficiente che uno dei suoi
termini sia vero).
Uno dei più importanti teoremi della logica è Il teorema della deduzione, e
quello di deduzione. Esso afferma che p1fip2 se e sua connessione col concetto
solo se p1Æp2 è una tautologia. Mediante questo di tautologia
teorema possiamo sempre decidere in modo effettivo se una data forma
proposizionale ne implica logicamente un’altra. Infatti basta vedere se
otteniamo una tautologia applicando alle due forme proposizionale il
condizionale. Vogliamo sapere, ad esempio, se la proposizione (pÆq)Æp
implica logicamente p, cioè se sia vero che [(pÆq)Æp]fip. Per far ciò
basta sapere se la proposizione che otteniamo collegando la prima espressione alla seconda per mezzo del condizionale è o no una tautologia.
Ovverossia se [(pÆq)Æp]Æp è una tautologia. Se costruiamo la tavola di
verità possiamo facilmente constatare che la colonna finale contiene tutti 1
e quindi tale proposizione è una tautologia. Possiamo quindi dire, per il
teorema della deduzione, che (pÆq)Æp implica logicamente p.
2.2 L’abbandono della forma predicativa. Nella La classificazione delle prologica aristotelica i termini che entrano a far parte posizioni in base alla predidelle proposizioni costituiscono l’elemento più cazione, nella logica tradizionale
semplice ed il punto di inizio della logica. Nella
proposizione “l’uomo corre”, abbiamo due termini: ‘uomo’ e ‘corre’; essi
possono dar luogo ad un asserto vero solo quando vengono combinati in
una proposizione fatta di soggetto e predicato. Tale combinazione di
termini esprime un giudizio, in cui si afferma o si nega un attributo di un
soggetto, per cui nella logica aristotelica è fondamentale la distinzione tra
soggetto e predicato. In “tutti gli uomini sono mortali” si può distinguere un
soggetto, “gli uomini”, ed un predicato, “sono mortali”, che viene attribuito
al soggetto come una proprietà o qualità che appartiene a quest’ultimo o lo
caratterizza. Inoltre, possiamo distinguere le proposizioni secondo la loro
qualità (affermative e negative) e la loro quantità (universali e particolari);
per cui abbiamo le proposizioni universali affermative (“tutti gli uomini
sono mortali”), le universali negative (“nessun uomo è mortale”), le
particolari affermative (“qualche uomo è mortale”) e le particolari
negative (“qualche uomo non è mortale”). Tale classificazione delle
115/229
Lezioni di logica e filosofia della scienza
proposizioni è stata successivamente sintetizzata nel famoso quadrato delle
opposizioni, che serve a far anche vedere i rapporti reciproci tra le
proposizioni (vedi la figura, con le relative spiegazioni).
A
Tutti gli uomini sono
mortali
Subalterne
E
Contrarie
Contraddittorie
Subalterne
O
I
Qualche uomo è
mortale
Nessun uomo è
mortale
Subcontrarie
Qualche uomo non è
mortale
Figura 1 - Il quadrato delle opposizioni
. Nella figura è rappresentato il quadrato che i logici
successivi (in particolare Apuleio, l’autore de L’Asino d’oro, e Severino Boezio) elaborarono per
rendere graficamente i rapporti tra i vari tipi di proposizione e poi largamente utilizzato nella sillogistica
medievale. In Aristotele manca ancora la indicazione della subalternità e inoltre la terminologia
esprimente le relazioni tra proposizioni (‘contraddittorie’, ‘contrarie’ ecc.) è quella introdotta da Boezio,
divenuta di uso comune fino ad oggi.
Come viene messo in evidenza dalla nuova
logica, il privilegiamento della forma soggetto- Gli inconvenienti della forma
soggetto-predicato: l’impospredicato rende però impossibile (od almeno sibilità di esprimere le relaestremamente difficoltoso) il ragionamento mate- zioni
matico, oltre ad avere delle indesiderate implicazioni metafisiche. Infatti essa permette solo l’attribuzione di una qualità
ad un soggetto, come quando diciamo “un quadrato è rotondo”, e non riesce
invece a render conto adeguatamente delle relazioni tra due enti, come
quando invece affermiamo che “5 è maggiore di 4”. In quest’ultimo
giudizio, secondo l’impostazione aristotelica, avremmo un soggetto (‘5’) ed
un predicato, formato dall’espressione “è maggiore di 4”; per cui se
diciamo “4 è maggiore di 3”, avremo ancora un altro soggetto ed un altro
predicato, diversi dai precedenti. Su questa base diventa impossibile
effettuare un semplice ragionamento matematico come il seguente: “se 5 è
maggiore di 4 e 4 è maggiore di 3, allora 5 è maggiore di 3”. A voler
seguire l’impostazione aristotelica, dovrebbe essere effettuato un sillogismo
116/229
Lezioni di logica e filosofia della scienza
del seguente tipo:
Ogni maggiore di 4 è maggiore di 3
Ogni maggiore o uguale a 5 è maggiore di 4
_____________________________
Quindi, ogni maggiore o uguale a 5 è maggiore di 3
Dove “ogni maggiore di 4” è il soggetto della prima premessa e
costituisce quello che Aristotele chiama “termine medio”; “è maggiore di
3” rappresenta il predicato della prima premessa e della conclusione; e
“ogni maggiore o uguale a 5” è il soggetto della premessa minore e della
conclusione. Tale sillogismo è una esemplificazione di quella ‘figura’
sillogistica che per Aristotele sarebbe la più perfetta e che costituisce la
forma cui devono essere ridotti tutti i rimanenti sillogismi affinchè siano
dimostrati, in quanto è di per sé autoevidente. Dalla sua conclusione segue,
con una inferenza che Aristotele chiama ‘immediata’, la proposizione che
“5 è maggiore di 3”.
Come si vede, una semplice inferenza mate- La svolta di Frege: alla formatica diventa nella sillogistica aristotelica un ma soggetto-predicato viene
complicato ragionamento, derivante dal fatto di sostituita quella di funzioneconsiderare l’espressione “è maggiore di 3” un argomento
predicato esprimente la qualità di un soggetto, differente da innumerevoli
predicati ad esso simili. Tutto diverrebbe più semplice se, abbandonando la
forma soggetto/predicato, si adottasse quella di argomento/funzione e di
conseguenza si intendessero le espressioni simili a quella portata da
esempio come casi di relazioni (o funzioni biargomentali). Questa è l’idea
che sta alla base della nuova logica, esposta in maniera sistematica da Frege
e quindi divenuta patrimonio comune.
Consideriamo l’espressione “Tutti gli uomini sono mortali”. Se
sostituiamo al soggetto “Tutti gli uomini” la variabile x e scriviamo “x sono
mortali” abbiamo ottenuto una espressione per la quale non siamo in grado
di dire se è vera o falsa, a meno che non sappiamo cosa sta ad indicare la
variabile x. Se ad esempio x =“I Greci”, allora essa è vera; ma se x =“Gli
Dei dell’Olimpo”, allora è falsa.
Nell’espressione data possiamo distinguere due parti:
• innanzi tutto notiamo una variabile x che può rappresentare un
qualsivoglia oggetto di un certo genere (appartenente ad un dato
universo) e che chiamiamo variabile individuale;
• v’è poi il funtore “sono mortali” che viene applicato ad un dato
argomento, costituito da un nome rappresentante un oggetto od
individuo. A tale funtore ci si riferisce spesso anche col nome di
predicato: nel nostro caso abbiamo un predicato monoargomentale (o
unario), in quanto esso si applica ad un solo argomento rappresentato
dalla variabile individuale x.
L’espressione che risulta dalla unione di queste Il concetto di funzione produe parti viene chiamata funzione proposizionale: posizionale
essa diventa una proposizione nel caso in cui si
sostituisca la variabile individuale con una costante individuale. Per cui, più
117/229
Lezioni di logica e filosofia della scienza
esattamente possiamo definire una funzione proposizionale come
un’espressione che non è né vera né falsa ma può essere trasformata in una
proposizione vera o falsa mediante rimpiazzamento delle sue variabili con
delle costanti. La nozione di funzione proposizionale è chiaramente
derivata dall’analogo concetto di funzione in matematica; qui abbiamo
un’espressione del tipo y = f(x), dove il valore di y dipende dal valore
assegnato a x e dall’operazione che viene indicata col simbolo ‘f’. Così, ad
esempio, se x = 2 e l’operazione consiste nella “elevazione al quadrato”,
allora avremo la seguente funzione: y = x2, che dà come valore y = 4.
Per indicare un generico predicato vengono Predicati monoargomentali e
utilizzate le così dette costanti predicative, biargomentali, che esprimaindicate di solito con le lettere P, Q, R, …. Per cui no delle relazioni
la scrittura P(x) indicherà una certa funzione
proposizionale formata da un predicato monoargomentale P e dalla
variabile individuale x, che si potrà leggere: “x ha la proprietà P”. Inoltre le
costanti individuali vengono indicate al solito modo, cioè utilizzando le
lettere a, b, c, …. Per trasformare una funzione proposizionale in una
proposizione basta allora sostituire in un generico predicato P(x) la
variabile individuale x con una costante individuale, ottenendo P(a), che si
legge: “il particolare oggetto a ha la proprietà P”.
Abbiamo finora parlato di predicati monoargomentali (o monadici) che
formano funzioni proposizionali del tipo P(x) e che corrispondono sul
piano fisico alle proprietà che possono essere possedute da un oggetto od
individuo. Vi sono però anche predicati a due argomenti, a tre argomenti e
ad n argomenti. Consideriamo ad esempio la seguente funzione proposizionale:
“x è padre di y”
dove abbiamo due argomenti, x e y ed un funtore, “è padre di”. In
genere a tali predicati corrispondono nella realtà le cosiddette relazioni, in
teoria degli insiemi indicate con la lettera R. Sicché spesso le funzioni
proposizionali ottenute da tali predicati biargomentali (o diadici) vengono
indicate anch’esse con la lettera R. In tal caso l’espressione sopra riportata
verrebbe a scriversi: R(x, y), che si legge: “x è nella relazione R con y”. È
questa la base di quella teoria delle relazioni avviata da De Morgan,
sviluppata da Frege e quindi sistematizzata da Russell e Whitehead, in
modo da fornire alla logica uno strumento abbastanza potente per esprimere
i concetti della matematica.
Grazie al concetto di relazione sarà possibile affrontare in maniera
efficace il tipo di argomentazione che abbiamo visto nell’esempio prima
fornito del sillogismo aristotelico. Ciò grazie alla possibilità di individuare
quelle proprietà formali delle relazioni che permettono di effettuare
inferenze altrimenti impossibili. Possiamo infatti caratterizzare una
relazione per il fatto di poter essere riflessiva, simmetrica e transitiva. Si
dice che una relazione è riflessiva quando un dato elemento è nella data
relazione con se stesso. Ad es., la relazione di eguaglianza è riflessiva in
118/229
Lezioni di logica e filosofia della scienza
quanto ogni ente è eguale a se stesso. Una relazione si dice transitiva se
R(x, y) e R(y, z), allora sarà anche R(x, z). Ad es., se Mario è fratello di
Giovanni e Giovanni è fratello di Alberto, allora Mario è fratello di
Alberto. Infine una relazione è simmetrica se R(x, y), allora R(y, x), come
nel caso di Giovanni che è fratello di Alberto, per cui Alberto è fratello di
Giovanni. In un dato insieme A possiamo tra gli elementi che vi
appartengono definire delle relazioni che possono presentare delle proprietà
caratteristiche, quali la riflessività, la simmetricità e la transitività.
Tali proprietà formali delle relazioni ci mettono in grado di affrontare in
modo molto semplice il sillogismo prima discusso. Basta rilevare che la
proposizione “5 è maggiore di 4” non esprime altro che una relazione del
tipo prima esposto, una volta sostituiti con delle variabili i numeri; si
ottiene: “x è maggiore di y”. La semplice constatazione che la relazione “…
è maggiore di …” è transitiva, ci permette di effettuare l’inferenza da “5 è
maggiore di 4” e “4 è maggiore di 3” alla conclusione “5 è maggiore di 3”;
ovvero: se R(5, 4) e R(4, 3), allora R(5, 3).
2.3 I quantificatori. Altro merito della nuova logica è quello di avere
chiarito e definito formalmente l’uso dei quantificatori, distinguendoli
funzionalmente del resto delle componenti che entrano a far parte della
funzione proposizionale. Nella logica aristotelica, infatti, la quantificazione
non si distingueva dalla proposizione, la quale era di per sé universale o
particolare. Nel medioevo, con Guglielmo d’Ockham e Alberto di Sassonia,
si era effettuata la distinzione tra termini categorematici e
sincategorematici, allo scopo di differenziare le parti che all’interno della
proposizione hanno un significato autonomo (sono quelle categorematiche,
come i nomi e i verbi) da quelle che invece non lo hanno, ma servono per
modificare o completare il significato delle prime; e tra queste ultime, oltre
agli attuali connettivi, venivano indicati anche i termini utilizzati per la
quantificazione, così fornendo loro una autonomia rispetto al resto della
proposizione di cui entrano a far parte. Così nella proposizione “ogni uomo
corre”, se consideriamo ‘ogni’ come facente parte del soggetto, allora la
proposizione “qualche uomo non corre” non ha lo stesso soggetto della
prima e di conseguenze queste due proposizioni non sono contraddittorie; il
che è falso. Per cui le parole ‘ogni’ e ‘qualche’ rivestono solo la funzione di
modificare il soggetto, distinguendosi da esso.
Per chiarire la funzione dei quantificatori, os- La quantificazione trasforma
serviamo che essi servono anche ad ottenere una una funzione proposizionale
proposizione a partire da una funzione proposizio- in proposizione
nale. Prendiamo la funzione proposizionale “x è
un numero naturale”; essa può essere trasformata in una proposizione in
questo modo:
(a) “per ogni x, x è un numero naturale”
(b) “esiste almeno un x, tale che x è un numero naturale”
La (a), detto in parole semplici, sta a significare che qualunque numero
119/229
Lezioni di logica e filosofia della scienza
sia x, tale x è un numero naturale. Il che è chiaramente falso, dato che ad
esempio “π” non è un numero naturale. Quindi la (a) è una proposizione
falsa. La (b) sta invece a significare che esiste almeno un numero che è
naturale. E ciò è vero, visto che effettivamente il numero 2 (come anche il
3, il 4 ecc.) è un numero naturale. Pertanto la (b) è una proposizione vera.
Ciò significa che una funzione proposizionale può esser trasformata in
proposizione ‘quantificando’ la sua variabile, cioè facendo precedere
all’asserto contenente la variabile le espressioni “per ogni x” oppure “esiste
almeno un x tale che”. Queste espressioni sono dette quantificatori e
vengono espresse simbolicamente nel modo seguente:
"x
$x
che si legge “per ogni x”
che si legge “esiste almeno un x”
Il primo è chiamato quantificatore universale, il secondo quantificatore
esistenziale.!Pertanto una proposizione ottenuta da una funzione proposizionale si può anche scrivere nel modo seguente:
"xP(x)
$xP(x)
che si leggono rispettivamente: “Per ogni x, x ha la proprietà P” e “Esiste
un x tale che ha la proprietà P”. Una variabile quantificata è detta vincolata.
Si faccia attenzione al fatto che il quantificatore esistenziale non afferma
che esiste solo un x che ha una tale proprietà, ma che esiste almeno un x che
ha una certa proprietà. Per cui nel caso in cui P=“è un numero pari” è ovvio
che non esiste un solo numero pari, ma un numero infinito e tuttavia non è
vero che tutti i numeri sono pari!
Così come nel calcolo proposizionale, anche Le tautologie nel calcolo dei
nel calcolo dei predicati esistono degli schemi di predicati
funzioni proposizionali che sono sempre veri.
Innanzi tutto sono tautologie del calcolo dei predicati tutte le tautologie che
fanno parte del calcolo proposizionale, e ciò per il motivo che quest’ultimo
è contenuto nel primo. Sicché nella semplice tautologia pÆp se sostituiamo
le lettere proposizionali con espressioni appartenenti al calcolo dei predicati
otteniamo anche una tautologia. Oltre a queste tautologie ve ne sono altre
che sono proprie del calcolo dei predicati in quanto in esse occorrono
particolari modi di presentarsi dei quantificatori. In generale possiamo dire
che una formula del calcolo di predicati è una tautologia se e solo se è uno
schema esclusivamente vero di proposizioni o funzioni proposizionali vere.
Ciò significa che, data una funzione proposizionale essa è sempre vera se,
comunque scelto l’insieme entro cui variano le variabili in essa contenute e
comunque scelto il predicato che ha per argomento le date variabili, un
volta operate le opportune sostituzioni, si ottiene una proposizione vera.
120/229
Lezioni di logica e filosofia della scienza
Ma il numero degli insiemi entro i quali Mancanza nel calcolo dei prepossono assumere valori le variabili, il numero dei dicati di un metodo effettivo
loro elementi, come anche il numero di tutti i per riconoscere le tautologie
possibili predicati, è infinito, sicché è impossibile e il ricorso alla assiomatizandare a vedere caso per caso se una data funzione zazione
proposizionale è vera o no. Nel caso del calcolo dei predicati non esiste
alcun metodo effettivo per conoscere in un certo numero limitato di passi se
una data formula è o no una tautologia: ciò è stato dimostrato dal cosiddetto
teorema di indecidibilità (per la logica dei predicati) dovuto a Church
(1936). Abbiamo invece visto che il calcolo proposizionale godeva della
proprietà della decidibilità: grazie all’impiego delle tavole di verità siamo
in grado di sapere, in un numero limitato di passaggi, se una data forma
proposizionale è o no una tautologia. Tuttavia, grazie alla
assiomatizzazione del calcolo dei predicati è possibile individuare certi suoi
sottoinsiemi decidibili, come ad es. quello in cui i predicati sono solo
monadici oppure quello che assume come propri schemi gli schemi delle
tautologie già note dal calcolo proposizionale. Inoltre è anche possibile
cercare di individuare alcune sue non-tautologie mediante l’analisi intuitiva
di certe formule che miri ad trovare un controesempio che le dimostrino
false.
Diamo a titolo di esempio una tipica tautologia del calcolo dei predicati,
la quale è intuitivamente evidente:
"xP(x) Æ P(a) legge “dictum de omni” o “principio di esemplificazione universale” (di Jaskowski)
Questa legge ci dice che se tutti gli oggetti hanno la proprietà P allora
un oggetto particolare a ha la stessa proprietà. Se così, ad esempio, tutti gli
uomini sono mortali, allora ne segue che anche Socrate è mortale.
Sulla base di queste nozioni viene edificata tutta la logica
contemporanea classica ed è possibile esprimere gran parte del contenuto
della matematica.
121/229