You are on page 1of 371

Vincenzo Pappalardo

!"#$%&'!"##$!!"#"$%!
!"#!$!!"#$%"&'($!"#$%"&"!'!

La verità non esiste, ci è concesso di conoscere


solo una sua possibile approssimazione
"#$%&$'(!)*++*,*-.(!
!

STORIA DELLA FISICA


E DEL PENSIERO SCIENTIFICO

Copyright  2010 di Vincenzo Pappalardo


Tutti i diritti sono riservati

Prima edizione ottobre 2010


Nuova edizione riveduta e aggiornata aprile 2012
Nuova edizione luglio 2013
Edizione aggiornata novembre 2013
Edizione riveduta e aggiornata luglio 2014

Il presente libro “Storia della fisica e del pensiero scientifico” può essere copiato,
fotocopiato, a patto che il presente avviso non venga alterato, e che la proprietà del
documento rimanga di Vincenzo Pappalardo. Il presente documento è pubblicato sul
sito: www.liceoweb.webnode.it
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4!

Ai tre quarks:
Gina, Raffaella e Pietro,
fondamenta del mio universo.
5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

!"#!$%!

6 Prefazione
8 Introduzione

14 CAPITOLO 1 - IL MONDO ANTICO


Mito e scienza – Le cosmogonie - Le più antiche civiltà

18 CAPITOLO 2 - IL MONDO GRECO


Caratteri della società greca – La physis - La concezione classica della scienza - I primi
fisici. Anassimandro e la prima rivoluzione scientifica – La nascita della matematica come
interpretazione della realtà – Il moto: realtà o illusione - I fondamenti della scienza –
Platone ed Aristotele – Prime conclusioni sull’idea di realtà - La scienza alessandrina –
Geocentrismo ed eliocentrismo – La fine della scienza greca

80 CAPITOLO 3 - IL MONDO ROMANO


Roma e la scienza – Il Cristianesimo: ragione e fede inconciliabili? - Conclusioni

92 CAPITOLO 4 - IL MEDIOEVO
La profonda crisi della civiltà occidentale - Il salvataggio dell’antica sapienza e la
riscoperta del passato – La scienza araba - Il pensiero scolastico - Declino dell’influenza
di Aristotele – La ricerca scientifica medievale

124 CAPITOLO 5 – UMANESIMO E RINASCIMENTO


Umanesimo e Rinascimento: anticipazioni del moderno – L’Umanesimo – Il Rinascimento
– La filosofia rinascimentale della natura – Aristotelismo e platonismo

136 CAPITOLO 6 – LA RIVOLUZIONE SCIENTIFICA


Introduzione - Leonardo da Vinci: precursore della scienza moderna - La Rivoluzione
Scientifica: una moderna visione del mondo – La Rivoluzione Astronomica e la nuova
immagine dell’universo – Galileo Galilei: il padre della scienza moderna – L’eredità
galileiana – Empirismo e razionalismo: due filosofie a confronto - Francesco Bacone: la
scienza al servizio dell’uomo – La filosofia meccanica - Cartesio, filosofo della modernità –
I cartesiani e anticartesiani – L’organizzazione della ricerca – Newton e Leibniz

242 CAPITOLO 7 - IL SETTECENTO E L’APOGEO DELLA MECCANICA


Introduzione - La diffusione del newtonianismo - L’illuminismo: libero e critico uso
dell’intelletto - L’immaterialismo di Berkeley e l’empirismo radicale di Hume – La scienza
nuova di Vico - Kant e i confini della ragione - Il trionfo della meccanica e la filosofia
meccanicistica della natura – L’ottica – Termometria e calorimetria – Elettricità e
magnetismo – Il sorgere di alcune istanze critiche

293 CAPITOLO 8 - L’OTTOCENTO: LA TERMODINAMICA E L’ELETTROMAGNETISMO


Introduzione - La filosofia romantica della natura – Indagine sui fondamenti nella scienza
ottocentesca – La filosofia positivistica - La teoria ondulatoria – La spettroscopia – La
termologia e la termometria - La termodinamica - La complessità ed il disordine – La
corrente elettrica e i suoi effetti: nascita dell’elettrodinamica – Faraday e
l’elettromagnetismo – Maxwell e la teoria dei campi

372 CAPITOLO 9 – LA CRISI DELLA FISICA CLASSICA


La crisi del meccanicismo – Riflessioni critiche sul meccanicismo - La nuova metafisica
della natura - Lo studio degli inosservabili e la crisi dell’intuizione in fisica

393 CAPITOLO 10 – LA RIVOLUZIONE RELATIVISTICA


LA TEORIA DELLA RELATIVITA’ RISTRETTA: Il percorso verso la teoria della relatività ristretta – I
postulati della relatività ristretta - L’unione dello spazio e del tempo - I paradossi e le
verifiche sperimentali della relatività ristretta – L’equazione più famosa della fisica – LA
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 6!

TEORIA DELLA RELATIVITA’ GENERALE: Equivalenza tra gravità e accelerazione – La


gravitazione e la curvatura dello spaziotempo – La geometria non euclidea – L’immagine
del mondo di Einstein - Le principali verifiche sperimentali della relatività generale -
L’universo di Einstein - La teoria unificata dei campi - Conclusioni

429 CAPITOLO 11 – LA RIVOLUZIONE QUANTISTICA


Introduzione – Crisi del riduzionismo - Il crollo della visione classica del mondo - L’inizio
della fisica moderna: la scoperta dell’elettrone – La radiazione di corpo nero e l’ipotesi di
Planck – La realtà dei quanti: l’effetto fotoelettrico e l’effetto Compton - I primi modelli di
atomo - L’atomo di Bohr e l’origine della meccanica quantistica – Dualità onda corpuscolo
nella materia – Nascita della meccanica quantistica – Il significato fisico della funzione
d’onda - La natura delle onde quantistiche - Il principio di indeterminazione di Heisenberg
– La scoperta della casualità: esperimento delle due fenditure – Il principio di
complementarietà - La meccanica quantistica dell’atomo - Il principio di esclusione di
Pauli – La meccanica quantistica relativistica – La statistica dei quanti – L’immagine del
mondo della meccanica quantistica: la teoria dei campi

487 CAPITOLO 12 – INTERPRETAZIONI E CONSEGUENZE FILOSOFICHE DELLA TEORIA


DELLA RELATIVITA’
Le radici filosofiche di Einstein - Il significato filosofico del pensiero di Einstein - Il
significato filosofico della relatività – Discussioni filosofiche-scientifiche sulla teoria della
relatività - Capire lo spaziotempo – Il tempo esiste?

530 CAPITOLO 13 - INTERPRETAZIONI E CONSEGUENZE FILOSOFICHE DELLA TEORIA DEI


QUANTI
L’importanza delle diverse formulazioni di una stessa teoria scientifica - Oltre il linguaggio
- Paradosso di Einstein-Podolsky-Rosen (EPR) – La disuguaglianza di Bell - Interpretazioni
della meccanica quantistica - La filosofia di fronte alla nuova fisica - Fondamento
filosofico della meccanica quantistica - La realtà e l’informazione

567 CAPITOLO 14 – LA FISICA NUCLEARE E SUBNUCLEARE


La scoperta della radioattività e sue conseguenze – La fissione nucleare – La fusione
nucleare – Le particelle elementari e le loro interazioni – Il modello standard

591 CAPITOLO 15 – GLI ENTI FONDAMENTALI SONO REALI?


L’importanza del bosone di Higgs per la filosofia della scienza - Confronto tra atomismo
democriteo e moderno – Che cosa è reale?

599 CAPITOLO 16: LA COSMOLOGIA


La cosmologia come scienza – Il principio antropico - L’universo ha avuto un’origine?
Dibattito tra scienza, filosofia e teologia - L’origine dell’universo: il big bang - La fine
dell’universo

626 CAPITOLO 17: LA NUOVA EPISTEMOLOGIA DELLA SCIENZA


La fisica come conoscenza fallibile - Crisi del neopositivismo – Kuhn e la struttura delle
rivoluzioni scientifiche – Lakatos e la metodologia dei programmi di ricerca – Feyerabend e
l’anarchismo metodologico

645 CAPITOLO 18 – LA FISICA DEL FUTURO


Il Large Hadron Collider – La gravità quantistica: la teoria delle stringhe e la gravità
quantistica a loop – Energia e materia oscura – Il computer quantistico – Il teletrasporto
quantistico – L’immagine del mondo definitiva? - I futuri premi Nobel

663 Conclusioni
665 Appendice: Biografie - Il Processo a Galileo Galilei - Il Progetto Manhattan
727 Bibliografia
7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

!"#$%&'()#!

La scienza è puro interesse culturale, è desiderio di sapere, è conoscenza, metodo,

è pensiero scientifico. Essa serve unicamente a soddisfare la curiosità innata nell’uomo,

da sempre, di conoscere l’ambiente che lo circonda e sé stesso. La scienza è un continuo

ridisegnare il mondo e il pensiero scientifico è un’appassionata esplorazione di modi

sempre nuovi di ripensare il mondo. La forza del pensiero scientifico non consiste nelle

certezze raggiunte, anzi è nella sua continua ribellione al sapere del presente e a tutte

quelle certezze che appaiono ovvie. La ricerca della conoscenza non si nutre di

certezze, ma di una radicale mancanza di certezze. L’ignoranza come molla per

sovvertire l’ordine delle cose e ripensare continuamente il mondo. La scienza nasce da

ciò che non sappiamo e dalla messa in discussione di ciò che crediamo di sapere. La

natura del pensiero scientifico è critica, ribelle, insofferente a ogni concezione a priori,

a ogni riverenza, a ogni verità intoccabile. La scienza, quindi, è soprattutto

esplorazione continua di nuove forme di pensiero. Ma se il sapere scientifico cambia

continuamente, perché dobbiamo ritenerlo affidabile e credibile? Perché a ogni dato

momento della storia, la descrizione del mondo che abbiamo è la migliore. Le risposte

scientifiche non sono mai definitive, sono semplicemente le migliori risposte di cui

disponiamo. La credibilità della scienza poggia sulla certezza che nulla è definitivo.

La scienza, però, in quanto elemento di civiltà, non sta isolata dagli altri aspetti

della cultura e come tale è connessa col modo di vivere e di pensare, con i rapporti

sociali e le istituzioni degli uomini che l’hanno elaborata e continuano ad elaborarla. La

scienza e la poesia, per esempio, nell’antica Grecia, venivano considerate entrambe

come imprese dell’immaginazione, modi complementari di esplorare il mondo della

natura.

Partendo da queste considerazioni, questa “Storia della Fisica e del pensiero

scientifico”, vuole raccontare la fisica come un viaggio, un’avventura del pensiero

umano, dei continui cambiamenti delle visioni del mondo, dalle prime civiltà, in

particolare quella greca, con i vari filosofi come Anassimandro, Platone, Aristotele e

Archimede, passando attraverso i protagonisti della rivoluzione scientifica come


/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 8!

Copernico, Galileo e Newton fino alla rivoluzione relativistica con Einstein e a quella

quantistica con Planck, Heisenberg, Bohr, Schrodinger, Dirac.

Questo libro, però, non ha la pretesa e la presunzione né di essere originale, né di

proporre nuove tesi rispetto a quelle esposte da autorevoli studiosi di storia della fisica,

di filosofi della scienza e del pensiero scientifico in generale. Anzi, interi passi di questo

libro sono stati tratti dalle opere riportate nella bibliografia. Se un merito deve avere

questo libro è quello di rappresentare una sintesi di storia della fisica sullo sfondo della

filosofia della scienza, al fine di offrire a tutti coloro che si avvicinano allo studio della

fisica, uno strumento per indagare sul faticoso cammino delle idee per giungere alla

formulazione di leggi fisiche, o teorie scientifiche, ed il loro successo in un particolare

momento storico. In più, vuole sfatare il mito che le teorie scientifiche siano il frutto del

lavoro spontaneo e solitario di uno scienziato, ma bensì il risultato di secoli d’indagine,

anzi di secoli di avventura del pensiero umano, che trovano il loro compimento, l’atto

finale, nel lavoro del genio, come Galileo, Newton, Einstein.


9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Non tutto ciò che può essere contato conta


e non tutto ciò che conta può essere contato

Einstein

!"#$%&'()%"*!

In Grecia, e fino al Medioevo, la finalità della filosofia era la conoscenza del


mondo ontico mediante i principi universali in sè stessi intelligibili. Nelle loro
dissertazioni sull'universo e sulle sue componenti, i filosofi rivolgevano l'attenzione
all'essenza delle cose per scoprirvi l'essere primordiale, il sostrato immutabile di tutti gli
enti. Da qui le teorie cosmologiche da Talete fino ad Aristotele e le loro diverse
soluzioni: l'acqua, l'indeterminato, i quattro elementi, la quintessenza. Determinate la
sostanza primigenia e le essenze delle cose gli uomini dell'antichità e quelli del
Medioevo deducevano aprioristicamente l'attività propria d'ogni ente in ossequio
all'aforisma che “l'agire segue l'essere”. Il loro interesse non era tanto di conoscere gli
effetti quanto le cause generali. Di speciale importanza è il principio della causalità
finale. Ogni ente è per sua natura orientato ad un fine, e Aristotele nella Fisica dice: “La
natura è causa, anzi propriamente causa finale”. Il confronto vero con la realtà
attraverso la verifica sperimentale o l'osservazione scientifica risultava così per essi
superfluo. Per loro erano sufficienti la semplice osservazione e il senso comune, inteso
come interpretazione razionale dei dati percepiti attraverso i sensi, senza decantazione,
né analisi ulteriore.
Il loro universo risultava antropomorfico in un duplice senso. Primo, perchè
s'adattava alla visione ingenua, ch'essi avevano, dello stesso: la Terra è piatta, il Sole
gira attorno alla Terra che, essendo la dimora dell'uomo, occupa il posto centrale, il cielo
sta in alto, ecc. E, secondo, perchè a tutti gli enti è attribuita una teleologia in maniera
che tutto opera, analogamente all'uomo, per una finalità: la pietra cade, perchè tende al
luogo suo proprio e il fuoco sale, per la stessa ragione, verso l'alto. Il moto e il
mutamento obbediscono generalmente a questa naturale appetenza del fine, che è la
causa del mutamento, come è scritto chiaramente nella Summa theologica di Tommaso
d’Aquino: “E’ necessario che tutti gli agenti agiscano per un fine. Infatti in una serie di
cause ordinate tra loro, non si può eliminare la prima, senza eliminare anche le altre.
Ma la prima delle cause è la causa finale. E lo dimostra il fatto che la materia non
raggiunge la forma, senza la mozione della causa agente: poiché nessuna cosa può
passare da se stessa dalla potenza all'atto. Ma la causa agente non muove senza mirare
al fine. Infatti, se l'agente non fosse determinato a un dato effetto, non verrebbe mai a
compiere una cosa piuttosto che un'altra: e quindi, perchè produca un dato effetto, è
necessario che venga determinato a una cosa definita, la quale acquista così la ragione
di fine. Ora, questa determinazione, che nell’essere ragionevole è dovuta all'appetito
intellettivo, detto volontà, negli altri esseri viene prodotta dall'inclinazione naturale,
chiamata appunto appetito naturale”.
Diametralmente opposta alla filosofia si trova la tecnica, la quale persegue
l'utilità immediata attraverso regole pratiche concrete, senza formulare leggi generali né
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! :!

principi. Per la mentalità del cittadino ateniese o romano questo era un compito
riservato agli schiavi ed agli artefici di bassa estrazione sociale. E nessuno spirito nobile
brama d'essere Fidia o Policleto, poiché propria dell'uomo liberale è la contemplazione
delle idee, non l'osservazione dei fatti, ne l'utilità dei risultati.
In un ambito intermedio, la scienza, nel prescindere dalla conoscenza ontica e dai
principi in sé stessi intelligibili, cerca d'inquadrare i dati fenomenici osservati in leggi
sempre più generali, le quali servano a prevedere nuovi fatti fenomenici. Il criterio
filosofico di verità è sostituito dal criterio scientifico. Quello stabilisce la verità di una
proposizione, se la si può logicamente dedurre partendo da alcuni principi in se stessi
intelligibili. Il criterio scientifico, invece, afferma che un'ipotesi o una teoria è credibile
se da essa si deducono risultati comprovati dalla verifica sperimentale o
dall'osservazione.
Come già san Tommaso aveva giustamente osservato, il criterio scientifico di
verità è relativo, poiché la verifica sperimentale non assicura la verità della teoria.
Accade talvolta che una nuova teoria spieghi ugualmente bene, o addirittura meglio, i
fenomeni osservati. Le teorie scientifiche sono, infatti, sostituite costantemente da altre
nuove. Così avvenne con le teorie intese a spiegare il moto degli astri: dalla teoria delle
sfere celesti dei pitagorici si pervenne a quella tolemaica degli epicicli; quindi
all'eliocentrismo circolare di Copernico e, infine, alle orbite ellittiche di Keplero.
A distinguere la filosofia dalla scienza non è soltanto la finalità. Anche il
rispettivo metodo è differente. Punto di partenza della filosofia è la ragione, la quale
fissa i principi intelligibili, in accordo con il senso comune e con l'esperienza volgare, in
alcuni casi, o anche prescindendo assolutamente dall'esperienza, in altri. La fiducia
nella ragione come fonte di conoscenza superiore ed anche indipendente dall'esperienza
è retaggio di Parmenide, per il quale il pensiero e l'essere sono un'unica cosa. Per
questo, Aristotele stabilisce il principio, fondamentale per il suo sistema, secondo cui
tutto ciò che si muove, è mosso da altro. E lo stabilisce come deduzione razionale dal
fatto che, quando cessa la causa, cessa anche l’effetto. Così, infatti, gl'insegna
l'esperienza comune: un oggetto cessa di muoversi quando cessa l'atto di spingerlo. E
Zenone non può fare a meno di negare l'esperienza stessa del moto, poiché la ragione
non sa risolvere l'aporia della divisibilità infinita della traiettoria da percorrere.
Un testo di Aristotele riassume perfettamente questo metodo deduttivo, o
discendente, che va dall'universale al particolare: “Chi preferisce il puro conoscere,
sceglierà massimamente quella che è scienza al massimo grado, e tale è, appunto, la
scienza di ciò che è conoscibile nel grado più alto; e sono conoscibili nel grado più alto i
primi principi e le cause, giacché mediante questi e in base a questi sono conosciute le
altre cose, e non questi sono conosciuti mediante le cose che da essi dipendono “.
Aristotele, utilizzando esclusivamente il metodo deduttivo costruì quel modello
complesso e articolato della natura, ma in gran parte sbagliato, che influenzerà il
pensiero scientifico per circa duemila anni.
Spetterà a Galileo Galilei, attraverso il metodo induttivo (o meglio ancora
attraverso le sensate esperienze e le dimostrazioni matematiche) ribaltare il metodo di
indagine della natura e quindi distruggere l'intero edificio del sapere costruito dai
filosofi greci nell'antichità, metodo che ispirerà Newton a formulare le leggi della
dinamica, Maxwell a realizzare la prima grande unificazione della fisica con
l’elettromagnetismo, Einstein a rivedere i concetti di spazio e di tempo e gli interpreti
della meccanica quantistica a descrivere il mondo microscopico con leggi nuove e in
conflitto con il senso comune. La scienza moderna, da Galileo in poi, segue quindi un
;<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

processo inverso. L'osservazione dei fenomeni le presenta un complesso di fatti in cui si


possono dare, e solitamente si danno, fenomeni di diverso tipo. Da codesti aggregati
confusi, ottenuti con l'osservazione o con l'esperienza, la scienza cerca di pervenire ad
alcune leggi generali che consentano conclusioni suscettibili di osservazione. Quando
queste conclusioni osservabili sono comprovate sperimentalmente, la legge generale
assurge a ruolo di teoria generale. Il conflitto fra Galilei e l'Inquisizione non fu, quindi,
semplicemente l'antitesi fra libero pensiero e oscurantismo o fra scienza e religione, ma
la contrapposizione fra il metodo induttivo e quello deduttivo applicato allo studio
della natura. Con le regole imposte da Galilei nello studio dei fenomeni naturali,
diventava evidente lo scontro tra due visioni differenti del mondo, quella religiosa, che
offriva verità assolute, spiegazioni complete e definitive, e quella scientifica animata dal
dubbio e da risposte parziali o provvisorie.
La fisica moderna prende dunque l'avvio con Galileo il quale, anziché mirare,
come Aristotele, a spiegare il “perché” della realtà ontica in base a principi intelligibili,
si limita a studiare il “come” avvengono i fatti della realtà fenomenica. Non si esige che
sia stabilita la natura degli esseri e poi, partendo da essa, il loro modo di operare, in
ossequio all'aforisma aristotelico-scolastico secondo cui “l'operare segue l'essere”; e che,
quindi, la conoscenza dell'operare debba seguire la conoscenza dell'essere; ma si
esamina il modo di procedere di ogni cosa per stabilirne la norma generale,
prescindendo dalla sua natura ontica. Il metodo di Galileo è sperimentale ed il suo
strumento è la matematica, così che la visione, ch'egli ha dell'universo, risulta a tal
punto quantificata, che per la prima volta, dopo Democrito ed in anticipo su Locke, è da
lui introdotta la differenziazione fra qualità che sono inerenti agli oggetti e qualità che
sono insite nei sensi. Fra le prime Galileo pone la figura e il movimento e, fra le seconde,
i sapori, i colori e gli odori, i quali non possono esistere separati dall'animale che sente.
Alla nascita della scienza moderna fa riscontro tutta una serie di conseguenze per
il sapere in generale e nel campo filosofico in particolare. In primo luogo l'interesse si
sposta dal sapere puro, contemplativo, alla scienza applicata. Quanto è lontano da
Aristotele Bacone quando scrive: “L'obiettivo vero e legittimo della scienza non è altro
che questo: che la vita umana sia arricchita da nuove scoperte e nuove forze”.
Per ciò che concerne l'oggetto stesso di studio, l'interesse si sposta dall'ontico
(ossia dalla sostanza od essenza) al fenomenico (all'accidente). La questione di fondo
non è più quella di sapere che cosa siano le cose, ma com'esse si effettuino, cioè in
connessione a quali leggi, che siano traducibili matematicamente s'intende. Motivo per
cui la qualità cede il primato alla quantità misurabile. Procedendo nella stessa linea
fenomenica di Galileo, Keplero riesce a ridurre a leggi matematiche il moto apparente
dei pianeti. Fu, tuttavia, merito di Newton se la visione fenomenico-meccanica del
mondo giunse al suo apogeo. Newton formula quattro regole fondamentali per
l'investigazione nel campo delle scienze naturali:
1. Delle cose naturali non devono essere ammesse cause più numerose di quelle che
sono vere e bastano a spiegare i fenomeni.
2. Perciò, finché può essere fatto, le medesime cause vanno attribuite ad effetti
naturali dello stesso genere.
3. Le qualità dei corpi che non possono essere aumentate e diminuite, e quelle che
appartengono a tutti i corpi sui quali è possibile impiantare esperimenti, devono
essere ritenute qualità di tutti i corpi.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;;!

4. Nella filosofia sperimentale, le proposizioni ricavate per induzione dai fenomeni,


devono, nonostante le ipotesi contrarie, essere considerate vere, o rigorosamente
o quanto più possibile, finché non interverranno altri fenomeni, mediante i quali
o sono rese più esatte o vengono assoggettate ad eccezioni.
Due tratti principali caratterizzano la visione newtoniana. Il primo è la semplicità
di tutto il suo sistema. Newton fonda tutta la sua costruzione su quattro grandezze
fisiche (spazio, tempo, massa e quantità di moto) ed altrettante leggi o principi. Con
elementi così semplici Newton riesce a dare una visione coerente ed unitaria non solo
dei fenomeni meccanici, che avvengono sulla Terra, ma anche dei moti degli astri.
Questa visione unitaria costituisce la seconda caratteristica del sistema newtoniano e
relega nel dimenticatoio la dicotomia aristotelica fra corpi sublunari e corpi celesti, tra
fisica terrestre e fisica celeste. Newton, partendo da queste grandezze e da questi
principi, giunse infine a scoprire e a formulare la famosa legge della gravitazione
universale, che costituisce forse l'esempio più chiaro del cambiamento operato nella
concezione della scienza e nella visione del mondo. Prescindendo dall'intenzione di
Newton, tale legge non pretende di chiarire la natura reale, ontica, dei corpi, né della
stessa gravitazione, che era sconosciuta a Newton come continua ad esserlo tuttora, né
ha la pretesa d'essere una verità filosofica, ma semplicemente una verità scientifica,
ossia un'ipotesi di lavoro, che è vera nella misura in cui corrisponde ai fatti fenomenici
conosciuti e in quanto serve a predirne altri comprovabili mediante la verifica
sperimentale e l'osservazione. Questa visione dell'universo come macchina gigantesca,
le cui parti sono fra di loro collegate dalla gravitazione, ebbe in seguito numerose e
splendide conferme come nell’opera di Laplace e la scoperta di Nettuno fatta da Verrier
esclusivamente mediante calcolo matematico.
Tutto ciò ha come conseguenza che la scienza e la filosofia vadano sempre più
distanziandosi e rendendosi indipendenti, con pregiudizio di entrambe, in special
modo della seconda, che si chiude in se stessa e tralascia di rispondere alla problematica
del mondo d'oggi. Più ancora, la molteplicità dei sistemi filosofici, spesso in
opposizione fra di loro, induce gli stessi filosofi a interrogarsi sulla validità della
conoscenza stessa. Non è allora a caso che Cartesio proponga il suo dubbio metodico
sulla conoscenza, per quanto egli creda di riuscire a trovargli una via d'uscita vittoriosa.
In questa stessa direzione, ma in forma più radicale, Kant, sorpreso
dell'insicurezza della metafisica di fronte alla sicurezza delle matematiche e della fisica,
nella prefazione della seconda edizione della Critica della ragion pura scrive: “Alla
metafisica, conoscenza speculativa razionale, affatto isolata, che si eleva assolutamente
al di sopra degli insegnamenti dell'esperienza, e mediante semplici concetti (non, come
la matematica, per l'applicazione di questi all'intuizione), nella quale dunque la ragione
deve essere scolara di se stessa, non è sinora toccata la fortuna di potersi avviare per la
via sicura della scienza; sebbene essa sia più antica di tutte le altre scienze, e
sopravvivrebbe anche quando le altre dovessero tutte quante essere inghiottite nel
baratro di una barbarie che tutto devastasse. Giacché la ragione si trova in essa
continuamente in imbarazzo, anche quando vuole scoprire (come essa presume) a priori
quelle leggi, che la più comune esperienza conferma. In essa si deve innumerevoli volte
rifar la via, poiché si trova che quella già seguita non conduce alla meta; e, quanto
all'accordo dei suoi cultori nelle loro affermazioni, essa è cosi lontana dall'averlo
raggiunto, che è piuttosto un campo di lotta: il quale par proprio un campo ad
esercitare le lotte antagonistiche, in cui nemmeno un campione ha mai potuto
;=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

impadronirsi della più piccola parte di terreno e fondar sulla propria vittoria un
durevole possesso”.
Agli inizi del secolo XX gli scienziati cominciano a distanziarsi dalla visione
meccanicistica newtoniana dell'universo in conseguenza di certi fenomeni che
avvengono nel mondo dell'estremamente piccolo (l'atomo) e dell'estremamente grande
(le galassie), e che non trovano una spiegazione congrua nella meccanica classica, dando
vita, così, alle due grandi e rivoluzionarie teorie del Novecento: la relatività e la
meccanica quantistica. Sorvolando sui contenuti specifici di tali teorie, che saranno
approfonditi nel corso del libro, ci limiteremo a menzionare quegli aspetti concettuali e
logici che hanno avuto un carattere autenticamente rivoluzionario sotto diversi punti di
vista, dal momento che non riguardavano più l'impossibilità di "visualizzare" il mondo
fisico, ma addirittura quello di pensarlo impiegando le categorie che il senso comune
utilizza per intendere il mondo e che, in particolare, sono state precisate ed elaborate in
seno alla tradizione filosofica dell'Occidente. Si pensi, per esempio, al fatto di dover
conciliare continuità e discontinuità nell'interpretazione del mondo microfisico, alla
dualità della rappresentazione corpuscolare e ondulatoria delle particelle elementari,
all'indeterminatezza di principio nell'attribuzione simultanea di valori a grandezze
coniugate a livello microfisico, alla necessità di considerare la massa e le dimensioni
spaziali di un corpo non più come le sue proprietà più inalterabili e intrinseche, ma
come variabili in funzione della sua velocità, per non parlare delle interdipendenze fra
due entità concettualmente tanto distinte come lo spazio e il tempo e, per finire, della
conversione da una concezione deterministica a una probabilistica delle leggi naturali,
con la correlata riconsiderazione del principio di causalità.
Daremo ora solo qualche breve cenno per mostrare come queste difficoltà siano
venute dipanandosi e connettendosi l'una all'altra in modo irresistibile. Per il senso
comune e per la fisica classica il concetto di simultaneità di due eventi ha un valore
assoluto (essi sono tali se hanno luogo nel medesimo istante temporale). Einstein ha
però chiarito che questo concetto ha un reale significato fisico solo se possiamo
precisare come stabilire tale simultaneità, e la sua analisi ha condotto a riconoscere che
essa dipende dal sistema di riferimento e può risultare sussistente o non sussistente a
seconda del moto relativo dei sistemi di riferimento. Tale simultaneità intrinseca ai due
eventi può essere affermata dal senso comune solo con riferimento implicito a un tempo
assoluto, ma questo è stato eliminato dalla teoria della relatività, la quale ha anche
operato un mutamento più radicale, mostrando che spazio e tempo sono
interdipendenti, per non accennare ad altre peculiarità, come i concetti di spazio a
quattro dimensioni o di spazio curvo.
Passiamo ora ad altre proprietà che il senso comune considera come intrinseche e
invariabili per un dato corpo, come la massa e la lunghezza di un corpo rigido. La
relatività mostra che esse dipendono dalla velocità di traslazione di quel corpo la quale,
a sua volta, è relativa ai sistemi di riferimento. Per di più la massa può convertirsi in
energia e viceversa, cosicché la vecchia legge di conservazione della massa deve esser
riformulata in una più complessa formula di conservazione dell'energia (o della massa-
energia). Si noti che, anche così, la vecchia concezione dell'uniformità della natura,
espressa dalle leggi fisiche, non è stata abbandonata, poiché la teoria della relatività è
un grande sforzo per trovare una formulazione delle leggi di natura che sia invariante
rispetto alla relatività delle misure possibili nei diversi sistemi di riferimento.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;4!

Passando alla fisica quantistica, basti ricordare che essa pone un limite teorico (e
non solo pratico) alla possibilità di determinazione esatta e simultanea delle grandezze
coniugate di un sistema microfisico (come, per esempio, posizione e velocità di una
particella), secondo quanto stabilito nelle relazioni di indeterminazione di Heisenberg e
ciò si riflette anche sulla possibilità di precisione esatta consentita dalle leggi fisiche (che
assume un carattere soltanto statistico). Tutto ciò è anche conseguenza del fatto che nei
procedimenti di misura si deve realizzare una preparazione che rende impossibile una
netta separazione fra osservatore (o apparecchio di misura) e oggetto osservato,
togliendo una delle caratteristiche più spontanee che il senso comune (e la fisica
tradizionale) sottendevano per una conoscenza oggettiva del mondo. Finalmente,
perfino le due visioni rivali (corpuscolare e ondulatoria) sono obbligate a convivere,
non già in campi separati della fisica, come accadeva in precedenza, ma nella
descrizione del comportamento di una medesima entità, secondo il cosiddetto principio
di complementarietà enunciato da Bohr.
Possiamo fermarci qui e chiederci come mai gli scienziati accettino teorie tanto
strane per il senso comune e gli stessi intelletti delle persone colte. La risposta è che esse
non solo hanno ricevuto molte conferme sperimentali inoppugnabili e permesso
applicazioni tecnologiche di grande rilievo, ma anche che relatività e fisica quantistica
non hanno incontrato una sola smentita sperimentale e debbono esser considerate come
verificate ancor più di quanto lo fosse, nel suo campo, la fisica classica. Proprio queste
conferme sperimentali e queste riuscite applicazioni tecnologiche costituiscono un certo
ritorno verso il senso comune, anche se sono venute meno quasi tutte le possibilità di
rappresentazione di senso comune di cui godeva abbastanza ampiamente la vecchia
fisica e che, ben inteso, possono esser tentate con strumenti più complessi anche per la
nuova fisica.
Questi fatti ben noti hanno alimentato, sin dai primi decenni del Novecento,
dibattiti filosofici vasti e approfonditi sulla fisica, in cui sono intervenuti i maggiori
scienziati del tempo, ma anche filosofi forniti di una sufficiente competenza scientifica;
dibattiti che hanno riguardato temi di filosofia della conoscenza, di ontologia e
metafisica, di filosofia della natura, di metodologia delle scienze e nei quali sono emerse
le più diverse posizioni. Tutto ciò sta a confermare che una filosofia della fisica si
sviluppò robustamente a partire dalla crisi dei fondamenti della fisica, non meno di
quanto i dibattiti sui fondamenti della matematica e i risultati inattesi delle ricerche di
logica matematica abbiano innervato una filosofia della matematica. Entrambe poi
hanno contribuito notevolmente alla costituzione della filosofia della scienza come
nuova branca ormai specializzata della filosofia.
;5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

!"#$%&'&()!

Chi non riesce più a provare stupore


e meraviglia è già come morto e i
suoi occhi sono incapaci di vedere.

Einstein

!"#$%&'%#(&)!*%#

1.1 Mito e scienza

Per spiegare i fenomeni naturali l’uomo, prima che alla ragione e


all’osservazione, fece ricorso alla fantasia, e si formarono così interessantissimi miti
intorno all’origine del mondo, al destino dei mortali, alle grandi forze dominanti lo
sviluppo degli eventi. Il mito (dal greco mythéo che significa io racconto o narro)
rappresenta il primo tentativo, nella lunga storia della ricerca umana, di elaborazione
della realtà. Attraverso il mito, infatti, l'uomo, in primo luogo, dà il nome alle cose,
vincendo in tal modo il sentimento di paura primordiale, e, poi, costruisce delle
narrazioni fantastiche che intendono spiegare come si sono formati il mondo e le
divinità. Il mito è una difesa di fronte alla minacciosa presenza delle forze occulte della
natura e con esso l'uomo procede a dare un nome al mondo e ad illuminarlo, e a mettere
ordine nel caos. Prima che la scienza prendesse esplicitamente avvio, l'arte e la religione
greca avevano già abbozzato alcune riflessioni generali sull'uomo e sul mondo. Ciò
avvenne soprattutto nelle cosmologie mitiche, che cercavano di narrare l'origine del
mondo a partire dal caos primitivo. Questi racconti sono definiti mitici, in quanto
ricorrono a spiegazioni fantastiche. Essi, però, non devono essere considerati come
qualcosa di primitivo, in quanto la forma letteraria del mito, che sul piano artistico
attinge a vette elevatissime, è già una elaborazione della realtà. Il mito, dunque, anche
se non possiede l'universalità e la lucidità dell'affermazione teorica, non va considerato
come un complesso di falsità e quindi un ostacolo alla conquista del vero. Al contrario
esso ha avuto una funzione molto positiva: ha educato l'uomo a non fermarsi ai
semplici fatti nella loro molteplicità disorganica, ma a considerarli connessi l'uno
all'altro, cercando i principi di ciò che accade intorno a noi, e, attraverso i principi, i
mezzi per agire sulla natura onde trasformarla a vantaggio dell'umanità.
Tra mito e scienza non c'è, pertanto, opposizione, in quanto entrambi sono
attività del pensiero umano tendenti a rispondere al perché del mondo, ma un comune
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;6!

sentimento di stupore e la comune volontà di dare un senso ai fenomeni della natura:


dai corpi celesti ai fenomeni atmosferici, dall'alternarsi delle stagioni all'origine stessa
degli uomini e delle divinità. La differenza principale tra mito e scienza riguarda,
piuttosto, il metodo con cui essi ricercano la verità delle cose. Il mito si serve della
narrazione fantastica e non si cura di accertare la validità dei propri enunciati; la
scienza, invece, fa del metodo scientifico, ossia della verifica delle proprie ipotesi
attraverso opportune misure quantitative, lo strumento essenziale della propria ricerca.

1.2 Le cosmogonie

I primordi della scienza si confondono con la sapienza mitica espressa


soprattutto nelle cosmogonie. La cosmogonia (da kosmos=universo e ghighnomai=io
genero) è la spiegazione mitica dell'origine e della formazione del mondo e tutti i popoli
e le civiltà hanno formulato dei miti cosmogonici. Alcuni dei miti cosmogonici più
antichi si estendono a tutto l'oriente mediterraneo. L'elemento primordiale sarebbe
quasi ovunque un caos fluido (si pensi alla spontanea fertilità dell'elemento acquoso che
produce la vita nelle valli del Nilo, del Tigri e dell'Eufrate), ed, emersa da esso, una
Grande Madre avrebbe dato inizio alla creazione del mondo e degli dèi. E' presente in
questo mito il concetto, che suggerirà a volte forme di religiosità panteistica, di unità
dell'universo in quanto originato da una materia unica. Ma il binomio Grande Madre-
caos fu interpretato anche come dualistica opposizione tra forza della vita e della morte,
della fecondazione e della sterilità, della luce e delle tenebre, dell'amore e dell'odio.
Il più antico documento della cosmogonia presso i Greci è la Teogonia di Esiodo
(VIII sec. a.C.; VII sec. a.C.), il quale, fu probabilmente il primo a cercare un principio
delle cose quando disse che all'inizio ci fu «Caos», poi venne la terra «dall'ampio seno»
e quindi l'amore «che eccelle tra gli dei immortali». Egli vuole rispondere alla domanda
fondamentale che gli sta a cuore, e cioè: come il mondo è divenuto quello che è. Per
rispondere a tale questione un poeta dell'VIII secolo a.C., come Esiodo, non poteva fare
a meno di immaginare un complesso di atti e di interventi divini che dessero ragione
dell'esistenza e della forma di cui si compone la realtà. In questa primitiva ricerca il
mondo umano e quello divino si trovano strettamente legati l'uno all'altro, e la
cosmogonia si trasforma, dunque, in teogonia: attraverso la narrazione delle
generazioni degli dèi, l'autore allude al multiforme divenire della realtà. Esiodo, per
poter spiegare l'ordine che governa il mondo, non fa altro che narrare i rapporti
genealogici tra i vari dèi, che del kosmos (= ordine) sono i garanti . Ed è significativo che
nella Teogonia il ruolo della coppia divina primigenia, che è all'origine di tutto, sia
attribuito a Gaia (la terra) e Urano (il cielo). Infatti, dovendo rappresentare l'ordine del
mondo fisico attraverso le gerarchie divine, Esiodo pone all'origine di tutte le
generazioni una coppia che è la personificazione stessa dell'universo fisico, la terra e il
cielo.
La Teogonia di Esiodo presenta alcune significative analogie con alcuni miti
cosmogonici del vicino Oriente. L'origine dell'universo da una coppia divina si ritrova
anche nella mitologia egizia, che propone vari racconti della creazione. Un'idea
ricorrente nei miti cosmogonici egizi è che la vita derivò dalle acque dello "smisurato
abisso". All'origine di questi miti c'era indubbiamente l'osservazione che le terre
;7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

inondate dal fertile limo del Nilo erano promesse di nuova vita per un nuovo anno
agricolo.
Presso i Babilonesi la creazione di un universo ordinato venne attribuita alla
vittoria di Marduk, il dio babilonese per eccellenza, su Tiamat, la divinità del caos.
Ancora una volta all'origine della creazione troviamo, come nella Teogonia di Esiodo,
una battaglia titanica tra forze divine opposte, un dramma cosmico tra il caos e
l'intelligenza ordinatrice. In questo mito si cela, forse, la lotta dell'uomo primitivo
contro le periodiche inondazioni della Mesopotamia, interpretata come conflitto
primordiale tra le forze del caos e quelle dell'ordine che producono la vita.
Contemporaneamente alle
credenze religiose politeistiche del
resto del bacino mediterraneo si
sviluppò nel popolo ebraico,
soprattutto per merito di Mosè,
una fede intransigentemente
monoteistica.
Secondo la cosmogonia
ebraica dio è creatore di tutte le
cose, ed il mondo che può apparire
ingiusto e malvagio ha in realtà
una sua profonda moralità e tende
ad un alto fine religioso.

1.3 Le più antiche civiltà

L’uomo ha sempre cercato di controllare e dominare la natura attraverso


l’invenzione di tecnologie sempre più avanzate; gradualmente ha poi provato a
comprenderla. Solo molto tempo dopo ha imparato a combinare i due desideri, dando
forma alla scienza moderna. Ma lo sviluppo della scienza moderna poggia sulla
curiosità e l’interesse di molti secoli nei quali le tecniche per esplorare la natura sono
state sviluppate lentamente, e la conoscenza lentamente accumulata.
La tecnologia primitiva, oltre al mito, fu il mezzo attraverso cui l’uomo cercò di
sottomettere la natura. Basterebbero le imponenti rovine dei monumenti nel
Mediterraneo orientale per darci un’idea dello sviluppo fra quei popoli della tecnica.
Man mano che al bronzo si sostituiva il ferro, più economico e funzionale, fonderie e
miniere passavano dal livello artigianale a quello di piccole manifatture, data la tecnica
più complessa richiesta dalla nuova lavorazione. Non si deve tuttavia pensare che la
tecnica, prodotto di osservazione razionale e di sperimentazione ripetuta, abbia potuto
svilupparsi senza che un profondo impulso fosse dato pure alla scienza. Strumento
della scienza in quest’epoca fu anzitutto la scrittura, che, originariamente geroglifica,
venne sostituita dalle più funzionali scritture fonetiche, sillabica (miceneo) e alfabetica
(forse di invezione fenicia). La scrittura permise l’approfondimento delle prime
conoscenze ed osservazioni, si scrissero i primi libri e si fondarono le prime biblioteche
nei templi e palazzi reali (famosissima quella a Ninive costruita dal re Assurbanipal nel
VII sec. a.C.).
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;8!

Quindi, se vogliamo individuare il luogo in cui collocare le origini della scienza


moderna, questo è la Mesopotamia, dove intorno al 4000 a. C. si sviluppò una fiorente
civiltà, quella dei Sumeri prima e dopo quella dei Babilonesi. In quanto popolo di
commercianti, si interessarono di numeri. Svilupparono un sistema sessagesimale, cioè
basato sul numero 60, del quale oggi ci rimane la suddivisione dell’angolo giro in 360°
oppure l’ora in 60 minuti e il minuto in 60 secondi. Possedevano tavole di
moltiplicazioni di grande complessità, e anche tavole che fornivano la soluzione di
problemi che oggi risolviamo facilmente attraverso l’uso delle equazioni. Pertanto erano
in grado di risolvere equazioni complesse ma sempre in termini numerici, poiché non
possedevano la nozione di generalità. Ma neanche ci troviamo di fronte a semplici
quesiti pratici che richiedono una soluzione, bensì ad un procedimento di calcolo che
sembra costituire la parte importante di un discorso. Si può dire che è già superata la
fase della matematica empirica, caso per caso, secondo il bisogno. Non solo molti
problemi sono suggeriti da una curiosità scientifica che trascende la necessità della vita
quotidiana, ma siamo di fronte a problemi che vengono risolti con lo stesso
procedimento, con gli stessi metodi di calcolo. Una ricerca di metodo dunque, e questa è
scienza.
Nonostante la presenza di una grande quantità di dati, conosciamo poco sul
pensiero dei matematici babilonesi e soprattutto sulla presenza di una struttura teorica
sottostante. Nel campo astronomico sappiamo che i sumeri utilizzavano un calendario
lunare, mentre i babilonesi (dopo il 2000 a. C.), con l’aiuto di strumenti scientifici come
lo gnomone, registrarono molte osservazioni del moto della luna, del sorgere e
tramontare di Venere e Mercurio, e di eclissi. Furono in questo periodo che vennero
denominate le costellazioni (lo zodiaco). Il fine di tutte queste registrazioni di fenomeni
celesti era di carattere astrologico. Moltissimo tempo dopo (500 a. C.), quando la
Mesopotamia era dominata dai greci, si sviluppò un’astronomia matematica altamente
elaborata e complessa. Infatti, dopo il 300 a. C., vennero effettuate due previsioni della
lunghezza dell’anno solare corrette a meno di pochissimi minuti.

La situazione nella vicina civiltà dell’Egitto era comparabile con quella del
bacino mesopotamico. Nonostante le colossali costruzioni di tombe e monumenti, come
le piramidi, la geometria egiziana era molto elementare, ed al pari di quella babilonese,
aveva uno scopo prettamente pratico e non teorico. Il sistema numerico egiziano era più
rudimentale di quello babilonese, e i metodi di calcolo davvero elementari.
Diversamente dai babilonesi, gli egizi mostrarono uno scarso interesse per gli eventi
astronomici anche se usarono calendari lunari e solari e potrebbero aver comparato i
due al fine di determinare l’errore in lunghi cicli di tempo.
Anche se alcune fondamentali nozioni scientifiche, come la concatenazione di
causa ed effetto, furono conquista già della tecnica più primitiva, e nonostante l’uso
magistrale delle più sofisticate tecniche, sia gli egizi che i babilonesi mancarono di
curiosità nel comprendere perché queste tecniche funzionassero. In nessuna fase
cominciarono a speculare sulla natura, a costruire un sistema di pensiero, e cercarono
per i più appariscenti fenomeni, come il moto delle stelle o dei pianeti, le fasi della luna
o le eclissi, spiegazioni mitologiche. La civiltà mesopotamica ed egiziana influenzarono
i greci, loro successori, tecnicamente ma non concettualmente.
;9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

!"#$%&'&()!

…fatti non foste a viver come bruti,


ma per seguire virtute e conoscenza.

Dante

!"#$%&'%#+,-*%#

2.1 Caratteri della società greca

I Greci, e primi fra essi gli ionici dell’Asia Minore, oltre a una vastità di dati
empirici, soprattutto astronomici, ereditarono il furore matematico dei popoli
mesopotamici e la tecnica geometrica degli egiziani. L’eredità venne accolta da spiriti
nuovi che tendevano al raziocinio più che all’osservazione minuta, alla speculazione
filosofica sull’origine e sui principi di tutte le cose più che al semplice computo. È vero
che le convinzioni religiose che avevano animato l’indagine scientifica nell’Oriente non
vennero meno neanche durante il periodo della fioritura della scienza greca, solo che
adesso sorgono degli accesi contrasti di idee le cui conseguenze risulteranno
fondamentali per lo sviluppo della scienza nel mondo occidentale.
La scienza dei Greci che si venne delineando attraverso un lento e faticoso
processo di ricerca tra i secoli VI e V a.C., non si deve intendere come separata dalla
filosofia né dalle tecniche, che proprio in quei secoli acquistavano grande importanza. Il
termine greco téchne (tecnica), infatti, comprendeva fra i suoi significati non solo quello
di arte della manipolazione del mondo fisico, ma anche della sua conoscenza (scienza,
nel nostro linguaggio odierno). Inoltre, l'arte o téchne era vista in funzione dell'utilità e
del beneficio che poteva assicurare all'uomo. Nel concetto greco di téchne sono, dunque,
contenute sia l'idea della conoscenza o epistème che quella dell'abilità pratica nella
produzione di un oggetto.
Nella società greca arcaica, almeno fino a Platone, il sapere non si presenta
parcellizzato in tanti compartimenti stagni; pertanto, colui che aveva conoscenza
profonda delle cose, padroneggiava contemporaneamente anche l'arte del fare, era cioè
esperto nell'utilizzo tecnico di esse. Significativo, a tal proposito, il seguente aneddoto
che Aristotele ci tramanda su Talete e che evidenzia la stretta interazione tra
conoscenza, téchne e utilità per l'uomo. Si diceva - ci riferisce Aristotele - che la gente
rinfacciasse a Talete l'inutilità del suo sapere, dal momento che egli era povero. Ma
Talete, avendo previsto, in base ai suoi calcoli astronomici, un abbondante raccolto di
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;:!

olive, ancora in pieno inverno si accaparrò tutti i frantoi di Mileto e di Chio, pagandoli a
prezzo irrisorio, dal momento che non ce n'era richiesta alcuna. Quando giunse il tempo
della raccolta, poiché erano molti a ricercare i frantoi, egli li noleggiò al prezzo che volle
e così, ricavatene molte ricchezze, dimostrò che per i sapienti era facile arricchirsi, anche
se non era questo il loro obiettivo. L'aneddoto mette in risalto come la scienza, lungi
dall'essere inutile, poteva essere fonte di arricchimento, anche se non a questo badavano
principalmente i primi filosofi.
Lo sforzo di descrizione, di
coordinazione, di spiegazione e
di previsione dei fenomeni
naturali, primo nucleo attorno al
quale nel corso dei secoli si
formerà la fisica (dal greco
physis=natura), cominciò dunque
in Grecia nel VI secolo a.C.,
favorito dall’ambiente politico-
sociale-culturale e da un
linguaggio già affinato da una
lunga tradizione letteraria. Però
quando si parla della Grecia
antica, non dobbiamo pensare
soltanto alla penisola che
costituisce oggi lo stato greco, bensì a tutto il bacino del Mar Egeo e dello Ionio,
comprendente da un lato le coste dell’Asia Minore, e dall’altro quelle della Sicilia e
dell’Italia Meridionale, colonizzate dai Greci.
L’evoluzione della scienza greca si suole dividere in quattro periodi:

1. l’età ellenica (dal 600 al 300 a.C.), che corrisponde allo sviluppo libero delle città
greche;
2. l’età ellenistica (dal 300 all’inizio dell’era volgare), che riguarda l’ellenizzazione
di tutto il mondo orientale;
3. l’età greco-romana, che occupa i primi tre secoli dell’era volgare;
4. il periodo dei commentatori o della decadenza (dal 300 al 600 d.C.), che non reca
ulteriore sviluppo scientifico, ma solo una riduzione dell’antico materiale, nella
forma di riferimenti e di notizie.

L‘idea che si potesse comprendere la natura in modo razionale nasce, perciò,


nelle luminose città greche. La nascente civiltà greca è profondamente diversa da quella
mesopotamica ed egiziana, che sono ordinate, stabili e gerarchiche. Il potere è
centralizzato e la civiltà si regge sulla conservazione dell’ordine stabilito. Il giovane
mondo greco, al contrario, è dinamico, in evoluzione continua. E’ apertissimo ad
assorbire quanto può dalle civiltà vicine. Non vi è potere centrale e ogni città è
indipendente e, all’interno di esse, il potere è rinegoziato in continuazione fra i cittadini.
Le leggi non sono né sacre né immutabili, ma, al contrario, sono continuamente
discusse, sperimentate e messe alla prova. L’autorità è soprattutto di chi è in grado di
convincere gli altri, attraverso il dialogo e la discussione. In questo clima culturale
profondamente nuovo nella storia del mondo, nasce un’idea nuova della politica: la
democrazia. E le basi su cui poggia la democrazia delle giovani città greche sono le
=<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

stesse della ricerca scientifica del sapere. E nasce un’idea nuova della conoscenza: la
conoscenza razionale. Questa è una conoscenza dinamica, che evolve, che è
continuamente discussa e messa alla prova. L’autorità del sapere viene soprattutto dalla
capacità di convincere gli altri della giustezza delle proprie affermazioni e non dalla
tradizione, dal potere, dalla forza o dall’appello a verità immutabili. La critica alle idee
acquisite non è temuta; al contrario, è auspicata: è la sorgente stessa del dinamismo,
della forza di questo pensiero.
Questo nuovo metodo d’indagine avvicina la scienza greca alla nostra. I Greci,
staccandosi decisamente dalle pratiche magiche e sottoponendo a severa critica ogni
ricorso alle spiegazioni mitiche dei fenomeni naturali, tracciarono per primi la via (il
metodo) della ricerca scientifica, consistente soprattutto nel congiungere l'esperienza e il
ragionamento, i dati sensibili ottenuti tramite l'attenta osservazione dei fenomeni e la
sistemazione teorica.

2.2 La physis

Aristotele chiama "fisici" e "fisiologi" i primi pensatori greci. Nel suo linguaggio,
la "fisica" (cioè la scienza studiata dai "fisici” ) ha come oggetto quella parte del Tutto
che è la realtà diveniente (sia essa realtà corporea, o biologica, o psichica), oltre la quale
esiste la realtà immutabile di Dio. La "fisica" aristotelica (e, a maggior ragione, la fisica
moderna) non è scienza del Tutto. Anche se questa interpretazione di Aristotele della
nascita della filosofia è spiegabile in relazione al modo in cui si configura la filosofia
aristotelica, tuttavia il rendersi conto che nei primi pensatori greci la cura della verità è
insieme un rivolgersi al Tutto, richiede che non si possa accettare la tesi aristotelica
secondo la quale la filosofia al suo inizio è semplicemente una "fisica". Poiché la parola
"metafisica" sarà usata, nel linguaggio filosofico successivo, per indicare il rivolgersi
della filosofia al Tutto, oltrepassando il sapere limitato al mondo fisico, è più aderente
alla situazione reale dire che i primi pensatori greci sono dei “metafisici” e anzi i primi
metafisici. Questo, qualora la parola "metafisica” (usata inizialmente da Andronico,
editore delle opere di Aristotele, nel I secolo a.C., per indicare gli scritti che,
nell'edizione, venivano "dopo" quelli destinati alla fisica) sia appunto intesa come il
rivolgersi al Tutto, andando oltre quella dimensione particolare del Tutto che è
costituita dalla realtà diveniente.
Il termine "fisica" è costruito sulla parola physis, che i latini hanno tradotto con
"natura". Se si sta alla definizione aristotelica di "fisica"—dove physis appunto è la realtà
diveniente—allora tradurre physis con “natura” è del tutto legittimo, perché nel termine
latino natura risuona innanzitutto il verbo nascor ("nasco", "sono generato"), si che la
"natura" è appunto il regno degli esseri che nascono (e quindi muoiono), ossia di ciò
che, appunto, diviene. Ma quando i primi filosofi pronunciano la parola physis, essi non
la sentono come indicante semplicemente quella parte del Tutto che è il mondo
diveniente. Anche perché è la parola stessa a mostrare un senso più originario, che sta al
fondamento di quello presente ad Aristotele. Physis è costruita sulla radice indoeuropea
bhu, che significa “essere”, e la radice bhu è strettamente legata (anche se non
esclusivamente, ma innanzitutto) alla radice bha, che significa "luce" (la parola saphes).
Nascendo, la filosofia è insieme il comparire di un nuovo linguaggio, ma questo
linguaggio nuovo parla con le parole vecchie della lingua greca e soprattutto con quelle
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =;!

che sembrano più disponibili ad essere dette in modo nuovo. Già da sola, la vecchia
parola physis significa “essere” e “luce” e cioè l’essere, nel suo illuminarsi. Quando i
primi filosofi chiamano physis ciò che essi pensano, non si rivolgono a una parte o a un
aspetto dell'essere, ma all'essere stesso, in quanto esso è il Tutto che avvolge ogni parte
e ogni aspetto; e non si rivolgono all'essere, in quanto esso si nasconde e si sottrae alla
conoscenza, ma all'essere che si illumina, che appare, si mostra e che in questa sua
luminosità è assolutamente innegabile. In questo rivolgersi alla physis, cioè al Tutto che
si mostra, la filosofia riesce a vedere il Tutto nel suo esser libero dai veli del mito, ossia
dai tratti alteranti che questo velamento conferisce al volto del Tutto. Per la filosofia,
liberare il Tutto dal mito significa che il Tutto non è ciò che resta suscitato dalla forza
inventiva del mito, bensì è ciò che da sé è capace di mostrarsi e di imporsi, proprio
perché riesce a mantenersi manifesto e presente. E il Tutto non mostra di contenere ciò
che il mito racconta (le teogonie e le vicende degli dèi e del loro rapporto con gli
uomini), bensì mostra il cielo stellato e il sole e la terra e l'aria, e l'acqua, e tante altre
cose ancora, che il filosofo si trova davanti e si propone di penetrare e comprendere. La
filosofia (la "cura per il luminoso") si presenta sin dall'inizio come il lasciar apparire
tutto ciò che è capace di rendersi manifesto e che pertanto si impone (e non è imposto
dalla fantasia mitica), ossia è verità incontrovertibile: physis.
L’affermazione di Aristotele che la scienza dei primi pensatori è una "fisica" può
essere espressa anche dicendo che tale scienza è una "cosmologia", cioè una scienza del
"cosmo". Si è già accennato che, come la parola chàos, anche la parola kòsmos ha un
significato originario che illumina il senso della presenza di tale parola nel più antico
linguaggio filosofico. Quando si intende kòsmos come "ordine" e "cosmo" (cioè mondo
ordinato, in contrapposizione al disordine del chàos), ci si trova già oltre quel significato
originario. Anche qui è la radice indoeuropea di kòsmos a dare l'indicazione più
importante. Tale radice e kens. Essa si ritrova anche nel latino censeo, che, nel suo
significato pregnante, significa "annunzio con autorità": l'annunziare qualcosa che non
può essere smentito, il dire qualcosa che si impone. Ci si avvicina al significato
originario di kòsmos, se si traduce questa parola con "ciò che annunziandosi si impone
con autorità". Anche l'annunziarsi è un modo di rendersi luminoso. Nel suo linguaggio
più antico, la filosofia indica con la parola kòsmos quello stesso che essa indica con la
parola physis: il Tutto, che nel suo apparire è la verità innegabile e indubitabile.
Si può così comprendere perché la filosofia non abbia tardato a chiamare se
stessa epistéme. Se noi traduciamo questa parola con "scienza", trascuriamo che essa
significa, alla lettera, lo "stare" (stéme) che si impone "su" (epì) tutto ciò che pretende
negare ciò che "sta": lo "stare" che è proprio del sapere innegabile e indubitabile è che
per questa sua innegabilità e indubitabilità si impone "su" ogni avversario che pretenda
negarlo o metterlo in dubbio. Il contenuto di ciò che la filosofia non tarda a chiamare
epistéme è appunto ciò che i primi pensatori (ad esempio Pitagora ed Eraclito) chiamano
kòsmos e physis.
Come la fisica moderna (ma già la "fisica" aristotelica) non ha più a che fare col
senso della physis alla quale pensano i primi filosofi—appunto perché la scienza
moderna procede dall'assunto metodico di isolare dal suo contesto quella parte della
realtà che essa intende studiare e controllare—così l'epistéme alla quale si riferisce la
moderna epistemologia non ha a che fare col senso filosofico dell'epistéme.
L’epistemologia è la riflessione critica sulla scienza moderna, ossia su quel tipo di
conoscenza che ha progressivamente rinunciato a porsi come verità incontrovertibile e
==! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

si propone come conoscenza ipotetica provvisoriamente confermata dall'esperienza e in


grado di operare la trasformazione del mondo più radicale che l'uomo sia mai riuscito a
realizzare. E questi sono indubbiamente elementi dell'aspetto per il quale, nella
derivazione della scienza dalla filosofia, il parto è un distacco traumatico e doloroso.
Questo distacco della scienza dalla filosofia è già in qualche modo preannunciato dal
significato complesso di physis, che se nei sui strati più profondi significa l'illuminarsi,
l'apparire dell’essere, esso include però anche il senso del nascere e del crescere. Si può
supporre che al significato originario di physis tenga dietro quello derivato, perché vi
sono dei modi specifici secondo cui le cose giungono a rendersi manifeste: il nascere
ricorrente del sole e della luna, il nascere degli uomini e degli animali, lo spuntare,
crescere, sbocciare, fiorire delle piante. Quando non si presta più attenzione al fatto che,
attraverso questi modi, le cose giungono a rendersi manifeste e ad imporsi, e si presta
invece attenzione ai modi specifici che preparano il loro ingresso nell'apparire, allora la
parola physis viene usata—come appunto accade in Aristotele—per indicare soltanto
l'insieme degli enti costituiti da questi modi, e cioè l'insieme dei vari tipi di sviluppo,
ossia quella regione particolare dell'essere che è la realtà diveniente.

2.3 La concezione classica della scienza

Non è difficile riconoscere che i Babilonesi possedevano un numero rispettabile


di conoscenze astronomiche e matematiche, che avevano permesso loro di costruire
calendari molto precisi e di apprestare regole di computo corrette per numerosi
problemi concreti, e lo stesso si deve ripetere per gli antichi Egizi, per i Maya, Aztechi o
i Cinesi. Le straordinarie realizzazioni architettoniche di tali civiltà del passato, ottenute
con mezzi materiali assai rudimentali, presuppongono una genialità ingegneristica e la
capacità di dominare e combinare tante conoscenze anche astratte. Queste
considerazioni, seppur corrette, non tengono conto di un aspetto fondamentale della
scienza quale noi la intendiamo e conosciamo, quello della sua costruzione teorica, che
si aggiunge alla componente della constatazione di fatto e permette poi di spingere la
conoscenza molto al di là di quanto è semplicemente constatabile. E proprio su questo
punto che la civiltà greca ha introdotto quella rivoluzione nel modo di intendere e fare
scienza, ossia nell’aver elaborato un nuovo e originale modello del sapere. Tale modello
può essere brevemente schematizzato così: quando aspiriamo a conoscere nel modo più
pieno e adeguato una certa realtà, non possiamo limitarci ad appurare che essa esiste e a
descrivere accuratamente come è fatta, ma dobbiamo anche cercare di comprendere
perché esiste ed è fatta così come ci appare. Per raggiungere questo ulteriore obiettivo
non è più sufficiente attenerci a quanto ci fornisce l'esperienza immediata delle cose, ma
dobbiamo far intervenire la ragione, la quale in qualche modo chiarisce che quanto
constatiamo non è casuale, bensì rientra in un quadro generale entro cui risulta
spiegabile. L'esigenza di comprendere e spiegare è connaturata all'uomo ed è
conseguenza del suo essere un "animale ragionevole"; pertanto tutte le civiltà hanno
cercato di soddisfarla, di solito producendo, come abbiamo visto per le antiche civiltà,
miti cosmogonici o proponendo concezioni animistiche di singole realtà o eventi. Ciò
che, invece, incomincia a manifestarsi nel mondo greco a partire dal VI secolo a.C. è
l'esigenza di rendere esplicite le ragioni attraverso una dimostrazione, la quale sia
capace di rifarsi a principi universali e non più a raffigurazioni o storie singole, per lo
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =4!

più soltanto immaginate. In tal modo la spiegazione dei modi di apparire delle cose fu
ricercata nel che cosa esse sono, cioè nella loro natura o essenza, e nelle cause che le
pongono in essere. Venivano così poste esplicitamente a tema, accanto alle esigenze
dell'empiria, anche quelle del logos.
In questa ricerca di ragioni generali al posto di spiegazioni ad hoc escogitate caso
per caso, e di un metodo dimostrativo per stabilirle, possiamo riconoscere i tratti
distintivi che separano il sapere prescientifico da quello scientifico. Pertanto possiamo
osservare che (come già si è detto) Babilonesi ed Egizi conoscevano parecchi esempi
pratici di soluzione corretta per problemi aritmetici e geometrici, ma soltanto i Greci
hanno fornito la dimostrazione delle proprietà generali dei numeri e delle figure di cui
quegli esempi non erano che casi particolari, e con ciò fornirono anche la ragione della
loro correttezza. Dovrebbe pertanto esser chiaro in quale senso, pur riconoscendo senza
esitazione che parecchie conoscenze che oggi chiamiamo scientifiche erano state
acquisite da varie civiltà, nessuna di queste era pervenuta alla creazione della scienza in
senso vero e proprio. Questa creazione è un evento storico rivoluzionario di enorme
portata che incomincia a prodursi agli inizi della civiltà greca ma che, proprio per il
fatto di aver inaugurato una nuova forma di sapere e di pensare, è rimasto come
caratteristica costante di tutta la civiltà occidentale che a partire da essa si è sviluppata.
Un fatto di capitale importanza è che le caratteristiche indicate in precedenza
come requisiti specifici della scienza greca non emergono come risultato di un'analisi
compiuta dai posteri, e in particolare dai filosofi della scienza, bensì furono pienamente
enunciate e riconosciute proprio dai filosofi greci dell'epoca, i quali misero in risalto la
differenza che sussiste fra il semplice possesso della verità e l'autentico sapere. Non si
tratta di un'analisi di poco conto. Infatti è del tutto spontaneo identificare il sapere con il
possesso della verità, e in particolare far consistere il sapere in una collezione di
conoscenze, ossia di proposizioni vere. In sostanza la scienza è sapere pieno, in cui la
verità è affermata con l’ostensione delle sue ragioni. Tutto questo chiarisce pertanto che,
secondo il modello di conoscenza esplicitamente teorizzato dalla filosofia greca, il
sapere autentico si raggiunge solo quando, dopo aver appurato una verità, si è anche in
grado di darne la ragione, ossia di darne il perchè.
In che consiste il “dare le ragioni", il "mostrare perché"? I Greci diedero a queste
domande una risposta precisa: significa offrire una dimostrazione. Il sapere autentico è
un sapere dimostrativo, ossia argomentato e fondato in base a ragionamenti corretti. In
questa scelta si radica quel razionalismo greco che è poi rimasto il carattere distintivo,
anche se non esclusivo, dello stile intellettuale dell’Occidente. Tuttavia questa
impostazione lascia aperte, o addirittura pone, alcune domande: in che consiste una
dimostrazione? Ossia una concatenazione logica (cioè conforme alle esigenze del logos)
di ragionamenti? E in che modo può una dimostrazione garantire la verità della
conclusione di tale catena? Una dimostrazione o ragionamento corretto, consiste in una
concatenazione di proposizioni nella quale la verità delle premesse si trasmette
necessariamente anche alle conclusioni. Utilizzare lo strumento dimostrativo per "dare
la ragione" di una proposizione vera, pertanto, significava trovare alcune premesse vere
da cui questa potesse esser dedotta come conseguenza logica necessaria, ma è chiaro
che in tal modo si ripresenta il problema di come garantire la verità di tali premesse,
problema che non si risolve né regredendo all'infinito, né muovendosi in circolo, poiché
allora non si potrebbe garantire la verità di nessuna proposizione. Pertanto ogni
dimostrazione deve partire da premesse indimostrate e indimostrabili e, se a questa
=5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

condizione formale aggiungiamo l’ulteriore requisito che una dimostrazione non vuole
essere soltanto una deduzione formale, bensì il modo per fondare un sapere e garantire
la verità dei suoi contenuti, si dovrà anche dire che le premesse primitive e
indimostrabili debbono essere vere di per sé, ossia, come pure si dice, evidenti. Esse
devono apparire tali alla nostra intuizione intellettuale e, per distinguerle dalle
premesse assunte in modo soltanto ipotetico, sono spesso chiamate principi. In
conclusione: per i Greci un sapere autentico è quello che si fonda su principi evidenti,
universali e necessari, dai quali sono dedotte con ragionamenti corretti conclusioni vere,
e se capita che le conclusioni dedotte rigorosamente dai principi entrino in collisione
con quanto attestato dall'esperienza, non saranno mai i principi a essere smentiti, ma
semmai il valore di verità delle risultanze di osservazione. Tuttavia la strada feconda,
come vedremo in particolare per Aristotele, sarà quella di trovare interpretazioni dei
dati di esperienza che si accordino con i principi.
Quello qui abbozzato in modo intuitivo è il metodo assiomatico-deduttivo,
presentato come struttura canonica del sapere. In un dato ambito di ricerca si tratta di
organizzare le conoscenze in modo che, individuati alcuni enunciati primitivi (chiamati
assiomi o postulati), le rimanenti proposizioni risultino rigorosamente dimostrabili a
partire da essi. La scelta di tali enunciati primitivi si basa sulla loro evidenza. In forza di
questa struttura, un'autentica scienza (ossia un autentico sapere) risulta dotata di
universalità, necessità e certezza. L'applicazione più celebre di questo modello del
sapere è costituita dagli Elementi di Euclide, ed ha costituito la spina dorsale della
costruzione della matematica occidentale fino ai nostri giorni, ma ha trovato ampia
applicazione anche nelle scienze fisiche. Per esempio, è stato adottato nei Principia di
Newton ed è usato in diverse presentazioni di altre teorie fisiche attuali, quali la teoria
della relatività e la meccanica quantistica. Ma forse ancor più essenziale è il fatto che,
anche quando si lasciano cadere i requisiti dell'evidenza e persino della verità (come
accade nelle epistemologie contemporanee), le teorie scientifiche continuano a esser
concepite come costrutti ipotetico-deduttivi aventi il fine di spiegare, ossia di "dar
ragione" dei fenomeni che esse studiano.
Analizziamo a questo punto grandezza e limiti della scienza greca. Le scienze nel
mondo greco raggiunsero altezze sbalorditive in certi campi e conseguirono progressi
piuttosto modesti in altri. Paradossalmente, la ragione di questo fatto risiede
nell’eccesso di perfezione cui si ispirava il modello della ricerca di un sapere
assolutamente certo, universale e necessario, sicuro nei suoi fondamenti grazie a un
impianto rigorosamente deduttivo. Un ideale del genere finiva col precludere la strada
a quelle che noi oggi chiamiamo scienze sperimentali. Ciò accadeva perché, come si è
visto, tra l'empiria e il logos esso finiva col privilegiare in misura troppo cospicua il
secondo, anche a discapito della prima. La cosa si può cogliere facilmente analizzando il
ruolo svolto dalla deduzione logica nello schema classico del sapere e in quello delle
scienze empiriche moderne. Nel primo, il compito della deduzione era quello di partire
dalle proposizioni più evidentemente vere, per farne poi discendere la verità alle
proposizioni dedotte, che trovavano nelle prime il loro fondamento e avevano, in
genere, un carattere subordinato. Nel caso delle scienze empiriche quali oggi le
riconosciamo, invece, il cammino è inverso: in esse le proposizioni che si possono
ritenere immediatamente vere e meglio garantite sono quelle che descrivono singoli
fatti d'esperienza. Quando poi vogliamo spiegarle, è ben vero che escogitiamo ipotesi e
cerchiamo di mostrare deduttivamente che da esse discendono come conseguenze
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =6!

logiche le proposizioni empiriche note, ma non deve sfuggirci che le proposizioni


immediatamente vere si trovano alla fine della deduzione e, ben lungi dal ricevere dalle
ipotesi la garanzia della loro verità, sono esse che danno alle ipotesi un certo grado, per
altro sempre rivedibile, di plausibilità.
Tenendo conto di questo fatto si può comprendere perché la civiltà greca abbia
prodotto una splendida e ricca matematica, ma una fisica quasi trascurabile. Per le
matematiche, infatti, lo schema classico era perfettamente applicabile, mentre, per le
ragioni anzi dette, esso appare una camicia di forza poco adatta alle scienze empiriche.
Di fatto, tentando di applicare tale modello anche alla scienza della natura, sia gli
antichi sia i medioevali cercarono di fondarla sulla determinazione di essenze, di
principi e di cause universali, le cui verità e certezza fossero più forti e più garantite che
non quelle delle singole conoscenze empiriche, che avrebbero dovuto risultare come
loro corollari. Ne è venuta una scienza naturale aprioristica, metafisicizzata, largamente
arbitraria e dogmatica, rispetto alla quale doveva prodursi soltanto nel Rinascimento la
Rivoluzione Scientifica. L'unica eccezione in questo campo era costituita
dall'astronomia, il cui vantaggio consisteva nel prestarsi a essere una sorta di grande
applicazione della geometria e del calcolo matematico.

2.4 I primi fisici. Anassimandro e la prima rivoluzione scientifica

La prima intuizione di una nuova via da seguire nella comprensione dei


fenomeni naturali si ebbe, dunque, non nella Grecia vera e propria, ma nelle colonie
della Ionia, in particolare a Mileto, attiva città posta sulle coste dell'Asia minore, in cui,
per effetto degli intensi scambi commerciali e per la vivacità della vita civile e politica,
fiorì un gruppo di intellettuali: Talete, Anassimandro, Anassimene, accomunati dalla
passione per la ricerca fisica e da un nuovo modo di impostare i problemi. Pur
operando ancora sulla base di vecchie tradizioni greche e orientali, essi vi introducono
due nuovi elementi: in primo luogo una sconsacrazione dei miti intorno all’origine e
all’unità del mondo, a cui si sostituisce un’intuizione fisica di tale origine e unità
attraverso una sistematica raccolta di informazioni mediante l'esperienza; e, in
conseguenza di ciò, la profonda visione metodica dell’omogeneità della natura. In
particolare Anassimandro compie la prima grande rivoluzione concettuale della storia
della scienza, ridisegnando profondamente la mappa del cosmo, in cui lo spazio non è
strutturato in alto e basso assoluti e in cui la Terra “galleggia” nello spazio. E’ la
scoperta dell’immagine del mondo che caratterizzerà l’Occidente per secoli, è la nascita
della cosmologia e la prima grande rivoluzione scientifica.
Il pensiero dei filosofi milesi si incentrava soprattutto sul problema della realtà
primaria e di fronte allo spettacolo multiforme e cangiante del mondo, costituito da una
molteplicità di cose in continuo mutamento, si convinsero che, alla base di tutto,
esisteva una realtà unica ed eterna, di cui ciò che esisteva era passeggera
manifestazione. La loro aspirazione era scoprire la natura essenziale, ovvero la
costituzione reale delle cose che essi chiamavano physis (fisica). Pertanto, il termine
fisica originariamente significava lo sforzo di scoprire la natura essenziale di tutte le
cose. Essi denominano tale sostanza archè (dal greco principio), da cui tutte le cose
derivano come la forza o legge che tutte le domina e tutte le governa. E’ dunque una
ripresa del problema che in precedenza si celava sotto i miti teogonici, solo che ora il
=7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

principio è materiale, come per Talete o Anassimene, o immateriale (indefinita) come


per Anassimandro. Questa ricerca dell’origine di tutte le cose, questa ricerca dell’archè è
propria di tutta la scuola ionica, ed esprime una esigenza rimasta sempre alla base del
pensiero scientifico, ad esempio in una trasformazione fisica cerchiamo ciò che resta
invariato (l’energia, il momento angolare, ecc.), o ciò che vi è di comune, al di là di ogni
apparenza come per le radiazioni luminose, elettromagnetiche, termiche, ecc. Oppure,
cerchiamo, nella fisica post-einsteniana, attraverso il superamento della geometria
euclidea, nuovi strumenti matematici che ci diano la possibilità di trovare un
fondamento comune di cui il campo gravitazionale e quello elettromagnetico siano
espressioni particolari, in modo da ottenere l’unità del tutto. Il divenire del mondo,
ossia i mutamenti che avvengono nelle cose della natura, obbedisce dunque alle stesse
leggi ed è ciclico: tutto nasce dal principio e tutto vi ritorna.
La scuola di Mileto era fortemente permeata di misticismo e la cultura greca
successiva definì i suoi filosofi ilozoisti, cioè coloro che pensano che la materia sia
animata, poiché non facevano alcuna distinzione tra animato e inanimato, tra spirito e
materia. In effetti, essi non avevano neppure un termine per indicare la materia, in
quanto consideravano tutte le forme di esistenza come manifestazioni della physis,
dotata di vita e di spiritualità.

In questo clima culturale effervescente, all’inizio del VI secolo a. C., Talete (c.
640/624 a.C; 547 a.C.), il fondatore della scuola ionica e rappresentante del primo punto
di passaggio fra la scienza dell’antico Oriente e la nuova sapienza greca, cominciò una
tradizione filosofica e scientifica. Aristotele attribuisce a Talete l’affermazione: “L’acqua
è la causa materiale di tutte le cose”. L’affermazione che il mondo sia fatto di acqua (o a
partire dall’acqua), non va inteso nel senso puramente materiale, ma che l’acqua
rappresenta l’elemento primordiale o principio costitutivo di tutte le cose, e questo
implicò un nuovo e rivoluzionario rivolgimento concettuale. Primo, l’esistenza di un
problema circa la causa materiale di tutte le cose; secondo, l’esigenza che a questa
domanda si debba rispondere in conformità alla ragione, senza ricorso ai miti, o al
misticismo; terzo, il postulato che in definitiva sia possibile ridurre ogni cosa ad un
principio unico.
L’affermazione di Talete era la prima formulazione dell’idea d’una sostanza
fondamentale, di cui tutte le altre cose fossero forme transitorie. Pur facendo diversa
scelta del principio unico, tale principio costituisce il tratto caratteristico e l’elemento
comune al pensiero dei più antichi filosofi ionici (l’apeiron per Anassimandro, l’aria per
Anassimene o il fuoco per il pitagorico Ippaso). Per tutti questi pensatori, non è dubbio
che la materia sia qualitativamente unica, perché tutte le specie diverse si vedono
trasformarsi l’una nell’altra. L’unità risulta per loro da un principio razionale di
permanenza implicitamente accettato, per cui l’intima natura delle cose persiste
invariata attraverso l’apparenza dei cambiamenti. Ed il presupposto fa parte ancora
della nostra logica scientifica: in tutte le trasformazioni chimico-fisiche, noi cerchiamo
ciò che rimane invariato (per esempio la massa) e che riteniamo attinente alla sostanza
delle cose, persuasi che attraverso il cambiamento nulla si crei o si distrugga. Motivo
per cui attraverso un ciclo conveniente di trasformazioni, ogni materia possa essere
ricostruita (per esempio l’acqua, se vengono prima separati e poi ricongiunti i suoi
costituenti, l’idrogeno e l’ossigeno).
Talete fu, dunque, il primo a propugnare l’idea che per comprendere il cosmo
fosse necessario conoscere la sua natura (physis donde fisica) e che questa natura
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =8!

dovesse essere concepita in termini materiali. Egli fu perciò il fondatore della tradizione
filosofica materialista, che cercava di trovare la costituzione definitiva del mondo
attraverso la determinazione della materia di cui era costituito. E, nella ricerca della
costruzione basilare dell’universo, Talete, e quindi i suoi discepoli, accettarono non solo
il fatto che l’universo fosse costituito da qualcosa di semplice, ma anche che la sua
complessità risultasse da mutamenti dai quali l’elemento materiale di base (acqua) era
diversificato per formare la materia che costituiva l’universo. Un'ipotetica ricostruzione
dell'origine dell'universo secondo Talete potrebbe essere la seguente: all'inizio esisteva
il grande oceano, poi si formarono la Terra e i corpi celesti. L’intero cosmo, secondo
questa teoria, è trasportato sul mare come una nave, mossa e guidata dall'acqua stessa,
che ha gli attributi della divinità. Per Talete, dunque, l'acqua è principio divino e ha al
suo interno la forza generatrice e regolatrice del cosmo, che probabilmente tornerà ad
essere acqua quando avrà finito i suoi giorni. La rassomiglianza con il mito babilonese è
evidente, ma è, altresì, significativa la differenza: Talete, eliminando la personificazione
dell'acqua in potenze mitiche, la rende un principio materiale e naturale, appartenente
cioè all'ordine delle cose fisiche. È il primo passo verso una considerazione scientifica
dell'universo. E’ vero che Talete pensava che la Terra fosse un disco galleggiante
sull’acqua, ma è di enorme rilievo che egli speculasse su tali argomenti, per cui
introdusse elementi astronomici nella cosmologia che in precedenza erano a carattere
magico e religioso.
Talete fu il primo ad occuparsi di elettricità e magnetismo, avendo notato che
l’ambra, una resina fossile, opportunamente strofinata, era in grado di attrarre oggetti
leggeri come piccoli semi o pezzetti di paglia, e affermando che il magnete fosse vivo
perchè in grado di far muovere le cose (infatti attrae il ferro) e che avesse un'anima.

Anassimandro (ca. 610 a.C.– ca. 546 a.C.) come il suo maestro Talete, è alla ricerca
di un principio di tutte le cose, ma la sua sostanza prima non è un elemento materiale,
come l’acqua per Talete, ma l’àpeiron (l’indeterminato o l’infinito, e letteralmente “senza
perimetro”). Simplicio (490 a.C.-560 a.C.), commentando il passo e rifacendosi alle, per
noi perdute, Opinioni dei fisici di Teofrasto (371 a.C. – 287 a.C.), scrive che per
Anassimandro “principio ed elemento degli esseri è l'infinito, avendo egli per primo
introdotto questo nome di principio (archè). E dice che il principio non è né l'acqua né
un altro dei cosiddetti elementi, ma un'altra natura infinita, dalla quale provengono
tutti i cieli e i mondi che in essi esistono [...] e l'ha espresso con parole alquanto poetiche.
È chiaro che avendo osservato il reciproco mutamento dei quattro elementi [acqua,
aria, terra, fuoco], ritenne giusto di non porne nessuno come principio, ma qualcosa
d'altro. Secondo lui la nascita delle cose non avviene per alterazione del principio
elementare, ma avviene per il distacco da quello dei contrari a causa dell'eterno
movimento”.
Nella designazione di Anassimandro, àpeiron è un aggettivo sostantivato che
designa una certa proprietà della sostanza primitiva, e che tale materia prima è ritenuta
infinita e infinitamente diffusibile, cioè suscettibile di espandersi dappertutto
identificandosi con lo spazio. Quindi, ápeiron inteso anche come "non definito",
"indeterminato". Essendo indeterminato, non identificandosi con nessun specifico
elemento (stoichéion) - acqua, aria, terra o fuoco – resta determinato dall'unica qualità
che gli appartiene derivante dalla sua stessa definizione, ossia una materia
indifferenziata, della quale nulla possa dirsi se non infinita e irriducibile a ogni
determinazione.
=9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

I filosofi naturalisti della Ionia, impressionati dal fenomeno del nascere, del
mutare e del morire di tutte le cose, ne ricercano la causa: l’acqua per Talete e l’aria per
Anassimene. Ma Anassimandro vede che i fenomeni si producono ovunque e l'ovunque è
per sua stessa natura indefinito proprio perché, essendo il Tutto, è privo di
individuazione al di fuori di sé stesso, non è spiegabile attraverso la determinazione di
qualcosa di altro, dal momento che questo qualcosa rientrerebbe già nel Tutto. Allo
stesso modo, se nell'ápeiron sembrerebbe che vi debba essere una forza – “l'eterno
movimento” di cui parla Simplicio – che faccia nascere, trasformare e morire le cose,
questa forza, proprio in virtù dell'indefinibilità del Tutto, è resa definibile solo come essa
stessa ápeiron, indissolubilmente legata, non scindibile e non distinguibile da esso,
altrimenti il Tutto, nuovamente, non sarebbe più tale, avendo altro da sé, e come le cose
nascono dall'ápeiron, così lì devono trasformarsi e morire, perché non c'è
un altrove dove trasformarsi e morire.
Anassimandro, che usò per primo il termine archè, infatti, introduce l’idea che ci
possa essere una base comune di tutte le cose e che è all’origine dell’universo, che
chiama appunto àpeiron, una sostanza universale, eterna, immutabile, illimitata,
impercettibile e non propriamente materiale, come l’acqua per Talete o l’aria per
Anassimene, dalla quale derivava ogni materia tramite una selezione di attributi o
proprietà. Egli intuisce che per arrivare a rendere conto della molteplicità delle cose e
dei fenomeni dobbiamo essere pronti ad introdurre oggetti nuovi, sostanze nuove, che
non vediamo direttamente, ma che ci aiutano ad organizzare e comprendere.
Anassimandro compie un passo decisivo verso una interpretazione globale della realtà,
abbandonando l'idea che a fondamento di essa possa esserci un elemento determinato e
rivelando una capacità di astrazione fino ad allora sconosciuta. Ma perché non accettare
un elemento materiale terrestre come principio di tutte le cose e scegliere come tale
l’infinito (o l’indeterminato)? Perché, interpreta Aristotele, tutte le cose hanno un
principio: “ma di questo (cioè dell’infinito) non c’è principio, ed esso sembra essere principio degli altri,
e tutti abbracciarli e governarli tutti… e questo è il divino immortale, infatti, e indistruttibile, come dice
Anassimandro”. Ragioni di questo genere, che rimandano alla divinità, origine di tutte le
cose, e perciò non spiegano nulla dal punto di vista fisico, sono per lo più confacenti ad
Aristotele che non al fisico Anassimandro. Pertanto, stando ai recenti studi ed alle
attuali interpretazioni, il filosofo ionico abbia voluto alludere ad una materia prima
infinita e infinitamente diffusa. L’intuizione geniale è che per spiegare la complessità
del mondo sia necessario postulare, immaginare, l’esistenza di qualcosa che non è
nessuna delle sostanze del mondo diretto della nostra esperienza, ma possa fungere da
elemento unificante di spiegazione per tutte queste.
Nel postulare l’apeiron, Anassimandro non fa altro che aprire la strada a quello
che la scienza continuerà poi a fare per secoli, con straordinario successo: immaginare
l’esistenza di “entità” che non sono direttamente visibili e percepibili, ma la cui
esistenza è postulata per organizzare e rendere conto in maniera unitaria, organica e
naturalistica, della complessità dei fenomeni osservabili. Con questa interpretazione
l’àpeiron diventa l’antenato di tutti gli oggetti introdotti dalla fisica: l’atomo, il campo
elettromagnetico, il campo gravitazionale, lo spaziotempo, la funzione d’onda, i campi
quantistici, le particelle elementari.
Un’interpretazione diversa, isolata, ma consistente con la precedente lettura
naturalistica dell’apeiron del fisico Carlo Rovelli, è quella del filologo Giovanni
Semeraro, secondo il quale ápeiron, che deriverebbe dal semitico apar, («polvere»,
«terra»), accadico eperu equivalente del biblico 'afar, sarebbe stato utilizzato da
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =:!

Anassimandro nel significato di terra e non di infinito. Questa interpretazione


ricondurrebbe la filosofia presocratica a una fisica corpuscolare, che accomunerebbe
Anassimandro, Talete e Democrito. La relazione fra l'ápeiron di Anassimandro e gli
atomi di Leucippo e Democrito è corroborata dall'attributo che comunemente
accompagna gli atomi nei frammenti degli atomisti: "ápeira", plurale di ápeiron,
usualmente tradotto con "innumerevoli".

Anassimandro si pone anche il problema del processo attraverso il quale le cose


derivano dalla sostanza primordiale: tale processo è la separazione. La spiegazione del
processo di separazione è ancora una volta di carattere non mitico, ma razionale ed em-
pirico. Non è un dio all'origine della derivazione delle cose dall'àpeiron, ma per l’azione
di un moto rotatorio. Per primi si formarono il freddo ed il caldo che si ruppero
formando un anello: all’esterno caldo (cioè fuoco) e all’interno freddo (aria); e dentro
ancora la terra. La terra sarebbe sorta come umidità; seccata sotto l’azione del caldo,
essa lascia quattro anelli: caldo (fuoco), freddo (aria), umidità (acqua), secco (terra), le
qualità e le sostanze accettate per i successivi duemila anni come essenziali in natura.
Per mezzo di questa separazione si generano i mondi infiniti, che si succedono secondo
un ciclo eterno. Ma i mondi sono infiniti anche contemporaneamente nello spazio o
soltanto successivamente nel tempo? Sicuramente è difficile negare che Anassimandro
abbia ammesso un’infinità spaziale dei mondi, giacché, se l’infinito abbraccia tutti i
mondi, esso deve essere pensato al di là non di un solo mondo, ma di altri e altri ancora.
La legge della separazione presiede anche alla generazione dei primi uomini che, dopo
una prima fase vissuta nell'acqua, all'interno dei pesci, uscirono sul terreno asciutto e
impararono a vivere in società. Pertanto, la legge suprema che regola la vita è unica e
vale sia per gli uomini che per gli animali e per il mondo fisico. Tradotto in termini
moderni, si potrebbe dire che la “natura infinita” è concepita come un assoluto esistente
di per sé, mentre le cose o qualità che se ne separano hanno una esistenza relativa.
L’impulso a cercare ovunque ciò che vi è di relativo diventa un tratto caratteristico della
speculazione greca verso il 500 a. C.
Di Anassimandro ci resta solo un piccolo frammento: “Le cose nascono l’una
dall’altra e periscono l’una nell’altra, secondo necessità. Esse si rendono giustizia fra
loro e riparano le loro ingiustizie secondo l’ordine del tempo”. E’ un pensiero che,
probabilmente, esprime un’altra grandissima idea: gli eventi non avvengono per caso
ma guidati da una necessità, secondo leggi che governano il loro svolgersi nel tempo.
Nel quadro concettuale di un nuovo spazio e di un nuovo tempo, visto come il principio
rispetto al quale i fenomeni sono ordinati, il genio di Anassimandro apre la strada alla
nuova comprensione razionale del mondo.
Ma la grande rivoluzione concettuale di
Anassimandro è quella di aver compreso che la
Terra è un oggetto sospeso nel nulla, in sostanza
galleggia nello spazio. Quindi, rifiutando l’acqua di
Talete come archè, la elimina anche dalla sua
macchina dell’universo come sostegno della Terra,
e adopera invece, e ciò è molto moderno, un
principio logico e geometrico. Ricorda Aristotele:
“Vi sono alcuni che denominano indifferenza la
causa che fa rimanere immobile la Terra, come ad
esempio Anassimandro fra gli antichi filosofi. Essi affermano che ciò che è posto al
4<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

centro, in egual posizione rispetto agli estremi, non ha da muoversi né in su, né in giù,
né dalle parti. Non essendo possibile che compia movimenti in versi opposti,
necessariamente sta ferma”. Anassimandro, in questo modo, ridisegna completamente
il quadro concettuale della comprensione umana dello spazio, della Terra, della gravità.
Non più lo spazio diviso in due, un sopra (cielo) e un sotto (terra) e gli oggetti che
cadono dal sopra al sotto, bensì uno spazio fatto di cielo, all’interno del quale sta
sospesa la Terra.
Senza esagerare, tale rivoluzione concettuale è più profonda di quella di
Copernico. Infatti, mentre Copernico si avvale di un immenso lavoro concettuale e
osservativo svolto dagli astronomi alessandrini e arabi, Anassimandro si appoggia solo
sulle prime razionali domande sul funzionamento del cosmo e sulle prime imprecise
speculazioni del suo maestro Talete. Su questa base così esigua di elementi scientifici
compie quella che Popper ha definito “una delle più audaci, una delle più
rivoluzionarie e delle più portentose scoperte dell’intera storia del pensiero umano”.
Ma come ha fatto Anassimandro a capire
che sotto la Terra c’è ancora cielo? Partiamo dal
presupposto che con Anassimandro nasce l’idea
che è possibile comprendere i fenomeni, le loro
relazioni, le loro cause, il loro concatenarsi, senza
fare ricorso agli dei. In sostanza spiegare il mondo
in termini delle cose del mondo. Quindi, gli indizi
non mancavano per giungere a questa
straordinaria idea, come osservare il movimento
delle stelle circumpolari. Appare chiaro ad
Anassimandro che sotto l’orizzonte ci deve essere dello spazio vuoto affinchè le stelle
possano completare i loro cerchi. Alla domanda: se la Terra è sospesa nel nulla, perché
la Terra non cade? La risposta di Anassimandro è perentoria e sconvolgente, ed è
contenuta nel De Caelo di Aristotele: “Alcuni, per esempio Anassimandro fra gli antichi,
dicono che la Terra mantiene la sua posizione per indifferenza. Perché una cosa che si
trovi nel centro, per la quale tutte le direzioni siano equivalenti, non ha ragione per
muoversi verso l’alto o il basso o lateralmente; e siccome non può muoversi in tutte le
direzioni insieme, deve necessariamente restare ferma. Questa idea è ingegnosa …”. La
Terra non cade perché non ha nessuna direzione particolare verso cui cadere se non
verso se stessa. Alla luce della nostra comprensione della natura, la risposta di
Anassimandro è esatta; anzi, rappresenta uno dei momenti più importanti del pensiero
scientifico di tutti i tempi.
Nella nuova immagine del
mondo proposta da Anassimandro, i
concetti fondamentali di “alto” e
“basso” vengono profondamente
modificati, e non sono più quelli
della nostra esperienza quotidiana.
Le nozioni di alto e basso non
costituiscono una struttura assoluta e
universale del reale. Non sono un’organizzazione a priori dello spazio, ma sono relativi
alla presenza della Terra. “Verso il basso” non indica più una direzione assoluta del
cosmo, ma una direzione particolare verso la quale cadono i corpi: verso la Terra.
Dunque è la Terra che determina cosa sia l’alto e il basso. E’ la Terra stessa che
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4;!

determina la direzione verso cui cadere. In sintesi, alto e basso non sono assoluti ma
relativi alla Terra. In questo modo Anassimandro cambia il modo di comprendere non
solo l’immagine del mondo, ma la struttura stessa dello spazio, che per secoli era stato
inteso come la direzione privilegiata (assoluta) verso la quale le cose cadono. La
rivoluzione di Anassimandro ha molto in comune con le altre grandi rivoluzioni del
pensiero scientifico: come fa a muoversi la Terra se all’evidenza la Terra è ferma?
Completando la rivoluzione copernicana, Galileo comprende che non esistono stati o
moti assoluti. E Einstein, con la relatività ristretta, scopre che la “simultaneità”, cioè la
nozione di “adesso” non è assoluta, ma relativa allo stato di moto dell’osservatore.
Un’altra radicale novità della cosmologia di Anassimandro è quella di
considerare il mondo immerso in uno spazio esterno aperto. Infatti, la volta del cielo era
sempre stata vista come la chiusura superiore del mondo. I vari corpi celesti (Sole,
Luna, stelle, pianeti) come entità che si muovevano su una stessa volta celeste, tutti alla
stessa distanza da noi. Con Anassimandro, per la prima volta, si introduce la possibilitò
che i corpi celesti siano a distanze diverse da noi.
Qualunque fosse il motivo che animava le ricerche di Anassimandro, non si può
certo dire che l’insieme delle idee e dei risultati raggiunti dal filosofo milese,
costituiscano un corpus scientifico nel senso della scienza moderna. Infatti mancano
diversi aspetti essenziali di quanto oggi chiamiamo scienza. In particolare è del tutto
assente l’idea di cercare leggi matematiche che possano soggiacere ai fenomeni naturali.
Questa idea comparirà, ad opera della scuola pitagorica, nella generazione successiva
ad Anassimandro. E manca completamente l’idea di esperimento, nel senso della
riproduzione artificiale di situazioni fisiche per comprendere le leggi che governano la
natura. Questa idea, almeno nella sua forma più matura e consapevole, comparirà
duemila anni più tardi con Galileo.

Con l'approfondirsi della ricerca da parte dei filosofi successivi, quello che era
stato prima l'ambito della speculazione mitologica nella spiegazione dei fenomeni
naturali cedette sempre più il posto all'analisi razionale, che cercherà di trarre le sue
conclusioni sulla base dell'osservazione empirica dei fatti. Si costruirà, allora,
gradatamente un'immagine razionale dell'universo, che sarà il frutto dello sviluppo
della scienza.

Nel solco di questa visione del mondo si inserisce Anassimene (ca. 586 a.C.– 528
a.C.), il quale sostituisce l’acqua di Talete e l’apeiron di Anassimandro con l’aria. La
scelta dell’aria come principio unico delle cose è il tentativo, riuscito, di affrontare una
difficoltà evidente nelle dottrine di Talete e Anassimandro. Se il tutto è fatto di acqua o
di apeiron, come è possibile che possano assumere forme e consistenze così diverse,
come quelle che appaiono nella varietà delle sostanze della natura? Come può una
sostanza primitiva assumere caratteristiche diverse? Anassimene cerca invece un
meccanismo più ragionevole che permetta a una singola sostanza di assumere
apparenze diverse. Con notevole sagacia, individua questo meccanismo nella
compressione e rarefazione. Egli ipotizza che l’acqua sia generata dalla compressione
dell’aria, che a sua volta si può riottenere per rarefazione dell’acqua; la Terra è generata
per ulteriore compressione dell’acqua e così via per le altre sostanze. Simplicio, nel suo
Commento alla Fisica di Aristotele testimonia: “Anassimene figlio di Euristrato di Mileto
diceva che la materia originaria è una e illimitata. Ma, diversamente da
Anassimandro, non pensava che non fosse specifica, ma che lo fosse, e che si trattasse
4=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

della aria. Ma essa appare diversa nei diversi oggetti, secondo la sua condensazione e
rarefazione. In forma rarefatta origina il fuoco, mentre nella forma più densa produce
il vento da cui provengono le nuvole e l’acqua, e da questa a sua volta si genera la
terra, e da questa le pietre, e da queste ultime tutte le altre cose”. Anassimene insomma
cerca di spiegare come, mediante condensazione e rarefazione, elementi di diversa
densità possano essere ricondotti ad uno solo, riducendo le differenze qualitative a
differenze quantitative, e poiché l’aria è sempre in movimento, il mutamento è una
possibilità sempre presente. E’ un passo avanti verso una descrizione più ragionevole
della struttura del mondo.
Anassimene definì chiaramente l’approccio materialistico, ossia che il cosmo
potesse essere spiegato nei termini della materia di cui era formato, in base ad un
processo localizzato nello spazio e nel tempo; infatti, il suo concetto più originale è
quello di una volta celeste cristallina su cui sono infissi “come chiodi” gli astri, visione
che qui appare per la prima volta e che avrà la consacrazione con Aristotele e che
durerà fino al termine del medioevo. Come già per Anassimandro il modello che
chiarisce la generazione del cosmo, e i suoi moti rotatori, è offerto dalla presenza di
opposte azioni: centrifughe per i corpi leggeri, centripete per quelli pesanti. In virtù di
questo modello cosmologico, il moto di un immenso vortice ha spinto la Terra verso il
centro del mondo. Dice Aristotele: “Tutti ammettono questa causa (l’immenso vortice)
desumendolo da ciò che accade nei liquidi e nell’atmosfera. In entrambi i casi i corpi
più pesanti vanno verso il centro del vortice”. Anassimene pensava che le parti ignee
(sfera del fuoco) fossero così state respinte nelle parti periferiche di questo vortice
universale. L’impulso del vortice spezzò poi la sfera del fuoco in tanti anelli avvolti di
aria e vapori, e le aperture rimaste in tali involucri sono i corpi celesti che vediamo
ruotare intorno alla Terra. “Dio separò la luce dalle tenebre”. “Dio separò le acque sotto
il firmamento, da quelle che erano sopra il firmamento”. La scienza dell’antico Oriente
non riusciva a dire di più quando tentava di affrontare aspetti del problema
cosmogonici. Gli ionici, invece, muovevano alla ricerca di cause fisiche, consistenti,
naturali.

Il modo di porsi di Talete, Anassimandro e Anassimene di fronte ai fenomeni e al


cosmo in generale, lascia intravedere un triplice aspetto nella scienza dei Milesi:
1. la sistematica osservazione dei fenomeni naturali e il ricorso all'esperienza;
2. l'impiego delle tecniche;
3. la spiegazione dei fenomeni all'interno di un quadro logico, rappresentato dalla
struttura geometrica dell'universo.
Questo terzo aspetto è particolarmente importante perché indica che la ricerca
fisica, sin dall'inizio, muove dal bisogno di costruire una spiegazione razionale dei
fenomeni.

2.5 La nascita della matematica come interpretazione della realtà

Ai materialisti Talete, Anassimandro e Anassimene, mancava una delle idee più


importanti su cui tutta la scienza futura si svilupperà: l’ordine del cosmo è regolato da
leggi matematiche. Questa idea fu introdotta dai pitagorici, secondo i quali la natura è
incessante moto e perenne ritorno: tutto muta e niente perisce e principio di tutte le cose
non sono gli elementi o qualche entità indeterminata introdotte dai milesi ma il numero.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 44!

Tale affermazione sembra voler significare che la materia è composta di punti


fisici, le monadi, indistinguibili fra loro ed immerse nel neuma (aria), ma il cui numero e
le cui configurazioni sono causa delle varie proprietà presentate dai corpi: le differenze
qualitative sono così ricondotte, per la prima volta, a differenze quantitative. Il numero
viene ad assumere un’importanza fondamentale nella costruzione del mondo, da cui
l’interesse particolare per lo studio delle sue proprietà, la ricerca di analogie e il senso
mistico che le accompagna. E nella visione pitagorica, il numero acquista una valenza
ancora più ampia, riducendosi al credo che tutto è razionale (chiaro il riferimento ai
numeri razionali, ossia quei numeri esprimibili dal rapporto di due numeri interi, come
nei rapporti musicali). Esso testimoniava la fede che ciò che chiamiamo cosmo o mondo,
lungi dall’essere un sistema caotico e inconoscibile, fosse invece un sistema ordinato,
come nei significati originari del greco kòsmos e del latino mundum, e si potesse
comprendere mediante la misura e la ragione.

Il primo a suggerire che la matematica (i numeri) dovesse essere la chiave per


comprendere il mondo è stato, quindi, Pitagora (575 a.C.-490 a.C), figura forse
leggendaria, massimo esponente della tradizione filosofica razionalista, sviluppatasi
nelle colonie greche del Sud Italia, e che, a ragione, può essere considerato uno dei
pensatori determinanti nella storia culturale d’Occidente.
La tesi fondamentale della filosofia pitagorica è che: il numero è la sostanza delle
cose. A tal proposito Aristotele nella sua Metafisica dice: “Le cose sono numeri … E
poiché d’altra parte, in tutto il resto, sembrava loro tutta quanta la natura esser fatta
a somiglianza dei numeri, onde i numeri risultavano i principi di tutta la natura, così
supposero che gli elementi dei numeri fossero elementi di tutti gli esseri, e che l’universo
intiero fosse armonia e numero; e quante concordanze poterono mostrare nei numeri e
nelle armonie, con le condizioni e le particolarità dell’universo, e con l’intiero
ordinamento di esso, queste cercarono di raccogliere e coordinare insieme”.
Il significato dell’affermazione paradossale “le cose sono numeri” può intendersi
che i vari oggetti risulterebbero costituiti da punti materiali, o monadi. Col termine
numeri i pitagorici intendevano soltanto i numeri interi, concepiti come le collezioni di
più unità. Non fecero particolari indagini sulla natura di queste unità, limitandosi a
rappresentarle con punti, circondati ciascuno da uno spazio vuoto. In altre parole,
Pitagora non aveva ancora il concetto del punto privo di estensione, che verrà definito
più tardi da Euclide, ma pensava piuttosto ad un punto avente estensione, ancorché
minima, in base all’intuizione empirica. Era il germe della futura concezione atomistica
di Leucippo e Democrito. Proprio questa rappresentazione spaziale facilitò il passaggio,
caratteristicamente arcaico, dalla concezione del numero come chiave e rapporto alla
sua concezione come costituente fisico elementare delle cose. Invece dell’acqua,
dell’aria, dell’àpeiron o altri elementi materiali, i pitagorici riconobbero, dunque, il
numero come l’elemento di cui sono costituite le cose, per cui il concetto fondamentale è
quello di un ordine misurabile. Affermare che le cose sono costituite di numeri e che
quindi tutto il mondo è fatto di numeri, significa che la vera natura del mondo, come
delle singole cose, consiste in un ordinamento geometrico esprimibile in numeri, quindi
misurabile, ed è qui la grande importanza dei pitagorici, che per primi hanno ricondotto
la natura, o meglio il carattere che fa della natura qualcosa di oggettivo e di veramente
reale, all’ordine misurabile e hanno riconosciuto in quest’ordine ciò che dà al mondo la
sua unità, la sua armonia, quindi anche la sua bellezza. Infatti, mediante il numero è
possibile spiegare il moto degli astri, il succedersi delle stagioni, le armonie musicali.
45! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Quando Pitagora diceva che il cosmo era composto di numero, invocava una
complessa serie di idee correlate. In primo luogo, tutti i numeri interi potevano essere
costruiti dall’unità: così equiparò il cosmo all’unità. Inoltre pensava che uno fosse il
punto, due una linea, tre un triangolo e quattro una piramide. Questo sembrava
mostrare che i corpi solidi potessero esser costruiti con i numeri. Pitagora non voleva
soltanto intendere che il mondo fosse governato da leggi matematiche, ma che il
numero, e non gli oggetti materiali, erano i costituenti del mondo reale.
La scoperta che proporzioni semplici sono nascoste dietro a fenomeni diversi, per
esempio corde musicali in rapporti di lunghezza semplici producono suoni in armonia
fra loro, porta Pitagora a promuovere una ricerca delle armonie nascoste nel mondo,
esprimibili in termini di numeri, cioè di matematica. Ossia la matematica acquista la
funzione di mediatrice tra la fisica e la musica, e più in generale fra la natura e l’uomo.
A tale scopo egli usò il cosiddetto strumento monocorde, cioè una sola corda di
lunghezza variabile soggetta a differenti tensioni per l’azione di un peso. Usando
sempre lo stesso peso tensore e variando invece la lunghezza della corda Pitagora
osservò che la produzione di coppie di note armoniche si aveva soltanto quando le
lunghezze della corda stavano tra loro come numeri interi. Il rapporto 2:1 tra le
lunghezze corrispondeva alla produzione di quella che chiamiamo un’ottava, il
rapporto 3:2 a una quinta, il rapporto 4:3 a una quarta. Questa scoperta fu molto
probabilmente la prima formulazione matematica di una legge fisica.

INTERPRETAZIONE MODERNA DELLA SCOPERTA DI PITAGORA


Nella moderna terminologia fisica diciamo che la frequenza di vibrazione, cioè il numero di vibrazioni al
secondo di una data corda soggetta ad una data tensione è inversamente proporzionale alla sua
lunghezza. Se di due corde la seconda è lunga la metà della prima, la sua frequenza di vibrazione sarà
il doppio; se le lunghezze delle due corde stanno fra loro nei rapporti 3:2 o 4:3 le frequenze di
vibrazione staranno rispettivamente tra loro nei rapporti 2:3 o 3:4.

Pitagora tentò di compiere un ulteriore passo in avanti suggerendo un’ipotesi:


poiché il moto dei pianeti deve essere armonioso, le loro distanze dalla Terra devono
stare tra loro come numeri interi semplici. Pitagora, quindi, è stato il primo ad
accorgersi che la natura non è governata dal caos, ma da una serie armonica di rapporti
matematici. La natura stessa gli apparve come un’immensa corda vibrante tesa tra la
terra e il cielo, in curiosa assonanza con la moderna teoria delle stringhe, e, anche se è
azzardata come ipotesi, la suggestiva affinità fra l’Uno pitagorico e le teorie unificate
della fisica attuale. E’ questa ricerca pitagorica della armonia mundi, espressa in forma
matematica, che ha ispirato scienziati come Galileo, Keplero, Einstein.
Si dice che la scienza di Pitagora è una matematica del discontinuo, perché si
fonda esclusivamente sui numeri interi e su ciò che può venire espresso con i numeri
interi. Ebbene, questo carattere discontinuo rende speciale la matematica di Pitagora in
quanto la differenzia notevolmente da molte altre concezioni posteriori. Infatti, secondo
essa, l’accrescimento di una grandezza procede per salti discontinui, essendo
impossibile aggiungere qualcosa che sia minore dell’unità. Qualcuno giunge addirittura
a riconoscere nella teoria quantistica una sopravvivenza dell’antica eredità pitagorica
sotto forma di concezione discontinua dell’energia e di altre grandezze fisiche.
In conclusione possiamo affermare che l’essenza della rivoluzione pitagorica,
creatrice delle matematiche pure, è prendere in considerazione solo il simbolo, fissare
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 46!

le regole di operazioni sui simboli e creare così quello strumento, astratto sì ma


potentissimo, che è il discorso matematico.

I pitagorici sostennero per primi la sfericità della Terra e dei corpi celesti in
genere, in quanto la sfera, la più perfetta tra le figure solide, è l’immagine stessa
dell’armonia. Ma essi ebbero anche altre geniali intuizioni, come quella di Filolao
(verso il 400 a.C.), il primo pitagorico del quale ci sia pervenuto qualche frammento, che
fu l’autore del primo sistema astronomico non geocentrico.
Filolao, abbandonò l’ipotesi che la Terra fosse il centro fisso del mondo e ammise,
invece, che la Terra stessa e tutti gli altri corpi celesti si muovessero intorno a un fuoco
centrale, la divina Hestia. Intorno ad esso stanno dieci sfere: la più lontana quella delle
stelle fisse, poi Saturno, Giove, Marte , il Sole, Venere, Mercurio, la Luna, la Terra, ed
infine l’Antiterra. Il Sole, illuminato dal fuoco centrale, riflette sulla Terra la luce
ricevuta. In 24 ore la Terra compie una rivoluzione completa attorno al fuoco centrale,
ma l’emisfero abitato è costantemente rivolto dalla parte opposta di Hestia, sicché
questa è sempre nascosta a noi, e nascosta resta anche l’Antiterra che si muove sempre
in modo sincrono rispetto alla Terra medesima. Così resta spiegato, come moto
apparente, il sincronismo di tanti corpi (Luna, Sole, pianeti, stelle) che compiono la loro
rivoluzione diurna rispetto alla Terra (relatività del movimento). Il Sole, a sua volta, si
muove in una propria orbita, e ciò spiega il suo movimento annuo lungo l’eclittica. Tale
orbita, al pari di quelle della Luna e dei pianeti, è inclinata rispetto all’orbita terrestre, e
questo offriva una veduta geometrica semplice e coerente dei fenomeni di moto
osservati da tempo e dell’alternarsi delle stagioni. Egualmente naturali risultano gli altri
fenomeni come le eclissi e le fasi lunari. Tale spiegazione coerente è il vero merito del
sistema. Inoltre per la prima volta veniva assegnato ai corpi celesti un ordine esatto,
conservato sostanzialmente fino ad oggi.
Fortunatamente gli errori della dinamica aristotelica che resero così difficile il
cammino a Copernico e a Galileo non erano stati ancora codificati in questa infanzia
della scienza, e perciò pur senza possedere il principio d’inerzia, Filolao potè procedere
alla propria costruzione libero da ogni condizionamento sul terreno della dinamica.
Quanto all’Antiterra è vero che essa richiamava la tetraktys (completava il numero dieci
delle sfere) e sapeva di misticismo pitagorico, ma quasi certamente serviva anche a
spiegare certe caratteristiche delle eclissi, inesplicabili per chi ignori la rifrazione della
luce. L’ipotesi della sfericità della Terra e l’esigenza di dare ordine geometrico e
armonia al mondo hanno rappresentato la prima visione dell’immensità dell’universo.
Ai pitagorici è da attribuire anche lo studio su problemi di ottica, in particolare
ad essi va ricondotta la più antica teoria della visione. Secondo la scuola pitagorica la
visione avviene per mezzo di raggi di un “fuoco” invisibile che esce dall’occhio e
attraverso l’aria o l’acqua raggiunge gli oggetti e li va a “toccare”, restituendo
all’osservatore, in qualche modo non precisato, la superficie dei corpi, che i pitagorici
chiamavano croma, cioè colore. Questa teoria prevede l’occhio di un osservatore (che
partecipa attivamente alla visione) e un oggetto (che svolge un ruolo passivo) ma non
prevede l’esistenza di ciò che chiamiamo “luce” e che collega l’oggetto visto con l’occhio
che vede. Come altre antiche dottrine della visione (quella stoica e quella atomista) la
dottrina pitagorica non pone una relazione esplicita tra visione e luce. Platone sarà il
primo pensatore a introdurre esplicitamente la luce solare nel processo della visione.
Una seconda osservazione è che nella teoria pitagorica la percezione visiva è realizzata
da qualche flusso che viene emesso dall’occhio. Le teorie che prevedono un flusso
47! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

emesso dall’occhio sono dette “emissioniste” e si contrappongono alle teorie


“immissioniste” che al contrario postulano che la visione sia dovuta a qualche flusso
che rappresenta l’oggetto visto, flusso che raggiunge l’occhio e viene immesso
nell’occhio stesso.

Il contributo dei pitagorici allo sviluppo del pensiero scientifico, e, più in


generale alla cultura umana, è notevole. Ad essi si deve la fondazione scientifica della
matematica e soprattutto l’intuizione che starà alla base della scienza moderna di tipo
galileiano, quella per cui la matematica costituisce il più importante codice di
interpretazione della realtà. Pertanto, i pitagorici si possono considerare, così, i lontani
progenitori di tutta la scienza e appunto filosofi pitagorici si diranno Copernico,
Keplero, Galileo e gli altri giganti della rivoluzione scientifica da cui nascerà l’uomo
nuovo, l’uomo moderno.

2.6 Il moto: realtà o illusione

Ai due estremi geografici del mondo greco, quello orientale e quello occidentale,
la riflessione ionica e quella pitagorica erano dunque venute, lungo tutto l’arco del VI
secolo a.C., sollevando e dibattendo i grandi temi della realtà e dell’interpretazione che
di essa la conoscenza umana poteva dare sul piano scientifico. Al tempo stesso
pitagorici e ionici divergevano sempre più marcatamente negli esiti assunti da questi
loro tentativi: i primi, attraverso l’interpretazione numerica della realtà e la sua
elaborazione aritmo-geometrica, tendevano a creare schemi logico-razionali di
interpretazione; i secondi si orientavano verso uno spiccato naturalismo, che faceva
sempre più larga parte ai dati dell’osservazione e alle leggi fisiche che li connettevano, e
credeva di poter rinunciare, data la loro apparente autosufficienza, a più consapevoli
interventi della ragione e delle sue proprie leggi.
Entrambi questi punti di vista contenevano in sé un profondo nucleo di verità;
entrambi richiedevano però, affinchè il pensiero scientifico e filosofico potesse compiere
senza incertezze un più risoluto passo avanti, di essere chiariti nei loro presupposti
fondamentali, spogliandosi delle proprie ambiguità. A questo compito di
radicalizzazione e di chiarimento assolsero, tra la fine del VI e l’inizio del V secolo, le
grandi speculazioni sull’essere e sul divenire, condotte rispettivamente dalla scuola
eleatica e da Eraclito.
In questo clima speculativo è singolare la figura di Senofane (570-475 a. C.), che
era stato personalmente in contatto sia con gli ionici che con i pitagorici, e che rispetto
ad entrambi condusse una preziosa opera critica, volta a mettere in luce il fondamentale
problema dei limiti e del valore della conoscenza umana. Secondo le testimonianze di
Platone e di Aristotele, l’indirizzo che fu proprio della scuola eleatica era stato iniziato
da Senofane, che per primo affermò l’unità dell’essere, ed in un suo frammento si può
rinvenire la premessa metodologica del passaggio da una visione mitica ad una
razionale del mondo: “Gli dèi non rivelarono agli uomini tutte le cose fin dall'inizio, ma
gli uomini con la loro ricerca trovano nel corso del tempo ciò che è meglio”. Il punto di
partenza di Senofane è una critica risoluta dell’antropomorfismo religioso e sostiene che
c’è una sola divinità, “che non somiglia agli uomini né per il corpo né per il pensiero”,
che si identifica con l’universo, è un dio-tutto, ed ha l’attributo dell’eternità: non nasce e
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 48!

non muore ed è sempre la stessa. Difatti se nascesse, ciò significherebbe che prima non
era; ma ciò che non è, neppure può nascere né può far nascere nulla. Senofane afferma
in forma teologica l’unità e l’immutabilità dell’universo. In Senofane si trovano anche
spunti di ricerche fisiche: egli ritiene che ogni cosa ed anche l’uomo sia formato di terra
ed acqua; che dalla terra vien tutto e tutto ritorna alla terra; ma questi elementi di un
grossolano materialismo poco si collegano con il suo principio fondamentale.

Il fondatore dell’eleatismo è Parmenide (515 a.C.– 450 a.C.), che ritiene illusione e
inganno dei sensi il perenne mutare: il mutamento ed il movimento sono illusori e che
la sostanza sola è veramente. Quindi, il tema originale della filosofia parmenidea è il
contrasto tra la verità e l’apparenza: “Due sole vie di ricerca si possono concepire. L’una
è che l’essere è e non può non essere; e questa è la via della persuasione perché è
accompagnata dalla verità. L’altra, che l’essere non è ed è necessario che non sia; e
questo, ti dico, è un sentiero sul quale nessuno può persuaderci di nulla”. Perciò: “un solo
cammino resta al discorso: che l’essere è”. Ma questo cammino non può non essere
seguito che dalla ragione, giacché i sensi invece si fermano all’apparenza e pretendono
testimoniarci il mutare delle cose, il nascere ed il perire, cioè insieme il loro essere e il
loro non essere. Parmenide vuole così allontanare l’uomo dalla conoscenza sensibile e
costringerlo a giudicare solo con la ragione. Ora la ragione dimostra subito che non si
può pensare né esprimere il non essere. Non si può pensare senza pensare qualcosa; il
pensare a nulla è un non pensare, il dir nulla è un non dire. Il pensiero e l’espressione
devono in ogni caso avere un oggetto e questo oggetto è l’essere. Parmenide determina
con tutta chiarezza quel criterio fondamentale della validità della conoscenza che
doveva dominare tutta la filosofia greca: il valore di verità della conoscenza dipende
dalla realtà dell’oggetto, la conoscenza vera non può essere che conoscenza dell’essere.
Tale è il significato delle affermazioni famose di Parmenide: “La stessa cosa è il pensiero
e l’essere” e “La stessa cosa è il pensare e l’oggetto del pensiero; senza l’essere nel quale il
pensiero è espresso tu non potresti trovare il pensiero, giacché niente altro c’è fuori
dell’essere”.
Per comprendere bene da dove nasce l’idea dell’Essere (Esistente) e del Non Essere
(Niente), bisogna ricordare che Parmenide scrive sulla natura delle cose, cioè sul
problema della materia primitiva. Secondo la tradizione ionica, egli assume una
sostanza originaria unica, soggiacente alle diverse qualità fenomeniche. Ma dai
pitagorici ha imparato che tale sostanza deve essere priva di qualità. Che cosa le rimane
dunque? Soltanto la propietà di esistere, e di occupare uno spazio. Pertanto l’esistente è
qualcosa che si afferma esistere in senso corporeo, cioè come materia estesa. Con questa
chiave le parole di Parmenide diventano chiare. Le due ipotesi che si mettono di fronte
l’una all’altra sono l’ipotesi che tutto sia pieno o che esista il vuoto. Parmenide
propende per la materia estesa impenetrabile che deve riempire lo spazio, e identificarsi
con esso, perché il vuoto, cioè il non esistente, è inconcepibile. Tale è in sostanza la
concezione di Cartesio, duemila anni dopo. Per un solo aspetto l’esistente parmenideo
differisce dallo spazio cartesiano: l’eleate non sa concepirlo come illimitato e gli
attribuisce la forma d’una sfera perfetta. In effetti, Parmenide sentiva il bisogno di
concepire il mondo come qualcosa di perfetto in se stesso, e perciò respingeva l’idea di
pensarlo infinito. Questa incongruenza sarà risolta da Melisso più tardi.
All’essere che è oggetto del pensiero, Parmenide attribuisce gli stessi caratteri che
Senofane aveva riconosciuto al dio-tutto. Ma questi caratteri sono da lui ricondotti ad
un’unica modalità fondamentale, che è quella della necessità. “L’essere è e non può non
49! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

essere” è la tesi principale di Parmenide: tesi che esprime quello che è per lui il senso
fondamentale dell’essere in generale e costituisce il principio direttivo dell’indagine
razionale. Anzi, Parmenide è il primo vero razionalista che si affacci nella storia del
pensiero: la verità è da scoprire non guardando alle cose come sono fatte, ma attraverso
l’idea che di esse ci formiamo. Ecco quindi che la teoria della materia primitiva, il
principio unico, non è fondata, come avviene per gli ionici, su delle analogie sensibili,
ma sopra un concetto razionale della materia stessa.
A differenza di Senofane, l’eternità non è intesa da Parmenide come durata
temporale infinita ma come negazione del tempo: “L’essere non è stato mai né mai sarà
perché è ora tutto insieme, uno e continuo”. Parmenide ha elaborato per primo il
concetto dell’eternità come presenza totale. L’essere non può nascere né perire, giacché
dovrebbe derivare dal non essere o dissolversi in esso, il che è impossibile perché il non
essere non è. L’essere è indivisibile perché è tutto uguale e non può essere in un luogo
più o meno che in un altro; è immobile perché risiede nei propri limiti; è finito perché
l’infinito è incompiuto e l’essere non manca di nulla. L’essere è compiutezza e
perfezione, ed in questo senso appunto finito. Come tale, è paragonato da Parmenide ad
una sfera omogenea, immobile, perfettamente uguale in tutti i punti: “Poiché vi è un
limite estremo, l’essere è perfetto da ogni parte, simile alla massa arrotondata di una
sfera uguale dal centro a ogni sua parte”. Perciò pure l’essere è pieno, in quanto è tutto
presente a se stesso e in nessun punto mancante o deficiente in sé; esso è
autosufficienza. Non si può tuttavia negare che la sfericità ora accennata vada accolta
con la massima cautela; se infatti la interpretassimo alla lettera, cadremmo in
contraddizione con tutto l’insegnamento di Parmenide, perché saremmo costretti ad
ammettere l’esistenza di un non-essere (o vuoto), che è al di là dell’essere sferico, e lo
limita. Essa va intesa come identità e assolutezza dell’essere lungo tutte le direzioni. In
sostanza, la sfera di Parmenide è più simile allo spazio curvo einsteniano che al solido
euclideo che siamo portati a raffigurarci.
A quali conseguenze conduce la visione parmenidea in relazione al problema
delle trasformazioni del mondo? Parmenide vorrebbe spiegare il processo o il divenire
del mondo come effetto di cause che debbono dar ragione degli avvenimenti. Ma il
mondo è pieno di una sostanza materiale, uniformemente distribuita, sicchè le azioni
reciproche delle parti di questa, cioè della materia sulla materia, possono costituire le
sole cause possibili di ogni avvenimento. D’altronde, la causa della diminuzione di
temperatura di un corpo la ricerchiamo nel passaggio di calore da un corpo più caldo a
uno più freddo; oppure la causa del movimento di liquido in due vasi comunicanti è la
differenza di altezza del liquido nei rispettivi vasi. In questi fenomeni, e in tanti altri, ci
sono sempre due corpi che agiscono l’uno sull’altro per effetto di una differenza di
qualche grandezza fisica. Pertanto, non ci sembra una ragione sufficiente del
cambiamento un’azione prodotta tra cose uguali (almeno a partire da un primitivo stato
di quiete). Dunque, Parmenide non poteva trovare nel suo universo la spiegazione di
un cambiamento o di un divenire qualsiasi.
Tuttavia, secondo la tradizione ionica, il moto di rotazione del mondo
(l’apparente rivoluzione della sfera celeste) era considerato come una prova evidente
del processo cosmico, cui si connette, più o meno consapevolmente, l’idea di forze, quali
sono le forze centrifughe. Parmenide poteva cercare in questa visione le ragioni del
cambiamento o del divenire cosmico, pur rispettando l’omogeneità della materia.
Invece egli rifiuta questa soluzione dichiarando che il mondo “è immobile nei limiti dei
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4:!

saldi legami”. Allora Parmenide negava il movimento? Il moto non significa nulla di
per sé, ma soltanto variazione della posizione delle cose. Questa interpretazione è
avvalorata dal seguente passo di Parmenide, in cui non parla del moto dei corpi ma del
mondo nella sua interezza: “Lo stesso e nello stesso rimanendo è in quiete rispetto a se
stesso, e in tal guisa è anche (assolutamente) immobile”. Parmenide, avendo compreso il
senso relativo del moto, non può conferire significato al moto di rivoluzione del mondo,
e perciò si chiude l’unica possibilità che lo possa condurre ad abbracciare l’idea del
divenire delle cose: dal primitivo stato iniziale d’una materia estesa omogenea e in
quiete, non vi è modo di passare ad un altro stato di moto. Nel linguaggio di Parmenide
significa che il divenire del mondo non è verità razionale, ma soltanto apparenza
sensibile. Il sensibile non ha valore di scienza. La sola scienza vera, conforme a ragione,
è la scienza della materia estesa, che ha carattere necessariamente statico.

Il discepolo prediletto di Parmenide, Zenone di Elea (495 a.C.– 430 a.C.), con una
serie di paradossi del moto, oltre a darci una veduta relativistica del moto, farà delle
osservazioni che risulteranno preziose per lo sviluppo della matematica.
Esaminiamo i famosi quattro argomenti di Zenone sul moto. Il primo argomento
dice che il moto è impossibile perché per andare dal punto A al punto B, bisogna
passare per il punto medio C del segmento AB, e poi per il punto medio del segmento
CB, e così di seguito, all’infinito. Il secondo argomento, il più famoso, riguarda
l’impossibilità di raggiungere la tartaruga, da parte di piè-veloce Achille, che parte con
un piccolo vantaggio. Achille non può raggiungere la lentissima tartaruga che fugga
davanti a lui, perché nel tempo che Achille è arrivato là dove si trova ora la tartaruga,
questa si è spostata un po' avanti; e quando Achille sarà arrivato a questo secondo
punto, la tartaruga sarà un tantino avanti, e così all'infinito. Molti vedono in questi due
paradossi la negazione del movimento. Altri, e a ragione, deducono una riduzione
all’assurdo della tesi monadica dei pitagorici, e una dimostrazione della continuità della
linea. Quindi, in questi paradossi è contenuta una scoperta veramente preziosa per gli
sviluppi della matematica: la continuità dello spazio, ossia la divisibilità di esso
all'infinito. Ciò significa l'impossibilità di rappresentare lo spazio come somma di parti
discrete: da questo punto di vista l'analisi zenoniana completa, con altro metodo, la
scoperta pitagorica della irrazionalità dello spazio. La concezione dello spazio come
continuo sarà il fondamento del quale si servirà Archimede per elaborare quel famoso
metodo di esaustione che fornirà ai matematici del secolo XVII d.C. l'idea per la
creazione del moderno calcolo infinitesimale.
Il terzo argomento è quella della freccia: una freccia che vola in aria occupa in
ogni istante un certo spazio. Quindi in ogni istante è in quiete. Ma una somma di stati di
quiete come può produrre uno stato di moto? Si potrebbe rispondere dicendo che la
freccia sta sempre passando da un punto a un altro. Ma allora cambia posizione anche
entro l’istante, e questo andrà suddisviso, ai fini della rappresentazione, in più istanti
successivi. La discontinuità del tempo si risolve in continuità. In
questo terzo argomento, come lo spazio non è discreto ossia
composto da punti successivi, nemmeno il tempo è composto
d’istanti ossia di tempuscoli elementari.
Nel quarto argomento (lo Stadio) abbiamo il pieno
riconoscimento della relatività del moto. Si confrontino tre file
parallele di punti materiali allineati a distanze uniformi. La fila A
è immobile, e le file B e C si muovono in senso contrario con la
5<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

stessa velocità V. Quale sarà la velocità di un punto materiale della serie C? Essa si
ottiene considerando il tempo in cui un punto della serie passa davanti a due successivi
punti della serie A. Ma se il movimento viene riferito invece alla serie B, la stessa
velocità, che era V, diventa 2V.

Alla scuola eleatica si collega un terzo personaggio, Melisso di Samo (470 a.C.;...).
I frammenti che di lui rimangono, illustrano in modo suggestivo la tesi di Parmenide, in
particolare uno di essi (fr. 8) contiene una bellissima critica delle sensazioni, che sembra
quasi preludere alla concezione atomica. In un punto caratteristico Melisso si allontana
da Parmenide: il pieno non è limitato a forma di sfera, ma si estende nello spazio
all’infinito, risolvendo così l’incongruenza parmenidea. Tale correzione si accorda bene
con la negazione del moto di rivoluzione del cosmo, perché è impossibile immaginare
un moto che si estenda all’infinito.

La filosofia eleatica, svolgendo fino alle ultime conseguenze i motivi ionici e


pitagorici, era arrivata ad una radicale negazione della realtà. Se esiste una materia
unica, priva di differenze qualitative e puramente estesa; se questa costituisce da sola
tutto l’esistente, e fuori di lei il vuoto è inconcepibile, come “non esistente”, allora il
mondo costruito dal pensiero si riduce allo spazio figurato della geometria, e in esso
viene a mancare ogni ragione sufficiente della diversità e del divenire. Il sensibile
diventa illusorio. Comunque, l’eleatismo segna una tappa decisiva nella storia della
filosofia, sottraendo al presupposto naturalistico le ricerche cosmologiche degli ionici e
dei pitagorici e portandole per la prima volta su quel piano ontologico nel quale
dovevano radicarsi i sistemi di Platone e di Aristotele. Ma è anche vero che ponendo il
problema dell’essere su un piano metafisico-ontologico, cioè nella sua massima
generalità e non più soltanto come un problema fisico, ossia sostituendo la scienza con
la metafisica, tale concezione nuocerà molto allo sviluppo della fisica.

Chi non accetta di escludere, con Parmenide, ogni rapporto tra essere e non-
essere, deve ammettere l’esistenza di uno stadio intermedio che partecipi entro certi
limiti della natura di entrambi: questo stadio intermedio è il divenire. L’importanza del
divenire, posizione rigorosamente antitetica a quella parmenidea, fu sostenuta con
grande energia da Eraclito (535 a.C.– 475 a.C.), contemporaneo di Parmenide, che
concepisce la materia come tutto indeterminato divenire pantha rei (tutto scorre).
L’universo diviene, si trasforma, scorre; ma questo trasformarsi, questo variare, non è
segno di irrazionalità; anzi, è l’attuazione della sua più profonda razionalità. La
sostanza, che è il principio del mondo, deve spiegare il divenire incessante di esso con
la propria estrema mobilità, ed Eraclito riconosce tale principio nel fuoco, elemento
irrequieto, distruggitore e trasformatore perpetuo della materia. Il fuoco dunque è
principio e fine, e il divenire è ciclico: tutto si trasforma ma perennemente ritorna a
essere quello che era prima per poi tornare a trasformarsi. In sostanza: ogni cosa è
costantemente in mutamento, che il mutamento è la sola realtà, per cui non è possibile
indagare il mondo materiale. Ma il fuoco nella dottrina di Eraclito perde ogni carattere
corporeo e diventa principio attivo, intelligente e creatore: “Questo mondo, che è lo stesso
per tutti, nessuno degli dèi e degli uomini l’ha creato, ma fu sempre, è e sarà fuoco
eternamente vivo che con ordine regolare si accende e con ordine regolare si spegne”. Il
mutamento è quindi un’uscita dal fuoco o un ritorno al fuoco: “Col fuoco si scambiano
tutte le cose e il fuoco si scambia con tutte, come l’oro si scambia con le merci e le merci
con l’oro”. Le affermazioni che questo mondo è eterno e che il mutamento è un
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 5;!

incessante scambio con il fuoco escludono il concetto di una conflagrazione universale,


per la quale tutte le cose ritornerebbero al fuoco primitivo. Difatti lo scambio incessante
tra le cose e il fuoco implica che non tutto si riduca al fuoco, così come lo scambio tra le
merci e l’oro implica che non tutto si riduca all’oro.
La difficoltà di conciliare l’idea d’un principio fondamentale con l’infinita varietà
dei fenomeni, è risolta da Eraclito ammettendo che il conflitto degli opposti è in realtà
un tipo di armonia. L’assoluta novità che troviamo in Eraclito, estranea al pensiero
pitagorico, è, dunque, la concezione che l’unità dell’essere scaturisce dalla sua stessa
molteplicità. Per unità, infatti, Eraclito intendeva il divenire, e questo deriva
dall’esistenza degli opposti, in quanto è il loro fondersi, è lo svilupparsi dell’uno e
dell’altro, è l’unità dei contrari. Il mondo è, pertanto, al tempo stesso uno e molti, ed è
proprio la “tensione degli opposti” che costituisce l’unità dell’Uno.
Riconsiderando lo sviluppo della filosofia greca fino a questo punto si capisce
com’esso sia stato prodotto dalla tensione fra l’Uno e i Molti. Per i nostri sensi il mondo
consiste di un’infinita varietà di cose e di eventi, di colori e di suoni. Ma per intenderlo
dobbiamo introdurre un qualche tipo di ordine, e l’ordine significa riconoscere ciò che è
uguale, significa ammettere una certa unità. Da ciò scaturisce la convinzione che c’è un
principio fondamentale, e allo stesso tempo la difficoltà di derivare da esso l’infinita
varietà delle cose. Che ci dovesse essere una causa materiale di tutte le cose era un
punto di partenza naturale dato che il mondo consiste di materia. Ma se si portava
all’estremo l’idea dell’unità fondamentale, si giungeva a quell’Essere infinito, eterno,
indifferenziato che, sia inteso materialmente o meno, non può di per sé spiegare
l’infinita varietà delle cose. Ciò conduce all’antitesi di essere e di divenire ed infine alla
soluzione di Eraclito, che il principio fondamentale è il mutamento stesso. Ma di per sé
il mutamento non è una causa materiale e perciò viene rappresentato da Eraclito con il
fuoco, considerato come elemento base e forza motrice insieme. Possiamo notare a
questo punto che la fisica moderna è in qualche modo assai vicina alle dottrine di
Eraclito. Se sostituiamo la parola “fuoco” con la parola “energia” possiamo ripetere le
sue affermazioni dal nostro moderno punto di vista. L’energia è difatti la sostanza di cui
sono fatte tutte le particelle elementari, gli atomi e perciò tutte le cose, ed energia è ciò
che muove. L’energia si può mutare in moto, in calore, in luce ed in tensione. Energia
può essere chiamata la causa fondamentale di ogni cambiamento nel mondo.
Eraclito si dimostra razionalista non meno intransigente del proprio avversario.
Ed infatti, se è vero che i sensi ci pongono di fronte al molteplice (e così facendo ci
forniscono una conoscenza esatta del reale), è altrettanto vero però che la conoscenza da
essi prodotta è unilaterale, perché non riescono a farci superare l’inconciliabilità degli
opposti. È dunque indispensabile oltrepassare i sensi per giungere alla ragione: solo
questa sarà in grado di farci cogliere l’unità nella molteplicità, l’armonia nelle
contraddizioni. Eraclito è veramente il filosofo della ricerca, e per la prima volta, in lui,
la ricerca filosofica giunge alla chiarezza della sua natura e dei suoi presupposti. La
natura stessa impone, secondo Eraclito, la ricerca; essa infatti “ama nascondersi”. Alla
ricerca, egli vede schiudersi l’orizzonte più vasto: “Se non speri, non troverai
l’insperato, introvabile essendo questo e inaccessibile”. Ma non si nasconde la difficoltà e
il rischio della ricerca: “I cercatori d’oro scavano molta terra, ma ne trovano poco”.

La critica da parte dei filosofi razionalisti ebbe l’effetto di rendere i concetti


materialistici più precisi e sofisticati. Dopo un lasso di tempo di quasi un secolo
comparvero alcuni tentativi di cosmologie materialistiche radicalmente nuove ed
5=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

interessanti, che riflettevano le critiche dei razionalisti. All’incirca dal 450 a. C.,
troviamo per la prima volta cosmologie che sono chiaramente basate su una qualche
conoscenza del numero e della natura dei corpi celesti, ed una considerevole
consapevolezza della differenza tra mondo animato ed inanimato.

2.7 I fondamenti della scienza

Il secolo V, così come vede la massima fioritura della democrazia nelle città
greche, vede anche fiorire una vera e propria scienza della natura. Si tratta di tentativi
che sorgono in varie parti del mondo greco, per opera di pensatori di origine e
mentalità diverse, ma che agiscono tutti nel senso di fondare una concezione scientifica
della natura del tutto svincolata da miti religiosi. Con la filosofia della natura del V
secolo siamo nel crogiuolo dei grandi problemi che occuperanno la riflessione umana
per lunghi secoli a venire e le impostazioni che essa giunse a forgiare fornirono la
materia prima a tutto il posteriore pensiero filosofico e scientifico. Infatti, Bacone e
Galileo ne intuiranno la fecondità di alcune intuizioni come base di uno sviluppo
propriamente scientifico.
Questi fisici pluralisti, in quanto ritengono che i principi della natura siano
molteplici (come gli atomi per Democrito), cercano di conciliare due opposte
affermazioni: l’idea dell’eterno Divenire delle cose di Eraclito e il concetto dell’Essere
immutabile di Parmenide, ossia dell’eternità e immutabilità della natura. Questi filosofi
risolvono genialmente il problema distinguendo tra composti (mutevoli) ed elementi
(immutabili); infatti, ritengono che le cose del mondo siano costituite di elementi eterni,
come gli atomi, che unendosi tra di loro danno origine alla nascita e disunendosi
provocano la morte. In tal modo essi giungono alla comprensione di uno dei principi
fondamentali della fisica, il principio di conservazione dell’energia: in natura nulla si
crea e nulla si distrugge, ma tutto si trasforma.
Inoltre, per nessuno di questi pensatori è concepibile una distinzione a priori fra
pensiero (o soggettività) e realtà (o oggettività) come due sfere autonome e sussistenti di
per sé. Per essi il pensiero, in quanto vero, è pensiero del reale, e il reale a sua volta è il
pensabile per eccellenza. Da tale presupposto fondamentale scaturivano due
conseguenze importanti: in primo luogo non era pensabile una concezione della logica
come scienza formale del discorso parlato e scritto che prescindesse dal rapporto di tale
discorso con la realtà sul quale esso verteva, nel senso che la verità di qualsiasi discorso
non poteva essere commisurata se non alle realtà che esso asseriva; in secondo luogo,
non era ancora pensabile una distinzione tra i fenomeni che si presentano all’esperienza
ed un eventuale sostrato oggettivo di questi fenomeni, quale verrà più tardi
cristallizzato nelle nozioni di sostanza o di materia e che come tale dominerà per lunghi
secoli il pensiero occidentale. Per i fisici pluralisti il mondo fisico si presentava come
una essenziale unità in cui era inconcepibile contrapporre l’apparenza dei fenomeni alla
realtà di una sostanza di base, e dall’impossibilità di pensare la materia in sé conseguiva
l’impossibilità di pensare l’immateriale come esistente di per sé.
Ciò premesso, si capisce perché questi pensatori venissero comunemente definiti
dai loro contemporanei non come filosofi ma come fysiològoi (studiosi di fysis), o più
semplicemente come fisici. Fysis era ai loro occhi il sistema del mondo di cui l’uomo è
una parte, al pari degli astri, degli esseri animati e inanimati, un mondo che ha una sua
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 54!

storia e un suo destino. Un mondo di cui occorre stabilire la pensabilità ma che non è
pensiero, un mondo che è reale ma non è sostanza o materia, un mondo, infine, al di
fuori del quale non si danno verità né realtà.

Il primo di questi fisici pluralisti è Empedocle (ca. 492 a.C.–ca. 430 a.C.) che visse
in Sicilia, e quindi si trovò nelle migliori condizioni per essere a perfetta conoscenza
delle filosofie razionalistiche sia di Pitagora che di Parmenide. Empedocle è
consapevole dei limiti della conoscenza umana. I poteri conoscitivi dell’uomo sono
limitati e conosce solo ciò in cui per caso si imbatte. Ma appunto per questo non può
rinunciare a nessuno dei suoi poteri conoscitivi ed è necessario che si serva di tutti i
sensi ed anche dell’intelletto per vedere ogni cosa nella sua chiarezza.
Empedocle presentò le sue idee in forma di un poema, Sulla Natura, e a causa
della forma dell’esposizione, le spiegazioni restano spesso nascoste nel linguaggio
poetico, ma il loro significato è profondamente razionale. Secondo Empedocle, la realtà,
nel suo presentarsi alla nostra osservazione, appare indefinitamente diversa eppure
connessa da ritmi, da cicli, da permanenze che ne formano la struttura unitaria; così
come accade per l’organismo vivente, mutevole eppure un o, la realtà appare un tessuto
variegato di poche sostanze semplici, un divenire scandito dal ciclo delle stagioni, della
generazione, degli astri. Il mondo concepito, dunque, come un organismo unitario
vivente e senziente, del quale nessuna parte poteva venire arbitrariamente amputata e
tutte dovevano avere una loro profonda giustificazione. Se questo punto di vista
ilozoico doveva trovare una spiegazione non mitica, una più universale
razionalizzazione, occorreva infondervi i requisiti del vero; occorreva, una volta reso
molteplice l’uno, trovare un’armonia tra questo vero molteplice e la molteplicità
dell’esperito. Da questa esigenza nasce il sistema cosmico di Empedocle, una delle più
potenti sintesi teoriche del pensiero greco.
Alla base del sistema stanno i quattro elementi, o piuttosto radici come li chiama
Empedocle stesso con un termine che meglio corrisponde alla sua visione vitalistica del
mondo: la terra, l’acqua, il fuoco, l’aria (o meglio l’etere). Ad ognuna di queste quattro
radici veniva attribuito lo status dell’uno: l’infinità e l’immutabilità nello spazio e nel
tempo, l’essere ingenerati e imperituri, e di conseguenza l’assoluta realtà e intelligibilità.
Ciò non significava tuttavia negare la realtà degli infiniti altri oggetti dell’esperienza:
ogni singolo ente è il risultato di una mescolanza delle radici, la sua nascita è la
formazione della mescolanza e la sua morte ne è lo scioglimento; benchè in tali
mescolanze le radici entrino sotto forma di porzioni frazionali, neppure nella minima di
esse perdono alcuna delle loro proprietà
In principio, secondo Empedocle, vi era un universo sferico riempito con le
quattro “radici delle cose”, che sono sempre esistite e da cui hanno origine tutte le cose
create. Insieme con questi elementi vi erano le due forze, amore, che unisce le cose, e
odio che invece le separa. L’amore è leggermente più forte, ma l’odio è necessario
perché vi sia mutamento. L’opposizione di amore e odio divise successivamente i
quattro elementi e questi, a loro volta, produssero la notte ed il giorno, i corpi celesti e
l’universo come lo conosciamo. Dal punto di vista fisico è notevole, nel sistema di
Empedocle, oltre la pluralità degli elementi, l’introduzione di due forze, che oggi
diremmo di attrazione e di repulsione, come causa dei fenomeni e del divenire del
mondo.
Empedocle introdusse un ampio numero di considerazioni di carattere
astronomico: la luce della Luna proviene dal Sole; il Sole e la Luna girano intorno alla
55! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Terra, entrambi fatti girare da una sfera che li circonda; le eclissi avvengono quando la
Luna, di forma lenticolare, passa tra il Sole e la Terra; la volta celeste è una sfera
cristallina, sebbene l’universo abbia la forma di un uovo, il cui movimento conserva la
Terra immobile nel centro. Secondo Empedocle, l’aria è un corpo, come risulta dal fatto
che l’acqua non entra nella brocca immersavi con l’apertura in giù, che è impedita
dall’aria compressa. La luce è una sostanza fluente, che, emessa dalla sorgente
luminosa, raggiunge progressivamente i corpi interposti, insomma la luce è di natura
corpuscolare e si muove con velocità finita. Essa può attraversare i corpi, perché s’infila
nei pori presenti in questi corpi per la costituzione granulare della materia. I pori,
invisibili a causa della loro piccolezza, non sono completamente vuoti, perché non esiste
il vuoto in natura. Empedocle introduce, così, nella scienza una delle ipotesi destinate a
maggiore fortuna: la concezione corpuscolare, secondo la quale i corpi che noi vediamo
non sono semplici, ma formati di aggregati di particelle elementari, ciascuna delle quali,
presa per sé, è eterna, immutabile, senza movimento o parti al suo interno. Questi
corpuscoli Empedocle li chiama stoicheia (elementi), e sono di quattro specie o rhizomata
(radici). Dall'aggregarsi e dal liberarsi di queste particelle hanno origine tutti i
fenomeni: la nascita e la morte delle cose, le loro trasformazioni quantitative, i fenomeni
meteorologici, ecc. Fondandosi sulla veduta della struttura porosa della materia,
Empedocle cerca anche di spiegare l’attrazione magnetica: i pori sarebbero i ricettacoli
delle influenze reciproche che i corpi esercitano l’uno sull’altro, per via degli effluvi che
da essi emanano.
Plutarco nelle sue Questioni Naturali dice: “Secondo Empedocle tute le cose create
emettono emanazioni … Così ogni cosa è consumata lentissimamente dal flusso continuo
che emana”. Così il ferro è attratto dalla calamita perché entrambi producono
emanazioni, e perché le dimensioni dei pori della calamita corrispondono perfettamente
alle emanazioni del ferro, per cui ogni volta che le emanazioni del ferro si avvicinano ai
pori della calamita vi si adattano per forma ed il ferro è trascinato dalle emanazioni e
quindi attratto. Ciò che è importante non è, naturalmente, la teoria in sé, ma piuttosto lo
sforzo che viene compiuto per spiegare razionalmente i fenomeni entro una prospettiva
unificata.
Empedocle accettò anche la teoria pitagorica della visione, ma approfondendola
per quanto riguarda il colore. Partendo dai quattro elementi primi e immutabili che
compongono il mondo, ammise che l’interno dell’occhio è fatto di fuoco e di acqua
mentre l’ambiente esterno è costituito di terra e aria. La visione avviene per mezzo di
“corridoi” dell’acqua e del fuoco. Attraverso quelli del fuoco si riconosce il bianco,
attraverso quelli dell’acqua si riconosce il nero. I corridoi dell’acqua e del fuoco sono
intrecciati e i vari colori si formano dalla mescolanza dei due elementi e quindi dalla
mescolanza di bianco e di nero. Come gli elementi anche i colori sono quattro: bianco,
nero, rosso, giallo. Empedocle raggiunge una buona visione di quello che sarebbe il
punto di vista scientifico e separa nettamente il piano della rivelazione religiosa da
quello della scienza. Il primo si fonda sulla rivelazione, riservata ai soli iniziati, di verità
arcane trascendenti la possibilità di comprensione dei comuni mortali; il secondo,
invece, sulle testimonianze dei sensi. Date queste premesse, la teoria empedoclea si
presenta come un tentativo di spiegazione sistematica dei fenomeni sensibili, qualcosa
come un’ipotesi, nel senso che la parola acquisterà nella scienza moderna.
Il sistema cosmico costruito da Empedocle, una delle più affascinanti ipotesi
scientifiche mai elaborate, fu rifiutato dal miglior pensiero filosofico-scientifico del V
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 56!

secolo (vedi Anassagora), che vedeva nel dogmatismo dell’esperienza, nel rifiuto di
ogni strumento razionale di tipo logico-metodologico il più mortale pericolo per un
libero progresso della ricerca. Eppure, tale sistema apparve a lungo come l’unico che
potesse garantire una sicura base speculativa alle scienza nascenti, dalla biologia alla
fisica, l’unico che ne assicurasse l’universalità. Così all’inizio del IV secolo la dottrina
dei quattro elementi, la concezione organicistica dell’universo (che presto significò
anche visione finalistica), il prevalere della qualità sulla quantità, finirono per trionfare
e passarono in gran parte al platonismo e all’aristotelismo. Tramite questi canali, e sia
pure con aggiustamenti progressivi, tali vedute percorsero un lunghissimo cammino,
fino ad affacciarsi al rinascimento e alle soglie dell’età moderna. Qui tornarono a
scontrarsi con il meccanicismo di tipo democriteo, e risultarono questa volta
soccombenti senza però lasciar del tutto il passo.
Meno grandiosa, meno poetica, ma assai più chiara, è invece la concezione del
mondo di Anassagora di Clazomene (500/497 a.C.-428 a.C.). Al contrario di quanto
abbiamo visto per Empedocle, non v’è da attendersi in Anassagora un approccio
globale alla realtà né un sistema esaustivo di essa. Al contrario, sono proprio la
semplicità del suo modo di porsi di fronte al mondo, il suo rifiuto di imboccare la via
che più direttamente lo conducesse al segreto della spiegazione e dell’unificazione
universale, ad assegnargli un ruolo decisamente innovatore nel pensiero greco del V
secolo. Occorreva lucidità filosofica per dichiarare mal posto il problema della
semplificazione della realtà in pochi elementi o principi primordiali, per rifiutare la
riduzione del molteplice all’uno e la deduzione del molteplice dall’uno.
Anche per Anassagora i corpi sono costituiti di particelle eterne (dette semi),
invisibili, immutabili, senza parti né moto interni; solo che, invece di quattro, le radici
(che da Anassagora pare che fossero chiamate «omeomerie») sono in numero indefinito,
tante quante sono le materie, come ossa, legno, ferro, eccetera, che sminuzzate il più
possibile non mostrano di mutare di qualità (le particelle anassagoriane, dunque,
piuttosto che gli atomi della chimica moderna richiamerebbero le molecole: omeomerie
sarebbero, in termini di oggi, tanto elementi quanto composti). Queste radici od
omeomerie si possono mescolare: anzi, normalmente, ogni corpo è un miscuglio, ma
prende il nome dalla sostanza predominante. Anche qui, nascita, morte, trasformazione
dei corpi, e fenomeni di tutti i generi hanno origine dall'unirsi, in aggregati e miscugli
vari, e dal liberarsi delle particelle.
Quindi, la prima caratteristica dei semi od omemeorie è la loro infinita
divisibilità; la seconda caratteristica è la loro infinita aggregabilità. In altri termini, non
si può, secondo Anassagora, giungere con la divisione dei semi a elementi indivisibili,
come non si può giungere con l’aggregazione dei semi a un tutto massimo, di cui non
sia possibile il maggiore. Il piccolo è, in un certo senso, grande quanto il grande, la parte
è uguale al tutto, e questo paradosso che la logica moderna pone alla base della teoria
dell’infinito, si trova in Anassagora a fondamento della teoria della materia: “Non c’è un
grado minimo del piccolo ma c’è sempre un grado minore, essendo impossibile che ciò
che è, cessi di essere per divisione. Ma anche del grande c’è sempre un più grande. Ed il
grande è uguale al piccolo in composizione. Considerata in se stessa, ogni cosa è insieme
piccola e grande”. Come si vede, quella infinita divisibilità che Zenone assumeva per
negare la realtà delle cose, viene assunta da Anassagora come la caratteristica stessa
della realtà. L’importanza matematica di questo concetto è evidente. Da un lato, la
nozione che si possa raggiungere sempre, per divisione una quantità più piccola di ogni
57! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

quantità data, è il concetto fondamentale del calcolo infinitesimale. Dall’altro lato, che
ogni cosa possa essere detta grande o piccola a seconda del processo di divisione o di
composizione in cui viene coinvolta, è un’affermazione che implica la relatività dei
concetti di grande e piccolo. Poiché non si giunge mai ad un elemento ultimo e
indivisibile, non si giunge mai neppure a un elemento semplice, cioè a un elemento
qualitativamente omogeneo che sia, per esempio, soltanto acqua o aria: in ogni cosa vi
sono semi di ogni cosa e la natura di una cosa è determinata dai semi che prevalgono in
essa. Appare oro quella nella quale prevalgono le particelle di oro, sebbene ci siano in
essa particelle di tutte le altre sostanze. Rispetto all’antica ricerca dell’archè questa teoria
segna un affinamento, per cui alla considerazione della materia si aggiunge quella dello
spazio e della sua infinita divisibilità, secondo una concezione che, in qualche modo,
prelude all’atomismo.
L'effettivo progresso sta nel modo in cui viene concepita la causa di questo moto
dei corpuscoli, riportato non più a cause mitiche, ma a precise forze meccaniche: la
forza centripeta e centrifuga che si sviluppano dal moto rotatorio di cui è animato il
Tutto. Infatti, l’idea fondamentale di Anassagora nel suo modello cosmogonico è quella
del vortice, della conseguente presenza di forze opposte, che oggi chiamiamo centrifuga
e centripeta, che separano qualità opposte, come il denso e il rarefatto. La stessa discesa
dei corpi pesanti verso il centro del vortice, cioè dell’universo, viene connessa alle
azioni centripete e centrifughe che, anche se in forma rudimentale, prelude al tentativo
compiuto da Huygens per spiegare la gravitazione. L’idea del vortice, come abbiamo
già visto, era stata avanzata da Anassimandro e Anassimene, ma per i due milesi il
problema di una causa generale del moto vorticoso dell’universo non esisteva, e il moto
appariva come un attributo naturale, inerente alla sostanza primitiva. Anassagora
invece solleva lo spinoso problema dell’origine del vortice primitivo, ma non può
risolverlo, naturalmente, e ricorre all’ipotesi dell’azione di un intelletto (nous): “ … E
tutto quanto un tal moto domina l’intelletto (nous), e ad esso diede principio. E da
prima cominciò questo moto vorticoso dal piccolo, ma lo estende via via maggiormente,
e lo estenderà sempre più … E si separa il denso dal raro, e dal freddo il caldo, e
dall’oscuro il luminoso, e dall’umido il secco … Il denso e l’umido, il freddo e l’oscuro si
riunirono dov’è ora la terra, mentre il raro, il caldo, il secco si portarono verso la
regione esterna dell’etere … Così le cose si muovono e si separano per la forza e per la
rapidità. La rapidità loro non somiglia alla rapidità di alcuna delle cose che sono ora
fra gli uomini, ma è molte volte più veloce”.
Il nous, l’intelligenza, è un principio che svolge essenzialmente tre funzioni:
ordinamento, comprensione e controllo della realtà. Ma la sua caratteristica innovatrice
sta nella sua separazione dalla realtà: “Le altre cose partecipano delle parti di tutto,
l’intelligenza invece è illimitata e libera delle proprie leggi e a nessuna cosa è commista,
ma sola essa in sé si costituisce. Se non fosse costituita in sé, ma commista ad altro,
parteciperebbe di tutte le cose, a qualsiasi fosse commista … e le cose commiste le
impedirebbero di prevalere su tutte le cose come fa invece sola essendo in sé costituita.
È infatti la più sottile e la più pura di tutte le cose, e ha intera conoscenza di tutto e
potenza grandissima: e tutto quanto ha un’anima, e il maggiore e il minore, tutto
domina l’intelligenza”.
Va detto che questo nous così separato non crea il mondo e non ha senso al di
fuori del suo rapporto con il mondo; quello che Anassagora scopre è la necessità di
un’alterità rispetto al mondo perché il mondo stesso possa essere compreso e
controllato. Anassagora, invocando l’intervento del nous all’origine della sua ipotesi
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 58!

fisica, come punto d’inizio del vortice, e poiché tale vortice dava luogo al processo
rettilineo di separazione e individuazione delle cose del mondo, ecco che il nous
significava anche facoltà analitica e discriminante del conoscere; e il progressivo
ordinamento del mondo in un cosmo, operato dal nous, significava anche ricostruzione
di un mondo via via più trasparente nelle sue leggi e nei suoi significati. In definitiva, il
dominio del nous sul mondo significava capacità di trasformazione fondata sulla
comprensione di fysis.
Platone ed Aristotele videro immediatamente nel nous la causa efficiente della
realtà, e rimproverarono ad Anassagora di non averne saputo fare anche la causa finale,
pur riconoscendogli il merito di aver per primo introdotto nel mondo un principio
immateriale. Al di là delle critiche, il merito di Anassagora sta invece nell’aver fatto del
nous il principio di spiegazione delle leggi della realtà e non legge esso stesso. Sebbene
l’idea di una intelligenza che ordina e domina i fenomeni naturali fosse presente nelle
religioni, si può dire che ora per la prima volta un principio mentale occupa un posto
definito in un sistema scientifico, e questa è una svolta importante, giacché tale
principio tenderà ad assumere proporzioni sempre maggiori specialmente per i filosofi
interpreti della scienza, da Platone ad Aristotele, durante tutto il medioevo e fino ai
metafisici dell’Ottocento.
Naturalmente non vi è contraddizione fra Anassagora filosofo del nous e
Anassagora fisico. Avendo assegnato a fysis ed alle scienze i ruoli che rispettivamente
competevano loro, poteva egli stesso dedicarsi all’indagine scientifica senza incorrere in
trasposizioni indebite. Così egli riprendeva dalla tradizione ionica la legge fisica di
condensazione e rarefazione che gli serviva a spiegare un gran numero di fenomeni;
così, contro quella stessa tradizione, tentò di dimostrare la non esistenza del vuoto e che
l’aria è un corpo fisico come gli altri, ricorrendo all’esperienza della brocca di
Empedocle, osservando che gli otri riempiti di aria offrono resistenza alla pressione; alla
stessa maniera non esitava ad asserire la natura fisica dgli astri e le leggi meccaniche che
presiedevano al loro moto.
Un esempio della mentalità scientifica di Anassagora è riportato da Plutarco:
“Una enorme pietra cadde dal cielo su Egospotami; mentre gli abitanti del Chersonesco
presero a venerarla, si dice che Anassagora sostenne che questa pietra proveniva da
uno dei corpi celesti sui quali si era verificata una frana o un terremoto, così che
questa pietra era stata divelta ed era precipitata su di noi”. Altri notevoli concetti di
Anassagora circolavano probabilmente da tempo negli ambienti filosofici della Ionia
come il principio di conservazione della materia: nulla si crea e nulla si distrugge che noi
riteniamo del tutto moderno ma che egli esprime già con tanta concisione: “Niente
nasce e niente perisce … E così rettamente si dovrebbe dire il nascere riunirsi, e il
perire separarsi. Il tutto non è mai né in minor quantità, né in maggiore, chè non è
possibile ci sia più del tutto; ma è sempre uguale”.
È importante notare che in tutte queste ricerche le vedute filosofiche di
Anassagora fungono da ipotesi generali, arricchite via via dai portati dell’indagine
empirica e dell’esperienza accumulata dalle scienze speciali. Ma il nous in se stesso non
è mai oggetto della ricerca, né come causa né come sostanza, giacchè veniva
immediatamente inteso come garanzia della possibilità della ricerca, e poi articolato
come metodo della ricerca stessa. In nome di questa concezione prettamente meccanica
della natura, Anassagora inizia quella metodica demolizione delle superstizioni
religiose che poi verrà proseguita dai sofisti e, forse, da Socrate: prodigi, segni celesti e
simili, vengono ricondotti a fenomeni fisici prodotti da un concorso eccezionale di cause
59! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

naturali. Quando Socrate verrà accusato di aver negato la divinità dei corpi celesti,
affermando che erano cose materiali e naturali (pietre arroventate o qualcosa del
genere), potrà rispondere ironicamente al suo accusatore: “Par che accusi Anassagora”.
Quelle dottrine erano ormai luogo comune in Atene. Sotto molti aspetti Anassagora
appare come un pensatore profondo, quasi moderno in certe sue concezioni; infatti il
suo discepolo Euripide dice: “Beato l’uomo che ha conquistato la sapienza nata dallo
studio della natura; non reca male ad alcuno, azioni ingiuste non compie, ma esamina
l’ordine immutabile della immortale natura, studia di che cosa è composta, come e
perché. Non vi è posto nel suo cuore per azioni ingiuste.”
La crisi metodologica delle scienze a partire dal tardo platonismo, il rifluire
dell’eredità pitagorica ed empedoclea, un nous che non aveva la consistenza né della
cosa né dell’idea, che non giustificava il mondo né a priori, come creatore, né a
posteriori, come causa finale, il fatto che il metodo deduttivo pareva alle stesse scienze
fisiche infinitamente più solido delle indicazioni ipotetiche e di metodo formulate dal
maestro di Clazomene, e, non ultimo, la consolidata identificazione fra stato e religione
mal tollerava lo spregiudicato empirismo del filosofo del nous,, fecero sì che la figura di
Anassagora si eclissasse piano piano.

Fra le più antiche idee filosofiche che hanno cercato di dare una risposta alla
domanda riguardante gli elementi fondamentali della materia, la teoria atomistica è
certamente la più importante poiché, pur essendo priva di una base empirica al pari
delle teorie antagoniste del tempo, con la sua geniale intuizione della discontinuità della
materia rappresenta una sorprendente prefigurazione dei futuri sviluppi della fisica
moderna. Gli atomisti, rispetto alle idee di Empedocle ed Anassagora, propongono una
nuova soluzione: la materia non ha qualità, è omogenea, impenetrabile, indistruttibile e
discontinua, cioè formata da parti non più divisibili dette atomi (dal greco non
divisibili), di forma e grandezza diverse, separate dal vuoto assoluto. Mentre,
concordano con il principio fondamentale dell’eleatismo che solo l’essere è; ma
intendono riportare questo principio all’esperienza sensibile e servirsi di esso per
spiegare i fenomeni. Così intendono l’essere come il pieno, il non essere come il vuoto e
ritengono che il pieno e il vuoto sono i principi costitutivi di ogni cosa. Ma il pieno non
è un tutto compatto, ma è formato da un numero infinito di elementi indivisibili.
L’atomismo rappresenta la riduzione naturalistica dell’eleatismo. Dell’eleatismo
ha fatto propria la proposizione fondamentale: l’essere è necessario; ma ha inteso tale
proposizione nel senso della determinazione causale. Parmenide esprimeva
poeticamente il senso della necessità ricorrendo, per esempio, al fato. L’atomismo
identifica la necessità con l’azione delle cause naturali. Dall’eleatismo, l’atomismo
desume anche l’antitesi tra realtà e apparenza; ma quest’antitesi stessa viene portata sul
piano della natura e la realtà di cui si parla è quella degli elementi indivisibili della
natura stessa. Il risultato di queste trasformazioni, che va al di là delle intenzioni degli
stessi atomisti, è l’avviamento della ricerca naturalistica a costituirsi come disciplina a
sé e a distinguersi dalla ricerca filosofica come tale. La costituzione di una scienza della
natura a disciplina particolare, quale appare in Aristotele, è preparata dall’opera degli
atomisti, che hanno ridotto la natura a pura oggettività meccanica, con
l’esclusione di qualsiasi elemento mitico o antropomorfo.

Il più noto rappresentante della scuola atomistica fu Democrito


(460 a.C.–360 a.C.), che sulla scia di Parmenide ed Eraclito, ritiene che il
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 5:!

filosofo debba cercare di raggiungere la realtà autentica delle cose, conscio che la verità
dimora nel profondo della natura. In Democrito esperienza e ragione si trovano in un
rapporto di reciproca continuità e implicanza, infatti, la conoscenza parte dalla
constatazione delle cose attraverso i sensi, si sviluppa mediante un’autonoma
elaborazione intellettuale e logica dei dati, infine, si perviene ad una teoria in grado di
spiegare ciò che i sensi si limitano a mostrare. Questo non significa che in Democrito vi
sia già lo schema metodologico della scienza moderna. Come in tutti i Greci, anche negli
atomisti il momento puramente razionale della ricerca sopravanza il momento
sperimentale, in quanto in essi manca la nozione galileiana di esperimento e di verifica.
Con gli atomisti abbiamo una sorta di “fisicizzazione” del binomio di essere e non-
essere, in quanto essi identificano l’essere con il pieno e il non-essere con il vuoto. Il
pieno è la materia, il vuoto è lo spazio in cui essa si muove.
Sviluppando un motivo già introdotto da Leucippo (V sec a.C.), Democrito cercò
il fondamento materiale del cosmo in un indefinito numero di atomi invece che in un
finito numero di elementi. Anche se molto originale, la teoria atomistica di Democrito
può dirsi frutto maturo tanto della filosofia ionica, nelle omeomerie di Anassagora,
come quella italica, nella dottrina pitagorica delle monadi.
Ma come si è giunti all’idea di atomo? Non certo su base sperimentale in senso
moderno, essendo gli atomisti privi di strumenti scientifici appropriati. Il loro concetto è
il frutto di una deduzione razionale, che discende da una riflessione sulla problematica
della divisibilità sollevata da Zenone. Contro tale affermazione gli atomisti sostengono
che la divisibilità vale solo in campo logico-matematico, ma non in quello reale, in
quanto non è assolutamente possibile pensare di dividere all’infinito la realtà materiale
manifestata dai sensi, perché altrimenti, la realtà si dissolverebbe nel nulla e quindi
dalla materia si passerebbe alla non-materia. Ma se al fondo della natura vi fosse il
nulla, non si capirebbe come dal nulla possa derivare la realtà concreta e materiale dei
corpi. Di conseguenza, secondo Democrito, se si vuole spiegare razionalmente ciò che
appare, bisogna teorizzare l’esistenza di costituenti ultimi della materia, ossia particelle
indivisibili che rappresentano l'ultimo limite dove si arresta ogni possibile divisione dei
corpi materiali. Pertanto, la genesi della materia va ricercata in questi enti primordiali
eterni, immutabili e indistruttibili. Però va chiarito che, secondo Democrito, l’atomo non
è tale per la sua piccolezza, ma proprio per la sua indivisibilità. Infatti, Democrito
riteneva che esistessero anche alcuni atomi grandissimi, anzi “un atomo grande come
un mondo “. Nulla vieta di pensare, per via geometrica, ad una infinita divisibilità,
come facevano Anassagora e Zenone, ma l’atomo è tale propter soliditatem, come diceva
Cicerone, cioè per la sua indivisibilità fisica. Il numero delle forme atomiche può essere
infinito, “perché non v’è ragione che un atomo abbia una forma piuttosto che un’altra”.
Forme diverse potrebbero render conto di varie proprietà chimiche o fisiche.
Gli atomi di Democrito sono anche qualcosa di nuovo rispetto ai punti-unità di
Pitagora; questi punti-unità erano infatti dei puri concetti geometrici, mentre gli atomi
sono delle nozioni fisiche. E fisico è pure il concetto dello spazio in cui Democrito li
considera immersi: esso è il vuoto, cioè il non-essere di Parmenide, interpretato non più
come la negazione metafisica di ogni essere, ma come la “mancanza di atomi”, la
mancanza cioè di materia. Ma cosa significa che l’atomo è una nozione fisica? Non
ovviamente che l’atomo fosse percepibile dai sensi, perché Democrito affermava che gli
oggetti da noi percepiti sono aggregati di atomi; e nemmeno che l’atomo fosse
raggiungibile con strumenti fisici, dato che la nozione di “strumento fisico”, capace di
6<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

accrescere la potenza dei nostri sensi, mancava quasi completamente ai greci del V
secolo. Per dare un senso alla fisicità degli atomi democritei, non resta che un unico
mezzo, inquadrarla nella generale esigenza razionalistica del nostro pensatore.
L’osservazione ci fornisce sempre oggetti che possono essere suddivisi. Su questa base
empirica, la ragione può compiere due postulazioni: o affermare che la divisibilità è
proseguibile all’infinito, o affermare che incontra un limite. Le due postulazioni sono
entrambe ragionevoli, tanto è vero che Democrito stesso non teme di far ricorso alla
prima nelle sue indagini puramente matematiche. La prima, però, ci conduce a
concepire l’essere come somma di infiniti zeri, e quindi fa assurdamente scomparire
l’insuperabile barriera che nella realtà divide l’essere dal non-essere. Per evitare questa
gravissima conclusione, questa illusoria riduzione dell’essere al non-essere, la ragione
non ha che una via: respingere la prima postulazione e accogliere la seconda. L’atomo è
il frutto di questa postulazione, e come tale è garantito da un complesso di argomenti
rigorosamente razionali.
Per Democrito vi erano, dunque, due realtà: gli atomi ed il vuoto. Gli atomi sono
insecabili a causa della loro durezza, non della piccolezza, formati tutti di eguale
sostanza, e variano per la forma e le dimensioni e, nel raggrupparsi, per l’ordine. In che
modo gli aggregati di atomi producono in noi le percezioni sensibili? Sulla base di
ipotesi già espresse da Empedocle, ogni percezione è dovuta a contatto. Per esempio, la
percezione di un corpo con la vista è dovuta ad un effluvio di atomi che partono da quel
corpo e giungono agli occhi; ciò che esiste è soltanto questo urto; il colore non è che un
effetto secondario dell’urto sull’organo sensoriale. In altri termini la forma e la
grandezza degli atomi esistono per natura, per cui il peso e la durezza sono qualità reali
dei corpi, cioè oggettive; le qualità sensibili della nostra esperienza (caldo, freddo,
colore, suono, ecc.) sono soggettive, affezioni dell’individuo che le avverte e dipendono
dalla forma degli atomi che in ciascun corpo prevalgono. In particolare la percezione
dei suoni, grazie alla nuova concezione dell’aria “composta di particelle minute” che
sorge con Democrito, veniva interpretata come vibrazioni dell’aria interposta fra la
sorgente sonora e l’orecchio. Nonostante le loro benemerenze nel campo dell’acustica, i
pitagorici non erano giunti a quella teoria della propagazione del suono, a cui
Democrito perviene in base alla sua concezione atomica dell’aria, secondo una
autorevole testimonianza (Ezio, Frammenti): “Democrito dice che l’aria è costituita da
particelle di forme simili, e viene messa in movimento ondulatorio assieme ai
frammenti di aria che provengono dalla voce”. Democrito spiegava il vario peso
macroscopico dei corpi con la diversa mescolanza in essi di atomi e di vuoto, e, pare,
attraverso una difficile interpretazione di qualche frammento scritto che ci è pervenuto,
che intervenisse nella spiegazione anche il diverso peso degli atomi costituenti i corpi.
La diversa durezza era spiegata con la diversa distribuzione degli atomi, per cui nel
linguaggio moderno, diremmo che la durezza era una proprietà collegata con la
struttura reticolare dei corpi. L’esistenza del vuoto, quell’assoluto non essere che
Parmenide aveva dichiarato impensabile, diventa elemento necessario in questa visione
e descrizione del mondo, altrimenti gli elementi della materia non potrebbero
distinguersi l'uno dall'altro e formerebbero un tutto unico e continuo: "... non esistono
che gli atomi e lo spazio vuoto: tutto il resto è opinione".
Nel concetto di Leucippo e Democrito, l’ipotesi atomica è necessaria per spiegare
non soltanto le proprietà fondamentali della materia, ma anche per fornire una teoria
cinetica del mondo e del suo divenire: il processo cosmico è originato dal moto degli
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 6;!

atomi nel vuoto e dai loro urti. E in tale sistema cinetico tutto dipende da ragioni
meccaniche, per cui il mondo è regolato dal più rigido determinismo.
Democrito, tenendo salda la geniale intuizione di Anassimandro, per cui l’alto e
il basso hanno un significato relativo, rispetto alla Terra, pensa al vuoto come ad uno
spazio geometrico, piuttosto che fisico, senza alto, né basso, né centro, in cui gli atomi
sono dotati di movimento casuale ed eterno, ma, nonostante questo, il simile cerca il
simile, così alcune combinazioni sono favorite rispetto ad altre. Ogni corpo, più o meno
stabile e durevole, si origina e si disgrega a causa dell'aggregazione e della separazione
delle particelle in collisione. Nella disgregazione, poi, nulla va perduto degli elementi
reali (atomi) che compongono la materia. Una porzione, sia pur piccola, di spazio vuoto
separa sempre due atomi distinti, anche allorchè sembrano inscindibilmente legati in un
corpo solido. La rottura di tale corpo in due parti non è altro che l’accrescimento dello
spazio vuoto interposto fra gli atomi che compongono le due parti. Il movimento degli
atomi provoca inoltre le sensazioni fisiologiche: per esempio, la visione è provocata da
particolari specie atomiche, dette "immagini", che uscendo dagli oggetti, dove esiste
luce, passano attraverso l'organo della vista fino a interagire con gli atomi ignei
dell'anima.
Gli atomisti riescono a superare la critica relativistica di Parmenide e Zenone
definendo il moto in sé come moto “rispetto al luogo”. Aristotele nella Metafisica ci parla
di questo movimento degli atomi rispetto al vuoto, affermando che gli atomisti hanno
postulato che il vuoto ha una realtà al pari del pieno: “Leucippo e il suo seguace
Democrito dicono essere elementi il pieno e il vuoto, dicendo l’uno l’essere, l’altro non-
essere (dunque in polemica con Parmenide): il pieno e solido chiamano essere, il vuoto e
inconsistente chiamano non essere; perciò dicono anche che il non-essere è altrettanto
reale quanto l’essere, perché il vuoto non è meno reale del corpo”. Questa è un’idea che
richiama lo spazio assoluto di Newton, le susseguenti concezioni di un etere che lo
riempie, infine l’attuale concetto di spazio o campo metrico, come realtà fisica. Ma come
è possibile spiegare il movimento degli atomi? A questo scopo Democrito non ritiene di
dover ricorrere a qualche causa o principio esterno agli atomi stessi, come era per
esempio il nous di Anassagora. Preferisce concepire il movimento come uno status
naturale degli atomi, status che non necessita di spiegazioni ma serve invece a spiegare
la formazione degli aggregati di atomi, cioè dei corpi, e le loro proprietà. Questo moto
naturale degli atomi implica una prima veduta del principio di d’inerzia, che sarà
formulato da Galileo nel XVII secolo (questo principio afferma, infatti, che il moto
rettilineo uniforme non richiede la presenza di alcuna causa che lo provochi; solo dove
si ha accelerazione deve esserci una causa che la produce). Aristotele, incapace di
accogliere questa concezione vi ripugna, ma proprio lui nella Metafisica mostra
chiaramente il pensiero di Democrito: “In quanto al moto, donde e come si trovi negli
enti, anche costoro, non molto diversamente dagli altri, con leggerezza tralasciarono di
indagare”. E ancora nella Fisica: “Inoltre (nel caso del vuoto) non vi sarebbe ragione
perché un corpo in movimento debba fermarsi piuttosto qui che lì. Perciò o resterà
immobile o si muoverà all’infinito, a meno che non sia impedito da un ostacolo più
forte”. Questa sembra ad Aristotele una confutazione indiscutibile basata sul principio
di ragion sufficiente (se un corpo si muove nel vuoto di moto uniforme, sia pure per un
tempo brevissimo, per quale ragione non dovrà poi continuare all’infinito a muoversi
così?). E invece non è altro che il principio d’inerzia: egli lo ha sotto gli occhi, ma non
riesce ad afferrarne la verità.
Il caotico movimento degli atomi, simile al moto del pulviscolo atmosferico,
6=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

origina "gli infiniti mondi e tutte le cose", differenziate dalla qualità, tipo, forma e
dimensione, e dalla quantità delle particelle materiali, che popolano lo spazio vuoto;
pertanto Democrito ritiene che vi siano infiniti mondi che perpetuamente nascono e
muoiono, intuizione grandiosa, ripresa poi da Giordano Bruno. Esisteranno mondi
senz’acqua, oppure mondi con più soli o con più lune, ma anche mondi analoghi al
nostro. Anche l’universo, preso nella sua totalità, risulta spazialmente infinito, poiché
non è pensabile un limite oltre il quale non si possa procedere. Eterna come il
movimento è pure la sostanza complessiva dell’universo, che non può né aumentare né
diminuire, perché implicherebbe una creazione dal nulla o una dissoluzione nel nulla,
per cui gli atomisti fanno proprio il postulato di origine eleatica secondo cui nulla viene
dal nulla e nulla torna al nulla.
Che non vi siano cause finali, ma solo una pura necessità meccanica che governa
i fenomeni naturali, è una filosofia che Aristotele non cessa di rimproverare a
Democrito, e che sembrerà irrazionale per secoli, finché non diverrà criterio metodico
fondamentale della scienza moderna. Comunque è chiaro che Democrito tendeva a
sopprimere le cause finali, e perciò le spiegazioni teleologiche, in ogni campo. Alla
domanda “perché”? egli pensava che si dovesse rispondere non specificando a quale
scopo accade un certo fatto, ma piuttosto “come” accade, ossia quali sono le cause
meccaniche che lo hanno prodotto. Gli atomi in moto sono, secondo la teoria
democritea, la totalità della natura pensabile, per cui, non solo non è necessario chiarire
la causa di tale moto, come pretendeva Aristotele, ma, dal punto di vista della pura
logica, è assurdo richiederla, ed è ciò che voleva dire Democrito quando asseriva che
“non si dà principio (cioè causa) dell’eterno e dell’infinito”. In virtù di questo insieme
intercollegato di teorie, l’atomismo rappresenta a tutti gli effetti una filosofia
materialistica, in quanto la materia, insieme al vuoto, costituisce l’unica sostanza e
l’unica causa delle cose. Ritenendo che le uniche realtà del mondo siano la materia, il
movimento e le loro leggi, gli atomisti sono i primi a voler interpretare la natura con la
sola natura, contrapponendo la necessità meccanica alla volontà degli dèi, per cui parte
integrante di tale materialismo è il meccanicismo, per il quale tutto ciò che avviene
nell’universo presuppone un sistema ben preciso di cause che lo abbia prodotto
(casualismo). Un noto frammento di Leucippo recita: “nulla si produce senza ragione,
ma tutto avviene per un motivo ed in forza della necessità”.
Tuttavia, poiché alla base del mondo non esiste nessuna forza intelligente e
ordinatrice e nessun progetto, l’universo degli atomisti può dare l’impressione di essere
sospeso al caso. Democrito stesso, affermando che tutto ciò che esiste è frutto del caso e
della necessità, intende dire, molto probabilmente, che il cosmo, pur essendo il frutto di
cause naturali ben precise, opera al di fuori di ogni programmazione o
predeterminazione qualsiasi. Attesta Simplicio: “Secondo Leucippo, Democrito ed
Epicuro il mondo non è animato, né retto dalla provvidenza, ma è composto di atomi di
una natura priva di ragione”. Da questa panoramica visione del mondo di Democrito
si nota la tendenza a unificare nella logica degli atomi ogni conoscenza (unità del
sapere). Dai fenomeni naturali a quelli biologici, dall'astronomia all'etica tutto deriva
dagli atomi. Forse, proprio questa teorizzazione riduzionistica rappresenta il motivo
principale della forte opposizione contro le idee atomistiche. Per diversi secoli infatti la
teoria di Democrito fu incessantemente contestata non solo dalle scuole filosofiche
antagoniste (a cominciare dai platonici che la tradizione vuole abbiano fatto bruciare le
opere di Democrito), ma anche da molti maestri delle singole discipline scientifiche,
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 64!

gelosi della specificità delle proprie ricerche e intolleranti che da un'unica matrice
potesse nascere ogni conoscenza.

Nel XX secolo, cessata ogni forma di acritica esaltazione e di faziosa


denigrazione, l’atomismo ha assunto una rilevanza oggettiva attestata da Bertrand
Russel che scrive: “Il mondo degli atomisti rimane logicamente possibile ed è più vicino
al mondo reale di quanto non lo sia il mondo di ogni altro filosofo antico” e da Ludovico
Geymonat che afferma: “L’atomismo costituisce il patrimonio più prezioso che i Greci
trasmisero nel campo delle interpretazioni generali della natura, alle epoche successive,
ed ebbe una funzione determinante, nel XVI e XVII secolo, per la formazione della
scienza moderna”.

2.8 Platone ed Aristotele

Nel momento in cui fiorivano nelle città greche le forme più libere di governi
popolari, la scienza non poteva conservare quel carattere aristocratico che aveva avuto
nei primi secoli della civiltà ellenica. Non basta più che il filosofo comunichi a una
piccola schiera di discepoli i risultati delle proprie investigazioni sulla natura delle cose.
Il popolo, sempre di più coinvolto nella vita pubblica delle proprie città, vuole attingere
anche alle fonti del sapere. E la scienza diventa una potenza sociale, un momento
decisivo della politica. Ecco, quindi, che lo sviluppo di una forma di governo
democratica attrasse ad Atene, nella prima metà del quinto secolo, un buon numero di
matematici, molti dei quali erano ex membri della setta pitagorica, ora dispersa. Essi
furono chiamati “sofisti” (ossia dotti o professori) poiché insegnavano ai propri allievi,
dietro pagamento, come argomentare per affermarsi in un dibattito, usando gli
argomenti logici della matematica. Ora, se i sofisti erano maestri e divulgatori di
scienza, non è da aspettarsi di trovare in essi una filosofia o una dottrina uniforme; le
più svariate idee potevano esprimersi nella loro propaganda intellettuale. Comunque,
nel primo periodo, i sofisti più rappresentativi sono filosofi empiristi, antagonisti del
razionalismo parmenideo.

Per uomini come Protagora (ca. 485-411 a.C.), Gorgia (ca. 485-376) e Prodico (ca.
460-380 a.C.), i maggiori esponenti della prima sofistica, la logica è una premessa, se
non un indirizzo, necessaria per la formazione di un linguaggio filosofico e scientifico
esatto, quale apparirà poi in Platone ed Aristotele. Per i sofisti ad ogni logos si
contrappone un logos, e questi due logoi sono ben più che un semplice esercizio
didattico, ma rappresentano la base dell’esame, dell’analisi di ogni situazione reale, lo
spirito del ragionare che è sempre un dialogare, un perseguire, attraverso il discorso,
non già il vero (non esiste un vero dato oggettivamente una volta per tutte), ma ciò che
risulterà più alto, migliore, entro l’ambito di una ricerca sempre perfettibile. Forse
impressionato dalla mutevolezza delle prospettive scientifiche del secolo precedente,
Protagora, ponendo l’uomo al centro del proprio universo che fa dell’uomo “la misura
di tutte le cose”, si professa “relativista”, per cui concepisce la verità come una forma di
conoscenza sempre e comunque relativa al soggetto che la produce e al suo rapporto
con l'esperienza. Non esiste un'unica verità, poiché essa si frantuma in una miriade di
opinioni soggettive, le quali, proprio in quanto relative, finiscono per essere considerate
comunque valide ed equivalenti. Questo relativismo investe tutti gli ambiti della
65! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

conoscenza, dall'etica alla politica, dalla religione alle scienze della natura. Questa
posizione filosofica ha un riscontro nel pensiero moderno, in particolare nella posizione
di Berkeley. Infatti la formula berkeleyana esse est percipi, si riduce in ultima analisi al
concetto protagoreo dell’homo mensura.
Molti hanno avvicinato i sofisti ai positivisti ed empiristi del XIX secolo, e i
moderni positivisti logici, al grido di “viva i fatti e abbasso la metafisica”, hanno
combattuto la stessa battaglia: la verità metafisica che pretende di superare e
contraddire il giudizio dei sensi.

La critica dei sofisti si esercitava anche nei confronti delle credenze morali e
religiose e sugli istituti tradizionali della società greca. La discriminazione tradizionale
fra “natura” e “apparenza” delle cose, trasferita dall’ordine fisico all’ordine sociale,
acquista un nuovo significato, cui risponde una nuova antitesi: “per natura” e “per
convenzione”. Agli occhi dei custodi della morale e della fede, o dei conservatori in
genere, siffatte critiche minacciano di dissolvere ogni autorità e quindi la vita dell’intera
società. Il turbamento morale portato dalla critica sofistica doveva suscitare la reazione
più forte e decisiva nei centri tradizionalistici e conservatori di Atene, dove la scienza
demolitrice era stata diffusa con l’educazione della gioventù nelle pubbliche
discussioni. La divulgazione della scienza e della critica provocava la seguente reazione:
l’indirizzo della filosofia veniva piegato verso i bisogni spirituali e morali del popolo.
Socrate (469 a.C.–399 a.C.) esprime questa reazione, ed è uno degli ateniesi più
avversi ai sofisti, anche se con essi condivideva l’abilità nella discussione. Egli si
interessò dei problemi relativi alle argomentazioni, ma più nel tentativo di scoprire
come trovare se la conclusione di un’argomentazione sia vera, piuttosto che trovare se
sia convincente. Paradossale fondamento del pensiero socratico è il "sapere di non
sapere", un'ignoranza intesa come consapevolezza di non conoscenza definitiva, e
quindi movente fondamentale del desiderio di conoscere. Il non sapere socratico, l’idea
che la conoscenza scientifica non è episteme, sapere certo, ma doxa, sapere congetturale,
che lo scienziato è cercatore non possessore della verità, sarà la tesi del fallibilismo di
Popper.
Socrate non si interessò del mondo fisico, ma del mondo della società umana, per
cui le sue idee ebbero poco a che fare con la scienza. Lo studio della fisica non lo
interessava perché non aiutava nella comprensione dei concetti etici e di ciò che egli
credeva fosse la realtà ultima; anzi rimproverava i naturalisti di spiegare i fenomeni
“con aria, etere, acqua ed altre simili cose strane”, anziché cercare lo scopo di tutto ciò
che è o accade. Comunque Socrate era propenso a prendere in considerazione una
concezione meccanicistica della natura al fine di ricondurre a cause naturali i fenomeni
fisici, se non altro per contrastare la visione magica e superstiziosa degli avvenimenti
naturali. Si sa, però, che fu molto interessato al pensiero di Anassagora ma se ne
allontanò per la teoria del Nous (Mente) che metteva ordine nel caos primigenio degli
infiniti semi. Infatti, Socrate pensava che questo principio ordinatore dovesse essere
identificato con il sommo principio del Bene, un principio morale alla base
dell'universo, ma quando invece si accorse che per Anassagora il Nous doveva invece
rappresentare un principio fisico, una forza materiale, ne fu deluso e abbandonò la sua
dottrina. Con questo spirito teleologico, combattendo la spiegazione naturaluistica,
Socrate si contrappone, più che alla particolare filosofia sofistica, alla scienza medesima.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 66!

Platone (427 a.C.–347 a.C.), derivando molti concetti dalla tradizione


parmenidea e soprattutto da quella pitagorica, produsse una filosofia e una
cosmologia solide e coerenti, di grande influenza e importanza per la
scienza. Nella visione platonica la matematica rimane al centro della
spiegazione del mondo e del pensiero, come già era tutto è numero di
Pitagora. Con la differenza che il ruolo dell’aritmetica viene ora preso dalla geometria.
Platone codificò nel Timeo la nuova fede nella geometria del cosmo, anticipando in
particolare la visione moderna che assegna configurazioni geometriche agli elementi
chimici. E cercò, nella Repubblica e in altri dialoghi, di risolvere il problema di quale
fosse la vera natura degli enti geometrici, che, secondo Platone, costituivano l’essenza
dell’universo.
Platone, nella Lettera settima, difende con parole bellissime l’idea fondamentale
che la verità non la conosciamo, ma possiamo cercarla e anche trovarla. La verità è
celata, ma accessibile. Questo è il cuore dell’ideologia che guida la ricerca scientifica. Il
metodo è la ricerca, l’osservazione, la discussione, il dialogo: “Dopo molti sforzi, quando
nomi, definizioni, osservazioni e altri dati sensibili, sono portati in contatto e
confrontati a fondo gli uni con gli altri, nel corso di uno scrutinio e un esame cordiale
ma severo fatto da uomini che procedono per domande e risposte, e senza secondi fini,
ecco che con un improvviso lampo brilla, per qualunque problema, la comprensione, e
una chiarezza di intelligenza i cui effetti esprimono i limiti estremi del potere umano”.
Platone non approfondisce propriamente il problema della scienza stessa, come possa
fondarsi, ma ne coglie l’aspetto formale. E in questo senso il risultato della sua
riflessione reca un enorme contributo alla filsoofia scientifica.
Platone divide il cosmo in due regioni separate e distinte: il mondo dell’essere ed
il mondo del divenire. Considerava il mondo dell’essere perfetto, eterno, immutabile,
dimora di quelle che egli chiamava “idee” o “forme”. Il mondo del divenire,
l’imperfetto e mutevole mondo fisico, era composto di oscure, labili copie delle perfette
forme del mondo delle idee. La matematica gli rivela concetti netti e precisi, universali,
su cui si fondano dimostrazioni incrollabili, accettate da ogni personale razionale. La
matematica di Platone, però, è la scienza dei numeri e delle figure, intesa nella sua
purezza concettuale, non già al gruppo di regole pratiche usate nella vita quotidiana. In
altri termini la matematica va intesa come scienza pura, cioè rivolta a rigorose
considerazioni logiche operanti su concetti esattamente definiti, senza alcun appello alle
corrispondenti nozioni empiriche. Questo concetto della matematica è stato sicuramente
un contributo positivo in quanto ha portato lo studio dei numeri e delle figure ad un
livello di mirabile purezza, anche se va sottolineata la netta frattura creata fra
matematica e tecnica e l’illusione, scaturita da questa frattura, che la matematica possa
raggiungere entità assolute.
Dunque il pensiero, la ragione, ci fa cogliere le forme reali, immutabili, di una
realtà più vera che non quella sensibile, cioè le idee, oggetti reali, esistenti in sé e per sé.
La conoscenza vera è quindi conoscenza di idee pure, esistenti realmente in un mondo
celeste, superiore a quello in cui viviamo, al di là dell’esperienza sensibile. Il criterio
della verità non può essere riposto nell’apparenza, nella sensazione, come volevano gli
empiristi, ma piuttosto nella conoscenza razionale delle idee. È il celebre mito della
caverna inteso a dimostrare che, nella vita terrena, noi non sperimentiamo il vero
mondo delle idee, ma scorgiamo solo le loro ombre; non la realtà vera, ma una sua
sbiadita copia.
67! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Platone ammette anche una conoscenza sensibile che presenta due gradi: uno
inferiore (la congettura), e uno un po’ più elevato (la credenza). Ma con questo
rimaniamo sempre nell’illusorio mondo dei sensi, che è quello della “caverna” e delle
ombre. La scienza è posta al di sopra di tutto ciò, come conoscenza intellettuale. Anche
la conoscenza intellettuale ha due gradi, esattamente come quella sensibile. Il grado
inferiore è rappresentato dalla intelligenza, quello superiore dalla ragione. Questa
distinzione ha grande importanza per comprendere il concetto che Platone si faceva
della matematica: “Coloro che si occupano di geometria, di aritmetica, e di altre
discipline del genere, suppongono certe ipotesi come cose evidenti a tutti. Prendono le
mosse da tali presupposti, e procedono poi, nei loro ragionamenti, da una proposizione
all’altra, e giungono così alla dimostrazione che si propongono”.
Se la matematica deve essere qualche cosa di più che un complesso di ipotesi, noi
dobbiamo esser certi della esistenza di queste figure perfette, e questa certezza è
raggiunta solo dalla ragione, svincolata da ogni suggestione del mondo sensibile, la
quale vede queste figure, esistenti realmente in un mondo superiore, ultrasensibile: “La
geometria, e le scienze che vi si connettono, sognano, rispetto all’esistente, ma è
impossibile che lo vedano ad occhi aperti, finché debbono valersi di postulati, e tenerli
per certi, senza tuttavia poterne rendere conto”. È colta la presenza di un processo
ipotetico-deduttivo della matematica, ed è posto il problema del valore conoscitivo di
tale scienza e del suo compito di mediatrice fra il mondo dei sensi e quello della pura
ragione.
Una volta riconosciuta nella teoria delle idee l’importanza della matematica per
la sua intrinseca purezza, Platone doveva, tuttavia, negare ogni valore scientifico alla
fisica in quanto concepita come studio dei fenomeni nel loro fluire empirico, e quindi
manterrà la sua polemica e intransigenza contro tutte le ricerche compiute dai
naturalisti greci del V secolo. E va notato che tali ricerche vengono da lui combattute
proprio in ciò che, per la scienza moderna, esse hanno di più positivo, cioè nel loro
presentarsi come tentativi di spiegare il corso dei fenomeni per mezzo di cause
puramente fisiche e meccaniche. Alle ricerche meccaniche dei fisici, Platone
contrappone una spiegazione matematico-finalistica della natura, che da sola permette
di scoprire la ragione dei fenomeni in quella assoluta realtà che costituisce la loro
essenza profonda, cioè l’archetipo cui essi devono sempre più approssimarsi. Da questo
punto di vista l’antagonismo Platone-Democrito assume il carattere di un vero dramma
del pensiero umano, e su di esso si innesterà anche la fisica aristotelica, anche con
schemi diversi da quella platonica, ma con lo stesso odio contro ogni spiegazione
puramente meccanicistica.
In questa separazione, tra il mondo dei sensi e quello delle idee, sta tutta la forza
e la debolezza del platonismo visto sotto l’aspetto del pensiero scientifico. Forza, perché
proprio da esso, a partire da Leonardo e continuando con Galileo, trarrà giustificazione
il processo di idealizzazione astraente dei fisici-matematici, quel processo che consiste
nel risolvere la natura nell’azione di alcune grandi leggi descriventi non pure e semplici
estrapolazioni induttive, ma fenomeni standard, ridotti a condizioni e rapporti di ideale
esattezza matematica, rispetto a cui le misure delle verificazioni empiriche
rappresentano soltanto rozze approssimazioni. Sì che proprio dal platonismo trarrà
origine uno degli aspetti più efficienti della scienza moderna, la costruzione di
un’immagine ideale del mondo come trama e tessuto di relazioni matematiche astratte.
Ma immensa debolezza scientifica, anzi vero e proprio atteggiamento antiscientifico, in
quanto, perduto di vista, anzi deliberatamente negato, il carattere artificiale e funzionale
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 68!

di questa trama di rapporti puramente discorsivi, una volta deificato il discorso stesso,
esso diviene un preteso vero dischiuso ai soli iniziati, di fronte al quale il mondo
concreto dei fatti empirici decade a ombra e congettura, a opinione o a mito.
Vi sono aspetti della cosmologia di Platone, anche se apparentemente lontani
dalla scienza, che furono della massima importanza per lo sviluppo del pensiero
scientifico. Platone, nella sua lotta contro il materialismo e l’ateismo derivante dalla
filosofia degli ionici, vuole sostituire le divinità olimpiche, di origine troppo popolare e
ingenua e condannate dal progresso e incapaci di vivere nel nuovo clima intellettuale di
Atene, con altre divinità atte a sfidare i progressi della scienza. Naturalmente occorreva
dimostrare che i corpi celesti hanno un’anima, e un’anima divina; ma questo risultava
facile per i voli metafisici per il fondatore dell’Accademia. Poiché solo i viventi hanno
una capacità di auto-movimento, mentre la materia inanimata, in contrasto con
Democrito, non era capace di ciò ed aveva bisogno di essere mossa da qualcosa che
fosse fuori di lei. Inoltre, “la mole immensa” degli astri, unita alla regolarità dei loro
movimenti, era una prova dello loro “intelligenza”: “… ciò che agisce sempre nello stesso
modo, uniformemente e sotto l’influsso delle stessa cause, dovrebbe proprio per questo
essere considerato come dotato di intelligenza, e ciò si applica specialmente agli astri …
Che cosa potrebbe fare sì che una massa così grande (il Sole) si muova lungo la propria
orbita, nell’esatto intervallo di tempo in cui essa compie regolarmente il suo percorso?”
E ancora, in tarda vecchiaia, quando la propaganda culturale dell’Accademia
aveva ottenuto il suoi effetti, Platone poteva affermare: “Oggi accade tutto il contrario
di quando si riteneva che i corpi celesti fossero senz’anima, benché già allora si
provasse una certa meraviglia nel considerarli, e, da parte di tutti coloro che li
studiavano attentamente, si sospettasse ciò che oggi si ritiene come cosa certa, cioè il
fatto che corpi inanimati, privi di intelligenza, non potrebbero mai attenersi con tanta
esattezza a calcoli meravigliosi”.
Infine, le relazioni che le stelle hanno con la musica, cioè le conclusioni cui erano
giunti i pitagorici, sono assunte da Platone come ultime prove sicure del fatto che vi è
un’intelligenza negli astri.
Platone, ovviamente ignorava il principio d’inerzia e le leggi meccaniche che
sono alla base del moto dei corpi celesti, conoscenze che avranno compimento nel XVII
secolo, da un’attenta osservazione dei fatti che appartengono al mondo sensibile,
proprio quel mondo che Platone disprezzava. Nella sua opera, il Timeo, Platone espone
questa sua visione cosmologica e tentando di risolvere la dicotomia tra il mondo
dell’essere ed il mondo del divenire, trovando l’anello di congiunzione, quindi,
nell’Anima del mondo. Questa è stata posta dal creatore (il demiurgo) nel mezzo di un
universo sferico. L’Anima del mondo, mossa da se stessa, ha allora creato il cosmo eterno
e lo ha dotato di un movimento perfetto, il
movimento circolare. All’estremità circolare del
cosmo vi è la perfezione, al suo centro la Terra,
imperfetta. Dalla materia, originata dall’Anima del
mondo, combinata con le idee è derivata la
sostanza. Platone riconobbe come validi i quattro
elementi di Empedocle ma li credeva composti da
solidi regolari: il fuoco da piramidi, la terra da
cubi, l’aria da ottaedri e l’acqua da icosaedri.
Questi solidi sono tutti scomponibili in triangoli,
che sono formati da linee, che a loro volta sono formati da punti derivanti da numeri i
69! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

quali sono simili alle idee. Platone fu anche il primo a sostenere l’opportunità di trovare
un modello geometrico dell’universo fisico, un metodo che si doveva rivelare
estremamente fecondo nello sviluppo dell’astronomia matematica.
Nel campo dell’ottica Platone ammise che dagli oggetti parta un fluido speciale
che s’incontra con la “mite luce del giorno” che “liscia e densa” sgorga dalle nostre
pupille. Se i due fluidi sono simili, incontrandosi “s’uniscono strettamente” e l’occhio
riceve la sensazione visiva; ma se “la luce degli occhi” incontra un fluido dissimile, si
estingue e più non riporta la sensazione all’occhio. Una conquista importante dovuta
alla scuola platonica è la geometrizzazione dei fenomeni dipendenti dalla luce riflessa:
per la prima volta troviamo esplicitamente affermata l’identità fra l’angolo di incidenze
e quello di riflessione.

I risultati ed i fallimenti di Platone si possono vedere nell’opera del suo


allievo, Aristotele (384 a.C.–322 a.C.), il quale comprese a fondo la dottrina
di Platone, la rifiutò attraverso motivazioni cogenti e formulò proprie tesi
alternative.
Aristotele critica la dottrina platonica delle idee, e nega che la pura
forma possa avere esistenza a sé, in un mondo più elevato e reale di quello
dei sensi, e, sotto questo aspetto, la critica è certo in accordo con il senso comune. Nei
confronti di Platone questa è, indubbiamente, una rivalutazione del mondo reale che si
riflette profondamente sul generale atteggiamento scientifico di Aristotele.
Tra gli scritti di Aristotele interessano in modo particolare la fisica i seguenti
trattati: Physica (8 libri), De coelo (4 libri), De generatione et corruptione (2 libri),
Meteorologia (4 libri), e le raccolte Problemata e Mechanica. Attraverso queste opere,
Aristotele realizza la prima grande sistematizzazione scientifica grazie alla quale
costruisce l’impalcatura della scienza per circa duemila anni.
Aristotele tentò di fondare la fisica sull’osservazione e sull’esperimento,
ritenendo, al pari di Platone, che la conoscenza sensibile del particolare è contingente,
legata al tempo e allo spazio, mentre la conoscenza scientifica è assoluta, fuori del
tempo e dello spazio. Ma le nozioni universali non sorgono in noi per reminiscenza,
come insegnava Platone, ma per induzione dal particolare al generale, partendo
dall’esperienza sensibile. L’osservazione assume, pertanto, una grande importanza
nell’indagine scientifica del mondo, anche se la matematica diventa semplice strumento
di minor rilievo e ben poco adoperato da Aristotele.
La conoscenza scientifica è per Aristotele conoscenza di cause, per cui il senso
non è una semplice fonte di illusioni, anche se esso non riesce ad andare più in là della
percezione; ma la ragione ha tuttavia il potere di intervenire attivamente in questa
molteplicità di grezze percezioni, traendo da esse qualcosa di più alto, il concetto. Ma
come si può passare dalle immagini offerteci dalle sensazioni al concetto universale? Si
può dire che il concetto è contenuto “potenzialmente” nelle immagini, ma come diviene
“attualmente” pensato da noi, nella sua purezza che trascende il sensibile? Aristotele
pensa di risolvere questo problema ammettendo la presenza di un intelletto attivo (nous
poieticos). Come la luce suscita il colore nell’oggetto sensibile, e la visione nell’occhio,
così l’intelletto attivo suscita nell’immagine il concetto che vi era contenuto in potenza,
concetto che viene così accolto e realizzato nel nostro intelletto. Ma questa concezione
naturalistica soggiaceva a un più generale assioma teleologico (finalistico): ogni
accadimento avviene per un fine determinato, e l’intero universo è il risultato di un
disegno prestabilito. La concezione teleologica del mondo, esasperata da Aristotele sino
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 6:!

ad ammettere una natura intelligente, fu una pietra angolare della sua visione
scientifica dell’universo, ma anche il suo limite, tale da limitare la portata e la fecondità
della sua indagine scientifica; infatti, la nascita della scienza moderna richiederà proprio
l’abbandono completo della via platonico-aristotelica.
Aristotele accetta la teoria empedoclea dei quattro elementi (terra, acqua, aria,
fuoco), interpretandoli però non tanto come corpi, quanto come modi di essere, e cerca
poi di giustificare con argomenti a priori perché essi debbano essere proprio quattro. La
terra è l’elemento freddo-secco, che tende verso il basso; essa deve essere
controbilanciata dal suo elemento contrario, il fuoco, che è caldo-secco, e tende verso
l’alto. Fra essi devono esistere altri due elementi con funzioni mediatrici: l’acqua,
fredda-umida, e l’aria, calda-secca. Anche l’acqua tende verso il basso, ma meno della
terra, visto che una pietra affonda. L’aria invece tende in alto, ma meno del fuoco, visto
che una fiamma, pur stando nell’aria, tende sempre a salire. La terra ha il proprio luogo
attorno al centro del mondo, coincidente con il centro del globo terrestre; il luogo
dell’acqua è intorno al luogo della terra; poi viene il luogo dell’aria e attorno a questo il
luogo del fuoco. L’insieme dei quattro luoghi forma il mondo sublunare. Sopra il luogo
del fuoco si trova il cielo, formato dal quinto elemento, l’etere, un elemento perfetto,
purissimo, imperituro, non trasformabile e non generabile. L’aggiunta di questo quinto
elemento (quintessenza), viene giustificata da Aristotele in base ad un complesso di
considerazioni molto generali sul moto, pertanto occorre accennare alla teoria
aristotelica del moto.
La scienza aristotelica del moto, che dopo aver dominato la fisica per parecchi
secoli, fu combattuta dal Rinascimento in poi e infine superata da Galileo. Il moto di
Aristotele ha un’accezione molto più ampia di quella che, da Galileo in poi, ci è abituale.
Aristotele intende per moto qualunque variazione quantitativa o qualitativa per cui un
fenomeno si realizza, e per questa ampia accezione egli poteva dire che nella natura
tutto è movimento e le sostanze in movimento, che sono percepibili con i sensi,
costituiscono l’oggetto della fisica: l’essere in movimento è l’oggetto proprio della fisica
e tale scienza diventa essenzialmente una teoria del movimento e le sostanze fisiche
vengono distinte e classificate secondo la natura del loro movimento.
Nella Metafisica Aristotele afferma: “La fisica è una scienza che si occupa di un
certo genere di essere (essa ha infatti per suo oggetto quel genere di sostanza che ha in
sè stessa il principio del movimento e della quiete…); la fisica non potrà essere se non
attività contemplativa, ma contemplativa di quel genere di essere che ha la possibilità
di muoversi, e di una sostanza che ha per lo più una sua forma, ma che, soltanto, non è
separabile dalla materia” .
Aristotele ammette quattro tipi di movimento: il movimento sostanziale (cioè la
generazione e la corruzione), il movimento qualitativo (cioè il mutamento o
l’alterazione), il movimento quantitativo (cioè l’aumento e la diminuzione), il
movimento locale (cioè il movimento propriamente detto inteso come variazione di
posizione di un corpo rispetto ad altri al variare del tempo) al quale si riducono tutti gli
altri movimenti. Il moto locale si distingue in moti naturali e quelli contro natura o
violenti. Il moto naturale può essere: moto verso il basso o l’alto, che è caratteristico dei
quattro elementi e moto circolare, caratteristico degli astri. Il moto verso il basso o l’alto
ha in sé qualcosa di imperfetto, tendendo a seguire un cammino rettilineo che è figura
meno perfetta del cerchio (perché il segmento rettilineo non rientra in sé, ma è
delimitato da un punto iniziale e uno finale), e viene realizzato da quegli elementi
(terra, acqua, aria, fuoco) che compongono le cose terrestri o sublunari e che possono
7<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

mescolarsi uno all’altro e mescolandosi dar luogo ad esseri mutabili, soggetti a


corruzione e a morte. Il moto circolare, invece, è il più perfetto tra i moti in quanto
geometricamente perfetto (non avendo né inizio e né fine), e deve quindi venire
realizzato da un elemento eterno, immutabile, ingenerabile e incorruttibile, appunto
l’etere. Se ne conclude che l’etere, di cui sono costituiti tutti i corpi celesti, deve risultare
diverso dai quattro elementi empedoclei. I naturalisti del VI e V secolo, da Talete a
Democrito, avevano basato le loro concezioni del mondo sull’ipotesi che cielo e terra
fossero costituiti della stessa materia; ora invece Aristotele eleva una vera barriera tra
mondo celeste e mondo sublunare, immaginandoli costituiti di elementi
irriducibilmente diversi. In sostanza con Aristotele il mondo celeste e quello sublunare
sono descritti da due fisiche diverse. Questa frattura dell’unità del mondo avrà un peso
rilevantissimo sulle filosofie della natura, fino al sorgere del pensiero moderno
Per spiegare il movimento di questi elementi, Aristotele formula la teoria dei
luoghi naturali. Ognuno di questi elementi ha nell’universo un suo luogo naturale; se
una parte di essi viene allontanata dal suo luogo naturale (il che non può avvenire che
con un moto violento, cioè contrario alla situazione naturale dell’elemento), essa tende a
ritornarvi con un moto naturale. Ora, i luoghi naturali dei quattro elementi sono
determinati dal loro rispettivo peso. Al centro del mondo c’è l’elemento più pesante, la
terra; intorno alla terra ci sono le sfere degli altri elementi nell’ordine del loro peso
decrescente: acqua, aria e fuoco. Difatti, la gravità di una pietra, ossia la sua tendenza a
cadere verso il suo luogo naturale, la Terra, è solo un esempio di moto naturale e che
quanta più sostanza è presente nel corpo più velocemente percorre la distanza che lo
separa dal suo luogo naturale, ossia i corpi più pesanti cadono più velocemente di quelli
leggeri, e non perché non riconoscesse la presenza della resistenza dell’aria, perché lo
fece esplicitamente: più rarefatto è il mezzo più veloce è il movimento. Anzi, per questa
ragione, secondo Aristotele, il vuoto non esisteva, perché nel vuoto la velocità avrebbe
assunto un valore infinito all’istante, il che era assurdo.
Data la loro importanza nella storia del pensiero scientifico, occorre soffermarci
sulle varie nozioni di causa. Se per Aristotele il moto è ogni mutamento in generale,
inteso come passaggio da una potenzialità all’atto relativo, questo passaggio, però, esige
un motore, ossia un ente più perfetto, più in atto, che con la sua presenza determina
l’attuarsi della potenzialità, e la causa prima del divenire, del moto dell’universo è Dio.
Perciò il moto è la risultante di quattro aspetti o momenti che Aristotele chiama cause:
la causa materiale (la materia che si muove durante il movimento o mutamento), la
causa formale (la forma o paradigma che dirige il movimento e in esso si attua), la causa
efficiente o motrice (la forza che imprime il moto alle parti materiali del corpo che si
muta), la causa finale (lo scopo o fine ultimo cui tende il movimento).
Proprio come un mezzo era necessario per l’esistenza del moto naturale, così
doveva esserlo per il moto violento, come quello di un proiettile, la cui traiettoria era
composta di tre parti: la prima rettilinea e obliqua, la terza rettilinea e verticale, la
seconda circolare di raccordo tra le due. Ma come mai, una volta lanciato, il corpo si
mantiene in moto? La causa non può essere nel corpo né nel proicente che lo ha
abbandonato e non può più agire su di lui: dunque, la causa deve essere nel mezzo. E
Aristotele escogita una bizzarra teoria (combattuta da Galileo, con il suo principio
d’inerzia, e dai suoi contemporanei che dettero vita alla dinamica moderna) secondo la
quale il proiettile muovendosi caccia l’aria dai luoghi che attraversa, facendo il vuoto;
ma siccome la natura aborre il vuoto, l’aria entra impetuosamente nei luoghi svuotati
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 7;!

dal passaggio del proiettile, imprimendo così un moto al proiettile stesso. Ne risulta una
dinamica molto diversa dalla nostra. Nella dinamica aristotelica un corpo in moto è
sempre sotto l’azione di una forza applicata al tempo e inversamente proporzionale alla
resistenza del mezzo. Ne segue che nel vuoto, risultando nulla la resistenza del mezzo,
la velocità sarebbe infinita, ossia il corpo avrebbe il dono dell’ubiquità. È una
conseguenza talmente contraria al senso comune che Aristotele conclude essere
impossibile il vuoto in natura.

FORZA E VELOCITA’ SECONDO ARISTOTELE

Così si esprime Aristotele nel suo libro Fisica:

“Se dunque il motore A ha mosso B lungo uno spazio C in un tempo D, allora nello stesso tempo la
stessa forza A muoverà ½ B per uno spazio doppio in C, ed in ½ D muoverà ½ B per l’intero
spazio C”.

Che l’effetto di una forza sia per Aristotele una velocità, lo si deduce pure quando afferma che la
velocità di caduta di un grave è proporzionale alla sua pesantezza: “se un certo peso percorre uno
spazio in un certo tempo, un peso maggiore percorrerà lo stesso spazio in un tempo più breve, e il
rapporto che hanno tra loro i due pesi sarà anche quello che avranno fra loro i due tempi; per
esempio, se la metà peso copre una distanza in un tempo x, l’intero peso la coprirà in ½ x”.

Ad Aristotele era ben noto anche che la velocità di un grave durante la caduta va aumentando e
interpretava questo fatto sostenendo che i corpi man mano che si avvicinano al loro luogo naturale si
muovono più velocemente.

Gli argomenti che Aristotele porta a sostegno della tesi secondo cui lo spazio
vuoto non esiste sono vari. Infatti, posto che l’essenza dei luoghi naturali consista
nell’alloggiare gli elementi, lo spazio non è concepibile come realtà a sé stante,
indipendente dai corpi. Questa teoria dello spazio porta a negare non solo il vuoto
intracosmico, cioè il vuoto fra oggetto e oggetto, ma anche il vuoto extracosmico, ossia il
vuoto che ospiterebbe l’universo. Infatti, dal punto di vista aristotelico, se ha senso
chiedere dove si trovi un oggetto, non ha senso chiedere dove si trovi il mondo. In altre
parole, tutte le cose sono nello spazio, ma non l’universo. Infatti l’universo non è
contenuto in alcunché, poiché esso è ciò che tutto contiene (dottrina che può sembrare
astrusa ma che presenta affinità con il modello di universo proposto da Einstein).
Queste speculazioni sullo spazio e sul vuoto differenziano Aristotele dagli atomisti, i
quali avevano sostenuto che senza il vuoto non c’è movimento in quanto gli atomi non
si potrebbero muovere se fossero pressati insieme senza intervalli vuoti. Aristotele
ritiene invece che il movimento nel vuoto non sia possibile. Difatti nel vuoto non ci
sarebbe né un centro, né un alto, né un basso; per conseguenza non ci sarebbe motivo
per un corpo di muoversi in una direzione piuttosto che in un’altra e i corpi
rimarrebbero fermi. In tutte queste argomentazioni, Aristotele, si avvale continuamente
della teoria dei luoghi naturali, fondata sulla classificazione dei movimenti, e va tanto
oltre da portare come argomento contro il vuoto quello che noi oggi chiamiamo
principio d’inerzia. Nel vuoto, egli dice, un corpo o resterebbe in riposo o continuerebbe
il suo movimento, finché non gli si opponesse una forza maggiore. Questo dovrebbe
essere un argomento contro il vuoto, ma in realtà dimostra soltanto che Aristotele
ritiene assurdo quello che è il primo principio della dinamica, cioè il principio d’inerzia.
Per quanto riguarda il tempo, Aristotele afferma che esso si definisce solo in relazione al
concetto di divenire, poiché in un ipotetico universo di entità immutabili la dimensione
7=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

tempo non esisterebbe. Sebbene il cosmo aristotelico sia più scientificamente fondato di
quelli elaborati dai presocratici, vi è una marcata affinità, che consiste nel fatto che
Aristotele completò le lacune e risolse i problemi posti da essi prima di lui. L’horror
vacui sarà un cardine della fisica aristotelica e la polemica tra vacuisti e pienisti si
protrarrà fino al Rinascimento scientifico.
La polemica di Aristotele contro il vuoto è uno dei cardini della sua fisica, ma,
per quanto fondamentale, non ci dà tuttavia un’idea completa dell’opposizione tra la
sua fisica e quella di Democrito. Tale opposizione si estende a tutti i più importanti
problemi intorno alla natura: da quello del moto, alla molteplicità o meno dei mondi,
dalla somiglianza o differenza tra mondo celeste e sublunare al problema di ridurre le
differenze qualitative a differenze quantitative. Alla radice di tutte queste opposizioni
di carattere scientifico stava però un’opposizione di carattere filosofico: mentre
Democrito pretendeva di spiegare il mondo mediante l’uso di sole cause meccaniche
(cioè con moti e urti di atomi), Aristotele attribuiva invece una funzione prevalente,
nella spiegazione razionale, alla causalità finale. Per Democrito il fine resta
necessariamente un problema, per Aristotele è invece principio di spiegazione.
Sebbene la dinamica aristotelica risulta sbagliata secondo le leggi della meccanica
classica, ha comunque rappresentato il primo tentativo di costruzione di una teoria in sé
coerente e generalizzata, ed esagerando un po’, ha rappresentato il punto di partenza
da cui nascerà la fisica galileiana e newtoniana.
Più aderenti ai risultati moderni sono le ricerche di statica: vi è enunciata la legge
di equilibrio di una leva, con un accenno a quello che sarà il principio dei lavori virtuali,
e vi sono descritte la bilancia e la puleggia. Negli scritti di Aristotele, si trovano, inoltre,
cenni all’energia cinetica, idee corrette sulla propagazione del suono attraverso l’aria,
spiegazione dell’eco come fenomeno di riflessione, osservazioni sulla propagazione
della luce. Nella spiegazione dei fenomeni visivi Aristotele non seguì né la teoria
pitagorica dell’estromissione, né quella democritea dell’intromissione, ed alcuni storici
interpretano un passo oscuro dell’opera De anima come un accenno a una teoria di
propagazione della luce basata sulla modificazione del mezzo posto tra l’occhio e
l’oggetto visto. È un complesso di idee e riflessioni che conferma come la fisica
aristotelica fosse fondata sull’osservazione, e in parte sull’esperimento, seppur lontani
dal significato che assumeranno nella fisica galileiana.
Aristotele formulò una cosmologia scientifica destinata a fornire la
rappresentazione dell’universo per i successivi duemila anni. L’universo fisico, è,
secondo Aristotele, unico, chiuso su stesso, limitato nello spazio ed illimitato nel tempo
(Aristotele giustamente sottolineò che era una contraddizione logica immaginare, come
aveva fatto Platone, che il mondo potesse essere creato ed eterno; deve invece o essere
creato e destinato alla distruzione e, come credeva, essere sempre esistito ed eterno) ed
è diviso in due regioni obbedienti a leggi fisiche diverse: i cieli formati dall’etere,
inalterabili e incorruttibili, soggetti al moto circolare, il più perfetto dei moti, e dove la
causa della regolarità e dell’eternità del moto degli astri va ricercata nel primo motore
immobile che imprime il moto a tutte le sfere in cui sono incastonati gli astri e dove il
Sole, le stelle, i pianeti, composti della quintessenza, splendono perché il moto delle loro
sfere produce attrito con l’aria, quindi luce e calore; il mondo sublunare, il mondo del
divenire, formato dai quattro elementi, nel quale le cose nascono, si corrompono e
periscono e dove il moto degli oggetti è rettilineo o violento. Poiché nessuna cosa reale
può essere infinita perché ogni cosa esiste in uno spazio, e ogni spazio ha un centro, un
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 74!

basso, un alto e un limite estremo e quindi nessuna realtà fisica è realmente infinita, la
sfera delle stelle fisse segna i limiti dell’universo, limiti al di là dei quali non c’è spazio,
per cui non possono esistere altri mondi al di là del nostro.
L’universo aristotelico è un meccanismo ingegnosamente costruito. Esso è
costituito da una serie di sfere concentriche, la più esterna delle quali, il “primo
mobile”, è fissa, mentre le sfere interne sono mosse dal “primo mobile”, salvo quelle
vicino al centro, che sono di nuovo immobili. Queste sfere erano oggetti concreti, solidi,
quelle che sarebbero diventate le sfere cristalline nel Medioevo, composte di sostanza
perfetta, pura ed incorruttibile.
Ciò che mancò alla fisica aristotelica furono l’elaborazione analitica, la critica e la
prudenza nella generalizzazione. Si potrebbe dire che la scienza moderna sperimenta
con avvedutezza critica, e la scienza aristotelica sperimentava con ingenuità.
Concretamente, la meccanica aristotelica non seppe fare astrazione e la fisica non intuì
che nello studio dei fenomeni qualche artificio, diremmo oggi modello, può talvolta
svelarci cose che la pura osservazione non ci consente di cogliere. Questi rilievi non
sono ovviamente una spiegazione dell’insuccesso aristotelico nello studio della fisica,
ma una constatazione dell’insufficienza dei suoi metodi di ricerca. Spiegare, invece,
perché Aristotele e la sua scuola non abbiamo saputo o voluto astrarre e intuire, è
ancora un problema irrisolto.
Alla luce delle nostre leggi fisiche (moto dei gravi di Galileo e leggi della
dinamica di Newton), queste teorie non sono adeguate a spiegare il moto dei corpi, anzi
Aristotele avrebbe considerato il nostro punto di vista troppo platonico perché vicino
ad una trattazione del movimento come sarebbe potuta avvenire nel perfetto mondo
delle idee. E per la stessa ragione Aristotele minimizzò il ruolo della matematica nella
scienza fisica, perché la matematica si occupa della pura forma, mentre nel mondo fisico
la forma è sempre congiunta con la materia.

Teofrasto (372 a.C.-287 a.C.), successore di Aristotele nella direzione del Liceo,
impresse alla scuola un carattere prettamente scientifico, e mosse le prime serie
obiezioni alla fisica aristotelica come al finalismo, ossia gli oggetti in natura non
obbediscono alla tendenza verso un fine, alla natura dei moti celesti e terrestri, alla
teoria degli elementi.

2.9 Prime conclusioni sull’idea di realtà

Per gli eleati, come Parmenide, non si dà scienza razionale del sensibile, ma
soltanto di una realtà intelligibile o verità soggiacente ai fenomeni, immutabile ed
estranea al loro processo. Vi è quindi una sola scienza, la geometria, che contempla i
rapporti invariabili della materia estesa. All’opposto i sofisti Protagora e Gorgia,
rivendicano il significato proprio della realtà precepita dai sensi, negando che esista al
di là di questa una verità trascendente. La pretesa sostanza o natura delle cose è solo
una vuota finzione dell’intelletto, priva di valore scientifico. Per superare questo netto
contrasto tra razionalismo ed empirismo, bisogna accordare il razionale con il sensibile,
il pensabile con il fenomenico, spiegandoli come apparenze di un mondo riconosciuto
dal pensiero. Ogni costruzione razionale della scienza deve fare i conti con questa
nuova esigenza. Democrito e Platone cercano di soddisfarla in maniera diversa.
75! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Democrito trova la ragione nel mondo perché gli elementi primi della realtà, gli
atomi che si muovono nel vuoto, sono pure forme geometriche. Spiegare i fenomeni e
conoscerne le vere cause, significa ridurli al meccanismo degli atomi mobili e urtantisi
fra loro. L’oggetto della scienza, dunque, non è più la verità razionale che trascende la
conoscenza sensibile, come per Parmenide, e nemmeno la semplice opinione, come
suggerito da Protagora. Ma quella opinione che deve essere spiegata e dimostrata e
rispondente a quella verità di cui esprime l’apparenza. L’idea che la scienza abbia per
oggetto “l’opinione vera” si affaccia e viene discussa in diversi dialoghi di Platone,
come nel Teeteto, dove si dice che: “la scienza è opinione vera accompagnata da
ragione”. Con grande verosomiglianza, questa formula appartiene anche a Democrito,
ed il concetto è assai vicino al “razionalismo sperimentale” che, nel pensiero moderno,
si è elaborato attraverso la scuola di Galileo. A dire il vero, il nostro concetto include la
possibilità di creare sperimentalmente il fenomeno in accordo con la previsione teorica,
ed anche correggere le ipotesi adottate se sono in contrasto con l’esito dell’esperimento.
Ma questo è soltanto uno sviluppo del motivo originale, e almeno per quanto riguarda
la correzione o ricostruzione induttiva delle ipotesi dai fenomeni, non si può escludere
che l’idea facesse parte della logica democritea. Ad una visione logica induttiva accenna
Aristotele negli Analytica Posteriora, ove confuta coloro che attribuiscono alla
dimostrazione un carattere relativo, ritenendo che i principi possano dimostrarsi dalle
conclusioni, come queste da quelli. Riflettendo sullo spirito della fisica-matematica
democritea, è assai plausibile che Aristotele criticasse proprio Democrito.
In Democrito il motivo razionalistico parmenideo, il pensiero criterio
dell’esistenza, assume un significato più espressivo: ciò che è pensato deve esistere
come parte della realtà universale. Quindi, nello spazio e nel tempo infinito debbono
prodursi tutte le condizioni, e tutti gli ordini di fenomeni razionalmente possibili, così
come tutte le forme geometriche dovranno trovarsi realizzate negli atomi. Così
esisteranno “mondi con più soli e lune” e “atomi grandi come un mondo”. Questo
passaggio dal pensiero alla realtà può sembrare ingenuo e meraviglioso, ma esprime la
poesia dello spirito matematico: ciò che il matematico costruisce nella sua mente non
deve essere pura astrazione, bensì rappresentazione di cose che corrispondono nella
realtà; ritrovare nella natura le forme matematiche.

2.10 La scienza alessandrina

Alessandro Magno moriva nel 323 a.C. ancora giovane, ma il suo programma
politico di ellenizzazione del suo vasto impero era stato raggiunto. Il trionfo di questa
nuova civiltà universalistica coincise con la frantumazione delle forme istituzionali
della Grecia classica e con la crisi definitiva delle sue città-stato. La Grecia della polis e
della democrazia assembleare decade e la nuova realtà politica è costituita da una serie
di monarchie assolute: al cittadino dell’età classica è ora subentrato il suddito dell’età
ellenistica. Un mondo sociale del genere tende ovviamente a produrre una cultura a sua
immagine e somiglianza, per cui i sovrani, per ragioni di prestigio e di dominio, amano
atteggiarsi a mecenati del sapere. L’esempio più significativo è Alessandria d’Egitto, che
sotto la sfarzosa dinastia dei Tolomei assurge a nuovo centro della cultura al posto di
Atene. Ciò avviene soprattutto per opera del ministro Demetrio Falareo che invita ad
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 76!

Alessandria Stratone di Lampsaco che porta con sé parte del materiale e della biblioteca
del Liceo.

Stratone (ca. 335 a.C.–ca. 269 a.C.) tentò di conciliare la fisica di Aristotele con
l'approccio meccanicistico di Democrito, che negava l'esistenza di entità divine o
spirituali, allo scopo di escludere la metafisica dal campo dell'indagine scientifica, per
cui scrisse un trattato, Sul movimento, in cui studiò il fatto che: la velocità di un corpo
che cade aumenta nel tempo e sembra farlo uniformemente durante la caduta
(affermazione praticamente identica alla legge dei gravi di Galileo).
Nel trattato Problemi meccanici affrontò il problema se sia più facile muovere un
corpo già in movimento o uno immobile, e problemi di statica. Stratone faceva uso della
regola del parallelogramma delle forze o della velocità, in maniera piuttosto esplicita.
Nella sua trattazione sul moto dei proiettili, non solo pone dei dubbi alla teoria di
Aristotele, è presente una intuizione che un oggetto scagliato debba offrire una
resistenza nella direzione da cui viene la spinta (oggi diremo che la forza di attrito si
oppone al movimento creato d una forza motrice). Nel trattato De vacuo, pur negando il
vuoto infinito di Democrito, ossia che lo spazio vuoto non si estendesse all’infinito
all’infuori dei confini del mondo, ammette, contro Aristotele, la presenza di piccoli
spazi vuoti entro la materia, il cosiddetto vuoto disseminato (vacuum intermixtum). Non
accetta la teoria atomica, ma critica anche la teoria degli elementi di Aristotele; in
particolare critica la teoria dei luoghi naturali degli elementi e la conseguente idea di
leggerezza e peso assoluti: ogni corpo, anche il fuoco, pesa, e l’ascesa dei leggeri non è
dovuta a una tendenza naturale, ma alla spinta dell’aria. Con una critica più radicale di
quella di Teofrasto, Stratone si oppone al finalismo aristotelico, proclamando che i
fenomeni fisici sono soggetti a cause meccaniche, non a cause finali.
Per fare di Alessandria il centro gravitazionale dei migliori intelletti dell’epoca,
soprattutto scienziati e tecnici, Demetrio concepisce un progetto ambizioso, quello di
riunire in un grande istituto per la cultura, sul modello dell’Accademia e del Liceo, tutto
il materiale bibliografico reperibile in Grecia e in Asia. Nasce in tal modo la Biblioteca,
che con i suoi settecentomila volumi-papiro, rappresenta la più grandiosa raccolta di
libri del mondo antico. Per dare la possibilità agli scienziati di dedicarsi in maniera
proficua agli studi, sorge accanto alla Biblioteca il Museo, una sorta di centro di studi e
di ricerche, il quale contiene, tra l’altro, un osservatorio astronomico. Gli scienziati-
professori della Biblioteca e del Museo sono stipendiati dallo stato e possono quindi
dedicarsi con tranquillità alle loro investigazioni. Queste circostanze determinano una
grande fioritura e un grande progresso delle discipline scientifiche, tra cui l’astronomia,
la fisica e la matematica. Tutto questo rigoglio di discipline particolari si accompagna ad
una forma di specializzazione, ossia alla divisione del sapere in una molteplicità di
branche coltivate con competenza. Tuttavia, il mondo della scienza nell’età ellenistica
presenta dei limiti: ha perduto la ricchezza e la complessa problematicità dell’età
classica; vi è un evidente tendenza a sviluppare unicamente l’aspetto teorico della
scienza, disprezzandone invece il momento teorico-applicativo; il sapere, non solo
scientifico, tende ad estraniarsi completamente dai rapporti sociali e si
rivolge solo a cerchie ristrette di intellettuali o di aristocratici colti.

Tra i grandi scienziati convenuti ad Alessandria troviamo il grande


Archimede (ca. 287 a.C.–212 a.C.). Per Archimede l’esperienza costituisce
77! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

solo il fondamento intuitivo di quei principi destinati poi a trovar giustificazione


attraverso rigorosi procedimenti formali, per cui il siracusano è il padre di quella fisica-
matematica che si affermerà solo con Galileo. L’astratta e vaga intuizione pitagorica
dell’intima connessione tra i numeri e il mondo fisico diviene in Archimede un concreto
esercizio di esperienza e di analisi, mediante il quale vengono dominati gli aspetti
apparentemente irrazionali della realtà. Un particolare rilievo in questo processo
acquista il ricorso ai procedimenti infiniti realizzati attraverso il metodo di esaustione,
che costituisce il fondamento del calcolo infinitesimale.
Archimede è l’unico grande scienziato dell’età classica le cui scoperte abbiano
prodotto significative applicazioni pratiche, di carattere ingegneristico. Senza dubbio
l’aspirazione a dominare la natura è presente in Archimede, ma, a differenza di ciò che
accadrà poi nella fisica nata dalla rivoluzione scientifica, si tratta qui di un dominio
essenzialmente teoretico, nel quale le applicazioni pratiche assolvono il ruolo
secondario di esemplificazione del potere della scienza. Archimede è il fondatore di
due pilastri della fisica: la statica e l’idrostatica, sebbene le sue esposizioni siano
d’andamento geometrico, fondate su postulati ricavati da esperienze da lui non
descritte, ma che egli era solito eseguire.
I trattati di meccanica di Archimede riguardano soprattutto problemi di statica.
Nell’Equilibrio dei piani provò la legge della leva in una serie di proposizioni di carattere
rigorosamente geometrico e di grande eleganza matematica, che permette di introdurre
l’importante concetto di lavoro meccanico, e inoltre prese in esame un ampio campo di
problemi sul baricentro. Il primo e fondamentale postulato sull’equilibrio della leva
recita: “Supponiamo che pesi eguali sospesi a distanza eguali conservino l’equilibrio.
Pesi eguali sospesi a distanze diseguali non conservano l’equilibrio, ma il sistema si
abbassa dalla parte del peso sospeso a maggiore distanza”. In questo scritto, oltre
all’evidente chiarezza e accuratezza espositiva, compare un concetto fondamentale per
la meccanica, il centro di gravità, e dalle ricerche baricentriche scopre il centro di gravità
del triangolo. Collegata all’elaborazione di questo concetto è la scoperta di un altro
fondamentale concetto della meccanica, quello del momento di una forza rispetto a una
retta o a un piano.
Probabilmente, la più importante scoperta di Archimede è la legge riguardante la
perdita di peso subita dai corpi immersi in un liquido:

PRINCIPIO DI ARCHIMEDE
Un corpo immerso in un liquido riceve una spinta dal basso verso l’alto uguale al peso del
volume del liquido spostato.

Ma, quale sia stato il procedimento seguito da Archimede, è certo che il principio
d’idrostatica fu da lui scoperto sperimentalmente, sebbene nella sua opera d’idrostatica
a noi pervenuta la trattazione sia condotta more geometrico, senza alcun accenno
all’esperienza che l’ha preparata.
Un concetto assolutamente nuovo che compare nella sua opera sull’idrostatica e
ignorato dai suoi predecessori, forse per l’influenza della fisica aristotelica, è il concetto
di peso specifico relativo. Esso è così introdotto: ”Un corpo solido che ha eguale peso ed
eguale volume di un liquido, immerso nel liquido, s’immergerà in esso in modo che
nessuna parte della sua superficie emergerà dal liquido, né esso si abbasserà
ulteriormente”. Nell’opera, Sui galleggianti, Archimede tratta le condizioni di
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 78!

galleggiamento dei corpi e in particolare le condizioni di equilibrio di un segmento retto


di parabolide di rivoluzione, col metodo classico riportato ancora oggi dai trattati di
meccanica. Archimede si interessò anche di Ottica, e tradizione vuole che avesse grandi
capacità nella costruzione di specchi.
Nelle sue opere, Archimede operava con grandezze, non con corpi, dando perciò
al suo lavoro un carattere puramente matematico, e quindi non legato al caso specifico
ma cercando di generalizzarlo il più possibile.

Contemporaneo di Archimede fu Ctesibio (III sec. a.C.), fondatore in Alessandria


della famosa scuola di meccanica dove si studiava la compressibilità dell’aria
(pneumatica). Il dubbio frammento di Ctesibio pervenutoci descrive un organo
idraulico formato da canne di varia lunghezza, messe in vibrazione da un soffio d’aria
compressa per mezzo dell’acqua. La tradizione riferisce anche di altri contributi dati da
Ctesibio alla meccanica pratica, come la pompa premente per pompare acqua,
modificata poi dallo stesso Ctesibio in pompa da incendio e che fino al Rinascimento
andò sotto il nome di ctesibia machina.

Ma se le opere di Ctesibio andarono perdute, ci possiamo formare un’idea della


loro vastità dall’ampio trattato di meccanica del suo discepolo Filone di Bisanzio (280
a.C.–220 a.C.), nel quale descrive macchine guerresche, automi e un teatro automatico.
Nel libro dedicato alla pneumatica sono descritti giocattoli automatici, vasi che
emettono liquidi vari, fontane con animali che bevono e uccelli che cantano, tutte
macchine dove si fa un uso intelligente della pressione atmosferica e della pressione del
vapor d’acqua. Numerose sono anche le descrizioni di esperimenti fisici, come quello
per provare che l’aria è un corpo, sebbene le interpretazioni siano in generale molto
diverse dalle nostre e in gran parte errate.
Filone descrive anche il primo termoscopio che la storia ricordi, costituito da due
sfere, una vuota e l’altra completamente piena d’acqua, collegate da un tubo.
Esponendo la palla vuota al Sole, si vedrà l’aria gorgogliare nell’acqua dell’altra palla,
perché, dice Filone, se la palla è riscaldata “una parte dell’aria inclusa nel tubo va
fuori”. Se poi la palla si riporta all’ombra, l’acqua salirà nel tubo sino a cadere nell’altra
sfera vuota: “Se poi riscalderai la palla col fuoco avverrà lo stesso fenomeno, e così se
verserai acqua calda sopra la palla. E se invece la raffredderai verrà fuori”. E così, con
questo esperimento si veniva a conoscenza del fenomeno della dilatazione termica
dell’aria. Le conoscenze sperimentali di pneumatica induce la scuola alessandrina ad
assumere nella polemica tra vacuisti, come gli atomisti, e i pienisti, come Aristotele,
l’atteggiamento di Stratone: non si può avere il vuoto in grandi masse, ma solamente il
vuoto disseminato, il vuoto, cioè, tra particella e particella di un corpo. Questo tipo di
vuoto spiega la varia densità dei corpi, la compressibilità e l’elasticità dell’aria: quando
si riduce un volume d’aria, le particelle si compattano, ma vengono così a trovarsi in
una posizione forzata, dalla quale tendono a tornare alla posizione primitiva, e di qui la
forza dell’aria compressa. Anche il fuoco agisce in modo simile insinuandosi tra le
particelle.

La fama di Ctesibio e di Filone fu oscurata da Erone di Alessandria (10 a.C–70


d.C.), vero e proprio ingegnere nel senso moderno del termine piuttosto che puro
scienziato come Archimede, forse perché l’abbondante produzione letteraria prodotta ci
è giunta quasi per intero.
79! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

L’opera La Pneumatica, contiene una interessantissima introduzione teorica sulla


natura fisica dell’aria, spiegando la comprimibilità dell’aria facendo ricorso alla sua
struttura, adottando un atomismo modificato. Egli immagina che l’aria consista di
minute particelle, tra le quali sono disseminate piccole quantità di vuoto; un vuoto
esteso può esistere solo per l’applicazione di qualche forza, ma i vuoti discontinui
possono esistere (ed effettivamente esistono) senza soluzioni di continuità tra le
particelle dei corpi. Questi piccoli vuoti spiegano la trasparenza e la comprimibilità. Tale
opera contiene soprattutto la descrizione di congegni meccanici, coma la prima
macchina a vapore che abbia veramente funzionato, lontana progenitrice delle moderne
turbine a reazione. Più scientifica è l’opera La Meccanica nella quale Erone giunse al
principio che quanto più piccola è la forza che alza un dato peso, tanto più lungo sarà il
tempo impiegato. C’è inoltre una trattazione esauriente della teoria delle macchine
semplici, una prima enunciazione della composizione dei moti con la regola del
parallelogramma delle forze, e in genere una buona teoria della composizione dei moti.
Come la meccanica, anche l’ottica ebbe un carattere sia matematico che
sperimentale, ed Erone scrisse anche un libro, Catrottica, sulla teoria degli specchi e le
loro applicazioni pratiche, dove introdusse una dimostrazione matematica della legge
della riflessione, basata sul principio che la luce si muove sempre in linea retta. Infatti
Erone, come quasi tutti i suoi contemporanei, credeva che la visione fosse dovuta
all’emissione di raggi luminosi da parte dell’occhio umano e al ritorno di questi raggi
all’occhio dopo la riflessione. Dalla Catrottica vale la pena citare la seguente
proposizione, nella quale è possibile intravedere una qualche relazione con il principio
di Fermat: “Dico che di tutti i raggi uscenti dallo stesso punto e riflessi nello stesso
punto sono minimi quelli che negli specchi piani e sferici si riflettono ad angoli eguali;
viceversa, se questo accade, la riflessione avviene ad angoli eguali”.

Il più remoto documento che ci è noto sull’ottica è un trattato di Euclide (300


a.C.), l’Ottica, il quale segue la teoria platonica della visione, come risulta dal primo
postulato dell’opera: “I raggi emessi dall’occhio procedono per via dritta”.
In Euclide, come in tutti i fisici greci, la visione era considerata un fenomeno
globale: il senziente percepiva di colpo, con un processo unico, l’immagine di tutto il
corpo osservato. Dal secondo postulato deriva il concetto di cono visivo (il punto di
vista in senso traslato): “La figura compresa dai raggi visivi è un cono che ha il vertice
all’occhio e la base al margine dell’oggetto”. Su questi postulati e insieme al terzo: “Le
cose che vengono viste sono quelle sulle quali cadono i raggi visivi; le cose che non
vengono viste sono quelle sulle quali i raggi visivi non cadono” Euclide definisce il
processo visivo in modo geometrico e quindi trasforma problemi ottici in problemi
geometrici. In sostanza, Euclide usa nell’Ottica esattamente lo stesso metodo che aveva
usato negli Elementi, e giunger allo studio di problemi geometrici connessi con la
postulata propagazione rettilinea della luce: ombre, immagini prodotte attraverso
piccole fenditure, grandezze apparenti degli oggetti e loro distanza dall’occhio, i
fenomeni presentati dagli specchi piani e sferici. Euclide si dimostra esperto delle leggi
della riflessione, e molte conclusioni sono pienamente conformi con l’ottica moderna:
negli specchi piani l’immagine è simmetrica all’oggetto rispetto allo specchio; negli
specchi sferici l’immagine si vede sulla retta che congiunge il punto-oggetto al centro
dello specchio; negli specchi convessi l’immagine si trova a minore distanza dallo
specchio che l’oggetto, ed è più piccola.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 7:!

La teoria pitagorica-euclidea è, quindi, una teoria matematica della visione, non


una teoria fisica né fisiologica. L’aspetto geometrico della visione prevale sugli aspetti
di natura fisica, fisiologica e psicologica e infatti Euclide, coerentemente, riduce l’occhio
ad un punto. Euclide non si pone il problema della natura fisica della luce, né
dell’anatomia e fisiologia dell’occhio ma offre una spiegazione geometrica della
percezione dello spazio sviluppando una teoria strutturata in sette assiomi (o postulati)
e nei teoremi (o proposizioni) che ne possono derivare. La definizione di raggio visivo
come concetto privo di struttura fisica è una innovazione metodologica di grande
rilievo, ma proprio perché non ha struttura fisica il raggio visivo non ha una relazione
esplicita con la luce (anche se in alcuni proposizioni del suo trattato Euclide la nomina).
Come si evince dalla parola “escono” del primo assioma, Euclide accoglie la teoria
emissionista della visione, e poiché la modellazione geometrica dei raggi visivi
prescinde dal verso, la spiegazione di Euclide delle leggi dell’ottica è corretta anche per
i moderni per i quali l’andamento dei raggi è rovesciato.
Se è vero che Euclide si sforza di accentuare il carattere geometrico della
trattazione della visione, è pur vero che alcune conclusioni rivelano indubbiamente
un’origine sperimentale. La settima premessa alla Catrottica, per esempio, descrive un
esperimento sulla rifrazione che ancora oggi viene eseguito: “Se si pone un oggetto
qualunque al fondo d’un vaso, e si allontana il vaso dall’occhio finché l’oggetto non si
veda più, l’oggetto ritorna visibile a quella distanza, se si versa dell’acqua nel vaso”.
Euclide, alla luce dei risultati ottenuti e descritti, va posto sicuramente tra i più
grandi fisici dell’antichità, avendo creato il modello di raggio luminoso rettilineo,
fondamento dell’ottica geometrica, e di aver dato una spiegazione razionale della
formazione delle immagini negli specchi.
Un affascinante esempio di ingegnosa astronomia geometrica fu il tentativo di
Eratostene (276 a.C.–194 a.C.), amico di Archimede e maggior matematico che lavorasse
al Museo di Alessandria, di determinare l’esatta grandezza della circonferenza della
Terra, sulla cui sfericità, dopo Aristotele, nessuno dubitava.

2.11 Geocentrismo ed eliocentrismo

Nonostante il prevalente interesse dei greci per


i concetti astratti nella matematica, non venne mai
rifiutata la matematica applicata, soprattutto in
campo astronomico. Infatti, i pitagorici prima, Platone
poi, sostenevano che l’universo poteva essere
compreso attraverso un modello matematico. I
pitagorici, attraverso considerazioni di matematica
mistica, consideravano l’universo di forma sferica, in
cui il movimento dei pianeti, della Luna e del Sole
erano periodici; però non fecero alcun tentativo per
calcolare questa periodicità. La prima seria
affermazione della possibilità di un modello
matematico dell’universo fu di Platone. L’idea di
Platone derivava dalla sua fedele credenza che i pianeti dovessero muoversi in cerchi
perfetti (perché i cieli di Platone, come quelli di Aristotele, erano più vicini alla
8<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

perfezione di quanto lo fossero le regioni terrestri) accoppiata con l’ammissione che,


mentre il Sole, la Luna, i pianeti e le stelle sorgono e tramontano ogni ventiquattrore, i
movimenti dei pianeti rispetto al riferimento delle stelle fisse erano notevolmente
irregolari. Questo è particolarmente vero per i pianeti esterni (Marte, Giove, Saturno),
dal momento che si muovono nelle loro orbite più lentamente di quanto si muova la
Terra sulla sua, per cui questa li raggiungerà e li sorpasserà a intervalli regolari, facendo
sì che le loro traiettorie sembrino fare un cappio su se stesse (fenomeno noto come moto
retrogrado). Questo fenomeno ai tempi di Platone costituiva il principale problema da
risolvere, e Platone si convinse che fosse possibile render conto di ogni irregolarità,
“salvare i fenomeni” come si diceva, in termini di movimento perfettamente circolare:
un problema difficile ma non di impossibile soluzione per il livello della matematica di
allora.

La prima soluzione a questo problema,


assai ingegnosa dal punto di vista matematico, fu
escogitata nell’ambito dell’Accademia dal
matematico Eudosso (408 a.C.–355 a.C.). Egli
suppose che il movimento dei pianeti osservato
poteva venir rappresentato matematicamente se vi
fosse immaginato ogni pianeta come posto
sull’equatore di un sfera rotante con velocità
uniforme, i cui poli fossero trasportati da una sfera
più ampia, rotante a sua volta sul proprio asse con
velocità uniforme. Si assumeva che tutte le sfere avessero lo stesso centro, ma che i poli
di ognuna fossero differenti e, di conseguenza, differenti fossero anche le loro rotazioni.
Supponendo tre sfere per il Sole e la Luna, quattro per ogni pianeta e una per le stelle
fisse, Eudosso fu in grado di rappresentare tutti i movimenti conosciuti dei corpi celesti,
anche i movimenti retrogradi. Oggi il principio generale che sta alla base di tutte le
teorie astronomiche è un principio dinamico (si veda la legge di gravitazione universale
di Newton), ai tempi di Eudosso, mancando ogni nozione esatta di dinamica, tale
principio non poteva essere che di carattere geometrico. Ciò ha fornito al sistema
eudossiano l’aspetto di semplice modello teorico ideato per descrivere l’ordine dei
fenomeni celesti, non per indicarcene le cause. Le sfere di Eudosso erano sfere
matematiche, non materiali, e rappresentavano una descrizione matematica dei
movimenti celesti, non un modello fisico. Il sistema di Eudosso rispondeva alle richieste
di Platone ed aveva l’ulteriore vantaggio di sottolineare la posizione centrale della
Terra.
Il grande merito di Eudosso è stato quello di liberare l’astronomia da ogni
infiltrazione teologica, di averne fatto un sistema matematico del mondo, che oggi
apparirebbe inidoneo a rendere conto dei molti fenomeni astronomici che si osservano,
ma che nel IV secolo poteva a buon diritto venir considerato come una spiegazione
abbastanza soddisfacente di gran parte dei dati osservativi. Per cui, ciò che conta, è il
carattere scientifico della teoria ideata da Eudosso, la formulazione rigorosamente
matematica data alle leggi astronomiche, il potente sforzo razionalistico che sorregge
tale costruzione.
Non sorprende che, considerando la sua credenza che vi fosse una profonda
differenza tra il mondo matematico di pure forme ed il mondo fisico intermistione di
forma e materia, Aristotele fosse turbato dal modo in cui Eudosso aveva risolto il
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 8;!

problema di Platone. Egli ne comprese la forza matematica, e approvò il mantenimento


del movimento circolare, ma deprecò la sua struttura puramente matematica. Ciò di cui
Aristotele aveva bisogno, era che le sfere concentriche di Eudosso conservassero la
stessa forza esplicativa, anche se fossero state sfere materiali. Esse, evidentemente,
avrebbero dovuto essere costituite da un materiale perfetto ed immutabile, adatto alla
regione celeste, assolutamente trasparente, perciò invisibile: la quintessenza (più avanti
chiamata cristallino). Le sfere corporee giravano perché il movimento circolare era il
movimento naturale dei cieli. Ma la loro corporeità, insieme con la convinzione di
Aristotele che l’universo dovesse essere studiato come un tutto, lo portò a concludere
che queste sfere che determinano i movimenti planetari dovessero essere, in qualche
maniera, fisicamente connesse.
Connettendo tutte le varie sfere inferiori al primum mobile (primo motore),
Aristotele fu spinto a introdurre un gran numero di complicazioni e ad aumentare il
numero totale di sfere, ma il suo sistema meccanico aveva il notevole vantaggio di
offrire, per la prima volta, una rappresentazione dell’universo come un tutto con le sue
parti interconnesse, ognuna delle quali seguiva la sua naturale, sebbene non
matematica, legge.

Malgrado la sua meravigliosa simmetria, il sistema di Eudosso si trovò tuttavia,


fin dall’inizio, di fronte ad una difficoltà insolubile, quella del diverso splendore dei
pianeti ( specialmente di Marte e Venere) nei diversi periodi della loro rotazione. Tale
variabilità non si conciliava con l’ipotesi della concentricità alla Terra delle sfere dei
pianeti, perché questa ipotesi avrebbe comportato come conseguenza la costanza della
loro distanza dalla Terra e quindi la costanza del loro splendore. Fu un discepolo di
Platone, e contemporaneo di Eudosso, Eraclide Pontico (385 a.C.-322 a.C., o secondo
altri 390 a.C.-310 a.C.), a superare questa difficoltà intuendo che il centro di rotazione
dei pianeti dovesse essere il Sole e non la Terra; suppose pertanto che, mentre il Sole
gira intorno alla Terra, i due pianeti in questione girino nello stesso senso intorno al
Sole secondo sfere di raggio minore. Non ci sono notizie certe su come abbia risolto la
questione per gli altri pianeti. Eraclide notò pure che se la Terra ruotasse sul proprio
asse, si renderebbe conto del sorgere e del tramontare giornaliero dei pianeti e delle
stelle fisse, che in questo caso sarebbero veramente fisse. L’astronomia di Eraclide,
anche se meno rigorosa di quella di Eudosso, rivela un’orientazione nuova, un carattere
che l’avvicina a concezioni molto più moderne. Tanto è vero che un sistema simile verrà
ripreso da Tycho Brahe nel XVI secolo.

Ancora più tormentante è la storia di Aristarco da Samo (ca. 310 a.C.–ca. 230
a.C.), contemporaneo di Archimede, il quale non attribuì movimento alle stelle fisse e al
Sole, ma affermò che la Terra gira intorno al Sole percorrendo un’orbita circolare, e,
presumibilmente, pensava anche che la Terra ruotasse quotidianamente sul suo asse.
Aristarco scrisse un libro su questa ipotesi, come Archimede la chiamò: “La sua
ipotesi è che le stelle fisse e il Sole rimangano immobili, che la Terra giri attorno al Sole
seguendo la circonferenza di un cerchio, e che il Sole giaccia nel centro di tale orbita”
ma è andato perduto. Non conosciamo gli argomenti con cui Aristarco arrivò alla sua
ipotesi eliocentrica, ma dall’altra sua opera in nostro possesso vediamo tuttavia che egli
procede con metodo rigorosamente scientifico, scindendo le proposizioni base del
proprio ragionamento dalle deduzioni che ne discendono: le prime ricavate
dall’osservazione, le seconde dedotte per via matematica. Lo scarso interesse per
8=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

l’ipotesi di Aristarco tra i suoi contemporanei decretò il fallimento di un’ipotesi ispirata


e geniale ma non plausibile e non provata, di fronte a una forma di pensiero matematico
e fisico, che si accordava con l’evidenza sensibile.

Le obiezioni scientifiche rivolte al modello eliocentrico erano più o meno quelle


addotte nell’età moderna contro Copernico e Galileo: in parte di natura geometrica, in
parte di natura fisica. Geometricamente risultava inspiegabile la presunta assenza di
una parallasse delle stelle fisse, cioè il fatto che la loro posizione non sembra mutare
attraverso il moto di rivoluzione della Terra (in realtà una parallasse esiste ed è
possibile misurarla solo con strumenti raffinati non disponibile a quell’epoca). Da un
punto di vista fisico sembrava impensabile che il moto rapidissimo della Terra, richiesto
dalla teoria eliocentrica, non producesse su di noi effetti catastrofici. Appunto
argomenti di questa natura inducevano gli astronomi del tempo a riaffermare il sistema
geocentrico. Però, gli astronomi greci si resero conto di certe complesse variazioni
periodiche nei movimenti di alcuni pianeti, che non potevano essere spiegate attraverso
il sistema di sfere concentriche di Eudosso. Furono conseguentemente escogitati nuovi
metodi matematici, provati con un tal successo su un sistema geostatico che non c’era
bisogno di provare ad adattarli al sistema di Aristarco.

Il più fortunato espediente, associato al matematico


Apollonio (262 a.C.–190 a.C.), fu la combinazione di cerchi
conosciuti come epiciclo e deferente. Si considerava il pianeta
come posto su una circonferenza di un piccolo cerchio
l’epiciclo, il cui centro era posto sulla circonferenza di un
cerchio più ampio, il deferente. Il centro del deferente
poteva essere o la Terra o qualche altro punto, nel qual
caso era eccentrico. Sia l’epiciclo che il deferente ruotavano
attorno ai loro centri. E’ facile percepire che il pianeta
seguirà un percorso a cappio, riproducendo il moto
retrogrado richiesto. Inoltre, adattando sia le grandezze
che le velocità dei cerchi ad ogni caso, si può ottenere una rappresentazione matematica
del movimento dei pianeti.
Nel farsi sostenitore del modello geocentrico, Ipparco
di Nicea (190 a.C.–120 a.C.), il più grande astronomo
dell’antichità greca i cui lavori servirono da ispirazione
all’ultimo dei grandi astronomi greci, Tolomeo, cercò di
renderlo più rispondente alle osservazioni empiriche facendo
ampiamente ricorso a due ingegnosi meccanismi: le sfere
eccentriche e gli epicicli. Le sfere di Eudosso, come quelle di
Aristotele, hanno tutte il loro centro nel centro della Terra.
Attraverso il modello degli eccentrici la Terra è spostata fuori
dal centro. La Terra non si trova più in C, centro esatto del
cerchio di rivoluzione, ma in T, così che quando il pianeta è più vicino alla Terra
(perigeo) appare più brillante e sembra muoversi più velocemente, mentre quando è
più distante (apogeo) brilla meno, appare più piccolo ed è più lento. In tal modo i
pianeti variavano periodicamente non solo la posizione rispetto agli altri corpi celesti,
ma anche la loro distanza dalla Terra; il che spie gava il variare del diametro della Luna
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 84!

e della luminosità dei pianeti, particolarmente sensibile per Venere e Marte. Equivalente
da un punto di vista geometrico è la teoria degli epicicli, vista già a proposito di
Apollonio.

Al modello geocentrico fornì definitiva


sistemazione Claudio Tolomeo (100-178 d.C. circa)
L’opera di Tolomeo, Sintesi matematica,
generalmente conosciuta come l’Almagesto
(traduzione latina di una traduzione araba che
significa “il più grande”), scritta intorno al 150 d.C.,
fu contemporaneamente la prima completa
rappresentazione cosmologica dell’universo dai
tempi di Aristotele e il primo trattato completo di
astronomia matematica dopo Eudosso. E’ davvero il
massimo lavoro astronomico sopravvissuto
dall’antichità, ed espone in dettaglio i metodi
geometrici per calcolare come si spostano in cielo il
Sole, la Luna e i pianeti conosciuti. Il risultato è
impressionante, ed è raggiunto con l’aiuto di tre
espedienti principali: l’eccentrico, l’epiciclo e
l’equante. I primi due sono stati analizzati in precedenza, il terzo, l’equante, fu
introdotto per giustificare le variazioni apparenti nel moto dei pianeti attorno alla
Terra. Tolomeo sapeva come determinare un punto all’interno di un cerchio da cui la
velocità del pianeta apparisse costante. Questa è ovviamente una costruzione
matematica che equalizza i moti. Di qui il nome di equante per il punto T, che non è il
solito centro di una qualche rivoluzione, ma un utile artificio geometrico.
La fisica di Aristotele costituisce lo sfondo dell’opera di Tolomeo, infatti conserva
le sfere sublunari di Aristotele e la distinzione tra fisica celeste e fisica terrestre. Ma il
sistema cosmologico che ne risulta è incompatibile con quello aristotelico, non solo
perché geometricamente diverso, ma perché l’introduzione di epicicli ed eccentrici,
nonché di altri più sottili artifici, come il punto equante, utilizzati per far quadrare la
teoria con le osservazioni, fa sì che il modello, più che proporsi come una
rappresentazione realistica, sembra, piuttosto, una finzione matematica. Tolomeo,
infatti, considerava una singola costruzione alla volta, e operava come se tutti gli altri
aspetti del moto del pianeta fossero irrilevanti al fine di quanto stava facendo.
Nell’Almagesto non troviamo un insieme di costruzioni geometriche che sia in grado di
giustificare tutti i movimenti di un pianeta contemporaneamente, e tanto meno del
moto di tutti i pianeti. L’esortazione platonica, ricercare mezzi matematici di
rappresentazione del moto osservato dei corpi celesti in termini di movimento circolare,
non era mai stata prima seguita così completamente e accuratamente. Quando Tolomeo
indica i cieli come divini e la scienza dei corpi celesti come qualcosa dotato di validità
eterna esprime il comune sentire di molti astronomi dell’epoca, influenzati da Platone e
dagli Stoici. Il riflettere sulla regolarità matematica dell’ordine planetario avrebbe
ispirato l’uomo a stabilire una analoga armonia nel proprio animo.
Quali erano dunque le intenzioni di Tolomeo? Di sicuro non era alla ricerca di
una teoria cosmologica completa. Sembrava invece convinto che il proprio lavoro fosse
quello di “salvare le apparenze”, cioè “dare conto di come i corpi celesti apparissero”, e non di
85! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

offrire una spiegazione fisica del loro moto. Tolomeo non si pose mai il problema della
realtà fisica delle sue costruzioni geometriche.
Tolomeo diede dei contributi importanti anche nell’ottica geometrica, attraverso
l’opera l’Ottica, sulla scia della tradizione euclidea, ma a differenza di Euclide non si
limita alla trattazione matematica ma descrive anche i processi fisici della visione e delle
conseguenti illusioni ottiche. Come Euclide, però, anche Tolomeo segue la teoria
platonica della visione. Di particolare importanza è lo studio della rifrazione della luce
per i mezzi aria-acqua, aria-vetro, acqua-vetro, attraverso esperimenti realizzati con una
apparecchiatura sostanzialmente uguale a quella elementare moderna. Tolomeo indica
che la rifrazione avviene sempre, nel passaggio da un mezzo all’altro più denso, alla
superficie di separazione dei due mezzi ed enuncia in maniera corretta la prima legge
della rifrazione: il raggio incidente e quello rifratto si trovano in un piano
perpendicolare alla superficie rifrangente (o al piano tangente nel punto d’incidenza).
Sperimentalmente, poi, egli determina l’angolo di rifrazione in corrispondenza a vari
angoli d’incidenza con risultati molto vicini a quelli oggi ottenuti. Secondo alcuni
studiosi, la legge immaginata da Tolomeo per tali calcoli è la seguente: ρ=ai–bi2 dove ρ
indica l’angolo di rifrazione, a e b sono costanti relative ai mezzi in esame.
Secondo Tolomeo l’immagine data per rifrazione è vista dall’occhio
nell’intersezione del prolungamento del raggio incidente con la normale alla superficie
rifrangente condotta dal punto-oggetto. Altro contributo importante all’ottica è lo
studio accurato della rifrazione astronomica, e Tolomeo deduce correttamente che per
tale effetto le stelle sono sopraelevate apparentemente, per cui saranno visibili
all’orizzonte stelle che ancora non si sono levate e si vedranno stelle che sono già
tramontate.

La teoria planetaria fu un importantissimo contributo della matematica alla


comprensione della struttura e dell’armonia dell’universo. Il suo concetto basilare, che
le apparenti irregolarità del movimento dei corpi celesti potessero essere ricondotte ad
una legge matematica, era ardita ed audace. Gli astronomi greci, allora, cominciarono a
misurare l’universo, e con ciò lo riducevano ancor di più ad una entità intelligibile
passibile di venir trattata matematicamente.

2.12 La fine del mondo antico

Il secolo di Euclide, Aristarco, Archimede, Eratostene, fu uno dei più brillanti


periodi della scienza greca. Nello stesso periodo si svilupparono alcune filosofie
individualistiche, come l’epicureismo, lo stoicismo, lo scetticismo e il neoplatonismo,
che si avvicinavano a dottrine scientifiche o pseudoscientifiche. Caratteristico di tutte
queste correnti filosofiche, ad eccezione del neoplatonismo, è l’empirismo: la nostra
conoscenza ha inizio e fondamento nelle sensazioni, e che l'evidenza sensibile è in
definitiva il massimo criterio di verità. Ma poi nell'intendere e nell’applicare questo
criterio empiristico si trovano notevoli differenze. Il problema fondamentale è se, entro
quali limiti, e con quale tecnica, si possa trascendere l'esperienza immediata per
giungere a conoscenze generali intorno al mondo reale.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 86!

Lo stoicismo, fondato da Zenone di Cizio (336-335 a.C.–264-263 a.C.), poneva


come fine della ricerca non la scienza, ma la felicità per mezzo della virtù, ma la scienza
era necessaria per raggiungerla, per cui la fisica e la logica erano parte integrante della
filosofia stoicistica. Il concetto fondamentale della fisica stoica è quello di un ordine
immutabile, razionale, perfetto e necessario che governa e sorregge infallibilmente tutte
le cose e le fa essere e conservarsi quelle che sono. Identificando Dio con il cosmo e con
il suo ordine, la dottrina stoica è un rigoroso panteismo.
Alle quattro cause aristoteliche (materia, forma, causa efficiente e causa finale) gli
stoici sostituiscono due principi: il principio attivo e il principio passivo, che sono
entrambi materiali, e inseparabili l’uno dall’altro. Il principio passivo è la sostanza
spoglia di qualità, cioè la materia; il principio attivo è la ragione, cioè Dio che agendo
sulla materia produce gli esseri singoli. La materia è inerte, e , sebbene pronta a tutto,
rimane immobile se nessuno la muove. La ragione divina forma la materia, l’avvolge e
la compenetra e ne produce le determinazioni. La sostanza da cui ogni cosa nasce è la
materia, il principio passivo; la forza da cui ogni cosa è fatta è la causa o Dio, il principio
attivo. Da queste considerazioni deriva che gli stoici dettero grande importanza
all’astrologia. Per loro era assolutamente ragionevole che ciò che accadeva nel
macrocosmo (universo) dovesse influenzare il microcosmo (l’uomo).
Lo stoicismo sostenne anche la concezione dell’universo come un continuum, in
diretta contraddizione con la dottrina atomistica. Infatti, secondo gli stoici, la sostanza
attiva dell’universo è il pneuma (in greco: respiro, spirito) che tiene unite e vivifica tutte
le cose; un miscuglio di fuoco e aria atto ad accentuare la caratteristica attiva degli
elementi. Gli stoici furono influenzati dalla tecnica alessandrina, giacchè calore ed aria
compressa erano i segreti principi animatori delle macchine ideate dagli ingegneri di
Alessandria, e dalle osservazioni di Ctesibio o di Filone, che condussero appunto
all’idea di pneuma. Come testimonia Plutarco: “La materia passiva è il substrato delle
qualità, e queste qualità consistono in tensioni del neuma e dell’aria che ineriscono alle
parti della materia e ne determinano la forma”. La tensione (pneumatica) è dunque la
caratteristica essenziale di tale sostanza che, come l’etere della fisica posteriore, penetra
ovunque e si estende per tutto l’universo. Gli stoici fissarono la propria attenzione su
questo mezzo continuo e attivo, e furono così indotti a compiere una delle maggiori
acrobazie concettuali della fisica antica.
Forse seguendo una incerta intuizione di Democrito, gli stoici portarono
all’acustica il contributo più importante dopo quelli dovuti alla scuola pitagorica.
Testimonia Ezio: “Gli stoici dicono che l’aria non è composta di particelle, ma è un
continuo privo di spazi vuoti. Se è colpita da un impulso, produce onde circolari che
avanzano in successione ordinata, finché tutta l’aria circostante risulta mossa, così
come l’acqua di uno stagno è mossa da una pietra che cade in essa. Mentre però in tal
caso il moto è circolare, l’aria si muove sfericamente. Noi udiamo perché l’aria
interposta fra chi emette la voce e chi ode il suono colpito si spande secondo onde
sferiche che toccano il nostro orecchio, così come le onde di uno stagno si espandono in
cerchio allorché vi gettiamo un sasso”. La caratteristica tensionale del pneuma è ciò che
consente alle onde di espandersi in un mezzo continuo illimitato. Se si tiene presente
questa veduta della propagazione del suono è facile riconoscere un primo passo verso
un concetto più generale che, nelle scienza ottocentesca, diverrà poi quello di un etere
elastico, suscettibile di vibrazioni ondulatorie.
Anche la teoria della visione degli stoici è legata alla presenza del pneuma. Dalla
sede della coscienza il pneuma fluisce all’occhio e eccita l’aria adiacente, mettendola in
87! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

uno stato di tensione. Quando questa aria viene illuminata dal sole viene stabilito un
contatto con l’oggetto visibile. L’anima esercita una “pressione” sulla pupilla attraverso
il pneuma e l’aria si allarga a forma di cono fino all’oggetto. Ricorda Diogene Laerzio:
“Secondo Crisippo la vista è dovuta al fatto che la luce si estende a cono fra
l’osservatore e l’oggetto osservato. così il segnale viene trasmesso all’osservatore per
mezzo dell’aria in stato di tensione, proprio come un bastone”. La teoria emissionistica è
qui rifiutata, e quantunque una concezione diversa sia appena accennata, si può dire
che comincia già il conflitto fra opposte vedute sulla natura della luce, che avrà tanta
parte nello sviluppo della fisica moderna.
In definitiva, lo stoicismo, nonostante le sue geniali intuizioni fisiche,
rappresentò una specie di pervertimento della scienza, non diversamente dal tardo
platonismo, che doveva fare del misticismo dei numeri la chiave di una esperienza
mistica.

La fisica di Epicuro (341 a.C.–271 a.C.), invece, a differenza dello stoicismo, ha lo


scopo di escludere dalla spiegazione del mondo ogni causa soprannaturale e di liberare
così gli uomini dal timore di essere alla mercé di forze sconosciute e di misteriosi
interventi. Per raggiungere questo scopo, la fisica dev'essere: materialistica, cioè
escludere la presenza nel mondo di ogni "anima" o principio spirituale; meccanicistica,
cioè avvalersi nelle sue spiegazioni unicamente del movimento dei corpi escludendo
qualsiasi finalismo.
Poiché la fisica di Democrito rispondeva a queste due condizioni, Epicuro la
adattò e la fece sua con talune modificazioni. Infatti, le differenze fra la fisica di
Democrito e quella di Epicuro sono parecchie. In primo luogo, Epicuro ritiene che gli
atomi, pur essendo fisicamente od ontologicamente indivisibili, siano logicamente o
mentalmente divisibili in frammenti o "parti" di grandezza inferiore - i cosiddetti
«minimi» - i quali, a loro volta, non risultano più divisibili nemmeno dal punto di vista
teorico. In secondo luogo, mentre Democrito aveva distinto gli atomi secondo «figura»,
«ordine» e «posizione», Epicuro li distingue per «figura», «peso» e «grandezza».
L'introduzione del peso segna una spaccatura netta nei confronti di Democrito. Infatti,
mentre per quest'ultimo gli atomi hanno come proprietà strutturale il movimento, il
quale rappresenta un dato originario della materia, che non ha bisogno di essere
dedotto, Epicuro per spiegare il moto ricorre invece al peso, il quale fa sì che gli atomi
cadano nel vuoto in linea retta e con la stessa velocità. Da ciò la formulazione di un'idea
completamente assente in Democrito, quella del clinamen. L’introduzione del clinamen
(termine latino con cui Lucrezio traduce il vocabolo greco parénklisis=deviazione,
declinazione) o deviazione degli atomi dalla linea retta, venne escogitata da Epicuro per
rendere possibile l'urto degli atomi. Infatti, se gli atomi cadono perpendicolarmente nel
vuoto alla stessa velocità, ci si può chiedere perché gli atomi non cadano sempre per
linee parallele (ovvero senza incontrarsi). Per risolvere la difficoltà, Epicuro parla di una
declinazione casuale e spontanea degli atomi dalla loro traiettoria, grazie a cui avviene
l'incontro, e perciò l'interazione, fra atomi. In questo modo nell’atomismo epicureo
compare un importante aspetto della fisica moderna: l’indeterminismo. Lucrezio, nel
suo capolavoro scientifico De rerum natura, lo esprime con queste splendide ed efficaci
parole: “incerto tempore… incertisque loci” (in un luogo e un tempo del tutto incerti).
Tale dottrina non fu elaborata solo per ragioni fisiche, ma anche (e forse
soprattutto) per ragioni etiche. Infatti, una fisica come quella dell'atomismo poteva
portare diritto al determinismo e quindi alla negazione di ogni forma di libertà, invece,
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 88!

l'ipotesi della casualità degli incontri atomici finiva per introdurre, nella realtà, un
elemento di indeterminazione e di spontaneità, conciliabile (almeno così sembrava) con
l'agire libero e spontaneo dell'uomo.
Come gli Stoici, Epicuro afferma che tutto ciò che esiste è corpo perché solo il
corpo può agire o subire un'azione. D'incorporeo, egli non ammette che il vuoto, ma il
vuoto non agisce né patisce alcunché ma solo permette ai corpi di muoversi attraverso
se stesso. Tutto ciò che agisce o subisce è corpo e ogni nascita o morte non è che
aggregazione o disgregazione di corpi. Epicuro, perciò, ammette con Democrito che
nulla viene dal nulla e che ogni corpo è composto di corpuscoli indivisibili (atomi) che
si muovono nel vuoto. Nel vuoto infinito, gli atomi si muovono eternamente urtandosi
e combinandosi tra loro. Le loro forme sono diverse; ma il loro numero, per quanto
indeterminabile, non è infinito. Il loro movimento non ubbidisce ad alcun disegno
provvidenziale, ad alcun ordine finalistico. Gli Epicurei escludono esplicitamente la
provvidenza stoica e la critica a tale provvidenza costituisce uno dei temi preferiti della
loro polemica. Eliminata dal mondo l'azione della divinità, non rimangono, per spiegare
l'ordine di esso, che le leggi che regolano il movimento degli atomi. A queste leggi nulla
sfugge, secondo gli Epicurei; esse costituiscono la necessità che presiede a tutti gli
eventi del mondo naturale.
Un mondo è, secondo Epicuro, “un pezzo di cielo che comprende astri, terre e
tutti i fenomeni, ritagliato nell'infinito”. I mondi sono infiniti; essi sono soggetti a
nascita e a morte. Tutti si formano in virtù del movimento degli atomi nel vuoto
infinito. Ma poiché Epicuro ritiene che gli atomi, in virtù del loro peso, cadano nel
vuoto in linea retta e con la stessa velocità, in virtù dei loro urti e deviazioni casuali si
aggregano e si dispongono nei vari mondi. Questa deviazione degli atomi è l'unico
evento naturale non sottoposto a necessità. Essa, come dice Lucrezio, «spezza le leggi
del fato», ed introduce nella natura stessa un fattore che nel linguaggio della fisica
moderna si direbbe un “principio di indeterminazione”, e ciò consente di sfuggire ad un
rigoroso determinismo delle leggi naturali, e a fondare quel libero arbitrio che consente
di rispondere alla domanda: perché mai abbattere gli dèi e il fato, se dobbiamo poi farci
schiavi di una dura necessità fisica che annulla la nostra libertà?
Diversamente da Democrito, Epicuro non aveva un preminente interesse per la
ricerca naturalistica e, tanto meno, matematica, però, nella storia del pensiero scientifico
Epicuro ci interessa soprattutto per lo sviluppo che dette all’idea di scienza come
aspetto fondamentale della cultura. Per lui la scienza comincia a manifestare tutto il suo
valore proprio per via di quegli aspetti che molti scienziati considerano meno
importanti: la possibilità di formare una retta coscienza umana, di liberare lo spirito da
superstizioni, di fornire una visione del mondo nella sua totalità, forse soltanto
approssimata, ma penetrante e significativa. Per Epicuro è più importante la
spiegabilità di un fenomeno che non la sua spiegazione.
Un empirismo ancora più rigido è quello degli scettici, che, svolgendo una libera
critica dei criteri della verità, si oppongono a tutte le scuole dogmatiche dell'epoca,
affermando che non si può in alcun caso sorpassare l'ordine dei fenomeni. L'unica
conoscenza possibile è quella che registra connessioni costantemente verificabili tra cose
sensibili, senza pretendere di risalire con ciò a realtà prime. Fondatore dello scetticismo
fu Pirrone di Elide (ca. 365-275 a.C.), del quale Diogene Laerzio dice: “Riguardo a ciò
che i dogmatici stabiliscono con il ragionamento, pretendendo di conoscere con
certezza, noi ce ne asteniamo, dichiarando che tutto ciò non è manifesto a noi, e quanto
89! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

conosciamo sono solo le nostre impressioni … che questo ci appaia bianco lo diciamo
come espressione di un nostro sentire, ma senza affermare che esso sia tale in realtà …
Affermiamo ciò che a noi appare, non ciò che è l’essere in se stesso … essi (gli stoici) si
attengono ai fenomeni, in quanto appaiono”. L’atteggiamento è quello di un positivista
che si limita a registrare dei “protocolli” di ricerca, il principio è quello del “dubbio
metodico” previsto dal metodo cartesiano.
Il massimo esponente dello scetticismo fu Carneade da Cirene (ca. 214-119 a.C.),
pensatore lucido, che ha importanza notevole nella filosofia della scienza per aver
enunciato una dottrina della scienza stessa come conoscenza probabile. Ogni
dimostrazione logica deriva necessariamente da certe premesse. Per darle un
fondamento indiscutibile, dovremmo risalire di premessa in premessa, ma si avrebbe,
così, un regresso all’infinito, altrimenti occorrerebbe ammettere che le premesse
possono essere dimostrate dalle conseguenze, e si cadrebbe in un circolo vizioso. La
conseguenza, osserva Carneade, è che non possiamo mai avere una certezza, ma vi sono
fatti più probabili di altri.

La corrente del neoplatonismo interessa alla storia della scienza per il suo
concetto della natura, e per il modo impareggiabile di esprimere “le bellezze del mondo
sensibile, le sue proporzioni, la sua regolarità”. I misticheggianti neoplatonici hanno un
vivo senso della maestà della natura che li induce a cercare ansiosamente “la Bellezza
da cui proviene questa bellezza”. Il massimo esponente del neoplatonismo è Plotino
(204-270 d.C.). Tutta la sua visione morale è determinata dalla assoluta trascendenza
platonica della vera realtà, che egli rinnova. Questa realtà divina si espande, si riversa
sul mondo sensibile inferiore per emanazione, come il calore, la luce, il suono o l’acqua,
che emanano dalla sorgente. L’intelletto emana dall’Uno (il Dio di Plotino), e
nell’intelletto il mondo esiste come mondo delle idee, in senso platonico. L’anima
emana a sua volta dall’intelletto, ed è l’unità di tutte le forze vitali che reggono
l’universo concreto. Infine questa solida realtà, la natura, sorge dalla mescolanza della
oscura materia conn le emanazioni dell’anima e dell’intelletto. La materia è la cupa
prigione, priva di bontà e di realtà. Il compito dello spirito umano è quello di salire
verso l’Uno attraverso i gradi ascendenti della virtù, della bellezza, della sapienza
filosofica, dell’estasi.
L'Uno è la prima realtà sussistente. Esso non può contenere alcuna divisione,
molteplicità o distinzione; per questo è al di sopra persino di qualsiasi categoria di
essere. Il concetto di "essere" deriva infatti dagli oggetti dell'esperienza umana, ed è un
attributo di questi, ma l'infinito trascendente Uno è al di là di tali oggetti, quindi al di là
dei concetti che ne deriviamo, per cui Plotino pone l’Uno al di sopra dell'Essere a
differenza non solo di Parmenide, ma anche di Aristotele e Platone. L'Uno “non può
essere alcuna realtà esistente” e non può essere la mera somma di tutte queste realtà
(diversamente dalla dottrina stoica che concepiva Dio immanente al mondo), ma è
“prima di tutto ciò che esiste”. All'Uno quindi non si possono assegnare attributi. Ad
esempio, non gli si possono attribuire pensieri perché il pensiero implica distinzione tra
il pensante e l'oggetto pensato. Allo stesso modo, non gli si può attribuire una volontà
cosciente, né attività alcuna. Se questa concezione conduce Plotino a vedute paradossali,
come “Alcuni mali, ad esempio la povertà e la malattia, giovano a quelli che li
subiscono”, è vero anche che infonde un senso maestoso alla natura, le cui bellezze sono
anima e pensiero immanenti nella materia.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 8:!

A tanta raffinatezza, e dopo gli studi recenti possiamo anche dire modernità, di
queste scuole filosofiche nel campo logico e metodologico, non corrisponde
praticamente nulla nel campo della conoscenza scientifica della natura. La fisica stoica,
estremamente composita ed eclettica, costruita sulla base di un apriorismo e di un mate-
rialismo di dubbia lega, nei secoli successivi si corromperà al punto di farsi fondamento
piuttosto della superstizione magica ed alchimistica che non della scienza. La fisica
epicurea mostra mescolate stranamente volgari superstizioni e felici intuizioni
scientifiche (per esempio, che il tuono e il fulmine sono due aspetti dello stesso
fenomeno, ma vengono percepiti distintamente a causa delle diverse velocità del suono
e della luce) ed il suo merito maggiore consiste nell'aver riproposta, e salvata per la
posterità, la teoria atomica di Democrito.
9<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

!"#$%&'&!!!

Solo i cretini hanno una risposta


per ogni domanda
Vincenzo Pappalardo

!"#$%&'%#,%$(&%#

3.1 Roma e la scienza

La decadenza dello spirito scientifico è l’aspetto più rilevante della crisi della
cultura greco-romana, soprattutto perché palesa con la massima evidenza l’elemento
più caratteristico di tale crisi: l’abbandono dell’atteggiamento razionale verso la realtà.
Il processo di decadenza ha un andamento lento e progressivo e inizia all’incirca nella
seconda metà del II secolo a.C. e raggiunge la piena maturazione nel IV e V secolo. Si
assiste in questo periodo ad un impoverimento della ricerca originale, che si sposta
verso altri campi (magia, alchimia, astrologia) in cui gli elementi fideistici e mistici
prevalgono su quelli razionali. La ricerca scientifica subisce una stasi notevole e
predomina un tipo di letteratura manualistica ed enciclopedica che tende più che altro a
volgarizzare i dati conseguiti nelle varie scienze.
Durante il periodo ellenistico, i romani non si interessarono molto della scienza,
intesa come strumento per capire la natura, ma delle sue applicazioni pratiche. Il greco
rimase la lingua della parte orientale dell’impero, e anche nella parte occidentale il
greco fu la lingua della cultura. Pertanto, il contributo specifico recato da Roma alla
scienza greca-alessandrina è stato pressoché nullo. Catone, che faceva parte di quel folto
gruppo di conservatori romani che avversavano l’introduzione a Roma della cultura
greca, nei suoi celebri Precetti al figlio, scriveva: “E’ si bene avere notizie delle lettere
greche, ma non studiarle a fondo. Razza cattivissima ed indocile è quella dei Greci, e fa
conto che sia un profeta che ti dice questo: se, quando che sia, codesta gente ci darà la
scienza, manderà tutto in rovina”.
Le cause dello sfacelo del pensiero scientifico durante l’impero romano vanno
ricercate nella storia sociale stessa dell’impero, ossia in quella struttura schiavistica
dell’economia che fa il vuoto tra il ceto dei contadini affamati ed analfabeti e il ceto
degli alti funzionari dell’amministrazione civile e dell’esercito. Viene a mancare, quindi,
quella classe agiata che coltivava la cultura come ad Alessandria o Atene. Inoltre, la
plebeizzazione dell’impero avrà conseguenze culturali particolarmente gravi.
Lentamente le vecchie classi aristocratiche scompaiono a tutto vantaggio di nuove forze
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 9;!

sociali e politiche, spesso di origine servile e a volte barbarica. Si tratta di uomini che
non hanno vocazioni culturali, e né i tempi turbinosi e né la perenne instabilità
economica e politica, permettono il formarsi di una nuova classe sociale aperta al
rinnovamento culturale. Anzi, quando guardano alla cultura, sentono più il richiamo
delle religioni, delle superstizioni magistiche che della scienza. Così, in una società in
pieno sfacelo che preannuncia il medioevo, la scienza aveva perduto ogni rigore di
analisi, veniva a confondersi con la superstizione. Nel frattempo, è vero, sarà sorta una
nuova classe sociale, quella degli ecclesiastici, e in seguito dei monaci, capace di
assumere la tutela e cultura del sapere; ma tale funzione verrà assunta troppo tardi,
dopo che era avvenuta un’irreparabile distruzione del patrimonio culturale.
Però non si può dire che, preso complessivamente, l’atteggiamento del mondo
romano sia stato ostile alla cultura greca, anzi l’impero sentì il dovere di sostituirsi ai
sovrani ellenistici di Pergamo e di Alessandria mantenendo in vita le istituzioni
culturali da questi fondate, e schiavi greci furono i precettori dei ricchi ragazzi romani.
Attraverso queste istituzioni la cultura greco-ellenistica si diffonde in tutto l’occidente
europeo divenendo, da allora e per tutti i secoli successivi, la cultura europea. Il
contributo dei romani alla scienza in senso stretto, però, fu scarsissimo, assolutamente
sproporzionato alla loro importanza politica.

Un esempio tipico di decadimento di ogni spirito di ricerca è rappresentato da


Seneca (ca. 4 a.C.–65 d.C. ) con la sua opera Naturales Quaestiones, una raccolta di
nozioni di seconda mano, messe insieme senza spirito critico, mescolate a riflessioni
pseudofilosofiche. Pure in questa imbarazzante confusione di idee non manca qualche
veduta notevole, come i passi dedicati alle comete che, contrariamente ad Aristotele che
le considerava fenomeni metereologici che si producono nell’atmosfera fra la Terra e la
Luna, Seneca considerava dei veri corpi celesti. Piuttosto che nei particolari delle
osservazioni scientifiche, l’originalità di Seneca deve cercarsi nella comprensione storica
e umanistica che egli ha della scienza, e nella fiducia che manifesta del suo progresso
futuro. Nel seguente passo è molto evidente l’idea premonitrice e moderna di
progresso, davvero notevole per il suo tempo: “La scienza è in continuo divenire, la
verità è sempre in cammino, e il fascino del mistero ci mette sulla strada. Un giorno
molti segreti saranno svelati con gli studi accumulati nei secoli. Una sola età non basta
a risolvere tanti problemi delle cose celesti, fosse essa tutta dedicata al cielo. Verrà
tempo in cui i posteri stupiranno che noi abbiamo ignorato fatti così chiari … Le grandi
scoperte si fanno lentamente, ed occorre che non si arresti mai il lavoro dell’intelletto”.

In questa età di ristagno, dedita alla pratica, ma con gli occhi volti al passato,
senza vere possibilità creatrici, i romani scrissero libri sull’agricoltura, sui macchinari,
come fece Vitruvio (80/70 a.C.–23 a.C.) la cui opera Sull’architettura (tardo I sec a.C.)
deriva soprattutto da fonti greche; ma, soprattutto, pullulò di dossografi e
commentatori, come Diogene Laerzio (180-240 d.C.), i quali lasciarono molte
testimonianze sui grandi pensatori del passato, testi preziosi per lo storico della scienza.
I romani amavano le enciclopedie, agili compendi che fornissero facili sintesi di
conoscenza greca. Queste enciclopedie non sono che centoni di notizie scientifiche non
sempre criticamente vagliate e con l’aggiunta di poche osservazioni personali. Testi
importantissimi come fonti storiche ma privi di interesse diretto. Uno dei più influenti
fu quello di Varrone (circa 50 a.C.), i cui Nove libri sulle discipline contenevano sintesi
9=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

delle sette arti liberali (grammatica, retorica, logica, geometria, musica, aritmetica e
astronomia).

Il più grande e senza dubbio il più famoso di tutti gli enciclopedisti romani fu
Plinio il Vecchio (23 d.C.–24 agosto 79 d.C., durante l’eruzione del Vesuvio). La sua
Naturalis Historia è una vasta compilazione che va dall’astronomia, alle invenzioni
meccaniche, alla medicina, e non di rado le testimonianze in essa presenti sono
preziose per conoscere le opinioni di autori greci le cui opere sono perdute. Purtroppo,
però, in questa storia naturale manca quasi sempre ogni discernimento scientifico: il
vero o il probabile si mescola all’inverosimile, e molto spesso non sono comprese le
dottrine degli antichi che si pretende di riferire. Plinio, più un curioso di cose naturali
che un vero indagatore, rappresenta bene la mentalità del tempo, che tende ad
affrontare sempre più in modo letterario i problemi scientifici, limitandosi per lo più a
riportare dati ed osservazioni altrui. La massa di notizie sugli argomenti più disparati
risulta sempre più essere un mero affastellamento quantitativo che si accompagna ad
una valutazione generica e non ben determinata. L’esaminare da vicino un problema
particolare per analizzarlo nei suoi elementi e per collegarlo, mediante rapporti precisi,
con schemi concettuali generali, che era stata la caratteristica essenziale della scienza
greca, è un atteggiamento che tende ormai a scomparire. La mancanza di una vera
cultura scientifica dell’autore non significa che la sua opera colossale sia priva di
importanza; anzi occorre osservare che il suo enciclopedismo divulgativo rispondeva
ad un bisogno sentito da uomini di limitate possibilità, e, per questo, dominò il
medioevo fino all’inizio dell’età moderna.

Un'altra notevole opera, il dialogo De facie cernitur in orbe luna, è dovuta a


Plutarco (50-125 d.C.). Il dialogo, ove sono evidenti le influenze stoiche, appare tuttavia
illuminato da reminiscenze di sapienza presocratrica e pitagorica, notevoli in questa
epoca di decadenza. Si tratta di uno dei pochi scritti in cui il Rinascimento poteva
trovare un ricordo di Aristarco, prima che Copernico elaborasse la sua teoria
eliocentrica. Un altro fatto importante è che, contrariamente ad Aristotele, Plutarco
relativizza il concetto di centro, e nega perciò che un qualsiasi corpo, come la Terra,
possa occupare il vero centro dell’universo: “Di che cosa si può dire che la Terra è al
centro? Perché l’universo è infinito, e dell’infinito, che non ha principio né limite, non
può darsi centro alcuno. Infatti l’idea stessa di centro implica quella di limite, e
l’infinito invece è la negazione di ogni limite”. Plutarco sostiene, infine, riprendendo le
idee degli ionici e di Anassagora, la natura terrestre della Luna e che le sue macchie
sono valli profonde e poco illuminate, proprio come sulla Terra.

L’epicureismo si trasformò in un grande sistema cosmologico, con qualche


reminiscenza delle cosmologie dei presocratici, ad opera del poeta romano Lucrezio (98
a.C.–55 a.C.) attraverso il poema De rerum natura. Il poema di Lucrezio ebbe grande
influenza nel Rinascimento scientifico sia come tramite tra l’atomismo epicureo, sia
perché dette una tradizione alle teorie materialistiche, sia, infine, nello spingere lo
scienziato rinascimentale a liberarsi attraverso la scienza delle catene della religione. Il
De rerum natura, dietro la forma poetica, nasconde un contenuto anticipatorio di tutta
una serie di aspetti della scienza moderna. Innanzitutto, i versi I,54-61 costituisco
l’abstract dell’intero poema, e si possono sintetizzare in un’unica parola:
“riduzionismo”. Lucrezio intende ridurre il funzionamento dell’intero macroscosmo,
uomo compreso, al comportamento microscopico dei cosiddetti stoicheia: una parola
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 94!

greca che significa “messi in fila”, o in “serie”, e indica gli “elementi ultimi” della
materia. In sintesi gli “atomi” da cui tutto ha origine: “E’ per te che esporrò il supremo
sistema celeste. Per te spiegherò i principi della Natura che regolano la nascita, la
crescita, il sostentamento, la morte e la dissoluzione di tutte le cose. Per te parlerò di
‘materia generatrice’, di ‘semi delle cose’, di ‘corpi primordiali’: in breve, degli ‘atomi’
da cui tutto ha origine”. Se l’obiettivo del riduzionismo è la classificazione di questi
“elementi ultimi” e di come essi si combinino per dar luogo a tutte le cose, esso viene
condiviso da Lucrezio e dalle scienze moderne. A seconda dei casi, dunque, gli
“elementi ultimi” di Lucrezio possono essere interpretati come le macromolecole della
biologia, le molecole della chimica, gli atomi della fisica atomica e nucleare o le
particelle della fisica subatomica.
I primi due libri del De rerum natura trattano della materia, dello spazio e del
vuoto, secondo la teoria atomistica degli epicurei; il terzo libro si occupa dello spirito e
dell’anima, formati anch’essi di piccoli atomi; il quarto libro tratta della teoria delle
sensazioni, dovute a piccole immagini che si staccano dai corpi; il quinto libro si
interessa di cosmologia, come la formazione del nostro mondo e la sua fine; infine, nel
sesto libro troviamo la spiegazione di vari fenomeni meteorologici, come il fulmine, le
nuvole, la pioggia, i terremoti, ecc. Accanto a molte osservazioni interessanti dal punto
di vista scientifico, ce ne sono altre che anche la scienza moderna ha stentato ad
acquisirle: il tempo non esiste in sé, ma noi ne deriviamo il concetto dal susseguirsi
degli eventi; gli atomi, anche se di peso diverso, debbono cadere nel vuoto con uguale
velocità; e lo stesso argomento che porta a tale conclusione (sono l’aria o l’acqua che
producono il ritardo dei corpi più leggeri nella caduta) si estende anche a corpi
qualsiasi: “Non può per contro, lo spazio vuoto impedire a nessuna cosa, in nessun
momento, per nessun verso, che seguiti a cadere giù come chiede la sua natura, e per
questo debbono gli atomi tutti nel vuoto immobile, se anche sono disuguali di peso,
muoversi con la stessa velocità”. L’attrazione fra due corpi si può spiegare con la
formazione di un certo vuoto fra i corpi stessi, per modo che la massa d’aria posta, per
così dire, sulle loro spalle, li sospinge: “In effetti l’aria che sta loro intorno flagella tutte
le cose”. Allo stesso modo, aggiunge Lucrezio, si spiegano i fenomeni comunemente
osservati allorché tende a formarsi uno spazio vuoto: “Subito i più vicini fra gli atomi
son trascinati nel vuoto, perché sospinti dagli urti di altri”. Contrariamente all’idea
dell’horror vacui, tanto diffusa nell’antichità, questa spiegazione che troviamo per la
prima volta in Lucrezio si richiama al concetto di una pressione esterna, e prelude, in un
certo senso, le vedute del Torricelli sulla pressione atmosferica.
Dunque, non sono solo le generalità, le considerazioni filosofiche, oggi diremmo
epistemologiche, a essere moderne in Lucrezio. Lo è anche una lunga lista di specificità,
che costituiscono vere e proprie anticipazioni di alcuni momenti salienti dello sviluppo
della scienza: lo spazio infinito e i mondi innumerevoli di Giordano Bruno, il principio
d’inerzia di Cartesio, l’esperimento sul vuoto di Torricelli, la teoria cinetica dei gas di
Maxwell, solo per citarne qualcuna. E fu lo stesso Maxwell a scrivere, in una lettera del
1866: “Le sue parole sono una così buona illustrazione della teoria moderna, che sarebbe
un peccato che significassero qualcosa di diverso”. Per mostrare un esempio
sorprendente riportiamo i seguenti versi del De rerum natura: “ E’ bene prestare
attenzione ai corpuscoli che vedi agitarsi nei raggi del Sole: perché quel turbinio ti
suggerisce che ci sono più cose al mondo, di quante ne appaiono a prima vista ai nostri
sensi. Lì vedrai, infatti, un moto casuale di aprticelle che vanno da tutte le parti, ora
qua e ora là, e questo moto visibile deve essere prodotto dagli urti degli atomi
95! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

invisibili”. Sebbene scorretta per il moto del pulviscolo atmosferico, la spiegazione di


Lucrezio risolve correttamente l’enigma del moto browniano scoperto nel 1827 e risolto
in maniera “lucreziana” da Einstein nel 1905.
La libera e coraggiosa filosofia di Lucrezio, come quella di Epicuro o di
Democrito, non poteva trovare adepti né favori nel clima di attiva restaurazione
religiosa voluto da Augusto, e continuato da altri imperatori; né tantomeno dopo il
trionfo del cristianesimo. Dobbiamo alle scarse testimonianze, soprattutto alla polemica
aristotelica contro Democrito, e ad una copia sopravvissuta del De Rerum Natura, la
rinascita dell’atomismo nel basso medioevo, e poi la sua vigorosa ripresa nel
Rinascimento, fino al giorno in cui Galileo si ispirò anche al pensiero del più antico
maestro nella sua costruzione di una scienza moderna.

Il bilinguismo degli intellettuali romani faceva sì che vi fossero pochissime


traduzioni di testi scientifici greci. Questo fatto doveva avere una dannosissima
influenza quando, dopo il crollo dell’impero romano d’occidente, l’Europa diventò una
regione di lingua esclusivamente latina, senza alcuna possibilità di contatto con la
lingua greca e il mutamento intellettuale disponibile fu veramente povero. Questo fu, in
parte, il diretto risultato di un crescente antiintellettualismo. Il romano aveva sempre
guardato con sospetto l’intellettuale greco, intelligente ma incostante e incapace di
governare e amministrare. Pensare piuttosto che agire, speculare piuttosto che applicare
le conoscenze, tutto ciò sembrava del tutto alieno dallo spirito dei romani. Nessuna
meraviglia, allora, che i Padri latini della chiesa cristiana fossero anch’essi contrari alla
speculazione scientifica.
Naturalmente non mancarono contributi, seppur isolati, allo sviluppo delle
scienze, attraverso la pubblicazione di storie e commenti, che contribuirono a
conservare il pensiero greco e che ne beneficiarono soprattutto studiosi medievali e del
Rinascimento, e quindi, anche nei suoi cinque secoli di decadenza, Roma non aveva
rinunciato alla sua civilizzazione.

Uomini come Macrobio (V sec.) o Marciano Capella (ca. 365-440), che amavano i
libri e la cultura, si sforzarono pateticamente di impedire la totale dispersione delle
conoscenze in loro possesso che, del resto, erano già spurie. Pappo (circa 300 d.C.)
compilò una Collezione matematica, resoconto sistematico della matematica e della
meccanica, con alcuni contributi originali, e Proclo (410–485), che insegnò
nell’Accademia ad Atene, scrisse un commento su Euclide, un misto di storia e filosofia
della matematica con analisi di problemi matematici, e fu anche autore degli Elementi
delle ipotesi astronomiche, che è un’introduzione alle opere di Ipparco e di Tolomeo, con
interessanti dettagli matematici.

Il profondo rispetto per gli antichi portò a preservare la conoscenza del passato, e
dovevano trascorrere molti secoli prima che nuovi scienziati potessero portare qualche
grande contributo alla scienza o ristabilire la tradizione di progresso scientifico. Gli
scienziati greci dell’era cristiana avevano garantito la conservazione della conoscenza,
rinchiusa nell’idioma greco, ma disponibile per chiunque desiderasse fare lo sforzo di
tradurla.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 96!

3.2 Il Cristianesimo: ragione e fede inconciliabili?

La Grecia è stata veramente la culla della filosofia e della scienza. Per la prima
volta, nel mondo occidentale essa ha intesa e realizzata la filosofia come indagine
razionale: cioè come indagine autonoma, che riceve solo da sé il fondamento e la legge
del suo sviluppo. La filosofia greca ha dimostrato che la filosofia non può essere che
ricerca e che la ricerca non può essere che libertà. La libertà implica che la disciplina, il
punto di partenza, il termine e il metodo della ricerca siano giustificati e posti dalla
ricerca stessa, non già accettati indipendentemente da essa.
Il prevalere del cristianesimo nel mondo occidentale determinò un nuovo
indirizzo della filosofia. Ogni religione implica un insieme di credenze, che non sono
frutto di ricerca perché consistono nell'accettazione di una rivelazione. La religione è
l'adesione a una verità che l'uomo accetta in virtù di una testimonianza superiore. Tale è
infatti il cristianesimo. Ai Farisei che gli dicevano: “Tu testimoni di te stesso, quindi la
tua testimonianza non è valida”, Gesù rispose: “Io non sono solo, ma siamo io e Colui
che mi ha mandato” (Gv, VIII, 13, 16), fondando così il valore del suo insegnamento
sulla testimonianza del Padre. La religione sembra perciò escludere nel suo stesso
principio la ricerca e consistere anzi nell'atteggiamento opposto, dell'accettazione di una
verità testimoniata dall'alto, indipendente da qualsiasi ricerca. Tuttavia, non appena
l'uomo si chiede il significato della verità rivelata e si domanda per quale via può
veramente intenderla, l'esigenza della ricerca rinasce. Riconosciuta la verità nel suo
valore assoluto, quale viene rivelata e testimoniata da una potenza trascendente, si
determina immediatamente l'esigenza, per ogni uomo, di avvicinarsi ad essa e di
comprenderla nel suo significato autentico, per vivere veramente con essa e di essa. A
questa esigenza solo la ricerca filosofica può soddisfare. La ricerca rinasce, dunque,
dalla stessa religiosità per il bisogno dell'uomo religioso di avvicinarsi, per quanto è
possibile, alla verità rivelata. Rinasce con un compito specifico, impostole dalla natura
di tale verità e dalle possibilità che essa può offrire alla comprensione effettiva da parte
dell'uomo; ma rinasce con tutti i caratteri che sono propri della sua natura e con tanta
più forza quanto maggiore è il valore che si attribuisce alla verità in cui si crede e che si
vuole far propria.
Dalla religione cristiana è nata così la filosofia cristiana, la quale si è assunto il
compito di portare l'uomo alla comprensione della verità rivelata da Cristo, e gli
strumenti indispensabili per questo compito li trovò già pronti nella filosofia greca. Le
dottrine dell'ultimo periodo, prevalentemente religioso, della speculazione ellenica si
prestavano ad esprimere in modo accessibile all'uomo il significato della rivelazione
cristiana; e a tale scopo furono infatti utilizzate nella maniera più ampia.
Però il cristianesimo non è sorto come una filosofia e forse il suo ispiratore, Gesù
di Nazaret nato sotto l’imperatore Augusto e morto al tempo dell’imperatore Tiberio,
non voleva neanche fondare una nuova religione. I suoi discepoli dovevano aspirare
non tanto a crescere nella conoscenza, quanto piuttosto a concepire la fede in lui.
Ragione e fede: due disposizioni interiori destinate a escludersi reciprocamente, o
in grado di integrarsi? Il cristianesimo intendeva davvero offrire all’uomo e alle sue
domande sulle realtà ultime delle risposte soddisfacenti, senza chiedergli come
contropartita la rinuncia all’esercizio delle facoltà conoscitive? La stessa sapienza greca
non ne aveva accettato la complementarietà?
97! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Chi, con particolare intensità, avvertì i dilemmi collegati al rapporto fra ragione e
fede fu San Paolo (5-10 d.C.; 64-67 d.C.), che, in qualche momento della sua
predicazione, sembrò convinto di poter contare sulla ragione umana per convertire le
“genti”, in particolare, durante la missione ad Atene. Ma i risultati furono deludenti, tali
da far scrivere nella Prima lettera ai Corinzi: ” … Io venni in mezzo a voi in debolezza e
con molto timore e trepidazione; e la mia parola e il mio messaggio non si basarono
sulla sapienza di discorsi persuasivi, ma sulla manifestazione dello Spirito e della sua
potenza, perché la vostra fede non fosse fondata sulla saggezza umana, ma sulla
potenza di Dio.” Secondo queste parole, la fede non solo nulla avrebbe in comune con la
ragione, ma ad essa si contrapporrebbe. Eppure, nel momento in cui “l’apostolo delle
genti” progetta di evangelizzare l’Occidente, si riaffaccia nei suoi scritti il tema della
ragione come strumento valido per giungere fino a Dio. Lo si desume dalla Lettera ai
Romani: “Ciò che di Dio si può conoscere è palese, avendolo Dio stesso manifestato. Sì, gli
attributi invisibili di lui, l’eterna sua potenza e la sua divinità possono intuirsi dalla
creazione del mondo, attraverso le sue opere, purché ci si faccia attenzione. Tutti sono
dunque inescusabili. Pur conoscendo Dio, infatti, non gli hanno dato gloria, né gli
hanno reso grazie come a Dio, ma hanno vaneggiato nei loro ragionamenti e si è
ottenebrata la loro mente ottusa. Nel momento stesso in cui si dichiaravano sapienti,
sono diventati stolti e hanno scambiato la gloria dell’incorruttibile Dio con l’immagine
e la figura dell’uomo corruttibile, di uccelli, di quadrupedi, di rettili.” In queste parole si
può individuare l’impianto di quella che verrà chiamata la prova cosmologica
dell’esistenza di Dio, e si afferma una volta di più come San Paolo abbia posto con
chiarezza la grande questione: come definire il rapporto fra ragione e fede?
Una volta postosi sul terreno della filosofia, il cristianesimo tenne ad affermare la
propria continuità con la filosofia greca ed a porsi come l’ultima e più compiuta
manifestazione di essa. Giustificò questa continuità con l’unità della ragione (logos), che
Dio ha creata identica in tutti gli uomini di tutti i tempi e alla quale la rivelazione
cristiana ha dato l’ultimo e più sicuro fondamento; e con ciò affermò implicitamente
l’unità della filosofia e della religione. Era naturale che si tentasse da un lato di
interpretare il cristianesimo mediante concetti desunti dalla filosofia greca e così di
riportarlo a tale filosofia, dall’altro di ricondurre il significato di quest’ultima allo stesso
cristianesimo. Questo duplice tentativo, che in realtà è uno solo, costituisce l’essenza
dell’elaborazione dottrinale che il cristianesimo subì nei primi secoli dell’era volgare,
periodo che va sotto il nome di patristica.
Sotto questo punto di vista, la dottrina fondamentale di Giustino (nato nel primo
decennio II secolo e morto tra il 163 e 167) è che il cristianesimo è “la sola filosofia sicura
ed utile” e che esso è il risultato ultimo e definitivo al quale la ragione deve giungere
nella sua ricerca. Mentre per Ireneo (130-202) la vera conoscenza, o meglio la gnosi, è
quella tramandata dagli apostoli. Ma questa conoscenza non ha la pretesa di superare i
limiti dell’uomo. Dio è incomprensibile ed impensabile. Egli è intelletto, ma non è simile
al nostro intelletto. È luce, ma non è simile alla nostra luce: “E’ meglio non saper nulla,
ma credere in Dio e rimanere nell’amore di Dio, anziché rischiare di perderlo con
ricerche inutili”.

Se la ragione non poteva esser d’aiuto, ma soltanto la fede, allora l’affermazione


di Tertulliano (150–220 ca.) “credo perché assurdo”, cioè razionalmente assurdo, è
eloquente. Il punto di partenza di Tertulliano è la condanna della filosofia. I filosofi
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 98!

sono i “patriarchi degli eretici”. La verità della religione, quindi, si fonda sulla
tradizione ecclesiastica. “Se si cerca per trovare e si trova per credere, si pone termine,
con la fede, ad ogni ulteriore ricerca e ritrovamento. Ecco il limite che il risultato stesso
della ricerca stabilisce”. La ricerca esclude dunque il possesso e i possesso esclude la
ricerca. In realtà Tertulliano era incapace di fermarsi sui problemi e di esaminarli in
profondità. Il lavoro paziente e rigoroso della ricerca che nasca e si alimenti dalla fede,
come si incarnerà in S. Agostino, non era nelle sue intenzioni, o forse nelle sue
possibilità, per cui svaluta la ricerca di fronte alla fede. Tertulliano sfiora i problemi
assumendo le posizioni più semplici ed estremiste, con suprema indifferenza verso ogni
cautela critica e ogni esigenza di metodo. Nei confronti del criterio di Tertulliano, S.
Agostino risulterebbe un eretico.
L’elaborazione dottrinale del cristianesimo, iniziata dagli apologisti per difendere
la comunità ecclesiastica contro persecutori ed eretici, viene continuata e approfondita
nei secoli successivi per una necessità interna. In questa successiva elaborazione domina
l’esigenza di costituire la dottrina cristiana in un organismo unico e coerente, fondato su
una solida base logica. La parte della filosofia diventa perciò sempre maggiore, per cui
il cristianesimo si presenta come la filosofia autentica che assorbe e porta alla verità il
sapere antico, del quale può e deve servirsi per trarre elementi e motivi della propria
giustificazione. Il periodo che va dal 200 al 450 circa è decisivo per la costruzione
dell’intero edificio dottrinale del cristianesimo.

In quest’ottica, il primo compito di Clemente Alessandrino (ca. 150-ca. 215) è


quello di elaborare il concetto stesso di una gnosi cristiana. Non c’è dubbio che la
conoscenza sia il termine più alto cui l’uomo possa giungere, ma la fede è condizione
necessaria della conoscenza. La fede è così necessaria alla conoscenza come i quattro
elementi sono necessari alla vita del corpo. Fede e conoscenza non possono sussistere
l’una senza l’altra. Ma per giungere dalla fede alla conoscenza è necessaria la filosofia.

La dottrina di Origene (ca. 185-254), a differenza di Tertulliano, è il primo grande


sistema di filosofia cristiana, nel senso di ricerca della verità, anche se si tratta, in questo
caso, di verità rivelata. Nel prologo del De principiis afferma: “Gli apostoli … hanno
lasciato a quelli dotati dei doni superiori dello spirito e specialmente della parola, della
saggezza e della scienza, la cura di ricercare le ragioni delle loro affermazioni”. Il suo
lavoro esegetico dei testi biblici tende a mettere in luce il significato nascosto e quindi la
giustificazione profonda delle verità rivelate. Il passaggio dal significato letterale al
significato allegorico delle sacre scritture è il passaggio dalla fede alla conoscenza. La
fede, dunque, ricerca le sue ragioni e diventa conoscenza.

Per Basilio il Grande (ca. 331-379) la fede precede l’intelletto “Nelle discussioni
intorno a Dio deve essere assunta come guida la fede, la fede che spinge all’assenso più
fortemente della dimostrazione, la fede che non è causata da necessità geometrica ma
dall’azione dello Spirito Santo”. Per quanto riguarda le diverse fasi della creazione del
mondo, Basilio utilizza le dottrine scientifiche dell’antichità, specialmente di Aristotele.
Come suo fratello Basilio, Gregorio di Nissa (335-395 ca.) afferma la distinzione
tra la fede e la conoscenza e la subordinazione della seconda alla prima. La fede poggia
sulla rivelazione divina e non ha bisogno della logica e delle sue dimostrazioni. Essa è il
criterio di ogni verità e deve essere assunta come la misura di ogni sapere. Dal suo
99! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

canto, la scienza deve fornire alla fede le conoscenze naturali preliminari, quelle che nel
Medioevo si chiameranno preambula fidei. In particolare, la dialettica fornisce il metodo
per sistemare il contenuto della fede e costituisce lo strumento mediante il quale i
principi della fede possono essere fondati e si può progredire verso la gnosi, se anche
ciò va fatto con grande cautela ed in forma ipotetica. Gregorio mette in pratica questo
procedimento di ricerca nella misura più estesa, come solo Origene prima aveva fatto, e
continuamente fa appello, oltre che alla testimonianza della tradizione, a principi e
dimostrazioni razionali. Il suo Discorso catechetico come il dialogo Sull’anima e sulla
resurrezione sono interamente condotti con ricerca puramente razionale, e dove il dubbio
viene assunto come un aiuto metodico della ricerca.
Gregorio rappresenta, con Origene, l’espressione massima della speculazione
cristiana dei primi secoli. Il cristianesimo ha raggiunto con essa la sua prima
sistemazione dottrinale, sul fondamento di un incontro sostanziale con la filosofia greca.
La speculazione teologica in S. Agostino (354–430), per la
prima volta, cessa di essere puramente oggettiva, come si era
conservata anche nelle più potenti personalità della patristica greca,
per saldarsi all’uomo stesso che la istituisce. Per S. Agostino, il più
colto di tutti i Padri latini della chiesa, la ricerca trova nella ragione la
sua disciplina e il suo rigore, ma non è esigenza di pura ragione. Tutto l’uomo ricerca,
ogni parte o elemento della sua natura muove verso l’Essere che solo può dargli
consistenza e stabilità. S. Agostino ripresenta alla speculazione cristiana l’esigenza della
ricerca con altrettanta forza di quella con cui Platone l’aveva presentata alla filosofia
greca. Ma a differenza di quella platonica, la ricerca agostiniana si radica nella religione,
e attribuisce a Dio la sua iniziativa. Dio solo determina e guida la ricerca umana sia
come speculazione sia come azione; e così la speculazione è nella sua verità fede nella
rivelazione e l’azione è, nella sua libertà, grazia concessa da Dio. In sintesi la fede è al
termine della ricerca, non al suo inizio. Certamente la fede è la condizione della ricerca,
che non avrebbe né direttiva né guida senza di essa; ma la ricerca si rivolge verso la sua
condizione e cerca di chiarirla con l’approfondimento incessante dei problemi che
suscita. Perciò la ricerca trova il fondamento e la guida nella fede e la fede trova il
consolidamento e l’arricchimento nella ricerca. La ricerca agostiniana si impone una
disciplina rigorosa: non si abbandona facilmente a credere, non chiude gli occhi davanti
ai problemi e alle difficoltà della fede, non tenta di evitarli e di eluderli, ma li affronta e
li considera incessantemente, ritornando sulle proprie soluzioni per approfondirle e
chiarirle. La razionalità della ricerca non è, per S. Agostino, il suo organizzarsi a
sistema, ma piuttosto la sua disciplina interiore, il rigore del procedimento che non si
arresta di fronte al limite del mistero, ma fa di questo limite e dello stesso mistero un
punto di riferimento e una base. L’entusiasmo religioso, lo slancio mistico verso la
verità non agiscono in lui come forze contrarie alla ricerca ma rinvigoriscono la ricerca
stessa, le danno un valore e un calore vitale. Di qui deriva l’enorme potenza di
suggestione che la personalità di Agostino ha esercitato non solo sul pensiero cristiano e
medievale, ma anche sul pensiero moderno e contemporaneo.
In questa ricerca rigorosa e puntuale Agostino affronta il tema del tempo, uno dei
concetti fondanti e più importanti della fisica. Alcuni padri della chiesa, per esempio
Origene, ritenevano che la creazione del mondo fosse eterna non potendo essa implicare
un mutamento nella volontà divina. Il problema si presente anche ad Agostino. Lo
spunto per la riflessione sull’universo, sulla sua origine, sul tempo, è suggerito proprio
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 9:!

dalla Bibbia nel libro del Genesi, che comincia raccontando la nascita dell’universo: «In
principio, Dio creò il cielo e la terra». «Ma come creasti il cielo e la terra?», si chiede
Agostino. In polemica con il manicheismo e con la filosofia classica, che sostenevano
l'eternità della materia, egli risponde: «Non avevi fra mano un elemento da cui trarre
cielo e terra: perché da dove lo avresti preso, se non fosse stato creato da te per creare
altro? Esiste qualcosa, se non perché tu esisti? Dunque tu parlasti, e le cose furono
create; con la tua parola le creasti». Sottolineando il termine "parola", Agostino vuole
indicare che Dio ha prodotto l'universo dal nulla (ex nihilo), con un atto intelligente e
libero: la parola, infatti, è frutto della ragione e della volontà. L'indicazione biblica «in
principio» non ha, secondo Agostino, valore di connotazione temporale. Indica
piuttosto lo strumento di cui il Creatore ha voluto servirsi per dare l'esistenza a cielo e
terra. Ormai, la categoria "tempo" è chiamata in causa, e tale concetto diviene acuto
come non lo era stato nell’antichità classica, ad eccezione di Lucrezio per il quale il
tempo non è nulla in sé ed è solo un’impressione suscitata dal succedersi degli eventi.
Ed ecco la domanda successiva: «Che cosa faceva Dio prima di creare cielo e terra?». In
effetti, più che di una domanda si tratta di un'obiezione, proveniente dai sostenitori
dell'eternità dell'universo, neoplatonici compresi. Essa metteva in questione un punto
nevralgico della dottrina cristiana: il dogma dell'immutabilità di Dio; ammesso un
"prima" e un "dopo" rispetto alla creazione, nel passaggio da un momento all'altro il
Creatore avrebbe dovuto necessariamente cambiare. Il punto debole del ragionamento
"vecchio", secondo Agostino, consisteva nel non aver ben compreso «come nasce ciò che
nasce da Dio e in Dio», ossia il concetto di creazione. In realtà, Dio è l’autore non solo di
ciò che esiste nel tempo, ma del tempo stesso. Prima della creazione non c’era tempo,
non c’era dunque un prima e non ha senso domandarsi cosa mai facesse Dio prima
della creazione. L’eternità è al di sopra di ogni tempo: in Dio nulla è passato e nulla è
futuro, perché il suo essere è immutabile e l’immutabilità è un presente eterno in cui
nulla trapassa.
Agostino, mettendo in ridicolo l’idea di un Dio che aspetta per un tempo infinito
in attesa del momento opportuno per creare l’universo, afferma quindi che: il mondo e
il tempo hanno entrambi un unico inizio e che il mondo fu creato non nel tempo, ma
insieme al tempo. Sono riflessioni che anticipano i risultati della moderna cosmologia:
cosa c’era prima del big bang? La risposta è che non c’era nessun prima in quanto il
tempo (e lo spazio) ha avuto inizio con il big bang. Sono riflessioni tanto più che
notevoli se si pensa alle idee sul tempo del tutto erronee che vigevano ai tempi in cui
Agostino viveva. Stranamente, questa profonda interpretazione della creazione venne
in seguito rifiutata dalla Chiesa, che solo con il IV Concilio Laterano (1215) dichiarò
erronea l’idea aristotelica dell’eternità dell’universo e stabilì il dogma dell’inizio
temporale dell’universo. È a questo punto che si affaccia la questione centrale: “Non ci
fu dunque un tempo, durante il quale avresti fatto nulla, perché il tempo stesso l'hai
fatto tu; e non vi è un tempo eterno con te, perché tu sei stabile, mentre un tempo che
fosse stabile non sarebbe tempo…” Ma che cosa è il tempo? Certamente, la realtà del
tempo non è nulla di permanente. Il passato è tale perché non è più, il futuro è tale
perché non è ancora; e se il presente fosse sempre presente e non trapassasse
continuamente nel passato, non sarebbe tempo, ma eternità.

L’ultima grande figura della patristica è il papa Gregorio Magno (ca. 540-604),
che cercò di conservare, in un periodo di decadenza totale della cultura, le conquiste dei
secoli passati. Il tempo in cui visse sembrava la distruzione della cultura e di ogni civiltà
:<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

e preannunziare la fine del mondo: “Le città sono spopolate, i villaggi travolti, le chiese
bruciate, i monasteri di uomini e donne distrutti, i campi abbandonati dagli uomini
sono privi di chi li coltivi, la terra è deserta nella solitudine e nessun proprietario la
abita, le bestie hanno occupato i luoghi che prima erano affollati di uomini. Io non so
quello che accade nella altre parti del mondo. Ma nella terra in cui viviamo, la fine del
mondo non solo si annunzia, ma già si mostra in atto”. La desolazione di una civiltà
infranta e crollata non si poteva descrivere meglio.

Gli accesi dibattiti e controversie circa il problema di Dio, del tempo, della
salvazione e del peccato, costituiscono, comunque, una prova incontrovertibile della
grande vivacità di pensiero della patristica. Il discutere animatamente un problema,
sviscerandone le più recondite difficoltà, il non accontentarsi delle soluzioni già
possedute, ma cercarne altre sempre nuove, originali e più sottili, sono altrettanti segni
di effettivo interesse culturale, di serio impegno di studio. Però si ha il più completo
silenzio di fronte ai problemi connessi con le scienze naturali. Ciò non proviene affatto
dal possesso sicuro dei risultati di tali scienze, ma dall’indifferenza di fronte ad essi;
indifferenza che porterà a dimenticare via via le stesse conquiste del passato in questo
genere di studi. Nelle Confessioni, Agostino afferma di voler conoscere soltanto Dio e
l’anima ed assolutamente nulla di più. Questo pensiero esprime un atteggiamento
generale dei padri della chiesa, e spiegano la sterilità scientifica di un movimento di
pensiero per latri lati vivacissimo e non certo privo di originalità e di gusto per le
sottigliezze. Qualche padre si occupa di filosofia della natura per combattere l’empio
atomismo; qualche altro per commentare il racconto biblico della creazione. Ma il
processo naturale, in sé, non presenta per loro alcun interesse: cercare le cause fisiche di
un fenomeno fisico significa limitarsi alle alle “cause seconde” di questo fenomeno,
fermarsi cioè a metà strada nella sua spiegazione, e quindi compiere un lavoro inutile,
potendosi subito salire alla “causa prima”. È stata la completa svalutazione delle “cause
seconde” a rendere impossibile, nella patristica, una scienza della natura, a svuotare di
interesse ogni discussione che uscisse dall’ambito teologico-filosofico.

3.3 Conclusioni

L’accusa nei confronti della ragione fu più comune tra i Padri della chiesa latini
che non tra i Padri della chiesa greci, sebbene non fosse ignota anche all’Est. Questo è
da attribuirsi soprattutto alla differenza del clima intellettuale tra la parte orientale
dell’impero e quella occidentale. Mentre, infatti, la parte occidentale produceva
enciclopedie di livello sempre più basso, ognuna più lontana della precedente dalle
fonti originali, l’oriente produsse opere di livello piuttosto elevato, anche se il clima di
declino non risparmiò neanche il mondo greco, come testimoniato da Erone e Tolomeo.
Nei primi tre secoli dell’era cristiana, quando l’impero romano sembrava esser
così forte, era già diffuso uno spirito completamente alieno dalla ricerca intellettuale,
uno spirito di misticismo e di disperazione. La maniera per raggiungere la tranquillità
d’animo non fu più considerata il vivere in armonia con la società, ma il vivere in
maniera tale che la propria anima potesse trovare la felicità eterna nella vita
ultraterrena. In questo clima il cristianesimo, che aveva contribuito a formarlo,
dapprima è nettamente ostile al pensiero pagano in generale, ed ha avuto la sua parte di
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! :;!

responsabilità nella distruzione di testi e di istituti culturali, e solo in un secondo


momento, dapprima in Oriente e successivamente in Occidente, si volge alla cultura
scientifica e filosofica pagana forse non con maggior comprensione, ma certo con molto
più rispetto. Però questo pensiero pagano viene rivalutato solo tecnicamente, nel senso
che esso può fornire al teologo cristiano il linguaggio e le tecniche di esposizione del
credo, e al cittadino cristiano dell’impero quelle conoscenze che lo rendano
tecnicamente idoneo a occupare posti nella gerarchia amministrativa, nella scuola,
eccetera. Condizioni necessarie affinchè il cristianesimo potesse aspirare a quel
monopolio della religione e dell’istruzione e a quel prestigio sociale e politico cui da
Costantino in poi punterà decisamente.
Per questo, da un dato momento in poi, soprattutto a partire dall’epoca delle
invasioni barbariche, la chiesa muterà il suo primitivo atteggiamento nei riguardi del
pensiero antico al punto di farsene gelosa custode, depositaria e interprete. Sì che da
Carlo Magno in poi, la cultura, diremmo oggi laica (scientifica, letteraria, filosofica), e
quella sacra sarà esclusivo monopolio degli ecclesiastici.
:=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

!"#$%&'&()!

Bisogna rendere ogni cosa il più semplice possibile,


ma non più semplice di ciò che sia possibile.

Einstein

!"#$-'!%-.%#

4.1 La profonda crisi della civiltà occidentale

Fra il VI e l’VIII secolo, in diretta corrispondenza al graduale abbassarsi del


livello economico delle popolazioni ed alle sanguinose lotte combattute, pressocchè
ininterrottamente, in quelle che erano state le maggiori province dell’impero, si ebbe nel
mondo occidentale una disastrosa contrazione dell’interesse per qualunque genere di
studi. Quanto ai popoli invasori, non erano in grado di apportare alcun autentico
incremento alla vecchia e decadente civiltà dei paesi occupati, dato che la loro cultura
era ancora molto simile a quella dell’epoca neolitica. Nel corso del VII secolo si verifica
poi uno dei maggiori eventi storici dell’epoca in esame, ossia il rapido affermarsi e
diffondersi dell’impero islamico. Se è vero che dopo il Mille i contatti con l’islamismo
rappresenteranno per il mondo latino-occidentale uno dei più efficaci stimoli di
rinascita economica e culturale, grazie anche al recupero del grande patrimonio
scientifico-filosofico dell’antichità classica, è fuori dubbio che in un primo tempo la
folgorante avanzata degli arabi segnò un ulteriore impoverimento dell’Europa. Le
conseguenze furono gravissime: le città che avevano tratto prosperità dal commercio
marittimo caddero in rovina e si spopolarono; l’industria perse alcuni fra i suoi più
efficaci stimoli; nell’economia come nella cultura prevalse la tendenza a rinchiudersi
entro zone ristrette, isolate dal resto del mondo.
Col crescere del caos politico ed economico, diminuì pure la richiesta di
manufatti, il che provocò un rapido decadimento della tecnologia in quasi tutti i suoi
rami. In questa generale decadenza la cultura non potè fare altro che rifugiarsi in pochi
monasteri, che, resistendo all’assalto dell’imperante barbarie, limitarono i loro sforzi al
compito di salvare, almeno materialmente, qualcosa degli antichi tesori del pensiero.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! :4!

4.2 Il salvataggio dell’antica sapienza e la riscoperta del passato

Date importanti sono il 596 quando papa Gregorio Magno invia in Gran Bretagna
l’abate Agostino con quaranta monaci e gli avvenimenti che ruotarono attorno all’abate
assunsero un significato fondamentale nella storia culturale dell’Europa medievale e il
669, quando papa Vitaliano pensò che fosse opportuno inviare in Inghilterra uomini
forniti di un’elevata preparazione dottrinale. La lingua e la dottrina della chiesa di
Roma, centro della cristianità, erano coltivate sul suolo inglese più e meglio che altrove,
e proprio lassù, ai margini dell’Europa, ci si preoccupava di mettere in salvo quello che
rimaneva del patrimonio della cultura classica. Se fino al IV secolo i Padri della chiesa
s’erano chiesti che cosa fare per mantenere viva la fede cristiana nel contesto della
cultura pagana trionfante, dopo la caduta dell’Impero romano d’Occidente (476),
nell’età dei regni romano-barbarici (secoli V-VIII), un altro problema s’imponeva agli
uomini di cultura: quali erano le opere da salvare e come custodire i tesori dell’antica
sapienza? Troppo spesso l’ingenuità aveva preso il posto dello spirito critico e la
mitologia il posto della scienza. Fu veramente un’avventura uscire da questa prigione
d’ignoranza, tracciare il pensiero all’indietro e, da alcuni incerti frammenti, ripristinare
lo specchio che riflettesse lo splendore dell’antichità.
Bisanzio, anche se non aveva molto migliorato la propria eredità, almeno l’aveva
conservata. Aristotele, Euclide e Tolomeo non furono dimenticati. Le loro opere ancora
esistevano, se solo l’occidente avesse potuto imparare a leggerle. La distanza e la
frattura teologica tra la chiesa cattolica d’occidente e quella orientale ortodossa
impedirono un libero scambio culturale. L’ignoranza linguistica e la povertà di sviluppi
intellettuali resero l’Europa del tempo di Carlo Magno, e anche di molto tempo dopo,
completamente incapace di recuperare ciò di cui mancava e che desiderava
profondamente. Comunque, per fortuna, cominciarono a sorgere e presto si
moltiplicarono i soggetti che dovevano rendersi protagonisti di questo salvataggio.

Benedetto da Norcia (480-547), tra i vari principi dettati nella sua Regola, pilastro
del monachesimo occidentale, è inserito il lavoro nello scriptorium, dove pazientemente
si trascrivevano i codici. E’ vero che i monaci, di regola, trascrivevano i libri in funzione
della lectio divina (Bibbia, testi dei Padri della Chiesa, scritti agiografici e ascetici, decreti
conciliari), ma escludere dalle biblioteche dei monasteri i classici della filosofia, della
letteratura e delle scienze matematiche e fisiche sembrava eccessivo. Infatti, Aldelmo di
Malmesbury (c. 639-709), vescovo di Sherborne, enumera in una lettera tra le materie da
lui studiate l’aritmetica e l’astronomia.

Ultimi tesorieri delle bellezze di un mondo agonizzante furono alcuni scriptores


vissuti nei regni romano-barbarici, ma con la mente e il cuore rivolti alla cultura antica.
Il primo posto spetta a Boezio (476–525), che è il testimone più riconoscibile e
autorevole della sapienza greca e latina negli anni immediatamente seguenti il crollo
dell’Impero Romano d’Occidente. Boezio redasse, sulla base di Aristotele, Euclide ad
altre fonti classiche, manuali di logica, astronomia e matematica destinati ad essere usati
a lungo. Ma Boezio riprende ed approfondisce anche temi già affrontati da Agostino. Se
il tempo appartiene all’universo fisico e obbedisce alle leggi della fisica, ne consegue che
il tempo è compreso in quell’universo che Dio dovrebbe avere creato. Ma ha senso dire
che Dio è causa del tempo quando la causa precede sempre l’effetto? La causalità è
calata nel tempo: il tempo deve esistere prima che una cosa causi un’altra cosa. Se il
:5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

tempo non esiste, concepire un Dio che esiste prima dell’universo è assurdo, dato che
non esiste né un prima né un dopo. Pertanto, secondo Boezio, Dio esiste al di fuori dello
spazio e del tempo: esiste per così dire sopra la natura, e non prima di essa.

Nel VII secolo, Isidoro di Siviglia (ca. 560–636) creò con le sue Etimologie,
un’enciclopedia di venti libri, un modello di molti compendi medievali di scienza, quasi
fosse il distillato dell’antica sapienza, e la cultura occidentale deve considerarsi in
debito verso il vescovo di Siviglia per la conservazione e la trasmissione del sapere
antico. La stessa natura hanno gli scritti di Beda il Venerabile (674-735), che ha fornito al
cattolicesimo inglese lo stesso armamentario intellettuale che Isidoro aveva fornito a
quello spagnolo. Dal punto di vista filosofico Beda si ispira a S. Agostino, ed in
particolare ritiene che la materia del mondo contenga i semi di tutte le cose e che da
essi, come da cause primordiali, si sviluppino nel corso del tempo tutti gli esseri del
mondo. Beda è un altro anello della catena attraverso la quale la cultura antica si
trasmette al Medioevo.
I più importanti commenti su Aristotele furono scritti nel VI sec d.C. da
Simplicio (ca. 490–ca. 560) e da Giovanni Filopono (490–570). Il commento di Simplicio
fu letto moltissimo nell’Europa del XIII e XIV sec, e le sue opinioni su ciò che intendesse
Aristotele furono spesso accolte come assolutamente autorevoli. Egli produsse anche
una dettagliata trattazione del sistema astronomico a sfere concentriche e registrò lo
sviluppo storico di vari aspetti della scienza aristotelica. Filopono, autore del primo
abbozzo di uno dei concetti centrali della scienza moderna, fu più originale e meno
incline di Simplicio a seguire Aristotele. Le sue opere furono meno conosciute, ma le
sue idee sul movimento ebbero una profonda influenza sulla fisica del tardo Medio Evo.
Se il moto è intrattenuto dal mezzo, come può un corpo ruotare su se stesso, dal
momento che non si muove attraverso un mezzo? E come possono più sfere dotate di
moto di rivoluzione avere un movimento ora più rapido, ora più lento? Con questi
argomenti Filopono respinse le idee di Aristotele sul vuoto e sul movimento,
soprattutto la spiegazione del moto violento. Egli negò che il mezzo fosse responsabile
della continuazione del movimento dopo l’impulso iniziale. Al contrario, egli credeva
che il motore imprima al proiettile una certa forza o potenza di movimento, differente
secondo la maggiore o minor velocità. La forza di movimento, chiamata impeto, va via
via esaurendosi nel moto, talché, cessa il moto. Inoltre, sempre contro Aristotele, e
invocando l’esperienza, Filopono nega anche che i corpi di maggior peso cadano più
rapidamente di quelli più leggeri. Filopono criticò anche l’accento posto da Aristotele
sulla necessità di un mezzo perché vi sia movimento e sostenne che il movimento è
possibile anche nel vuoto.
Filopono può essere considerato il più grande meccanico tra Archimede e
Buridano, e le sue idee erano talmente originali per l’epoca in cui visse e anticipatrici
della meccanica seicentesca, che è stato considerato, con una certa esagerazione, un
precursore di Galileo.

4.3 La scienza araba

La prima possibilità di rifornire gli sprovvisti scaffali delle librerie dei monasteri
fu offerta dall’Islam, portatrice di uno spirito nuovo e ponendosi come intermediaria fra
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! :6!

la cultura classica e il mondo moderno. E’ vero che nel 641 gli arabi del califfo Omar
incendiarono la grande biblioteca di Alessandria, ma questo atteggiamento di ostilità
alla cultura non durò a lungo; a mano a mano che i musulmani venivano a contatto con
paesi di grande e antica civiltà, come Bisanzio, la Persia e l’Egitto, la loro civiltà
cresceva. Feconda fu soprattutto la conquista della Persia, dove si erano incontrati ed
avevano convissuto gli ultimi filosofi delle scuole pagane cacciati da Giustiniano,
cristiani di correnti eterodosse, rappresentanti della vecchia sapienza asiatica, persiana e
indiana.
Intellettualmente, l’Islam, come l’Europa, cercava la propria eredità in Grecia, il
cui ricco patrimonio fu rielaborato in centri di ricerca sorti a Baghdad, Samarcanda,
Cordova, per cui sorge un grande fervore per gli studi e tutti i libri di cui riescono a
venire in possesso vengono letti e studiati avidamente, commentati, posti a confronto,
tradotti in arabo, lingua che diviene, in tal modo, insieme al greco bizantino, una delle
lingue dotte del Mediterraneo nel medioevo e maggior veicolo di scienza. Così dalla
Persia alla Spagna si viene a formare e diffondere una nuova grande cultura, composita
nelle sue origini, vivacissima di polemiche e di contrasti, ma nel complesso unitaria,
destinata a divenire soffio vivificatore della morente civiltà europea. Il ceppo è ancora
quello greco o greco-alessandrino e i grandi pilastri che reggono questa cultura sono
Aristotele, Euclide, Tolomeo, che vengono letti e rielaborati. Così nella scienza araba
finiva il pensiero scientifico antico e si preannunziava quello moderno.

La principale ragione del perché la scienza ebbe questa particolare fioritura nel
mondo arabo, va ricercata nel sostegno che le fu dato dai califfi. Il califfo al-Mamun
(786-833) inviò a Bisanzio una missione per ottenere manoscritti originali e fondò una
Casa della Scienza, un’istituzione che era dotata di un osservatorio astronomico. Anche al
Cairo vi era un’accademia simile, fondata nel 966, sostenuta dall’astronomo e califfo
Hakim, e dove nel suo osservatorio lavoravano alcuni dei più famosi astronomi e fisici
dell’impero islamico. Il califfo di Cordova, al-Hakam, fu uno dei maggiori uomini di
cultura del medioevo, e si racconta che la sua biblioteca contenesse quasi mezzo milione
di volumi.

L’origine greca della scienza islamica spinge naturalmente i fisici arabi ad


avviare la ricerca verso la meccanica e l’ottica, anche se i progressi veramente
importanti saranno ottenuti soltanto nell’ottica. Nella meccanica generale gli arabi
seguirono Aristotele, senza apportarvi variazioni di rilievo. Privi di idee teoriche nuove,
i loro risultati si esaurirono nella costruzione di congegni meccanici. Nel X secolo si può
registrare qualche contributo alla statica dei fluidi.

L’astronomo al-Nairizi (m. 922) scrisse un trattato sui fenomeni atmosferici; al-
Razi (m. 923) introdusse l’uso della bilancia idrostatica per la determinazione dei pesi
specifici; al-Biruni (973-1048), matematico e astronomo, determinò con notevole
accuratezza il peso specifico di diciotto corpi e a lui si deve la spiegazione dei pozzi
artesiani attraverso l’uso del principio dei vasi comunicanti. Al-Khazini (nato tra il 1115
e il 1121) scrisse un notevole trattato di fisica medievale, che contiene tavole di pesi
specifici di solidi e liquidi, esperienze sulla gravità dell’aria, osservazioni di capillarità,
l’uso di aerometri per la misura della densità dei liquidi.
Contemporaneo di al-Biruni fu il più grande scienziato arabo, Avicenna (980-
1037). Nelle teorie fisiche in generale segue Aristotele, dal quale però si discosta in
:7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

qualche punto fondamentale, come nella teoria dei moti violenti. Con diversi argomenti
egli rigetta la teoria aristotelica del moto intrattenuto dal mezzo, e, secondo Avicenna, il
proicente imprime al mobile una forza, allo stesso modo come il fuoco imprime
all’acqua il calore, e durante il moto la forza va gradualmente scemando sino ad
annullarsi e così cessa il moto. Ma, mentre Filopono ammette la possibilità del vuoto,
Avicenna, seguendo Aristotele, la nega, adducendo la ragione che, in assenza
dell’ostacolo del mezzo, il moto nel vuoto persisterebbe indefinitamente, e la forza
impressa dal motore al mobile non varierebbe e non si annullerebbe mai. Per parecchi
secoli ancora il principio d’inerzia apparirà un assurdo. In ottica Avicenna, contro
Euclide, spiega la visione sostenendo che il raggio luminoso va dall’oggetto all’occhio, e
se la luce è dovuta all’emissione di particelle da parte della sorgente, diremmo oggi che
ha una natura corpuscolare, la sua velocità può essere finita.

Il periodo più fulgido della fisica araba coincide con


l’opera dell’egiziano Alhazen (ca. 965-1039), il più grande
fisico dell’impero musulmano, e senza esagerare, di tutto
il medioevo. Nel campo dell’ottica le sue teorie restano
sostanzialmente quelle greche, esposte magistralmente nel
Tesoro di ottica, capolavoro di letteratura scientifica, ma
ricevono notevoli arricchimenti nel campo sperimentale;
per esempio viene provata per via sperimentale, contro
Tolomeo, che il rapporto tra angolo di incidenza e angolo
di rifrazione non è costante, sebbene poi non si arriva a
formulare correttamente la legge della rifrazione. Alhazen combatte la teoria di Platone,
ripetuta da Euclide, secondo cui la visione sarebbe dovuta a raggi che partendo dagli
occhi vanno agli oggetti, sostenendo, invece, con Democrito e Aristotele, che al
contrario sono i raggi che partendo dagli oggetti arrivano all’occhio: “La visione
avviene per raggi emessi dalla cosa vista all’occhio”.
A differenza di Euclide, per il quale la visione era un fenomeno globale, Alhazen
polverizza questo processo globale in un’infinità di processi elementari con
un’intuizione geniale: postula che a ogni punto dell’oggetto osservato corrisponda un
punto impressionato nell’occhio. Ma per spiegare che non esistono direzioni privilegiate
per vedere un oggetto, bisogna ammettere che da ogni punto partano infiniti raggi, e
infiniti imboccano la pupilla. E, allora, come può a un punto dell’oggetto corrispondere
un solo punto impressionato? Alhazen supera la difficoltà stabilendo che di tutti i raggi
che penetrano nell’occhio, efficace è soltanto quello perpendicolare a tutte le tuniche
oculari, da lui ritenute concentriche. Perciò impressiona la superficie anteriore del
cristallino, sede, secondo Alhazen, della sensazione, il raggio che, partendo da ogni
punto dell’oggetto osservato, passa per il centro geometrico dell’occhio. A questo punto
si viene a stabilire un’esatta corrispondenza tra i punti dell’oggetto e i punti
impressionati sulla faccia anteriore del cristallino e può enunciare: “La visione avviene
per mezzo d’una piramide il cui vertice è nell’occhio e la base nella cosa vista ”. Non è
ancora la spiegazione giusta ma rappresenta un enorme progresso rispetto a quella di
Euclide.
Alhazen, per interpretare i fenomeni di riflessione e di rifrazione, istituisce un
parallelo tra il moto dei proiettili e il moto della luce: come un corpo sferico, lanciato
contro una superficie piana, si riflette ad angoli uguali, così la luce, dotata di moto
velocissimo ma finito, si riflette ad angoli uguali quando incontra uno specchio. Anche
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! :8!

per la rifrazione egli ricorre a modelli meccanici: se si lancia una palla di ferro contro
tavolette sottili, in modo da perforarle, si vede la traiettoria della palla, dopo la
perforazione, avvicinata alla normale.

L’originalità araba si scopre soprattutto nelle matematiche, dove hanno recato i


maggiori contributi, in parte come approfondimento critico delle nozioni, ma
principalmente come arricchimento dei contenuti e dei metodi. Basti pensare alla critica
del quinto postulato di Euclide che doveva poi portare alla nascita delle geometrie non
euclidee nel XIX secolo e che sono alla base della descrizione dello spaziotempo
dell’universo einsteniano. Tra i numerosi trattatisti arabi di aritmetica e algebra un
posto eminente è ricoperto dal persiano al-Khuwarizmi (morto nell’850), il cui Libro di
algebra, tradotto in latino nel secolo XII, restò un testo fondamentale per la rinascita
della matematica. Collegate alla matematica, oltre che fra loro, furono l’ottica e
l’astronomia, nelle quali per molti secoli i maestri più famosi furono gli arabi.
Ricercarono e tradussero l’Almagesto di Tolomeo, accettandone nel complesso le dottrine
fondamentali ma arricchendone la parte osservativa. Gli astronomi tolemaici più celebri
furono al-Battani, Abu ‘l-Wefa e Nasir ed-Din.
La scienza araba fu un complesso cosmopolita poiché non tutti coloro che
contribuirono al suo sorgere erano musulmani: Avicenna era persiano; Averroè (1126-
1198), il più grande filosofo islamico, era nato in Spagna, e secondo il quale non esiste
una verità religiosa accanto ad una verità filosofica. La verità è una sola: il filosofo la
cerca attraverso la dimostrazione necessaria, il credente la riceve dalla tradizione
religiosa, ma non c’è contrasto tra le due vie, né dualismo nella verità. Il suo discepolo
Maimonide (1135-1204) era ebreo, e sulle orme del suo maestro cerca di affermare la
libertà del pensiero scientifico, ma si sforza anche di conciliare i sacri testi con
Arsistotele (ad esempio: Dio creò dal nulla non solo la forma, ma anche la materia);
ebreo era anche Mashallaha (morto intorno all’820), uno dei primi astronomi arabi;
cristiano fu Yaqub Ishaq (800–873) che tradusse diversi libri di astronomia e di
matematica. Ogni regione e nazione dell’Islam portò il suo contributo allo sviluppo
della scienza e, in ultima istanza, alla vita intellettuale dell’Europa.
Così l’Europa cristiana dovette gradualmente riconoscere la superiorità
dell’Islam nella filosofia, nella scienza e nella tecnologia. I cristiani divennero desiderosi
di imparare dai musulmani ed ebrei soltanto quando diventarono indiscutibilmente i
dominatori. Non fu prima del X e dell’XI secolo che la cristianità latina cominciò a
rendersi conto che essa divideva una comune eredità intellettuale con il mondo
islamico; e non prima del XII secolo furono fatti i primi tentativi di rendere disponibile
questa eredità in lingua latina ed introdurre la scienza araba in occidente per opera di
entusiasti traduttori come Abelardo di Bath (prima metà XI sec.) che tradusse gli
Elementi di Euclide da una versione araba, ed alcuni altri lavori di matematici arabi,
come le Tavole astronomiche di al-Khuwarizmi. Il più famoso di tutti i traduttori
dall’arabo fu Gerardo di Cremona (morto nel 1187), che tra le moltissime opere tradotte
ricordiamo vari scritti fisici aristotelici o pseudo-aristotelici (la Meteorologia, la Fisica, il
De Coelo). Altri traduttori faranno conoscere altri tesori della scienza greca od araba, sì
che il patrimonio di conoscenze scientifiche del medioevo verrà, nel giro di pochi
decenni, a subire un vertiginoso aumento. La scienza che l’Europa assorbì rapidamente
:9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

nei secoli XII e XIII non era la scienza dell’antichità, ma quella araba, con i pregi ed i
difetti che quattro secoli di pensiero islamico avevano innestato sul tronco greco.
L’Europa fu capace di offrire nel giro di tre secoli (1050–1350) i tre centri, nel
mondo, più intellettualmente stimolanti: Bologna, Oxford, Parigi. Fu un fantastico
risultato culturale, più grande ancora di quello dell’Islam. Tuttavia, nonostante tutto
questo, l’Europa medievale era ancora assai lontana dalla Grecia.

4.4 Il pensiero scolastico

Tenendo presente la crisi a cui era pervenuto il mondo latino-occidentale tra il VI


e VIII secolo, bisogna riconoscere che l’assestarsi dell’ordine feudale nell’impero di
Carlo Magno, con tutti i suoi limiti e difetti di struttura, rappresentò senza dubbio un
fattore positivo. La metallurgia mostrò una certa ripresa, si svilupparono tecniche per la
lavorazione del cuoio, venne potenziata l’edilizia, si diffuse l’utilizzazione dei mulini
idraulici, ecc. E’ un lento risveglio delle più varie attività, indubbiamente circoscritte e
mal coordinate fra loro, non ancora in grado di generare effettivi centri di potere, ma
pur sempre capaci di far risorgere una certa fiducia nelle risorse dell’ingegno umano. È
proprio questo nuovo clima generale ciò che caratterizza la cosiddetta “rinascita
carolingia”, che malgrado i suoi limiti, non tardò a riflettersi favorevolmente anche nel
campo degli studi. Infatti, il re dei Franchi, Carlo Magno, per contrastare il fenomeno
dell’ignoranza dilagante, soprattutto tra i suoi funzionari, nel capitolare del 789 dispose
che tutti i vescovadi, tutti i monasteri aprissero una scuola, dove i ragazzi di qualsiasi
condizione potessero imparare, tra l’altro, il canto, l’astronomia, la grammatica, inclusa
la letteratura. Fin dal 781 aveva dato l’esempio fondando la scuola palatina e
affidandola ad Alcuino di York (735-804), uno straordinario maestro, organizzatore e
trascinatore che seppe comunicare alla corte di Aquisgrana tutto l’entusiasmo racchiuso
in queste sue parole: “Sorgerà in terra franca una nuova Atene più splendida
dell’antica, poiché la nostra Atene, nobilitata dall’insegnamento di Cristo, supererà la
sapienza dell’Accademia”.

L’intellettuale dell’età carolingia e del medioevo fu essenzialmente uomo delle


istituzioni: della chiesa o della schola, tanto che verrà chiamato scholasticus. Siccome poi
le scuole tra il IX e il XII secolo rimarranno come le aveva volute Carlo Magno, cioè
monastiche ed episcopali, il sapere lì elaborato, o Scolastica, sarà vincolato all’autorità e
alla tradizione.
L’origine e lo sviluppo della Scolastica si collegano strettamente alla funzione
dell’insegnamento. Le forme fondamentali dell’insegnamento erano due, la lectio, che
consisteva nel commento di un testo, e la disputatio, che consisteva nell’esame di un
problema fatto con la considerazione di tutti gli argomenti che si possono addurre pro e
contra. La connessione della Scolastica con la funzione dell’insegnamento fa parte della
natura stessa della Scolastica. Ogni filosofia è determinata nella sua natura dal
problema che costituisce il centro della sua ricerca; ed il problema della scolastica era
quello di portare l’uomo alla comprensione della verità rivelata. Ora questo era un
problema di scuola, cioè di educazione. La coincidenza tipica e totale del problema
speculativo e del problema educativo giustifica pienamente il nome della filosofia
medievale e ne spiega i tratti fondamentali.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ::!

In primo luogo la Scolastica non è, come la scienza greca, una ricerca autonoma
che affermi la propria indipendenza critica di fronte ad ogni tradizione o autorità. La
tradizione religiosa è, per essa, il fondamento e la norma della ricerca. La verità è stata
rivelata all’uomo attraverso le Sacre Scritture e le definizioni dogmatiche che la Chiesa
ha posto a fondamento della sua vita storica, per cui per l’uomo si tratta soltanto di
accedere a questa verità e di comprenderla. In questo compito, naturalmente, l’uomo
non può affidarsi alle sue sole forze, ma deve essere aiutato dalla tradizione religiosa,
fornita dagli organi della chiesa, che è guida illuminatrice e garanzia contro l’errore, per
cui l’orientamento intellettuale era per forza finalizzato verso la conoscenza religiosa.
Nella Scolastica, dunque, l’autorità acquistò un peso tale da condizionare in misura
determinante la ricerca. Le ragioni sono facilmente intuibili. Lo stesso Figlio di Dio,
sapienza infinita, s’era fatto Parola, e quella Parola, che si identificava con la “verità
tutt’intera”, era raccolta nelle Sacre Scritture. Ispirate dall’alto, esse erano affidate al
magistero ecclesiastico perché le custodisse integre e le interpretasse autenticamente.
In secondo luogo lo scopo della Scolastica è quello di intendere la verità già data
nelle rivelazione, non quella di trovare la verità. Perciò, come assume dalla tradizione
religiosa la norma della ricerca, così assume dalla tradizione filosofica gli strumenti e il
materiale della ricerca stessa. Essa vive sostanzialmente a spese della filosofia greca;
prima la dottrina platonico-agostiniana, poi quella aristotelica le forniscono gli
strumenti e il materiale della speculazione. La filosofia, come tale, è dunque per essa
soltanto un mezzo, ancilla theologiae. Naturalmente, le dottrine e i concetti che vengono
adoperati per questo scopo subiscono una trasformazione, non intenzionale, più o meno
radicale del loro significato originario, e il più delle volte non ne ha neppure coscienza.
Dottrine e concetti vengono tolti di peso dai complessi storici di cui fanno parte e
considerati indipendenti dai problemi cui rispondono e dalla personalità autentica del
filosofo che li ha elaborati.
In questa struttura formale del pensiero scolastico, e quindi di quello medievale,
si riflette la stessa struttura sociale e politica del mondo medievale, che si afferma a
partire dall’VIII secolo, quando, con la sparizione quasi completa degli scambi
economici e culturali e la decadenza, o scomparsa, delle città, rimane in piedi
un’economia rurale poverissima e chiusa. Questo è un mondo costituito come una
gerarchia rigorosa sorretta da un’unica forza che dall’alto ne dirige e determina tutti gli
aspetti. Il mondo è un ordine necessario e perfetto nel quale ogni cosa ha il suo posto e
la sua funzione ed è mantenuta in questo posto e in questa funzione dalla forza
infallibile che determina e guida il mondo dall’alto. Tutto ciò che l’uomo può e deve
fare è conformarsi a quest’ordine. Le istituzioni fondamentali del mondo medievale,
l’Impero, la Chiesa, il Feudalesimo, si presentano come i guardiani dell’ordine cosmico
e gli strumenti della forza che lo regge. In un mondo siffatto, la ricerca scientifica, e
filosofica in generale, non può desumere i suoi principi e la sua disciplina che dalle
stesse gerarchie e leggi in cui si concreta l’ordine universale. In più, la scienza era
guardata con sospetto, non soltanto perché attinta da fonti religiosamente sospette
(musulmane e pagane), non soltanto per i pericoli di eresia che sembrava implicare a
ogni passo, ma soprattutto perché minacciava di operare come elemento
eminentemente dinamico, e quindi disturbatore dell’ordine costituito.
Ora, una gerarchia culturale così rigida e totalizzante comportava tre ordini di
conseguenze:
;<<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

1) la risposta dell’uomo doveva essere improntata sul piano pratico all’obbedienza,


sul piano teoretico alla fede (filosofia ancilla theologiae, serva della teologia);
2) la schola formerà insegnanti che dovranno trasmettere il più fedelmente possibile un
sapere costruito una volta per tutte;
3) il tema del rapporto tra ragione e fede conserverà quella centralità che aveva
occupato fin dal sorgere della patristica, passando dalla tesi della perfetta armonia,
anzi dell’identità fra ragione e fede (prima scolastica secoli IX-XII), alle grandi sintesi
fondate sulla distinzione fra ragione e fede, ma insieme sul loro reciproco accordo
(aurea Scolastica secolo XIII), fino al divorzio della ragione dalla fede (crisi della
Scolastica XIV secolo).

La massima figura del rinascimento carolingio fu Giovanni Scoto Eriugena (ca.


810-877), audace pensatore che si ricollega alla tradizione neoplatonica, e che è
considerato il primo dei grandi scolastici. Per le sue ardite argomentazioni filosofiche
entrò in conflitto con le autorità religiose. Per comprendere la questione dobbiamo tener
presente che a quel tempo non c’erano ancora netti confini fra certe ammissioni
teologiche e le corrispondenti ricerche filosofiche. La conseguenza fu che Scoto ritenne
possibile sostenere la tesi, inammissibile per la chiesa anche ai nostri giorni, che ragione
e rivelazione sono insieme fonti di verità, e come tali è impossibile che si trovino in
conflitto; ove si manifestasse una apparente divergenza, ci si dovrebbe attenere alla
ragione: “Noi dobbiamo seguire la ragione che cerca la verità e non è oppressa da
alcuna autorità e in alcun modo impedisce che sia pubblicamente diffuso ed esposto ciò
che i filosofi assiduamente cercano e laboriosamente giungono a trovare”. L’autorità
delle Sacre Scritture è indubbiamente indispensabile all’uomo perché esse sole possono
condurlo ai recessi segreti in cui abita la verità, ma il peso dell’autorità non deve in
nessun modo distoglierlo da ciò di cui lo persuade la retta ragione. La dignità maggiore
e priorità di natura spettano alla ragione, non all’autorità. La ragione è nata all’inizio dei
tempi insieme alla natura, l’autorità è nata dopo. L’autorità deve essere approvata dalla
ragione, la ragione non ha bisogno di essere appoggiata o corroborata da alcuna
autorità. Questa decisa affermazione della libertà di ricerca, che fa di Scoto un superstite
antesignano dello spirito filosofico dei Greci, non implica in lui nessuna limitazione o
negazione della religione, giacché essa non si identifica con l’autorità, ma con la ricerca.
Giovanni è, con questa visione, vicinissimo allo spirito della ricerca agostiniana, per il
quale la fede è un punto d’arrivo più che un punto di partenza, è al termine della lunga
e laboriosa via della ricerca, anziché all’inizio ed è piuttosto la direzione e la guida della
ricerca anziché un limite o un impedimento.
Il suo capolavoro, il De divisone naturae, è il primo grande scritto speculativo del
Medioevo, dove già si evidenzia e si manifesta il carattere della ricerca scolastica: il
metodo aprioristico o deduttivo. Quel poco che nella sua opera può essere considerato
scientifico è interessante. Anzitutto rifiuta l’idea aristotelica di una quinta essenza
costitutiva dei corpi celesti, e si avvicina alla concezione degli antichi ammettendo che
l’universo sia costituito dagli stessi elementi che vediamo sulla Terra (terra, acqua,
fuoco, aria), e pertanto non è accettabile la divisione aristotelica fra mondo celeste e
mondo sublunare. Cosa più notevole per il suo tempo, anche il suo sistema del mondo
non è aristotelico, ma si avvicina, anzi sviluppa, il sistema eliocentrico di Eraclide
Pontico. A differenza dell’antico pitagorico, egli suppone che, non solo Venere e
Mercurio, ma anche Marte e Giove ruotino intorno al Sole. La sua convinzione dipende
da una preferenza soggettiva, e non è legata a ragioni o a prove sperimentali; tuttavia è
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;<;!

interessante notare che questo pensatore eterodosso, più volte censurato come eretico,
poteva trasmettere a lontani posteri una luce di sapienza custodita faticosamente in
un’epoca oscura.

La seconda metà del secolo XI ed il secolo XII sono in Occidente un periodo di


fioritura intellettuale, ed un risveglio, seppur timido e impacciato, della cultura
scientifica. La cultura cessa di essere il patrimonio delle abazie e l’insegnamento tende a
organizzarsi nella forma che prenderà nel secolo XIII con le Università. Tutto ciò è
dovuto alla rivoluzione agraria e alla rinascita delle città. Divenute centri di vita
autonoma rispetto alla campagna, esse si svilupparono rapidamente come spazi di
libertà, e di iniziativa che doveva portare frutti in ogni settore, da quello scientifico e
culturale in generale, a quello sociale ed economico, distruggendo, così, il carattere
esclusivamente feudale del precedente assetto economico-politico-culturale e portare
nuove classi sociali alla ribalta della storia. Le schole furono affiancate da nuovi centri
culturali, appunto le università. Nelle università gli insegnanti furono liberi di tener
lezioni profonde quanto volessero nelle loro varie discipline, per cui l’università
medievale fu un luogo di grande, seppur mai completa, libertà e sotto forma di ipotesi
da proporre o di obiezioni plausibili, lo studioso medievale fu libero di discutere,
sebbene non di proclamare come vere, quasi ogni concezione immaginabile
sull’universo fisico.
La filosofia naturale toccava argomenti come la formazione, l’età e la durata
dell’universo, entro il quale doveva trovar posto il paradiso e l’inferno, o la relazione
delle stelle con la libertà del volere umano. Se non fosse stato guidato, il filosofo della
natura avrebbe potuto seguire linee tematiche perniciose per la fede cristiana.
Certamente non gli sarebbe stato permesso di affermare, con Aristotele, che l’universo è
non creato o, con gli atomisti greci, che è il prodotto di fortuiti aggregati di atomi, per
cui lo scienziato medievale deve seguire la fede anche quando va in direzione opposta a
quella della ragione. Lo scienziato medievale ammetteva che alcune verità religiose
erano e dovevano restare incomprensibili razionalmente, come i miracoli. In un certo
senso, allora, egli adottò un doppio metro di valutazione: nei problemi verso i quali
l’autorità cristiana era indifferente, tra cui venivano comprese la maggior parte delle
questioni scientifiche, egli seguiva i dettami della ricerca razionale; sui problemi in cui
solo il cristiano poteva avere una precisa posizione, il filosofo medievale accettava
quella posizione con la forza di argomentazioni unite alla fede.
Questo periodo rappresenta la prima vera età della Scolastica che giunge alla
consapevolezza del suo problema fondamentale: intendere e giustificare le credenze
della fede. Alcuni credono di trovare la soluzione del problema affidandosi alla ragione
e alla scienza che sembra più propria di essa, la dialettica; altri diffidano della dialettica e
si appellano all’autorità dei padri della chiesa, limitando il compito della ricerca
filosofica alla difesa delle dottrine rivelate. Di qui la polemica tra dialettici e teologi
(antidialettici), che occupa l’XI secolo. In realtà anche i più ostili alla dialettica, anche gli
assertori più rigorosi della superiorità della fede, non tralasciano la ricerca,
propriamente scolastica, della via migliore per condurre l’uomo all’intelligenza
dellaverità rivelata.

Fra i dialettici spicca la figura di Berengario di Tours (998-1088), che pone la


ragione al di sopra dell’autorità ed esalta la dialettica al di sopra di tutte le scienze.
Fondandosi su S. Agostino, considera la dialettica l’arte delle arti, la scienza delle
;<=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

scienze. Ricorrere alla dialettica significa ricorrere alla ragione; e chi non ricorre alla
ragione, per la quale l’uomo è immagine di Dio, abbandona la sua dignità e non rinnova
in sé di giorno in giorno l’immagine divina.

Contro i dialettici polemizza Pier Damiani (1008-1072), nel quale troviamo la


totale assenza di speculazione sulla natura, riassunta nel detto “scientia inflat”, la scienza
gonfia di orgoglio diabolico. Mentre la contemplazione di Dio, mettendo l’anima a
contatto diretto con la verità, rende vana la scienza. Anzi, in senso nettamente
antiscientifico, sostiene che Dio non è soltanto superiore alle leggi della natura, ma
altresì a quelle della logica, che egli giudicava perniciosa e pericolosa.

Grande speculativo, tale da rappresentare la prima grande affermazione della


ricerca nel Medioevo, fu invece Sant’Anselmo d’Aosta (1033-1109), che amava affidarsi
alla ragione per sviluppare il discorso argomentativo. Non che intendesse distogliere
l’attenzione da Dio, ma era convinto che l’uomo avesse a disposizione due distinte fonti
di conoscenza, la ragione e la fede: “Né cerco di capire per credere, ma credo per
comprendere. E anche questo credo: che se prima non crederò, non potrò capire”. La
fede è il punto di partenza della ricerca filosofica. Non si può intendere nulla se non si
ha fede; ma la fede sola non basta, occorre confermarla e dimostrarla, e questa conferma
è possibile attraverso la ragione. Certo, se un contrasto apparisse tra fede e ragione,non
bisognerebbe ammettere la verità del ragionamento, anche se questo sembrasse
imbattibile. Ma Anselmo è intimamente sicuro che non può esserci un vero contrasto
perché l’intelletto è illuminato dalla luce divina. È, in un certo senso, il punto di vista
che oggi si potrebbe dire dell’idealismo assoluto, e che è, molto spesso l’opposto di
quello seguito dall’uomo di scienza. Ma pensieri come questi fanno parte della storia
della scienza in quanto esprimono in modo quasi perfetto il punto di vista contrario,
prevalente durante tutto il medioevo.
Intorno alla creazione sono interessanti le idee di Anselmo, che da un lato si rifà
alla creazione dal nulla di Agostino che richiama l’idea del big bang come origine
dell’universo, dall’altro introduce l’idea della creazione continua che richiama alla
mente la teoria dello stato stazionario (creazione continua di materia) degli anni
cinquanta del XX secolo, teoria poi abbandonata perché in contrasto con evidenze
sperimentali.
Poiché Dio è l’essere e le cose sono solo per partecipazione all’essere, ogni cosa
deriva il suo essere da Dio. Tale derivazione è una creazione dal nulla. E difatti, le cose
create non possono derivare da una materia. Questa a sua volta dovrebbe derivare da
sé, il che è impossibile, o dalla natura divina. In questo caso, la natura divina sarebbe la
materia delle cose mutevoli e soggiacerebbe alla mutevolezza di esse. Essa, che è il
Sommo Bene, andrebbe in esse soggetta a mutevolezza e a corruzione; ma il Bene
Sommo non può cessare di essere tale. La materia delle cose create non può essere né da
sé né da Dio; non c’è dunque una materia delle cose create. Non resta allora che
ammettere che esse sono create dal nulla. Contro l’interpretazione (che si trova in
Eurigena) che il nulla da cui le cose derivano sia alcunchè di positivo, per esempio una
causa materiale o una realtà potenziale, Anselmo ha cura di aggiungere che esso non è
né una materia né altra cosa reale; e che l’espressione “creazione dal nulla” significa
soltanto che il mondo prima non c’era ed ora c’è, in sostanza indica il salto dal nulla a
qualche cosa. Il mondo è stato, tuttavia, razionalmente prodotto e niente può essere
prodotto in tal modo senza supporre nella ragione di chi produce un esemplare della
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;<4!

cosa da prodursi, cioè una forma, similitudine o regola di essa. Deve cioè esserci, nella
mente divina, il modello o l’idea della cosa prodotta, come nella mente dell’artefice
umano c’è il concetto dell’opera da prodursi: con la differenza che l’artefice ha bisogno
di una materia esterna per effettuare la sua opera e Dio no, e che il primo deve ricavare
dalle cose esterne il concetto stesso dell’opera, mentre Dio crea da sé l’idea esemplare.
La creazione dal nulla è appunto questa articolazione interiore della parola
divina. Senza l’attività creatrice di Dio, nulla è nulla dura; Dio non solo porta all’essere
le cose, ma le conserva e le fa durare continuando la sua azione creatrice. La creazione è
continua. Da ciò segue che Dio è e deve essere dappertutto; dove egli non è, nulla è e
nulla sta in piedi. Questo non vuol dire, certo, che egli sia condizionato dallo spazio e
dal tempo. In lui non c’è un alto né un basso, né un prima, né un dopo; ma Egli è tutto
in tutte le cose esistenti e in ciascuna di esse e vive di una vita interminabile che è tutta
insieme presente e perfetta.

Un altro problema in cui si esercitò la sottigliezza degli scolastici è la celebre


questione degli universali, lascito della filosofia antica di Platone e Aristotele, che gli
scolastici hanno il merito di isolarla e di trattarla con spregiudicatezza e profondità. Il
problema è sostanzialmente questo: i concetti universali (concetti di genere o di specie)
usati nella vita comune, e nella scienza, corrispondono ad una vera realtà (tesi realista),
o sono semplici parole, finzioni logiche, mediante cui indichiamo particolari gruppi di
oggetti (tesi nominalista)? La mentalità realistica che pone come primo l’universale e da
questo deduce il particolare, si può definire nel campo logico come deduttiva; mentre la
mentalità nominalistica è induttiva. Naturalmente, la distinzione non deve avere
carattere assoluto, perché l’induzione e la deduzione non si contrappongono come modi
di pensare esclusivi l’uno dell’altro, ma piuttosto come due momenti di un unico
processo nell’acquisto della conoscenza.
Il problema degli universali, con la disputa che ne seguì, significa perciò che
diventa un problema, in primo luogo, la validità della conoscenza razionale; e in
secondo luogo la struttura della realtà che quella conoscenza ha per oggetto. La
possibilità di risolvere in senso nominalistico il problema degli universali equivale alla
possibilità di ammettere che la realtà non sia costituita da forme universali che
riproducono le idee archetipe e divine ma da cose o entità particolari che sono
accessibili all’uomo nella sua esperienza quotidiana. In questo caso la mera conoscenza
sensibile deve essere anteposta a quella razionale, e ciò spiega la maggiore attenzione
prestata al mondo dell’esperienza e alle cose naturali che lo costituiscono. Il fatto nuovo
della disputa degli universali è perciò la presenza dell’alternativa nominalistica che si
chiamò ben presto la via moderna della logica in contrasto con la via antica del realismo.
La via moderna trovò alimento a partire dal secolo XII nello scritto di ottica De
Aspectibus dell’arabo Alhazen, nel quale formulando una teoria generale della visione si
poneva come forma fondamentale della conoscenza l’intuizione (intuitio) della cosa
presente e si riteneva che tutte le proposizioni universali siano ricavate da essa con
processo di generalizzazione. Da questo punto di vista, che sarà ripreso soprattutto da
Ockham e dai suoi seguaci, l’universale è un segno delle cose e sta in luogo (supponit
pro) di esse. A questo indirizzo il realismo (la via antica) contrapponeva la posizione
classica della tradizione per cui l’universale è, oltre che conceptus mentis, l’essenza
necessaria o la sostanza delle cose e l’idea di Dio.
L’antagonismo tra realismo e nominalismo, tra la via antica e la via moderna, è
pertanto un antagonismo di fondo che trascende la portata delle sottili, astratte e spesso
;<5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

noiose dispute, cui dette luogo. Del realismo si può fare uso teologico e cosmologico,
del nominalismo no. Perciò le correnti della scolastica che si ispirarono al realismo
furono quelle intese a difendere la teologia e la concezione teologica del mondo. Quelle
che si ispirarono al nominalismo si schierarono, in generale, contro la teologia e
assunsero posizione critica nei confronti della concezione teologica del mondo,
spingendosi talora fino a innovazioni ardite che costituiscono l’annuncio o la
preparazione di nuove concezioni della natura e dell’uomo. S’intende quindi perché, sul
finire della scolastica, il nominalismo ebbe la prevalenza: i problemi della teologia,
respinti nel dominio della fede, non interessavano più la filosofia, che si volgeva ad altri
campi, in cui si potevano ritenere più adatti e più efficaci i poteri razionali dell’uomo.

La prima fase della disputa degli universali fu provocata dal nominalista


Roscellino (1050-1120), il cui merito principale, dal punto di vista scientifico, fu quello
di non lasciar confondere e perdere nella filosofia la scienza sperimentale. La tesi di
Roscellino sembra essere ispirata direttamente dalla logica di Boezio, e porta che le
sostanze universali sono puri nomi, flatus vocis: “il colore non è altro che il corpo
colorato …”

Chi, nella propria persona, attraverso manifestazioni di una sorprendente libertà


di pensiero, riuscì a riassumere tutti i fermenti del secolo XII fu il nominalista Pietro
Abelardo (1079-1142). Il centro del pensiero di Abelardo è l’esigenza del valore umano
della ricerca, la necessità di risolvere in motivi razionali ogni verità che sia o voglia
essere tale per l’uomo, di affrontare con le armi della dialettica tutti i problemi per
portarli sul piano di una comprensione umana effettiva. Già la sua passione per la
logica assumeva il tono di una sfida: “Ogni scienza è di per sé buona, anche quella che
riguarda il male, e che non può mancare all’uomo giusto”. La ragione è per l’uomo la
sola guida possibile; e l’esercizio della ragione, che è proprio della filosofia, è l’attività
più alta dell’uomo. Pertanto, se la fede non è un impegno cieco che può dirigersi anche
a pregiudizi e a errori, dev’essere essa stessa sottoposta al vaglio della ragione. Qui è la
vera molla della ricerca di Abelardo. Anche la verità rivelata non è verità, per l’uomo, se
non fa appello alla sua razionalità, se non si lascia intendere e far propria da lui.
Il prevalere della ricerca nella speculazione di Abelardo conferisce naturalmente
alla ragione la preminenza sull’autorità e, nel tempo in cui solitamente l’ultima parola
era affidata alle autorità, Abelardo risultò un personaggio originale, pericolosamente
originale, in relazione al rapporto fra ragione e fede. La formula con cui si riassume il
suo pensiero in proposito, “comprendo per credere” (intelligo ut credam), lo colloca agli
antipodi rispetto a sant’Agostino e a sant’Anselmo. Naturalmente, Abelardo non voleva
affatto ridurre la fede a dimostrazione razionale, ma difendeva il diritto dell’uso della
ragione nella formazione del consenso della fede: “Quando ti si vuol persuadere che
devi credere qualcosa, bisogna sottoporre ad esame razionale se è necessario credere
oppure no”. Sotto questo aspetto è notevole la sua opera Sic et non (1121-22), anche
perché ad essa risale il costume scolastico dell’argomentare con il metodo della quaestio,
enunciando dapprima gli argomenti pro e contro una certa soluzione di un problema, e
passando poi alla scelta di un partito e alla confutazione di quello opposto. Qui
possiamo scorgere la fonte del successivo probabilismo, assai diffuso nel XIII e XIV
secolo, che si esercita nell’esame della probabilitas di opposte proposizioni, sulla base
delle ragioni, logiche, sperimentali o di autorità, che le rendono più o meno
inverosimili. È un atteggiamento favorevole alla ricerca, che avrà risultati stimolanti per
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;<6!

il progresso delle idee scientifiche nel periodo della tarda scolastica (secolo XIV),
spingendo all’esame di vedute eterodosse, come lo stesso atomismo, e suggerendo di
confrontare certe spiegazioni di Aristotele, ad esempio nel campo della fisica, con altre
eventualmente meno autorevoli. Così, anche se ancor lontani dal darci una scienza
moderna, tuttavia il nominalismo e il probabilismo concorreranno ad un risveglio della
curiosità e delle discussioni su problemi scientifici nel secolo XIV. Furono questi
orientamenti generali che portarono Abelardo alla condanna da parte del concilio di
Soissons nel 1121, e vent’anni dopo, da quello del concilio di Sens. Però, la linea indicata
da Abelardo, nel lungo periodo, risulterà vincente, tanto da portare alla grande stagione
del tomismo.
Il soffio della prima rinascita agricola e artigianale, che anima una rinnovata
curiosità verso la natura, insieme ai contatti con la cultura araba e le vedute di
Aristotele, determinano un fatto nuovo nella storia della cultura medievale: il risorgere
dell’interesse per le scienze particolari, così evidente nella scuola di Chartres, prima
ancora che alla corte di Federico II. Nello sfondo stanno anche le nuove vedute
nominalistiche, anche se gli chartriani sono prevalentemente platonici, inclini al
realismo, tuttavia il concettualismo di Abelardo, e la sua dottrina dell’astrazione, non
potevano essere dimenticati. Aristotele e altri naturalisti erano studiati più dello stesso
Platone e il loro platonismo era nuovo, giacché metteva capo alla ricerca di particolari
cause e ragioni fisiche, non meramente ideali, e talvolta giungeva addirittura fino a
confondersi con vedute di naturalisti presocratici. Dunque il secolo XII ci offre, con la
scuola di Chartes, l’esempio di un nuovo interesse per il mondo della natura,
riconoscendo addirittura una certa autonomia della natura nei confronti del suo stesso
creatore. I temi di filosofia naturale, dunque, che i filosofi di Chartres preferirono, si
riconnettono col tentativo di Abelardo di inserire il Timeo platonico sul tronco della
teologia cristiana. Abelardo aveva identificato la platonica Anima del mondo con lo
Spirito Santo. A questa identificazione i maestri di Chartres identificarono pure l’Anima
del mondo con la Natura stessa. Con ciò, la natura diventa la forza motrice, ordinatrice
e vivificatrice del mondo; e in questa azione acquista una dignità ed una potenza
autonoma. La natura è detta la forza universale (vigor universalis) che non solo fa essere
ogni singola cosa ma la fa essere quella che in particolare essa è. Quindi, riconoscendo
alla natura questa dignità e autonomia, si rende così possibile spiegare la natura con la
natura; e i filosofi di Chartres, utilizzando le fonti classiche e patristiche, ricorrono
spesso e volentieri a dottrine epicuree e stoiche per le loro spiegazioni cosmologiche.
Naturalmente l’utilizzazione di dottrine così eterogenee dà luogo a costruzioni
concettuali confuse e poco rigorose che hanno scrso valore scientifico. Ma l’importanza
di questi tentativi non è nei loro risultati, bensì piuttosto nell’indirizzo filosofico che
delineano: un indirizzo deciso a tenere sempre in maggiore considerazione la natura e
l’uomo, anche se la natura e l’uomo vengono concepiti, non in opposizione al
trascendente, ma come manifestazioni del trascendente medesimo. L’indirizzo che trova
nella scuola di Chartres la sua più ricca espressione filosofica era stato preparato, sin dal
secolo precedente, da una certa ripresa delle conoscenze scientifiche dovuta soprattutto
ai contatti con gli Arabi.

Il primo importante rappresentante della scuola di Chartres è Bernardo (1100-


1169) che, introducendo l’atomismo come feconda idea di progresso elaborata
nell’illuminismo greco, cercava di indicare all’Europa ancora ossequiente, un’età d’oro
dell’uomo. Secondo Bernardo, è vero che rispetto ai giganti di quell’epoca, noi siamo
;<7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

nani, ma se, facendo tesoro della loro scienza, saliamo sulle loro spalle, vedremo ciò che
essi non videro.
Giovanni di Salisbury (ca. 1110-1180) attraverso le sue opere offre un quadro
vivace della cultura del tempo: “Il senso corporeo, che è la prima forza e il primo
esercizio dell’anima, getta i fondamenti di tutte le arti, e genera i primi principi delle
scienze”. L’intera dottrina di Giovanni è animata da uno spirito autenticamente critico, il
suo scopo è quello di stabilire chiaramente i limiti e i fondamenti delle possibilità
conoscitive umane, e ritiene che la ricerca, il più delle volte, si debba accontentare del
probabile: “… in tutte le cose che possono essere per il filosofo oggetto di dubbio, non
giuro affatto che è vero ciò che dico: ma, vero o falso che sia, mi contento della sola
probabilità”. In sintesi, Giovanni preferisce dubitare intorno alle cose singole, piuttosto
che esprimersi con certezza su ciò che è ignoto o rimane nascosto. Questo prudente
atteggiamento viene giustificato da Giovanni con la limitazione propria della scienza
umana, alla quale si sottraggono le cose future: “So con certezza che la pietra o la saetta
che lancio verso le nuvole dovrà ricadere a terra, perché così esige la sua natura; ma
tuttavia non so se essa possa soltanto ricadere in terra e perché: potrebbe infatti sia
ricadere, sia no. Anche l’altra alternativa è vera, sebbene non necessariamente, come è
vera quella che so che si verificherà … Di ciò che non è ancora, non c’è scienza, ma
soltanto opinione”. Da ciò deriva che tutte le affermazioni che implicitamente ed
esplicitamente concernono il futuro hanno valore probabile, non necessario, la loro
probabilità è fondata sulla indeterminazione del loro oggetto ed è perciò ineliminabile.
Tuttavia la conoscenza umana non può rimanere chiusa nel cerchio del probabilismo,
per cui le sue limitate certezze devono pur poggiare su qualche punto fermo, che,
secondo Giovanni, è rappresentato dai sensi, oltre che dalla religione e dalla fede. In
germe, egli è dunque uno dei primissimi rappresentanti dell’empirismo che
predominerà nel pensiero scientifico, filosofico, e nella mentalità inglese.

Guglielmo di Conches (1080-1145), pur partendo da posizioni platoniche, giunge


ad una concezione atomistica secondo cui i quattro elementi empedoclei sono formati
da particelle invisibili e indivisibili, che possono essere affermate solo dalla mente. La
ragione di queste vedute eterodosse, connesse anche alla scienza araba, sta nel fatto che
per i maestri di Chartres non solo Dio è importante come ordinatore del mondo, a causa
degli eventi che vi si producono, ma esistono anche delle cause seconde, puramente
naturali. È necessario conoscere questa cause fisiche per intendere i fenomeni, ed anche
per risalire al “primo fattore”. Da ciò l’esigenza di una analisi più approfondita e
razionale dei fenomeni.

Il più notevole rappresentante della scuola di Chartres è Gilberto Porretano


(1070-1154) che definisce la fede come la “percezione, accompagnata dall’assenso, della
verità di una cosa” e ritiene che la fede preceda la ragione nel dominio teologico, ma la
segua nel dominio filosofico. Le cose create non hanno necessità vera e propria, giacchè
in esse tutto è mutevole, quindi anche ciò che comunemente si ritiene necessario. La
necessità c’è solo nelle cose divine e qui la fede precede la ragione. In esse non crediamo
in quanto sappiamo, ma sappiamo in quanto crediamo (non cognoscentes credimus sed
credentes cognoscimus). La fede, prescindendo completamente dai principi della ragione,
giunge a comprendere non solo ciò cui la ragione umana non può giungere, ma anche
ciò cui essa può giungere con i propri principi. Quindi la fede è considerata l’esordio
non solo delle conoscenze teologiche ma di tutte le altre; essa è priva di qualsiasi
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;<8!

incertezza ed è il fondamento fermissimo e certo anche delle conoscenze naturali. In


base a questo presupposto Gilberto sostiene la stretta unione tra la ragione e la fede in
tutta la ricerca filosofica: “Unisci la fede e la ragione affinchè per prima cosa la fede
conferisca autorità alla ragione e poi la ragione conferisca assenso alla fede”. Se da un
lato Gilberto considera intimamente unite la fede e la ragione, dall’altro lato intende
distinguere nettamente il dominio delle discipline singole e in primo luogo quello della
teologia da quello della filosofia. Questa distinzione non deve essere fondata su una
diversità di attività o di atteggiamenti spirituali, ma soltanto su una diversità di principi
oggettivi. Ogni scienza deve partire da fondamenti propri, da principi che sono specifici
della scienza e inerenti al suo oggetto. Gilberto si vanta di aver fatto per la teologia ciò
che è stato fatto per le matematiche, cioè di aver determinato i concetti e i principi
fondamentali della scienza teologica.

All’indirizzo seguito dalla scuola di Chartres si connette l’opera di Alano di Lilla


(1125-1202), nella quale viene abbandonata la pretesa d’intendere le verità di fede nella
loro necessità, di dimostrarle come se fossero verità di ragione, pretesa che appare, per
esempio in S. Anselmo. Ciò che è oggetto di fede non può essere compreso e quindi non
è oggetto di scienza. “Niente si può conoscere, che non si possa intendere, ma noi non
apprendiamo Dio con l’intelletto, dunque non vi è scienza di Dio. Siamo bensì indotti
dalla ragione a presumere che c’è Dio, ma non lo sappiamo con certezza, bensì lo
crediamo soltanto. Questa è fede; una presunzione che nasce da ragioni certe, ma non
sufficienti a costituire scienza. Come tale, la fede è al disopra dell’opinione, ma al
disotto della scienza”. La distinzione tra la scienza e la fede si è qui fatta chiarissima. La
fede deve conservare il suo merito di conoscenza certa ma non dimostrativamente
necessaria, quindi diversa dalla scienza.
Tuttavia Alano ha cercato di organizzare scientificamente la teologia proprio sul
modello della scienza più rigorosa, la matematica. Nello scritto Regulae o Maximae
theologicae ha formulato i principi della teologia, partendo dal presupposto che “ogni
scienza si fonda sui suoi principi come sui propri fondamenti”; e ha quindi fissato le
regole fondamentali della scienza teologica raccogliendo e sistemando i risultati della
speculazione teologica precedente.
Avversari dei maestri di Chartres furono gli iperdialettici, avversi ad ogni
tradizionalismo e alla venerazione degli antichi. Questi ebbero il merito di avvertire già,
in un’epoca di limitata cultura, i pericoli insiti nella identificazione della rinascita della
scienza con l’assorbimento passivo del pensiero degli antichi. Il loro fu uno dei più
energici tentativi di svincolare la ricerca razionale da ogni schiavitù verso il passato, e
per affermare, anche se in una maniera ancora ingenua, l’indinscibilità fra ricerca
razionale e spirito di originalità.

La rinascita filosofica del XII secolo è anche una rinascita del misticismo. Più
precisamente, quella rinascita rende possibile il riconoscimento della mistica come di
una via autonoma per elevarsi a Dio, una via che in qualche caso è alternativa o rivale
della ricerca razionale. Il misticismo fu inteso, quindi, da Bernardo di Clairvaux (1090-
1153) come arma di combattimento contro ogni forma di filosofia, e tra i punti salienti
della sua dottrina troviamo proprio la negazione del valore della ragione. Su questo
punto Bernardo si pronuncia senza riserve contro la scienza. Il desiderio di conoscere
gli appare “una turpe curiosità” e le discussioni dei filosofi come “loquacità piena di
vento”.
;<9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Le due vie, quella mistica e quella della ricerca razionale, invece, in Ugo da San
Vittore (1096-1141) si fondono armonicamente. Per Ugo la suprema ascesa mistica
appare come il coronamento della paziente ricerca scientifica e filosofica. Infatti il suo
atteggiamento di fronte alla scienza è decisamente opposto a quello di Bernardo. Nulla
c’è di inutile nel sapere: “Impara tutto, vedrai poi che nulla è superfluo”. La stessa
scienza profana è utile alla scienza sacra, alla quale è subordinata, e perciò, nella sua
opera Didascalion, tratta delle nozioni scientifiche conosciute al suo tempo; e quindi,
invece di contrapporle tra loro, cerca di stabilire un equilibrio armonico e di coordinarle
in un unico sistema. In che modo? Le vie della ragione son date dalla natura, le vie della
rivelazione dalla grazia. Per Ugo la scienza è anche la sola conoscenza necessaria, e
questa necessità viene dalla logica che è il suo strumento indispensabile. Le scienze
sperimentali, come la fisica, presuppongono le scienze puramente logiche, come la
logica stessa e la matematica; giacchè l’esperimento è fallace e soltanto nella pura
ragione è la garanzia indiscutibile della verità.
Notevole è il fatto che la matematica e la fisica sono considerate scienze fondate
sull’astrazione, ciò che ci avvicina ad un punto di vista nominalistico più che non
platonico. La matematica considera distintamente gli elementi che nelle cose naturali si
trovano confusi insieme; e così mentre in realtà la linea non c’è mai senza la superficie
ed il volume, la ragione considera, nella matematica, la linea in se stessa, prescindendo
dalla superficie e dal volume. Ciò perché la ragione spesso considera le cose, non come
sono, ma come possono essere create, cioè non in loro stesse, ma in riferimento a se
stessa. Allo stesso modo anche la fisica distingue l’uno dall’altro, per astrazione, gli
elementi che, in realtà, si trovano mescolati nel mondo reale: terra, acqua, aria e fuoco; e
giudica ogni corpo come un prodotto della composizione e della forza di tali elementi.
Al pari degli antichi presocratici, egli ammette il principio di conservazione della
materia, ma più importante è il fatto che ammette la composizione atomica dei quattro
elementi, come molti rappresentanti della scuola di Chartres, ed è così uno dei primi, in
Occidente, a richiamare l’attenzione su quella antica teoria, che, combattuta aspramente
da pensatori ortodossi, sarà decisiva per la rinascita della scienza.
In questo fermento di rinascita filosofica non possiamo non considerare la
reazione delle autorità ecclesiastiche verso la rinnovata conoscenza di Aristotele
durante il secolo XII. La traduzione dei libri sconosciuti della Logica, della Fisica e della
Metafisica, congiunta ai commenti e alle interpretazioni degli arabi, specie di Averroè e
Avicenna, recavano un fermento di idee che facilmente conduceva a pericolose
tendenze di pensiero, ad affermazioni temerarie, o addirittura a vere e proprie eresie.
Mentre la diffusione della scienza araba, come abbiamo già trattato, produce un
notevole allargamento della cultura scientifica medievale, gli effetti della diffusione
dell’aristotelismo sono assai più profondi, in quanto fornirono i quadri mentali, i
metodi logici e le categorie per tentare di sistemare, e quindi connettere, porre in
relazione le une con le altre, disporre in ordine logico le varie scienze dell’epoca, in una
vasta sintesi che andava dalle scienze empiriche della natura alla logica e fino alla
metafisica. Finalmente, di fronte al misticismo e al simbolismo dominante nei periodi
precedenti, l’empirismo di Aristotele costituiva un elemento di reazione ed un’apertura
verso una mentalità più scientifica. La reazione delle autorità ecclesiastiche si manifesta
attraverso numerose condanne, il cui scopo è di stabilire con precisione i confini fra il
lecito e l’eretico nel campo del pensiero, ma che, specie in un primo momento,
tendevano a gettare il discredito su tutta la dottrina dello Stagirita. Bisognerà aspettare
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;<:!

il XIII secolo affinché l’aristotelismo venga considerato come uno dei fondamenti del
dogma cristiano. Questa rivoluzione, come vedremo dopo, sarà opera soprattutto di
Tommaso d’Aquino.

A tal riguardo è giusto ricordare Alberto Magno (1193 o 1206-1280), maestro di


Tommaso d’Aquino, illustre docente della facoltà teologica di Parigi, che, traducendo
direttamente Aristotele dal greco e commentandolo direttamente, cercò di liberare il
pensiero aristotelico dalle incrostazioni di pensiero islamico, e comunque di tentare un
accordo con il dogma cristiano. Alberto trova ed imbocca, per la prima volta, la via
attraverso la quale i capisaldi del pensiero aristotelico possono servire per una
sistemazione della dottrina scolastica che non tradisca né abbandoni i risultati
fondamentali della tradizione. Appare chiaro, con Alberto, che l’aristotelismo non solo
non rende impossibile la ricerca scolastica, cioè la comprensione filosofica della verità
rivelata, ma costituisce il fondamento sicuro di tale ricerca e offre il filo conduttore che
consente di legare insieme le dottrine fondamentali della tradizione scolastica. Il
riconoscimento dell’aristotelismo come dell’autentica filosofia conduce Alberto a
separare nettamente la filosofia stessa che procede per ragioni e sillogismi dalla teologia
che si fonda sulla fede. Per la prima volta, nella scolastica latina, la separazione tra
filosofia e teologia era fatta così nettamente. L’affacciarsi dell’autonomia della ricerca
filosofica coincide in Alberto con l’esigenza di una ricerca naturalistica fondata
sull’esperienza, perché soltanto l’esperienza, ossia le cose comprovate, dà la certezza su
determinati fenomeni, giacchè intorno ad essi il sillogismo non ha valore.
Infatti, notevole risulta l’attività scientifica di Alberto, nella quale mostra
un’indipendenza di giudizio e un’originalità di pensiero, dovute alla libertà di lavorare
su fonti arabe e greche. Egli è, almeno in questi campi, un empirista, dal momento che
sono materie interamente fondate sull’esperienza, dove non bisogna aver fretta di
concludere, e nelle quali comunque le conclusioni generali non sorpassano il piano
dell’empiricamente osservabile. Per questo egli non temeva che la scienza naturale
potesse porsi in contrasto con la teologia avendo un diverso piano di validità.
Ovviamente le opere di Alberto Magno restano ad un livello prescientifico, alla luce
della scienza moderna e prescindendo dalla prospettiva storica, e i limiti sono quelli di
tutto il pensiero scientifico del medioevo. Non si tratta di una accettazione servile di
errori dovuta all’autorità di Aristotele (ipse dixit), né di apriorismo concettuale che rifiuti
di guardare al grande spettacolo della natura, ma i limiti sono proprio nella struttura
formale dell’aristotelismo: in un linguaggio che non è scientifico, ma ancora teologico,
in categorie che sono metafisiche, in metodi discorsivi, come il sillogismo (sia quello
deduttivo che induttivo) che non si adattano all’elaborazione di nozioni scientifiche. E
poiché il pensiero medievale non riuscirà a rompere questi meccanismi mentali, ecco
che il suo compito si ridurrà a quello di elaborare delle nozioni prescientifiche che,
comunque, risulteranno preziose per la formazione della scienza moderna. La scienza
deve operare mediante nozioni di carattere esplicativo-descrittivo, ossia tali che
spieghino in quanto descrivono e descrivano in quanto spiegano. Né la mera raccolta di
osservazioni empiriche, né la mera spiegazione mediante concetti che non descrivano
un processo effettuale possono costituire sapere scientifico.

In realtà, nonostante le proibizioni, Fisica e Metafisica continuavano ad essere


studiate e l’averroista Sigieri di Brabante (ca. 1226-1283) poteva affermare l’eternità e la
necessità del mondo, ciò che bastava a sconvolgere i fondamenti del dogma cattolico.
;;<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Averroè aveva una fiducia nella concordanza fra scienza e fede, e sosteneva che
quest’ultima esprime, in modo più immediato e direttamente accessibile, ciò stesso che
la filosofia spiega con metodo più elaborato, secondo le lunghe vie dell’esperienza e del
ragionamento logico. Il patrimonio delle concezioni dogmatiche cristiane è, però,
profondamente diverso da quello delle islamiche. Ad esempio il concetto di eternità
dell’universo ha ben altro rilievo agli occhi di credenti il cui testo sacro è il Genesi.
Perciò Sigieri deve trasformare le vedute di Averroè sui rapporti fra scienza e fede,
sostenendo non già un semplice e fiducioso parallelismo, ma piuttosto una specie di
convivenza pacifica fra conoscenza razionale e dogma. Si perviene, pertanto, alla teoria
della doppia verità: come cattolico Sigieri ammette la preminenza indiscutibile, la verità
assoluta del dogma, ma come filosofo ritiene di poter discutere a fondo ogni problema
sulla natura e sul cosmo, cercando di raggiungere conclusioni in accordo con il
raziocinio e con l’evidenza dei fatti, senza preoccuparsi delle affermazioni dogmatiche
che conservano la loro propria validità, sorrette dalla fede.

Per ogni aspetto del pensiero medievale la grande sintesi fu quella di


Tommaso d’Aquino (1225–1274), senza dubbio il più eminente degli
scolastici, il quale gettò le basi del moderno aristotelismo in Europa, e che
assunse il compito di adattare alla coscienza cristiana la metafisica
aristotelica. Alle esigenze della Chiesa, Aristotele rispondeva
particolarmente su tre punti: a) la sua scienza della natura, anziché ispirarsi
a un concetto propriamente meccanico, introduce una considerazione finalistica; b) la
circostanza che un autore pagano fosse riuscito a concepire un Dio supremo motore del
mondo, ma separato da questo, mostrava che la ragione naturale non è necessariamente
condotta alle conclusioni panteistiche dell’eresia mistica, contro cui urgeva allora
combattere; c) il sistema chiuso dell’enciclopedia aristotelica offriva un corpo di dottrine
da assimilarsi come un tutto, in modo da escludere la libera discussione delle questioni
particolari, rimettendo in ogni caso il giudizio all’autorità del maestro: così l’ortodossia
estendeva virtualmente il suo dominio alla universalità dello scibile, e tendeva a evitare
il progresso delle ricerche secondo indirizzi più pericolosi.
Il sistema tomistico ha la sua base nella determinazione rigorosa del rapporto tra
la ragione e la rivelazione. All’uomo, che ha come suo fine ultimo Dio, il quale eccede la
comprensione della ragione, non basta la sola ricerca, scientifica o filosofica, fondata
sulla ragione. La ragione naturale si subordina alla fede, e non può dimostrare ciò che è
di pertinenza della fede. Ma la rivelazione non annulla né rende inutile la ragione, in
quanto anche la dottrina rivelata può essere non soltanto creduta, ma sviluppata
mediante la ragione in maniera scientifica. Le scienze, infatti secondo Tommaso, sono di
due tipi: alcune procedono da principi conosciuti attraverso ragionamento logico come
l’aritmetica e la geometria; altre procedono da principi conosciuti alla luce di una
scienza superiore, come l’ottica che si basa completamente sulla geometria. Non
diversamente può essere considerata e trattata come scienza la sacra dottrina, benché
essa accolga i suoi principi per fede dalla rivelazione. Però la ragione ha la sua verità
propria. I principi che le sono intrinseci e che sono verissimi, in quanto è impossibile
pensare che siano falsi, le sono stati infusi da Dio stesso, che è l’autore della natura
umana. Pertanto, la verità di ragione non può venire in contrasto con la verità rivelata:
la verità non può contraddire alla verità. Quando un contrasto appare, è segno di non
verità rivelate, ma di conclusioni false o almeno non necessarie: la fede è la regola del
corretto procedere della ragione.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;;;!

Il carattere astrattivo del processo della conoscenza, e quindi la teoria


dell’astrazione, è l’aspetto più interessante e originale della teoria della conoscenza
tomistica, che comunque è ricalcata, nel suo complesso, su quella aristotelica. Se l’anima
è in qualche modo tutte le cose, perché tutte le conosce, Tommaso dice: “Se l’anima è
tutte le cose, è necessario che essa o sia le cose stesse, sensibili o intellegibili - nel senso in
cui Empedocle affermò che noi conosciamo la terra con la terra, l’acqua con l’acqua, e
così via – o sia le specie delle cose stesse. Ma certo l’anima non è le cose, giacchè, per
esempio, nell’anima non c’è la pietra ma la specie della pietra”. Ora la specie (eidos) è la
forma della cosa. Dunque “l’intelletto è una potenza ricettiva di tutte le forme
intellegibili e il senso è una potenza ricettiva di tutte le forme sensibili”. Sicchè il
principio della conoscenza è: “l’oggetto conosciuto è nel soggetto conoscente in
conformità della natura del soggetto conoscente”. Il processo attraverso il quale il
soggetto conoscente riceve l’oggetto è l’astrazione. Tra i sensi corporei che conoscono la
forma unita alla materia e gli intelletti angelici che conoscono la forma separata dalla
materia, l’intelletto umano occupa una via di mezzo. L’intelletto può conoscere le forme
delle cose solo in quanto sono unite ai corpi e non (come Platone voleva) in quanto ne
sono separate. Ma nell’atto di conoscerle, le astrae dai corpi stessi; il conoscere è quindi
un astrarre la forma dalla materia individuale, e così trarre fuori l’universale dal
particolare, la specie intelligibile dalle immagini singole. Allo stesso modo in cui
possiamo considerare il colore di un frutto, prescindendo dal frutto, senza perciò
affermare che esso esista separato dal frutto, così possiamo conoscere le forme o specie
universali delle cose prescindendo dai principi individuali a cui vanno unite, ma senza
pretendere che esse esistano separatamente da questi. L’astrazione non falsifica dunque
la realtà. Essa non afferma la separazione reale della forma dalla materia individuale,
consente soltanto la considerazione separata della forma; e tale considerazione è la
conoscenza intellettuale umana. È da notare che questa considerazione separa la forma
dalla materia individuale, non dalla materia in generale; giacchè altrimenti noi non
potremmo intendere che le cose siano costituite anche di materia. Secondo Tommaso
“La materia è duplice, cioè comune e signata o individuale; comune, come la carne e le
ossa, signata come questa carne e queste ossa. L’intelletto astrae la specie della cosa
naturale dalla materia sensibile individuale, ma non dalla materia sensibile comune.
Per esempio, astrae la specie dell’uomo da queste carni o da queste ossa che non
appartengono alla natura della specie, ma sono parti dell’individuo, dalle quali quindi
si può prescindere. Ma la specie dell’uomo non può essere astratta per opera
dell’intelletto dalle carni e dalle ossa in generale”. Risulta da ciò che per Tommaso il
principium individuationis, ciò che determina la natura propria di ciascun individuo e
quindi la sua diversità dagli altri, non è la materia comune (e infatti tutti gli uomini
hanno carni e ossa e quindi non si diversificano in questo), ma la materia signata, ossia
“la materia considerata sotto determinate dimensioni”. Così un uomo è diverso
dall’altro non perché è unito ad un corpo, ma perché è unito a un determinato corpo,
diverso per dimensioni, cioè per la sua posizione nello spazio e nel tempo, da quello
degli altri uomini. Risulta pure da questa dottrina che l’universale non sussiste fuori
delle singole cose, ma è reale solo in esse. L’universale è l’oggetto proprio e diretto
dell’intelletto. Per il suo stesso funzionamento, l’intelletto umano non può conoscere
direttamente le cose singole. Difatti esso procede astraendo la specie intelligibile dalla
materia individuale; e la specie, che è il prodotto di tale astrazione, è lo stesso
universale. La cosa singola non è dunque conosciuta dall’intelletto se non
indirettamente, per una specie di riflessione. Siccome l’intelletto astrae l’universale dalle
;;=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

immagini particolari e non può intendere nulla se non volgendosi alle immagini stesse,
esso conosce indirettamente anche le cose particolari, alle quali le immagini
appartengono. Da queste considerazioni deriva che la conoscenza umana si svolge per
atti successivi, che si seguono nel tempo, e questo procedere è il ragionamento, e la
scienza che si viene così costruendo per successivi atti di affermazione o di negazione è
la scienza discorsiva. La conoscenza umana è dunque conoscenza razionale, e nel suo
carattere raziocinativo sta anche la possibilità dell’errore.
In conclusione, ogni conoscenza trova, secondo Tommaso, un adeguato
fondamento nell’essere, e ciò accade anche per la stessa matematica, che pur è il frutto
di un’astrazione particolarmente spinta. Anche ai concetti di tale scienza corrisponde
infatti qualcosa di reale; per esempio, ai concetti geometrici di cerchio e triangolo
corrisponde un’effettiva forma circolare o triangolare dei corpi.
Comunque, Tommaso, nelle sue argomentazioni, sia filosofiche che teologiche,
utilizza una rigorosità scientifica notevole che ci permette di cogliere una straordinaria
apertura mentale, tipica dello scienziato moderno, con tutti i limiti storici e temporali.
Con riferimento alla scienza fisica, però, Tommaso non portò alcun nuovo contributo
anche se si sforzò di renderla un sistema coerente con la filosofia. A questo fine egli
preparò commenti su quattro trattati scientifici di Aristotele, compresa la Fisica. Per
quanto riguardava la scienza, la sintesi tomista fu naturalmente una sintesi puramente
logica che non migliorò sotto nessun aspetto la descrizione dell’universo. Così la grande
autorità dell’Aquinate confermò la tendenza medievale ad assimilare la filosofia
naturale alla metafisica e alla teologia, e rendere lo studio della natura un puro esercizio
intellettuale, condotto con appropriati strumenti logici. In realtà, il suo eccezionale
risultato fu di rimuovere le ultime discrepanze tra la concezione cristiana del mondo e
quella della scienza aristotelica.
L’effetto dell’introduzione dell’aristotelismo nella scolastica dimostrò la chiara
delimitazione dei campi rispettivi della ragione e della fede. La ragione è il dominio
delle verità dimostrate, perciò delle dimostrazioni necessarie e dei principi evidenti che
sono a fondamento di esse; la fede è il dominio delle verità rivelate, prive di necessità
dimostrativa e di evidenza immediata. Questa distinzione verrà mantenuta saldamente
in tutta la storia ulteriore dell’aristotelismo. Ma l’opera di Tommaso non si era fermata
al riconoscimento di questa distinzione, aveva avuto anzi la pretesa di procedere molto
al di là di essa, stabilendo nel contempo l’impossibilità di un qualsiasi contrasto tra i
due campi d’indagine: “Poiché solo il falso è contrario al vero, come appare evidente, a
vista, dalle loro stesse definizione, è impossibile che la verità della fede sia contraria a
quei principi che la ragione naturalmente conosce”.

Dopo Tommaso, l’altra svolta della scolastica è dovuta a Giovanni Duns Scoto
(1265-1308). Si tratta di una svolta decisiva, che doveva rapidamente condurre la
scolastica alla fine del suo ciclo e all’esaurirsi della sua funzione storica. Anche questa
svolta è determinata dall’aristotelismo, ma in questo caso l’aristotelismo è lo spirito di
un sistema, non un sistema. Per Tommaso l’aristotelismo è una dottrina che bisogna
correggere e riformare, per Duns Scoto è la filosofia stessa, che bisogna riconoscere e far
valere in tutto il suo rigore per circoscrivere in giusti limiti il dominio della scienza
umana. Per Tommaso si tratta di far servire l’aristotelismo alla spiegazione della fede
cattolica, per Duns Scoto si tratta di farlo valere come principio che restringe la fede nel
suo proprio dominio, che è quello pratico. L’ideale di una scienza assolutamente
necessaria, cioè interamente fondata sulla dimostrazione, e il procedimento critico,
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;;4!

analitico e dubitativo costituiscono l’espressione della fedeltà di Duns allo spirito


dell’aristotelismo.
Duns cerca di fondare il valore della conoscenza scientifica sul riconoscimento
dei suoi limiti, ed in ciò ci ricorda Kant, e il valore della fede sulla sua diversità di
natura dalla scienza. Duns ha desunto da Aristotele e dai suoi interpreti arabi l’ideale di
una scienza necessaria, costituita interamente da principi evidenti e da dimostrazioni
razionali. Ma per primo egli si avvale di questo ideale per restringere e limitare il
dominio della conoscenza umana. Il suo alto concetto della scienza si unisce in lui con il
riconoscimento dei limiti rigorosi della scienza umana. Ciò che non è dimostrabile non è
necessario ma contingente, perciò arbitrario o pratico, cioè fede. Perciò Duns si è
preoccupato di far valere il suo alto ideale della scienza come criterio per la discussione
dei problemi filosofici e teologici del tempo, per determinare la parte che in essi
esattamente spetta alla scienza e la parte che spetta alla fede, per circoscrivere la fede in
un dominio diverso, che è quello pratico (“La fede non è un abito speculativo, né il
credere è un atto speculativo, né la visione che segue al credere è una visione
speculativa, ma pratica”) e per assegnare tale dominio alla teologia, posta al rango di
una scienza sui generis diversa dalle altre e senza nessun primato sulle altre. La sua
opera De primo principio si apre con una preghiera a Dio che è nello stesso tempo la
professione dell’ideale scientifico di Duns Scoto: “Tu sei il vero essere, Tu sei tutto
l’essere; questo io credo, questo, se mi fosse possibile, vorrei conoscere. Aiutami, o
Signore, nel ricercare quella conoscenza del vero essere, cioè di Te, che la nostra ragione
naturale può attingere”. Duns non chiede a Dio un’illuminazione soprannaturale, una
conoscenza compiuta in verità e in estensione, ma solo quella conoscenza che è propria
della ragione umana naturale. Pur nei suoi limiti, questa è la sola conoscenza possibile,
la sola scienza per l’uomo. Tutto ciò che trascende i limiti della ragione umana non è
più scienza, ma azione o conoscenza pratica, concerne il fine cui l’uomo deve tendere o i
mezzi per raggiungerlo o le norme che, in vista di esso, vanno seguite, non la scienza.
La dottrina della conoscenza di Scoto è fondamentalmente di ispirazione
aristotelica. In essa domina il concetto aristotelico dell’astrazione, anzi l’astrazione
diventa una forma fondamentale della conoscenza, la stessa conoscenza scientifica. Tale
è il significato della distinzione tra conoscenza intuitiva e conoscenza astrattiva: “Vi può
essere una conoscenza dell’oggetto che astrae dalla sua esistenza attuale e vi può essere
una conoscenza dell’oggetto in quanto esiste e in quanto è presente nella sua esistenza
attuale”. La scienza astrae dall’esistenza attuale del suo oggetto, altrimenti ci sarebbe e
non ci sarebbe, a seconda dell’esistenza o non esistenza dell’oggetto e così non sarebbe
perpetua ma seguirebbe il nascere e il perire di esso. D’altronde, se il senso conosce
l’oggetto nella sua esistenza attuale, deve anche conoscerlo allo stesso modo l’intelletto,
che è potenza conoscitiva più alta. Duns chiama astrattiva la prima conoscenza, perché
astrae dall’esistenza o non esistenza attuale dell’oggetto; intuitiva la seconda in quanto
mette direttamente in presenza dell’oggetto esistente e lo fa vedere come è in se stesso.
Duns Scoto si è servito così del concetto aristotelico dell’astrazione per determinare i
due gradi fondamentali della conoscenza indipendentemente dalla distinzione
tradizionale di sensibilità e ragione. La conoscenza astrattiva è la conoscenza
dell’universale ed è propria della scienza. La conoscenza intuitiva, che non è propria
soltanto della sensibilità ma appartiene anche all’intelletto, è la conoscenza
dell’esistenza come tale, della realtà, in quanto essere o presenza attuale. Si tratta di due
forme o gradi della conoscenza che non corrispondono a due organi o facoltà diverse
(come la sensibilità e l’intelletto) perché possono essere e sono anche di un organo solo e
;;5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

precisamente dell’intelletto. È evidente infatti che ai sensi è data la conoscenza intuitiva,


ma non quella astrattiva; mentre all’intelletto appartengono entrambe.

4.5 Declino dell’influenza di Aristotele

Nel secolo XIV assistiamo ad un rinnovamento del sapere scientifico e ad una


avversione rispetto al corpus dottrinario dell’aristotelismo, che in mano ai fondatori
della scienza moderna, costituirà un raffinato strumento di analisi del linguaggio.
Alcuni cristiani averroisti cominciarono a manifestare insoddisfazione verso le
interpretazioni canoniche del pensiero di Aristotele, anche alla luce del fatto che il
mondo greco non si era sottomesso ad Aristotele senza resistenze. Pertanto, vi furono
personalità che si opposero all’oscurantismo e usarono l’argomento che procurò per
secoli credito alla scienza: Dio aveva creato l’universo ed era giusto conoscere la sua
opera al fine di ammirare la sua maestà.

Comunque, una prima reazione all’avanzare della corrente aristotelica la


troviamo nella scolastica latina ad opera di Grossatesta (che esamineremo più avanti) e
nel francescano Bonaventura ( 1221-1274), secondo il quale Aristotele è un filosofo, non
il filosofo; è un autore delle cui affermazioni ci si può servire all’occorrenza, non
l’incarnazione stessa della ragione umana. Bonaventura dichiara preliminarmente la
superiorità della fede sulla scienza, e ritiene che sia maggiore la certezza della verità
della fede rispetto a quella della scienza. Rispetto alle altre verità, la fede possiede una
certezza di adesione maggiore della scienza e la scienza una certezza di speculazione
maggiore della fede. La scienza elimina il dubbio, come appare chiaro soprattutto nella
conoscenza degli assiomi e dei primi principi, ma la fede fa aderire il credente alla
verità senza essere distolto da argomenti dimostrativi o speculativi. In nessun caso,
dunque, la scienza può fare a meno della fede. La più notevole concessione di
Bonaventura all’aristotelismo è nella teoria della conoscenza. Alla questione se ogni
conoscenza deriva dai sensi, egli risponde di no: bisogna ammettere che l’anima
conosce Dio, se stessa e tutto ciò che ha in sé senza l’aiuto dei sensi esterni. Ma dall’altro
lato bisogna ammettere che l’anima non può fornire da sola l’intera conoscenza. Il
materiale di questa conoscenza deve necessariamente pervenirle dall’esterno, attraverso
i sensi.
Come Grossatesta, Bonaventura elabora una dottrina fisica che è una teoria della
luce. La luce non è un corpo, ma è la forma di tutti i corpi. Se fosse un corpo, poiché è
proprio di essa moltiplicarsi da sé, bisognerebbe ammettere che un copro possa
moltiplicarsi senza aggiunta di materia; questo è impossibile. La luce è la forma
sostanziale di ogni corpo naturale. Tutti i corpi ne partecipano più o meno; e a seconda
che ne partecipano hanno maggiore o minore dignità e valore nella gerarchia degli
esseri. Essa è il principio della formazione generale dei corpi stessi; la loro formazione
speciale è dovuta al sopraggiungere di altre forme, elementari o miste. Questo implica
che nella costituzione di un copro possono entrare più forme, che coesistano nel corpo
stesso (principio della pluralità delle forme sostanziali). La forma comune della luce,
infatti, coesiste in ciascun corpo con la forma propria del corpo.
Guglielmo di Ockham (1280–1349) è l’ultima grande figura della scolastica e
come prima personalità dell’età moderna inaugurò la cosiddetta via dei moderni, con una
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;;6!

clamorosa rottura sul tema fondamentale del rapporto fra ragione e fede, fino a
proclamarne l’incompatibilità. Questa scelta lo portò a una critica del sapere
tradizionale, in particolare della grande sintesi di Tommaso, quindi alla formulazione di
tematiche nuove che resteranno al centro del dibattito durante l’età moderna e oltre.
Il problema fondamentale, dal quale la scolastica era sorta e della cui incessante
elaborazione aveva vissuto, l’accordo tra la ricerca filosofica e la verità rivelata, viene da
Ockham per la prima volta dichiarato impossibile e svuotato di ogni significato. Con ciò
la scolastica medievale chiude il suo ciclo storico; la ricerca filosofica diventa
disponibile per la considerazione di altri problemi, primo fra tutti quello della natura,
cioè del mondo al quale l’uomo appartiene e che può conoscere con le sole forze della
ragione. Il principio di cui Ockham si è servito per portare a compimento la
dissoluzione della scolastica, iniziata comunque già con Duns Scoto, è il ricorso
all’esperienza posta come fondamento di ogni conoscenza e a rigettare al di fuori di
ogni conoscenza tutto ciò che trascende i limiti dell’esperienza stessa. Il valore
dell’esperienza era stato riconosciuto dalla tradizione francescana e aveva trovato, come
vedremo in seguito, affermazioni solenni in Grossatesta e in Ruggiero Bacone; ma
Ockham si rifà, oltre che a questa tradizione, alla scienza del suo tempo e soprattutto
all’ottica di Alhazen, dalle cui opere desume l’impostazione fondamentale del suo
empirismo. Come Duns Scoto si era servito dell’ideale aristotelico della scienza come di
una forza limitatrice e negatrice del problema scolastico, così l’empirismo, pur noto ed
accettato da molti scolastici, solamente con Ockham diviene la forza che determina il
crollo della scolastica. All’empirismo, che è il fondamento della sua filosofia, Ockham
giunge muovendo da una esigenza di libertà che è il centro della sua personalità: “Le
asserzioni precipuamente filosofiche, che non concernono la teologia, non devono essere
da nessuno condannate o interdette solennemente, giacchè in esse chiunque deve essere
libero di dire liberamente ciò che gli pare”.
Lo stesso empirismo conduceva Ockham ad una considerazione approfondita
della natura, giacchè la natura non è che l’oggetto dell’esperienza sensibile. Ockham
considera la natura come il dominio proprio della conoscenza umana; l’esperienza cessa
di avere il carattere iniziatico e magico che ancora conservava nella maggior parte delle
menti dei pensatori medievali e diventa un campo di indagine aperto a tutti gli uomini,
in quanto tali. Questo atteggiamento gli consente la massima libertà di critica di fronte
alla fisica aristotelica. Attraverso tale critica si aprono numerosi spiragli verso la nuova
concezione del mondo, che la filosofia del Rinascimento doveva difendere e far sua. Le
possibilità che Ockham scopre diventeranno nel Rinascimento affermazioni risolute e
costituiranno il fondamento della scienza moderna. Egli fu anche un forte sostenitore
dell’unità della natura, un principio al quale faceva spesso ricorso Newton, da cui
deriva che effetti uguali richiedono cause uguali. Partendo da tale principio, Ockham
mette in discussione la differenza di sostanza tra i corpi celesti e i corpi sublunari, e
quindi l’esistenza di una fisica celeste e una terrestre, stabilita dalla fisica aristotelica.
Contro Aristotele, Ockham ammette e difende la possibilità di più mondi.
L’argomentazione di Aristotele che, se ci fosse un mondo diverso dal nostro, la terra di
esso si muoverebbe naturalmente verso il centro e si congiungerebbe con la nostra, e
così tutti gli altri elementi si ricongiungerebbero alla propria sfera formando un unico
mondo, è combattuta da Ockham con una negazione delle determinazioni assolute
dello spazio ammesse da Aristotele. Un mondo diverso dal nostro avrebbe un altro
centro, un’altra circonferenza, un alto e un basso diversi, i movimenti degli elementi
sarebbero dunque diretti verso sfere diverse e non si verificherebbe la congiunzione
;;7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

prevista da Aristotele. Questa relatività delle determinazioni spaziali dell’universo sarà


uno dei capisaldi della fisica del Rinascimento. Infine Ockham ammette e difende la
possibilità che il mondo sia stato prodotto ab aeterno. Egli non lo afferma esplicitamente,
ma si limita a sgombrare la via dalle obiezioni possibili. All’obiezione che se il mondo
fosse eterno si sarebbe già verificato un numero infinito di rivoluzioni celesti, il che è
impossibile perché un numero reale non può essere infinito, Ockham risponde che
come in un continuo ogni parte, aggiunta all’altra, forma un tutto finito, pur essendo le
parti stesse infinite, così ciascuna rivoluzione celeste, aggiunta alle altre, forma sempre
un numero finito, sebbene nel loro insieme le rivoluzioni celesti siano infinite. Ockham
è consapevole che l’eternità del mondo implica la sua necessità, giacchè ciò che è eterno
non può essere che prodotto necessariamente. Egli sa pure che l’eternità del mondo
esclude la creazione, perché questa implica la non esistenza della cosa anteriormente
all’atto della sua produzione. Ma ritiene, ciò nonostante, che l’eternità stessa sia
altamente probabile, data anche la difficoltà di concepire l’inizio del mondo nel tempo.
La pluralità dei mondi, la loro infinità ed eternità sono dunque possibilità, che per
opera di Ockham si aprono alla ricerca filosofica. Nel Rinascimento queste possibilità
diverranno certezze, e la visione del mondo, che Ockham aveva intravista, verrà allora
riconosciuta come la realtà stessa del mondo.
L’altro tratto caratteristico dell’empirismo di Ockham è la sua dottrina
dell’induzione. Mentre per Aristotele l’induzione è sempre induzione completa, che
fonda sull’accertamento di tutti i casi possibili l’affermazione generale, per Ockham
l’induzione si può effettuare anche sulla base di un unico esperimento, ammettendo il
principio che cause dello stesso genere hanno effetti dello stesso genere. Ockham ha
così indicato nel principio dell’uniformità causale della natura il fondamento di
qull’induzione scientifica che sarà teorizzata per la prima volta nell’età moderna da
Bacone.
L’impostazione secondo cui è illusorio pensare che si possa costruire la fisica o la
filosofia della natura con il metodo deduttivo e che solo l’esperienza, cioè solo
l’osservazione del dato concreto e la sua descrizione, fornisce il sapere scientifico, e la
grande attenzione al ragionamento induttivo, portò Ockham al principio di economia o
regola del rasoio. Ossia, dovendo basare le spiegazioni scientifiche dei fenomeni fisici
sull’esperienza, va sistematicamente evitato il ricorso a entità inutili, come concetti
astratti, essenze, nature, forme, giacchè: "entia non sunt multiplicanda sine necessitate"
(Non bisogna aumentare senza necessità gli elementi della questione), o "pluralitas non
est ponenda praeter necessitatem" (non si deve imporre la pluralità oltre il necessario).
In altri termini: le spiegazioni dovrebbero sempre essere le più semplici possibili. Si
tratta di un principio metodologico che sta alla base del pensiero moderno: all'interno di
un ragionamento o di una dimostrazione vanno ricercate la semplicità e la sinteticità;
tra due teorie entrambe capaci di spiegare un gruppo di dati occorre scegliere quella più
semplice e dotata di un minor numero di ipotesi, “tagliando via” quella più lunga e
involuta. Tra le varie spiegazioni possibili di un evento, è quella più semplice che ha
maggiori possibilità di essere vera.
Infine, Ockham desume da Duns Scoto la dottrina della conoscenza, in
particolare la distinzione tra conoscenza intuitiva e conoscenza astrattiva, interpretando
la conoscenza intuitiva nel senso empiristico che ad essa aveva dato nel De Aspectibus lo
scienziato arabo Alhazen nella sua analisi della visione. La conoscenza intuitiva è quella
con la quale si conosce con tutta evidenza se la cosa c’è o non c’è e che consente
all’intelletto di giudicare immediatamente della realtà o irrealtà dell’oggetto. La
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;;8!

conoscenza intuitiva, inoltre, è quella che fa conoscere l’inerenza di una cosa ad


un’altra, la distanza spaziale e qualsiasi altro rapporto tra le cose particolari.
Dopo di Ockham, la Scolastica non ha più grandi personalità né grandi sistemi. Il
suo ciclo storico appare concluso ed essa vive dell’eredità del passato. La Scolastica
conservava la sua struttura esteriore, il suo procedimento caratteristico, il suo metodo
di analisi e di discussione. Ma questa struttura formale si rivolgeva contro il suo stesso
contenuto, mostrando l’inconsistenza logica o l’infondatezza empirica di quelle dottrine
che avevano costituito la sostanza della sua tradizione secolare. Tuttavia a misura che i
problemi tradizionali si svuotavano del loro contenuto, si andava rafforzando
l’interesse per quei problemi della natura che già avevano avuto parte così notevole
nella speculazione di Ockham. Nel logorio cui l’occamismo sottoponeva l’intero
contenuto della tradizione scolastica, nuove forze andavano maturando, forze che
trovarono la loro esplicazione nella scienza rinascimentale.

Prima di Occam, come dopo di lui, vi furono altri filosofi che avanzarono critiche
più radicali alla scienza peripatetica, negandone la teoria del movimento. Il principio
indispensabile di Aristotele, che nessun essere non vivente può muoversi da solo, non
sembrava vero per oggetti già in movimento. Aristotele aveva spiegato queste
discrepanze considerando il mezzo (aria o acqua) come motore, ma queste spiegazioni
erano state considerate sempre insoddisfacenti e rappresentavano il punto debole della
fisica aristotelica.
Le intuizioni fisiche di Ockham, che sono il punto di partenza della meccanica e
dell’astronomia moderne, vengono riprese da un certo numero di seguaci. Le due
principali figure dell’occamismo, di questo movimento di critica della fisica peripatetica
furono entrambi francesi: Giovanni Buridano (1290/?1300–1360 ca.) e Nicola Oresme
(1323 – 1382) ed entrambi possono essere considerati precursori della fisica moderna.
Nelle loro mani, la teoria dell’impeto, cioè del movimento continuato, demolì le tesi di
Aristotele, ed essi la estesero anche al movimento delle sfere celesti. Essi argomentarono
che il Primo Motore dell’universo (la nona e ultima sfera) che la teoria di Aristotele
richiedeva per muovere le otto sfere che portavano i corpi celesti osservabili, era
sovrabbondante, poiché se queste sfere erano state poste in rotazione al momento della
creazione e non incontravano nessuna resistenza, il loro impeto le avrebbe spinte a
ruotare per sempre.
In questo, come in altri contesti, Buridano sostenne sempre che l’impeto fosse
distrutto solo dalla resistenza e dall’attrito con i corpi in movimento normalmente
incontrati. Altri, invece, supposero che l’impeto si dissipasse spontaneamente come il
calore, al quale era paragonato. Era generalmente riconosciuto che l’impeto di un dato
corpo fosse proporzionale sia alla sua velocità iniziale sia al suo peso. Vi fu un’altra
applicazione della teoria dell’impeto che ebbe grande importanza. La fisica aristotelica
non aveva mai indicato una chiara ragione del perché un corpo che cade aumenti la sua
velocità, sebbene il fenomeno fosse ben noto. Qui vi era un altro caso di movimento
senza un motore apparente, un caso posto da Aristotele nella classe dei fenomeni
naturali provocati dalla disposizione di alcuni oggetti a ritornare liberamente ai loro
luoghi. Ma non era chiaro perché la natura costante di un corpo dovesse esser la causa
di un effetto che varia l’accelerazione di caduta, giacché questa sembra contravvenire al
principio che ogni effetto è proporzionale alla sua causa, ogni velocità, come pensava
Aristotele, alla forza motrice applicata. La teoria dell’impeto spiegava l’accelerazione in
;;9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

una maniera nuova, meccanica: nel primo breve istante di tempo la sua natura spingeva
un corpo pesante libero a muoversi un po’; alla fine di questo istante, esso avrà
acquistato un impeto che lo spingerà a muoversi durante il secondo istante alla stessa
velocità, ma poiché la sua natura lo spinge a cadere, esso cadrà ora più velocemente che
nel primo istante, e così via.
Questo è il punto in cui la trattazione medievale del movimento si avvicinò di
più all’affermazione che una forza costante produce un’accelerazione costante. Poteva
un tal moto accelerato esser descritto matematicamente, proprio come è possibile
descrivere in questa maniera un moto uniforme? La trattazione dei corpi in movimento
non uniforme era una nuova impresa che richiedeva la trattazione matematica di una
quantità che variava in maniera continua. Buridano espone le obiezioni alla fisica di
Aristotele, e la dottrina dell’impetus, con una ricchezza, anche di argomenti
sperimentali, ignota ai suoi predecessori. Eccone qualche esempio: “La prima
esperienza è quella della trottola o del tornio del fabbro; questo corpo gira a lungo,
eppure non esce affatto dal luogo che occupa, sicché l’aria non si sposta per riempire
qualche spazio che esso lascia vuoto”. “Seconda esperienza: si lanci un giavellotto che
abbia all'estremità posteriore una punta acuta come quella dell'estremità anteriore.
Esso si muove come un giavellotto comune, avente una sola punta; eppure l'aria che lo
segue non potrebbe certo spingerlo con forza, dato che la punta posteriore tende
anch'essa a tagliare l'aria”. “Terza esperienza: una barca spinta rapidamente contro la
corrente di un fiume, non si arresta mai di colpo, e continua a muoversi per un bel
tratto anche quando si cessa di spingerla. Eppure il barcaiolo che vi sta sopra, in piedi,
non si sente affatto spinto posteriormente dall'aria, anzi sente che l'aria fa resistenza al
moto del suo corpo... Con la vostra mano vuota voi potete muovere l'aria molto più
velocemente che se voi teneste in mano una pietra che vi ripromettete di gettare:
supponiamo dunque che quest'aria, grazie alla velocità del suo moto, abbia impeto
bastante per muovere rapidamente un sasso: allora spingendo quest'aria verso di voi
con la stessa velocità io dovrei darvi una spinta assai impetuosa e sensibile; ma ciò non
si verifica affatto... “.
A Oresme si deve dare merito per avere adoperato per la prima volta una
rappresentazione grafica corrispondente al nostro uso delle coordinate, costruendo il
diagramma della velocità in funzione del tempo. Questo diagramma gli consente di
stabilire che nel moto uniformemente vario con velocità nulla lo spazio percorso è
uguale a quello che nello stesso tempo percorrerebbe un corpo dotato di moto uniforme
con la velocità acquisita dopo il tempo t/2. Appartengono ad Oresme anche alcune
interessanti considerazioni geometriche su una serie di moti uniformi..
Nicola d’Oresme esaminò anche il tema del movimento della Terra, trattandolo
alla stregua di una questione ipotetica e fece notare che se ruotasse su se stessa tutti i
fenomeni astronomici avrebbero potuto venir spiegati altrettanto bene che nel modo
tradizionale, cioè con la Terra ferma al centro dell’universo; tuttavia respinse questa tesi
per la ragione decisiva che la Bibbia parla della Terra come immobile. Data la
concezione medievale che la ragione poteva indurre in errore, quale era la miglior
difesa contro il cadere in tali errori in quelle questioni sulle quali Dio non aveva detto
nulla? Una usuale risposta moderna a questa domanda è: fare esperimenti. Anche se nel
medioevo la sperimentazione non fu trascurata, ma di fatto il filosofo naturale nel
medioevo fu per la maggior parte meno interessato ai particolari dell’universo che a
concezioni generali di esso. Non è esagerato dire che il medioevo studiò la scienza come
se fosse teologia e la Fisica di Aristotele come se fosse la Bibbia. Il fatto di base è che
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;;:!

l’Europa del XII secolo era assolutamente carente di uomini in grado di criticare la
scienza di Aristotele come vorrebbe uno scienziato moderno. Non mancò invece del
tutto di validi filosofi che, di fronte alla scienza aristotelica, si chiedevano non “E’
vera?”, ma piuttosto “Queste teorie sono coerenti?”. Il tentativo di rispondere a queste
domande aveva prodotto, verso la fine del medioevo, una vasta mole di commenti, e
anche un po’ di scienza.

Nicola d’Autrecourt (morto dopo il 1350), discepolo di Buridano, ha esercitato su


alcune categorie della fisica tradizionale, quali quelle di sostanza e causalità, una
radicale critica chiarificatrice. Il punto di partenza di questa critica è che esistono
solamente due tipi di proposizioni enuncianti conoscenze valide: le proposizioni
analitiche, fondate sull’evidenza del primo principio (principio di non contraddizione),
e le proposizioni empiriche, che enunciano fatti, fondate sull’evidenza dei cinque sensi.
Ora, il nesso causa-effetto non è mai dato come un nesso analitico: perché in tal caso la
proposizione enunciante l’esistenza dell’effetto sarebbe implicata in quella enunciante
l’esistenza della causa, e allora nel passaggio dalla causa all’effetto non si verificherebbe
nulla di nuovo, cioè non ci sarebbe un effetto. D’altra parte, il nesso causa-effetto, come
tale, non è neppure mai dato come fatto di esperienza, ciò che è dato sono successioni
ordinate di fenomeni che si seguono secondo un certo ordine empirico, ed è appunto in
questo senso, e solo in questo senso, che si può parlare propriamente di cause ed effetti.
Ma la stessa critica si applica ugualmente anche al concetto di sostanza; questa
infatti è una specie particolare di causa, quella che si suppone star dietro o sotto le
qualità sensibili delle cose, producendole o causandole continuamente (così il colore è
un effetto che si suppone causato da certe peculiarità della sostanza colorata). Queste
analisi delle due categorie fondamentali della fisica aristotelica aprono la strada a quella
che ne sarà l’interpretazione per opera dei creatori della scienza moderna, nella quale il
rapporto causa-effetto si risolverà in una serie di fenomeni, in un processo di eventi
successivi nel tempo, il che porterà, per esempio, all’eliminazione degli astri come
possibili cause di eventi sulla terra (mancando la possibilità di assegnare anelli
intermedi nella catena del presunto processo casuale che dovrebbe andare dall’astro alla
cosa terrena), e all’eliminazione delle cause finali (il cui rapporto con l’effetto non è
rappresentabile come un processo di eventi successivi nel tempo).
Intanto, accanto alla teoria dell’impetus, sebbene in via puramente dialettico-
probabilistica e come mera alternativa alla concezione della fisica aristotelica, si andava
elaborando un’altra dottrina della filosofia della natura: la teoria atomica, destinata ad
avere grandi sviluppi nei secoli successivi. La critica alle due categorie fondamentali
della fisica aristotelica, sostanza e casualità, che d’Autrecourt aveva elaborato,
comportava che la realtà, fisica e psichica, veniva dissolta in un fascio di apparizioni
fenomeniche, le uniche, in ultima analisi, di cui possiamo ragionevolmente aver
qualsiasi certezza. Ora, questo fascio di fenomeni che è la realtà, e i mutamenti che vi
avvengono, trova secondo Nicola, una miglior spiegazione ove si concepiscano tutti i
fenomeni, quali la luce, come movimenti di particelle o atomi. Nicola, però, non arriva a
concepire meccanicamente le leggi di tali movimenti e sembra attribuirle a disposizioni
innate degli atomi stessi.

Un’altra idea che affiora attraverso i commenti e le dispute sulla fisica di


Aristotele è l’idea di gravità, la quale già era al centro di molti problemi tecnici
dell’epoca. Tra i vari problemi relativi alla gravità aventi un particolare interesse per i
;=<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

successivi destini della dinamica è quello della velocità di caduta di un grave, problema
che sarà risolto pienamente solo da Galileo. Alberto di Sassonia (1316-1390) presenta
due ipotesi tra le quali rimane incerto: che la velocità di caduta sia proporzionale al
tempo della caduta oppure che essa sia proporzionale agli spazi percorsi. Nicola
d’Oresme propendeva per la prima, quella che attraverso l’opera di Galileo si imporrà
nella fisica moderna.
Contemporanea e rivale della scuola di Parigi, i cui maggiori rappresentati
furono Buridano e Oresme, fu la scuola di Oxford. Appena fondata, siamo nel 1209, fu
chiamato a insegnarvi Roberto Grossatesta (ca. 1168–1253), considerato da molti il vero
introduttore in Occidente di Aristotele, che unì ai suoi interessi logici un più sviluppato
empirismo. La sua originalità consiste nell’aver affermato il principio secondo il quale
lo studio della natura deve essere fondato sulla matematica, principio che sarà
affrontato da Galileo con maggior rigore e profondità e che costituisce il fondamento
della scienza moderna: “L’utilità dello studio delle linee, degli angoli, delle figure è
grandissima, giacchè senza di esse è impossibile conoscere nulla della filosofia naturale.
Esse valgono assolutamente in tutto l’universo e nelle parti di esso”. In queste parole
sembrano riecheggiare quelle di Galileo, espresse qualche secolo più tardi nel suo
lavoro Il Saggiatore:“La filosofia è scritta in questo grandissimo libro, che continuamente
ci sta aperto innanzi agli occhi (io dico l'Universo), ma non si può intendere se prima
non s'impara intender la lingua, e conoscer i caratteri ne’ quali è scritto. Egli è scritto
in lingua matematica, e i caratteri son triangoli, cerchi, cd altre figure geometriche,
senza i quali mezzi impossibile a intenderne umanamente parola; senza questi è un
aggirarsi vanamente per un oscuro labirinto”. Inoltre Grossatesta esprime esattamente
la legge di economia che regola i fenomeni naturali, quale sarà poi affermata da Galilei:
ogni operazione della natura si verifica nel modo più determinato, più ordinato, più
breve che ad essa è possibile.
Dobbiamo a lui anche il primo sforzo per orientare la ricerca filosofica verso la
scienza, per trovare un principio unico di spiegazione dell’universo fisico, che secondo
Grossatesta va ricercato nella lux, che erroneamente pensa si propaghi con velocità
infinita in tutte le direzioni, se non incontra ostacoli. Ne deduce matematicamente la
forma sferica dell’universo e giunge ad identificare la luce con lo spazio stesso.
Quantunque privi, naturalmente, dei concreti significati scientifici che oggi li
accompagnano, le sue idee sono curiosamente vicine a quelle della relatività e della
teoria dei campi. Come conseguenza della identificazione fra spazio e quella forma
prima della materia prima che è la lux, Grossatesta giunge alla conclusione, molto
suggestiva per lo sviluppo della scienza fino a Galileo, che lo studio geometrico dello
spazio possa offrire lo strumento atto a penetrare i più intimi segreti della natura.
La particolare rilevanza di Grossatesta è legata anche al suo profondo interesse
per il controllo delle teorie scientifiche. Soltanto quando tali proposizioni si fossero
dimostrate vere sarebbe stato possibile conoscere le vere cause delle cose. Così egli
riconobbe il carattere formale delle dimostrazioni in fisica matematica, cioè derivazioni
da appropriate definizioni e assiomi. Tuttavia, nella scienza, tutte le proposizioni non
hanno questa verità formale, di conseguenza Grossatesta sostenne che tali proposizioni
dovevano esser verificate in rapporto all’esperienza. Grossatesta precisò ulteriormente
che le proposizioni dovrebbero anche essere sottoposte alla prova di falsificazione da
parte dell’esperienza, metodo d’indagine che Popper nel XXI secolo svilupperà in
profondità e che diventerà strumento indispensabile per la ricerca scientifica. Sebbene
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;=;!

fornisse pochi esempi pratici dell’uso delle sue idee sul metodo scientifico, egli scrisse
un libro sull’arcobaleno in cui avanzava l’ipotesi che l’arco colorato potesse esser
provocato dalla rifrazione della luce solare in una nuvola.
Roberto Grossatesta si può considerare come l’iniziatore del movimento che,
contro l’influenza dell’aristotelismo, si fa promotore di un risoluto ritorno al platonismo
agostiniano, e che avrà come suo carattere costante l’interesse per il mondo naturale,
fatto oggetto di una ricerca che non si appaga dei testi aristotelici, ma intende
procedere, in piena autonomia, con il ragionamento e con l’esperienza.

Ruggero Bacone (ca. 1214-1292), il più illustre discepolo di Grossatesta, è stato


considerato come il precursore del metodo sperimentale in virtù del titolo De scientia
sperimentali dato alla sesta parte dell’opera Opus majus. Ma in Bacone il vocabolo ha
accezione molto più ampia dell’attuale. Egli, infatti, dice: ”L’esperienza è duplice: una
attraverso i sensi esterni … ma questa esperienza non basta all’uomo, perché non
certifica pienamente sulle cose corporali, e nulla tocca delle spirituali. Quindi occorre
che l’intelletto dell’uomo si giovi di altro e perciò i santi patriarchi e profeti, che per
primi dettero al mondo le scienze, ricevettero illuminazioni interiori e non si
attenevano soltanto al senso”. Da questo passo si deduce che Bacone fu soprattutto un
teologo, di molto ingegno, spesso d’indipendente giudizio, ma rimasto legato ai suoi
tempi, con le credulità e le limitazioni proprie dell’epoca. La quinta parte dell’Opus
majus è quella che più direttamente interessa la fisica in quanto è completamente
dedicata all’ottica. La trattazione è tutta basata sull’opera di Alhazen, con piccole
aggiunte e qualche applicazione. Espone la proprietà dei cristalli convessi, e ne indica
l’uso come microscopi. Accenna anche alla possibilità di un telescopio, quattro secoli
prima di Galileo. Notevole è il fatto che Bacone, oltre a sostenere la velocità finita della
luce, sostenga anche che essa non è emanazione di particelle, ma propagazione di moto.
Naturalmente si esagera quando si dice che questa vaga intuizione è un’anticipazione
della teoria ondulatoria della luce.
Con tali ricerche bene si ricollega il criterio generale del filosofo che la scienza
debba procedere dal ragionamento collegato con l’osservazione e l’esperienza. Dopo la
pubblicazione dell’Opus Maius, Bacone ebbe a soffrire 12 anni di carcere. Il cattolico
francescano illuminista credeva in buona fede di allargare il pensiero religioso,
penetrando in campi di ricerca che erano stati fin allora vietati e maledetti. In effetti, la
libertà coraggiosa con cui Bacone insegna ad affrontare la ricerca del vero, contiene un
implicito rovesciamento del criterio che S. Agostino stesso aveva predicato,
condannando la libertà dell’errore come “triste morte dell’anima”.
Alla scuola di Oxford appartenne Guglielmo Heytesbury (ca. 1315-1371), autore
di trattati diffusissimi. Heytesbury ha l’esatto concetto di accelerazione positiva e
negativa, conosce la regola di Oresme relativa allo spazio percorso in un moto
uniformemente accelerato e sa che nella prima metà del tempo lo spazio percorso è la
terza parte di quello percorso nella seconda metà. Quest’ultimo teorema sarebbe stato
esteso da un altro maestro della scuola, Guglielmo Colligham, con la proposizione che
gli spazi percorsi in tempi eguali successivi crescono come la serie naturale dei numeri
dispari.

Mentre la scuola di Parigi non esitava a opporsi ad Aristotele, la scuola di Oxford


cercava soprattutto un’interpretazione matematica della sua fisica. Tommaso
Bradwardine (ca. 1290–1349) è il più importante esponente di questo indirizzo. Nel suo
;==! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Tractatus proportionum egli tenta di dare una formulazione matematica della legge
aristotelica del moto uniformemente accelerato, sostituendo la legge del moto di
Aristotele:
V ∝F/R con una nuova: V ∝ log(F / R)10

Bradwardine ebbe il merito di avere introdotto il concetto che la resistenza del


mezzo cresce rapidamente con la velocità, e insieme ad altri della sua scuola, fu il primo
a distinguere tra le cause del movimento (dinamica) e la descrizione del movimento
(cinematica).

Queste ricerche sul movimento portarono la fisica medievale al suo vertice e


fornirono un fertile terreno intellettuale al XVII secolo. Quantunque contenessero
importanti idee di matematica pura, fu soprattutto il loro uso della matematica in una
teoria scientifica ad essere cruciale, perché conduceva, in definitiva, alla rovina
dell’intero sistema di Aristotele. Tuttavia questa vivacità del XIV secolo mancò il suo
risultato. Le sue nuove idee e i suoi nuovi argomenti furono un corollario della
concezione del mondo di Aristotele: esse non l’avevano sostituita. E per un’ottima
ragione: i filosofi matematici medievali prestavano molta attenzione agli astratti
movimenti delle sfere, senza considerare molto la reale traiettoria dei corpi celesti. Essi
non affermarono che i loro teoremi cinematici si applicavano ai movimenti dei corpi
reali, rendendosi magari conto che in molti casi questo non era possibile. Dedussero,
correttamente, le conseguenze che dovrebbero seguire da certe supposizioni, ma non
scoprirono se queste supposizioni fossero fisicamente valide o no. Così il trecento
indebolì di poco l’autorità delle concezioni di Aristotele.
Il mondo medievale riconquistò la scienza greca, imparando molto più di quanto
i romani avessero mai conosciuto. Aveva fatto di Aristotele il suo maestro in logica,
fisica e cosmologia e aveva preparato nuove capacità, mettendo in discussione lo stesso
Aristotele, che avrebbero reso l’uomo capace di esplorare il mondo e la natura più
profondamente e ampiamente di prima, mentre nello stesso tempo poneva le basi di un
nuovo approccio intellettuale alla scienza.

4.6 La ricerca scientifica medievale

Contemporaneamente agli sviluppi del pensiero scientifico teorico, dal secolo XII
in poi si vengono sviluppando varie forme di ricerca le quali, o perché già formalmente
scientifiche o per gli orizzonti che apriranno alla fisica, hanno comunque un notevole
rilievo per gli sviluppi successivi.
Una scienza in particolare, oltre alla matematica, si affaccia sulle soglie della
scienza moderna, ed è la meccanica, distaccata dalla cultura universitaria e fiorisce a
contatto immediato con bisogni pratici e non sente minimamente l’influsso delle grandi
correnti filosofiche. È giunto fino a noi un corpus di scritti medievali di meccanica,
costituito da un gruppo di manoscritti del secolo XIII e da due edizioni a stampa del
secolo XVI, che sono dovuti non a filosofi o professori universitari ma a tecnici
preoccupati soprattutto di problemi inerenti alla scienza delle costruzioni. Il problema
fondamentale è la traduzione in sede tecnica di un problema largamente discusso nelle
università commentando la fisica aristotelica: il problema della gravità. Da un punto di
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;=4!

vista tecnico riguardava l’equilibrio dei pesi e dello scarico degli stessi nel caso di masse
pesanti gravanti su costruzione date. Tale problematica era particolarmente legata
all’architettura dell’epoca nel trapasso dall’arte romanica all’arte gotica. Con ciò
venivano poste le basi di un importante capitolo della meccanica razionale, la teoria del
moto e dell’equilibrio dei gravi lungo un piano inclinato.
Il precursore di Leonardo (XIII secolo) (anonimo autore di un trattato di
meccanica utilizzato da Leonardo da Vinci nelle sue speculazioni meccaniche) trova in
proposito un’importante relazione matematica, che, perfezionata nei secoli seguenti,
costituirà uno dei princìpi fondamentali della statica moderna: due pesi, i quali
scendono da bande opposte di due piani inclinati formanti tra loro un certo angolo, si
fanno equilibrio quando sono proporzionali alle lunghezze dei piani inclinati stessi.
Questo materiale di osservazione, elaborato alla luce della nuova matematica, costituirà
il primo capitolo della fisica moderna.

Il punto più alto dell’ottica medievale fu raggiunto da Teodorico di Friburgo (m.


1311) che portò diversi esperimenti a sostegno della sua teoria che l’arcobaleno è
causato da due rifrazioni e una riflessione sulla superficie di gocce di pioggia sferiche, e
della sua spiegazione dei colori, presa da Averroè, come varie misture di luce e di
oscurità.
Il magnetismo è il solo ramo della fisica interamente d’origine medievale e il
primo trattato di magnetismo, De magnete, è dovuto a Pietro Peregrino di Marincourt
(XIII sec.) Nel trattato s’insegna che i quattro caratteri distintivi del buon magnete sono:
colore, peso, facoltà d’attrarre, tesatura compatta e senza bolle. Sono tutti caratteri, a
eccezione del peso specifico, ritenuti ancora oggi buoni indizi per riconoscere la qualità
del magnete. Inoltre, s’insegnano i metodi sperimentali per trovare la polarità del
magnete, compresa la legge basilare che “poli eguali si respingono, poli opposti si
attraggono”, a magnetizzare il ferro per contatto, a descrivere il fenomeno d’induzione
magnetica e l’esperienza della calamita spezzata. Da questa ordinatissima trattazione
sperimentale Peregrino passa, come se fosse un trattatista moderno, alla speculazione
teorica, chiedendosi quale sia la causa dell’azione magnetica. Confutata la teoria dei
suoi tempi che attribuiva l’orientamento dell’ago alle grandi miniere di magnetite che
sarebbero esistite nelle regioni del polo nord, Peregrino sostiene che il cielo influenza il
magnete in modo che ogni punto del cielo induce un punto analogo sulla sfera
magnetica; ne segue che un magnete sferico equilibrato sul suo asse polare ruoterà sul
suo asse, secondo il moto del cielo. Questa teoria fa intravedere l’origine astrologica e
magica dello studio del magnetismo. Infine nel trattato si affrontano le applicazioni
tecniche delle proprietà magnetiche, come la descrizione di un primitivo grafometro
magnetico per mezzo del quale è possibile determinare l’angolo azimutale del Sole o di
una stella all’orizzonte e la bussola a perno.
;=5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

!"#$%&'&() !

I grandi spiriti hanno sempre incontrato


violenta opposizione da parte delle
menti mediocri

Einstein

/$(&-0!$%#-#,!&(0*!$-&)%##

5.1 Umanesimo e Rinascimento: anticipazioni del moderno

Convenzionalmente si fa cominciare nel secolo XV (1453: fine dell’impero


romano d’Oriente, oppure 1492: scoperta dell’America) l’Età moderna, però i secoli XV
e XVI, nei quali l’umanesimo e il rinascimento si sviluppano, dal punto di vista sociale
non contengono sostanziali novità rispetto all’ultimo medioevo, se non nell’accentuarsi
e nell’intensificarsi dei cambiamenti in atto.
La crisi politica e sociale che domina la fine del medioevo raggiunge il culmine;
la rivoluzione borghese giunge al suo apice fuori dall’Italia, mentre in Italia l’impeto
della borghesia si viene arrestando. Perciò è in Italia che inizia l’era moderna, ma verrà
portata a termine altrove, in Francia, in Germania, nei Paesi Bassi e in Inghilterra. Sulla
crisi della società feudale, della chiesa e dell’impero si sviluppano, in Italia e altrove,
nuove potenze politico-economiche: i prìncipi, che riescono, attraverso la formazione di
ingenti patrimoni personali e con l’appoggio dei ceti di plebei arricchiti, cioè la
borghesia mercantile, a prendere nelle proprie mani l’esercizio dei poteri politici
effettivi, esautorando le vecchie classi dirigenti. Ma mentre in Italia il principato non
riesce ad evolversi a monarchia vera e propria, a divenire forza centripeta capace di
convogliare intorno a sé tutto un movimento culturale, politico ed economico, altrove,
soprattutto in Francia e in Inghilterra, questo avviene, e il principato diventa monarchia
assoluta e nasce lo stato moderno. In conseguenza di ciò, la chiesa perde quell’egemonia
sulla cultura, lungamente detenuta nel passato, che ora si trasferisce ai laici, ovvero alla
borghesia cittadina, per cui l’aspetto più notevole dei secoli XV e XVI è proprio il
formarsi di una cultura laica. I prìncipi e i ricchi mercanti si trasformano in mecenati del
sapere, concedendo protezione e stipendi ad artisti, letterati, filosofi e scienziati, che
neppure formalmente appartengono al clero. Si diffondono le Accademie, veri centri di
studio e di ricerche sia lettarario-filosofiche che scientifiche, come quelle di Firenze,
Padova e Napoli, per cui i centri del sapere e della diffusione della conoscenza non sono
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;=6!

più, o per il momento solamente, i monasteri o le università ecclesiastiche. Questo


spiega anche come molti studiosi e dotti ecclesiastici di questo periodo obbedissero ad
ispirazioni culturali laiche, ad una cultura nettamente estranea alla tradizione scolastica
medievale. Si tratta oramai di una libera cultura, liberamente elaborata da studiosi non
controllati, che, grazie anche all’evoluzione della stampa e alla formazione di grandi
biblioteche pubbliche, si diffonde, fuori dei veicoli tradizionale della scuola, attraverso
libri accessibili a molti lettori non aventi qualifiche accademiche.
Il nuovo movimento di pensiero espresso da questa cultura, movimento che si
pone di fronte alla tradizione delle scuole medievali fino a fermarla per sempre e a
sostituirla nella storia del pensiero vivo, prende il nome di Umanesimo e Rinascimento.
Queste denominazioni, più che due periodi successivi, indicano due tendenze in
contrasto che dominano la scena della cultura nei secoli XV e XVI: di indirizzo retorico-
filologico la prima, naturalistico-scientifico la seconda; notando però che tra l’una e
l’altra gli scambi e i contatti furono molti e a volte molto vicini. E soprattutto hanno in
comune lo stesso spirito di libertà, attraverso cui l’uomo rivendica la sua autonomia di
essere razionale e di riconoscersi profondamente inserito nella storia e nella natura, che
diventano adesso i suoi regni terreni da governare.

5.2 L’Umanesimo

L’aspetto più notevole dell’Umanesimo è il culto dei classici, sia latini che greci,
che, rispetto al Medioevo, si fa più esteso dal punto di vista quantitativo e più intenso e
fervido, per non dire entusiastico e perfino fanatico, dal punto di vista qualitativo. Per
gli umanisti la conoscenza degli antichi era più elevata di quella da loro posseduta, ed il
progresso corrisppondeva ad un risveglio, una rinascita, del sapere classico.
La filologia è la scienza sovrana degli umanisti, e penetra quasi tutti i campi della
cultura, e si configura come uno strumento di indagine capace di liberare il rigoroso
discorso dei grandi esponenti della scienza antica dalle alterazioni della Scolastica,
anche se si corre il rischio di risolversi in un’opera di esercizio filologico sui testi della
scienza classica. Gli umanisti, opponendo la retorica e l’eloquenza alla logica formale
pura dell’ultima scolastica, danno origine al problema che da Bacone arriverà fino a
Newton, e cioè di ottenere al posto di un discorso meramente formale che si esauriva
interamente sul piano del linguaggio, forme di aggregazione che più direttamente
portassero sulle cose e permettessero quindi un discorso che, fondato sull’esperienza,
potesse da questa giungere alla formulazione di verità generali non astrattamente
metafisiche o formalmente logiche, ma tali da garantire possibilità all’intervento attivo
dell’uomo nella natura.

Il primo annunzio della rinascita è in Dante Alighieri (1265-1321),


uomo non solo di grandissima cultura, ma anche di straordinaria intelligenza
matematicoscientifica. Nel medioevo il campo scientifico e umanistico
fiorirono sul medesimo terreno culturale, e per gran parte della storia
successiva medievale l’orizzonte culturale rimase sostanzialmente uno e
privo di fratture. In particolare la scienza e la letteratura nacquero sulle
medesime basi: la curiosità nei confronti del mondo che ci circonda, il desiderio mai
appagato di raggiungere la piena verità, lo stupore nei confronti dei meccanismi di
;=7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

straordinaria precisione e bellezza che regolano l’universo. In natura il bello è anche


armonioso, è anche geometrico, e ciò che desta stupore è anche scientificamente preciso
e perfetto, e sono proprio questi meccanismi fisici-matematici che portano a stupirsi.
Indagare il bello e l’incredibile attraverso i sentimenti che questi suscitano, o attraverso
le regole che li generano, differisce solo perché in un caso sono indagate le conseguenze,
nell’altro le cause. Gli oggetti di studio sono complementari ma le sensazioni da cui
derivano sono le stesse. Piacere estetico, curiosità e ammirazione riempiono il lavoro
tanto dello scienziato quando del poeta. Per quanto riguarda i metodi di espressione di
queste sensazioni, tanto lo scienziato quanto il poeta utilizzano un linguaggio di grande
potenza. Il poeta condensa concetti e sentimenti in parole che evocano visioni, e che
formano versi per i quali molto spesso è necessario darsi schemi quasi scientifici, metrici
e di resa espressiva. Lo scienziato dal canto suo si trova a destreggiarsi con un
linguaggio altrettanto sintetico, potente ed espressivo, il linguaggio della matematica. In
una formula sono compresse leggi che, per la loro verità inconfutabile e per il loro
significato denso di conseguenze, sembrerebbero pronte a esplodere da un momento
all’altro. Ma la ragione ultima, e forse più importante, che spinge tanto il poeta che lo
scienziato ad indagare, seppur con strumenti espressivi diversi, sulla natura è il piacere
intellettuale, la forza propulsiva dell’immaginazione, che lancia la ragione a una corsa
senza fine (e che sia immaginazione artistica o matematica poco cambia). E’ l’uomo
razionale che si pone di fronte allo spettacolo dell’universo e cerca di carpirne i segreti
più nascosti. E quali armi intellettuali usa per tale indagine? L'osservazione, la logica e
il ragionamento sono i punti cardini di fronte ai fenomeni che Dante osserva nel viaggio
ultraterreno attraverso L’Inferno, Il Purgatorio ed Il Paradiso. Dante è, dunque, poeta e
scienziato, perchè ha saputo cogliere ed interpretare originalmente il potere
immaginifico e metaforico delle scienze.
Certo, Dante è uomo di cultura scientifica medievale e scolastica, un'epoca in cui
la scienza era ben diversa dalla nostra: non si basava esclusivamente su leggi
matematiche, come sarà da Galileo Galilei in poi, ma su meditazioni ed elaborazioni
filosofiche nelle quali si mescolavano la Teologia, la Filosofia Scolastica, la Fisica
Aristotelica, l'Astrologia, l'Alchimia, la Magia, insieme al grande retaggio della
matematica e della fisica greche. Ma la sua opera poetica nasce e vive in un clima nuovo
ed annunzia gli aspetti fondamentali del Rinascimento.

Se Dante è ancora dottrinalmente legato al Medioevo, Francesco Petrarca (1304-


1374) si stacca anche dottrinalmente da quel mondo e inizia in pieno l’Umanesimo. La
polemica che egli condusse contro l’averroismo, con le armi della sapienza classica e
cristiana, segna appunto quel distacco. La diffusione dell’averroismo, con il crescente
interesse che suscitava per l’indagine naturalistica, sembra a Petrarca che distragga
pericolosamente gli uomini da quelle arti liberali, che sole possono dare la sapienza
necessaria per conseguire la pace spirituale in questa vita e la beatitudine eterna
nell’altra. Secondo Petrarca, quasi tutte le conoscenze che quegli indagatori naturalisti
giungono a possedere si rivelano false all’esperienza. Poiché lo sbocco del Rinascimento
è la nascita della nuova scienza della natura, la polemica contro la scienza da parte di
Petrarca è stata interpretata come la difesa della trascendenza religiosa e della sapienza
rivelata contro la libertà della ricerca scientifica. Ma non dimentichiamo che l’animo di
Petrarca rimane ancora diviso tra l’ammirazione per la natura e l’ammonimento della
sapienza. Combattono nel suo spirito l’uomo medievale, chiuso nell’esasperata volontà
di salvezza eterna, e l’uomo moderno amante della natura.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;=8!

Gli umanisti, però, non furono passivi ripetitori della sapienza antica e fu
presente, nei loro scritti, una costante polemica non solo contro la “barbarie” degli
Scolastici, ma anche contro i pericoli della ripetizione e del classicismo. La
contrapposizione della aemulatio alla imitatio divenne il grido di battaglia di molti
intellettuali europei da Angelo Poliziano (1454-1494) a Erasmo da Rotterdam (1469-
1536). Nella cultura umanistica è in realtà presente un forte contrasto fra “la
venerazione per gli antichi” (che conduce al classicismo) e una difesa della eguaglianza
dei “moderni” che anticipa alcune delle tesi avanzate, nel corso del Seicento, nella
disputa sugli antichi e sui moderni. I testi riscoperti dagli Umanisti, nel corso del loro
grandioso ed esaltante lavoro di ritrovamento, di raccolta, di commento, non si
configuravano come semplici documenti. Quegli antichi testi contengono conoscenza:
sono direttamente utili alla scienza e alla sua pratica. La diffusione di edizioni fatte
direttamente sugli originali greci, di traduzioni non più fondate (come nel Medioevo) su
traduzioni arabe di opere greche, ebbe effetti decisivi sugli sviluppi del sapere
scientifico.

5.3 Il Rinascimento

Il Rinascimento presenta insieme e profonde affinità e profondi contrasti con


l’Umanesimo. Lo stesso intenso e amoroso studio dei classici, la stessa tendenza a
riconnettersi alla tradizione antica, lo stesso, ed anzi più accentuato spirito laico e
borghese. Però, nel momento stesso in cui fanno ricorso ai testi dell'antichità, filosofi
come Bacone e Cartesio negano il carattere esemplare della civiltà classica e respingono
non solo la pedante imitazione e la passiva ripetizione ma anche quella aemulatio, sulla
quale avevano insistito i migliori fra gli umanisti, appare ad essi qualcosa che non ha
più senso. Avendo a disposizione soltanto gli occhi, gli antichi non potevano spiegare la
Via Lattea diversamente da come fecero. Il fatto che conosciamo oggi la natura più di
quanto essi la conoscevano, ci consente di “adottare nuovi pareri senza ingiuria e
senza ingratitudine”, per cui “senza contraddirli, possiamo affermare il contrario di ciò
che essi dicevano”. Nelle pagine di Bacone, di Cartesio, di Galilei l'impresa scientifica si
configura come un avventura intellettuale che implica la capacità di guardare il mondo
senza più bisogno di guide o autorità. Il terreno stesso di una contesa con gli antichi
viene rifiutato con decisione: “chi è troppo curioso delle cose del passato diventa, per lo
più, molto ignorante delle presenti” afferma Cartesio e lo spirito degli uomini che
vissero nell'antica Grecia appare a Bacone “angusto e limitato”. La imitatio sembra non
avere altra giustificazione che la pigrizia degli uomini, si fonda sul bisogno, che in essi è
presente, di delegare ad altri le loro capacità razionali. Anche la scoperta di nuove terre,
come l’America, e l’allargamento dei confini del mondo avevano dato modo di
sperimentare la limitatezza delle dottrine degli antichi. Si fa sempre più chiaro che la
filosofia e la scienza degli antichi non sono raccolte di verità immutabili ed eterne, ma
sono invece prodotti storici, legati ad un tempo e ad un luogo determinati.
Quindi, soprattutto nel campo del pensiero scientifico, le differenze tra
Rinascimento ed Umanesimo sono molte e profonde. In generale, salvo pochi spunti e
pochi aspetti, come movimento complessivo l’Umanesimo è stato antiscientifico: per i
suoi stessi interessi letterari, per le sue simpatie verso l’eredità della via antiqua della
scolastica medievale, esso ha costituito piuttosto una remora allo sviluppo del pensiero
;=9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

scientifico. Invece, in questo campo, il Rinascimento è stato nettamente progressivo,


anzi ha fornito le premesse culturali da cui è scaturita la Rivoluzione scientifica e quindi
la scienza moderna. E ciò soprattutto per il suo esplicito agganciarsi alle correnti più
progressive della tarda scolastica, alla via moderna degli Occam, Alberto di Sassonia,
Buridano, sia per la concezione empirico-probabilistica della scienza, sia per quanto
riguarda l’emancipazione della fisica aristotelica.
Il tratto più caratteristico della civiltà rinascimentale consiste nell’elaborazione di
una nuova immagine dell’uomo e della sua vita. In questo campo, la frattura con il
Medioevo è netta: mentre il Medioevo pensava che l’uomo fosse parte di un ordine
cosmico già stabilito, che egli doveva semplicemente riconoscere intellettualmente e
seguire nella condotta pratica, il Rinascimento ritiene che l’uomo debba costruire il
proprio destino, adoperando la propria ragione e seguendo la propria libertà di
pensiero. Non che l’uomo rinascimentale sia ateo o irreligioso, tutt’altro, il
Rinascimento riconosce nell’uomo “fabbro della propria sorte” l’immagine e il riflesso
della potenza creatrice di Dio. Infatti, la nuova visione attivistica dell’uomo, l’interesse
per la natura e la rivendicazione dell’autonomia della ricerca che il Rinascimento
afferma con forza costituiscono i pilastri della civiltà occidentale moderna, e non solo
nel campo scientifico.
L’uomo rinascimentale è ministro e interprete della natura ed è il vertice della
piramide della natura. L’uomo contempla nella natura quelle forme razionali che trova,
del resto, nella sua stessa mente. L’imitazione della natura che è il canone sia della
scienza che dell’arte rinascimentale non è dunque un rispecchiar passivo o un copiare
meccanico: è il farsi della natura, le cui forme razionali si esplicano attraverso l’attività
della mente umana (scienza) ed è l’attuarsi nella natura del disegno umano, il che
l’uomo può fare grazie alla sua stessa essenziale naturalità (arte). Di qui la stretta unità
di scienza, tecnica e arte che permette ad uomini come Leonardo di essere insieme
scienziato, ingegnere e pittore.

5.4 La filosofia rinascimentale della natura

La scienza è l’ultimo e più maturo risultato del naturalismo del Rinascimento.


L’indagine scientifica, così come si doveva annunciare nelle intuizioni di Leonardo e
nell’opera di Galilei, era un’indagine fondata sull’osservazione e sull’esperimento. E
l’osservazione e l’esperimento non sono cose che possono essere soltanto annunciate e
programmate, non possono restare alla fase di semplici idee; devono essere
effettivamente intraprese e condotte a termine, e ciò è possibile solo se sono sorrette da
un interesse vitale. E questo interesse può essere costituito soltanto dalla convinzione
che l’uomo è saldamente piantato nel mondo della natura e che i suoi poteri conoscitivi
più efficaci e più propri sono quelli che derivano appunto dal suo rapporto con la
natura. E rivolgersi all’esperienza sensibile, interrogarla e farla parlare è la sola via che
conduce a spiegare la natura con la natura, cioè che non fa ricorso a principi estranei
alla natura stessa. Questa autonomia del mondo naturale, che è il presupposto di ogni
indagine scientifica sperimentale, è l’aspetto fondamentale della filosofia scientifica
rinascimentale che cerca d’intendere ogni aspetto della natura nei suoi elementi
costitutivi e nel suo valore intrinseco. Sicchè da un punto di vista generale si può dire
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;=:!

che il Rinascimento ha posto le condizioni necessarie per lo sviluppo di un’indagine


sperimentale della natura e cioè:
1. che l’uomo non è un’ospite provvisorio della natura, ma un essere naturale
lui stesso, che ha nella natura la sua dimora;
2. che l’uomo, come essere naturale, ha sia l’interesse sia la capacità di
conoscere la natura;
3. che la natura può essere interrogata e compresa solo con gli strumenti che
essa stessa fornisce all’uomo.
La riduzione naturalistica viene così condotta al suo punto estremo: la natura
non ha niente a che fare con gli aspetti spirituali dell’uomo; è un insieme di cose che si
muovono meccanicamente e le leggi che regolano il meccanismo sono quelle della
matematica. La scienza riduce la natura a pura oggettività misurabile, la stacca
dall’uomo e la apre al suo dominio.
Queste considerazioni, ovviamente, non possono dar ragione di tutte le
caratteristiche che hanno determinato la nascita della scienza moderna. Queste
caratteristiche, comunque, si possono riscontrare all’interno dell’umanesimo
rinascimentale stesso. Il primo di essi è fornito proprio da quel “ritorno all’antico” che è
la tendenza propria dell’umanesimo. Il ritorno all’antico produsse la reviviscenza di
dottrine e di testi che erano stati per secoli trascurati, come le dottrine eliocentriche dei
pitagorici e le opere di Archimede, e spesso fornirono l’ispirazione e lo spunto per
nuove scoperte scientifiche. Dall’altro lato, l’aristotelismo rinascimentale, mentre
provocava una nuova e più libera lettura di Aristotele, elaborava efficacemente, in
polemica con le concezioni teologico-miracolistice, il concetto di un ordine naturale
immutabile e necessario, fondato sulla catena causale degli eventi. Questo concetto
entrò a costituire lo schema generale dell’indagine scientifica. La magia, che il
Rinascimento aveva portato alla luce, accettata e diffusa, contribuì a determinare il
carattere attivo e operativo della scienza moderna. Infine dal platonismo e dal
pitagorismo antico la scienza derivava l’altro suo presupposto fondamentale, sul quale
insisteranno Leonardo, Copernico e Galileo: la natura è scritta in caratteri matematici e
il linguaggio proprio della scienza è quello della matematica. In tutti questi fattori che,
con vario peso e in modi vari, condizionano e contribuiscono alla nascita della scienza
moderna, il Rinascimento è presente, direttamente e indirettamente, in qualcuno dei
suoi aspetti essenziali.
Certamente tra quei fattori possono, e devono, essere incluse le critiche che gli
scolastici del XIV secolo (Ockham, Buridano, Oresme) avevano rivolto ad alcuni punti
fondamentali della fisica aristotelica, come il movimento. Tali critiche derivano, e non
bisogna dimenticarlo, proprio dall’orientamento empiristico che Ockham aveva fatto
prevalere nell’ultima scolastica.
Una delle figure più famose di maghi fu Teofrasto Paracelso (1493-1541), ma
alcune esigenze da lui accennate ne fanno un anticipatore del metodo scientifico.
L’uomo è stato creato per conoscere le azioni miracolose di Dio, per cui il suo compito è
la ricerca. Ma la ricerca deve connettere insieme l’esperienza e la scienza per giungere a
una conoscenza vera e sicura. Teoria e pratica devono procedere parallelamente e
d’accordo, giacchè la teoria non è che una pratica speculativa e la pratica non è che la
teoria applicata. Non si può prestar fede ad un esperimento senza scienza; ma chi
possiede la scienza, oltre l’esperimento, sa anche perché un fenomeno debba verificarsi
;4<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

in un modo o nell’altro e può prevederne le conseguenze. La ricerca, intesa come unità


di teoria e di esperimento, sarà la parola della nuova scienza. Ma questa ricerca ha in
Paracelso un carattere magico.

In Italia Gerolamo Fracastoro (1478-1553), invece, tratta il tema della simpatia


universale delle cose che è il fondamento della magia. Nella sua opera De sympathia et
antipathia, egli spiega l’universale influsso reciproco delle cose con la dottrina
empedoclea dell’attrazione tra simili e le repulsione tra i dissimili. Ma per spiegare la
modalità di quest’influsso, Fracastoro ricorre alla dottrina atomistica e ai flussi degli
atomi. Egli tiene fermo il principio aristotelico che nessuna azione può avvenire se non
per contatto; quando perciò i simili non si toccano e non si muovono per natura l’uno
verso l’altro, è necessario per spiegare la loro simpatia che dall’uno all’altro si verifichi
un flusso di corpuscoli che trasmetta l’azione (questa teoria ci ricorda quella del
modello standard secondo cui le forze si trasmettono grazie a particelle mediatrici).

La natura come un tutto compiuto che si trasforma, e si sviluppa incessantemente


per virtù di forze immanenti, l’indagine naturale considerata come uno strumento
fondamentale per portare a compimento il progetto di instaurare il regno dell’uomo nel
mondo, sono le idee che animano l’opera di Telesio (1509-1588) che, nella sua opera La
natura secondo i propri principi, enuncia la teoria secondo cui l’uomo, per conoscere la
natura, deve ascoltarne i ritmi e indagarne le leggi interne. In altre parole la natura va
studiata iuxta propria principia e non secondo concetti precostituiti, come quelli di atto, di
potenza, ecc. che traggono origine dal nostro intelletto, anziché dalla natura stessa; in
sostanza l’uomo non deve più imporre alla natura le sue leggi, ingabbiandola nei propri
schemi concettuali, ma deve cercare di leggerne i princìpi nascosti che ne regolano la
vita; ma come: i princìpi del mondo fisico sono spiegabili solo attraverso i princìpi
sensibili, stabilendo così l’equazione fra “ciò che la natura stessa manifesta” e “ciò che i
sensi fanno percepire”. Proprio da questo metodo scaturisce il suo empirismo. L’uomo
per conoscere la natura non deve far altro che far parlare, per così dire, la natura stessa,
affidandosi alla rivelazione che essa fa di sé a lui in quanto è parte di essa. L’uomo può
conoscere la natura solo in quanto è, lui stesso, natura. La sensibilità non è altro che
l’autorivelazione della natura a quella parte di sé, che è l’uomo. Telesio giunge così alla
fecondissima idea di una spiegazione della natura per mezzo della natura, senza ricorso
a princìpi estranei ad essa, affermando, in sostanza, l’autonomia e l’oggettività della
natura, aprendo la strada alla rivoluzione scientifica di Galileo.
I nuovi concetti che Telesio introduce nella spiegazione dei processi naturali e
che oppone alla forma e alla materia prima di Aristotele, sono la massa materiale e la
forza. La massa materiale è diversa dalla materia di Aristotele, perché non è astratta
potenzialità, bensì qualcosa di più concreto, qualcosa di indistruttibile che “non avendo
facoltà di agire e di generarsi, non può né aumentare né diminuire”. La massa
materiale è identica sugli astri e sulla Terra e la sua caratteristica fondamentale è quella
di occupare delle porzioni di spazio pur senza identificarsi con lo spazio, visto che,
come vedremo, Telesio ammette l’esistenza di uno spazio assolutamente vuoto. Mentre
la materia è unica le forze, invece, sono due: una dilatante, che chiama calore, ed una
restringente, che chiama freddo. Calore e freddo sarebbero, dunque, non proprietà della
materia, ma energie che la mettono in moto; esse sono imponderabili perché penetrano
in qualunque punto, tuttavia non possono agire senza massa corporea. L’analogia di
queste due forze con l’amore e l’odio di Empedocle è evidente. Tutte queste riflessioni
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;4;!

richiederebbero una nuova fisica, che sarà costruita solo alcuni decenni dopo la morte
di Telesio. La sede del calore è il Sole, mentre la sede del freddo è la Terra. Sole e Terra
vengono ad essere così i due corpi elementari che non mutano, mentre tutti gli altri
corpi sono soggetti al divenire. Su questo punto è evidente il legame di Telesio con la
concezione tradizionale del cosmo, e, diversamente da ciò che farà Bruno, non abbraccia
ancora la concezione copernicana né si rende conto della sua importanza scientifica e
filosofica. Anche la matematica, secondo Telesio, deve fondarsi sull’esperienza, e non
venire pensata come una costruzione aprioristica di concetti che l’intelletto imporrebbe,
dall’alto, ai dati empirici.
Sarebbe vano cercare notevoli scoperte scientifiche nelle opere di Telesio,
piuttosto, notevole per l'indirizzo culturale e metodologico che le ispira è la polemica
antiaristotelica, la tendenza a risalire ai naturalisti presocratici, ad affermare che il
conoscere deve fondarsi sulla esperienza, e che non dobbiamo andare in cerca di cause
finali, di ragioni teleologiche tratte dal di fuori del mondo fisico. Questa critica
all’aristotelismo investe tutti i punti, anche quelli fondamentali. Aristotele aveva
considerato Dio come il motore immobile del cielo. Telesio ritiene che l’azione di Dio
non possa essere ristretta a spiegare un fatto determinato o un determinato aspetto
dell’universo. Deve essere invece riconosciuta come assolutamente universale e
presente in tutti gli aspetti dell’universo, come fondamento o garanzia di quell’ordine
che assicura la conservazione di tutte le cose. Dio dunque non può essere invocato come
causa diretta e immediata di un qualsiasi evento naturale; è semplicemente il garante
dell’ordine dell’universo. E come tale la sua azione si identifica con quella delle forze
autonome della natura. Telesio da un lato mantiene fermamente il principio
dell’autonomia della natura contro la stessa dottrina aristotelica del primo motore;
dall’altro, come farà Cartesio, vede nell’azione divina la garanzia dello stesso ordine
naturale.
Risultati specificatamente scientifici raggiunti o accettati da Telesio sono: il moto
come fondamento dei fenomeni naturali; l’ammissione che nulla si crea e nulla si
distrugge; eliminazione delle intelligenze motrici; opposizione all'idea aristotelica
dell'orrore del vuoto, sostenendo che lo spazio è un essere di per sé stante (assoluto),
distinto dalla materia, e identico in ogni suo punto sicché è da respingere la fisica di
Aristotele che spiega gli accadimenti naturali mediante una tendenza degli elementi al
loro luogo naturale; e ciò è assurdo perché ogni luogo dello spazio si comporta
indifferentemente verso ogni materia: “il luogo... rimane perpetuamente il medesimo, ed
è in grado di accogliere senza il minimo indugio tutti gli oggetti che vanno ad
occuparlo”.

5.5 Aristotelismo e platonismo

A questo punto è necessario dare uno sguardo alle scuole di pensiero, o dir si
voglia filosofie, del Rinascimento. Dal secolo XIV al XVI le due filosofie che tengono il
campo sono l’aristotelismo e il rinascente platonismo; il primo diffuso prevalentemente
nelle università sia ecclesiastiche che laiche, il secondo, invece, in ambienti
eminentemente laici come le accademie.
L’aristotelismo umanistico e rinascimentale, che ha il suo principale centro a
Padova, però, per il suo dogmatismo ed eccessivo formalismo dialettico, l’idolatria per
;4=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Aristotele, rispetto alla scienza, rappresenta un grande ostacolo al progresso del sapere
scientifico. All’aristotelismo rinascimentale faceva difetto quel riconoscimento della
naturalità dell’uomo e dei suoi mezzi di conoscenza, che è la condizione necessaria e
indispensabile di ogni indagine sperimentale della natura. Sotto questo aspetto,
l’aristotelismo non poteva fornire alla scienza alcun impulso innovatore. Solo la
ribellione rinascimentale potè realizzare il mutamento radicale di prospettiva da cui
nacque l’indagine scientifica e la nuova concezione del mondo. Questa concezione, alla
quale contribuirono ugualmente platonici come Cusano, filosofi naturalisti come Telesio
e Bruno, scienziati come Copernico e Galileo, è l’antitesi precisa di quella aristotelica. Il
mondo non è una totalità finita e conclusa ma un tutto infinito e aperto in ogni
direzione. L’ordine di esso non è quello finalistico ma quello causale: non consiste nella
perfezione del tutto e delle parti ma nella concatenazione necessaria degli eventi. La
conoscenza umana del mondo non è un sistema fisso e concluso, ma il risultato di
tentativi sempre rinnovati che devono continuamente essere sottoposti a controllo. Lo
strumento di questa conoscenza non è una ragione soprannaturale e infallibile, ma un
insieme di poteri naturali fallibili e correggibili.
Tuttavia, l’aristotelismo ha avuto indubbi meriti scientifici. Gli aristotelici,
vedendo nell’aristotelismo il modello della scienza naturalistica e quindi la rinascita
dell’indagine della natura, di fronte alle superstizioni e all’irrequieta anarchia degli
empiristi platonici, hanno avuto il merito di aver elaborato una concezione della natura
come un complesso di eventi e fenomeni tenuto insieme da un’interna razionalità tale
da inquadrare in uno schema razionale la molteplicità degli aspetti.

Nel contesto aristotelico padovano è degno di nota Jacopo Zabarella (1533–1589)


che mostrò chiaramente come le ipotesi siano formulate per indagare i fenomeni, e
vengano confutate o confermate osservando se gli effetti da esse dedotti si verifichino o
meno, anticipando il metodo scientifico che Bacone e Galileo porteranno a compimento
più tardi: “...quando noi concepiamo qualche ipotesi sulla materia siamo in grado di
ricercare e di scoprire in essa qualcos’altro; là dove non facciamo nessuna ipotesi non
scopriremo mai nulla… L’altro aiuto, senza il quale il primo non sarebbe sufficiente, è il
confronto della causa scoperta con l’effetto attraverso cui è stata scoperta, non certo
con l’intera conoscenza che questa è la causa e quello l’effetto, ma unicamente
comparando questa con quello. E’ così che avviene che siamo gradualmente condotti
alla conoscenza delle condizioni di quella cosa…”.
Esponendo la logica aristotelica, ma in realtà criticandola dall’interno, Zabarella
distingue chiaramente il metodo deduttivo da quello induttivo. Assegna il primo alla
matematica, il secondo alle scienze empiriche, ed afferma che: “la scienza non ha altro
metodo conoscitivo all’infuori di quello dimostrativo (deduttivo) o risolutivo
(induttivo)”. Egli compie un passo innanzi ancor più significativo allorché, proprio
come farà più tardi Galileo, lega intimamente induzione e deduzione in un unico
processo metodico. Nel nel caso delle scienze della natura, egli dice: “per via della
debolezza del nostro spirito non conosciamo i principi da cui bisognerebbe prendere le
mosse per la dimostrazione; e siccome non possiamo assumere come punto di partenza
ciò che non è noto, dobbiamo necessariamente seguire un'altra strada, grazie alla quale,
per via del metodo risolutivo [induttivo], perveniamo a scoprire i principi. Mediante
tali principi possiamo infine dimostrare i fenomeni, e i singoli effetti naturali “. Questo
è, come vedremo, il metodo sperimentale (non già la semplice raccolta di esperienze)
seguito da Galileo. Esso procede dai singoli fatti alle ipotesi generali, per poi dedurre
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;44!

altri fatti particolari, che possano fornire la prova delle ipotesi stesse. Ne sia o meno
consapevole lo Zabarella, questo è anche un ritorno alla intuizione democritea della
circolarità del metodo. In questa sintesi di induzione e deduzione (o induzione
dimostrativa come dice Zabarella), non occorre esaminare all'infinito i casi particolari
“giacché il nostro intelletto, esaminati alcuni casi, scorge subito il nesso essenziale, e
trascurando molti altri casi secondari, forma l’universale”. Il fine del momento
induttivo e l'inventio, la scoperta dei principi fondamentali, delle leggi universali. La
vera conoscenza teoretica, la scientia, è raggiunta attraverso il completamento del
circolo, che ci riconduce nuovamente ai fatti, assunti quali prove di quelle leggi,
riscattati dalla loro empirica frammentarietà, coordinati nella universalità propria del
pensiero. Questa inductio demonstrativa di Zabarella è il massimo vertice che la critica
interna di Aristotele raggiunge dal punto di vista metodologico.
Gli esempi con cui Zabarella cerca di chiarire il suo discorso del metodo sono
tratti dalla metafisica o da testi di Aristotele; solo occasionalmente dalla ricerca
scientifica. Sarà invece il grande fisico toscano, Galileo, che trasformerà nella sua intima
essenza il metodo dell'induzione dimostrativa e che lo renderà fecondo connettendolo
alle esatte misure, al potere illuminante della logica cognizione geometrica. Zabarella
ignora queste possibilità, a cui dobbiamo la vera nascita della scienza moderna, anche
se le sue intuizioni di teorico sono ammirevoli, come quando giunge a rilevare, in parte,
il momento “economico “ della scienza, messo in luce solo grazie ai teorici di fine
ottocento, come Mach, in poi: “Il criterio grazie al quale si ordina ogni scienza o
disciplina, non è tratto dalla natura stessa delle cose di cui esse si occupano, ma è
stabilito, piuttosto, in modo che la nostra conoscenza risulti più certa e facile. Invero
noi ordiniamo una scienza in questo o in quel modo non perché tale sia il naturale
ordine delle cose da indagare, cioè l'ordine che esse hanno in sé, indipendentemente dal
pensiero. Il nostro scopo è, invece, che tale scienza possa venire appresa meglio, e più
facilmente, da tutti”.

Il platonismo, enormemente diffuso in tutta l’Europa e come centro ideale


l’Accademia fiorentina, pur essendo in sé più vago, più letterario, più logicamente
inconsistente dell’aristotelismo, e quindi assai più lontano dalla mentalità scientifica,
tuttavia è stato molto più fecondo per lo sviluppo della scienza moderna che non il
pensiero dei peripatetici. Paradossalmente ciò è dovuto al fatto che i platonici muovono
da autorità, come Platone, le quali non presentano dottrine scientifiche, o ne presentano
poche e frammentarie, ossia non legate a nessun sistema scientifico complessivo, e
pertanto i loro seguaci moderni sono liberi di speculare su problemi scientifici; d’altro
canto, gli aristotelici si trovano di fronte al pesante fardello dell’eredità di Aristotele. Un
esempio è il problema del moto dei proiettili, per il quale la teoria neoplatonica
dell’impetus si rivelerà molto più feconda di quella aristotelica; così come, in seguito,
Fracastoro e Copernico tenteranno entrambi di liberarsi dall’astronomia tolemaica: ma il
peripatetico Fracastoro non potrà raggiungere la concezione rivoluzionaria del
platonico Copernico, proprio perché legato all’ortodossia della scuola aristotelica.
Ma la maggior fecondità del platonismo deriva dalla metafisica naturalistica. La
natura è governata dalla sfera delle ragioni eterne, immutabili, che costituisce il
pensiero o logo divino. Perciò l’universo fisico, nonostante la sua apparente caoticità e
irrazionalità, obbedisce a una legge, a un ritmo che vi introduce ordine ed armonia,
tuttavia questa legalità rimane trascendente alla natura stessa. Questo significa che
l’uomo deve scoprirla attraverso la congettura nascente della ricerca empirica.
;45! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Il massimo umanista neoplatonico fu il cardinale Niccolò Cusano (1401-1464), il


cui punto di partenza è una precisa determinazione della natura della conoscenza,
modellata sulla conoscenza matematica. La possibilità della conoscenza risiede nella
proporzione tra l’ignoto e il noto. Si può giudicare di ciò che ancora non si conosce solo
in relazione a ciò che già si conosce; ma questo è possibile soltanto se ciò che ancora non
si conosce possiede una certa proporzionalità, ossia omogeneità, con ciò che si conosce.
La conoscenza è tanto più facile quanto più vicine sono le cose che si ricercano a quelle
conosciute; e per esempio, in matematica, le proposizioni che più direttamente derivano
dai primi principi di per sé notissimi, sono le più facili e note, mentre meno note e più
difficili sono quelle che si allontanano dai primi principi. Da ciò deriva che quando quel
che è ignoto e si cerca non ha alcuna proporzione con le conoscenze in nostro possesso,
sfugge ad ogni possibilità di conoscenza e non rimane che proclamare di fronte ad esso
la propria ignoranza. Anche se incline ad un misticismo matematico, Cusano non è
alieno da spunti critici, che lo conduce fino alla profonda intuizione della coincidenza
degli opposti, ad esempio fra retta e circolo di raggio infinito, la quale si verifica in Dio.
Dio, come aveva detto Duns Scoto, è l’infinito, e tra l’infinito e il finito non c’è
proporzione. L’uomo può indefinitivamente avvicinarsi alla verità per gradi successivi
di conoscenza; ma poiché questi gradi saranno sempre finiti e la verità è l’essere nel suo
grado infinito, la verità sfuggirà necessariamente allo sforzo diretto di comprenderla.
Perciò Dio è inafferrabile in termini logici ed è possibile coglierlo solo per via intuitiva.
Tra la conoscenza umana e la verità c’è lo stesso rapporto che intercede tra i poligoni
inscritti e circoscritti e la circonferenza: aumentando indefinitivamente i lati da tali
poligoni, essi si avvicineranno indefinitivamente alla circonferenza, ma non si
identificheranno mai con essa.
Da queste considerazioni scaturisce il concetto della Docta ignorantia, che è il
titolo di una delle sue opere maggiori, come ignoranza consapevole, che lascia
intravedere un contenuto più profondo di quello offerto dalla conoscenza positiva. La
conoscenza non è mai certa, ma solo ipotetica. Lo spirito procede dal semplice fatto alle
ragioni, ma poiché queste sono infinitamente lontane si ha un moto progressivo, una
ricerca altrettanto infinita che è l’essenza della spiritualità. Cusano non si stanca di
ripetere in varie forme questo suo concetto nuovo, oggi acquisito ad ogni teoria del
conoscere: “ … il santo non sapere è il più ambito nutrimento del mio spirito … “. Ma
per questo l’intelletto deve discendere “nelle specie sensibili … e tanto più
profondamente penetra in esse, tanto più le specie vengono assorbite nella sua luce,
perché l’alterità intelligibile si risolva e si acquieti nell’unità dell’intelletto”. La ricerca
empirica e la scienza sono così avvalorate come atti essenziali della vita dello spirito.
Questo riconoscimento dell’ignoranza, questo sapere di non sapere, collega Cusano
direttamente alla sapienza antica di Pitagora e Socrate.
Il principio della dotta ignoranza conduce Cusano ad una nuova concezione del
mondo fisico, la quale da un lato si ricollega alle ricerche di Ockham, dall’altro prelude
direttamente alla nuova scienza di Copernico, Galilei e Keplero. In primo luogo il
riconoscimento del limite proprio della realtà e del valore del mondo porta Cusano a
negare che una parte di esso, quella celeste, possegga una perfezione assoluta e sia
quindi ingenerabile e incorruttibile. La dottrina di Aristotele, che la filosofia e scienza
medievale aveva fatta propria, di una separazione tra la sostanza celeste o etere, dotata
di movimento circolare perfetto, e la sostanza elementare dei corpi sublunari soggetti
alla nascita e alla morte, dottrina già messa in dubbio da Ockham, viene
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;46!

definitivamente distrutta da Cusano. Egli infatti non può riconoscere a nessuna parte
del mondo il privilegio della perfezione assoluta: tutte le parti del mondo hanno lo
stesso valore e tutte si avvicinano più o meno alla perfezione, ma nessuna la raggiunge
perché essa è propria e soltanto di Dio.
Come Ockham stesso, rifiuta la assolutezza delle determinazioni spaziali, e
l'esistenza di un centro dell'universo, giungendo anch'egli ad affermare l'infinità. Anche
qui siamo alla coincidenza degli opposti come relatività dello spazio. La Terra non è
dunque al centro dell’universo, perciò non può essere priva di movimento. Il nostro
pianeta si muove, come altri corpi “anche se noi non ce ne avvediamo, perché il moto
[che è relativo] non può essere avvertito altro che mediante il confronto con altri
corpi”. Il movimento che la anima è circolare sebbene non sia, perfettamente circolare,
nel senso tende alla circolarità, giacchè la circolarità perfetta non è presente nelle cose
create. La Terra non è sferica sebbene tenda alla sfericità, per le stesse ragioni addotte
per il suo movimento. Ma questo non implica che essa non sia una nobile stella, che ha
luce, calore, influenza diversa da quella delle altre stelle. La generazione e la corruzione
che si verificano sulla Terra, si verificano probabilmente anche negli altri astri, che,
forse, sono abitati da esseri intellettuali di una specie diversa dalla nostra. Il Sole non è
diverso dalla Terra da un punto di vista fisico. Secondo Cusano, se un uomo si trovasse
al di fuori della Terra, la vedrebbe risplendere come il Sole. I movimenti che si
verificano sulla Terra, come in ogni altra parte dell’universo, hanno lo scopo di
salvaguardare e garantire l’ordine e l’unità del tutto. In vista di questo scopo, i corpi
pesanti tendono alla terra, i corpi leggeri verso l’alto, la terra tende alla terra, l’acqua
all’acqua, l’aria all’aria, il fuoco al fuoco, il movimento del tutto tende per quanto è
possibile al movimento circolare. Qui è forse la prima formulazione del principio di
gravità
Sempre pronto ad afferrare promettenti novità scientifiche, Cusano accoglie, e
cerca di sviluppare, la teoria dell'impeto che i filosofi della scuola occamistica, come
Buridano, avevano formulato per spiegare il movimento dei cieli e quello dei proiettili,
negando il principio aristotelico che il motore deve accompagnare il mobile nella sua
traiettoria, e riconoscendo così quella legge d’inerzia, esplicitata in maniera rigorosa e
formale da Galilei più tardi, che è uno dei fondamenti della meccanica moderna.
La concezione del mondo usciva completamente rinnovata dall’opera di Cusano,
e molte delle sue idee furono riprese da Leonardo per fondare la meccanica.

Così, mentre l’organicismo aristotelico non permette una visione articolata del
divenire della natura che possa risolversi in concrete ricerche e spiegazioni
sperimentali, il platonismo e il naturalismo che lo continua non riescono a immaginare
un vero e proprio sistema della natura concepito come reticolato di cause fisiche. In
queste due correnti la ricerca si frammenta in un fecondissimo caos di ricerche, ipotesi,
invenzioni, ma anche pregiudizi scientifici, ma che sarà ricca di spunti per la
rivoluzione scientifica che sta per venire.
;47! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

!"#$%&'&() !

Il processo di una scoperta scientifica


è un continuo conflitto di meraviglie.

Einstein

"(#,!.%"/1!%&-#0*!-&)!2!*(##

6.1 Introduzione

Il risultato ultimo del naturalismo del Rinascimento è la scienza. In essa


confluiscono: le ricerche naturalistiche degli ultimi scolastici, come Ockham, che
avevano rivolto il loro interesse alla natura distogliendolo dal mondo soprannaturale
ritenuto ormai inaccessibile alla ricerca umana; l’aristotelismo rinascimentale che aveva
elaborato il concetto dell’ordine necessario della natura; il platonismo antico e nuovo
che aveva insistito sulla struttura matematica della natura; la magia che aveva messo in
luce e diffuso le tecniche operative dirette a subordinare la natura all’uomo; infine, la
dottrina di Telesio che aveva affermato l’autonomia della natura, l’esigenza di spiegare
la natura con la natura.
Da un lato, tutti questi elementi sono integrati dalla scienza mediante la
riduzione della natura a pura oggettività misurabile: a un complesso di forme o cose
costituite essenzialmente da determinazioni quantitative e soggette quindi a leggi
matematiche. Dall’altro lato, gli stessi elementi sono purificati dalle connessioni
metafisico-teologiche che li caratterizzavano nelle dottrine cui originariamente
appartenevano. Così la scienza elimina i presupposti teologici cui rimanevano ancorate
le indagini degli ultimi scolastici; elimina i presupposti metafisici dell’aristotelismo e
del platonismo ed infine elimina il presupposto animistico su cui si fondavano la magia
e la filosofia di Telesio. In questa direzione, e con queste premesse, la scienza era pronta
a fare il grande balzo. I tempi erano maturi per la Rivoluzione Scientifica.

6.2 Leonardo da Vinci: precursore della scienza moderna

In Leonardo da Vinci (1452-1519) troviamo una prima, seppur


approssimativa, intuizione del concetto moderno di scienza. Nella sua
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;48!

indagine scientifica utilizza molto materiale che gli proviene dal medioevo, come i testi
di Buridano o di Alberto di Sassonia, ma a differenza dei pensatori medievali,
Leonardo, uomo del rinascimento, non muove più dal generico empirismo, bensì da un
deciso orientamento sperimentalistico, per il quale la “sperienzia” è divenuta ricerca
attiva ed operativa, un progettare e lavorare con macchine e strumenti per produrre gli
effetti previsti e correggere le previsioni mediante gli effetti realmente conseguiti.
Secondo la sua concezione, la scienza si basa su due pilastri essenziali ed ineliminabili:
l’esperienza e la ragione. “Sapienzia è discepola della sperienzia” e “intendi ragione e
non ti bisogna sperienzia”.
Lo studio della natura muove dalle esperienze alle loro ragioni, cercando di
cogliere nelle ragioni il dinamismo motore e creatore della natura. Considerazioni e
valutazioni che sono già le premesse delle moderne dottrine metodologiche nel campo
scientifico. Per Leonardo la matematica è il fondamento di ogni certezza, per cui fa suo
l’autentico spirito di Platone: “Non mi legga, chi non è matematico, nelli mia principi”.
E quindi l’esperienza ed il calcolo matematico rivelano la natura nella sua oggettività,
cioè nella semplicità e nella necessità delle sue operazioni. La natura si identifica con la
stessa necessità del suo ordinamento matematico: “La necessità è tema e inventrice
della natura, è freno e regola eterna”. In queste parole è riconosciuta chiaramente
l’essenza ultima dell’oggettività della natura: quella necessità che ne determina l’ordine
misurabile e si esprime nel rapporto causale tra i fenomeni. Proprio questa necessità
esclude ogni forza metafisica o magica, ogni interpretazione che prescinda
dall’esperienza e che voglia sottoporre la natura a principi che le sono estranei. Questa
necessità infine si identifica con la necessità propria del ragionamento matematico, che
esprime i rapporti di misura costituenti le leggi. Intendere la “ragione” della natura
significa intendere quella proporzione che non si trova solo nei numeri e nelle misure,
ma anche nei suoni, nei pesi, nei tempi, negli spazi e in qualunque potenza naturale. Fu
appunto l’identificazione della natura con la necessità matematica che condusse
Leonardo a fondare la meccanica e a metterne in luce i principi: “O mirabile e stupenda
necessità, tu costringi con la tua legge tutti li effetti, per brevissima via, a partecipare
delle lor cause e con somma e irrevocabile legge ogni azione naturale con la brevissima
operazione a te obbedisce”.
Leonardo ha un concetto dell’esperienza già molto vicino a quello di Galileo,
però delle ragioni ha idee ancora vaghe e confuse, per non dire approssimative, avvolte
nelle nebbie del platonismo. Ragione ora significa ratio, ossia rapporto matematico che
sottende gli aspetti sperimentalmente misurabili dei fenomeni; ora invece significa un
modello e paradigma ideale, che regge la natura dal di fuori come un “timone”; ora
forse una qualità occulta (poiché egli afferma esistere infinite ragioni che “non furono
mai in sperienzia”); ora un’anima o spirito, o una causa finale antropomorficamente
concepita. Inutile dire poi che non si trova nessuna intuizione del modo come si
possano metodicamente connettere e intercambiare “esperienze” e “ragioni”, per cui
bisogna aspettare Galileo. Una cosa è certa, Leonardo arriva più vicino al pensiero
scientifico moderno di quanto vi si avvicinarono grandi naturalisti del tardo
Rinascimento come Telesio e Bruno.
Leonardo è considerato il più grande inventore che la storia ricordi, e a lui si
devono invenzioni in tutti i campi della tecnica, dall’idraulica, alla meccanica, all’ottica,
alla pneumatica, all’acustica. Ma quali sono le idee di Leonardo nel campo della fisica
teorica? In idrostatica conobbe il principio dei vasi comunicanti con liquidi di diversa
densità e il principio fondamentale d’idrostatica, detto oggi principio di Pascal. A
;49! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Leonardo dobbiamo la teoria del moto ondoso del mare, anzi considera il moto
ondulatorio il più diffuso moto naturale, per cui questo rappresenta il più universale
concetto fisico che abbia elaborato. Per Leonardo luce, suono, colore, magnetismo,
odore e persino il pensiero si propagano per onde: “il moto è causa d’ogni vita”.
Attraverso lo studio del volo umano, la sua più superba scoperta, Leonardo
riconosce che la compressione dell’aria sotto le ali produce la forza che noi oggi
chiamiamo sostentatrice, studia la resistenza dell’aria e l’importanza dinamica del
centro di gravità; ed è questo consapevole metodo d’indagine scientifica il massimo
merito di Leonardo. Gli studi di meccanica conducono Leonardo a occuparsi dei centri
di gravità di figure piane e solide, trovando così il centro di gravità di un tetraedro, e
quindi di una qualunque piramide. Anzi, a questa scoperta aggiunge un elegante
teorema: le congiungenti i vertici di un tetraedro con i centri di gravità delle facce
opposte passano per uno stesso punto, centro di gravità del tetraedro, che divide ogni
congiungente in due parti di cui quella verso il vertice è tripla dell’altra. È questo il
primo risultato che la scienza moderna aggiunge alle ricerche baricentriche di
Archimede.
Leonardo apprese la scienza meccanica da varie fonti, Aristotele, Archimede,
Erone, ed era a conoscenza delle teorie cinematiche e dinamiche della scuola di Oxford
e Parigi; ma andò oltre ampliando il concetto di momento di una forza rispetto a un
punto, scoprendo in due casi particolari il teorema di composizione dei momenti e
applicandolo alla risoluzione di problemi di composizione e scomposizione delle forze.
Dal cosiddetto “precursore di Leonardo” impara le condizioni di equilibrio di un copro
appoggiato su un piano inclinato, ma li supera scoprendo il teorema: un copro
appoggiato su un piano orizzontale è in equilibrio se il piede della verticale condotta
per il suo baricentro è interno alla base di appoggio. Infine, è il primo a studiare
l’influenza dell’attrito sulle condizioni di equilibrio.
Più discutibili sono i contributi di Leonardo alla dinamica, ed è poco convincente
la tesi secondo cui abbia intravisto il principio d’inerzia nel seguente pensiero: “Ogni
moto attende al suo mantenimento, overo ogni corpo mosso sempre si move in mentre
che la impressione de la potentia del suo motore in lui si riserva”. Infatti, le prime due
frasi, se fossero in sé compiute, esprimerebbero il principio d’inerzia, ma l’ultima frase,
che è parte integrante del pensiero, riduce fortemente la generalità delle affermazioni
precedenti e sembra ricondurre il pensiero di Leonardo alla teoria dell’impeto di
Buridano.
Sostanzialmente la dinamica leonardesca è aristotelica, sia pure completata dalla
teoria dell’impeto: in particolare aristotelica è la relazione tra forza e moto e la
conseguente proporzionalità tra peso e velocità di caduta dei corpi. Non ci sono dubbi,
invece, sul fatto che Leonardo intuì il principio di azione e reazione in alcuni casi
particolari, senza assurgere alla generalità di enunciazione che avverrà solo con
Newton. Ne fanno fede alcune citazioni dal Codice atlantico: “Tanta forza si fa colla cosa
in contro all’aria, quanto l’aria contro alla cosa”; “Tanto fa il moto dell’aria contro alla
cosa ferma, quanto il moto del mobile contro all’aria immobile”. L’ultimo pensiero
dimostra che Leonardo intuì anche la relatività del moto.
Leonardo, che aveva lunga pratica della bilancia, scoprì non solo il peso dell’aria,
ma anche la variazione di pressione atmosferica. Interessandosi di ottica, dette la prima
descrizione ricca di particolari della camera oscura e osservò il rovesciamento delle
immagini, concludendo: “E così fa dentro la popilla”. Inoltre, scoprì il fenomeno di
persistenza delle immagini e osservò che ciascuno dei due occhi vede un’immagine
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;4:!

diversa dei corpi rilevati; tentò d’interpretare, con un’accurata osservazione


sperimentale, l’azzurro del cielo.
Dall’ottica è facile passare all’acustica, perché non mancano le analogie tra i due
ordini di fenomeni. E le osservazioni di Leonardo sull’acustica sono molteplici: conosce
la legge di riflessione del suono e il conseguente fenomeno dell’eco; sa che il suono si
propaga in tempo e vorrebbe sfruttare la circostanza per calcolare la distanza alla quale
avviene un tuono; fa esperimenti sui fenomeni di risonanza. Riconosce che le onde
acquee prodotte dalla caduta di un sasso sono trasversali, così come lo sono, per
analogia, anche le onde sonore e luminose.
La ricerca di Leonardo, che è straordinariamente ricca di intuizioni e di geniali
vedute, non oltrepassa mai il piano degli esperimenti curiosi per giungere a quella
sistematicità che è una delle caratteristiche fondamentali della scienza moderna. La sua
indagine, sempre oscillante fra l’esperimento e l’annotazione, appare frantumata e
polverizzata in una serie di brevi note, di osservazioni sparse, di appunti scritti per sé
medesimo in una simbologia spesso oscura e volutamente non trasmissibile. Sempre
incuriosito da un problema particolare, Leonardo non ha alcun interesse a lavorare a un
corpus sistematico di conoscenze e non ha la preoccupazione, che è anch'essa una
dimensione fondamentale di ciò che chiamiamo scienza, di trasmettere, spiegare e
provare agli altri le proprie scoperte. E tuttavia non va dimenticato che si ritrovano di
continuo nei frammenti di Leonardo, affermazioni che torneranno a circolare con forza,
in contesti diversi, entro la cultura moderna: l'idea di un necessario congiungimento fra
la matematica e l'esperienza; la polemica fermissima contro le vane pretese
dell'alchimia; l'invettiva contro “i recitatori e i trombetti delle altrui opere”; la protesta
contro il richiamo alle autorità che è propria di chi usa la memoria invece che l'ingegno;
l'immagine di una natura che è una catena mirabile e inesorabile di cause.
L’influenza di Leonardo sull’ulteriore sviluppo della scienza si ritrova in tre
grandi scienziati del Cinquecento: Nicolò Tartaglia, Girolamo Cardano, Giovan Battista
Benedetti.
Noto soprattutto come grande matematico, Nicolò Tartaglia (ca. 1499–1557)
esordisce con un’opera, La nova scientia, nella quale tratta il moto dei proiettili, ed è
contenuta l’importante scoperta: la gittata massima di un proiettile d’artiglieria si ha
quando l’arma è inclinata di 45° sull’orizzonte. Praticamente aristotelica è la traiettoria
dei proiettili, ma Tartaglia avverte che nessuna parte di essa nei moti non verticali può
essere rettilinea, in senso geometrico: “per causa della gravità che si ritrova in quel tal
corpo, la quale continuamente lo va stimolando, e tirando verso il centro del mondo”.
Nell’opera Quesiti et invenzioni diverse viene ampliata la dinamica trattata nella
sua prima opera. Tartaglia dà la definizione esatta di peso accidentale, ossia, nella
discesa per piani inclinati, la componente del peso del corpo nella direzione del piano
inclinato, è proporzionale al peso del corpo per la proiezione sulla verticale della
lunghezza del piano inclinato o di una sua parte unitaria.
Più importante ancora è il contributo che egli reca alla costituzione del principio
di relatività, così importante nella discussione dei massimi sistemi astronomici.
Quantunque tale principio fosse ancora da stabilire, egli vi reca già una prima pietra,
osservando che la forza di gravità agisce fin dall'inizio della traiettoria, su di un
proiettile lanciato orizzontalmente, determinando un moto di caduta, minimo nei primi
istanti, che si compone con la rapida corsa orizzontale, incurvandola. Appunto perché
minimo esso era rimasto inavvertito da Aristotele, e dai suoi seguaci, i quali
;5<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

sostenevano, per contro, che la rapida corsa del proiettile impedisce alla gravità di
agire, la annulla, per così dire. Da Aristotele in poi nessuno aveva osato mettere in
discussione il principio, secondo cui un proiettile lanciato orizzontalmente con grande
velocità non risente l'azione della gravità, finché la velocità dura, giacché la stessa
violenza del moto gli impedisce di cadere. Solo quando il moto si “illanguidisce” il
corpo cade per azione del proprio peso, e ciò appare conforme ai risultati di una
esperienza (superficiale) la quale dimostra che la traiettoria è sensibilmente curva solo
verso la parte finale. Il fatto che “l'azione di una forza è indipendente dallo stato di
quiete o di moto del corpo su cui la forza agisce” fa parte oggi del cosiddetto secondo
principio fondamentale della dinamica, ma si riscontra già, anche se in forma non così
generale, nel Tartaglia. Come dimostra una facile riflessione questo principio si connette
anch’esso al principio di relatività, e, per conseguenza, all’idea del moto della Terra. Da
ciò l’importanza di questo contributo del Tartaglia.

Anche Girolamo Cardano (1501–1576), grande rivale di Tartaglia, si occupò


dell’equilibrio sul piano inclinato nell’Opus novum de proportionibus, giungendo alla
conclusione che il peso accidentale è proporzionale all’angolo d’inclinazione del piano
inclinato sul quale il corpo si appoggia, invece che al seno dell’angolo, come aveva
dimostrato Tartaglia.
Cardano ebbe mente universale alla quale nessun ramo dello scibile fu precluso.
Tra tante opere scritte, oltre a quella sopra menzionata, alla fisica interessa il De rerum
varietate, che costituisce la più ampia enciclopedia delle scienze fisiche e naturali del
Cinquecento. Fra i tanti argomenti trattati, trova posto e sviluppo anche la dinamica,
che oscilla tra quella aristotelica e la medievale dell’impeto. Cardano ritiene il proiettile
messo in moto da una virtù del proicente, che vi rimane impressa come il calore
nell’acqua, ma l’agitazione dell’aria, di effetto modesto al principio del moto, lo accelera
quando il proiettile ha raggiunto una certa velocità. La traiettoria del proiettile è
aristotelica, ma la parte centrale non è un arco di cerchio, come avevano creduto
Leonardo e Tartaglia, ma una linea.
Cardano effettua anche interessanti studi sul moto dei pendoli, giungendo alle
seguenti osservazioni: i pendoli risalgono alla stessa altezza da cui sono scesi nelle
successive oscillazioni; un pendolo più lungo si muove più lentamente di un pendolo
più corto, perché, a parità di lunghezza dell’arco percorso, si solleva verticalmente di
meno. Importanti sono i contributi all’idrodinamica, e contro la credenza del tempo,
Cardano osserva che in un condotto d’acqua fluente l’acqua non risale all’altezza da cui
è scesa, ma a un’altezza minore, e tanto minore quanto più lungo è il condotto; osserva
pure che non tutti gli strati d’acqua di un fiume hanno eguale velocità, ma sono più
veloci gli strati superficiali.
Giovan Battista Benedetti (1530–1590) ebbe come precettore Tartaglia che gli
inculcò l’amore per la scienza. La più importante scoperta di Benedetti è una
dimostrazione volta a provare, contro Aristotele, che: “due corpi della medesima forma
e della stessa specie tra loro eguali o diseguali, per eguale spazio, nello stesso mezzo, si
muovono in egual tempo”. Va osservato, tuttavia, che la conclusione è valida per corpi
della “stessa specie”, non per corpi qualunque, e si ha l’impressione che, a suo parere, i
corpi, a parità di condizioni, cadano nello stesso mezzo con velocità proporzionali alle
loro densità. Il ragionamento che portò Benedetti a dimostrare il suo teorema fu accolto
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;5;!

da Cardano e successivamente fu fatto proprio da Galileo che tolse la restrizione


dell’eguaglianza di materia.
Benedetti può essere anche considerato come il più autorevole predecessore di
Galileo nella scoperta del principio d’inerzia, visto che vi accenna più volte nel suo
capolavoro Diversarum speculationum mathematicarum et physicarum liber, dove trattando
dei moti rotatori, dice: “qualunque corpo grave, mosso secondo natura o per violenza,
naturalmente tende alla rettilineità del cammino”. L’affinamento di questo concetto lo
conduce a spiegare l’accelerazione del moto di un corpo sotto la continua azione di una
forza costante, sicché nei gravi cadenti il progressivo aumento di velocità è dovuto
all’accumularsi degli effetti prodotti dalla stessa causa del moto, e non già al
progressivo aumento di peso, come diceva Aristotele. Gli stessi concetti li applica al
moto rotatorio, riconoscendo che la tendenza delle parti di un corpo rotante ad
allontanarsi dall’asse di rotazione non è un carattere intrinseco di questi moti, come
s’era ritenuto fin dall’antichità greca, ma una conseguenza della propensione di ogni
corpo mosso di proseguire il moto in direzione rettilinea.
Un problema, menzionato negli scritti di Leonardo, era divenuto argomento di
disputa negli ambienti umanistici del Rinascimento: cosa succede a un grave lasciato
cadere e che raggiunge il centro della Terra? Secondo i peripatetici il grave si
fermerebbe di colpo, mentre secondo Cardano e Tartaglia ciò era ritenuto assurdo.
Benedetti sciolse il problema nel seguente modo: in analogia con il moto pendolare, il
grave si sarebbe mosso di moto oscillatorio smorzato e dopo molte oscillazioni si
sarebbe fermato nel centro.
Tutti gli altri contributi di Benedetti alla fisica si trovano nel già citato suo
capolavoro, di carattere antiaristotelico (basterebbe a provarlo la piena adesione al
sistema eliocentrico: “secondo la bellissima opinione di Aristarco da Samo,
egregiamente espressa da Nicola Copernico, contro la quale proprio a nulla valgono le
ragioni esposte da Aristotele e neppure quelle di Tolomeo”) come lo studio
dell’equilibrio di un liquido in due tubi verticali comunicanti, di sezione diversa e
nell’enunciato del paradosso idrostatico: la pressione dipende solo dalla profondità alla
quale essa viene misurata e non dalla forma del recipiente che contiene il fluido,
sfiorando l’invenzione del torchio idraulico.

Il paradosso idrostatico fu enunciato, forse in maniera


indipendente da Benedetti ma in modo più chiaro ed esplicito,
anche da Stevino (1548–1620), uno dei più originali scienziati
della seconda metà del Cinquecento. Il più grande titolo di
merito di Stevin in fisica è l’originale dimostrazione della legge
di equilibrio di un corpo appoggiato su un piano inclinato,
fondato sul postulato dell'impossibilità del moto perpetuo. Si
abbia un triangolo ABC il cui lato BC sia disposto orizzontalmente. Una specie di
catena, che appoggiata su di esso lo avvolge come in figura, dovrà certamente rimanere
in equilibrio, altrimenti si avrebbe un moto perpetuo. Supponiamo ora che venga
tagliata la parte BC che pende soltanto. Le rimanenti parti della catena AB ed AC non
risentiranno alcuna influenza per effetto del taglio, e rimarranno ugualmente in
equilibrio. Come la figura mostra chiaramente, ciò significa che, ad esempio, un peso
doppio fa equilibrio ad un dato peso, quando è doppia la lunghezza AB del piano
inclinato su cui esso agisce (purché i piani inclinati abbiano la stessa altezza AH). In
altre parole: la forza agente su un grave appoggiato su di un piano inclinato è
;5=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

inversamente proporzionale alla lunghezza del piano stesso. Da ciò, e attraverso


considerazioni matematiche, si deduce pure il principio di decomposizione di una forza
in due componenti normali tra loro.

6.3 La Rivoluzione Scientifica: una moderna visione del mondo

La scienza moderna, come la grande fioritura umanistico-rinascimentale del XV e


XVI secolo, non nasce nel vuoto come abbiamo già visto, ma in un preciso contesto
storico, caratterizzato dai mutamenti di struttura dell'economia europea e dal nuovo
tipo di società venutosi a delineare all'inizio dell’età moderna. Infatti, la formazione di
stati cittadini e nazionali, parallelamente al consolidarsi della civiltà urbano-borghese,
produce un sistema di vita più complesso e dinamico, che provoca una serie
concomitante di esigenze e di bisogni sociali. In particolare, l'imponente struttura
organizzativa delle monarchie europee e lo spirito imprenditoriale e affaristico dei ceti
mercantili si traduce in maggiori richieste tecniche.
Allestire eserciti sempre più potenti e fornirli di un adeguato armamento,
ampliare le città con costruzioni e con capolavori architettonici, migliorare le vie di
comunicazione, solcare gli oceani con navi sempre piu resistenti e veloci, arginare,
incanalare e bonificare le acque, estrarre metalli, lavorare i vetri e le stoffe, stampare
libri, ecc., presuppongono ad una sequela di cognizioni di balistica, metallurgia,
architettura, carpenteria, cartografia, arte mineraria, idraulica, tipografia, ecc. . A loro
volta, queste ultime implicano più approfondite conoscenze di matematica, fisica,
astronomia, geografia, ecc., ossia più nozioni scientifiche. La saldatura fra scienza e
società moderna passa dunque, sin dall'inizio, attraverso i nuovi bisogni, concretizzati
nelle nuove esigenze tecniche, che fungono da stimolo per la creazione di un sapere
oggettivo capace di permettere all'uomo un efficace orientamento nel mondo.
Se l’affermarsi della civiltà urbano-borghese e lo sviluppo della tecnica,
rappresentano la molla storico-sociale della Rivoluzione Scientifica, la cultura
rinascimentale rappresenta il terreno storico-ideale in cui è germogliata la scienza
moderna.
In primo luogo il Rinascimento, con la laicizzazione del sapere e la
rivendicazione della libertà della ricerca intellettuale, ha tracciato la strada maestra
della scienza. In secondo luogo, il Rinascimento, attraverso il recupero della sapienza
antica e delle relative traduzioni di opere scientifiche, ha riscoperto dottrine e figure che
erano state trascurate per secoli, come la dottrina atomistica e Democrito, le teorie
eliocentriche dei Pitagorici, gli studi di Archimede, che saranno fecondi di idee per la
nascita e lo sviluppo della moderna fisica. In terzo luogo, il Rinascimento, in virtù del
suo naturalismo imperniato sulla rivalutazione della natura e sulla convinzione che
l’uomo ha tutto l’interesse a conoscerla, ha posto le condizioni mentali di fondo per uno
sviluppo più vasto dell’indagine naturale. In questo contesto, l’aristotelismo
rinascimentale ha il merito di aver difeso i diritti della ragione indagatrice e di aver
elaborato quel concetto di un ordine naturale e immutabile, fondato sulla catena causale
degli eventi, che rappresenta uno dei presupposti chiave, anche se molto incompleti,
della scienza moderna. Infine, il Rinascimento, rinverdendo il platonismo e il
pitagorismo ha offerto alla scienza la convinzione che la natura è scritta in termini
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;54!

geometrici, per cui l’unico linguaggio atto ad esprimerla è quello rigoroso della
matematica.
Con il termine Rivoluzione scientifica intendiamo alludere a quella profonda
trasformazione concettuale che si verificò in Occidente nel Seicento, in relazione al
modo di studiare la natura e di intendere la funzione della scienza. Tale Rivoluzione,
pur preceduta durante il Rinascimento da significative innovazioni nel campo della
tecnica e da una mutata prospettiva di pensiero, tuttavia si realizzò pienamente nel
Seicento, in particolare tra il 1543, anno di pubblicazione del capolavoro copernicano De
revolutionibus, e il 1687, anno in cui Newton pubblicò i Principia mathematica. Nel
Seicento, inoltre, operarono i cosiddetti padri fondatori della scienza moderna: Keplero,
Galileo, Bacone, Cartesio, Newton. Nel Seicento si sono poste le basi per lo sviluppo
non solo di alcune scienze particolari come la fisica e l’astronomia, ma anche della
nuova immagine del mondo e della funzione sociale della scienza. Essa, infatti, prima
mise in crisi e, poi, fece crollare definitivamente quel grandioso edificio di teorie che per
due millenni, a partire da Aristotele, aveva assicurato all’uomo dei solidi punti di
riferimento, fissi e immodificabili. Proprio la radicale messa in discussione delle
conoscenze tradizionali, della mentalità ad esse sottesa e la lenta sostituzione con un
nuovo modello conoscitivo, sperimentale e rigoroso allo stesso tempo, rappresenta il
cardine attorno cui ruota la Rivoluzione scientifica.
Il teatro privilegiato in cui la Rivoluzione scientifica mosse i primi significativi
passi, prima di passare a Londra e a Parigi, fu Padova, nella cui università, di
ispirazione aristotelica, insegnarono sia Copernico che Galileo.
Prima di analizzare nel dettaglio gli aspetti salienti della Rivoluzione scientifica,
dobbiamo delineare lo schema concettuale che sta alla sua base e chiarire la funzione
che essa ha svolto nella storia della cultura e della civiltà. Dalla Rivoluzione scientifica
in generale emergono i seguenti punti, che sono in rapporto soprattutto con il nuovo
modo di intendere la natura e il suo studio:
1. la concezione della natura come ordine oggettivo e casualmente strutturato di
relazioni governate da leggi, svincolata del tutto da ipoteche di carattere
metafisico:
a) La natura è un ordine oggettivo, poiché essa, scientificamente parlando, costituisce
un oggetto i cui caratteri non hanno niente a che fare con la dimensione
spirituale, e quindi con i fini, i bisogni e i desideri dell'uomo. L'universo della
scienza si configura come un ordine programmaticamente spogliato di ogni
attributo, valore o qualità umana; infatti, solo spersonalizzando la natura, e
quindi espellendo l'uomo dalla fisica, risulta possibile studiare scientificamente
la realtà effettiva del mondo circostante.
b) La natura è un ordine casuale, poiché in essa nulla avviene a caso, ma tutto è il
risultato di cause ben precise, intendendo per causalità, secondo le precisazioni
di Galileo, un rapporto costante e univoco fra due (o più) fatti, dei quali dato
l'uno (o gli uni) è dato anche l'altro (o gli altri) e tolto l'uno (o gli uni) è tolto
anche l'altro (o gli altri). Tuttavia, delle quattro cause riconosciute da Aristotele
(formale, materiale, efficiente, finale), l'unica scientificamente ammessa è quella
efficiente. Infatti alla scienza non interessa (o non è dato conoscere) il perché
finale o lo scopo dei fatti, ma solo la loro causa efficiente ossia le forze che li
producono.
;55! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

c) La natura è un insieme di relazioni e non un sistema di essenze, poiché lo sguardo


del ricercatore non è fisso sui principi sostanziali occulti e inverificabili che
stanno al fondo della realtà, ma sulle relazioni causali riconoscibili che legano i
fatti. Ad esempio, allo scienziato non importa mettere in luce la sostanza di un
fatto come il fulmine, ma solo di chiarire i rapporti di causa ed effetto che lo
congiungono con altri fatti (le scariche elettriche, il tuono, ecc.).
d) I fatti sono governati da leggi poiché essendo causalmente legati fra loro
obbediscono a delle regole uniformi, che rappresentano i modi necessari o i
principi invarianti attraverso cui la natura opera. Di conseguenza, dal punto di
vista scientifico, la Natura finisce per essere nient'altro che l'insieme delle leggi
che regolano i fenomeni e li rendono prevedibili.
2. La concezione della scienza come sapere sperimentale-matematico e
intersoggettivamente valido, avente come scopo la conoscenza progressiva del
mondo circostante attraverso l’osservazione sistematica dei fenomeni e il controllo
dei suoi risultati e il suo dominio a vantaggio dell’uomo, sganciata definitivamente
dall’autorità degli antichi:
a) La scienza è un sapere sperimentale poiché si fonda sull'osservazione dei fatti e
perchè le sue ipotesi vengono giustificate su base empirica e non puramente
razionale. Tuttavia l'esperienza di cui parla la scienza, come vedremo più
analiticamente in Galileo, non è una semplice e immediata registrazione di fatti,
subito inquadrata in una teoria generale, bensì una costruzione complessa, su
base matematica, che mette capo all’esperimento, cioè ad una procedura
appositamente costruita per la verifica delle ipotesi.
b) La scienza è un sapere matematico che si fonda sul calcolo e sulla misura, poiché la
fisica, nello sforzo di darsi una veste rigorosa, procede ad una matematizzazione
dei propri dati, racchiudendoli in formule precise. Pertanto, la "quantificazione"
si configura come una delle condizioni imprescindibili dello studio della natura
e come uno dei punti di forza del nuovo metodo inaugurato da Galileo, che alla
deduzione matematica, come si vedrà, assegna un ruolo basilare nella stessa
scoperta scientifica.
c) La scienza e' un sapere intersoggettivo, poiché i suoi procedimenti vogliono essere
pubblici, cioè accessibili a tutti, e le sue scoperte pretendono di essere valide,
ossia controllabili, in linea di principio, da ognuno. In tal modo, la scienza
moderna si stacca nettamente dalla magia e dalle discipline occulte, che,
presupponendo una concezione "sacerdotale" o "iniziatica" del sapere, considera
la conoscenza come patrimonio di una cerchia ristretta di individui, che
lavorano in segreto senza esibire alla luce del sole i metodi delle loro ricerche.
Da ciò l'equazione scienza=sapere universale, che da Galileo in poi ha costituito
uno dei suoi principali motivi di vanto.
d) Il fine della scienza è la conoscenza oggettiva del mondo e delle sue leggi, in quanto più
riesce ad essere "neutrale" e "disinteressata", ossia libera da schemi
antropomorfici e sganciata da preoccupazioni estranee, e quindi capace di
scoprire le relazioni autentiche tra i fenomeni, tanto più la scienza va incontro a
quel fondamentale interesse umano che è dominio dell'ambiente circostante.
Infatti, conoscere le leggi della natura vuol dire, nel contempo, poterla
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;56!

controllare e dirigere a nostro vantaggio. Di conseguenza il baconiano “sapere è


potere” esprime tutta l'umanità della scienza, cioè il suo evidente collegamento
con il soggetto concreto che la istituisce.

Nel corso del Seicento, come abbiamo rilevato, furono messe in discussione
alcune delle idee su cui si era retta la scienza antica e che per millenni erano state alla
base delle credenze degli uomini. L'epicentro della crisi si localizzò nel campo
dell'astronomia. Copernico, Keplero, Galileo e Newton attaccarono il principio secondo
cui la Terra era immobile al centro dell'universo, ipotesi che faceva da sfondo, ad
esempio, all'immagine dell'universo di Dante nella Divina Commedia, immagine
dell'universo che aveva mutuato dalle dottrine dell'astronomo Tolomeo che agli inizi
dell'era cristiana aveva sistematizzato, seguendo la fisica di Aristotele, le conoscenze
circa la struttura dell'universo. Il suo sistema, definito geocentrico perché poneva la
Terra al centro dell'universo, presentava un indubbio fascino sia teorico che estetico: in
esso, tutto rispondeva ad un ordine perfetto. La centralità della Terra assumeva, inoltre,
un significato metafisico, in quanto esprimeva la dignità e la grandezza dell'uomo. Tra
Cinquecento e Seicento, grazie alla nuova mentalità sperimentale e all'impiego di più
rigorosi calcoli matematici, si giunse a dover riconoscere che l'errore consisteva nel
modello stesso, incapace di spiegare i fenomeni astronomici.
Gli esiti del processo di demolizione del vecchio sistema geocentrico possono
così sintetizzarsi:
a) la Terra non viene più ad occupare la posizione centrale nell'universo, né risulta
essere immobile;
b) la distinzione aristotelica tra una fisica celeste, caratterizzata dal movimento
circolare dei corpi, ritenuto perfetto, e una terrestre (o sublunare), caratterizzata dai
movimenti imperfetti, viene abbandonata, in quanto priva di fondamento. Galileo
poteva puntare il suo cannocchiale al cielo senza il timore di violare la sacralità
delle sfere celesti, e poteva osservare, ad esempio, che la luna presentava una
superficie non liscia né uniforme né perfettamente sferica, ossia una natura proprio
come la Terra;
c) una volta abbandonata la teoria secondo la quale il mondo era racchiuso in un
orizzonte limitato dalle stelle fisse, l'universo veniva ad assumere i caratteri
dell'infinità, proprio come era apparso a Giordano Bruno.

L'abbattimento del sistema geocentrico ad opera dei massimi pensatori del


Seicento comportò non soltanto la scomparsa di un'ipotesi millenaria di fisica, ma anche
la crisi definitiva del vecchio impianto epistemologico. Si capisce, allora, il motivo per
cui il bersaglio polemico degli scienziati e filosofi che aderirono alla nuova scienza non
fosse tanto Tolomeo quanto Aristotele, come è bene espresso nel seguente passo di
Bacone tratto da La confutazione delle filosofie: “Se vorrete darmi ascolto, non solo
rifiuterete la dittatura di quest'uomo (Aristotele) ma anche quella di un qualunque
uomo presente e futuro; seguiamo gli uomini quando pensano rettamente cosi come
conviene a esseri chiaroveggenti e non in tutte le loro affermazioni
indiscriminatamente, come farebbero i ciechi ….. Liberate infine voi stessi; donatevi
alla realtà delle cose e non siate schiavi di un sol uomo”.
Nella vigorosa battaglia per l’affermazione del nuovo modo di concepire la
scienza, gli scienziati devono combattere anche contro il sapere magico, che aveva
trovato grande seguito nel Rinascimento, anche se, in qualche modo, la scienza nascente
;57! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

e la magia hanno in comune lo stesso desiderio di dominare la natura, pur utilizzando


strumenti diversi. La magia considera il mondo come un organismo vivente e senziente,
che il mago deve trasformare attraverso procedure miracolistiche tenute celate ai più. Al
contrario, la scienza non ammette segreti, si schiera contro l'idea della presenza di
qualità occulte nella natura e contro le procedure ritualistiche e iniziatiche, affermando
la possibilità di conoscere la natura per tutti gli uomini dotati di ragione. È questo il
senso della feroce polemica di Bacone contro i più noti rappresentanti della magia,
come Paracelso, che viene definito come un: “fanatico accoppiatore di fantasmi … che,
confondendo le cose divine con quelle naturali, il profano con il sacro, le eresie con le
favole, [ha] profanato sia la verità umana sia quella religiosa”.
Di qui l'insistenza da parte di Bacone e di Cartesio sul tema del “metodo”
necessario per additare agli uomini la via da percorrere per ricercare la verità nelle
scienze. Pertanto, i pilastri della nuova concezione della scienza possono essere così
riassunti:
1. tutti gli uomini possono naturalmente accedere alla verità della scienza, usando in
modo appropriato la propria ragione. Dunque, contro il sapere magico, gli artefici
della Rivoluzione scientifica, affermano che la conoscenza non è una prerogativa di
pochi eletti o illuminati, ma l’attributo fondamentale dell’umanità, ed in questa
direzione va interpretato lo sforzo di costruire un linguaggio universale, modellato
su quello della matematica;
2. i metodi e le procedure per accedere alla verità sono rigorosi, ma semplici, chiari ed
evidenti, a differenza dei procedimenti occulti dei maghi e delle complicate
argomentazioni degli aristotelici. Il linguaggio dello scienziato moderno è, in linea
di principio, comprensibile ad un pubblico più vasto di quello tradizionale dei
dotti, ed è per questo motivo che Galileo e Cartesio si serviranno della lingua
italiana e francese per quelle opere destinate, per il loro contenuto scientifico, anche
al vasto pubblico di lettori che non conosceva il latino;
3. si stabilisce una stretta connessione tra il sapere e il potere, al fine di sottrarre la
scienza e la tecnica al controllo dei maghi e riportarle alla loro essenziale funzione,
cioè quella di migliorare le condizioni di vita degli uomini.

Con l'affermarsi della nuova fisica, si fa strada nel Seicento una visione del
mondo che viene definita, con un termine desunto dalla lingua greca, “meccanicismo”
(in greco mechanè=macchina). Con l'espressione meccanicismo si indica, in primo luogo,
la dottrina che considera la natura come una macchina. Il modello di macchina ritenuto
più perfetto dagli scienziati del Seicento era l'orologio, che, per la sua meccanica di
movimento, rappresentava la metafora per descrivere e interpretare il mondo fisico.
Cartesio dice chiaramente che l’ universo fisico (compresi il corpo animale e quello
umano) può essere paragonato ad una grande macchina, priva di anima, governata
dalle leggi dei corpi (=estensione) che sono in movimento. Schematizzando al massimo,
possiamo affermare che la concezione meccanicistica della natura, diametralmente
opposta all’antica concezione finalistica di Aristotele, poggia sui seguenti presupposti:
a) la natura non è né un organismo vivente né l'immagine di Dio: essa è materia,
cioè estensione (res extensa). A tal proposito, Cartesio è estremamente chiaro: “Col
termine natura non intendo affatto qualche divinità o qualche tipo di potenza
immaginaria; ma mi servo di questa parola per indicare la materia stessa”;
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;58!

b) gli attributi fondamentali della materia sono l'estensione e il movimento. La


concezione della materia come estensione conferisce un carattere "geometrico"
alla fisica moderna. La materia ha le stesse caratteristiche dell'estensione: è
divisibile all'infinito e può assumere tutte le forme (figure) immaginabili. Le sue
particelle si muovono nello spazio, dando origine a corpi con differenti
configurazioni;
c) le leggi che governano il movimento della materia sono, pertanto, determinabili
con precisione matematica;
d) per spiegare la struttura dell'universo occorre costruire un "modello", costituito
solo da elementi quantitativi e interpretabile, dunque, attraverso la geometria;
e) il mondo fisico, essendo unicamente estensione e movimento, è costituito solo
dalle cosiddette qualità oggettive (la figura dei corpi, la loro grandezza, il luogo
da essi occupato, il loro movimento). Le altre qualità, come il colore, il calore,
l'odore, il sapore, ecc., sono semplicemente "soggettive", in quanto dipendono dal
soggetto senziente. Il movimento di un corpo esiste indipendentemente dal
soggetto che lo percepisce (qualità oggettiva dei corpi), mentre l'odore non esiste
senza il soggetto che lo percepisce.

Attraverso la distinzione tra qualità oggettive e soggettive la scienza moderna


portava a compimento il processo di "oggettivazione" e di "matematizzazione" della
natura, ormai sottratta ad ogni istanza di carattere antropomorfico. Su questa scia, il
meccanicismo diviene il modello interpretativo non solo della fisica, ma anche della
biologia e della psicologia.
Le condizioni socio-culturali, i mutamenti politici ed economici, le maggiori
richieste nel campo della tecnica, ed altre motivazioni che si potrebbero aggiungere,
sono necessarie e sufficienti a spiegare la nascita della scienza moderna? Certamente
sono necessarie ma non sufficienti, in quanto senza menti geniali, creative e
controcorrente, capaci di tradurre in atto le possibilità implicite nelle condizioni citate e
di sintetizzarne e realizzarne gli spunti mediante una metodologia corretta, la scienza
moderna non sarebbe mai nata. Di conseguenza, è doveroso dare debito spazio e merito
alla genialità, pur tenendo presente che hanno operato all’interno di ben determinate e
favorevoli circostanze storico-culturali.

6.4 La Rivoluzione astronomica e la nuova immagine dell’universo

La Rivoluzione astronomica, con cui prende avvio la Rivoluzione scientifica,


rappresenta uno degli avvenimenti culturali più importanti della storia dell’Occidente,
che hanno maggiormente contribuito al passaggio dall'età antico-medioevale all'età
moderna. Tale rivoluzione comincia con Copernico, dando così inizio ad un processo di
pensiero che ha coinvolto, al tempo stesso, astronomia e le scienze fisiche, filosofia e
teologia. Di conseguenza, l'intricato processo che porta alla Rivoluzione astronomica,
intesa soprattutto come un passaggio “dal mondo chiuso all'universo infinito”, non è
soltanto un fatto astronomico e scientifico, ma anche un appassionante avvenimento
filosofico, poiché ha finito per mutare la visione complessiva del mondo che per secoli
era stata propria dell'Occidente, segnando in profondità la cultura moderna. Per
comprendere in modo adeguato la Rivoluzione astronomica risulta indispensabile
;59! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

richiamare alla mente i punti essenziali di quel millenario “sistema del mondo” che va
sotto il nome di universo aristotelico-tolemaico, alla cui distruzione dettero contributi
decisivi Copernico, Brahe, Keplero, Galilei, Bruno.
La cosmologia greco-medioevale concepiva il mondo come sostanzialmente:
unico, chiuso, finito, fatto di sfere concentriche, geocentrico e diviso in due parti
qualitativamente distinte, soggette a leggi fisiche diverse. L'universo aristotelico-
tolemaico è unico in quanto pensato come il solo universo esistente, e ciò soprattutto in
virtù della teoria dei luoghi naturali secondo cui ogni materia possibile deve trovarsi
concentrata in un determinato posto; chiuso poiché immaginato come una sfera limitata
dal cielo delle stelle fisse (cui, in seguito, era stato aggiunto il nono cielo e il primo
mobile), oltre il quale non c'era nulla, neanche il vuoto, poiché Aristotele riteneva che
ogni cosa è nell'universo, mentre l'universo non è in nessun luogo, potendoci essere
luogo e spazio solo in relazione ai corpi. Fuori del cosmo si trovava soltanto Dio,
secondo la teologia cristiana che aveva fatto proprio tale sistema astronomico. Essendo
chiuso, l’universo era anche finito, in quanto l'infinito, aristotelicamente parlando,
appariva soltanto un'idea e non una realtà attuale. Tale universo era fatto di sfere
concentriche, intese non come puri tracciati matematici, in senso moderno, ma come
qualcosa di solido e di reale, le cosiddette sfere cristalline, su cui erano incastonate le
stelle e i pianeti. Si avevano così, oltre alla sfera delle stelle fisse, i cieli di Saturno,
Giove, Marte, Mercurio, Venere, Sole e Luna. Al di sotto di quest’ultima stava la zona
dei quattro elementi, con la Terra immobile e al centro di tutto (geocentrismo). Il mondo
aristotelico-tolemaico era inoltre pensato come “qualitativamente differenziato in due
zone cosmiche distinte soggette a leggi fisiche diverse”: una perfetta e l'altra imperfetta.
La prima era quella dei cieli del cosiddetto “mondo sopralunare”, formato di un
elemento divino, l’etere, incorruttibile e perenne, il cui unico movimento era di tipo
circolare e uniforme, senza principio e senza fine, eternamente ritornante su se stesso.
La seconda zona era quella del cosiddetto “mondo sublunare”, formato dai quattro
elementi (terra, acqua, aria e fuoco), avendo ognuno un suo luogo naturale e dotato di
un moto rettilineo (dal basso verso l’alto o viceversa), che avendo un inizio e una fine
dava origine ai processi di generazione e corruzione.
Questa visione astronomica appariva conforme non solo al senso comune, e alla
sua quotidiana constatazione dell’immobilità della Terra e del moto dei cieli, ma anche
alla mentalità metafisica prevalente, portata a concepire il mondo come un organismo
gerarchico e finalisticamente ordinato e disposto. La teologia patristica e quella
scolastica avevano poi ulteriormente cristianizzato e sacralizzato questa cosmologia,
intrecciandola con le dottrine della creazione, dell'incarnazione e della redenzione, che
presupponendo la Terra come sede privilegiata della storia del mondo e l'uomo come
fine della creazione (antropocentrismo) ben si conciliavano con la centralità spaziale
riconosciuta alla Terra (geocentrismo). La testimonianza dei sensi, l’autorità di
Aristotele, i teoremi della metafisica e la parola divina della Bibbia avevano quindi
finito per convergere in una comune attestazione della validità assoluta del sistema
aristotelico-tolemaico.
Semplificando molto le cose, è possibile tentare di elencare i presupposti che fu
necessario abbattere e abbandonare per costruire una nuova astronomia e una nuova
fisica:
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;5:!

1. La distinzione di principio tra una fisica del mondo celeste e una fisica del
mondo terrestre, che risultava dalla divisione dell'universo in due sfere, l'una
perfetta, l'altra soggetta al divenire.
2. La convinzione (che conseguiva da questo primo punto) del carattere
necessariamente circolare dei moti celesti.
3. Il presupposto dell'immobilità della Terra e della sua centralità nell'universo che
era confortato da una serie di argomenti dall'apparenza irrefutabile e che trovava
conferma nel testo stesso delle Scritture.
4. La credenza nella finitezza dell'universo e in un mondo chiuso che è legata alla
dottrina dei luoghi naturali.
5. La convinzione, strettamente connessa alla distinzione fra moti naturali e
violenti, che non ci sia bisogno di addurre nessuna causa per spiegare lo stato di
quiete di un corpo, mentre, al contrario, ogni movimento deve essere spiegato o
come dipendente dalla forma o natura del corpo o come provocato da un motore
che lo produce e lo conserva.
6. Il divorzio, che si era andato rafforzando, fra le ipotesi matematiche
dell'astronomia e la fisica.

Nel corso di circa cento anni (all'incirca fra il 1610 e iI 1710) ciascuno di questi
presupposti venne discusso, criticato, respinto. Ne risultò, attraverso un processo
difficile (a volte tortuoso), una nuova immagine dell'universo fisico destinata a trovare
il suo compimento nell'opera di Newton. Ma si trattò di un rifiuto che presupponeva un
radicale rovesciamento di quadri mentali e di categorie interpretative, che implicava
una nuova considerazione della natura e del posto dell'uomo nella natura.

Agli inizi del XVI secolo furono proposti diversi sistemi nuovi, ma
quello che doveva dare inizio alla rivoluzione scientifica, all’atto di nascita
di una nuova età e di una rivoluzione intellettuale, era il sistema eliocentrico
proposto da Nicolò Copernico (1473–1543). Il prete polacco, che aveva
studiato a Padova, Ferrara e Bologna, era un acuto matematico, più che un
astronomo, e la sua forza stava nella padronanza della geometria celeste, e su questa
padronanza egli basò le proprie tesi. La gran parte della sua opera, il De Revolutionibus,
è astronomia tolemaica capovolta. Su di uno sfondo platonicheggiante, affermava
l’armonia generale della natura e quindi la necessità che questa ottenesse i suoi effetti
mediante le vie più semplici, per cui riteneva la dottrina tolemaica troppo complessa e
artificiosa per descrivere correttamente il moto degli astri per cui comprese che quella
sfera assegnata da Tolomeo a ogni pianeta e al Sole non faceva altro che riflettere il reale
movimento della Terra. Da questo cambio, che fu per lui di carattere essenzialmente
geometrico, Copernico credeva che derivasse una teoria plausibile, poiché era valida,
coerente e ordinata, al contrario dei sistemi geocentrici, che apparivano incoerenti, non
armoniosi e disordinati, e quindi falsi. Dopo tanti secoli l’eliocentrismo, già proposto
dai pitagorici e Aristarco da Samo, tornava ad imporsi, ma questa volta definitivamente
e spazzando via la secolare cosmologia aristotelica.
La teoria eliocentrica è una delle più sconcertanti scoperte nella storia della
scienza perché è in conflitto con l’esperienza quotidiana ed ha messo in crisi la stessa
nozione di conoscenza basata sui sensi e ha aperto un nuovo modo di interpretare il
mondo, fondato sul ragionamento matematico. Questo è il perché il 1543, l’anno in cui
comparve l’opera di Copernico De Revolutionibus Orbium Coelestium (Sulle rivoluzioni
;6<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

delle sfere celesti), è assunto come la data in cui l’umanità varcò la soglia della
Rivoluzione Scientifica.
Malgrado la eccezionale importanza della sua audace supposizione sulla
immobilità del Sole, Copernico fece soltanto il primo passo verso una rivoluzione
scientifica. E come Copernico, molti altri furono guidati da una rinnovata concezione di
un ordine del mondo di stampo platonico invece che aristotelico, caratterizzato
dall’armonia e fondato su ordinate relazioni matematiche. Gli astronomi medievali,
arabi e cristiani, si consideravano soddisfatti di qualsiasi modello geometrico che
potesse “salvare i fenomeni”, mentre Copernico affermava che tutti questi modelli
erano artifici in quanto la vera geometria dei cieli si sarebbe riconosciuta per
“l’inalterabile simmetria delle sue componenti”.
Le sette petitiones che dovevano dar luogo ad una nuova astronomia sono:
1) Non esiste un solo centro di tutti gli orbi celesti o sfere (ci sono, a differenza che
in Tolomeo, due centri di rotazione: la Terra che è il centro di rotazione della
Luna, il Sole che è al centro della rotazione degli altri pianeti);
2) Il centro della Terra non coincide con il centro dell'universo, ma solo con il centro
della gravità e della sfera della Luna (questa petitio riapriva il problema di una
spiegazione della gravità);
3) Tutte le sfere ruotano attorno al Sole (che è dunque eccentrico rispetto al centro
dell'universo);
4) Il rapporto fra la distanza Terra-Sole e l'altezza del firmamento è minore del
rapporto fra il raggio terrestre e la distanza Terra- Sole. Quest'ultima è pertanto
impercettibile in rapporto all'altezza del firmamento (se l'universo ha così grandi
dimensioni, non avverrà che il moto della Terra dia luogo ad un moto apparente
delle stelle fisse);
5) Tutti i moti che appaiono nel firmamento non derivano da moti del firmamento,
ma dal moto della Terra. Il firmamento rimane immobile, mentre la Terra, con gli
elementi a lei più vicini (l'atmosfera e le acque della sua superficie) compie una
completa rotazione sui suoi poli fissi in un moto diurno;
6) Ciò che ci appare come movimenti del Sole non deriva dal suo moto, ma dal
moto della Terra e della nostra sfera con la quale ruotiamo attorno al Sole come
ogni altro pianeta. La Terra ha, pertanto, più di un movimento;
7) L'apparente moto retrogrado e diretto dei pianeti non deriva dal loro moto, ma
da quello della Terra. Il moto della sola Terra è sufficiente a spiegare tutte le
disuguaglianze che appaiono nel cielo (i moti retrogradi dei pianeti diventano
moti apparenti, dipendenti dal moto della Terra).

L’universo di Copernico fu tipicamente greco, il


mondo che avrebbe costruito Tolomeo se avesse seguito
Aristarco. Modellandosi su Tolomeo, Copernico ricalcolò
tutti gli elementi del suo universo in base alle
osservazioni soprattutto greche, ed in parte arabe e fatte
da lui stesso, raggiungendo risultati che corrispondevano
strettamente a quelli dell’Almagesto, salvo che ora, per la
prima volta, venivano date le grandezze relative delle
orbite. Come conseguenza naturale dell’adattamento,
l’ordine dei pianeti, a partire dal Sole e secondo
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;6;!

l’aumento dei periodi di rivoluzione, diventò: Mercurio, Venere, Terra, Marte, Giove,
Saturno. Credendo che l’equante di Tolomeo fosse un artificio perché rendeva i moti
circolari non uniformi rispetto al centro geometrico, Copernico fu indotto a introdurre
un certo numero di sfere più piccole per render conto delle apparenti variazioni nella
velocità del pianeta quando viene visto dal centro della sua sfera.
Ma Copernico era convinto che il suo sistema corrispondesse alla realtà?
Certamente il libro venne letto come se sostenesse una concezione realistica e venne
inevitabilmente respinto dai più. Il copernicanesimo fu soffocato dall’indifferenza di
dotti e ignoranti, e quindi da una tradizione della fisica, come una teoria che postulasse
una pura assurdità.
Tuttavia, questa nuova visione prospettica del cosmo, pur essendo di per sè
rivoluzionaria, non scalzava dalle fondamenta la vecchia immagine dell'universo, in
quanto il cosmo di Copernico rimaneva simile a quello degli antichi. L'astronomo
polacco, ad esempio, concepiva ancora l'universo come sferico, unico e chiuso dal cielo
delle stelle fisse. Inoltre accettava il principio della perfezione dei moti circolari
uniformi delle sfere cristalline, pensate ancora come entità reali e incorruttibili. Il
motivo stesso per cui, secondo Copernico, il Sole è al centro dell'universo ricorda le
spiegazioni aprioristiche della scienza antica: dovendo illuminare il cosmo, è soltanto
dal centro di questo che il sole può svolgere nel miglior modo la sua funzione. Eppure, i
vari elementi di conservazione ancora presenti in Copernico non eliminano la portata
oggettivamente innovatrice della sua opera e il suo coraggio di uomo pronto a sfidare,
in nome della scienza, dottrina e pregiudizi secolari. Però, il suo sistema astronomico
richiedeva una nuova cosmologia e una nuova fisica, perché il movimento della Terra
sconvolgeva le categorie di Aristotele e il suo intero sistema. La dicotomia tra i corpi
celesti perfetti e la regione sublunare corrotta andò distrutta quando la Terra stessa
divenne un pianeta, e fu cambiata la natura stessa del movimento. Fu assai meno
significativo il fatto che la dimora dell’uomo cessasse di essere il centro dell’universo
rispetto allo scardinamento di quell’intero ordine intellettuale. Non è chiaro quanto
Copernico percepisse di questa situazione. Egli non s’impegnò molto per adattare la
cosmologia e la fisica al nuovo sistema. Soltanto quando parlò della gravità aggiunse
qualcosa di più: “la gravità non è altro che una tendenza naturale immessa dal
Creatore nelle parti dei corpi al fine di fonderle insieme in forma di sfera, e di
contribuire così alla loro unità e integrità. E noi possiamo credere che questa proprietà
sia presente anche nel Sole, nella Luna e nei pianeti …”. Copernico non giustificò né
spiegò questa affermazione, decisamente antiaristotelica e antiscolastica, così
importante per il futuro, da attribuire a tutta la materia una misteriosa tendenza o forza
intrinseca. Tuttavia, senza questo principio, che colloca Copernico tra i pensatori
moderni, il suo sistema sarebbe stato un’assurdità.
A smorzare l'effetto dirompente della nuova dottrina contribuirono però alcuni
fattori. Innanzitutto, il teologo luterano Andreas Osiander (1498-1552) premise al
capolavoro di Copernico, senza il consenso del suo autore, una prefazione anonima dal
titolo Al lettore sulle ipotesi di quest'opera. In essa Osiander sosteneva la natura puramente
ipotetica e matematica della nuova dottrina astronomica, affermando che essa era un
puro strumento di calcolo atto, come si disse, a “salvare le apparenze o i fenomeni”,
senza alcuna pretesa di rispecchiare la realtà autentica del mondo. Ovviamente questa
posizione, che venne scambiata come propria di Copernico, attutiva di parecchio la
nuova ipotesi e tradiva il vero pensiero dell'astronomo polacco, persuaso, per quel che
;6=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

ne sappiamo, che la sua teoria non fosse una semplice, sia pur funzionale, ipotesi
matematica, ma la riproduzione fedele della struttura reale del cosmo, ossia non uno
dei tanti modelli possibili dell'universo, ma il sol vero. In secondo luogo, la teoria
copernicana stentò ad affermarsi perché la supposta semplicità di essa nei confronti di
quella tolemaica non era sempre tale, anzi in qualche caso essa risultava persino
matematicamente più complessa e incapace di dar ragione di alcuni movimenti celesti.
Inoltre, essa si scontrava con ardue questioni di fisica, che la scienza del tempo non era
preparata a risolvere e che sembravano quindi irrimediabilmente a sfavore della nuova
teoria.
Tipici, in questo senso, taluni quesiti anticopernicani messi a punto dagli
Aristotelici: 1) se la Terra si muove, perchè essa non provoca il lancio di tutti i suoi
oggetti mobili lontano dalla superficie terrestre?; 2) se la Terra si muove, perchè non
solleva un vento così forte da scuotere cose e persone?; 3) se la Terra si muove da ovest
a est, un sasso lanciato dall'alto di una torre dovrebbe cadere ad ovest di essa, poiché la
torre durante la caduta deve per forza essersi spostata ad est. Ma perché ciò non si
verifica e il sasso continua a cadere approssimativamente ai piedi della perpendicolare
della torre? Questi e altri argomenti verranno risolti scientificamente soltanto da
Galileo. Gli ostacoli maggiori al successo del copernicanesimo non proverranno tuttavia
dal settore scientifico, bensì dal settore religioso e filosofico.

Maggior successo arrise, per il momento,


all'astronomo danese Tycho Brahe (1546-1601), ideatore del
cosiddetto sistema ticonico, ossia di un sistema cosmologico
misto, a metà strada fra i due opposti di Tolomeo e di
Copernico. Tale sistema, simile a quello che nell'antichità
aveva formulato Eraclide Pontico, sosteneva che i pianeti
girano attorno al Sole, mentre il Sole gira a sua volta attorno
alla Terra, che rimane al centro dell'universo, e in questo
modo veniva salvata tutta la geometria del sistema
copernicano anche abbandonando il suo postulato
eliocentrico. Furono le osservazioni della grande cometa del 1577 il vero motore per lo
sviluppo del sistema di Tycho. Osservò il nuovo fenomeno con attenzione, da grande
astronomo qual era, e scoprì che la cometa aveva una parallasse troppo piccola per
collocarla nella zona sublunare. Allora la cometa doveva trovarsi nelle regioni eteree,
come fu poi confermato dalla comparsa di altre comete. Ecco le parole di Tycho: “Tutte
le comete da me osservate si muovono nelle regioni eteree del mondo, e mai nell’aria al di sotto
della Luna, come Aristotele e i suoi seguaci hanno cercato di farci credere, senza una ragione, per
tanti secoli”.
Questo modello astronomico ebbe migliore accoglienza di quello copernicano,
perchè pur conservandone molti vantaggi matematici, era sostanzialmente
conservatore, almeno per quanto riguarda la posizione della Terra, e quindi sembrava
escludere ogni ragione di conflitto con le Sacre Scritture. Tuttavia, l’astronomo danese,
fu anche audace dal punto di vista concettuale asserendo, al contrario di Aristotele e di
Copernico, che non vi sono sfere celesti solide, che le comete sono corpi celesti reali e
che i cieli mutano. Infine, fu il primo a proporre per un corpo celeste, le comete, una
traiettoria “ovoidale, ossia una traiettoria che non fosse né circolare, né ottenibile dalla
composizione di cerchi. E Keplero volgerà l’attenzione proprio alla figura proposta da
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;64!

Tycho per cercare una traiettoria non circolare per Marte e che lo condurrà alla sua
legge sulle orbite ellittiche dei pianeti.
Verso la fine del secolo XVI avvenne un mutamento. I seguaci del sistema
copernicano avevano cominciato a sostenere che se la fisica di Aristotele ostacolava il
sistema eliocentrico, allora questa doveva venire rimpiazzata da una fisica che fosse più
in accordo con esso.
Giovanni Keplero (1571-1630), assistente di Brahe, non si chiese se il sistema
copernicano potesse esser vero, ma cosa più importante, cercò di scoprire perché
dovesse esser vero. La ricerca di Keplero fu una strana combinazione di speculazione
platonica di origine pitagorica e fisica. Egli desiderava trovare nell’architettura dei cieli
sia una chiara armonia matematica, sia una spiegazione fisica del perché esistesse una
tale armonia. Così Keplero fu insieme l’ultimo degli astronomi puramente matematici
che cercavano di definire i movimenti celesti con linee e curve, e il primo a ideare una
meccanica celeste che non fosse una semplice ipostatizzazione della geometria.
Tuttavia, nel suo primo libro, Il Mistero cosmografico (1596), è il primo tema a esser
dominante. In tale opera esaltava liricamente la bellezza, la perfezione e la divinità
dell'universo e vedeva in esso l'immagine della trinità divina. Al centro del mondo
starebbe il Sole, immagine di Dio Padre, dal quale deriverebbero ogni luce, ogni calore e
ogni vita. Il numero dei pianeti e la loro disposizione intorno al Sole obbedirebbero ad
una precisa legge di armonia geometrica. I cinque pianeti costituirebbero infatti un
poliedro regolare e si muoverebbero secondo sfere inscritte o circoscritte al poliedro
delineato dalla loro posizione reciproca. In quest’opera egli attribuiva il movimento dei
pianeti ad una loro anima motrice o all'anima motrice del Sole. Una concezione
piuttosto stravagante, tuttavia l’idea che vi fosse una qualche correlazione tra le
grandezze di queste orbite era fondata.
Ma lo stesso sforzo di trovare nelle osservazioni astronomiche la conferma di
questi “filosofemi” pitagorici o neoplatonici lo condusse ad abbandonarli. Nei suoi
scritti astronomici e ottici, al posto delle intelligenze motrici pose forze puramente
fisiche; ritenne il mondo necessariamente partecipe della quantità e la materia
necessariamente legata ad un ordine geometrico. Rimase però sempre fedele al
principio in base al quale l'oggettività del mondo è nella proporzione matematica
implicita in tutte le cose. Era questo lo stesso principio che aveva animato Leonardo.
Venti anni dopo, nel libro Armonia del mondo (1619), Keplero enunciò la legge:

TERZA LEGGE DI KEPLERO


I cubi dei diametri delle orbite sono proporzionali ai quadrati dei loro tempi di rivoluzione:

D3 ∝ T2

Da questa legge seguiva che sarebbero stati possibili molti sistemi solari, e non
uno soltanto come egli pensava nel 1596. Da allora il suo pensiero era maturato ed era
entrato in possesso delle osservazioni di Ticho Brahe. Cominciò a lavorare sul classico
problema dell’astronomia: la determinazione delle orbite. Avendo fortunatamente
cominciato con Marte, la cui orbita è la più eccentrica di tutte eccettuato Mercurio,
Keplero trovò per prima cosa che i piani di tutte le orbite passavano per il Sole,
confermando la sua attribuzione di un significato fisico ad esso come centro del sistema,
;65! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

mentre per Copernico il Sole non aveva questa proprietà. Allora, considerando le
velocità di un pianeta in punti diversi dell’orbita, scoprì la sua seconda legge:

SECONDA LEGGE DI KEPLERO


Il raggio vettore che unisce il Sole con il pianeta spazza aree dell’orbita equivalenti in tempi
uguali.

Fino a questo punto, Keplero, da buon pitagorico e come tutti i suoi predecessori,
aveva concepito le orbite come circolari, ed un’altra ipotesi era inconcepibile. Cercando
ora di definire questo cerchio, e in particolare di trovare un centro di moto uniforme al
suo interno, trovò che la sua seconda legge, l’orbita circolare e i dati osservativi erano
reciprocamente inconciliabili. Dopo anni di vani calcoli egli si imbattè nella risposta, la
cosiddetta prima legge:

PRIMA LEGGE DI KEPLERO


Le orbite descritte dai pianeti intorno al Sole sono ellissi, di cui il Sole occupa uno dei fuochi.

Tutto questo lavoro Keplero lo


espose nella sua Astronomia nuova, o fisica
celeste (1609). Con queste leggi le
maggiori difficoltà della dottrina
copernicana e le obiezioni relative al
cattivo accordo tra teoria ed osservazioni
venivano superate.
Keplero fu costantemente
influenzato dalla necessità di fornire ad ognuna delle sue ipotesi una plausibile
spiegazione fisica. Alla maniera aristotelica, immaginò che i pianeti venissero spinti da
una forza irradiata dal Sole in rotazione e poiché questa decresceva con la distanza, i
pianeti esterni venivano spinti più lentamente. Per render conto delle loro orbite
ellittiche Keplero postulò una forza magnetica polarizzata tra il Sole e ogni pianeta;
all’afelio il pianeta era respinto dal Sole, mentre nel perielio, girando verso di questo
l’altro polo, era di nuovo attratto. In questo modo Keplero, influenzato dall’opera di
Gilbert, formulava per primo l’ipotesi dell’esistenza di una forza fisica, di natura
magnetica, simile all’attrazione terrestre. Ma questa concezione presentava non poche
difficoltà per la meccanica del tempo, per cui verrà combattuta dai primi fisici moderni,
a cominciare da Galileo. Solo Newton, mutando l’attrazione magnetica in attrazione
gravitazionale, riuscirà ad imporla come base della fisica astronomica.
Le leggi di Keplero rappresentarono l’atto di nascita della meccanica celeste ma
la loro interpretazione richiedeva una teoria dinamica della quale lo stesso Keplero era
del tutto sprovvisto, perché sotto questo aspetto stava ancora ad Aristotele.
Il secondo momento della Rivoluzione astronomica, ma anche il più radicale, è
opera di Giordano Bruno (1548–1600), il filosofo che con la sua audacia intellettuale ha
definitivamente superato il mondo degli antichi e prospettato le linee fondamentali di
quello dei moderni. Come si è visto, il mondo di Copernico, a parte l'eliocentrismo, è
ancora fondamentalmente un mondo del passato, poiché nel quadro geometrico
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;66!

tracciato nel De Revolutionibus non solo l'universo continua a fare tutt'uno con il sistema
solare, pensato con un suo centro intorno al quale ruotano sfere solide e reali, ma risulta
limitato dall’ultima sfera del mondo “contenente se stessa e tutte le cose”. Di
conseguenza, sebbene Copernico dica in un passo di lasciare “alle discussioni dei
filosofi” il problema dell'infinità del cosmo, di fatto il suo universo è ancora finito, anche
se egli ha notevolmente ampliato il cielo delle stelle fisse, affermandone
l'incommensurabilità e immensità. Pertanto, la rivoluzione copernicana avrebbe
rischiato di fermarsi a metà strada senza l'ulteriore apertura del cosmo.
Come sappiamo, l'idea della pluralità dei mondi e dell’infinità del Tutto ebbe
origine presso i Greci, in particolare fu postulata da Democrito e difesa
appassionatamente da Lucrezio nella sua opera De Rerum Natura. Ma la scienza greca
aveva accettato il modello aristotelico di un mondo finito ed aveva respinto le
concezioni infinitistiche degli atomisti, mentre nel Medioevo, il rigetto totale
dell'atomismo e la sua assimilazione a filone eretico della cultura, avevano decretato la
definitiva sconfitta di ogni immagine astronomica alternativa a quella sanzionata dalla
chiesa.
I primi dubbi intorno alla cosmologia finitistica greco-cristiana si possono
ritrovare nell'ultima Scolastica, nell'occamismo, in Nicola Cusano ed in due studiosi del
Cinquecento, Stellato Palingenio (ca. 1500-1543) e Thomas Digges (1546-1595).
Bruno, riprendendo Lucrezio e forzando in maniera creativa Cusano, giunge ad
una nuova visione dell'universo, che, si badi bene, non deriva da osservazioni
astronomiche o calcoli matematici, in cui il filosofo fu poco versato e tecnicamente poco
competente, bensì da una intuizione di fondo del suo pensiero, quella circa l'infinità
dell'universo, alimentata dal copernicanesimo. L'idea che l'astronomo polacco fa
balenare dinnanzi alla fervida immaginazione di Bruno, dando corpo alla sua
preesistente intuizione dell'infinito, è la seguente: se la Terra è un pianeta che gira
attorno al Sole, le stelle che si vedono nelle notti serene e che gli antichi immaginarono
attaccate all'ultima parete del mondo, non potrebbero essere tutte, o almeno in gran
parte, immobili soli circondati dai rispettivi pianeti? Per cui l’universo, anziché essere
composto da un sistema unico, il nostro, non potrebbe ospitare in sè un numero
illimitato di stelle-soli, disseminate nei vasti spazi del firmamento e centri di rispettivi
mondi? Di fronte a questi interrogativi Bruno, pur ammettendo che “non è chi l'abbia
osservato”, conclude razionalmente che: “Sono dunque soli innumerabili, sono terre
infinite, che similmente circuiscono quei soli, come veggiamo questi sette circuire questo
sole a noi vicino”. Tuttavia questa convinzione, sebbene tragga la sua forza dal
copernicanesimo, di cui il filosofo vuole sprigionare tutta la portata rivoluzionaria,
viene immediatamente trasportata dal piano astronomico a quello metafisico. Infatti,
nella mente vulcanica di Bruno, immaginazione, astronomia e filosofia formano un
tutt'uno, da cui scaturisce la medesima conclusione dell'infinità dell'universo, che viene
dedotta dal principio teologico, già presente nell'ultima Scolastica, secondo cui il
mondo, avendo la sua causa in un Essere infinito, deve per forza essere infinito. In altre
parole, la creazione, per essere perfetta e degna del Creatore, deve essere, essa stessa,
infinita e straripante di vita. Da questa asserzione-chiave Bruno deriva il nuovo quadro
dell'universo.
Le tesi cosmografiche rivoluzionarie dell’età moderna presenti in Bruno si
possono così sintetizzare:
;67! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

1) Infinità dell’universo; 2) Pluralità dei mondi e loro abitabilità; 3) Identità di struttura


fra cielo e Terra; 4) Geometrizzazione dello spazio cosmico.

La prima tesi è l’idea madre che sta alla base di tutte le altre e implica la
distruzione dell'idea secolare dei confini del mondo, cui lo stesso Copernico, come si è
visto, era rimasto fedele, perché l'universo è aperto in ogni direzione e le supposte stelle
fisse si trovano disperse in uno spazio senza limite; un universo incostante e in eterno
divenire dove vi è la negazione dell’armonia delle sue componenti a cui, invece,
restarono sempre legati sia Galileo che Keplero. È anche l'idea prediletta di Bruno,
quella che lo infiamma di un'ebbrezza filosofica, che lo riempie di entusiasmo e di
passione, portandolo a ritenere l'universo senza limiti dai caratteri divini: infinito lo
spazio, infiniti i mondi, infinite le creature, infinita la vita e le sue forme, ecc. Dalla
Ceneri delle ceneri: “... il mondo essere infinito, e però non essere corpo alcuno in quello,
al quale semplice mente convenga esser nel mezzo, o nell'estremo, o tra quei due
termini. […] Cotal spazio lo diciamo infinito, perché non v’è ragione, convenienza,
possibilità, senso o natura che debba finirlo. [...] La terra dunque non è assolutamente in
mezzo de l’universo [...] Cosi si magnifica l'eccellenza di Dio, si manifesta la grandezza
dell’imperio suo: non si glorifica in uno, ma in Soli innumerevoli; non in una terra, in
un mondo, ma in duecentomila, dico in infiniti”.
La seconda tesi, connessa alla prima, implica la moltiplicazione all'infinito dei
corpi che "corrono" per il cielo, ossia il concetto di una pluralità illimitata di sistemi
solari, che Bruno ritiene popolati da creature viventi, senzienti e razionali.
La terza tesi, già presente negli atomisti e in Cusano, implica il superamento del
dualismo astronomico tolemaico fra mondo sopralunare e mondo sublunare e
l'unificazione del cosmo in una sola, immensa regione. Infatti si sbaglia, dice Bruno, a
voler distinguere fra una parte più nobile e una meno nobile dell'universo, poiché
procedendo tutto dall'unica mente e dall'unica volontà di Dio resta preclusa ogni
discriminazione gerarchica fra le varie zone del creato.
La quarta tesi, strettamente intrecciata alla terza, considera lo spazio come
qualcosa di unico e di omogeneo, ossia di fondamentalmente simile a sé stesso in tutto
l'universo: “Uno è il loco generale, uno il spacio immenso che chiamar possiamo
liberamente vacuo”. Per Bruno la sede più naturale dell'universo copernicano è infatti il
vuoto infinito di Democrito e di Lucrezio, immaginato come un immenso contenitore,
ripieno soltanto di etere, che “alloggia” le cose. Da qui la geometrizzazione dello spazio,
che sostituisce quello aristotelico, finito e gerarchicamente differenziato di luoghi
naturali, con uno spazio di tipo euclideo, omogeneo e infinito. In quanto tale, lo spazio
del mondo è acentrico, poiché in esso non esiste alcun punto assoluto di riferimento
(sopra, sotto, destra, sinistra, ecc.), essendo i riferimenti sempre relativi fra astro e astro.
È facile riconoscere in queste tesi, seppur giustificate teologicamente e prive di
riscontro sperimentale, l'universo secondo la visione moderna e, sebbene sia stato e
continui ad essere comunemente associato al nome di Copernico, sia in realtà opera di
Bruno. Da un lato ciò può sembrare un paradosso: Bruno usa un armamentario
concettuale del passato e parte da intuizioni extrascientifiche per approdare a risultati
radicalmente nuovi e proiettati verso la scienza del futuro. Dall'altro lato, tutto questo
conferma pienamente la già citata tesi dei filosofi e degli storici della scienza odierni: e
cioè che le novità rivoluzionarie, nella scienza, derivano talora da complessi mentali e
da intuizioni extrascientifiche, che diventano scientifiche quando trovano una
legittimazione sperimentale, così come avverrà più tardi per le tesi bruniane.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;68!

Ciò nonostante, queste tesi apparvero soltanto il frutto di una mente esaltata.
Anche i più grandi astronomi del tempo, Tycho Brahe, Keplero e Galileo, le accolsero
freddamente o le rifiutarono in gran parte, respingendo soprattutto l'idea della pluralità
dei mondi e dell'infinità dell'universo. Ciò non avvenne soltanto per ragioni di
correttezza metodologica, ossia perchè le tesi di Bruno trascendevano il campo
dell'astronomicamente affermabile (per quei tempi), ma anche perché le tesi del filosofo
apparivano oggettivamente troppo rivoluzionarie per i padri stessi dell'astronomia
moderna.
Ben più netta fu la reazione degli ambienti legati alla religione e alla vecchia
cultura, che fin dalla comparsa del capolavoro di Copernico erano apparsi preoccupati
dalle nuove idee astronomiche e ci volle un certo arco di tempo affinché si percepissero
chiaramente le novità implicite nelle nuove dottrine astronomiche. Infatti, le idee
copernicane prima e quelle di Bruno dopo, non coinvolgevano soltanto la massima
autorità filosofico-scientifica del passato (Aristotele), ma anche la parola di Dio (la
Bibbia). Infatti non era difficile appellarsi a numerosi passi delle Scritture in cui era
evidente il presupposto geocentrico. Ad esempio, nell'Ecclesiaste (1,4-5) si legge: “Una
generazione va e una generazione viene/eppure la terra rimane sempre al suo posto”;
nel Giosuè (10,12) si trovano le celebri parole: “Fermati, o Sole … “ e nei Salmi (104) sta
scritto: “Sulle sue basi fondasti la terra, / e starà immota negli evi degli evi”.
La chiesa cattolica, all'inizio, non si mosse. Forse perché alle prese con i problemi
ben più urgenti derivanti dal dilagare dell'eresia protestante. Forse perché l'universo di
Copernico, presentato da Osiander come pura ipotesi, a parte l'eliocentrismo era ancora
il cosmo degli antichi e poteva anche essere conciliato—vedi Tycho Brahe—con quello
di Tolomeo. O forse, più profondamente, perché essa non si rese subito conto delle
gigantesche potenzialità rivoluzionarie contenute nel copernicanesimo. Difatti è
soltanto dopo che Bruno avrà tratto tutte le sue radicali conclusioni cosmologiche che la
chiesa, preoccupata, giungerà a mettere all'indice le opere di Copernico (1616),
iniziando il duro scontro con Galileo. Infatti, il passaggio copernicano da un sistema
geocentrico ad uno eliocentrico appariva assai meno grave e foriero di problemi del
passaggio bruniano da un sistema eliocentrico ad uno acentrico e da un mondo chiuso
ad un universo infinito.
In particolare, la teoria di una pluralità di mondi abitati tendeva a suscitare delle
difficoltà in relazione al dogma di tutti i dogmi: l'Incarnazione. La seconda persona
della Trinità si era dunque incarnata di volta in volta su infiniti pianeti? Vi erano
dunque tanti cristianesimi quanti i mondi? E inoltre non si era sempre detto, Bibbia alla
mano, che i cieli sono stati fatti per l'uomo? Quindi se l'ipotesi della molteplicità e
abitabilità dei mondi era esatta, alcune verità bibliche dovevano per forza essere
abbandonate o essere interpretate in altro modo. Questa serie di interrogativi, o altri
analoghi, possedevano in realtà, nell'Europa cristiana del tempo, una forte valenza
emotiva e intellettuale, che spiega resistenze e reazioni del mondo religioso contro i
propugnatori di una visione cosmologica che aveva oggettivamente i tratti dell’eresia, e
di cui il bruciato vivo Giordano Bruno era il demoniaco emblema.
Eppure, nonostante reazioni e scossoni vari, la nuova cosmologia finì per
affermarsi, e ciò non accadde certo grazie alla scienza, che per lungo tempo non
possedette adeguati strumenti di verifica del nuovo quadro cosmologico, ma per uno
dei tanti paradossi di cui è piena la storia, e quella visione che aveva suscitato odio e
disprezzo per Bruno finì per affermarsi proprio grazie agli argomenti teologici già
;69! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

delineati dal Nolano. Infatti, l'angoscia cosmica e le difficoltà religiose furono superate
in virtù dell'idea secondo cui un universo infinito risultava più adatto a rispecchiare
l'infinita potenza di Dio. Se i cieli e la terra narrano la gloria del loro Creatore, che cosa
meglio di un cosmo infinito si prestava a celebrarla e magnificarla in tutta la sua
grandezza? Tramite l'opera di filosofi, scrittori e poeti tale convinzione finì per radicarsi
nella mentalità comune e per costituire l'asso vincente dei fautori della nuova
astronomia.
L'eresia bruniana si era dunque capovolta in convincente ortodossia, spianando
la strada al suo completo assorbimento nella cultura ufficiale. Si noti tuttavia come la
chiesa, nonostante tutto ciò, abbia continuato per circa due secoli a diffidare del
copernicanesimo (nel 1757 venne ritirata la condanna contro gli scritti copernicani, nel
1822 venne permessa la stampa dei libri insegnanti il moto della Terra e nel 1835 venne
tolto l'indice al De Revolutionibus).
I cinque schemi cosmografici che abbiamo trovato in Bruno più tardi hanno finito
per essere convalidati, almeno in parte, anche sul piano scientifico. L'inesistenza delle
muraglie celesti, la pluralità dei mondi, l'identità della struttura fra cielo e Terra e
l'omogeneità dello spazio cosmico saranno assunte nel corpo dell'astronomia scientifica,
della quale rappresenteranno la cornice di fondo e la base per ulteriori scoperte.
Nonostante la mancata certificazione scientifica della tesi dell'esistenza di altri esseri
viventi e dell'infinità spaziale dell'universo, la visione bruniana dell'universo fu
accettata in blocco entrando a far parte, implicitamente o esplicitamente, della mentalità
moderna, celebrando i suoi maggiori trionfi nell'Ottocento. Un colpo decisivo a questo
quadro cosmologico verrà soltanto dalla fisica del Novecento, in particolare da Einstein,
che è tornato a riproporre l'idea di un universo finito attraverso la possibilità
dell’energia-materia di incurvare lo spazio-tempo per cui il mondo sarebbe illimitato
ma finito. Sul problema dell'infinità del mondo la scienza contemporanea è dunque
paradossalmente tornata a proporre un modello che appare più vicino a quello di
Aristotele e Tolomeo che a quello di Bruno, anche se la questione deve tuttora ritenersi
scientificamente aperta.

Prima di passare ad esaminare l’opera di Galileo e il suo decisivo contributo alla


nascita della scienza moderna, dobbiamo accennare ad un importante pensatore e ai
suoi risultati ottenuti nel campo scientifico. Si tratta di William Gilbert (1544–1603),
filosofo inglese del magnetismo, autore di un’opera importante il De Magnete.
Era noto come l’ago magnetico della bussola segnasse il polo nord magnetico, ma
la navigazione oceanica aveva rivelato anche un altro fatto curioso: mutando il punto
della Terra in cui si trovava la bussola, l’ago andava soggetto a declinazione (rispetto
alla direzione) e ad inclinazione (rispetto alla parallela al piano del quadrante della
bussola). Per spiegare questi fenomeni Gilbert, ispirandosi a Peregrino, si foggia un
magnete a forma di sfera, la terrella, e con un piccolo ago magnetico imperniato che va
poggiando sulla superficie, studia le proprietà magnetiche della terrella e trova che esse
corrispondono alle proprietà magnetiche della Terra, sicché, conclude, che la Terra
stessa è un grande magnete, affermando anche che la sua rotazione assiale era una
necessaria conseguenza fisica della sua sfericità magnetica. Questa concezione aveva
un'importanza che andava ben oltre la pura nozione tecnica: era la prima volta che si
aveva l'ardire di paragonare un fenomeno sperimentato nell'angusto laboratorio
dell'uomo a un fenomeno cosmico. Un colpo gravissimo era così inferto al millenario
mito che contrapponeva il mondo sublunare ai cieli, perchè la concezione di Gilbert
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;6:!

veniva in ultima analisi a dire che i fenomeni del cosmo si studiano con gli stessi metodi
che valgono per i fenomeni di scala umana.
Ma la parte dell'opera che sembrò allora più rivoluzionaria fu l'ultima, il libro VI,
nella quale non solo Gilbert dà la sua piena adesione al sistema copernicano, ma tenta
di dimostrare la rotazione della Terra intorno al proprio asse con argomenti magnetici.
L'atteggiamento risolutamente copernicano di Gilbert ebbe una profonda influenza
sulla formazione di molti contemporanei, come Galileo e Keplero. Ma quando Gilbert
tentò di dare una teoria del magnetismo, si abbandonò a congetture di filosofia naturale
e, partendo dall’esperienza da lui compiuta che il ferro portato ad alta temperatura
perde il potere di calamita, fece dipendere l’attrazione magnetica dal freddo in
confronto del caldo dei corpi non magnetici. Egli, dopo una lunga e oscura
disquisizione, concluse che non gli sembrava affatto assurda l'opinione di Talete, che
concesse un'anima al magnete, mostrando in questa occasione di non essersi ancora
liberato dai concetti magici. Da questo miscuglio di rozza filosofia naturale e di raffinata
mentalità sperimentalistica emergono alcuni concetti di fondamentale importanza:
intanto l’idea stessa di una fisica terrestre; e poi l’idea di un campo di forza in generale e
della possibilità di determinarne le strutture; e finalmente l’idea dell’attrazione e di
forze attrattive che, già largamente diffusa nel Medioevo per opera di alchimisti, fisici e
maghi naturali, acquista qui per la prima volta dignità scientifica.
Con Gilbert ha origine la scienza elettrica, praticamente rimasta sino al Seicento
alle conoscenze di Talete, cioè al fatto che l'ambra strofinata attira le pagliuzze. Ci si può
chiedere come mai una proprietà così comune sia stata attribuita per tanti secoli
soltanto all'ambra. Una delle ragioni fondamentali dev'essere stata il fatto che
l'elettrizzazione per strofinio degli altri corpi è talmente debole che l'effetto sfugge,
senza l'aiuto di qualche dispositivo sensibile che ne consenta il rilevamento. Forse intuì
questo fatto un nostro celebre poeta scienziato, Fracastoro, che nel suo De sympathia et
antipathia rerum, descrisse un dispositivo costituito da una sbarretta sospesa a una punta
a mo' d'ago magnetico, col quale egli constatò che l'ambra non attira soltanto i fuscelli e
le pagliuzze, ma anche l'argento.
Ma se Fracastoro non andò più oltre nella sua indagine sperimentale, Gilbert capì
l'aiuto che gli sarebbe venuto dal dispositivo di Fracastoro, che senz'altro fece proprio e
usandolo nelle sue sistematiche ricerche, descritte nel secondo capitolo del libro del De
magnete. Con l'impiego di questo primo elettroscopio, Gilbert provò che attira non
soltanto l'ambra strofinata, ma anche il diamante, lo zaffiro, il carbuncolo, l'opale,
l'ametista, il berillo, il cristallo, il vetro, lo zolfo, la ceralacca, il salgemma, la pietra
speculare, ecc. E ciascuno di questi corpi chiamò “corpo elettrico”.
Dopo così abbondante messe sperimentale, Gilbert tenta una teoria
dell'attrazione dei corpi elettrici. Egli rigetta le due spiegazioni che si davano nel XVI
secolo per l'attrazione dell'ambra. L'una affermava che il calore ha la proprietà d'attrarre
e che l'ambra attira perché è riscaldata dalla frizione. Ma già Benedetti aveva dimostrato
che proprietà del calore è il rarefare e il condensare, non l'attrarre. Gilbert ripete le
considerazioni di Benedetti, aggiungendo che se proprietà del calore fosse l'attrazione,
tutti i corpi riscaldati dovrebbero attrarre, e non soltanto l'ambra. L'altra teoria aveva
una tradizione illustre, perché era stata professata da Lucrezio: gli effluvi emessi
dall'ambra strofinata producono la rarefazione dell'aria, onde le pagliuzze sono spinte
dall'aria più densa nel vuoto parziale prodotto dagli effluvi. Ma se fosse così, osserva lo
scienziato inglese, anche i corpi caldi e le fiamme dovrebbero attrarre e un corpo
;7<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

elettrizzato dovrebbe attrarre la fiamma d'una candela cui fosse vicino, mentre non solo
non la piega, ma in sua presenza perde la sua virtù.
La critica di Gilbert è senza dubbio acuta, ma la teoria che egli propose non si
presentava più verosimile di quelle che egli combatteva. Secondo Gilbert, tutti i corpi
deriverebbero da due soli elementi primi, l'acqua e la terra; quelli che derivano
dall'acqua hanno proprietà d'attrarre, perché l'acqua emette effluvi speciali che “simili a
braccia distese” afferrano il corpo e lo portano alla fonte della loro emissione, e,
avendolo compenetrato e quasi uncinato, lo trattengono abbracciato, finché non
s'illanguidiscono e, snervati, abbandonano la preda; e così via con discorsi di questo
genere negli altri casi, e stupisce che lo scienziato inglese, mentre bandisce il fluido
magnetico, ricorra poi a un fluido elettrico. Nello stabilire la distinzione tra l'attrazione
magnetica e quella elettrica (distinzione gia posta da Cardano, mentre anteriormente i
due fenomeni si ritenevano della stessa natura), Gilbert osserva un altro fatto
importante: difficilmente si riescono a elettrizzare con lo strofinio i corpi umidi, mentre
l'umidità non impedisce l'attrazione del magnete.
Per concludere, dalle mani di Gilbert la scienza elettrica, anteriormente limitata a
un unico fatto curioso, esce arricchita di numerosi fenomeni nuovi, di osservazioni
preziose, di una tecnica strumentale che per sé stessa è un nuovo capitolo di scienza:
Gilbert meriterebbe il titolo di “padre dell'elettricità”.

6.5 Galileo Galilei: il padre della scienza moderna

Il primo risultato storicamente decisivo dell'opera di Galileo Galilei


(1564–1642) è la difesa dell'autonomia della scienza, cioè la salvaguardia
dell'indipendenza del nuovo sapere da ogni ingerenza esterna. A differenza
di altri dotti del tempo, che avevano scelto di non sfidare le autorità
costituite, soprattutto ecclesiastiche, e che tenevano celate le loro scoperte o
ne facevano partecipi solo i colleghi, e in modo strettamente tecnico, Galileo intuisce che
la battaglia per la libertà della scienza era una necessità storica di primaria importanza,
in cui ne andava del futuro stesso dell'umanità. Da ciò la sua lotta, che riguardò
sostanzialmente due fronti: l'autorità religiosa, personificata dalla chiesa, e l'autorità
culturale, personificata dagli Aristotelici.
La Controriforma aveva stabilito che ogni forma di sapere dovesse essere in
armonia con la Sacra Scrittura, nella precisa interpretazione che ne aveva fornito la
chiesa cattolica, per cui il credente, alla luce della nuova scienza, doveva accettare non
solo il messaggio religioso e morale ma qualsiasi affermazione scritturale della Bibbia.
Galileo, scienziato e uomo di fede, pensava invece che una posizione del genere avrebbe
ostacolato il libero sviluppo del sapere e danneggiato la religione stessa, che, rimanendo
ancorata a tesi dichiarate false dal progresso scientifico, avrebbe inevitabilmente finito
per squalificarsi dinanzi agli occhi dei credenti. Di conseguenza, nelle cosiddette Lettere
copernicane, Galileo affronta il problema dei rapporti fra scienza e fede, pervenendo al
seguente schema di soluzione.
La Natura (oggetto della scienza) e la Bibbia (base della religione) derivano
entrambe da Dio, questa come “dettatura dello Spirito Santo”, quella come
“osservatissima esecutrice degli ordini di Dio”. Come tali, esse non possono
oggettivamente contraddirsi fra loro. Eventuali contrasti fra verità scientifica e verità
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;7;!

religiosa sono quindi soltanto apparenti (Galilei rifiuta esplicitamente la teoria della
doppia verità) e vanno risolti rivedendo l'interpretazione della Bibbia, che è stata scritta
in un linguaggio antropomorfico e relativo alle cognizioni del popolo ebraico di
millenni prima; in più la Bibbia non contiene principi che riguardano le leggi di natura,
che seguono un corso inesorabile e immutabile, senza doversi piegare alle esigenze
umane, ma verità che si riferiscono al destino ultimo dell'uomo, premendo ad essa
d'insegnarci “come si vadia al cielo, e non come vadia il cielo”.
In conclusione, se la Bibbia è arbitra nel campo etico-religioso, la scienza è arbitra
nel campo delle verità naturali, in relazione alle quali non è la scienza che deve adattarsi
alla Bibbia, ma l'interpretazione della Bibbia che deve adattarsi alla scienza. L'errore dei
teologi consiste dunque nella pretesa che la Scrittura faccia testo anche riguardo alle
conoscenze naturali, dimenticando che in questo campo “ella dovrebbe esser riserbata
nell'ultimo luogo”, e che quando la Bibbia appare in contrasto con la scienza, essa va
adeguatamente reinterpretata, andando al di là del “nudo senso delle parole”. Si noti
come la posizione galileiana, che inizialmente non poteva non apparire eretica, è
convergente con la tesi protestante del “libero esame”, abbia finito per imporsi non solo
alla cultura laica, ma alla chiesa stessa, che con il tempo è pervenuta a riconoscere
l'autonomia operativa della scienza nel campo delle conoscenze naturali, dimostrandosi
eventualmente disposta a reinterpretare la lettura dei testi biblici in conformità con la
scienza.
Indipendente dall'autorità religiosa della Bibbia, la scienza deve esserlo
altrettanto nei confronti di quella culturale di Aristotele e dei sapienti del passato.
Galileo mostra grande stima per Aristotele, che assegnava all’esperienza un ruolo
basilare per la conoscenza umana, e per gli altri scienziati antichi, per cui il suo
disprezzo colpisce piuttosto i loro infedeli discepoli, soprattutto gli Aristotelici
contemporanei, che, anzichè osservare direttamente la natura e conformare ad essa le
loro opinioni, si limitano a consultare i testi delle biblioteche, vivendo in un astratto
“mondo di carta”, con la convinzione che “il mondo sta come scrisse Aristotile e non
come vuole la natura”.
Un altro risultato storicamente importante dell'opera di Galileo, che fa di lui il
padre della scienza moderna, è l'individuazione del metodo della fisica, ossia del
procedimento che ha spalancato le porte ai maggiori progressi scientifici dell'umanità,
da Newton ad Einstein fino ai giorni nostri. Tutta l’opera di Galileo è stata guidata da
una forte consapevolezza metodica, grazie alla quale il sapere assume un carattere
aperto e progressivo, non un patrimonio definito, chiuso entro l’armatura di un sistema
dove per correggere un errore occorre mettere in crisi tutto il sistema, ma un conoscere
che cresce su se stesso, indefinitamente passibile di modificazioni, correzioni e
ampliamenti con il crescere dell’esperienza e il crearsi di nuovi strumenti per l’indagine
della natura. E quando si dice che Galileo fu il fondatore del metodo sperimentale, non
bisogna intendere che a lui si debba l'introduzione dell'esperimento come mezzo
d'indagine, perché la pratica dell'esperimentazione non s'era mai spenta dall'antichità
classica a lui. Ma in Galileo la sperimentazione si arricchisce di alcuni aspetti peculiari,
che la fanno apparire nuova. Essi sono: il ripudio del principio d'autorità (vedi
Aristotele); lo studio fenomenico, cioè descrittivo della natura, con l'analisi del come i
fenomeni avvengono, senza chiedersi perché accadano; l'abbandono d'ogni causa
occulta e dell'interpretazione antropomorfa della natura; la fede nella semplicità della
natura che segue semplici leggi matematiche.
;7=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Tuttavia, in Galileo, non vi è una teoria organica del nuovo metodo scientifico,
poiché egli, tutto preso dalle sue ricerche concrete di fisica e astronomia, applica il
metodo, più che teorizzarlo filosoficamente. Ciò nonostante, nelle sue opere si trovano
disseminate talune preziose osservazioni metodologiche e alcuni tentativi di scandire o
sintetizzare il procedimento della scienza. Ad esempio nel Saggiatore, nel Dialogo e nei
Discorsi, Galileo tende ad articolare il lavoro della scienza in due parti fondamentali:
1. il momento risolutivo o analitico che consiste nel risolvere un fenomeno complesso
nei suoi elementi semplici, quantitativi e misurabili, formulando un'ipotesi
matematica sulla legge da cui dipende;
2. momento compositivo o sintetico che risiede nella verifica e nell'esperimento,
attraverso cui si tenta di comporre o riprodurre artificialmente il fenomeno, in
modo tale che, se l'ipotesi supera la prova, risultando quindi verificata, essa venga
accettata e formulata in termini di legge, mentre, se non supera la prova, risultando
smentita o falsificata, venga sostituita da un'altra ipotesi.

Questo schema, pur descrivendo in modo formalmente corretto il procedimento


della fisica sperimentale (osservazione dei fenomeni, misurazione matematica dei dati,
ipotesi, verifica, legge), appare un po' generico e incapace di far comprendere le vie
concrete e i modi originali seguiti da Galileo nelle sue scoperte. Di conseguenza, data
l'importanza dell'argomento, risulta indispensabile scavare più a fondo. Nella lettera a
Cristina di Lorena (granduchessa di Toscana), Galileo scrive: “Pare che quello degli
effetti naturali o la sensata esperienza ci pone dinanzi agli occhi o le necessarie
dimostrazioni ci concludono, non debba in conto alcuno esser revocato in dubbio”.
Questo passo è altamente significativo, poiché in esso Galileo ha racchiuso il cuore
stesso del suo metodo e la strada effettivamente seguita nelle sue scoperte. Con
l'espressione “sensate esperienze”, che letteralmente significa “esperienze dei sensi”,
con primario riferimento alla vista, Galileo ha voluto evidenziare il momento
osservativo-induttivo della scienza, preponderante in talune scoperte (come quelle
relative ai corpi celesti). È questo il momento più comunemente noto del metodo
scientifico, denominato appunto “sperimentale”. Con l'espressione “necessarie
dimostrazioni” Galileo ha voluto evidenziare il momento raziocinativo o ipotetico-
deduttivo della scienza, preponderante in altre scoperte (ad esempio quella sul
principio d'inerzia o sulla caduta dei gravi). È questa la parte più affascinante e decisiva
del metodo galileiano. Le “necessarie dimostrazioni”, letteralmente “matematiche
dimostrazioni”, sono i ragionamenti logici, condotti su base matematica, attraverso cui
il ricercatore, partendo da una intuizione di base e procedendo per una supposizione,
formula in teoria le sue ipotesi, riservandosi di verificarle nella pratica. In altre parole,
intuendo e ragionando lo scienziato, anche sulla scorta di pochi dati empirici, perviene
talora a delle ipotesi mediante cui deduce il comportamento probabile dei fatti, che in
seguito si propone di verificare.
Tipica, in questo senso, è la via seguita da Galileo nell'intuizione teorica del
principio di inerzia, da lui riportata in modo minuzioso e suadente in un passo del
Dialogo: “Immaginiamo una superficie piana, pulitissima come uno specchio e di
materia dura come l'acciaio, e che fusse non parallela all'orizzonte, ma alquanto
inclinata, e che sopra di essa voi poneste una palla perfettamente sferica e di materia
grave e durissima, come, verbigrazia, di bronzo”. Come deduciamo si comporterà tale
palla? Starà ferma o si muoverà? Anche senza fare l'esperimento concreto, argomenta
Galileo, sappiamo che si muoverà lungo la superficie. E se ipotizziamo mentalmente
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;74!

che sia tolta anche l'azione frenante dell'aria e di altri possibili “impedimenti esterni ed
accidentarii”, come pensiamo si comporterà? Ovviamente: “ella continuerebbe a
muoversi all'infinito, se tanto durasse la inclinazione del piano e con movimento
accelerato continuamente; che tale è la natura dei mobili gravi, che vires acquirant
eundo [acquistano forza muovendosi]: che quanto maggior fusse la declivita, maggior
sarebbe la velocità”. Sostituendo poi la superficie inclinata con una orizzontale, si potrà
anche dedurre che la medesima palla “perfettissimamente rotonda”, se fosse spinta sul
medesimo piano “esquisitamente pulito”, continuerebbe indefinitamente il suo moto,
ammesso che lo spazio “fosse interminato” e che non intervenisse una forza esterna a
variarne o arrestarne il moto. Procedendo teoricamente e giustificando tramite un
esperimento "ideale" una propria intuizione, Galileo è quindi pervenuto ad una basilare
scoperta fisica.
La compresenza, nella visione metodologica di Galileo, delle “sensate
esperienze” e delle “necessarie dimostrazioni” ha fatto sì che nella storiografia del
passato Galileo sia stato presentato talora come un sostanziale "induttivista", cioè come
un ricercatore che dall'osservazione instancabile dei fatti naturali perviene a scoprire le
leggi che regolano i fenomeni; oppure, al contrario, come un convinto "deduttivista",
più fiducioso nelle capacità della ragione che in quelle dell'osservazione. In realtà
Galileo è tutte e due le cose insieme. Certo, in Galileo vi è talora, sia nella prassi
concreta della scoperta scientifica, sia nella sua consapevolizzazione metodologica,
un'innegabile prevalenza del momento sperimentale, osservativo-induttivo, oppure di
quello teorico, ipotetico-deduttivo. Ma questa alternata prevalenza dell'induzione
sperimentale sulla deduzione teorica o viceversa, che si può riscontrare nei testi di
Galileo, esprime il legame indissolubile dell’induzione e della deduzione nella scienza
galileiana. Innanzitutto, le “sensate esperienze” presuppongono sempre un riferimento
alle “necessarie dimostrazioni”, in quanto vengono assunte e rielaborate in un contesto
matematico-razionale e quindi spogliate dei loro caratteri qualitativi e ridotte alla loro
struttura puramente quantitativa. In secondo luogo esse, sin dall'inizio, sono “cariche di
teoria”, in quanto illuminate da un'ipotesi che le sceglie e le seleziona, fungendo, nei
loro confronti, da freccia indicatrice e setaccio discriminatore. È vero, ad esempio, che
Galileo scoprì ignoti fenomeni astronomici basandosi sul senso della vista, potenziata
dal telescopio, ma la decisione stessa di studiare i cieli e di puntare il cannocchiale su
determinati fenomeni e di interpretarli in un certo modo deriva dalla preliminare
accettazione dell'ipotesi copernicana. Anche le “certe dimostrazioni” presuppongono
sempre un loro implicito od esplicito richiamo alle “sensate esperienze”. Innanzitutto
l'esperienza fornisce la base e lo spunto per le ipotesi, poiché le stesse intuizioni geniali
non nascono nel vuoto, ma a contatto con l'osservazione e lo studio dei fenomeni. In
secondo luogo, intuizioni e ipotesi, che costituiscono il momento teorico delle scienze,
acquistano validità solo per mezzo della conferma sperimentale.
Certo, non sempre è possibile una verifica diretta di un principio, tuttavia, risulta
pur sempre possibile una verifica indiretta delle conseguenze che vengono dedotte
dall'accettazione del principio. In altre parole, non è necessario che tutte le proposizioni
della teoria risultino aderenti ai fatti; è necessario invece che tutti i fatti del campo di
fenomeni studiati risultino inquadrabili nella teoria. Per esempio, il principio di inerzia,
sebbene non sia constatabile empiricamente, spiega con esattezza i movimenti che si
constatano in natura. Si aggiunga inoltre che, tramite opportuni accorgimenti, risulta
possibile, in laboratorio, avvicinarsi indefinitamente alla sua verifica.
;75! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Ciò che si sta dicendo sulle “necessarie dimostrazioni” permette anche di


afferrare meglio i rapporti e le differenze fra matematica pura e teoria fisica. La
matematica costituisce, per Galileo, la logica della fisica. Mentre la logica tradizionale,
di tipo sillogistico, pur essendo utile per conoscere se i discorsi procedono in maniera
logicamente coerente, non serviva ad intuire nulla di nuovo, la matematica si pone
come uno strumento di scoperta scientifica, poiché essa, con i suoi calcoli e le sue
deduzioni, permette di avanzare nuove ipotesi sui fenomeni. E questo giustifica
l'enorme importanza che le matematiche rivestono per la fisica. Infatti, grazie alla
Rivoluzione scientifica, la più astratta delle scienze trova applicazioni sorprendenti,
divenendo il linguaggio e il metodo di lavoro della scienza. Tuttavia, mentre la
matematica pura non ha bisogno, per esser vera, di venir controllata dall'esperienza, la
deduzione matematica, in fisica, ha valore scientifico solo se trova riscontro nella realtà
che viene indagata.
Tutto questo discorso sulle relazioni intercorrenti fra ragionamento e attestazione
dei sensi, teoria ed esperimento, matematica pura e fisica, che costituisce il nodo
centrale del metodo galileiano, trova la sua più chiara e compiuta espressione nella
lettera scritta a Pietro Carcavy il 5 giugno 1637, forse il più prezioso documento che
possediamo circa il metodo di Galileo: “Io argomento ex suppositione, figurandomi un
moto verso un punto, il quale partendosi dalla quiete vada accelerandosi, crescendo la
sua velocità con la medesima proportione con la quale cresce il tempo; e di questo tal
moto io dimostro concludentemente molti accidenti; soggiungo poi che, se l'esperienza
mostrasse che tali accidenti si ritrovassero verificarsi nel moto dei gravi naturalmente
descendenti, potremmo senza errore affermare questo essere il moto medesimo che da
me fu definito e supposto; quando che no, le mie dimostrazioni fabbricate sopra la mia
supposizione, niente perdevano della sua forza e concludenza; si che come niente
progiudica alle conclusioni dimostrate da Archimede circa la spirale il non ritrovarsi
in natura mobile che in quella maniera spiralmente si muova. Ma nel moto figurato da
me è accaduto che tutte le passioni che io ne dimostro, si verificano nel moto dei gravi
naturalmente discendenti”. Da queste note sul metodo emerge chiaramente come in
Galileo i concetti di esperienza e di verifica assumano un significato inconfondibile e
originale rispetto al passato. Infatti, l'esperienza di cui parla il Pisano non è l'esperienza
immediata, ma il frutto di una elaborazione teorico-matematica dei dati, che si conclude
con la verifica. Di conseguenza, l'esperienza ordinaria è qualcosa di ancora ben lontano
dalla scienza di Galileo. In primo luogo, perché l'esperienza quotidiana può essere
ingannevole, tanto è vero che Galileo ha dovuto battagliare tutta la vita contro le
apparenze immediate dei fenomeni, che sembravano attestare tesi opposte a quelle
della scienza, ad esempio che la Terra stia ferma e che i corpi cadano con velocità
differenti. In tal modo, con Galileo comincia ad affermarsi quel divorzio fra mondo
della fisica e mondo comune, che è una caratteristica della scienza moderna.
In secondo luogo, l'esperienza, di per sé, non ha valore scientifico se non viene
legittimata dall'esperimento, al punto che si può dire che l'esperienza, scientificamente
intesa, è l'esperimento. Analogamente, la verifica di cui parla Galileo non è quella
immediata dei sensi, che può confermare teorie erronee, bensì la verifica come
procedura complessa, intenzionalmente volta a produrre delle condizioni adeguate
affinché un certo evento possa prodursi. Infatti, essendo ogni fenomeno una realtà
complessa, soggetta a molte influenze, lo scienziato deve cercare, ad arte, di riprodurlo
in modo semplificato, astraendo il più possibile dalle circostanze disturbanti, come ad
esempio l'attrito. Detto in termini galileiani: “quando il filosofo geometra [il fisico
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;76!

matematico] vuol riconoscere in concreto gli effetti dimostrati in astratto, bisogna che
diffalchi gli impedimenti della materia; che se ciò saprà fare, io vi assicuro che le cose si
riscontreranno non meno aggiustatamente che i computi aritmetici”. In tal modo, lo
scienziato è costretto a trovare condizioni su misura, che spesso non sono mai presenti
nella realtà immediata, ma solo in un laboratorio scientifico, e talora neanche in un
laboratorio reale, ma solo in uno ideale (come succede ad esempio per il principio di
inerzia). Da ciò il ricorso ai celebri esperimenti mentali, consistenti nel fatto che Galileo,
non avendo talora la possibilità di effettuare la verifica delle proprie teorie, soprattutto
per mancanza di strumenti tecnici adeguati, è costretto a ricorrere ad una sorta di fisica
ideale, non solo per formulare le ipotesi, ma anche per verificarle. Egli suppone, infatti,
l'assenza di forze, immagina piani perfettamente levigati, si raffigura il movimento nel
vuoto, ecc. Esperimenti mentali che saranno lo strumento straordinario per Einstein per
elaborare la sua rivoluzionaria teoria della relatività.
Ciò che si è detto sinora serve a far risaltare ancora di più i limiti della scienza
antica rispetto a quella galileiana. Se da un lato gli antichi erravano per eccesso di teoria
e di deduttivismo in quanto pretendevano di spiegare i fenomeni concreti partendo da
principi generali astratti, dall'altro lato sbagliavano per troppa aderenza alla realtà, cioè
per una passiva accettazione dei fenomeni come appaiono a prima vista, senza
sottoporre l'esperienza ad una approfondita critica teorica. Inoltre, la scienza antica di
tipo aristotelico non faceva uso della matematica e lo stesso platonismo, cui va
riconosciuto il merito di aver tenuto viva l'idea di una costituzione matematica
dell'universo, si fondava più su una matematica magico-metafisica, consistente nel far
corrispondere simbolicamente numeri e figure geometriche a determinati fenomeni, che
su una matematica scientifica, basata sulla misurazione e sul calcolo dei dati. Ma il
limite più grave della scienza antica risiedeva nella mancanza del controllo
sperimentale. Infatti, non sottoponendo le proprie teorie e induzioni a quella prova del
fuoco che è il "cimento" di tipo galileiano, essa non poteva mai verificare le proprie
affermazioni, rimanendo obbligata a muoversi perennemente sul piano dell'astratto e
del non controllabile, senza riuscire a trovare la via di quella feconda compenetrazione
fra ragione ed esperienza che costituisce la forza del metodo galileiano, la cui originalità
più grande consiste proprio nell'aver saputo riunire in sè il momento osservativo e
induttivo della ricerca, rappresentato dalle “sensate esperienze”, con quello teorico e
deduttivo, rappresentato dalle “necessarie dimostrazioni”, e nell'aver saputo
sintetizzare in modo mirabile ragione e sensi, osservazione e raziocinio, teoria ed
esperimento, induzione e deduzione, matematica e fisica.
Con il suo metodo Galileo perviene a quella struttura concettuale che costituisce
lo schema teorico della scienza moderna: la natura è un ordine oggettivo e causalmente
strutturato di relazioni governate da leggi e la scienza è un sapere sperimentale-
matematico intersoggettivamente valido. In particolare, contro ogni considerazione
finalistica e antropomorfica del mondo, Galileo afferma che le opere della natura non
possono essere giudicate con un metro puramente umano, cioè sulla base di ciò che
l'uomo può intendere o di ciò che a lui torna utile. Pertanto, non dobbiamo cercare
perché la Natura opera in un certo modo (causa finale), ma solo come opera (causa
efficiente). Analogamente, contro ogni fisica essenzialista che pretenda di spiegare i fatti
in base alle essenze, o alle virtù, (l'essenza del moto, la virtù del calore, ecc.), Galileo
ribatte che lo scienziato deve esclusivamente occuparsi delle leggi che regolano i fatti,
ossia delle verificabili costanti di comportamento attraverso cui la natura agisce.
;77! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

La struttura concettuale del metodo galileiano si presenta come una costruzione


autonoma che vale di per sé, indipendentemente da possibili giustificazioni filosofiche.
E però, Galileo, pur non essendo un filosofo e pur non avendo mai proceduto ad una
fondazione sistematica del proprio metodo, si è ispirato, in concreto, ad alcune idee
generali, di tipo filosofico, attinte per lo più dalla tradizione o da dottrine
contemporanee, ma originalmente rielaborate e atteggiate. La fiducia galileiana nella
matematica, ad esempio, viene incentivata e convalidata al tempo stesso dalla dottrina
platonico-pitagorica della struttura matematica del cosmo, ossia dalla persuasione che
la natura del mondo sia di tipo geometrico, per cui solo chi conosce il linguaggio
matematico risulta in grado di decifrarla. Secondo Galileo la fisica matematica non si
applicava a un qualche ideale (platonico) o arbitrario (medievale) stato di cose, poiché, a
patto che la rappresentazione matematica sia sufficientemente complessa, il fisico può
farla corrispondere alla realtà in modo quanto vuole esatto. Galileo afferma il primato
non solo epistemologico ma anche ontologico della matematica, nel senso che il mondo
in sé è ontologicamente, strutturalmente geometrico. Il grande libro della natura è
aperto davanti ai nostri occhi, e ognuno può leggerlo, ma occorre essere matematici,
poiché esso è scritto in lingua matematica, e le lettere dell’alfabeto di questa lingua sono
figure geometriche, e in questo senso Galileo si proclama pitagorico.
Ma, fuori di metafora, ciò significa una geniale ed energica ripresa della teoria
atomistica. Il mondo è costituito da atomi, corpuscoli o particelle indivisibili, differenti
tra loro soltanto per determinazioni geometrico-meccaniche. Gli atomi sono l’alfabeto di
cui è composto il libro della natura. Gli eventi fisici si riducono quindi a moti di atomi, e
leggi di natura, in cui si modella matematicamente il moto di questi atomi, si applicano
primariamente ai corpuscoli. In ultima analisi, quindi, le curve fisiche diventano curve
geometriche; i corpi reali si comportano come solidi geometrici; lo spazio vuoto ha le
proprietà della geometria di Euclide. Da il Saggiatore: “La filosofia è scritta in questo
grandissimo libro, che continuamente ci sta aperto innanzi agli occhi (io dico
l'Universo), ma non si può intendere se prima non s'impara intender la lingua, e
conoscer i caratteri ne’ quali è scritto. Egli è scritto in lingua matematica, e i caratteri
son triangoli, cerchi, cd altre figure geometriche, senza i quali mezzi impossibile a
intenderne umanamente parola; senza questi è un aggirarsi vanamente per un oscuro
labirinto”. Il privilegiare gli aspetti quantitativi del reale e la riduzione dell'oggetto
scientifico a struttura matematicamente trattabile viene corroborata dal ricorso all'antica
distinzione atomistico-democritea fra proprietà oggettive e proprietà soggettive dei
corpi. Le prime caratterizzano i corpi in quanto tali, inseparabili dai copri stessi, e sono
tutte di natura geometrico-quantitativa: forma, dimensioni, moto, tempo, quiete,
distanza, numero; le seconde, invece, non sono caratteri oggettivi dei corpi, sebbene
siano prodotti da essi, ed esistono solo in relazione ai nostri sensi, ossia dipendono dalla
costituzione fisico-psichica del soggetto che conosce ed esperimenta.
Tuttavia Galileo, almeno a quanto ci risulta, va più in là di Democrito, tentando
di costruire una fisica delle sensazioni, appunto sulla base della teoria corpuscolare. Le
qualità sensibili, per esempio l'odore e il sapore, i rumori e i suoni, dipendono dal modo
in cui le particelle dei corpi (o almeno gruppi di particelle che si staccano dai corpi)
agiscono meccanicamente sulla particolare e determinata struttura dei nostri organi di
senso. Così l'odore è determinato da sciami di corpuscoli che colpiscono le nostre
innervature olfattive, il sapore da corpuscoli abbastanza sottili da penetrare nei pori
degli organi del gusto ecc. Soltanto, Galileo si arresta di fronte alle qualità visive che
dipendono dalla luce. Il fatto che egli pensi che la propagazione della luce è istantanea
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;78!

(che la luce si propaghi a velocità finita fu stabilito dal Romer nel 1676) lo rende molto
esitante ad attribuirle natura corpuscolare, o comunque materiale, sebbene intuisca
chiaramente questa dottrina, perciò la fisica della visione gli riesce oscura e poco
scientifica. Comunque, attraverso questa fisica delle sensazioni la distinzione tra qualità
vere e qualità soggettive, che in Democrito (almeno cosi come ci e pervenuta) rischiava
di essere addirittura contraddittoria, diventa plausibile. Ma resta comunque una
dottrina metafisica, fondata sull'assunzione della realtà ontologica di un piano ideale
della natura.
La credenza nella validità del rapporto causale e delle leggi generali scoperte
dalla scienza, basate sul principio che a cause simili corrispondano necessariamente
effetti simili, viene suggerita e avvalorata dalla persuasione dell'uniformità dell'ordine
naturale, che seguendo un corso sempre identico a se stesso risulta necessario e
immutabile come una verità geometrica. La fiducia nella verità assoluta della scienza
viene confortata mediante la teoria secondo cui la conoscenza umana, pur differendo da
quella divina per il modo di apprendere e per l'estensione di nozioni possedute, risulta
simile per il grado di certezza. Infatti, mentre Dio conosce intuitivamente, cioè in modo
immediato, la verità, l'uomo la conquista progressivamente attraverso il ragionamento
discorsivo. Inoltre, Dio conosce tutte le infinite verità, mentre l'uomo solo alcune di
esse. Tuttavia, per quanto riguarda le dimostrazioni matematiche, la qualità della
certezza è identica. Queste giustificazioni filosofiche poggiano, a ben vedere, su
un'unica credenza di base, che sta a monte del lavoro scientifico di Galileo e di ogni suo
tentativo di legittimazione teorica: la corrispondenza fra pensiero ed essere, ossia la
conformità fra ciò che la scienza sostiene e il mondo qual è veramente: l'accordo
generale fra matematica e natura, l'armonia fra il pensiero e la realtà è per lui una
convinzione soggettiva, anteriore ad ogni riflessione filosofica.
Il contributo scientifico di Galileo alla fisica e all’astronomia è vastissimo e
determinante, per cui, trascurando i lavori meno importanti, cominciamo ad esaminare
il problema centrale della fisica a cui si dedicò sin dall’inizio della sua vita da scienziato:
il moto dei gravi. Nel suo lavoro giovanile il De Motu, Galileo mutua dal Benedetti la
teoria dell’impeto, rigettando così la teoria aristotelica dei moti violenti. Ma già in
questa prima scrittura, Galileo nega che i corpi abbiano leggerezza in sé, che tendono
alla quiete, che l’aria, nonché resistere, coadiuva al moto; pertanto adotta in maniera
definitiva l’ipotesi che la gravità è indipendente dalla natura dei gravi stessi,
contrariamente alla teoria aristotelica dove la gravità dipendeva dal luogo naturale del
corpo e quindi fosse inerente all’essenza o natura del corpo stesso (pesante o leggera) e
che rappresenta un’accelerazione costante applicata in misura uguale a tutti i corpi in
caduta libera, sebbene in Galileo non venga ancora menzionata la parola accelerazione.
Una certa connessione con la teoria atomica è invece introdotta nell’opera
Discorso sulle cose che stanno in sull’acqua sul galleggiamento dei corpi in liquidi, dove,
riprendendo l’opera di Archimede, critica la concezione peripatetica per cui i corpi
galleggiano o no a seconda che siano pesanti o leggeri, e analizzando questi concetti
mostra come siano privi di qualunque senso fisico; e a questa contrappone la dottrina
archimedea per cui il galleggiamento dipende dal peso dell’acqua spostata dal
galleggiante, e quindi dalla forma geometrica e dal peso specifico. Con questi teoremi
sulla gravità Galileo inizia l’era della fisica moderna. Non si tratta soltanto della
raggiunta soluzione di annosi problemi, peraltro intravista già nel tardo Medioevo, ma
perché quello di veramente e radicalmente nuovo che entra in gioco è il concetto
;79! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

meccanico di movimento, per cui questo è qualcosa di non-qualitativo, non-finalistico,


di rappresentabile nel linguaggio della geometria euclidea, ossia in un continuo
omogeneo tridimensionale. L’esperimento mentale è in realtà un procedimento
astrattizzante, che riduce il fenomeno ad un tipico schema o modello matematico: in
questo caso il modello di un corpo ideale che descrive una retta sollecitato da una
accelerazione costante geometricamente rappresentabile e misurabile.
Ma una tale nozione non sarebbe stata completa nel suo significato senza il
principio di inerzia, infatti solo mediante questo il concetto di accelerazione acquista un
senso e il meccanismo può affermarsi decisamente sulle rovine del finalismo ed
essenzialismo della fisica aristotelico-medievale. Per la fisica aristotelica la quiete era lo
stato naturale dei corpi sublunari, essendo il moto, sia esso naturale o violento, qualcosa
di temporaneo, che viene meno non appena cessa l’applicazione della forza che lo
produce. Invece, con l’intuizione teorica del principio d’inerzia, secondo cui:

PRINCIPIO D’INERZIA
Un corpo tende a conservare indefinitamente il suo stato di quiete o di moto rettilineo
uniforme, sicché non intervengono forze esterne a modificare tale stato

Galileo superava il doppio pregiudizio per cui la quiete è qualcosa di naturale e


che il moto si mantiene solo finché permane la forza che lo ha provocato. La chiara
formulazione di tale principio non si avrà che con Newton, ma in Galileo esso è
sufficientemente chiaro, esplicito ed operativo. D’altra parte, un tale principio era
implicito nella stessa concezione archimedeo-euclidea dello spazio come continuo
uniforme, per cui operando in profondità entro e mediante tale concezione, esso doveva
finire con l’emergere.
In questo contesto di studi, Galileo perviene anche alla scoperta del cosiddetto
secondo principio della dinamica, ossia al principio in base al quale le forze applicate ai
corpi non causano loro delle velocità, ma delle accelerazioni, che risultano
proporzionali alle forze che le hanno prodotte. Ciò gli permette di determinare il
concetto di accelerazione come variazione di velocità, e il concetto di massa di un copro
come rapporto di proporzionalità tra le forze applicate e le accelerazioni prodotte da tali
forze. Però in questo caso la formulazione galileiana del secondo principio non è del
tutto chiara. Ma perché Galileo potesse giungere ai concetti di accelerazione e di forza in
senso moderno, gli sarebbe stata necessaria una teoria matematica intorno a
quell’attributo dello spazio euclideo per cui questo si dice continuo. Con questo
strumento i fisici del settecento, a cominciare da Newton, potranno non solo
completare, ma rendere organica tutta la fisica galileiana.
Nel trattato, Della scienza meccanica, e delle utilità che si traggono da gl’istromenti di
quella, Galileo espone la teoria delle macchine semplici, introducendo il concetto di
momento di una forza rispetto a un punto, anche se non nei modi matematicamente
precisi di oggi. In particolare, nell'operetta si trova enunciato in forma esplicita e
corretta, ma non generale, uno dei principi più fecondi della meccanica moderna, quello
dei lavori virtuali.
Particolare menzione merita l'esperimento termoscopico, che risale intorno al
1597. Esso è importante non già per le lunghissime discussioni di priorità
sull'invenzione del termometro, cui ha dato luogo, ma per la mentalità nuova,
antiperipatetica che ha presieduto alla sua ideazione e applicazione. Non soltanto
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;7:!

Galileo ritiene di potersi fidare del nuovo strumento, ma ritiene le sue indicazioni più
obiettive delle nostre sensazioni. Insomma, egli insegna che la fisica ha bisogno di
strumenti, e questa concezione è veramente rivoluzionaria rispetto alla filosofia
peripatetica del tempo.
Ma le scoperte che dovevano renderlo più celebre ai suoi tempi e impegnarlo in
una battaglia culturale di vasto respiro sono quelle astronomiche. Infatti, le nuove
scoperte astronomiche gettavano lo scompiglio in un mondo di credenza filosofiche e di
visioni cosmologiche tradizionali. In particolare, proiettavano ombre dense sulla base
metafisica di quelle credenza e di quelle visioni cosmologiche, poiché demolivano la
concezione del mondo che la maggior parte dei commentatori di Aristotele sosteneva
come vera nei libri e nelle università.
Nel Saggiatore Galileo scrive che, venuto a conoscenza del fatto che un olandese
aveva presentato un “occhiale” mediante cui “le cose lontane si vedevano così
perfettamente come se fossero state molto vicine”, ne aveva costruito uno per proprio
conto molto più potente. La grandezza di Galileo non consiste tanto nell’aver costruito
il cannocchiale per primo oppure no, ma nell’averlo usato scientificamente, ossia
puntandolo verso il cielo lo ha trasformato in uno strumento primario dell’osservazione
astronomica, facendo, grazie ad esso, le sensazionali scoperte divulgate nel Sidereus
nuncius. La Via Lattea si risolveva in una indefinita quantità di stelle, la Luna rivelava le
sue montuosità, il Sole presentava delle macchie scure sulla sua superficie, Venere
presentava delle fasi, ma soprattutto scopriva i quattro satelliti di Giove. Per capire
l’importanza, non solo strettamente scientifica, ma più generalmente filosofica di queste
scoperte si pensi a quante idee tradizionali esse venivano a distruggere: con la scoperta
dei satelliti di Giove si ammetteva che fossero possibili movimenti intorno ad altri
pianeti e veniva a cadere l’idea che soltanto la Terra, essendo immobile, fosse il centro
di moti astrali e che un corpo in movimento nello spazio non potesse costituire un
nucleo di movimento per altri corpi; veniva abbattuto il concetto della perfezione, e
quindi dell’incorruttibilità e del non divenire, dei corpi celesti; la Terra non era l’unico
corpo opaco illuminato dal Sole e privo di luce propria, ma anche Venere, con la
scoperta delle sue fasi, riceveva la luce dal Sole girandovi attorno. Galileo distrusse,
così, il cosmo aristotelico: la Luna, il Sole ed i pianeti furono ridotti allo stato di corpi
fisici come la Terra. Il mondo sublunare e il cosmo furono praticamente unificati. Per la
prima volta si affermava chiaramente che l’intero universo e ogni parte di esso sono
soggetti alle stesse leggi. L’universo galileiano è costituito soltanto di materia e
movimento ed è numericamente strutturato.
Il Saggiatore (1623) è un gioiello della nostra letteratura polemica, e fra i
capolavori di Galileo è il più povero di contenuto scientifico. E tuttavia la sua
importanza fu notevolissima per l'evoluzione del pensiero scientifico in quanto assume
quasi il valore di un manifesto del nuovo metodo sperimentale matematico, di una
dichiarazione di guerra al principio d'autorità. Nel Saggiatore si toccano quasi tutti i
problemi della ricerca fisica del tempo, come l’importanza della matematica nella
ricerca delle leggi fisiche; l'ingrandimento dei cannocchiali; la necessità di definizioni
esatte dei termini, che eviti l'indeterminatezza di alcuni vocaboli del linguaggio
comune; il concetto di causa; la relazione tra l'altezza dei suoni delle canne d'organo o le
corde dell'arpa e la loro lunghezza; la natura del calore; la distinzione tra qualità
primarie e secondarie, che, come abbiamo visto, sono un carattere distintivo della fisica
galileiana. E per spiegare meglio il concetto, Galileo passa subito agli esempi delle
;8<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

sensazioni tattili che sono in noi e non nel corpo che ci tocca; e il “calore”, è per Galileo
un fantasma dei sensi: “… che quelle materie che in noi producono e fanno sentire il
caldo, le quali noi chiamiamo con nome generico fuoco, siano una moltitudine di
corpicelli minimi, in tal e tal modo figurati, mossi con tanta e tanta velocità; li quali,
incontrando il nostro corpo, lo penetrino per la lor somma sottilità, e che il lor
toccamento, fatto nel lor passaggio nella nostra sostanza e sentito da noi, sia l'affezione
che noi chiamiamo caldo, grato o molesto secondo la moltitudine e velocità minore o
maggiore di essi minimi che ci vanno pungendo e penetrando”. Non siamo ancora alla
teoria cinetica del calore, perché per Galileo i “corpicelli minimi” sono le particelle di
fuoco e non le molecole dei corpi, ma rappresenta un primo e importante passo.
Nel Saggiatore Galileo elabora gli elementi di una vera e propria teoria della
conoscenza. La natura, secondo Galileo, ha una intrinseca e infinita ricchezza “nel
produr suoi effetti con maniere inescogitabili da noi”. Occorre pertanto, nello studio dei
fenomeni, avere sempre in mente questa ricchezza e ricordare, di conseguenza, quanto
sia vana “la forza dell’umane autorità sopra gli effetti della natura, sorda ed
inessorabile a i nostri vani desideri”. Galileo, quindi, ha sempre creduto che la scienza
non si fonda, vuoi in sede sperimentale, vuoi per mezzo di dimostrazioni matematiche,
su verità assolute e incontrovertibili, bensì sia una via privilegiata verso la verità, a
condizione però che si accetti che anche i fenomeni più semplici non siano spiegabili in
modo completo e una volte per tutte. L’astronomia e la fisica procedono dunque verso
la verità ma non la raggiungono mai in forme immodificabili. Il sapere scientifico cresce
di scoperta in scoperta e non si assesta su sistemi dogmatici. Nelle lettere sulle macchie
solari, per esempio, Galileo aveva sottolineato come, a suo avviso, fosse inutile e
dannoso per il sapere ogni tentativo di imporre alla natura una qualche forma di
soggezione o dipendenza dai nostri concetti. Non si trattava di piegare la natura alle
nostre idee, ma di modificare incessantemente queste ultime, perché “prima furon le
cose, e poi i nomi”. Con il linguaggio gli esseri umani descrivono ciò che i sensi riescono
ad afferrare quando esplorano il mondo esterno, e la descrizione attribuisce alle cose
che stanno nel mondo certi insiemi di proprietà. Esiste dunque un rapporto tra le
descrizioni linguistiche delle cose e ciò che i sensi fanno. Il che vuol dire che le
informazioni che ciascuno di noi riceve attraverso gli organi sensoriali dipendono
fortemente da come essi sono fatti e non dipendono soltanto da come sono fatte le cose.
Ebbene, questo rapporto fra il linguaggio, i sensi e gli oggetti è necessariamente tale da
costringerci a prestare molta attenzione quando diciamo che una cosa possiede una data
proprietà: quest’ultima, infatti, potrebbe essere una caratteristica dovuta unicamente al
funzionamento di un nostro organo di senso. Si aveva pertanto bisogno di un criterio
grazie al quale un essere umano potesse distinguere tra la realtà e l’apparenza. La
questione era ovviamente della massima importanza. Poteva infatti accadere che i nostri
ragionamenti sulle cose fossero fallaci in quanto si rivolgevano non alla realtà, ma ad
apparenze che dipendevano, per esempio, solo “dalla vista de’ riguardanti”: apparenze
che ci spingevano erroneamente a parlare di cose mentre, per la verità, si trattava di
“simulacri” o illusioni che svanivano una volta eliminata la percezione visiva.
Era indispensabile, secondo Galileo, tracciare un confine tra quelle proprietà che
erano realmente possedutedalle cose esterne e quelle che, invece, si realizzavano
soltanto negli organi di senso. A quel confine corrispondeva un confine interno al
linguaggio, in quanto esistevano nomi che erano veri perché indicavano proprietà reali
dei corpi, e nomi “puri” che erano invece riferiti al funzionamento dei sensi e non
indicavano alcuna reale qualità degli oggetti esterni. La scienza aveva il compito di
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;8;!

ineteressarsi delle sole qualità alle quali corripondevano nomi veri: dalle descrizioni
scientifiche dei fenomeni erano pertanto banditi tutti gli altri nomi, che parlavano
soltanto dell’osservatore. A questo punto è necessario riportare un passo del Saggiatore,
nel quale Galileo traccia le linee essenziali di una vera e propria teoria della conoscenza
umana: “Per tanto io dico che ben sento tirarmi dalla necessità, subito che concepisco
una materia o sostanza corporea, a concepire insieme ch’ella è terminata e figurata di
questa o di quella figua, ch’ella in relazione ad altre è grande o piccola, ch’ella è in
questo o quel luogo, in questo o quel tempo, ch’ella si muove o sta ferma, ch’ella tocca o
non tocca un altro corpo, ch’ella è una, poche o molte, né per veruna imaginazione
posso separarla da queste condizioni”. Erano queste, insomma, le vere proprietà degli
oggetti reali: geometriche, disposizioni nello spazio, stati di movimento e numero di
parti costituenti i corpi. Queste proprietà o qualità erano talmente vere da risultare
indifferenti alla nostra immaginazione, nel senso che quest’ultima non poteva
artificiosamente separare la materia dalle sue proprie e intrinseche qualità oggettive. La
conoscenza doveva pertanto essere indipendente dalle operazioni del “corpo sensitivo”,
e quindi dalla struttura sensoriale degli osservatori, per rivolgersi solo a ciò che
realmente caratterizzava il mondo esterno. L’autore del Saggiatore poneva in rilievo non
tanto il diffuso punto di vista secondo cui l’intero universo era fondato su “grandezze,
figure, moltitudini e movimenti tardi o veloci”. Ma che, essendo questa l’architettura
oggettiva dell’universo, solo la scienza aveva la capacità di fare scoperte lungo il
cammino verso la verità.
Nel 1632 Galileo pubblica il capolavoro scientifico-
letterario che è il Dialogo sopra i due massimi sistemi del mondo, in
cui, dietro il pretesto di voler presentare imparzialmente i due
maggiori modelli cosmologici della storia, espone in realtà
argomenti decisivi a favore del copernicanesimo. La
pubblicazione del Dialogo è un evento memorabile nella storia del
pensiero umano. Esso non è propriamente un trattato
d'astronomia o di fisica, ma un'opera pedagogica volta a
combattere l'aristotelismo e ad abbattere il principio d'autorità;
un'opera di propaganda culturale a favore della nuova immagine
del mondo portata dal copernicanesimo, cornice entro la quale si svolgerà la ricerca
scientifica del secolo.
Per presentare la teoria geocentrica, Galileo sceglie Simplicio, un pedante dalla
mentalità conservatrice e tradizionalista, attaccato all'autorità di Aristotele. Per
difendere la teoria copernicana sceglie Salviati che incarna l'intelligenza chiara, rigorosa
anticonformista del nuovo scienziato. Nella parte di neutrale moderatore viene posto
Sagredo che rappresenta un tipo di personalità non oppressa dai pregiudizi, e quindi
tendenzialmente portata a simpatizzare con le dottrine recenti.
Il Dialogo è diviso in quattro giornate, nella prima delle quali si pone sotto accusa
la distinzione aristotelica fra il mondo celeste, ingenerabile e incorruttibile, e quello
terrestre, sede del divenire, con argomenti tratti soprattutto dalle osservazioni
astronomiche divulgate nel Sidereus nuncius dai suoi studi di meccanica dei movimenti.
La seconda giornata, la più vivace, è dedicata alla confutazione degli argomenti
tipici antichi e moderni contro il moto della Terra, valendosi delle leggi della nuova
meccanica, come il principio d’inerzia, la composizione dei moti simultanei, il principio
di relatività e la legge di caduta dei gravi. Contro chi sostiene ad esempio che la Terra,
ruotando davvero su se stessa, solleverebbe un vento tale da trasportare tutti gli oggetti,
;8=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Galileo, per bocca di Salviati, risponde che l'aria partecipa dello stesso movimento della
Terra, e quindi in rapporto ad essa è ferma, come risulta fermo un individuo su di una
nave in moto. Contro chi obietta che, se la Terra si muovesse davvero da ovest ad est, le
nuvole dovrebbero apparirci continuamente in moto da est ad ovest, oppure il volo
degli uccelli non potrebbe tener dietro al velocissimo spostamento del nostro pianeta,
Galileo risponde, per analogia, che l'aria partecipa del moto della Terra. Al noto
argomento, uno dei prediletti dagli Aristotelici, secondo cui, se la Terra si muovesse
davvero da ovest ad est, i gravi dovrebbero cadere obliquamente, cioè più verso ovest
essendosi la Terra nel frattempo spostata verso est. Galileo ribatte affermando che il
grave partecipa del moto da ovest verso est e quindi, muovendosi insieme alla Terra,
cade perpendicolarmente. Tanto è vero che un sasso, lasciato cadere dalla cima
dell'albero di una nave in moto rettilineo uniforme, si ferma ai piedi dell'albero, proprio
come se la nave stesse ferma. Lo stesso avviene all'interno di quel sistema più vasto che
è la Terra. Queste geniali contro-argomentazioni di Galileo, che oppongono il pensiero
scientifico al senso comune e ai pregiudizi culturali del passato, si ispirano tutte al
cosiddetto principio della relatività galileiana, secondo cui risulta impossibile decidere,
sulla base delle esperienze meccaniche compiute all'interno di un sistema chiuso, cioè
senza possibilità di riferirsi a qualcosa di esterno, se esso sia in quiete o in moto
rettilineo uniforme:

PRINCIPIO DI RELATIVITA’
Le leggi della fisica sono sempre della stessa forma nei sistemi di riferimento inerziali

Questa legge, che anticipa la relatività ristretta di Einstein, è presentata da


Galileo in un brano famoso: “Riserratevi con qualche amico nella maggiore stanza che
sia sotto coverta di alcun grande naviglio, e quivi fate d'aver mosche, farfalle e simili
animaletti volanti; siavi anco un gran vaso d'acqua, e dentrovi de' pescetti; sospendasi
anco in alto qualche secchiello, che a goccia a goccia vada versando dell'acqua in un
altro vaso di angusta bocca, che sia posto a basso; e stando ferma la nave, [...] osservate
che avrete diligentemente tutte queste cose, [...] fate muover la nave con quanta si
voglia velocità; che (pur che il moto sia uniforme e non fluttuante in qua e in là) voi
non riconoscerete una minima mutazione in tutti li nominati effetti, né da alcuno di
quelli potrete comprender se la nave cammina o pure sta ferma [...] le gocciole
cadranno come prima nel vaso inferiore, senza caderne pur una verso poppa, benché,
mentre la gocciola è per aria, la nave scorra di molti palmi [...]”. Analiticamente si
passa dalle leggi espresse in un sistema alle leggi espresse in un altro, applicando
semplicissime formule, che nel loro complesso si chiamano trasformazioni galileiane. Si
esprime quindi il principio di relatività, dicendo che le leggi della meccanica restano
invariate rispetto a una trasformazione galileiana. Pertanto, in base a questo principio di
relatività, possiamo affermare che, in quel sistema quasi inerziale che è la Terra, l'aria
circostante si muove insieme con la Terra stessa e i gravi cadono comportandosi,
approssimativamente, come se essa fosse immobile.
Nella terza giornata del Dialogo viene dimostrato il moto di rotazione della Terra
ed esaltata la concezione copernicana, capace, secondo Galileo, di fornire spiegazioni di
fenomeni altrimenti inspiegabili e di chiarire con rigore e matematica semplicità
problemi inutilmente complicati e sofisticati dal sistema tolemaico. Così, il sistema
copernicano cessava di fatto di essere una semplice ipotesi astronomica per apparire il
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;84!

più naturale sistema di meccanica celeste entro la nuova intuizione meccanicistica della
natura e dello spazio fisico che i teoremi fondamentali della fisica galileiana venivano
mettendo in rilievo nei sui caratteri fondamentali. Nell’assoluta omogeneità dello
spazio perdevano ogni senso le distinzioni tra cielo e terra, alto e basso; in tutto lo
spazio vigeva fondamentalmente lo stesso schema geometrico-meccanico del moto,
fondato sui principi d’inerzia e relatività classica. E la gravità in questo schema che
ruolo assume? Galileo, attraverso Salviati, ammette la propria ignoranza sulla sua
natura ma, nello stesso tempo, intuisce che rappresenta lo stesso principio che faceva
muovere i pianeti, la sfera stellata e “le parti della Terra in giù”. E così cadeva la grande
barriera metafisica che nei secoli aveva separato il nostro mondo sublunare dal resto
dell’universo. Nel Dialogo era stata così indicata la direzione da seguire per giungere a
una teoria unificata che comprendesse in se stessa la fisica terrestre e l’astronomia
kepleriana. Il problema resterà insoluto fino a Newton, il quale estenderà a tutto lo
spazio fisico l’azione della gravità.
Nella quarta giornata Galileo espone la sua dottrina delle maree, ed
erroneamente credette che costituissero la prova più sicura dei moti della Terra.
Supponiamo, dice, una nave cisterna che trasporti acqua dolce a Venezia. Se la velocità
della nave varia, l'acqua in essa contenuta scorrerà, per inerzia, innalzandosi verso
poppa o verso prora: la Terra è come la nave cisterna, il mare è come l'acqua in essa
contenuta, la disuniformità di moto è dovuta alla composizione dei due moti della
Terra, diurno e annuo.
Nell'opera scientifica più matura di Galileo, Discorsi e Dimostrazioni matematiche
sopra due nuove scienze, vengono affrontati due temi classici della meccanica: la teoria
della coesione e quella del moto dei proietti. La prima si riportava alla dottrina
dell'equilibrio, la seconda si apriva invece sulla nuova scienza-base della fisica, la
dinamica. Galileo ha costantemente la precisa sensazione di rappresentare una nuova
cultura, anti-feudale ed anti-accademica, e questa consapevolezza è giunta al suo apice:
l’astrazione matematica, tanto tipica della scienza galileiana e pure legata ad una sua
concezione platonica del mondo, si rivela la più tecnicamente efficace, fondata com'è
sulle operazioni fondamentali del misurare. Tuttavia, a differenza delle grandi opere
precedenti qui Galileo è giunto anche ad una chiara coscienza dell'universalità del
nuovo sapere che sta creando: per questo, riservando il volgare per un commento
sciolto ed empirico delle dottrine presentate, usa il latino per esporre, entro il modello
euclideo di sistema matematico, le dottrine stesse. L'opera, con la quale nasce
ufficialmente la meccanica razionale moderna, presenta varie caratteristiche degne di
rilievo. La prima è la risoluzione della statica nella dinamica. Finora la prima disciplina,
tra l'altro assai antica, era stata trattata indipendentemente dalla dinamica: le condizioni
dell'equilibrio erano state ricercate fuori di una teoria generale del moto; se mai, anzi, la
dinamica era stata studiata da un punto di vista prevalentemente statico. Galileo
rovescia la situazione: le condizioni di equilibrio (e di coesione) sono date
dall'applicazione delle medesime leggi dinamiche che spiegano anche il moto dei
proietti, e cioè dalla legge di gravità formulata matematicamente (spazi proporzionali ai
quadrati dei tempi) e dalla grande legge della composizione dei moti che Galileo espone
con grande precisione nelle sue modalità geometrico-quantitative. I corpi si muovono
descrivendo una data curva (che per i proietti dei cannoni è una parabola), la quale
risulta componendo i moti (quello impresso dal motore, per esempio dal cannone, con
quello determinato dalla gravità); stanno in equilibrio quando nella composizione i moti
;85! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

che li sollecitano si annullano. Così i teoremi fondamentali della dinamica permettono


lo snodarsi deduttivo di teoremi (peraltro tutti verificabili e verificati nei loro riferimenti
empirici) di una nuova disciplina fisico-matematica, che diverrà in meno di un secolo la
grande nuova scienza europea.
La nuova fisica-matematica galileiana si muove nello sfondo già noto: alla base di
essa sta la concezione dello spazio euclideo come continuo omogeneo tridimensionale,
nel quale tutti i luoghi sono i luoghi naturali di ogni corpo e nel quale tutte le cose sono
allo stesso livello di essere, e del moto inerziale come struttura primitiva di questo
spazio. La identificazione dello spazio reale con lo spazio geometrico è una delle grandi
conquiste di Galilei anche se questa geometrizzazione viene compiuta sia in termini di
cerchi sia di linee rette. Delle difficoltà connesse a questo tipo di geometrizzazione offre
una chiara illustrazione la confutazione di Simplicio secondo il quale case e alberi
verrebbero strappati via dalla rotazione della Terra. Galilei elabora una risposta che
tende a dimostrare che una forza centrifuga non è in grado di far schizzare un oggetto
fuori da un moto circolare uniforme ove esista una forza contraria, anche debole, diretta
verso il centro. Huygens e Newton, mezzo secolo più tardi, saranno in grado di
calcolare la forza centrifuga prodotta dalla rotazione terrestre e di confrontarla con la
forza di gravità.
Fra le digressioni più importanti per la storia della fisica contenute nell’opera è
quella relativa alla velocità della luce. Quasi tutti i fisici avevano ritenuta infinita la
velocità della luce, e Galileo, dimostrato che le ragioni apportate a tale idea non erano
convincenti, attraverso l’esperimento, voleva sciogliere ogni dubbio e dimostrare la
velocità finita della luce: due sperimentatori, A e B, ciascuno munito di una lanterna, si
mettono a distanza. A scopre la propria lanterna; B, secondo il preventivo accordo,
scopre la propria, appena percepisce la luce di A. Questi, pertanto, percepirà il segnale
di B dopo un tempo, dall'apertura della propria lanterna, doppio del tempo impiegato
dalla luce per andare da A a B. A Galileo l'esperimento, tentato su piccola distanza, non
poteva riuscire, data l'enorme velocità della luce. Ma egli pone il problema in termini
sperimentali, ed è questo un grande merito scientifico, indipendentemente dal risultato.
Gli rimane anche il merito di aver progettato un esperimento talmente geniale che sarà
impiegato oltre duecento anni dopo da Fizeau per la prima misura terrestre della
velocità della luce. Un'altra digressione, di particolare interesse fisico è il moto
pendolare e la sua applicazione a questioni di acustica. Già in una lettera del 1602 aveva
descritto le esperienze che lo avevano condotto alla scoperta dell'isocronismo delle
oscillazioni pendolari e alla sua indipendenza dalla materia di cui è costituito il
pendolo. A queste leggi, ripetute nel Dialogo, nei Discorsi aggiunge la scoperta della
proporzionalità del periodo di un pendolo alla radice quadrata della sua lunghezza:
! ! !! ! ! . Il moto del pendolo offre a Galileo l'opportunità di uno studio accurato
della risonanza meccanica, e gli consente di passare alla spiegazione della risonanza
acustica e a descrivere un bellissimo esperimento di produzione di onde nell'acqua
contenuta in un bicchiere, del quale si frega l'orlo col polpastrello del dito. Fu proprio
mediante questo esperimento che Galileo si accertò del fatto che l'altezza di un suono
dipende dalla frequenza delle vibrazioni, corrispondendo a maggior frequenza suono
più acuto.
La scoperta della legge di caduta dei gravi richiedeva un genio straordinario, e
Galileo lo era, e l’eccezionale sforzo intellettuale risulta anche dalla tormentata vicenda
della scoperta, che per brevità percorreremo per linee generali. Galileo, persuaso dalla
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;86!

correttezza del sistema copernicano, e convinto quindi che la Terra sia un pianeta come
gli altri, allora, se i movimenti nel cielo seguono precise leggi matematiche, allora anche
sulla Terra devono esistere le stesse precise leggi matematiche che governano il moto
degli oggetti. Fiducioso in questa razionalità profonda della natura, nella sensatezza del
sogno pitagorico-platonico che la natura sia comprensibile con la matematica, Galileo
decide di studiare come si muovono i corpi sulla Terra quando sono lasciati liberi di
cadere, e di cercarne la legge matematica attraverso un’esperimento, fatto nuovo nella
storia della scienza. L’esperimento è semplice: lascia cadere dei corpi lungo un piano
inclinato, cioè lascia loro seguire quello che per Aristotele doveva essere il loro
movimento naturale, e cerca di misurare con precisione a che velocità cadono. Il
risultato è clamoroso: i corpi non cadono a velocità costante, ossia non c’è
proporzionalità tra velocità di caduta e spazio percorso, come si era sempre pensato, ma
la velocità aumenta in modo regolare nel corso della caduta. Galileo scopre, così, che la
velocità è proporzionale al tempo di caduta. Quella che è costante non è la velocità ma
l’accelerazione. Anzi, tale accelerazione è la stessa per tutti i corpi (g=9,81 m/s2). E nei
Discorsi il moto uniformemente accelerato viene così definito: “in tempi eguali si
facciano eguali additamenti di velocità”. Galileo procede, costruendo il grafico tempo-
velocità e mediante una famosa integrazione grafica, spesso ancor oggi ripetuta nei libri
di fisica, dimostra che in un moto uniformemente vario lo spazio percorso è eguale a
quello percorso nello stesso tempo da un moto uniforme che abbia velocità metà della
velocità finale del moto accelerato, donde scaturisce immediatamente la proporzionalità
dello spazio al quadrato del tempo:

1 2
LA LEGGE DI CADUTA DEI GRAVI S= gt
2

La legge oraria spiega una classe di infiniti fenomeni osservabili. Essa, infatti,
riunisce in una sola regolarità tutti i fatti che riguardano la caduta libera di un oggetto
qualsiasi nel campo gravitazionale della Terra e che, in precedenza, erano invece
interpretati invocando una tendenza spontanea delle cose pesanti a trovare, cadendo
verso il basso, il loro luogo naturale. Il cosiddetto “moto naturale” è dunque ricondotto,
da Galileo, a una legge fisica che precisa la forma del moto naturalmente accelerato,
senza cercarne le cause nel regno ideale della metafisica né negli elenchi di citazioni
bibliografiche o nei commenti eruditi all’opera di Aristotele.
La natura segue queste leggi o sono semplici deduzioni matematiche? Bisogna
ritenere che le segua, risponde Galileo introducendo un nuovo concetto filosofico nella
ricerca fisica, soprattutto se le conseguenze matematiche dedotte sono confermate
dall'esperienza. Sebbene Galileo abbia ripreso la concezione atomica sulla struttura
della materia, e sebbene tale concezione dovesse avere come evidente corollario quello
della uguaglianza della velocità di caduta dei gravi (potendosi ogni corpo in caduta
libera considerare come un’insieme di atomi in caduta ognuno dei quali sollecitato
individualmente da una identica accelerazione di gravità), tuttavia pare che le sue
conclusioni si fondassero su esperimenti mentali su corpi in movimento lungo piani
inclinati. Infatti, la verifica sperimentale era impossibile con le apparecchiature
dell'epoca, perché il fenomeno è troppo rapido. Galileo allora ebbe un'idea geniale:
rallentare il moto, pur non alterandone la natura, in pratica riprodurre il moto
uniformemente accelerato su un piano inclinato.
;87! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Galileo formula ancora un altro postulato: i mobili che cadono su differenti piani
inclinati di eguale elevazione acquistano, alla fine della discesa, eguali velocità. E
ancora: nella discesa o nell'ascesa, sia verticale sia per piani inclinati, la forza costante
applicata al corpo (cioè il suo peso o una componente del suo peso) produce un moto
uniformemente vario, cioè un'accelerazione costante. Si può pertanto ritenere, come
ritenne Newton, la seconda legge della dinamica una scoperta di Galileo, sebbene la
formulazione generale della legge non si trovi mai negli scritti dello scienziato.
Verso la fine del 1637 Galileo cominciava a stendere quelle sue mirabili
Operazioni astronomiche, nelle quali addita agli astronomi futuri il grande lavoro di
revisione da compiere mediante due strumenti che ben si può dire gli fossero propri, il
cannocchiale e il pendolo, “mercè delle quali invenzioni si ottengono nella scienza
astronomica quelle certezze che sin ora con i mezzi consueti non si sono conseguite”.
Galileo morì l’8 gennaio del 1642, lasciando in eredità al mondo della scienza e a
quello della cultura in generale, un immenso patrimonio di scoperte ed un nuovo modo
di fare ricerca, ma soprattutto l’esempio di una vita condotta contro ogni forma di
dogmatismo, sia esso religioso che scientifico-filosofico, e caratterizzata da una libertà
di pensiero e di azione.

6.6 L’eredità galileiana

Giacomo Leopardi fa dire a Copernico nelle Operette morali a proposito del


sistema eliocentrico che: “… gli effetti suoi non appartengono alla fisica solamente;
perché esso sconvolgerà i gradi delle dignità delle cose, e l'ordine degli enti; scambierà i
fini delle creature; e per tanto farà un grandissimo rivolgimento anche nella
metafisica, anzi in tutto quello che tocca la parte speculativa del sapere. E ne risulterà
che gli uomini, se pur sapranno o vorranno discorrere sanamente, si troveranno essere
tutt'altra roba da quello che sono stati fin qui, o che si hanno immaginato di essere”.
Questo capovolgimento di mentalità, descritto in questo passo, aderisce pienamente alle
scoperte di Galileo, anche se non mancarono gli oppositori al nuovo metodo d'indagine.
La dinamica galileiana riuscì, però, alla fine a imporsi, oltre che per i pregi intrinseci,
anche per l'alta autorità dello scienziato e per l'opera di diffusione dei suoi discepoli.

In primo luogo di Evangelista Torricelli (1608–1647), che, muovendosi


interamente nell’ambito galileiano e anche con maggior rigore matematico, contribuisce
alla meccanica, ed in particolare ai problemi di balistica, nell’opera De motu gravium
descendentium et proiectorum libri duo. Nel primo libro del De motu Torricelli si propone
di dimostrare il postulato di Galileo sulle eguali velocità dei gravi cadenti per piani
inclinati di eguale altezza, e come già a sua insaputa aveva fatto Galileo, lo dimostra
assumendo a postulato il principio oggi detto di Torricelli sul moto dei centri di gravità.
E così lo commenta: “Allorché due gravi sono legati insieme in modo che al moto
dell'uno segua il moto dell'altro, essi si comportano come un grave unico formato da due
parti [...]: ma un tal grave non si metterà mai in movimento se il suo centro di gravità
non discende. Dunque, quando esso sarà in tali condizioni che il suo centro di gravità
non potrà in alcun modo discendere, il grave resterà certamente in quiete nella
posizione che occupa” Nel secondo libro è dapprima trattato il moto dei proiettili,
generalizzando la dottrina contenuta nei Discorsi di Galileo. Questi aveva studiato
soltanto il moto dei proiettili lanciati orizzontalmente; in via incidentale, senza
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;88!

dimostrazione, Galileo aveva affermato la reversibilità del moto. Torricelli, invece,


considera un lancio obliquo qualunque e applicando i principi galileiani ne determina la
traiettoria parabolica e altri teoremi balistici oggi ben noti. In particolare, estendendo
l'osservazione di Galileo, egli nota che il moto dei proiettili è un fenomeno invertibile.
Data quindi da Galileo e da Torricelli il concetto che i fenomeni dinamici sono
reversibili, ossia che il tempo della meccanica galileiana è ordinato, ma privo di verso.
Un capitolo del secondo libro è dedicato al De motu aquarum, argomento al quale
portò un contributo così importante tale da essere considerato il fondatore
dell'idrodinamica. Scopo della trattazione torricelliana è lo studio dell'efflusso
dell'acqua dai fori praticati nei recipienti che la contengono. La teoria dei moti verticali
e l'esperimento gli suggeriscono l'ipotesi fondamentale. Se da un piccolo foro ben
levigato praticato in un recipiente pieno d'acqua si fa zampillare il liquido verso l'alto, si
osserverà che esso ascende quasi allo stesso livello del liquido nel recipiente. La piccola
differenza è da ascrivere in parte alla resistenza dell'aria, in parte alla stessa acqua di
caduta, che ostacola il moto della nuova acqua che ascende ( l'esperimento riesce meglio
col mercurio). Se tutte le resistenze al moto del liquido fossero nulle, il getto
raggiungerebbe il livello del liquido nel recipiente: in base alle leggi di moto dei gravi,
la velocità iniziale del getto è eguale a quella che avrebbe un corpo che cada liberamente
dal livello del liquido al foro d'efflusso. Questi esperimenti e queste considerazioni
conducono lo scienziato a enunciare l'ipotesi fondamentale, detta teorema di Torricelli:
“L'acqua che erompe violentemente ha nel punto d'efflusso la stessa velocità che avrebbe
un qualunque corpo grave, ossia anche una singola goccia della stessa acqua, che fosse
caduta naturalmente dal livello supremo della stessa acqua sino all'orificio d'efflusso”.
Su questa ipotesi, che è un caso particolare del principio di conservazione dell'energia, i
dubbi non si fecero attendere, in quanto Torricelli non dava una piena giustificazione
della sua affermazione (la giustificazione sarà data da Newton) e si richiamava solo
all'esperienza. Dopo aver parlato dell'efflusso dei liquidi, Torricelli continua la
trattazione dando cinque tavole di tiro, che sono propriamente tavole trigonometriche,
che, in funzione dell’angolo di tiro e nota la velocità iniziale del proiettile, consentono il
calcolo degli elementi caratteristici della traiettoria.
Tuttavia, la fama maggiore gli derivò dalla nota esperienza sulla pressione
atmosferica, che portò lui stesso all’invenzione del barometro. Era noto il fenomeno
della salita di un fluido in un tubo in cui si fosse fatto il vuoto, ma quale era la causa? La
risposta tradizionale, di derivazione aristotelica, era l’horror vacui, il fatto che la natura
aborre il vuoto. Torricelli, invece, sospetta che sia dovuta alla pressione dell’aria. Se è
così, il rapporto dei due pesi specifici deve determinare di quanto il mercurio dovrà
salire in un tubo vuoto, e l’esperienza conferma il calcolo teorico.
Giovanni Alfonso Borelli (1608–1679), altro convinto galileista, fu una delle
menti più acute che abbia avuto la scienza italiana del Seicento. Prendendo l’avvio dalle
osservazioni sul moto dei satelliti di Giove, Borelli tenta di dare le basi teoriche del
sistema copernicano. Propostosi il problema di stabilire per quale virtù i pianeti si
muovono attorno al Sole e i satelliti intorno a Giove, rigettate le varie ipotesi formulate
dagli astronomi del tempo, egli dice: “In primo luogo, ogni pianeta tende per istinto
naturale ad avvicinarsi al Sole con moto rettilineo, come i gravi hanno l'istinto
naturale di avvicinarsi alla nostra Terra, spinti da una forza di gravità ad essi
connaturata e come il ferro si muove direttamente verso il magnete [...] In secondo
luogo, supponiamo che lo stesso pianeta sia posto in movimento al Sole circolarmente da
;89! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

occidente a oriente: poiché il movimento circolare imprime naturalmente al mobile un


certo impeto per il quale esso si allontana dal centro e ne è respinto [...] ne segue che
siccome il pianeta si muove circolarmente, esso si allontana dal centro”. Si stabilisce,
insomma, un equilibrio dinamico tra le due inclinazioni al moto, verso il centro e dal
centro, onde il pianeta si trova in ogni istante in una posizione determinata; guidato da
questo concetto, Borelli interpreta il moto ellittico dei pianeti intorno al Sole. Ma in
Borelli rimane viva la diffidenza galileiana contro ogni idea magica d'attrazione ed un
intero capitolo di una successiva sua opera meccanica è speso per persuadere che in
natura non si dà attrazione, né forza attrattiva. Il concetto fondamentale di Borelli è che
l'attrazione sarebbe una virtù incorporea, e come è possibile che un corpo sia mosso
senza un contatto corporeo? La teoria di Borelli, pertanto, non è ancora la teoria
newtoniana, vi manca non soltanto il concetto fondamentale di attrazione, ma anche la
formulazione matematica delle leggi; nuova, però, è la considerazione della forza
centrifuga nel meccanismo dei moti planetari, onde, se la teoria borelliana non è ancora
la teoria newtoniana, ne è indubbiamente una buona introduzione, come lo stesso
Newton riconobbe. Borelli, inoltre, anticipa Newton anche nel ritenere priva di
fondamento ogni distinzione tra fisica celeste e fisica terrestre: pregiudizio aristotelico
dal quale neppure Cartesio, come vedremo, aveva saputo liberarsi completamente.
Borelli combatte la strana teoria della “quantità di riposo”, professata da
Cartesio, e dimostra che qualunque forza, comunque piccola, purché finita, può
muovere un corpo comunque grande. Inoltre, concluse che il moto effettivo di caduta
dei gravi, nell'ipotesi che questi partecipino del moto circolare uniforme di rotazione
terrestre, avviene con la deviazione verso oriente, come verrà dimostrato
sperimentalmente alla fine del settecento.
Nell’opera De motionibus naturalibus a gravitate pendentibus, Borelli vi espone una
teoria corpuscolare di costituzione della materia, che gli consente d'interpretare
l'elasticità dell'aria, la dilatazione meccanica e termica dei corpi, la soluzione, la
viscosità e altro ancora. Il capitolo ottavo è dedicato allo studio dei fenomeni capillari,
attribuiti all'adesione del liquido alle pareti, con la scoperta che nei tubi capillari
l'elevazione del liquido cresce col diminuire del diametro del tubo. Vi è descritto un
dispositivo per la determinazione del peso specifico dell'aria, che è il primo esempio
d'impiego di un areometro a volume costante. Ma il capolavoro di Borelli è il De motu
animalium, opera in due volumi. Il primo volume descrive la struttura, la forma, l'azione
e la potenza dei muscoli dell'uomo e degli animali, con applicazione al moto. Nel
secondo volume sono trattate, con analogie meccaniche, le contrazioni muscolari, il
moto del cuore, la circolazione del sangue, la digestione.

Però lo sviluppo della fisica galileiana era condizionato dal perfezionarsi della
interpretazione fisico-matematica dello spazio euclideo, in particolare connessione con i
problemi inerenti al continuo. Per quanto lo stesso Galilei e meglio ancora Torricelli
avessero intuito il concetto geometrico-meccanico dell’integrale come spazio totale
percorso da un punto moventesi di moto continuo in un intervallo di tempo ad una
data velocità, tuttavia lo sforzo di costruire, sulla base delle nozioni euclidee, uno
spazio adeguato a questa meccanica venne compiuto da un altro discepolo di Galileo,
Bonaventura Cavalieri (ca. 1598-1647). Questi nelle sue opere Geometria indivisibilibus
continuorum nova … promota e Excercitationes geometricae sex, fonda l’aritmetica degli
indivisibili che si può considerare come l’embrione dell’analisi infinitesimale, con lo
scopo di fondare una teoria matematica dello spazio che rendesse interpretabili
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;8:!

geometricamente i fenomeni fisici. L’idea fondamentale è quella di considerare i punti


geometrici come indivisibili, veri e propri atomi geometrici, e le linee come somme di
punti, le superfici come somme di linee, i volumi come somme di superfici. Ma,
naturalmente poiché non siamo in presenza di elementi discreti, bisogna vedere come si
debba concepire questa nozione di somma. Le risposte del Cavalieri, però, restano
confuse e persino grossolanamente erronee, ma i tempi erano maturi perché il seme in
esse contenuto venisse largamente sviluppato in Europa, dando origine al nuovo
potentissimo strumento matematico della fisica moderna, il calcolo differenziale e
integrale.

Nonostante il genio di Galileo e l’azione dei suoi discepoli, la sua opera e il suo
pensiero erano destinati a dare frutti molto scarsi in Italia, che nel Seicento perde
irrimediabilmente il primato scientifico, che passa ad altri paesi. La verità è che ormai in
Italia si facevano sentire pesantemente gli effetti della crisi provocata da una parte dal
blocco del Mediterraneo per opera dei Turchi, dall’altra dallo sviluppo della borghesia
mercantile e coloniale di paesi come l’Olanda, l’Inghilterra, la Francia. L’Italia, ridotta
economicamente ad una provincia periferica dell’Europa e politicamente caduta nella
asfissiante atmosfera della Spagna controriformistica, gradatamente viene estromessa
dallo sviluppo della civiltà moderna. Soprattutto manca in Italia la formazione dello
stato nazionale, che non può essere sopperito dal principato, che, per la sua struttura
politica e sociale, non può assumere la funzione di guida nazionale per il benessere
collettivo. Invece altrove l’accentramento statale e l’idea dello stato come comunità
porta i suoi frutti anche nella scienza, alla quale, da una parte, si garantisce quasi
ovunque una certa libertà, mentre dall’altra lo stato interviene per incoraggiare e
finanziare la ricerca scientifica, in quanto è funzionale, attraverso le sue applicazioni
pratiche nella tecnica, allo sviluppo economico del paese.
Non meno dei discepoli italiani contribuirono alla diffusione del pensiero galileiano
molti scienziati francesi, nonostante che la facoltà di teologia della Sorbona, per volere
del potente cardinale Richelieu, condannò, dichiarandola falsa, la dottrina del moto
della Terra.

Particolarmente meritoria fu l'opera di Marin Mersenne (1588-1648), che tradusse


in Francia le Meccaniche di Galileo, compilò un riassunto dell'opera dei Massimi sistemi,
quando ne fu proibita la traduzione e la ristampa, e diffuse la sostanza dei Discorsi in un
volume dal titolo Les nouvelles pensées de Galilée. Nonostante questa sincera ammirazione
per il nostro scienziato, Mersenne rivendica la propria libertà di spirito e i suoi libri e la
sua corrispondenza con i maggiori scienziati del tempo, contengono preziose
informazioni, compiendo così quell’opera di collegamento, di chiarificazione e di
diffusione oggi affidata alle grandi riviste scientifiche internazionali.
Ammiratore di Galileo fu anche Pierre Gassend (1592-1655), che con la sua opera
cercò l'affermazione della nuova dinamica e soprattutto del copernicanesimo, e avrebbe
potuto avere più vasta risonanza, se l'eccessiva prudenza non lo avesse talvolta indotto
a disapprovare in pubblico ciò che affermava in privato. Risulta vicino a Galileo anche
per le sue posizioni antidogmatiche, specialmente nei riguardi dell’aristotelismo e
dell’indirizzo magico-occultista. Nei riguardi degli aristotelici riprende le posizioni di
Occam contro la presunta realtà degli universali e contro la pretesa di dover fare
riferimento ad essi per dare un fondamento sicuro alle nostre conoscenze. Oppone al
;9<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

scire per causas (sapere attraverso le cause) aristotelico un sapere interamente collegato
all’esperienza, e cioè un sapere che parte da essa e rimanga in essa: “Se dici poi che
l’intelletto può, a partire dalle cose che cadono entro l’esperienza o appaiono ai sensi,
ricavarne altre molto più interne, risponderò che ragionando non può giungere al di là
di cose che risultino ancora esperibili o di cui risulti possibile esibire una qualche
apparenza”.
Proprio questo legame ininterrotto con l’esperienza gli fa respingere con pari
energia il canone metodologico propugnato dall’indirizzo magico-occultista, consistente
nel cercare la spiegazione dei fenomeni in essenze occulte e artificialmente inventate,
come pure la pretesa di alcuni teologi che volevano scorgere ovunque, nella natura,
l’intervento miracoloso della volontà divina. Ciò che Gassend oppone ad essi, e cioè il
ricorso sistematico ad una spiegazione meccanica del mondo fisico, non vuole tanto
essere una tesi di filosofia generale, quanto un metodo efficace per eliminare
definitivamente dai nostri discorsi l’appello al fantastico e all’irrazionale, e di
conseguenza spingerci a ricerche concrete e feconde di risultati.
Gassend fece accurate osservazioni astronomiche; nel 1640 verificò
sperimentalmente il principio classico di relatività, facendo cadere dall'alto dell'albero
di una nave in corsa una pietra e verificando che essa arrivava ai piedi dell'albero, come
se la nave fosse ferma. Lo avvicinano a Galileo anche la dottrina della soggettività delle
sensazioni e la teoria atomistica, da lui più approfondita di quanto avesse fatto Galileo.
Gassend crede nell'esistenza di una materia unica, comune a tutti i corpi, divisa in
atomi, tra loro separati dal vuoto, insecabili, la cui forma (tonda, allungata, appuntita
ecc.) causa l'apparente diversità dei corpi della natura, i quali sono pesanti non per
intrinseca virtù, ma per un'azione di attrazione della Terra sugli atomi. Gassend non
intese accogliere l’atomismo di Epicuro come una verità assoluta, di carattere
metafisico, bensì come una teoria molto probabile, particolarmente utile a spiegare con
rigore scientifico i fenomeni fisici. Il ragionamento cui faceva appello per difendere la
concezione atomistica era incentrato sulla difficoltà di concepire i mutamenti fisici se
non si postula l’esistenza in essi di qualcosa che permane: tali sarebbero, appunto gli
atomi, che nessuna forza fisica risulterebbe in grado di suddividere o di alterare. Le
scoperte operate in quegli anni dalla microscopia gli parvero inoltre costituire una seria,
seppur non diretta, convalida dell’atomismo. Molto interessante, a questo proposito, è
la netta suddivisione che Gassend fece tra gli atomi (minima naturae), i punti matematici
(minima mensurae) e i più piccoli oggetti percepibili con il microscopio (minima sensus):
questi ultimi non si identificherebbero con gli atomi potendone contenere parecchi, e gli
atomi a loro volta non si identificherebbero con i punti matematici poiché il più piccolo
atomo può contenere infiniti punti. Coerentemente a questa posizione, Gasend sostenne
che la matematica, che opera nel regno dell’astrazione, non va confusa con la fisica, che
opera nel regno della materia.
La concezione atomistica viene infine utilizzata da Gassend non solo per spiegare
i mutamenti che si producono nel mondo dei fenomeni fisici, ma anche per spiegare gli
stessi procedimenti conoscitivi. Ogni conoscenza deriverebbe dai sensi e sarebbe
prodotta da atomi che si staccano dagli oggetti conosciuti per giungere all’organo del
senso. Ma gli atomi non sono soltanto causa delle nostre sensazioni; risultano invece
essi stessi forniti di sensibilità, onde si conclude che l’anima vegetativa e sensitiva,
presente negli esseri viventi, sarebbe per l’appunto costituita da atomi.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;9;!

6.7 Empirismo e razionalismo: due filosofie a confronto

Nell’elaborazione del pensiero scientifico dell’Età moderna che è tipica del


Seicento, e che, agli inizi del secolo successivo, culmina nelle due filosofie rivali del
newtonianismo e del leibnizianesimo, si vengono formando due correnti. La prima,
empiristica, ha la sua maggiore diffusione nei paesi calvinisti, come l’Inghilterra e
l’Olanda; l’altra invece, la corrente razionalistica, ha la sua maggiore diffusione nei
paesi continentali a predominio cattolico o luterano, come la Francia e la Germania. Il
razionalismo è la continuazione, più o meno liberamente svolta e riapprofondita, del
pensiero scientifico che fa capo a Galileo, e che ha i massimi esponenti in Cartesio,
Spinoza e Leibniz; l’empirismo invece ha per iniziatore Bacone, e in seguito sostenitori
in Hobbes, Boyle, Newton e Locke.
La scienza moderna si viene presentando come un complesso di osservazioni
empiriche e tecniche operative (esperimenti) le quali però acquistano significato
teoretico e insieme potenzialità pratiche solo sullo sfondo di una rete di concetti e
assiomi, o leggi, i quali vengono formulati intellettualmente ad opera della ragione, o,
come diceva Galileo, dal discorso. La distinzione fondamentale tra le due correnti sta
soprattutto nel modo in cui vengono interpretati la funzione e il fondamento di questo
reticolato nozionale-teoretico. La differenza sta dunque nel modo diverso di intendere
la funzione metodologica e il fondamento.
Per i razionalisti l’idea di verità è dato dal sistema deduttivo della matematica
euclidea, in cui il pensiero da assiomi autoevidenti discende un reticolato di teoremi che
deve costituire una completa interpretazione concettuale della natura. Osservazioni ed
esperimenti hanno quindi uno scopo di controllo, poiché nelle deduzioni si sarebbero
potuti insinuare errori, oppure uno scopo euristico, costituendo una specie di
scorciatoia per scoprire verità nuove, che poi sarà compito della teoria di risolvere in
verità necessarie matematico-deduttive. Viene così a distinguersi dimostrazione,
puramente discorsiva (deduttiva) da prova, cioè verificazione empirica.
Invece per l’empirismo la funzione è rovesciata, e cioè la ricerca scientifica parte
dalle osservazioni sensibili e arriva alle tecniche operative (sperimentali-pratiche) che
costituiscono lo scopo e la verità della scienza; concetti ed assiomi hanno uno scopo
strumentale, servono a risolvere i dati dell’esperienza grezza in nuovi significati e
rapporti introdotti dal linguaggio della teoria, e a permettere formulazioni generali a
partire dalle quali vengano rese ideabili nuove tecniche operative e resi prevedibili i
risultati di queste.
Quanto al fondamento, questione peraltro più filosofica che scientifica, l’antitesi è
ancora più netta. Infatti, per i razionalisti l’ordine deduttivo parte da assiomi
autoevidenti, gli empiristi invece affermano che le strutture nozionali prime del mondo
non sono direttamente attingibili, ma lo divengono soltanto attraverso l’induzione
scientifica, che concepiscono come una scala ascendente di sempre maggiori
generalizzazioni empiriche.
Ma più che queste concezioni generali interessano ad una storia del pensiero
scientifico i diversi atteggiamenti del razionalismo e dell’empirismo di fronte a
determinati aspetti della problematica del pensiero scientifico moderno. E in primo
luogo rispetto al valore e alla funzione delle matematiche. È giusto avvertire che tale
valore e tale funzione non è negata da nessuno scienziato dell’epoca, e che ad entrambe
le correnti appartengono grandi matematici così come grandi sperimentatori. Ma
;9=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

mentre per gli empiristi le matematiche (geometria ed analisi) non sono altro che un
linguaggio chiaro, universale, maneggevole, ma pur sempre avente un valore soltanto
strumentale, pratico, e non ontologico e metafisico, per i razionalisti rappresentano
l'essenza della natura, o per lo meno la struttura assiomatico-deduttiva della geometria
è immagine della struttura del cosmo e modello obiettivo del sapere.
Molto importante è la diversa concezione dello spazio: i razionalisti adottano in
generale la primitiva concezione galileiana, per cui lo spazio è interamente risolto nei
rapporti tra gli enti geometrici, rapporti fra i quali vengono annoverati anche i rapporti
di movimento, sì che meccanica razionale e geometrica euclidea si risolvono
interamente l'una nell'altra. Ma in questo modo devono negare lo spazio vuoto,
ripetendo apparentemente il dogma aristotelico per cui il vuoto non esiste: in realtà il
vuoto non esiste perché non esiste quello spazio astratto, informe, mero fondamento dei
moti, che postulavano i sostenitori del vuoto; lo spazio viene a identificarsi con la
materia prima e fondamentale (l’etere e la luce), ossia con ciò ai cui movimenti, intesi
come rapporti geometrici, si deve ridurre tutta la realtà del mondo fisico. Da questa
concezione neppure gli empiristi riescono totalmente a liberarsi; ma gli esperimenti sul
vuoto compiuti da Torricelli e ripetuti da Pascal e da Boyle, la decisiva adozione della
teoria atomica, l'intuizione meccanico-cinematica prevalente su quella puramente
geometrica nella fondazione del calcolo infinitesimale, li porterà alla fine, con Newton,
a sostenere la concezione di uno spazio assoluto, informe e vuoto, sullo sfondo del
quale avvengono i fenomeni fisici, riducibili a movimento.
Nel Seicento, comunque, sono meccanicisti gli empiristi come i razionalisti, ma lo
sono in modo diverso. Per gli empiristi il meccanicismo è un'ipotesi e un metodo, per i
razionalisti un dogma. Per questi ultimi la natura è spazio, e lo spazio è movimento
analiticamente rappresentabile, e fuori dei modelli analitici di movimento non esiste
possibile spiegazione, e rappresentazione nozionale, dei fenomeni della natura. Non
così per gli empiristi, per i quali la natura è variopinto mondo di qualità e proprietà,
che, ove sia possibile, si devono far dipendere dalla struttura atomica dei corpi e dai
mutamenti che il moto delle particelle introduce in questa stessa struttura. Ma le
delicate strutture dei corpi, le delicate leggi e le forze in gioco nel mondo subatomico
non possono essere fissate in maniera assoluta secondo modelli meccanici microscopici,
quali l'urto delle palline o il propagarsi del moto ondoso nei fluidi oppure il movimento
d'orologeria (questi infatti erano i modelli della meccanica razionalistica).
In particolare, come la questione del moto, così li divide la correlata questione
della actio in distans (azione a distanza): lo studio delle forze di attrazione tra corpi
distanti tra i quali è il vuoto presuppone la possibilità che un corpo possa agire su di un
altro con cui non è a contatto né diretto né indiretto (essendoci in mezzo lo spazio
vuoto); cosa che già Galileo, e con più energia ancora i meccanicisti cartesiani, non
potevano ammettere, ricorrendo per questo alla concezione di moti trasmessi attraverso
lo spazio pieno (etere), il che non sempre permetteva una spiegazione fisico-matematica
dei fatti osservabili. Donde le polemiche: i cartesiani rimproveravano agli empiristi (e in
particolare ai newtoniani) di ripristinare la concezione prescientifica di virtutes occulte e
non risolubili analiticamente insite nei corpi stessi; gli empiristi, respingendo questa
accusa, la rintuzzavano accusando gli avversari di dogmatismo, come quelli che
preferivano rinunciare alle evidenze empiriche piuttosto che ai loro principi filosofici.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;94!

6.8 Francesco Bacone: la scienza al servizio dell’uomo

Galileo, pure ispirandosi a un concetto filosofico della scienza, non ha


propriamente teorizzato il metodo sperimentale. Motivi empirici e razionali del
conoscere vengono in esso fecondemente conciliati dalla mente scientifica, secondo le
esigenze della ricerca, ma all’intuizione del procedimento non si accompagna ancora
una critica esplicita dei suoi principi.
Se Galilei, dunque, ha chiarito il metodo della ricerca scientifica, Francesco
Bacone (1561-1626) ne ha dato una giustificazione teorica, intravedendo per primo il
potere che la scienza offre all'uomo sul mondo. Bacone ha concepito la scienza come
essenzialmente diretta a realizzare il dominio dell'uomo sulla natura, il regnum hominis,
ed ha capito la fecondità delle sue applicazioni pratiche, sicché può dirsi il filosofo e il
profeta della tecnica. Quest'uomo ambizioso e amante del denaro e del fasto ebbe
un'idea altissima del valore e dell'utilità della scienza al servizio dell'uomo. Tutte le sue
opere tendono ad illustrare il progetto di una ricerca scientifica che, portando il metodo
sperimentale in tutti i campi della realtà, faccia della realtà stessa il dominio dell'uomo.
Egli voleva rendere la scienza attiva e operante al servizio dell'uomo e la concepì diretta
alla costituzione di una tecnica che doveva dare all'uomo il dominio di ogni parte del
mondo naturale.
Il principale tentativo filosofico di Bacone fu di liberare l’esperimento dal suo
dubbio contesto, e farlo diventare la base indiscutibile della spiegazione scientifica. Fu
un feroce critico della scolastica, che egli pensava avesse insegnato agli uomini soltanto
a tessere sottili ragnatele di speculazioni verbali, e della filosofia aristotelica, che aveva
commesso l’errore di saltare di colpo ai principi generali senza dimostrare la loro verità
per induzione da esperimenti.
L’opera Il Nuovo Organo è una logica del procedimento tecnico-scientifico che
viene polemicamente contrapposta alla logica aristotelica. Con la vecchia logica si
espugna l'avversario, con la nuova si espugna la natura. Questa espugnazione della
natura è il compito fondamentale della scienza: “Il fine di questa nostra scienza è di
trovare non argomenti ma arti, non principi approssimativi ma principi veri, non
ragioni probabili ma progetti e indicazioni di opere”. La scienza è posta così
interamente al servizio dell'uomo. L'intelligenza umana ha bisogno di strumenti efficaci
per penetrare nella natura e dominarla, e gli strumenti della mente sono gli esperimenti,
escogitati e adattati tecnicamente allo scopo che si vuol realizzare. I sensi soltanto non
bastano a fornire una guida sicura: solo gli esperimenti sono i custodi e gli interpreti dei
loro responsi. L'esperimento rappresenta, secondo l'immagine di Bacone: “il connubio
della mente e dell'universo”, connubio dal quale egli si attende “una prole numerosa di
invenzioni e gli strumenti atti a domare e a mitigare almeno in parte la necessità e le
miserie degli uomini”. Ma il connubio tra la mente e l'universo non si può celebrare
finché la mente rimane irretita in errori e pregiudizi che le impediscano di interpretare
la natura. Bacone oppone l'interpretazione della natura all'anticipazione della natura.
L'anticipazione della natura prescinde dall'esperimento e passa immediatamente dalle
cose particolari sensibili ad assiomi generalissimi. Questa è la via di cui si serve la logica
tradizionale, via che tocca appena l'esperienza perché si acqueta soltanto nelle verità
generalissime. L'interpretazione della natura, invece, si addentra con metodo e con
ordine nell'esperienza e ascende senza salti e per gradi dal senso e dalle cose particolari
agli assiomi, giungendo solo da ultimo a quelli più generali.
;95! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Il compito preliminare di Bacone nel suo tentativo di stabilire il nuovo organo


della scienza è quello di purificare l’intelletto da quelli che egli chiama idòla, ossia i
pregiudizi che si sono radicati nella mente umana o attraverso dottrine filosofiche o
attraverso dimostrazioni desunte da principi errati o per la natura stessa dell’intelletto
umano. Fra le cause che impediscono agli uomini di liberarsi dagli idoli e di procedere
nella conoscenza effettiva della natura, Bacone pone in primo luogo la riverenza per la
sapienza antica. La verità, dice Bacone, è figlia del tempo, non dell'autorità, e come
Bruno, pensa che essa si riveli gradualmente all'uomo, attraverso gli sforzi che si
sommano e si integrano nella storia. Per uscire dalle vecchie vie della contemplazione
improduttiva e intraprendere la via nuova della ricerca tecnico-scientifica, bisogna
mettersi sul terreno dell'esperimento. Solo l'esperimento può condurre a dotare la vita
umana di nuove invenzioni, a porre le basi della potenza e della grandezza umana e a
portarne sempre più oltre i confini.
La ricerca scientifica non si fonda né soltanto sui sensi né soltanto sull'intelletto.
Se l'intelletto per suo conto non produce che nozioni arbitrarie e infeconde e se i sensi
dall'altro lato non danno che indicazioni disordinate e inconcludenti, la scienza non
potrà costituirsi come conoscenza vera e feconda di risultati. Il procedimento che
realizza questa esigenza è, secondo Bacone, quello dell'induzione. Bacone si preoccupa
di distinguere nettamente la sua induzione da quella aristotelica. L'induzione
aristotelica, cioè l'induzione puramente logica che non è legata alla realtà, è
un'induzione per semplice numerazione dei casi particolari ed è continuamente esposta
al pericolo degli esempi contrari che possono smentirla. Invece, l'induzione che è utile
all'invenzione e alla dimostrazione delle scienze e delle arti si fonda sulla scelta e
sull'eliminazione dei casi particolari: scelta ed eliminazione ripetute successivamente
più volte sotto il controllo dell'esperimento, fino a giungere alla determinazione della
vera natura e della vera legge del fenomeno. Questa induzione procede quindi senza
salti e per gradi: risale cioè gradualmente dai fatti particolari a principi via via più
generali e solo da ultimo giunge agli assiomi generalissimi.
La scelta e l'eliminazione su cui si fonda tale induzione suppongono in primo
luogo la raccolta e la descrizione dei fatti particolari, cioè dei dati legati esperienza, cioè
dettati dalla natura stessa. Ma la vastità e la varietà di questi dati confonderebbero
l'intelletto anziché aiutarlo, se non fosse composta e sistemata in un ordine idoneo. A
questo fine servono le “tavole”, che sono dei particolari aspetti di un fatto. “Le tavole di
presenza” saranno la raccolta dei casi nei quali un determinato fenomeno (ad esempio il
calore) si presenta ugualmente benché in circostanze diverse. “Le tavole di assenza”
raccolgono i casi in cui lo stesso fenomeno non si presenta, pur verificandosi condizioni
e circostanze vicine o simili a quelle notate nelle tavole di presenza. “Le tavole dei
gradi” o comparative sono quelle che raccolgono i casi in cui il fenomeno si presenta nei
suoi gradi decrescenti. Sulla scorta delle precedenti tavole si possono poi formare delle
“tavole esclusive”, che escludono il verificarsi del fenomeno. Le tavole approntano
l'intero materiale della ricerca e consentono di formulare una prima ipotesi intorno alla
natura del fenomeno studiato. Quest'ipotesi è un'ipotesi di lavoro, che guida l'ulteriore
sviluppo della ricerca. L'induzione dovrà procedere mettendo a prova l'ipotesi fatta in
successivi esperimenti che Bacone chiama “istanze prerogative”. Di tali istanze egli
enumera molte specie. Quella decisiva è “l'istanza cruciale” il cui valore consiste in
questo, che, quando si è in dubbio sulla causa del fenomeno studiato per i suoi rapporti
con molti altri fenomeni, l'istanza cruciale dimostra la sua connessione necessaria con
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;96!

uno dei fenomeni e la sua separabilità dagli altri; e perciò consente di riconoscere la
causa vera del fenomeno. L'intero processo dell'induzione tende, secondo Bacone, a
stabilire la causa delle cose naturali.
In sostanza, Bacone ritenne che il principale compito prima di far scienza fosse di
abbandonare ogni teoria e compilare enciclopedie di fatti che riguardassero ogni sorta
di fenomeni. Soltanto quando si fossero conosciuti tutti i fatti, cosa possibile eseguendo
tutte le osservazioni e tutti gli esperimenti possibili, sarebbe valsa la pena di tentare di
dare forma a delle idee generali. Però Bacone fu consapevole che questo mettere in
evidenza sulla base del materiale empirico poteva suggerire ulteriori esperimenti che
rafforzassero o confutassero un’ipotesi, ma per lo più egli suppose che le teorie
adeguate potessero essere ottenute per generalizzazioni immediate dei fatti.
Bacone attribuì poca importanza allo sviluppo matematico delle idee, o
all’immaginazione scientifica o anche alla ragione che non fosse diretta da una stretta
applicazione del metodo induttivo, ed ignorò o rifiutò l’originale opera dei suoi
immediati predecessori, come Copernico, o contemporanei. Forse anche per questo
motivo, Bacone ha esercitato una scarsa influenza sugli sviluppi teorici della scienza, la
quale è stata interamente dominata dalle intuizioni metodologiche di Leonardo,
Keplero e Galilei. In realtà lo sperimentalismo scientifico non poteva essere innestato
sul tronco dell'aristotelismo; e la teoria dell'induzione baconiana doveva fallire in
questo tentativo. Lo sperimentalismo scientifico aveva già trovato la sua logica e con
essa la sua capacità di sistemazione. Questa logica era, come si è visto, la matematica. Il
tentativo baconiano di fornire una logica della scoperta scientifica fallì, in quanto
nessuno, nemmeno Bacone, fece, o ha fatto, una scoperta o avanzato un’ipotesi nuova
seguendo questo metodo, né tantomeno la metodologia della scienza moderna passa
attraverso la sua dottrina. Però è anche vero che Bacone aveva perfettamente ragione a
sostenere che lo sviluppo della scienza non avviene soltanto attraverso la brillante
teorizzazione, matematica o no, ma è anche il frutto di un interminabile lavoro dedicato
all’acquisizione di dati; in più, è un merito l’aver colto e teorizzato il significato umano
e sociale della nuova scienza rispetto alla nuova umanità sviluppatasi in seguito alla
rivoluzione monarchica e borghese.
Bacone fu il prototipo dell’intellettuale democratico e quindi pose l’accento sullo
sforzo collettivo degli scienziati per poter giungere alla comprensione della natura,
molto complessa perché un uomo solo potesse padroneggiarla; infatti previde l’utilità di
istituzioni di ricerca scientifiche. Le prime società scientifiche nazionali, coma la Royal
Society (Londra, 1662) e l’Accademia delle Scienze (Parigi, 1666) riconobbero tale merito.
Thomas Hobbes (1588-1679), discepolo di Bacone ma assai indipendente dal
maestro, è assai più importante come filosofo politico che non come pensatore
scientifico, tuttavia alcune sue concezioni logiche, metodologiche e metafisiche hanno
esercitato un certo influsso sulla storia della scienza moderna.
Strettamente empirista, sottolinea energicamente il carattere simbolico e
linguistico delle idee: queste non sono che sensazioni, le quali però sostituiscono e
richiamano (quindi, in qualche modo, rappresentano) intere serie di sensazioni. Per
questa sua funzione, il linguaggio rende possibile il ragionamento, inteso come
processo meramente astratto e algoritmico, che a differenza di Bacone, rappresenta il
modello più semplice e perfetto di discorso scientifico, che si riduce ad una
combinazione tautologica, in modo che questo procedimento astratto non avrà altra
garanzia che la sua finale concordanza con i fatti empirici. Ma questo tipo di
;97! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

ragionamento mette in luce la causa di qualche fatto, e poiché la scienza è basata tutta di
dimostrazioni di questo genere, ogni discorso scientifico non fa che dimostrare la
connessione per la quale da una causa determinata si genera un effetto determinato.
Questo accade specificatamente nelle scienze che hanno per oggetto cose, di qualsiasi
natura, prodotte dall’uomo; appunto perché prodotte dall’uomo, l’uomo stesso può
conoscere la causa di tali cose: questa causa è infatti una sua operazione.
Le cose naturali, invece, sono prodotte da Dio e non dagli uomini, perciò gli
uomini non ne conoscono le cause, cioè il modo in cui esse sono generate o prodotte.
Per esse, quindi, una dimostrazione necessaria, che vada dalla causa all’effetto, non è
possibile. Si può risalire soltanto dagli effetti, cioè dai fenomeni che vediamo in natura,
alle loro cause supposte, ma poiché uno stesso effetto può essere prodotto da cuse
diverse, si raggiungono così conclusioni probabili ma non necessariamente vere.
La ragione e la scienza possono rivolgersi con successo solo ad oggetti di cui si
può conoscere, a priori o a posteriori, la causa produttrice, quindi a oggetti generabili.
Quando si tratta di oggetti non generabili come Dio, e in generale tutte le cose
incorporee, la ragione non ha modo di esercitarsi e la scienza non è possibile. Poiché i
soli oggetti generabili, che in quanto tali hanno una causa conoscibile delle loro genesi,
sono i corpi, gli oggetti estesi o materiali sono i soli oggetti possibili della ragione. In
questa tesi consiste il materialismo meccanicistico di Hobbes, che in un certo senso
riproduce la dottrina degli stoici, i quali affermavano che solo il corpo esiste perché solo
il corpo può agire o subire un’azione. Pertanto, secondo Hobbes, il corpo è l’unica
realtà, cioè l’unica sostanza che esista realmente in sé stessa; e il movimento è l’unico
principio di spiegazione di tutti i fenomeni naturali, giacchè ad esso si riducono anche i
concetti di causa, di forza e di azione.
Nel campo della filosofia della natura Hobbes sviluppa e completa
sistematicamente gli spunti materialistici e meccanicistici che si trovano già nel pensiero
di Bacone. Tutta la realtà è materia, con gli attributi fondamentali dell'estensione e della
forza: ed ogni fenomeno (apparente, soggettivo) si riduce veramente a movimenti della
materia sottile, a moto delle parti. E qui il pensiero di Hobbes si riallaccia ad una vasta
corrente, diffusasi in Italia, e che, nonostante l'autorità di cui per tutto il Seicento
godettero Cartesio e i cartesiani, che come vedremo erano legati al vacuismo, era
destinata ad imporsi nella scienza moderna: l'atomistica.
La critica democriteo-galileiana alle qualità essenziali della fisica aristotelica,
ridotte allo status di mere sensazioni soggettive di contro alle qualità vere o prime
consistenti nelle forme, dimensioni e moto delle particelle elementari (atomi), era stata
largamente diffusa da Gassend, la cui influenza era stata fortissima in tutta l'Europa e in
Inghilterra e appunto, sul pensiero di Hobbes. Gassend aveva esposto sistematicamente
la filosofia epicurea, in realtà la filosofia di Democrito scientificamente rinnovata da
Galileo. Vi ritroviamo le note dottrine: soggettività delle sensazioni, riduzione della
reale essenza dei corpi agli atomi, i quali hanno tra loro differenze soltanto geometrico-
quantitative (forma e dimensioni) e sono capaci di moto. Quest'ultimo è sempre e
soltanto moto locale, spostamento di atomi i quali sono per sé, naturalmente, in quiete,
e si spostano soltanto in virtù di urti che ricevono. Hobbes negli Elementorum
philosophiae sectio prima De Corpore (1655) sviluppa per l'appunto una concezione del
genere, con la sola differenza che, aderendo alla negazione della possibilità del vuoto
fatta da Bacone nell'ultima fase del suo pensiero, fa muovere le particelle minime,
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;98!

anziché nel vuoto, in un fluido etereo: concetto per il quale manifesterà qualche
propensione (peraltro non senza perplessità) anche Newton.
Infine, Hobbes introduce il concetto, che poi sarà largamente ripreso e sviluppato
da Leibniz, della quiete come movimento virtuale o potenziale (conatus)
controbilanciato da altre forze che lo impediscono, donde una tensione (nixus) che
permetta di risolvere la statica in dinamica, gli stati di quiete ed equilibrio in stati di
tensione dinamica tra forze antagoniste, che era un'interpretazione filosofica di un
punto di vista che oramai dominava nella meccanica razionale.

6.9 La filosofia meccanica

La storia della fisica, dalle elaborazioni tardoscolastiche della teoria dell'impetus


fino alle limpide pagine dei Principia di Newton, è la storia di una profonda rivoluzione
concettuale che porta a modificare in profondità le nozioni di moto, massa, peso,
inerzia, gravità, forza, accelerazione. Si tratta, insieme, di un nuovo metodo e di una
nuova concezione generale dell'universo fisico. Si tratta, anche, di modi nuovi di
determinare i fini, i compiti, gli scopi della conoscenza della natura.
Analizzando la rivoluzione astronomica si sono elencati i presupposti che fu
necessario abbandonare per la costruzione della nuova astronomia, si può tentare di
elencare gli ostacoli epistemologici alla nuova fisica, ossia una serie di convinzioni dalle
quali fu necessario faticosamente distaccarsi perché giungesse a costituirsi la cosiddetta
fisica classica di Galilei e di Newton. La apparente ovvietà di tali convinzioni fu di
grandissimo ostacolo alla fondazione della scienza moderna. Quella ovvietà non era
legata solo all'esistenza di tradizioni di pensiero che avevano antiche e ben solide radici,
ma anche alla loro maggiore vicinanza al cosiddetto senso comune. Le tre convinzioni
che seguono si presentano infatti come generalizzazioni di osservazioni empiriche
occasionali:
1. I corpi cadono perché sono pesanti, perché tendono cioè al loro luogo naturale,
che è posto al centro dell'universo. Hanno quindi in sé un principio intrinseco di
moto e cadranno tanto più velocemente quanto più sono pesanti. La velocità di
caduta è direttamente proporzionale al peso;
2. Il mezzo attraverso il quale si muove un corpo è un elemento essenziale del
fenomeno movimento, del quale è necessario tener conto nel determinare la
velocità della caduta dei gravi. La velocità di un corpo in caduta libera
(direttamente proporzionale al peso) era in genere considerata inversamente
proporzionale alla densità del mezzo. Nel vuoto la velocità sarebbe infinita e
questo era un argomento contro l'esistenza del vuoto;
3. Poiche tutto ciò che si muove è mosso da qualcosa d'altro (omne quod movetur ab
alio movetur), il moto violento di un corpo è prodotto da una forza che agisce su
di esso. Il moto ha bisogno di un motore che lo produca e lo conservi in moto
durante il movimento. Non è necessario addurre una qualche causa per spiegare
il perdurare dello stato di quiete di un corpo perché la quiete è lo stato naturale
dei corpi. Il moto (ogni tipo di moto: sia naturale, sia violento) è qualcosa di
innaturale e di provvisorio (fanno eccezione i perfetti moti circolari celesti) che
cessa non appena cessa l’applicazione di una forza e si muove tanto più
rapidamente quanto maggiore è la forza applicata. Se la forza applicata è la
;99! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

medesima, si muove tanto più lentamente quanto maggiore è il suo peso.


Cessando l’applicazione della forza cessa anche il movimento: cessante causa,
cessat effectus.

Tutte e tre queste generalizzazioni nascono dal riferimento a situazioni legate


all'esperienza quotidiana e appaiono molte legate ad una concezione antropomorfica
del mondo, che assume le sensazioni e i comportamenti e le percezioni dell'uomo, nella
loro immediatezza, come criteri per la realtà. Alle radici degli errori della fisica degli
antichi stanno motivazioni profonde, radicate nella nostra fisiologia e nella nostra
psicologia. La scienza moderna non è nata sul terreno della generalizzazione di
osservazioni empiriche, ma (come si è visto nel caso di Galilei) su quello di un analisi
capace di astrazioni, capace cioè di abbandonare il piano del senso comune, delle
qualità sensibili, dell'esperienza immediata. Il principale strumento che rese possibile la
rivoluzione concettuale della fisica fu la matematizzazione della fisica, ai cui sviluppi
dettero contributi decisivi Galilei, Pascal, Huygens, Newton, Leibniz. Ma al centro di
questo grande e complicato processo, come vedremo, è da collocare la figura di
Cartesio, che è il principale protagonista di quella grande costruzione concettuale che
va sotto il nome di meccanicismo. La visione meccanicistica è fondata su tre
presupposti:
1. La natura non è la manifestazione di un principio vivente, ma è un sistema di
materia in movimento retto da leggi;
2. Tali leggi sono determinabili con precisione matematica
3. Un numero assai ridotto di tali leggi è sufficiente a spiegare l'universo.

Sulla base di questi presupposti spiegare un fenomeno vuol dire costruire un


modello meccanico che sostituisce il fenomeno reale che si intende analizzare. Questa
ricostruzione è tanto più vera, tanto più adeguata al mondo reale, quanto più il modello
sarà stato costruito solo mediante elementi quantitativi e tali da poter essere ricondotti
alle formulazioni della geometria. Nella filosofia meccanica la realtà viene dunque
ricondotta ad una relazione di corpi o particelle materiali in movimento e tale relazione
appare interpretabile mediante le leggi del moto individuate dalla statica e dalla
dinamica. L'analisi viene ricondotta alle condizioni più semplici e viene realizzata
mediante un processo di astrazione da ogni elemento sensibile e qualitativo. Fatti
appaiono alla scienza solo quegli elementi del mondo reale che vengono raggiunti in
base a precisi criteri di carattere teorico. L'interpretazione dell'esperienza avviene sulla
base di tesi prestabilite: la resistenza dell'aria, l'attrito, i differenti comportamenti dei
singoli corpi, gli aspetti qualitativi del mondo reale vengono interpretati come
irrilevanti per il discorso della filosofia naturale o come circostanze disturbanti delle
quali non si tiene (e non si deve tenere) conto nella spiegazione del mondo. I fenomeni
nella loro particolarità e nella loro immediata concretezza, il mondo delle cose “curiose
e strane” al quale si era volto con tanto appassionato interesse il naturalismo
rinascimentale, non esercita più alcun fascino sui sostenitori della filosofia meccanica.
Il mondo immediato dell'esperienza quotidiana non è reale. Reali sono la materia
e i movimenti (che avvengono secondo leggi) dei corpuscoli che costituiscono la
materia. Il mondo reale è contesto di dati quantitativi e misurabili, di spazio e di
movimenti e relazioni nello spazio. Dimensione, forma, stato di movimento dei
corpuscoli (per alcuni anche l'impenetrabilità della materia) sono le sole proprietà
riconosciute insieme come reali e come principi esplicativi della realtà. La tesi della
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;9:!

distinzione fra le qualità oggettive e soggettive dei corpi è variamente presente in


Bacone e Galilei, in Cartesio e Pascal, in Hobbes e Gassendi e Mersenne. Essa costituisce
uno dei fondamentali presupposti teorici del meccanicismo e assumerà, nella filosofia di
Locke, la forma della celebre distinzione fra qualità primarie e qualità secondarie.
Quella dottrina serve anche alla interpretazione e spiegazione delle qualità secondarie.
Come scrive Hobbes: “tutte le qualità chiamate sensibili sono, nell'oggetto che le
determina, i vari moti della materia, mediante i quali essa influenza diversamente i
nostri organi. In noi, che siamo egualmente stimolati, esse non sono altro che diversi
moti, poiché il movimento non può produrre che movimento, ma la loro apparenza è in
noi immaginazione... Così il senso, in ogni caso, non è altro che una immaginazione
originaria causata dallo stimolo, cioè dal moto esercitato dalle cose esterne sopra i
nostri occhi, orecchi e altri organi analoghi”.
Anche le qualità secondarie risultano meccanizzate ed è riconducibile ad un
modello meccanico anche il fenomeno della sensazione. Per questa via, proprio mentre
si eliminava dalla visione scientifica del mondo ogni forma di antropomorfismo, si
realizzava il tentativo di allargare il metodo della filosofia meccanica dal mondo dei
fenomeni naturali a quello dei fenomeni fisiologici e psicologici. Fisiologia e psicologia
tendono a diventare scienze naturali interpretabili con gli stessi metodi e sulla base
degli stessi presupposti teorici che hanno mostrato la loro straordinaria fecondità nella
fisica. Le teorie della percezione appaiono fondate sull'ipotesi di particelle che,
attraverso porosità, penetrano negli organi di senso producendo dei moti che vengono
trasmessi dai nervi al cervello.
Riassumiamo in breve il meccanicismo come modello esplicativo:
! il soggetto ha di fronte un dato oggetto le cui proprietà sono osservabili
(fenomeno, fatto);
! la materia è qualcosa di oggettivo: o è una cosa, che sussiste indipendentemente
dal soggetto (realismo), oppure si presenta nel soggetto come cosa indipendente
(fenomenismo); sotto l’aspetto fisico la cosa non cambia;
! la Natura è deterministica: ad una data causa segue un dato effetto, e sempre e
solo quello;
! la Natura è economica, fornendo per ogni fenomeno la spiegazione più semplice
possibile;
! lo spazio-tempo è euclideo, come vuole la fisica di Galilei e Newton;
! la esperienza, per diventare scienza, va sottratta alla particolarità dell'individuo
concreto e va ricondotta ad una esperienza media astratta ed oggettiva; il
meccanicismo seicentesco distingue le qualità oggettive o primarie da quelle
soggettive o secondarie; tale distinzione perderà peso soprattutto grazie alle
critiche di Berkeley e di Kant; resta comunque l'esigenza di oggettivizzare
l'esperienza;
! l'infinitamente piccolo (atomo), l'immenso (Cosmo) e la Natura su scala umana
rispondono a questi identici principi.

Se il mondo è simile a una macchina, nella natura non sono più presenti
gerarchie, come quando ci si serviva dell'immagine di una piramide che aveva alla base
le cose meno nobili e al vertice l'uomo simile a Dio. Tutti i fenomeni, così come tutti i
pezzi che servono al funzionamento della macchina, sono egualmente necessari ed
hanno (rispetto al fine rappresentato da quel funzionamento) lo stesso identico valore.
La macchina che funziona nel meccanicismo come modello esplicativo può essere una
;:<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

macchina reale o una macchina pensata come possibile. In ogni caso essa appare come
l'immagine più adeguata di una realtà nella quale ogni elemento (ogni pezzo della
macchina) adempie una funzione che dipende da una determinata forma, da
determinati movimenti e velocità di movimenti. Conoscere la realtà vuol dire rendersi
conto dei modi in cui funzionano le macchine che operano all'interno della più grande
macchina del mondo. E le macchine possono sempre, almeno in teoria, essere smontate
nei loro singoli elementi per essere poi, pezzo per pezzo, ricomposte.
All'immagine platonica del Dio geometra si accompagna l’immagine del Dio
meccanico e orologiaio, costruttore della perfetta macchina del mondo. La conoscenza
delle cause ultime e delle essenze, negata all'uomo, è riservata a Dio in quanto creatore
e costruttore della macchina del mondo. Il criterio del conoscere come fare o della identità
fra conoscere e costruire (o ricostruire) vale non solo per l'uomo, ma anche per Dio. Ciò
che davvero l'uomo può conoscere è solo ciò che è artificiale. Nei limiti in cui la natura
non è concepita come artificiale, essa si presenta come una realtà inconoscibile. La tesi
della limitazione della conoscenza al piano dei fenomeni si congiunge all'antica tesi del
carattere sempre e necessariamente ipotetico e congetturale della fisica. Scrive
Marsenne: “E’ difficile incontrare delle verità nella fisica. Appartenendo l'oggetto della
fisica alle cose create da Dio, non c'è da stupirsi se non possiamo trovare le loro vere
ragioni... Conosciamo infatti le vere ragioni solo di quelle cose che possiamo costruire
con le mani o con l'intelletto”. Nel momento stesso in cui la tesi della identità fra
conoscere e fare dava luogo ad una rinuncia alla possibilità di una comprensione delle
essenze o delle cause ultime della natura, nel momento stesso in cui veniva utilizzata
come un riconoscimento dei limiti del sapere scientifico, essa finiva per investire il
mondo della morale, della politica, della storia.
I maggiori filosofi naturali del Seicento che si fecero sostenitori e propagandisti
del meccanicismo ammiravano Lucrezio e gli antichi atomisti perché avevano costruito
un'immagine del mondo di tipo meccanico e corpuscolare. Ma dalle conseguenze empie
o ateistiche che si potevano ricavare dalla tradizione del materialismo intendevano
mantenersi, nella grandissima maggioranza dei casi, accuratamente lontani rifiutando le
posizioni che ascrivevano l'origine del mondo al caso e al fortuito concorso degli atomi.
L'immagine della macchina del mondo implicava per essi l'idea di un suo Artefice e
Costruttore, la metafora dell'orologio rinviava al divino Orologiaio. Lo studio accurato e
paziente della grande macchina del mondo era la lettura del Libro della Natura, da
affiancare a quella del Libro della Scrittura. Entrambe le indagini tornavano a gloria di
Dio. I filosofi dai quali prendere le distanze, innumerevoli volte respinti e condannati,
sono Hobbes e Spinoza. Il primo ha esteso il meccanicismo all'intera vita psichica, ha
concepito il pensiero come una sorta di istinto un po' piu complicato di quello degli
animali, ha ricondotto al movimento tutte le determinazioni e trasformazioni di una
realtà intesa esclusivamente come corpo. Facendo dell'estensione un attributo di Dio,
Spinoza ha empiamente negato la millenaria distinzione fra un mondo materiale e un
Dio immateriale, ha negato che Dio sia persona e che possa avere scopi o disegni. Ha
affermato che questi sono solo la grossolana proiezione in Dio di esigenze
antropomorfiche. Ha affermato la inseparabilità di anima e di corpo. Ha visto
nell'universo una macchina eterna, priva di senso e di scopi, che espressione di una
causalità necessaria e immanente.
Gassendi, anche se pone gli atomi creati da Dio, apparve a molti pericolosamente
vicino alle posizioni dei libertini. Mersenne riteneva che esistesse una radicale
incompatibilità fra cristianesimo e naturalismo, che il meccanicismo potesse essere
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;:;!

conciliato con la tradizione cristiana e che la tesi del carattere sempre ipotetico e
congetturale delle conoscenze lasciasse il necessario spazio alla dimensione religiosa e
alla verità cristiana. Anche Boyle ha preoccupazioni di questo tipo. Nel momento in cui
esalta l'eccellenza della filosofia corpuscolare o meccanica egli si preoccupa di tracciare
due linee di demarcazione. La prima deve distinguerlo dai seguaci di Epicuro e di
Lucrezio, da tutti coloro che ritengono che gli atomi, “incontrandosi insieme per caso in
un vuoto infinito siano in grado da sé stessi di produrre il mondo e i suoi fenomeni”. La
seconda serve a differenziarlo dai meccanicisti moderni (vale a dire dai cartesiani). Per
questi ultimi, supposto che Dio abbia introdotto nella massa totale della materia una
quantità invariabile di moto, le varie parti della materia, in virtù dei loro propri
movimenti, sarebbero in grado di organizzarsi da sole in un sistema. La filosofia
corpuscolare o meccanica della quale Boyle si fa sostenitore non va pertanto confusa né
con l'epicureismo né con il cartesianesimo. Nel meccanicismo di Boyle il problema della
“prima origine delle cose” va tenuto accuratamente distinto da quello del “successivo
corso della natura”. Dio non si limita a conferire il moto alla materia, ma guida i
movimenti delle singole parti di essa in modo da inserirle nel “progetto di mondo” che
avrebbero dovuto formare. Una volta che l'universo è stato strutturato da Dio e che Dio
ha stabilito “quelle regole del movimento e quell'ordine fra le cose corporee che siamo
soliti chiamare Leggi di Natura”, si può affermare che i fenomeni “sono fisicamente
prodotti dalle affezioni meccaniche delle parti della materia e dalle loro reciproche
operazioni secondo le leggi della meccanica”. La distinzione fra origine delle cose e
successivo corso della natura è molto importante: coloro che indagano sulla prima
elaborano ipotesi sull'origine dell'universo, hanno l'empia pretesa di “dedurre il
mondo”, di costruire ipotesi e sistemi. Gli epicurei e i cartesiani rappresentano la
versione atea e materialistica della filosofia meccanica.
Per Cartesio, la scienza è in grado di dire qualcosa non solo su cosa è il mondo,
ma anche sul processo della sua formazione. L'alternativa con Boyle è, su questo punto,
radicale. Le leggi di natura, aveva scritto Cartesio, “basteranno a far sì che le parti del
Caos arrivino a districarsi da sè, disponendosi in bell'ordine, così da assumere la forma
di un mondo perfettissimo”. Le strutture del mondo presente, nella prospettiva
cartesiana, sono il risultato della materia, delle leggi della materia, del tempo.
Di fronte a queste dottrine e a queste soluzioni, la posizione di Newton non sarà
lontana da quella che aveva assunto Boyle: “Se affermiamo, con Cartesio, che
l'estensione è corpo, non apriamo forse la via all'ateismo? Ciò per due ragioni: perché
l'estensione risulta increata ed eterna, e perché in certe circostanze potremmo
concepirla come esistente e insieme immaginare la non esistenza di Dio”.
La presa di distanza dai possibili esiti ateistici e materialistici del cartesianesimo
assumerà in Newton forme diverse, ma resterà un tema dominante. Un “cieco destino”
non avrebbe mai potuto far muovere tutti i pianeti allo stesso modo in orbite
concentriche e la meravigliosa uniformità del sistema solare è effetto di “un disegno
intenzionale”. I pianeti continuano a muoversi nelle loro orbite per le leggi della gravità,
ma “la posizione primitiva e regolare di queste orbite non può essere attribuita a queste
leggi: la ammirevole disposizione del Sole, dei pianeti e delle comete può essere solo
opera di un Essere onnipotente e intelligente”. La distinzione avanzata da Boyle fra
origine delle cose e regolare corso della natura veniva ripresa in questo contesto. Se è
vero che “le particelle solide furono variamente associate nella prima creazione per il
consiglio di un Agente intelligente” se è vero che esse sono “state messe in ordine da
Colui che le ha create”, allora “non v'è ragione di ricercare una qualche altra origine del
;:=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

mondo o pretendere che esso possa essere uscito fuori da un Caos, ad opera delle mere
leggi di natura”. Le leggi naturali cominciano ad operare solo dopo che l'universo è
stato creato. La scienza di Newton è una descrizione rigorosa dell'universo così come
esso è: in quanto è compreso fra la creazione del mondo narrata da Mosé e il finale
annichilimento previsto da San Giovanni. Newton e i newtoniani non accetteranno mai
l'idea che il mondo possa essere stato prodotto da leggi meccaniche.

6.10 Cartesio, filosofo della modernità

Il rinascimento lasciò in eredità al pensiero moderno un complesso veramente


mirabile di ricerche scientifiche e teorie in rapido sviluppo, ma non lasciò alcun sistema
filosofico, che fosse in grado di sostituire quello aristotelico. Oggi gli scienziati non
provano più la necessità di cercare fuori della scienza un fondamento per le proprie
indagini, ma nel Seicento la situazione era completamente diversa; l’indagine scientifica
cominciava, sì, a fornire le prime dimostrazioni della propria efficienza, ma pareva
ancora richiedere qualche garanzia, esterna e superiore, per la verità assoluta della
nuova via intrapresa. Pareva soprattutto necessario, di fronte al procedere
frammentario delle ricerche particolari, trovare il modo di accertarsi a priori che esse
non sarebbero cadute fra loro in contraddizione, ma avrebbero dato origine a un sapere
coerente e fecondo, non più sottoposto al pericolo di nuove crisi e nuovi
capovolgimenti.

Il maggior tentativo di soddisfare tale esigenza è rappresentato da


Cartesio (1596-1650), considerato il primo pensatore moderno ad avere
fornito un quadro filosofico di riferimento per la scienza moderna all'inizio
del suo sviluppo, e che ha cercato di individuare l'insieme dei principi
fondamentali che possano essere conosciuti con assoluta certezza. Per
individuarli si è servito di un metodo chiamato scetticismo metodologico: rifiutare come
falsa ogni idea che può essere revocata in dubbio. Basandosi sul dubbio e sul
ragionamento logico Cartesio si sforza di trovare un fondamento completamente nuovo
e assolutamente consistente per un sistema filosofico. Non accetta come base la
rivelazione e si rifiuta di accettare acriticamente quanto percepito dai sensi. Investe con
il suo dubbio ciò che i nostri sensi ci dicono, i risultati del nostro ragionamento. Questa
base della filosofia di Cartesio è radicalmente diversa da quella dell’antica filosofia
greca. Qui il punto di partenza non è un principio o una sostanza fondamentale ma il
tentativo di scoprire una conoscenza fondamentale. E Cartesio intende che ciò che noi
conosciamo del nostro intelletto è più certo di ciò che noi conosciamo del mondo
esterno.
La scienza che Cartesio si propone di costruire vuol essere più comprensibile alla
mente umana, più chiara in tutti i suoi minimi particolari, e perciò più feconda. A tale
scopo dovrà essere una scienza che ciascuno di noi conquista con le proprie forze, senza
accettare nulla sulla sola base dell’opera altrui. Dovrà risultare, insomma, uno
strumento completamente nostro. Per questo motivo Cartesio giunge a sostenere
addirittura l’inadeguatezza della matematica tradizionale. Egli accusa il procedimento
dimostrativo dei greci, malgrado l’apparente perfezione logica, di essere estrinseco,
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;:4!

artificioso, capace, è vero, di provare la verità dei singoli risultati ma non di rivelarne
l’origine profonda né farci scoprire nuove verità.
Il metodo che Cartesio cerca è nello stesso tempo teoretico e pratico, cioè deve
condurre a saper distinguere il vero dal falso, ma anche e soprattutto in vista dell'utilità
e dei vantaggi che possono derivarne alla vita umana. Il metodo che cercò fin da
principio e che ritenne d'aver trovato è una guida per l'orientamento dell'uomo nel
mondo. Esso deve condurre ad una filosofia “non puramente speculativa, ma anche
pratica, per la quale l'uomo possa rendersi padrone e possessore della natura”. Cartesio
è francamente ottimista sulla possibilità e sui risultati pratici di una simile forma di
sapere.
Nel formulare le regole del metodo, Cartesio si avvale soprattutto delle
matematiche. Ma non si tratta soltanto di prendere coscienza di questo metodo, cioè di
astrarlo dalle matematiche e di formularlo in generale, per poterlo applicare a tutte le
altre branche del sapere. Si tratta anche di giustificare il metodo stesso e la possibilità
della sua universale applicazione, riportandolo al suo fondamento ultimo, cioè all'uomo
come soggetto pensante o ragione. Cartesio doveva dunque: 1) formulare le regole del
metodo tenendo soprattutto presente il procedimento matematico nel quale esse già
sono in qualche modo presenti; 2) fondare con una ricerca metafisica il valore assoluto e
universale di questo metodo; 3) dimostrare la fecondità del metodo nelle varie branche
del sapere. Tale fu infatti il compito filosofico di Cartesio.
Sul primo punto, la seconda parte del Discorso sul metodo (1637) ci dà la
formulazione più matura e semplice delle regole del metodo.
Esse sono quattro:
1. “Non accogliere mai nulla per vero che non conoscessi esser tale con evidenza;
cio evitare diligentemente la preoccupazione e la prevenzione; e non
comprendere nei miei giudizi niente di più di ciò che si presentasse cosi
chiaramente e cosi distintamente al mio spirito che io non avessi alcuna
occasione di metterlo in dubbio”. Questa era per Cartesio la regola fondamentale:
l'evidenza, l'intuizione chiara e distinta di tuffi gli oggetti del pensiero e
l'esclusione di ogni elemento sul quale il dubbio fosse possibile.
2. “Dividere ciascuna delle difficoltà da esaminare nel maggior numero di parti
possibili e necessarie per meglio risolverla”. È la regola dell'analisi, per la quale
un problema viene risolto nelle parti più semplici da considerarsi separatamente.
3. “Condurre i miei pensieri ordinatamente, cominciando dagli oggetti più semplici
e più facili a conoscersi per risalire a poco a poco, quasi per gradi, fino alle
conoscenze più complesse; supponendo che vi sia un ordine anche tra gli oggetti
che non precedono naturalmente gli uni agli altri”. È la regola della sintesi, per
la quale si passa dalle conoscenze più semplici alle più complesse gradatamente,
presupponendo che ciò sia possibile in ogni campo.
4. “Fare in ogni caso enumerazioni così complete e revisioni così generali da essere
sicuro di non omettere nulla”. L'enumerazione controlla l'analisi, la revisione la
sintesi. Questa regola offre così il controllo delle due precedenti.

Queste regole non hanno in sè stesse la loro giustificazione e Cartesio deve


quindi proporsi di giustificarle risalendo alla loro radice: l'uomo come soggettività o
ragione.
;:5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Trovare il fondamento di un metodo che deve essere la guida sicura della ricerca
in tutte le scienze è possibile, secondo Cartesio, solo con una critica radicale di tutto il
sapere già dato. Bisogna sospendere l'assenso ad ogni conoscenza comunemente
accettata, dubitare di tutto e considerare almeno provvisoriamente come falso tutto ciò
su cui il dubbio è possibile. Se persistendo in questo atteggiamento di critica radicale, si
giungerà a un principio sul quale il dubbio non è possibile, questo principio dovrà
essere ritenuto saldissimo e tale da poter servire di fondamento a tutte le altre
conoscenze. In questo principio si troverà la giustificazione del metodo (dubbio
metodico).
Ora, Cartesio ritiene che nessun grado o forma di conoscenza si sottragga al
dubbio. Si può, e quindi si deve, dubitare delle conoscenze sensibili sia perchè i sensi
qualche volta ingannano e quindi possono ingannarci sempre, sia perchè si hanno nei
sogni conoscenze simili a quelle che si hanno nella veglia senza che si possa trovare un
sicuro criterio di distinzione fra le une e le altre. Ci sono bensì conoscenze che sono vere
sia nel sogno che nella veglia, come le conoscenze matematiche, ma neppure queste
conoscenze si sottraggono al dubbio, perchè anche la loro certezza può essere illusoria.
Difatti, finché nulla si sappia di certo intorno noi e alla nostra origine, si può sempre
supporre che l'uomo sia stato creato da una potenza maligna che si sia proposta di
ingannarlo facendogli apparire chiaro ed evidente ciò che è falso e assurdo. In tal modo,
il dubbio si estende a ogni cosa e diventa assolutamente universale (dubbio iperbolico).
Ma proprio nel carattere radicale di questo dubbio si presenta il principio di una prima
certezza. Io posso ammettere di ingannarmi o di essere ingannato in tutti i modi
possibili; ma per ingannarmi o per essere ingannato io debbo esistere. La proposizione
io esisto è dunque la sola assolutamente vera perché il dubbio stesso la riconferma: può
dubitare solo chi esiste. Io non esisto se non come una cosa che dubita cioè che pensa
(cogito ergo sum).
La certezza del mio esistere concerne soltanto tutte le determinazioni del mio
pensiero: il dubitare, il capire, il concepire, l'affermare, il negare, il volere, il non volere,
l'immaginare, il sentire. Può ben darsi che ciò che io percepisco non esista ma è
impossibile che non esista io che penso di percepire un determinato oggetto. Su questa
certezza originaria, che è nello stesso tempo verità necessaria, deve essere dunque
fondata ogni altra conoscenza.
Il principio cartesiano ripete il movimento di pensiero che già si è trovato in
Agostino; ma lo ripete nell'orizzonte di un altro problema. Non si tratta, come in
Agostino, di stabilire la presenza trascendente della Verità (cioè di Dio) nell'interiorità
dell'uomo. Si tratta invece di trovare nell'esistenza del soggetto pensante, il cui essere è
evidente a se stesso, il principio che garantisce la validità della conoscenza umana e
l'efficacia dell'azione umana sul mondo. Non bisogna dimenticare che Cartesio ha
elaborato la sua metafisica come fondamento e giustificazione della fisica: ha voluto
cioè ritrovare nella stessa esistenza dell'uomo in quanto io o ragione, la possibilità di
una conoscenza che consenta all'uomo di dominare il mondo per i suoi bisogni.
Secondo Cartesio, la giustificazione metafisica delle certezze umane è Dio. Ma
come è possibile allora l’errore? L’errore dipende unicamente dal libero arbitrio che Dio
ha dato all’uomo e si può evitare soltanto attenendosi alle regole del metodo.
Accanto alla sostanza pensante, che costituisce l’io, si deve ammettere una
sostanza corporea, divisibile in parti, quindi estesa. Tale sostanza estesa non possiede
però tutte le qualità che noi percepiamo di essa. Cartesio fa la sua distinzione già
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;:6!

stabilita da Galileo e che in realtà risale a Democrito. La grandezza, la figura, il


movimento, la durata, il numero, cioè tutte le determinazioni quantitative, sono
certamente qualità reali della sostanza estesa; ma il colore, il suono, il sapore, ecc. non
esistono come tali nella realtà corporea e corrispondono in questa realtà a qualcosa che
noi non conosciamo. In tal modo, Cartesio ha spezzato la realtà in due zone distinte ed
eterogenee: la sostanza pensante, che è inestesa, consapevole e libera da un lato; la
sostanza estesa, che è spaziale, inconsapevole e meccanicamente determinata dall'altro
(=dualismo cartesiano). Ma dopo aver diviso, Cartesio si trova di fronte al difficile
problema di riunire o di spiegare il rapporto scambievole fra queste due sostanze.
La fisica cartesiana, sulla base della rigorosa separazione tra res cogitas e res
extensa, poté attuare finalmente la radicale eliminazione dei residui finalistici,
antropomorfici, animistici, magici e astrologici che ancora infestavano la fisica agli inizi
del '600. Neppure Galileo seppe con altrettanta coerenza depurare la fisica dalle scorie
del passato. E perciò appunto, sebbene i risultati di Cartesio nell'analisi dei singoli
fenomeni fisici non potessero reggere il confronto con i successi conseguiti da Galileo, il
meccanicismo cartesiano riuscì ad incidere profondamente nella formazione della
mentalità scientifica della sua età; e il suo stesso sistema, pur con le sue stravaganze,
riscosse notevole successo, tanto da rivaleggiare per parecchi decenni con il sistema
newtoniano.
Meccanicismo significa, ovviamente, determinismo. Una spontaneità della natura
o un sua intrinseca casualità non sono ammissibili, poiché i fenomeni si svolgono
secondo quel principio di oggettiva necessità causale, che, come abbiamo già visto, è
uno dei temi qualificanti della Rivoluzione Scientifica. A tal proposito va ricordato,
quindi, che Cartesio aveva compreso l’importanza di quelle che oggi chiamiamo
“condizioni iniziali”, che costituiscono una descrizione dello stato di un sistema fisico
all’inizio del suo moto e che sul quale si cerca di fare delle predizioni. Con un dato
insieme di condizioni iniziali (per esempio posizione e quantità di moto), le leggi di
natura determinano come un sistema dinamico evolve nel tempo, ossia la sua
traiettoria.
Dobbiamo tuttavia aggiungere che, nel momento in cui la scienza fisica assume
una struttura matematica, la necessità oggettiva si traduce inevitabilmente in una
necessità logico-matematica, che ha il suo fondamento nelle leggi del pensiero; assunta,
infatti, un'ipotesi, l'andamento di un fenomeno può essere dedotto matematicamente da
quella. Noi siamo oggi consapevoli che la deduzione si limita ad esplicitare ciò che è già
implicito nell'ipotesi stessa, con tutto il margine di incertezza in essa contenuto, e non
prescrive alla natura alcuna ulteriore legge del pensiero. Ma il successo del
procedimento deduttivo generava l'illusione che l'evidenza soggettiva delle
argomentazioni fosse di per sé garanzia della loro corrispondenza con la realtà esterna,
indipendentemente da una conferma sperimentale. Di conseguenza Cartesio, indotto da
tale illusione, tende ad operare anche nella fisica, oltre che nella metafisica, quel salto
dall'ordine logico all'ordine ontologico, che costituisce da sempre l'aspirazione ultima
del razionalismo. Egli di fatto procede non di rado guidato dalla convinzione di poter
cavare dalla propria testa le leggi che governano il mondo. D'altronde, non le sole leggi,
ma l'esistenza stessa della res extensa trova fondamento per Cartesio nell'evidenza della
nostra idea dello spazio. Su questa base è ovvio che dal mondo della nostra esperienza
possiamo assumere come oggettive solo quelle proprietà che siano suscettibili di una
;:7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

trattazione geometrica, mentre le restanti proprietà che attribuiamo al mondo sono di


natura puramente soggettiva. La geometria è perciò l'unica scienza fisica.
Come Aristotele, Cartesio ricercò per prima cosa assiomi indubitabili, che erano:
la definizione di materia come estensione spaziale e l’impossibilità del vuoto (perché
uno spazio vuoto di materia sarebbe una contraddizione). In ultimo definì le leggi del
moto. Di fatto la fisica cartesiana pretende di ricondurre tutta l'infinita varietà dei
fenomeni del mondo fisico ai due soli ingredienti dell'estensione e del moto. L'una e
l'altro hanno origine da Dio, cui si deve non solo la creazione della res extensa, ma anche
il conferimento ad essa di una certa determinata quantità di moto, indistruttibile non
meno della materia: due principi fondamentali di conservazione, del moto e della
materia, immediatamente deducibili dall'immutabilità di Dio, dalla quale può derivarsi
l'immutabilità di quanto egli opera. Altri interventi di Dio nel mondo, oltre al primo
atto di creazione della materia e al primo impulso, non sono richiesti.
Cartesio, mettendo da parte sia Keplero che Galileo, perseguì una terza via: un
ideale meccanicistico nella sua forma più pura. Cartesio disprezzò la cinematica di
Galileo perché, secondo lui, non aveva capito la natura della gravità o non aveva capito
quella del movimento. Le leggi di Keplero le conobbe ma non le applicò mai, mentre la
sua fisica celeste la respinse perché del tutto filosoficamente errata. E sebbene Cartesio
avesse realizzato una considerevole opera di fisica matematica, la Diottrica (1637) in cui
per primo enunciò la legge sui valori dei seni nella rifrazione, e aveva tentato di
spiegare la luce e i colori insieme a ogni altro fenomeno, tale per cui l’ottica fisica
diventò un campo molto praticato dopo la metà del ‘600, egli costruì un’intera fisica e
un’intera cosmologia prive di ogni elemento matematico, ossia non contenevano leggi
espresse matematicamente. Il matematismo cartesiano si manifestava solo nel carattere
assiomatico e deduttivo della sua costruzione del mondo. Non è una contraddizione; a
Cartesio interessa soltanto fornire della realtà fisica un'interpretazione che renda
possibile la trattazione matematica, senza che con questo egli si senta obbligato a
svolgerla esplicitamente.
La legge della caduta dei gravi venne formulata da Cartesio nel 1629 secondo la
falsa formula che vede nella velocità del mobile non una funzione del tempo trascorso,
ma dello spazio percorso. Nel suo grandioso tentativo di una completa e razionale
ricostruzione del mondo fisico, Cartesio giungeva ad una importante definizione del
concetto di movimento e ad una chiara formulazione del principio di inerzia. La sua
seconda legge della natura afferma che: “ogni corpo che si muove tende a continuare il
suo movimento in linea retta”. Rovesciando le impostazioni di Copernico (e di Galilei),
Cartesio afferma che: “ogni parte della materia, nel suo particolare, non tende mai a
muoversi secondo linee curve, ma secondo linee rette” e che “ogni corpo che si muove è
determinato a muoversi secondo una linea retta e non già secondo una circolare”. Nel
moto circolare è presente una tendenza “ad allontanarsi senza posa” dal circolo che
viene descritto. Questa considerazione appare a Cartesio di grande importanza. Con
essa veniva finalmente distrutto il mito della perfezione della circolarità.
Il moto descritto finora dai filosofi è ben diverso da quello concepito da Cartesio,
che non è un processo, ma uno stato dei corpi ed è sullo stesso piano ontologico della
quiete: il fatto di essere in quiete o in moto non provoca nei corpi alcun mutamento.
Movimento e materia sono i due soli ingredienti che costituiscono il mondo e la fisica
cartesiana è rigidamente meccanicistica: tutte le forme dei corpi inanimati possono
essere spiegate senza che a tal fine sia necessario attribuire alla loro materia altro che il
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;:8!

movimento, la grandezza, la forma e l'organizzazione delle sue parti. Res cogitans e res
extensa appaiono realtà rigidamente separate. La natura non ha nulla di psichico e non
può essere interpretata con le categorie dell'animismo: “Col termine natura non intendo
affatto qualche divinità o qualche tipo di potenza immaginaria, ma mi servo di questa
parola per indicare la materia stessa, in quanto dotata di tutte le qualità che le ho
attribuito, intese tutte insieme, e sotto la condizione che Dio continui a conservarla
nello stesso modo in cui l'ha creata “. Per il fatto che Dio continui a conservarla, i diversi
mutamenti che in essa avvengono non potranno essere attribuiti all'azione di Dio, ma
alla stessa natura: “le regole secondo le quali tali mutamenti avvengono le chiamerò
leggi della natura”.
L'unico motore della grande macchina del mondo è costituito dall'originaria
quantità di moto, che può distribuirsi in modi differenti tra i corpi attraverso gli urti. Il
che significa che viene bandita ogni forza, attrattiva o repulsiva, segnatamente quelle
forze che debbono manifestarsi a distanza: forze elettriche, magnetiche, gravitazionali, o
di qualsivoglia altra natura. Non era, d'altronde, del tutto ingiustificato questo ripudio
delle forze esplicantisi a distanza, che richiamavano il finalismo aristotelico, l'astrologia,
l'animismo. Come può, infatti, un corpo esercitare un'azione là dove non è? Galileo
stesso le aveva in sospetto, al punto da respingere come farneticazione astrologica
l'antica tesi che riconduceva il fenomeno delle maree all'influenza della Luna. Due sole
leggi dominano l'universo fisico cartesiano: il principio di inerzia, e il principio della
conservazione della quantità di moto. Nel cosmo di Cartesio, quindi, non vi è nessuna
degradazione entropica, perché la “quantità di moto” (prodotto della velocità per la
massa) è perpetuamente costante.
Come in ogni prospettiva meccanicistica, Cartesio fa uso di modelli per
l'interpretazione della natura: il mondo delle idee non è affatto lo specchio del mondo
reale e non c'è alcuna ragione di credere (anche se normalmente tutti ne siamo convinti)
“che le idee contenute nel nostro pensiero siano del tutto simili agli oggetti dai quali
derivano”. Come le parole, nate da convenzione umana, “bastano a farci pensare cose
alle quali non somigliano affatto”, così la natura ha stabilito “segni” che ci danno
sensazioni pur non avendo in sé nulla di somigliante a quelle sensazioni.
La materia si riduce per Cartesio ad estensione e si identifica con essa. Fra la
materia e lo spazio occupato dalla materia si dà come unica differenza la mobilità: nel
senso che un corpo materiale è una forma dello spazio che può essere trasportata da un
luogo ad un altro senza perdere la propria identità: “la stessa estensione in lunghezza,
larghezza e profondità, che costituisce lo spazio, costituisce il corpo; e la differenza che
c'è fra essi non consiste se non in questo, che noi attribuiamo al corpo un'estensione
particolare, che concepiamo cambiare di luogo con lui tutte le volte che esso è
trasportato”.
Se spazio e moto costituiscono il mondo, l'universo di Cartesio è la geometria
realizzata. La Geometria costituisce la più importante delle tre appendici del Discorso sul
metodo ed è in qualche modo l'atto di nascita della geometria analitica, la quale si colloca
storicamente come punto di incontro dei progressi dell'algebra realizzati nel corso del
'500 e del contemporaneo lento recupero della geometria classica. Cartesio ritiene
pertanto possibile unificare la geometria degli antichi con l'algebra dei moderni; ma
questa operazione richiede una revisione di ambedue le scienze. La geometria degli
antichi, malgrado i suoi incontestabili successi, è inficiata dal suo procedere episodico,
che costringe per ogni costruzione a ricercar una dimostrazione ad hoc e non riesce a
cogliere i rapporti nella loro universalità e a sollevarsi al livello di generalità necessario
;:9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

ad un'impostazione sistematica della scienza. D'altronde anche la nuova scienza


algebrica appariva a Cartesio un'arte confusa e oscura, sia per l'uso di simboli
inadeguati, sia perché legata ad un rapporto di sudditanza alla geometria. Pertanto,
Cartesio riordina sistematicamente la simbologia algebrica, che risponde ormai quasi
puntualmente a quella odierna, e abbandona l'immediata interpretazione geometrica
dei procedimenti algebrici. L'algebra, riorganizzata così in un linguaggio autonomo,
diviene idonea a riprodurre entro di sé in termini puramente formali la geometria, la
quale a sua volta si offre come strumento di chiarificazione intuitiva dei procedimenti
dell'algebra, quasi un'algebra applicata. Il numero e la forma divengono in tal modo
traducibili l'uno nell'altra.
Attraverso la geometria analitica i problemi della fisica, e in particolare quelli
della meccanica, possono venire sottoposti all'attacco risolutivo dell'algebra. Si pensi,
per fare un esempio, alla determinazione, mediante equazioni, della parabola di un
proiettile. Lo spazio, il tempo, la velocità, che considerati in sé stessi non sembrano
poter esser messi in rapporto l'uno con l'altro, diventano omogenei: la matematica ha
scoperto un procedimento per mezzo del quale l'unità di misura di una grandezza può
esser riferita a quella dell'altra.
L'identificazione cartesiana di spazio e materia comporta una serie di
conseguenze di grande rilievo: a) lo spazio euclideo è infinito e pertanto infinita è anche
la sostanza estesa; b) lo spazio geometrico è inoltre infinitamente divisibile, la materia
perciò non può essere costituita di atomi; c) lo spazio è continuo, non ammette
interruzioni, buchi, fenditure, di conseguenza non è concepibile il vuoto; l'estensione,
d'altronde, è l'attributo di una sostanza, e pertanto non può sussistere senza una
sostanza cui inerire; d) infine, le qualità che attribuiamo alla materia in addizione
all'estensione sono puramente soggettive, perché lo spazio è qualitativamente
indifferenziato.
Dato che l'attributo della infinità compete solo a Dio e l'infinità non può essere
compresa e analizzata dall'intelletto finito dell'uomo “chiameremo indefinite queste cose
piuttosto che infinite al fine di riservare solo a Dio il nome di infinito”.
La negazione cartesiana del vuoto è più radicale di quella dello stesso Aristotele:
per Cartesio lo spazio vuoto è impossibile, se ci fosse sarebbe un nulla esistente, una
realtà contraddittoria. Il nulla non ha proprietà né dimensioni . La distanza fra due
corpi è una dimensione e la dimensione coincide con una materia che è troppo “sottile”
per essere percepita e che immaginiamo come il vuoto. La realtà è costituita, per
Cartesio, di corpuscoli, ma Cartesio si distanzia fortemente dalla tradizione
dell'atomismo per due ragioni: perché concepisce le particelle che costituiscono il
mondo come divisibili all'infinito e perché non ammette l'esistenza del vuoto.
Per Cartesio, così come scrive nelle Meteore (1637), l'acqua, la terra, l'aria e tutti gli
altri corpi simili che ci stanno intorno sono composti “di parecchie particelle diverse per
forma e grandezza, particelle che non sono mai così ben disposte e congiunte insieme
così perfettamente, che non restino intorno ad esse numerosi intervalli; questi non sono
vuoti, ma pieni di una materia sottilissima per la cui interposizione si comunica
l'azione della luce”. Cartesio non si pone solo il problema dell'attuale costituzione
dell'universo, ma anche quello della sua formazione. L'universo deriva dalla materia-
estensione suddivisa da Dio in cubi, nelle forme più semplici della geometria. Dio ha
messo in moto, relativamente le une alle altre, le parti dell'universo e i cubi sono stati
messi “in agitazione”. Si sono in tal modo formati i tre elementi costitutivi del mondo.
In conseguenza dello sfregamento si produce nei cubi uno smussamento degli angoli e
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ;::!

degli spigoli. I cubi assumono forma diversa e diventano delle piccole sfere. Le
infinitesimali particelle prodotte dalla “raschiatura” costituiscono il primo elemento
“luminoso la cui agitazione è la luce”. Questo primo elemento “è come un liquido, il più
sottile e penetrante che ci sia al mondo”; le sue parti non hanno forma e grandezza
determinata ma “cambiano forma ad ogni istante per adattarsi a quella dei luoghi in
cui entrano”. Non ci sarà di conseguenza un passaggio così stretto, né un angolo così
piccolo che queste particelle non possano esattamente riempire. Il moto di questa
materia è paragonato al corso di un fiume che si diffonde direttamente dal Sole
causando la sensazione della luce. Se il primo elemento (paragonabile al Fuoco) è la
luce, il secondo elemento trasmette la luce: e “luminifero” ed è l'etere che forma i cieli.
Le sue particelle sono tutte “press'a poco sferiche e unite insieme, come granelli di
sabbia o di polvere”. Esse non si possono stipare né comprimere fino a far scomparire
quei piccoli intervalli nei quali “il primo elemento riesce a scivolare facilmente”. Il terzo
elemento deriva anch'esso dalle “raschiature” che si riuniscono in particelle a forma di
vite e provviste di scanalature. Tali particelle si saldano assieme dando origine a tutti i
corpi terrestri ed opachi. Le parti del terzo elemento sono “così grosse e talmente unite
insieme che hanno la forza di resistere sempre al movimento degli altri corpi”. Le
particelle dell'acqua sono invece “lunghe, levigate e liscie come piccole anguille, che, per
quanto si congiungano e intreccino insieme, non s'annodano né si attaccano mai in
modo tale che non sia possibile staccarle facilmente l'una dall'altra”.
La materia sottile che compone i cieli esercita nella fisica cartesiana funzioni
decisive: è a fondamento della rarefazione e condensazione, della trasparenza e opacità,
della elasticità, della stessa gravità. In un universo pieno il moto si configura
necessariamente come spostamento o risistemazione e, in queste condizioni, ogni
movimento tende a creare un turbine o vortice. Tutti i movimenti che avvengono al
mondo sono in qualche modo circolari: “vale a dire che quando un corpo lascia il suo
posto, va sempre in quello di un altro, che va nel luogo di un terzo, e così di seguito fino
all’ultimo, che occupa allo stesso istante il posto lasciato dal primo, di modo che non si
ha più vuoto fra loro, mentre si muovono, di quanto non se ne abbia quando sono
fermi”.
Poiché nel mondo non esiste il vuoto “non è stato possibile che tutte le parti
della materia si siano mosse in linea retta, ma essendo all'incirca eguali e potendo venir
tutte deviate quasi con la stessa facilità, esse hanno dovuto assumere tutte insieme un
certo movimento circolare “. Poiché fin dall'inizio Dio le ha mosse in modi diversi, esse
si sono messe a girare “non attorno a un unico centro, bensì
intorno a molti centri diversi”. Le particelle globulari del
secondo elemento hanno formato larghi vortici ruotanti. A
causa della forza centrifuga le particelle del primo elemento
sono state spinte verso il centro. Il Sole e le stelle fisse sono
ammassi (a forma di globo) di particelle del primo elemento.
Sia il primo sia il secondo elemento circondano, a guisa di
vortici liquidi, il Sole e le stelle. In questi vortici “galleggiano” i
pianeti che vengono trascinati attorno al Sole dal moto del vortice minore. Le comete
non sono fenomeni ottici, ma corpi celesti reali che viaggiano senza fine alla periferia
dei vortici passando da un vortice all'altro. Nell’universo indefinitamente grande
l'espansione dei vortici è impedita dai vortici confinanti. I vortici, finalmente, generano
le forze che trattengono i pianeti nelle loro orbite. Questa dottrina non dava conto dei
dettagli tecnici dell'astronomia planetaria (Cartesio non menziona le leggi di Keplero)
=<<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

ma rispettava i canoni fondamentali del meccanicismo: senza il ricorso a forze occulte di


nessun tipo essa appariva in grado di spiegare la rotazione dei pianeti attorno al Sole.
Attraverso questo modello puramente meccanico, Cartesio si lusinga di poter
spiegare la gravità e il moto di rivoluzione dei pianeti senza far ricorso alle aborrite
forze a distanza. Infatti, la materia sottile in moto vorticoso spingerebbe verso la Terra i
gravi e analogamente manterrebbe la Terra e i pianeti in orbita intorno al Sole. La teoria
dei vortici non suffragata, ovviamente, da alcuna prova sperimentale, è priva di ogni
elaborazione matematica, ebbe un certo successo e fronteggiò per qualche tempo la
teoria della gravitazione newtoniana; non le si può negare, comunque, un merito
fondamentale: prima di Newton, unificava Terra e cielo, riconducendo ad una
medesima causa la caduta dei gravi e il moto orbitale dei pianeti.
In un mondo che è tutto pieno di materia e nel quale non esiste il vuoto, ogni
movimento si configura necessariamente come un urto. Il tema dell'urto è per questo al
centro della fisica di Cartesio. Data la immutabilità di Dio, la quantità di moto
dell'universo rimane costante. Con questo termine Cartesio indica il prodotto della
“misura” di un corpo per la sua velocità. Ma questa misura non coincide con la nostra
massa e la velocità non viene da lui trattata come una quantità vettoriale. Non vi è
tuttavia necessità che rimanga costante la quantità di moto di ogni corpo. Nell'urto il
moto può essere trasferito da un corpo ad un altro. La terza legge della natura è così
formulata: “Se un corpo che si muove ne incontra un altro più forte di sé, non perde
nulla del suo movimento, e se ne incontra un altro più debole che egli possa muovere, ne
perde tanto quanto gliene dà”. Sulla base di questa terza legge un corpo in moto non
potrebbe mettere in moto un altro corpo con cui entra in collisione che sia in quiete ed
abbia una massa maggiore. Galilei si era reso conto con chiarezza che, qualunque sia la
massa di un corpo in quiete, un corpo che lo colpisce, per quanto piccolo, gli conferirà
sempre un movimento. Solo un corpo in quiete assoluta, cioè di massa infinita, potrebbe
sottrarsi a un mutamento in conseguenza dell'urto. Huygens rifiuterà le tesi cartesiane
dell’urto e Newton sulla sua copia dei Principia philosophiae di Cartesio Newton
annoterà error, error finché (come riferirà Voltaire) “stanco di scrivere ovunque error,
gettò via il libro”.
La riduzione della fisica a geometria si scontra, a dire il vero, con difficoltà
insormontabili, ove si disponga dei soli strumenti matematici di cui disponeva Cartesio;
sebbene oggi la geometria differenziale consenta l'elaborazione di modelli fisici
puramente geometrici. Entro lo spazio euclideo perfettamente omogeneo non si riesce,
infatti, ad immaginare qualcosa che possa corrispondere a ciò che chiamiamo
movimento. Secondo Cartesio è invece pensabile che frammenti di spazio si muovano
rispetto ad altri frammenti di spazio, sebbene non si comprenda come il moto possa
essere rilevato, se lo spazio è uniforme. Tuttavia, l'aspetto meno convincente della teoria
si coglie nel fatto che quel moto, poco chiaro proprio a causa dell'assoluta uniformità
del tutto, divenga stranamente esso stesso origine delle disomogeneità presenti nella res
extensa, che alla nostra percezione si manifesta come costituita di entità solide, o liquide,
o aeriformi, o infine in quella forma che interpretiamo come spazio vuoto. Ebbene, i
differenti aspetti che presenta ai nostri sensi la res extensa dipendono esclusivamente
dalle differenti condizioni inerziali dei diversi frammenti di estensione. Coerenza e
durezza di un corpo solido, ad esempio, sono soltanto l'effetto della comune condizione
inerziale delle parti del corpo stesso, nel senso che non vi sono entro di esso moti
relativi di alcune parti di estensione rispetto ad altre (condizione condivisa più o meno
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =<;!

integralmente a seconda della maggiore o minor durezza del corpo). Ovviamente


Cartesio, avendo ripudiato ogni tipo di forza, non può fare appello ad una coesione
attiva delle parti di un corpo per spiegare la sua solidità. La materia sottile (o etere), che
riempie tutto ciò che impropriamente chiamiamo vuoto, è costituita invece di
corpuscoli, cioè frammenti minutissimi di estensione, privi di ogni coerenza perché
soggetti ciascuno ad una differente condizione inerziale.
Strettamente connessa alla geometria, la fisica cartesiana è fondata, come la
geometria, su una serie di assiomi ed ha carattere strettamente deduttivo. La sua fisica a
differenza di quella di Galilei e di quella di Newton, non si pone mai la domanda: quali
sono i modi d'azione effettivamente seguiti dalla natura?. Si pone invece la domanda:
quali sono i modi d'azione che la natura deve seguire? La concezione della fisica come
geometria e del mondo come “geometria realizzata” condussero Cartesio verso una
fisica “immaginaria”, il cui carattere di “romanzo filosofico” verrà sottolineato non solo
dal cartesiano Huygens e da Newton ma da critici innumerevoli. In moltissimi casi la
connessione con l'esperienza, la ricerca di conferme empiriche delle teorie erano, nel
sistema cartesiano, solo chimeriche. Le leggi cartesiane della natura sono leggi per la
natura alle quali essa non può conformarsi perché sono esse che la costituiscono.
Cartesio aveva fornito un modello teorico che si accordava con le posizioni metafisiche
in cui quasi tutti gli scienziati si sentivano a proprio agio. Un modello che rifiutava gli
spiriti naturali e ogni relazione occulta, che negava la possibilità di avere una
conoscenza a priori di qualsiasi cosa salvo quella dell’essenza della materia e del
movimento, e quella delle relazioni matematiche o logiche. Molti ritennero, pertanto,
che il modello cartesiano non richiedesse nessuna verifica empirica perché la sua
validità era metafisicamente stabilita.
Nell'insieme, i contributi specifici di Cartesio ai progressi della scienza fisica non
sono molto significativi; o almeno va detto che il loro apprezzamento risulta
problematico, giacché il significato di alcuni principi di indubbia validità, come il
principio di inerzia e il principio di conservazione della quantità di moto, è alterato dal
sistema entro cui i principi stessi sono inseriti. Ciò nonostante rimangono essenziali, nel
processo di fondazione della fisica classica, il coerente richiamo all'esigenza di una
razionalità matematica e la valorizzazione del modello meccanico.
Se la concezione fisica di Cartesio è meccanicistica, è vero anche che quella di
Galileo e di Newton lo sono; però due caratteri fondamentali differenziano le due
concezioni. Il primo, il più evidente, è il concetto di forza. Per Galileo e per Newton la
forza è una realtà fisica irriducibile allo spazio e al movimento; per Cartesio, invece, la
forza è, come abbiamo visto, una proprietà dello spazio. Il meccanicismo di Cartesio è
inoltre contro l'atomismo, secondo il quale sono gli atomi che creano i campi di forza e i
loro movimenti nascosti che spiegano ogni processo fisico. Ovviamente, la dottrina
cartesiana, identificando materia ed estensione, non poteva essere atomista nel
tradizionale senso democriteo. L'universo pieno soddisfa un'altra esigenza della nostra
intuizione immediata, che è il secondo carattere distintivo del meccanicismo di Cartesio:
la contiguità dell'azione causale nello spazio e nel tempo. Ma gli sforzi dei cartesiani, in
primis, Huygens, non riuscirono a salvare, di fronte alla teoria newtoniana, nemmeno il
concetto della contiguità dell'azione causale nello spazio. La rinuncia a questa esigenza
pone in evidente imbarazzo anche Newton, il quale non nega, anzi afferma che è
impossibile, non solo per la natura, ma per Dio stesso, agire a distanza, agire, cioè, là
dove non si trova; ma tuttavia, nell'incapacità di elaborare una teoria soddisfacente egli
=<=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

si limita a descrivere i fenomeni, i quali avvengono come se l'attrazione avvenisse a


distanza. Ma l'esigenza cartesiana della contiguità dell'azione causale ricomparirà nella
fisica ottocentesca, in particolare nelle equazioni del campo elettromagnetico di
Maxwell.
Nonostante il carattere ad hoc delle ipotesi cartesiane, la grande costruzione
cartesiana si presentava tuttavia, ed è questa una delle ragioni della sua straordinaria
fortuna, come un sistema, ed aveva fornito una concezione della natura rigorosamente
ed esclusivamente meccanicistica, quale il XVII secolo desiderava ardentemente, e in
un'età in cui la scienza voleva essere in primo luogo uno strumento di dominio della
natura. Il sistema cartesiano appariva fondato sulla ragione, escludeva definitivamente
ogni ricorso a forme di occultismo e di vitalismo, sembrava in grado di connettere
insieme (in una forma differente da quella che era stata realizzata dalla Scolastica
medioevale) scienza della natura, filosofia naturale e religione, offriva infine, in un'età
piena delle incertezze che sono collegate alle grandi svolte intellettuali, un quadro
coerente, armonico e completo del mondo. La penetrazione e la diffusione del
cartesianesimo furono tuttavia lente e difficili, accompagnate da aspre polemiche, e nel
1663 anche la Chiesa cattolica poneva all'Indice gli scritti di Cartesio donec corrigantur.
Comunque, negli ultimi decenni del secolo XVII il cartesianesimo aveva conquistato le
università europee e le condanne erano cadute in desuetudine.

6.11 I cartesiani e anticartesiani

Fra coloro che continuano il cartesianesimo emerge Baruch de Spinoza (1632-


1677), con il suo razionalismo rigoroso e il suo panteismo naturalistico, e la ragione, di
cui Cartesio aveva chiarito la natura e le regole, celebra i suoi trionfi nel grande sistema
di Spinoza.
Nel pensiero di Spinoza, la cui tesi centrale è l'identificazione panteistica di Dio
con la natura, convergono temi e motivi appartenenti alle tradizioni culturali più
disparate, dalla teologia giudaico-cristiana, alla filosofia neoplatonico-naturalistica del
Rinascimento, al razionalismo cartesiano, a cui vanno aggiunte le influenze della
filosofia ellenistica, del pensiero arabo e di Hobbes. A questa serie di influenze bisogna
poi allegare la Rivoluzione scientifica, che, pur non essendo una fonte in senso stretto,
rappresenta il retroterra mentale e culturale senza di cui non si comprenderebbe il
concetto spinoziano del Dio-Natura. Infatti, il punto di questa originale fusione, l'idea
che la rende possibile, è proprio il concetto di Dio come ordine geometrico del mondo,
che da un lato, per quanto concerne le sue implicanze teologiche, riporta alle grandi
metafisiche e teologie dell'Occidente e dall'altro, per quanto riguarda le sue valenze
naturalistico-matematiche, richiama il nuovo modo scientifico di intendere il reale.
Il capolavoro di Spinoza, Ethica ordine geometrico demonstrata (Etica dimostrata
secondo l'ordine geometrico) è una sorta di enciclopedia delle scienze filosofiche, che
ispirandosi agli Elementi di Euclide, si serve di un procedimento espositivo che si
scandisce secondo definizioni, assiomi, proposizioni (=teoremi), dimostrazioni, corollari
e scolii (= delucidazioni).
Spinoza è un ammiratore delle matematiche e vede nella trattazione geometrica
una garanzia di precisione e di sinteticità espositiva, nonché di distacco emotivo nei
confronti dell'argomento trattato, e che il reale costituisce una struttura necessaria, di
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =<4!

tipo geometrico, in cui tutte le cose sono concatenate logicamente fra loro e quindi
deducibili sistematicamente l'una dall'altra: “ordo et connexio idearum idem est ac ordo
et connexio rerum (l’ordine e la connessione delle idee, è identico all’ordine e alla
connessione delle cose).” Pensare rettamente significa adeguare lo svolgimento del
pensiero a questa realtà razionale, perciò l’unica forma corretta della trattazione
filosofica deve ricalcare il procedimento matematico di cui Euclide offre il modello.
Uno dei primi assiomi dell’Ethica è che ogni cosa nel mondo deve essere spiegata
mediante la propria natura, o mediante un più ampio disegno, una più larga natura
delle cose, la quale la costringe ad essere ciò che realmente è. Una cosa è spiegata
allorché noi riusciamo a conoscere perché essa deve essere ciò che è. In altri termini, in
questo molteplice ed enigmatico mondo di apparenze e di fenomeni che incuriosiscono
il ricercatore, tutto ciò che non contiene direttamente la propria spiegazione, deve far
parte di un più ampio disegno, di una più profonda natura delle cose, che lo spiega, e,
perciò, lo costringe ad essere ciò che è. Così tutto il mondo di questo pensatore è un
essere unico di necessità rigidamente matematiche, nel quale cause e spiegazioni
coincidono. Partendo da queste premesse, Spinoza conclude che deve esservi alcunché
di superiore che da nulla è condizionato, e che implica la spiegazione di ogni singola
cosa. L’universo è una realtà unica, e perciò tutto quanto in esso esiste deve esser parte
di un unico ordine autoproducendosi di una “sostanza unica”.
Spinoza, andando oltre Cartesio, si propone di sviluppare, con la massima
coerenza, tutte le implicanze logiche della nozione di sostanza. Spinoza intende per
sostanza: “ciò che è in sé e per sé si concepisce, vale a dire ciò il cui concetto non ha
bisogno del concetto di un'altra cosa da cui debba essere formato”. Con la prima parte
della formula egli intende dire che la sostanza, essendo da sé (in sé=da sé), in quanto
deve unicamente a sé stessa la propria esistenza, rappresenta una realtà autosussistente
e autosufficiente, che per esistere non ha bisogno di altri esseri. Con la seconda parte
della formula Spinoza intende dire che la nozione di sostanza, essendo concepibile
soltanto per mezzo di sé medesima, rappresenta un concetto che per essere pensato non
abbisogna di altri concetti. Come tale, la sostanza gode di una totale autonomia
ontologica e concettuale, poiché si identifica con una realtà che non presuppone, ma è
eventualmente presupposta da ogni altra possibile realtà, e con un concetto che non
presuppone, ma è eventualmente presupposto da ogni altro possibile concetto. Da
questa definizione di sostanza Spinoza deriva una serie di proprietà di base che la
caratterizzano: 1) la sostanza è increata, in quanto per esistere non ha bisogno di altro,
essendo, per natura, causa di sé, cioè un ente la cui essenza implica l'esistenza; 2) la
sostanza è eterna perché essa possiede, come sua nota costitutiva, l'esistenza, che non
riceve da altro; 3) la sostanza è infinita perché se fosse finita dipenderebbe da
qualcos'altro (contraddicendo il primo punto), e perché la sua essenza non ha limiti; 4)
la sostanza è unica, poiché “nella natura non si possono dare due o più sostanze della
medesima natura ossia del medesimo attributo”.
Questa sostanza increata, eterna, infinita, unica (e quindi anche indivisibile) non
può essere che Dio o l'Assoluto. Spinoza con questa posizione si stacca nettamente da
gran parte della metafisica occidentale, e in particolare dal filone ebraico-cristiano, in
quanto ritiene che Dio e mondo non costituiscano due enti separati, ma uno stesso ente,
poiché Dio non è fuori dal mondo, ma nel mondo, e costituisce, con esso, quell'unica
realtà globale che è la Natura. Spinoza perviene a questo principio-chiave del suo
pensiero fondandosi, di fatto, sull'unicità della Sostanza. Infatti, se la Sostanza è unica,
=<5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

essa sarà come una circonferenza infinita che ha tutto dentro di sé e nulla fuori di sé, per
cui le cose del mondo saranno per forza la Sostanza o la manifestazione in atto di tale
Sostanza. In tal modo, Spinoza perviene ad una forma di panteismo che giunge ad
identificare Dio o la Sostanza con la Natura, considerata come realtà increata, eterna ,
infinita e unica, da cui derivano e in cui sono tutte le cose. La Natura è una potenza
dinamica e procreante e tende ad identificarsi con l'ordine necessario e razionale del
Tutto.
In altre parole, il Dio-Natura di Spinoza è, in ultima analisi, l’ordine geometrico
dell'universo, cioè il Sistema o la Struttura globale del tutto e delle sue leggi. Come tale,
la Natura spinoziana non è il puro insieme o la semplice somma delle cose, ma il
Sistema o l'Ordine intrinseco che le regola e struttura secondo precise e immutabili
concatenazioni. La concezione di Dio come ordine geometrico dell'universo pone
Spinoza in antitesi a quella millenaria visione finalistica del mondo che si era espressa
nella metafisica greca e nella dottrina ebraico-cristiana di un Dio che crea liberamente il
mondo secondo progetti implicanti la subordinazione intenzionale delle cose all'uomo
(=finalismo antropocentrico). Secondo Spinoza, ammettere l'esistenza di cause finali è
un pregiudizio dovuto alla costituzione dell'intelletto umano.
Parlando della Sostanza o di Dio, Spinoza non intende nessuna delle figure
metafisiche tradizionali, bensì l'ordinamento complessivo dell'essere e la Struttura
geometrica del cosmo. Di conseguenza il panteismo (=Dio è in tutto) e il panenteismo
(=tutto è in Dio) sono, in Spinoza, una forma rigorosa di naturalismo, ripensato alla luce
della rappresentazione scientifica e moderna della realtà. Anzi, da un certo punto di
vista, lo spinozismo può essere reputato una traduzione metafisica del modo galileiano
di considerare la Natura. Come sappiamo, per lo scienziato italiano quest'ultima non è
più l'essenza o la potenza generatrice delle cose, bensì l'insieme delle leggi che
governano i fenomeni. Analogamente, per Spinoza la Natura non è più l'Anima o
l'energia intrinseca della materia, bensì il sistema o l'ordine strutturale delle relazioni fra
le cose, ovvero il complesso delle leggi universali dell'essere.
Spinoza, rifiuta il modello creazionistico, perché la creazione supporrebbe
intelletto, volontà, arbitrio, scelta, tutte cose che non hanno senso riferite al Dio-Natura.
Ma l'esclusione della dottrina della creazione significa che egli abbia accettato la
dottrina dell'emanazione? Non c'e traccia, nella dottrina di Spinoza, di questa
accettazione, che avrebbe fatto della sua dottrina la ripetizione esatta della dottrina di
Bruno. Ma tra Spinoza e Bruno ci sono Galileo, Cartesio e Hobbes: vi è la prima
formazione della scienza, interamente polarizzata intorno al concetto della natura come
ordine oggettivo e matematicamente strutturato. Da ciò l'originalità dello spinozismo di
fronte a tutte le forme di emanatismo.
La Sostanza spinoziana non è l'Unità ineffabile dalla quale scaturiscono le cose
per emanazione, secondo l'antica dottrina neoplatonica. Non è neppure la natura
infinita che per la sua sovrabbondanza di potenza genera infiniti mondi, secondo il
naturalismo di Bruno. Essa è piuttosto un Ordine cosmico o un Teorema eterno da cui le
cose scaturiscono in modo necessario. Di conseguenza, nell'universo spinoziano non vi
è nulla di contingente, poiché in esso tutto ciò che è possibile si realizza
necessariamente, esattamente come in geometria le verità implicite degli assiomi si
esplicitano necessariamente nei teoremi, per cui possibilità e realtà sono nient'altro che
necessità in potenza o necessita in atto.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =<6!

Ai sensi e all'immaginazione il mondo appare molteplice, contingente e


temporale, ossia come una pluralità di cose, esistenti in relazione ad un certo spazio e
ad un certo tempo, e tali che, pur essendo, potrebbero non essere. Invece, per l'intelletto
esso si configura come qualcosa di unitario, in quanto la molteplicità è solo l'insieme dei
modi d'essere dell'unica sostanza; di necessario, poiché il contingente è solo ciò di cui
ignoriamo le cause; di eterno, in quanto ciò che pare svolgersi nel tempo è in realtà la
manifestazione di una Struttura meta-temporale, tant'è vero che Spinoza distingue
nettamente fra la considerazione dell'universo sub specie temporis, ossia dal punto di
vista del tempo, e quella sub specie aeternitatis, ossia dal punto di vista dell'eternità.
Inoltre, ai sensi e all'immaginazione il mondo può apparire talora imperfezione e male.
Invece, dal punto di vista dell'intelletto, bene, male, perfezione, imperfezione, ordine
disordine sono esclusivamente maniere soggettive di pensare, punti di vista relativi e
antropomorfici. Ricordiamo, che tali idee avranno una profonda influenza su Einstein e
sulla sua teoria della relatività.

Christiaan Huygens (1629–1695), il massimo fisico del periodo tra Galileo e


Newton, restò sempre cartesiano nel suo atteggiamento verso la spiegazione scientifica,
anche se risentirà della evoluzione culturale in atto al suo tempo, per cui si rivelerà
decisamente più empirico di Cartesio, del quale ignora la metafisica, e il suo
programma di spiegazione dei fenomeni naturali sarà ancorato ad un procedimento del
pensiero puramente analitico. In sostanza, come Newton, la sua azione scientifica si
baserà principalmente sull’esperienza e sui fatti, anche se li interpreterà in modo del
tutto differente dal padre della meccanica.
Nel Seicento, tra i vari interessi scientifici, il centro delle preoccupazioni dei fisici
è occupato dalla meccanica razionale dei corpi solidi, con il problema pratico della
costruzione e della verifica dell’orologio oscillatorio (orologio a pendolo) che, se portato
a sufficiente esattezza e quando fosse stato risolto il problema di correggere le
variazioni dei periodi di oscillazione connesse con la latitudine, avrebbe permesso,
finalmente, di risolvere in maniera semplice e pratica (mediante la facile considerazione
dei fusi orari) il problema della determinazione della longitudine in alto mare o in terre
sconosciute. Problema a cui erano vivamente interessati i governi, soprattutto
dell'Olanda, dell'Inghilterra e della Francia, i tre paesi che, per il declino marittimo del
Portogallo e della Spagna, si contendevano l'egemonia dei mari e già avevano forti
interessi capitalistici in paesi d'oltreoceano.
Il problema venne risolto nel 1656 dallo Huygens che anche sviluppò in modo
sperimentale e matematico i vari temi connessi con l'orologio stesso, in particolare la
teoria dei moti rotatori e pendolari (in genere quindi la teoria dei moti seguenti
traiettorie obbligate e tali che gli spazi da prendere in considerazione sono piuttosto
angoli che lunghezze lineari, e quindi le velocità sono piuttosto velocità angolari che
semplici scalari), introducendo il concetto di momento d’inerzia, e la teoria
dell'elasticità, la quale, destinata in seguito ad avere tanta importanza nella storia della
scienza, appare per la prima volta sulla scena della ricerca scientifica. L'Horologium
oscillatorium (1673) è così, dopo il Discorsi e dimostrazioni matematiche di Galileo, la
seconda grande opera di dinamica: in essa, oltre a venire affrontata una nuova
problematica, si osservano un metodo assai più decisamente sperimentale e un
patrimonio di nozioni matematiche assai più ricco, non per niente erano passati tra le
due opere vari decenni, e quali decenni! Dal punto di vista del pensiero scientifico,
quest'opera recava un potentissimo contributo al trionfo del meccanicismo, offrendo a
=<7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

tale concezione un nuovo fascinoso modello: quello, appunto, dell'orologio. Da questo


momento, e per quasi un secolo, la natura sarà concepita come un gigantesco perfetto
orologio, e Dio come il Grande Orologiaio.
Il desiderio di liberare la fisica dai residui magici di tutte le teorie correnti spinse
Huygens ad accettare la dottrina cartesiana della gravità. Egli comincia, in uno spirito
cartesiano, con l'osservare che il peso, essendo una tendenza al movimento,
verosimilmente deve essere prodotto da un movimento. Si tratta di vedere qual’è la
natura del movimento e quale corpo lo esegue. A Huygens sembra evidente che il moto
debba essere circolare, perché da questo moto sorge una forza centrifuga e il corpo
dotato di tale moto deve essere una materia fluida. Cartesio aveva sperimentalmente
confortato la sua teoria mettendo in evidenza una forza centripeta maggiore della
centrifuga in corpi più leggeri del liquido, dotato di moto rotatorio, in cui sono immersi.
Huygens osserva giustamente che questo effetto è dovuto al diverso peso specifico dei
corpi, e perciò ne risulta che Cartesio, per trovare una causa al peso, comincia col
supporre che i corpi ne abbiano uno.
Huygens suppone una materia unica, di cui alcune parti non seguano il moto
rotatorio delle rimanenti e lo seguano con velocità minore. Il fenomeno si può
riprodurre sperimentalmente, facendo cadere in un recipiente con acqua in rotazione
qualche corpo un po' più pesante dell'acqua, e il suo movimento circolare, impedito o
diminuito, si sposterà verso il centro in linee spirali. In queste condizioni, se la Terra e
tutto lo spazio sferico intorno è occupato da materia fluida in movimento secondo tutte
le possibili circonferenze massime, i corpi che si trovano in questo ambiente e non
seguono il movimento rapido della materia fluida sono spinti verso il centro. Conclude
Huygens: “Ecco dunque in che cosa consiste il peso dei corpi, il quale si può dire che è
l'azione della materia fluida che ruota circolarmente attorno al centro della Terra in
tutti i sensi per cui essa tende ad allontanarsi e spingere i corpi che non seguono questo
movimento”. Ma perché i corpi terrestri non seguono questo movimento? Perché la
materia fluida, ci informa Huygens, estremamente sottile e velocissima, attraversa tutti i
corpi e dà a questi impulsi in tutti i sensi, onde ne impedisce il moto. La teoria consente
a Huygens di dedurre che il peso è proporzionale alla quantità di materia,
contrariamente a quanto aveva affermato Cartesio; che la gravità non può essere
impedita da alcun corpo interposto; che la velocità dei corpi cadenti deve seguire la
legge di Galileo. In definitiva la gravità, secondo Huygens, è causata dalla pressione
della materia eterea sui corpi, perché soltanto in questo modo le leggi di gravità
possono esser conosciute riconducendole a principi meccanici, cioè all’impatto di
particelle su particelle. In base a questa filosofia meccanicistica, Huygens dichiarerà
tutto il proprio scetticismo nei confronti della fisica newtoniana. L’assurdità della fisica
newtoniana consisteva nel fatto che due masse potessero attrarsi a distanza,
istantaneamente e nel vuoto: “Non riesco a capire come il Signor Newton abbia potuto
dedicare tanta buona matematica ad un’ipotesi fisica così assurda”.
Il più importante problema della filosofia della natura restava però quello della
luce, e su questo tema il secolo viene creando insieme, e inestricabilmente congiunti,
una fisica della luce, che sorpassa oramai decisamente il piano dell'ottica geometrica
greca e dell'ottica fisiologica greco-araba, e una metafisica della materia. Come le due
cose siano congiunte è noto: già dal Medioevo le strutture del campo luminoso
apparivano identiche a quelle dello spazio fisico, e quindi della materia. D'altra parte,
gli sviluppi del metodo sperimentale, facilitati dai notevoli progressi artigianali
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =<8!

compiuti nel campo della fabbricazione dei vetri e delle lenti, nonché gli sviluppi della
nuova astronomia, portavano ad attaccare i problemi della luce dal punto di vista fisico.
Ora, la natura materiale della luce era stata sostenuta già dall'antichità, e
presunta da tutti i fondatori della scienza moderna, ma ora, nel fatto stesso che se ne
potesse stabilire la velocità finita, se ne aveva una riprova: se un ente impiega del
tempo, sia pure piccolissimo alla scala delle nostre velocità terrestri, per andare da un
luogo ad un altro, questo ente si può senz'altro ritenere materiale. Così si accentuò la
tendenza ad interpretare in questo senso la natura della luce, ma già prima, da Cartesio
in poi, l'ipotesi che la luce si dovesse concepire come movimento della materia sottile
era entrata nel dominio della fisica.
Come abbiamo visto, Cartesio aveva considerata la luce come moto vorticoso
della materia sottile; Huygens prosegue su questa strada, cercando però di dare alla
dottrina cartesiana un senso fisico mediante una serie di importantissime ricerche
sperimentali sulla luce, in particolare sui fenomeni di rifrazione attraverso il cristallo di
Islanda. Attraverso questi esperimenti egli arriva a stabilire molte peculiarità della
rifrazione, i fenomeni di interferenza e polarizzazione, e finalmente il fenomeno della
doppia rifrazione. Sulla base di tali ricerche e risultati egli formula la teoria secondo la
quale la luce è un moto ondulatorio orizzontale che si propaga in un mezzo ipersottile,
l’etere, presente anche là dove diciamo essere il vuoto. La teoria del moto ondoso spiega
abbastanza bene i fenomeni già sperimentalmente noti, e quelli scoperti dallo stesso
Huygens; ma, com'egli stesso ebbe a confessare francamente, resta in scacco davanti alla
doppia rifrazione. Di contro a lui Newton sosterrà la teoria corpuscolare della luce.
Nella breve prefazione del suo Traité de la lumiére (1690), Huygens ci informa che
egli aveva completato il trattato nel 1678 e nello stesso anno lo aveva comunicato
all'Académie des sciences di Parigi. Però nel 1678 erano già comparse le memorie
fondamentali di Newton, rifuse poi nell'Ottica, e il pensiero di Huygens ne fu
influenzato. Il trattato si apre con una critica delle teorie di Cartesio e di Newton: se la
luce è costituita da corpuscoli, come è possibile che si propaghi rettilineamente nella
materia senza esserne influenzata? E come è possibile che due fasci di luce, cioè due
sciami di corpuscoli, s’incrocino senza disturbarsi coi reciproci urti? Qual è il mezzo che
propaga il moto? Huygens, istituito ancora una volta il paragone tra suono e luce,
osservato che il mezzo non può essere l'aria, perchè la macchina pneumatica aveva
dimostrato che, a differenza del suono, la luce si propaga anche nel vuoto, postula
l'esistenza di una sostanza eterea, che riempie l'universo, compenetra i corpi, è
estremamente sottile tanto da sfuggire a ogni analisi ponderale, e molto dura e molto
elastica. Le particelle d'etere sono corpuscoli elastici (di forma forse non sferica) che
propagano il moto, pur senza assumere moto traslatorio. Insomma, il modello
meccanico assunto a rappresentazione del moto ondoso portava a supporre onde
longitudinali.
Huygens parte dall'esempio di una fiamma: ogni punto della
fiamma comunica il moto alle particelle d'etere tutt'attorno, emette cioè
un'onda e ogni particella d'etere raggiunta dall'onda diventa essa
stessa centro di un'altra minuscola onda. Il moto così si propaga da
particella a particella per azioni sferiche secondarie, allo stesso modo
come si propaga un incendio. Ciò che può apparire strano e quasi
incredibile è che ondulazioni prodotte da movimenti e corpuscoli così
piccoli possano estendersi a così grande distanza, come quella che
=<9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

intercede tra le stelle e noi. Huygens rassicura: “Ma si cesserà di


meravigliarsi considerando che a una certa distanza dal corpo
luminoso un'infinità di onde, sebbene emesse da tanti punti diversi di
quel corpo, si uniscono in modo che sensibilmente essi compongono
un'onda sola che di conseguenza deve avere forza sufficiente per farsi
sentire”. È questo il principio d'inviluppo delle onde, il concetto più
geniale espresso nel trattato:

PRINCIPIO DI HUYGENS
Ogni punto di un fronte d'onda può essere considerato come una sorgente secondaria di
onde sferiche, aventi la stessa frequenza della sorgente originaria dell'onda. Il nuovo
fronte d'onda è l'inviluppo delle onde secondarie, cioè la superficie tangente ai fronti
d'onda di tutte le onde secondarie.

Huygens è costretto, però, a ricorrere a nuove ipotesi per interpretare la


rifrazione, e più generalmente la trasparenza dei corpi. Come si possono propagare nei
solidi le onde eteree? Si potrebbe semplicemente pensare che le onde d'etere mettano in
vibrazione le particelle di cui sono costituiti i corpi; ma si può anche supporre che l'etere
compenetri i corpi e ne occupi gli interstizi tra particella e particella. Dalla seconda
ipotesi discende che la velocità dell'onda nell'interno dei corpi deve essere minore che
nell'etere libero a causa dei piccoli rimbalzi delle particelle d'etere sulle particelle
materiali dei corpi. Insomma, la velocità della luce diminuisce con l'aumentare della
densità del mezzo, come il buon senso spicciolo sembrava suggerire. Questa diversa
velocità è la causa della rifrazione e Huygens dimostra che n=v1/v2, essendo v1 e v2 la
velocità della luce rispettivamente nel primo e nel secondo mezzo e n l'indice di
rifrazione relativo.
Negli stessi anni in cui Cartesio elaborava la sua geometria analitica, un altro
grande matematico francese, Pierre Fermat (1601-1655), compiva analoghe ricerche nel
medesimo campo e giungeva per suo conto alla fondazione della medesima geometria
analitica. La teorizzazione di Fermat risulta per taluni aspetti più moderna, ma lo
sfondo filosofico nel quale era inserita la geometria di Cartesio, contribuì a renderne più
profonda l’influenza tra i contemporanei.
Delle proprie ricerche infinitesimali sui massimi e minimi, Fermat fece una
sorprendente applicazione fisica. Rivolgendosi ad una questione di ottica, giunse a
concludere che la legge di rifrazione della luce enunciata da Cartesio, può dedursi da
un principio generale per cui “la natura agisce sempre
secondo le vie più brevi”; principio che Fermat precisò
dicendo che, in questo caso, per “vie più brevi” debbono
intendersi quelle che vengono percorse nel minimo
tempo (breviori tempore percorri possint). In altre parole,
secondo Fermat, il principio fondamentale è che la luce
segue il percorso che richiede un tempo minimo per
passare da un punto all’altro. La Legge di Snell (legge
della rifrazione: n1⋅sinα=n2⋅sinγ) deriva dall'applicazione
di questo principio alla luce: anche se il percorso del
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =<:!

raggio di luce nei due mezzi sembra spezzato, è in realtà il più veloce possibile, dati gli
indici di rifrazione diversi.

PRINCIPIO DI FERMAT
Un raggio tra due punti segue il percorso a cui corrisponde il minor tempo di percorrenza.

Questo principio implicava l’abbandono della credenza di propagazione


istantanea della luce e l’ammissione di una velocità finita.
Contro il principio di Fermat insorsero subito i cartesiani, motivando le loro
critiche con il seguente argomento: il principio che la natura agisce per le vie più brevi o
più semplici non è un principio fisico, perché esso richiederebbe che la natura agisse per
conoscenza; infatti, arrivato il raggio di luce sulla linea di separazione dei due mezzi,
esso dovrebbe sapere che piegandosi in quel certo modo impiega minor tempo, e così
risulterebbe anche che il tempo è causa di moto.
Anche i fisici accolsero in un primo tempo con diffidenza il principio, ma questo
giudizio negativo andò progressivamente attenuandosi. Huygens, proprio grazie
all’uso del principio di Fermat si convinse che l’indice di rifrazione è uguale al rapporto
tra la velocità della luce nel primo e nel secondo mezzo (n=c/v). Insomma, superato il
primo momento di diffidenza, l’atteggiamento di Huygens nei riguardi del principio di
Fermat si può così riassumere: senza indagare sul suo significato metafisico, se ce l’ha, il
principio descrive bene i fenomeni ottici e quindi può essere usato come uno strumento
comodo per la ricerca scientifica.
La legge cartesiana della rifrazione era stata appena confermata teoricamente da
Fermat che un altro fenomeno della luce, la diffrazione, veniva scoperto da padre
Francesco Maria Grimaldi (1618-1663) e pubblicata nell’opera Physico-mathesis de
lumine, coloribus et iride. La scoperta fu certamente casuale e dovuta alla circostanza che
Grimaldi sperimentava con fascetti di luce molto sottili, ottenuti aprendo nella finestra
esposta al Sole un esile forellino. Sul fascetto di luce che lo attraversava lo scienziato
poneva un ostacolo e ne raccoglieva l’ombra sopra uno schermo bianco; osservava
allora che sullo schermo l’ombra era dilatata rispetto all’ombra geometrica che si
sarebbe dovuta ottenere.
Le iridescenze delle frange di diffrazione inducevano naturalmente lo scienziato
bolognese a occuparsi della natura dei colori, sulla quale la polemica tra filosofi e
scienziati era sempre viva. Grimaldi osserva che la luce emergente da un prisma va da
un rosso ad un estremo al violaceo all’altro estremo, separati da zone di vario colore, a
seconda dell’inclinazione dei raggi incidenti. Questa esperienza gli consente di
concludere che la luce si colora per rifrazione. Ma essa si può colorare, senza riflessione
e senza rifrazione, anche per diffrazione. Se, quindi, molti sono i modi di colorazione
della luce, ma nessuno è necessario, Grimaldi conclude che il colore doveva essere
insito alla luce, una sua intrinseca modificazione, senza assumere contemporaneamente
alcuna altra entità. Ma in cosa consiste questa intrinseca modificazione? Grimaldi nella
sua opera sostiene la sostanzialità della luce, ossia il suo carattere corpuscolare, ma
anche argomenti che la confutano per sostenere il suo carattere accidentale, oggi
diremmo ondulatorio.
Alla fine Grimaldi conclude, come concludono i fisici di oggi, che non ci sono
ragioni per preferire una teoria all’altra e che entrambe possono essere vere. L’ipotesi
=;<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

ondulatoria gli consente di spiegare qual è la modificazione della luce produttrice dei
colori. A sostegno della teoria ondulatoria Grimaldi porta molti argomenti, in
particolare l’analogia coi suoni, la cui varia altezza, come aveva insegnato Galileo,
dipende dalle varie ondulazioni dell’aria. Comunque, aggiunge Grimaldi, qualunque
teoria si preferisca “i colori non sono qualche cosa distinta dalla luce”.
Nella sua opera Grimaldi, sulle orme di Gilbert, dedica oltre trenta pagine al
magnetismo, descrivendo esperimenti vecchi e nuovi e tentandone la spiegazione con
l’ipotesi, d’ispirazione cartesiana, di un fluido magnetico sostanziale unico che scorre
tra un polo e l’altro di una calamita e le opposte direzioni di flusso produrrebbero gli
effetti apparentemente opposti. Ogni corpo magnetico non magnetizzato, come il ferro,
contiene il fluido disordinato, per cui la calamita lo ordina e induce quindi nel copro la
proprietà magnetica. La teoria di Grimaldi, anche se derivata da quella cartesiana, ha
una caratteristica, cioè quella di introdurre il fluido unico e non fa ipotesi sulla forma
delle sue particelle costitutive.

Nel 1669 il danese Erasmus Bartholin (1625-1698), osservando oggetti attraverso


i cristalli dello spato d’Islanda, scopriva che essi apparivano doppi in certe posizioni del
cristallo, giungendo all’interpretazione corretta del fenomeno come una doppia
rifrazione.
Spetta alla cultura napoletana il merito di aver capito l’importanza del
cartesianesimo e la necessità di iniziare una diffusione sistematica di esso. Fu per
l’appunto un professore dell’Università di Napoli, Tommaso Cornelio (1614-1686), a
introdurre in Italia la conoscenza diretta delle opere del grande pensatore francese.
Meccanicista convinto, egli accettò quasi per intero le ipotesi della fisica cartesiana,
ritenendo di poter trovare senza difficoltà il modo di conciliarlo con il vecchio
naturalismo di Telesio nonché con le dottrine di Galileo. Anche il filosofo Leonardo da
Capua (1617-1695) si mostrò fermamente convinto di poter conciliare la scienza
cartesiana con quella galileiana, rivelando tra l’altro notevoli simpatie per l’atomismo di
Democrito. È indispensabile chiarire quale fosse il vero scopo di questi ed altri
cartesiani napoletani: il richiamo al pensatore francese assumeva in loro il preciso
significato di una lotta aperta contro la vecchia cultura, contro le concezioni tradizionali
della filosofia e della scienza. Perciò non ci si debba stupire che essi non provassero
alcun disagio a difendere, insieme con le teorie di Cartesio, anche quelle di Galileo o di
Gassendi, seppur diverse tra di loro, e che oscillassero tra la difesa del più schietto
empirismo e l’adesione a un matematismo di tipo pitagorico-platonico.
Fra coloro che pongono in discussione Cartesio spicca Blaise Pascal (1623-1662),
il quale, anche se accetta pienamente da Cartesio il dualismo spirito-materia, e anzi
vede in esso, d’accordo con il cristianesimo, la più soddisfacente giustificazione
dell’autonomia assoluta delle ricerche fisiche (rivolte esclusivamente alla materia)
rispetto agli studi intorno all’anima, respinge però la pretesa cartesiana di ricostruire
idealmente la macchina della natura, deducendo le proprietà concrete del mondo fisico
dai principi generali della materia e del movimento. Inoltre, pur accettando il metodo
razionalistico nel dominio della scienza, giudica la ragione incapace di comprendere la
realtà e il senso della vita, ritenendo che solo il cristianesimo renda comprensibile quel
“mostro incomprensibile” che è l'uomo, e spieghi ciò che la pura ragione, e quindi la
scienza e la filosofia, sono incapaci di chiarire. Pur essendo uno scienziato e pur avendo
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =;;!

interesse e considerazione per il sapere esatto, Pascal è convinto che la scienza presenti
taluni limiti strutturali, sia in sé medesima, sia in relazione ai problemi dell'uomo.
Il primo limite della scienza è l'esperienza. Sebbene questa rappresenti da un lato
un motivo di forza (Pascal è galileianamente e anticartesianamente un fautore del
metodo sperimentale), dall'altro lato è pur sempre qualcosa con cui la ragione deve fare
i conti, ossia che frena e circoscrive i suoi poteri, che non sono mai assoluti, come invece
tendevano a credere, nel loro deduzionismo aprioristico, Cartesio e i Cartesiani. La cosa
importante è, per Pascal, che lo scienziato il quale si occupa di fisica, sappia
concretamente interrogare la natura con accurati e precisi esperimenti e inoltre sappia
leggere le risposte che essa fornisce, risalendo dai dati particolari ai principi semplici
che regolano il corso dei fenomeni. Egli ha senza dubbio, anzi il dovere, di formulare
ipotesi, ma a patto di non confonderle con la verità. Se in un momento qualunque
un’ipotesi venisse contraddetta dai fatti, dovremmo essere immediatamente disposti ad
abbandonarla. Nessuna dimostrazione a priori può valere più dei fatti. L’elaborazione
teorica, per quanto importante, non può venire anteposta all’evidenza dei dati
sperimentali.
Il secondo limite della scienza è costituito dalla indimostrabilità dei suoi primi
principi. Infatti, le nozioni che stanno alla base del ragionamento scientifico (lo spazio, il
tempo, il movimento, ecc.) sfuggono al ragionamento stesso, poiché nel campo del
sapere, come avevano già notato i filosofi antichi, non risulta mai possibile una
regressione all'infinito dei concetti, per cui ci si deve per forza arrestare a dei termini
primi, che rappresentano il limite oltre il quale non si può procedere, ma dal quale è
costretta a partire la catena deduttiva dei ragionamenti. Tipico, in questo senso, il caso
delle matematiche. Se i dogmatici, tentando di fondare tali principi, non vi riescono, gli
scettici, cercando di confutarli, falliscono ancor più clamorosamente, poiché essi sono
evidenze intuitive e istintive, più sicure di qualsiasi ragionamento. Nello stesso dominio
che le è proprio, la scienza incontra dunque dei limiti. Tuttavia, nell'ambito di essi, la
ragione scientifica è arbitra. Di conseguenza, Pascal respinge dal dominio delle
conoscenze naturali ogni intrusione metafisica o teologica e ogni principio di autorità.
La polemica di Pascal contro la scienza è dovuta al fatto di essere considerata
incapace di autentica certezza. Lo scienziato, secondo Pascal, non può pervenire alla
certezza assoluta perché non può attingere gli elementi primi della realtà; lo stesso
perenne accrescersi della scienza ci conferma il carattere incompleto e provvisorio delle
sue conquiste. In più la scienza ci porta a riconoscere la presenza dell’infinito,
facendocelo ritrovare nella stessa struttura dell’edificio che veniamo gradualmente
costruendo, ma è un infinito che essa non potrà mai raggiungere: “Così, vediamo che
tutte le scienze non conoscono termine nell’estensione delle loro ricerche: perché chi può
mettere in dubbio, per esempio, che la geometria non comprenda un numero infinito di
proposizioni? Le scienze sono infinite altresì nella moltitudine e nella sottigliezza dei
loro principi: perché chi non vede che quelli che vengono proposti per ultimi non si
reggono da sé, ma ne presuppongono altri, i quali, presupponendone a loro volta altri
ancora, non ne ammettono nessuno che sia l’ultimo? Ma noi ci comportiamo con i
principi che la ragione conosce per ultimi come con le cose materiali: dove chiamiamo
punto indivisibile quello di là dal quale i nostri sensi non percepiscono più nulla,
sebbene sia divisibile all’infinito, e per sua natura.” Merita di venire sottolineata
l’esattezza del brano citato: è indubbiamente vero che la struttura del sapere scientifico
non può ammettere limiti né relativamente all’ambito degli argomenti trattati, né
relativamente ai principi invocati nelle spiegazioni. L’epistemologia moderna
=;=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

svilupperà ampiamente l’analisi di questa doppia apertura della scienza, liberandola


però da ogni velo di mistero e quindi lasciando cadere in modo completo quel senso di
meraviglia che Pascal sembra provare di fronte ad essa. Proprio perché espertissimo
nelle ricerche particolari, Pascal si rende perfettamente conto della sostanziale diversità
fra la struttura aperta del sapere scientifico (sempre incompleto, sempre passibile di
radicali ampliamenti) e quella chiusa della metafisica (concepita come un sapere totale e
definitivo). Rifiuta pertanto qualsiasi confusione fra i due tipi di sapere, e respinge in
particolare la pretesa cartesiana di ricavare la spiegazione scientifica del mondo fisico
da principi generali di carattere filosofico. Ma non sapendosi liberare dal mito della
totalità, ne conclude che la conoscenza scientifica è una conoscenza limitata e
superficiale. Il punto più interessante di questa conclusione è che essa non lo spinge
dalla scienza alla metafisica, ma a riconoscere la nostra debolezza e a considerare questo
riconoscimento come il risultato più profondo di ogni indagine scientifica.
Dove la ragione dimostra la sua totale e congenita incapacità è nel campo dei
problemi esistenziali. Alla ragione scientifica e dimostrativa Pascal oppone infatti, come
via d'accesso all'uomo, la comprensione istintiva o, come egli la chiama per lo più, il
cuore, inteso come l'organo capace di captare gli aspetti più profondi e problematici
dell'esistere: “Il cuore ha le sue ragioni, che la ragione non conosce”. Quest'antagonismo
fra ragione e cuore viene espresso talora con il celebre binomio tra esprit de geometrie ed
esprit de finesse. Lo spirito di geometria è la ragione scientifica, che ha per oggetto le cose
esteriori o gli enti astratti della matematica e procede dimostrativamente. Lo spirito di
finezza ha per oggetto l'uomo e si fonda sul cuore, sul sentimento e sull'intuito.
Si può esprimere con buona approssimazione la differenza stabilita da Pascal tra
spirito di geometria e spirito di finezza dicendo che il primo ragiona intellettivamente, il
secondo comprende intuitivamente. Lo spirito di finezza ha per oggetto specifico il
mondo degli uomini, mentre lo spirito di geometria le figure ideali e il mondo della
natura. “La scienza, di fronte agli interrogativi umani, risulta impotente, anzi muta ed
estranea, venendosi praticamente a trovare nella stessa situazione della mentalità
comune e del divertissement”. Per questo motivo, in relazione ai destini ultimi
dell'individuo, essa risulta vana. In conclusione, la cosa più preziosa, per l'uomo, non è
la scienza, bensì la conoscenza dell'uomo stesso.
Nel campo specificatamente fisico, un sintomatico punto di attrito con Cartesio
era dato dalla questione del vuoto: mentre Cartesio negava la possibilità del vuoto in
natura, Pascal, impressionato dall'esperienza di Torricelli che egli aveva ripetuto,
sosteneva sulla base dell'evidenza sperimentale l'esistenza del vuoto stesso. Un'eco di
questa polemica è la Préface au Traité du Vide di Pascal, dove con fermezza e sobrietà
vengono ribaditi i temi che già conosciamo della metodologia galileiana: autonomia
della scienza, indefinita progressività della medesima (quindi superiorità della scienza
moderna sull'antica), antidogmatismo; però, cosa apparentemente strana trattandosi di
un matematico della sua forza, Pascal vi attenua assai il matematismo galileiano a
vantaggio di un più deciso sperimentalismo e su di uno sfondo più decisamente
empiristico. Pascal non si limitò a ripetere l'esperienza di Torricelli e a stendere questo
manifesto metodologico; ma con genialità pari a quella che ebbe come matematico,
estese alla considerazione di fluidi in generale, e in particolare dei liquidi, i principi e
l'indirizzo delle ricerche torricelliane, portando preziosi contributi alla nascente
idrostatica e idrodinamica, in connessione con varie ricerche sulla meccanica delle
pompe aspiranti-prementi, problema che in quell'epoca di sviluppo dell'industria
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =;4!

mineraria era all'ordine del giorno anche dal punto di vista tecnico-pratico. E, in questo
campo di ricerche, si deve a Pascal il principio che porta il suo nome:

PRINCIPIO DI PASCAL
La pressione nei fluidi si trasmette uniformemente in tutte le direzioni

Come Galileo e molti altri, Pascal ricorse agli “esperimenti mentali” come metodo di
ragionamento.

Connesse in qualche modo agli sul vuoto sono varie esperienze che vengono fatte
in varie parti di Europa: ricordiamo quella fatta nel 1643 a Magdeburgo dal
borgomastro di quella città, Otto von Guericke (1602-1686), con i celebri emisferi di
Magdeburgo; esperimento che permise di misurare la pressione dell'aria su di una
superficie sferica. Ma il borgomastro costruì anche la prima macchina elettrostatica per
la rivelazione dei fenomeni elettrici.

6.12 L’organizzazione della ricerca

Nel corso del XVII secolo, via via che aumentava il prestigio della scienza nella
società del tempo, ne aumentava anche il numero di cultori. L'Italia perdeva il suo
primato, che passava successivamente alla Francia, all'Inghilterra, all'Olanda.
La maggiore apertura sociale della scienza, l'introduzione di nuovi vocaboli per
esprimere idee nuove, la necessità d'un linguaggio più sciolto e più popolare atto a
travalicare la chiusa cerchia dei dotti spingono all'uso di lingue nazionali nei trattati
scientifici, che diventa sempre più frequente nel corso del XVII secolo e del successivo,
sino a divenire quasi generale all'inizio del XIX secolo. Parallelamente comincia a essere
usato il francese come lingua internazionale. I centri propulsori di questo nuovo
atteggiamento mentale non sono più le università. Strettamente legate ai pubblici poteri,
le università, salvo qualche rara eccezione italiana (Padova, Bologna), tornano
all'intolleranza delle origini. A causa di questa chiusura mentale, grandi scienziati del
secolo come Cartesio, Fermat, Pascal, Huygens, Leibniz, si tennero lontani dalle
università del tempo, divenute centri di conservazione della vecchia scienza. Tra i nuovi
strumenti di ricerca e di diffusione della nuova scienza, furono caratteristici del secolo
le accademie e i periodici scientifici.
I primi cultori di scienze naturali sentirono vivo il bisogno di una più intima
collaborazione tra di loro, di periodici scambi d'idee, di comunicazioni a viva voce di
tecniche sperimentali, di presentazione di esperimenti. Cominciava così a cadere
gradualmente il mito del segreto, cioè della scienza privata, per far posto al
convincimento che lo scambio d'informazioni facilita la ricerca personale. Sotto la spinta
di questa esigenza, sorsero, a somiglianza delle accademie letterarie, le accademie
scientifiche.
L'Accademia dei Lincei, fondata nel 1603, aveva come scopo lo studio e la
diffusione della conoscenza scientifica del mondo fisico, inteso nel senso più ampio del
termine. L'accademia doveva essere costituita da case, dette licei, sparse nelle quattro
=;5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

parti del mondo ed ebbe come insegna la lince, cui si attribuiva vista tanto penetrante
da vedere dentro gli oggetti.

Ferdinando II, granduca di Toscana, e suo fratello Leopoldo de’ Medici,


fondarono col nome di Accademia del Cimento, cioè del saggio dei problemi naturali,
un’accademia scientifica che tenne la prima seduta il 19 giugno 1657. L'Accademia del
Cimento, come già l'Accademia dei Lincei, s'ispirava a una forma di apostolato
scientifico, e aveva come scopo d’ampliare, con ricerche collegiali sperimentali, le
conoscenze fisiche seguendo il metodo instaurato da Galileo, alla cui opera
esplicitamente si richiamava.

La parte migliore dell'attività scientifica dell'accademia fu esposta da Lorenzo


Magalotti (1637-1712), il “saggiato segretario” dal 1660, nella famosa opera Saggi di
naturali esperienze fatte nell’Accademia del Cimento (1667). I Saggi, un trattato di fisica
sperimentale nel senso moderno del termine, ammirato anche per la precisione
linguistica, dopo un proemio, inizia la trattazione scientifica con la descrizione di
termometri e della relativa tecnica di costruzione; poi si passa alla descrizione di
igrometri, di barometri e di artifici per l'applicazione dei pendoli alla misura del tempo.
Seguono quattordici serie di esperimenti sistematici: sulla pressione atmosferica; sulla
solidificazione; sulla variazione termica di volume; sulla porosità dei metalli; sulla
compressibilità dell’acqua; sulla presunta leggerezza positiva; sulle calamite; sui
fenomeni elettrici; sui colori; sul suono; sui proiettili. Uno dei maggiori vanti
dell'accademia fu la costruzione di termometri, derivati dal primitivo termoscopio ad
aria di Galileo, trasformato in termometro a liquido da Torricelli. Il 5 marzo 1667
l'accademia tenne la sua ultima adunanza e in quello stesso anno fu sciolta. Quali che
siano state le cause, la fine dell'Accademia del Cimento fu un evento luttuoso per la
scienza italiana e per circa un secolo la fisica italiana avrà poco da dire alla scienza
europea, alla cui formazione aveva pur dato vigoroso impulso.
Nel 1662 veniva ufficialmente istituita, con uno statuto approvato da re Carlo II
Stuart, la Royal Society. Da minori associazioni preesistenti, essa nasceva per opera di
un vasto gruppo di dilettanti e un piccolo gruppo di professori seguaci delle idee
propugnate da Bacone intorno alla funzione umana e sociale ed ai metodi della scienza
della natura. Infatti, la Royal Society rappresenta il più duraturo e il più glorioso dei
monumenti che potessero venire eretti alla memoria di Bacone. La Royal Society, che
per più di un secolo assommerà in sé tutto il movimento scientifico inglese e non
soltanto inglese (perché la maggior parte degli scienziati anche continentali fu con essa
in strettissime relazioni), aveva come scopo la ricerca della verità, la ricognizione
dell’errore, il cammino verso l’ignoto e si propose il compito di incoraggiare e
patrocinare la scienza di tipo moderno (in particolare, ma non esclusivamente, la
scienza sperimentale) in tutti i campi, pratici e teorici, da esperimenti su concimi
artificiali fino a ricerche di alta matematica e di astronomia. Annoverò nel suo seno
filosofi come Locke, scienziati come Boyle e Newton; tra i corrispondenti, uomini come
Huygens e Leibniz.

Nella pleiade di filosofi (Locke), scienziati (Newton) e corrispondenti (Huygens e


Leibnitz) gravitanti attorno alla Royal Society troviamo Roberto Boyle (1627-1691), che
ne fu anche presidente. Questi, che si può considerare, almeno nel campo delle
discipline sperimentali, il diretto precursore di Newton, fu grande soprattutto per le
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =;6!

geniali intuizioni chimiche connesse ad una sua importante versione della teoria
atomica. Egli pensava i corpi composti di particelle minime, o atomi; ma, sebbene non
usasse questa terminologia, raggiunse già il concetto della distinzione tra molecola ed
atomo, senza tuttavia porsi il problema (che invece si porrà Newton) di quali forze di
coesione tengano uniti gli atomi semplici del composto. Sulla base di questa
fondamentale teoria e di moltissimi esperimenti chimici, egli nel Chemista Scepticus
(1661) critica le teorie correnti (sia quella aristotelica sia quella alchimistica) degli
elementi, notando come nelle reazioni chimiche certe sostanze rimangano invariate.
Avanza quindi questa teoria: essere elementi quelle sostanze la cui molecola fosse
composta di atomi omogenei, composti quelle sostanze la cui molecola fosse composta
di atomi eterogenei; miscugli (di cui riconobbe chiaramente il diverso comportamento
chimico rispetto ai composti) le sostanze composte di molecole eterogenee (e quindi in
genere separabili con mezzi fisici). In questo modo rompeva la concezione democriteo-
galileiana-gassendiana della omogeneità qualitativa di tutti gli atomi, introducendo
(come si farà poi nella chimica moderna) atomi, o meglio famiglie di atomi,
qualitativamente distinti. Però, per mancanza di chiari concetti sull'analisi volumetrica e
ponderale, la sua teoria non dava luogo a criteri operativi, sicché in pratica Boyle non
seppe isolare gli elementi, pur essendo chimico molto valente. Per questi motivi, e
nonostante il fatto che fossero in seguito riprese e sostenute dal grande Newton, le
teorie chimiche e atomistiche boyliane tarderanno di un secolo ad affermarsi.
Comunque, Boyle diede un imponente contributo alla meccanizzazione dell’universo
estendendo alla chimica le teorie meccanicistiche.
Altre interessanti applicazioni furono fatte da Boyle alla teoria del calore, che
egli interpretò come vivace agitazione molecolare (onde gli effetti chimici del calore
stesso), nonché alla determinazione del concetto di massa, interpretato teoricamente
come quantità di materia in dato volume, e praticamente come peso dell'unità di
volume. Da ricordare anche i suoi studi sull'aria, che egli compì in parte con la
collaborazione di Hooke; e con quest'ultimo egli perfezionò la pompa pneumatica
inventata da Otto von Guericke, e con l'aiuto di essa studiò la natura fisica dell'aria,
giungendo alla conclusione che essa è una entità materiale come tutte le altre, dotata
cioè di peso e di volume. Stabilì inoltre l'importante legge, scoperta anche in maniera
indipendente dal francese Edme Mariotte (1620-1684) che recita:

LEGGE BOYLE-MARIOTTE
In condizioni di temperatura costante la pressione di un gas perfetto è inversamente
proporzionale al suo volume, ovvero che il prodotto della pressione del gas per il volume da
esso occupato è costante:
! ! ! ! !"#$%&$'

Accanto a Boyle, sebbene molto inferiore, è da ricordare la figura di Roberto


Hooke (1635-1703), scienziato dai vastissimi interessi, ma poco realizzatore, che si trovò
ad essere il precursore di tutte le più importanti scoperte del secolo. Egli intravide che
l'aria non era un corpo semplice, ma un miscuglio in cui era presente un principio attivo
(l'ossigeno, ma poi sarà Lavoisier a dargli questo nome). Vide anche che i metalli
riscaldati aumentano di peso, e correttamente attribuì tale aumento al combinarsi
dell’elemento del metallo con il principio attivo dell’aria, intuizione preziosa che, se
fosse stata continuata e perfezionata da lui, o da Boyle o Newton, avrebbe portato un
=;7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

secolo prima la chimica ad assestarsi su quelle basi scientifiche per le quali invece
dovette aspettare fino a Lavoisier.
Hooke fece anche esperienze di diffrazione analoghe a quelle di Grimaldi, senza
però aggiungere niente di nuovo. Di ben diversa importanza furono, invece, gli
esperimenti e gli strumenti descritti nella sua opera Micrographia (1665), tra cui un
rifrattometro con il quale Hooke verificò la legge dei seni e trovò che non sempre alla
maggiore densità di un copro corrisponde una maggiore rifrangibilità. Inoltre, con lo
studio sulle lamine sottili, confutò la teoria dei colori di Cartesio, secondo il quale la
rotazione dei corpuscoli luminosi, causa della sensazione colorifica, s’iniziava al
momento della rifrazione e si annullava per una successiva rifrazione in senso
contrario. Nelle lamine sottili avvenivano due rifrazioni in senso contrario, ma il colore
permaneva.
Alla teorie cartesiana Hooke contrapponeva una teoria vibratoria. A suo parere,
la luce è provocata da uno scuotimento di un mezzo; lo scuotimento si trasmette
mediante pulsazioni perpendicolari alla direzione di propagazione. La velocità di
propagazione è grandissima ma non infinita, eguale in tutte le direzioni di un mezzo
omogeneo, come avviene per le onde generate alla superficie dell’acqua dalla caduta di
un sasso. Quando un’onda incontra un mezzo diverso da quello in cui si sta
propagando, cambia velocità. Ne segue, secondo un ragionamento alquanto confuso
dello scienziato, che la pulsazione da perpendicolare alla direzione di propagazione
diventa obliqua ed è appunto l’obliquità che causa la sensazione colorifica,
precisamente: “Il blu è un’impressione sulla retina di un’obliqua e confusa pulsazione di
luce, la cui parte più debole precede e quella più forte segue. E il rosso è un’impressione
sulla retina di un’obliqua e confusa pulsazione di luce, la cui parte più forte precede e
la più debole segue”. Gli altri colori sorgono dalla combinazione di questi due
fondamentali.
Gli esperimenti sulle lamini sottili di Hooke chiudono un periodo storico di quasi
un trentennio, durante il quale l’opinione scientifica più progressista seppe demolire la
millenaria credenza dei colori infissi nei corpi o risultati da mescolanze varie di luce e
ombra, sostituendola con la concezione che i colori sono modificazioni (sostanziali o
cinetiche) della luce pura, cioè della luce bianca. Spetterà a Newton arrivare alla
conclusione che il colore non è una modificazione della luce, ma esso stesso luce.
Gli scienziati di Parigi avevano preso l'abitudine di riunirsi in giorni fissi per
scambiarsi informazioni e discutere le questioni scientifiche d'interesse comune. Verso il
1666 Colbert, il ministro di Luigi XIV, sull'immediato esempio della costituzione della
Royal Society, capì il vantaggio e il prestigio che poteva venire allo stato, se la società
privata di scienziati che di fatto si era formata fosse stata riconosciuta ufficialmente.
Nacque così, nel corso del 1666, l'Academie des sciences, che contò dapprima ventun
membri, tra i quali ricorderemo Huygens e Mariotte. Sparita la generazione dei grandi
scienziati francesi - Cartesio, Fermat, Pascal - l'attività della nuova accademia scientifica
fu nei primi tempi modesta di quantità e d'originalità, aumentando, per contrasto, il
prestigio della Royal Society.

In Inghilterra e in Francia l'accademia scientifica fu concepita con scopi molto più


ampi che non fosse avvenuto in Italia e inserita più intimamente nella vita del paese.
Bastano trent'anni perché si radichi una tradizione e la grande accademia diventi il
simbolo del livello culturale del paese che la possiede, come erano state le università nel
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =;8!

XIII e XIV secolo. Ai concorsi banditi dalle accademie partecipano i maggiori scienziati,
ai quali la vittoria conferisce un prestigio internazionale paragonabile al prestigio oggi
dato dalla vincita di un premio Nobel. L'esempio delle accademie francese e inglese,
centri di propulsione della ricerca e della diffusione scientifica, si va rapidamente
estendendo in Europa nel XVIII secolo, dall'Olanda alla Germania, alla Scandinavia,
all'Austria, alla Russia. Degne di nota sono: l’Accademia di Berlino, fondata nel 1700 su
un progetto di Leibniz e l’Accademia di Pietroburgo, istituita nel 1724 da Pietro il
Grande.

Il bisogno d'interscambio scientifico produsse nel corso del XVII secolo il


crescente aumento per numero e per importanza delle lettere di contenuto scientifico tra
gli scienziati, d'onde l'abbondante epistolario nelle opere degli scienziati secentisti. Le
lettere avevano lo stesso ufficio che hanno oggi le memorie scientifiche o, più
esattamente, i preprints. Il sistema divenne più efficace, quando alcune persone si
assunsero volontariamente e gratuitamente l'incarico di raccogliere e diffondere notizie
scientifiche, facendo in sostanza il servizio disimpegnato oggi dalle riviste. Ma il
sistema aveva molti difetti, primo fra tutti quello di provocare litigi di priorità, che forse
in nessuna epoca furono tanto numerosi e aspri come in questa.
Perciò, a imitazione delle gazzette, organi d'informazione generale diffusesi in
Europa al principio del secolo, sorsero nella seconda metà del secolo i periodici
scientifici. Porta la palma della priorità il Journal des Scavans, apparso a Parigi il 5
gennaio 1665, costretto a sospendere le pubblicazioni tre mesi dopo per un intervento, si
disse del nunzio apostolico, il quale protestava per un articolo sull'Inquisizione apparso
sul periodico. Pochi mesi dopo il Journal des Scavans, comparve a Londra, il 5 marzo
1665, il primo numero della pubblicazione mensile dal titolo Philosophical Transactions,
divenuto poi, dal 1741, l'organo ufficiale della Royal Society. Le Philosophical
Transactions avevano un carattere più scientifico del Journal des Scavans; i due periodici
mantennero per oltre un secolo stretti rapporti di amicizia, ciascuno traducendo
dall'altro memorie e notizie ritenute importanti. I due periodici erano scritti nelle
rispettive lingue nazionali, ma le Philosophical Transactions pubblicarono anche, non
infrequentemente, memorie in latino e più tardi anche in francese.
L'uso delle lingue nazionali era un ostacolo alla diffusione del periodico fuori del
territorio nazionale, molto più grave di quanto possa esserlo oggi, perché meno diffusa
era allora la conoscenza di lingue viventi non nazionali. Ogni uomo colto del tempo,
invece, leggeva il latino quasi con la stessa facilità con la quale leggeva la propria lingua
materna. Per questa ragione gli Acta eruditorum, apparsi a Lipsia dal 1682 al 1745, redatti
in latino, ebbero un immediato successo, al quale tuttavia non furono estranei la
collaborazione di Leibniz e l'alone di liberalismo intellettuale che li accompagnava,
contrapposto al conservatorismo del Journal des Scavans, controllato dai gesuiti.
In conclusione per tutta la seconda metà del XVII secolo, tre grandi periodici,
rispettivamente di Francia, d'Inghilterra, di Germania, assolsero il compito di
diffusione, cioè di democratizzazione della scienza sperimentale. Essi, pur non avendo
sostituito e non avendo voluto sostituire la corrispondenza scientifica, che continuò
intensa per tutto il secolo, prepararono la volgarizzazione della letteratura scientifica
del secolo successivo.
Gli strumenti di organizzazione scientifica a cui abbiamo finora accennato -
accademie, musei, periodici - ebbero un altro grande compito, cioè quello di vincere le
ostilità di umanisti, teologi e politici contro la scienza sperimentale. Non si trattava di
=;9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

sfondare una porta aperta, come oggi si può ritenere. La diffidenza verso lo studio delle
scienze sperimentali era ancora grande, fomentata da interessi privati, come il
mantenimento delle tradizionali cattedre universitarie. Si accusava la scienza
sperimentale d'introdurre novità non necessarie, di corrompere i giovani spingendoli a
indagare e a discutere su tutto, d'indurre alla disobbedienza verso i governi, di
danneggiare le università, di essere pericolose per la religione cristiana e per le Chiese, e
via di questo passo. Oggi si può riconoscere che i timori non erano infondati: la scienza
sperimentale ebbe davvero una funzione liberatrice per l'uomo, sia pure con un'azione
molto lenta protrattasi nei secoli.

6.13 Newton e Leibniz

Quando la contraddizione tra meccanicismo speculativo e


meccanicismo matematico, diventò del tutto evidente, la fisica cartesiana fu
condannata. Questa contraddizione fu pienamente colta e resa evidente da
Isaac Newton (1642–1727), che, insistendo sulla superiorità della legge
matematica rispetto alle arbitrarie ipotesi meccanicistiche, soprattutto nel
contesto della teoria della gravitazione universale, ridusse all’oblio il cosmo di Cartesio.
Nessuno scienziato ha superato Newton nella combinazione delle sue capacità
sperimentali, di fisica matematica e di matematica pura. Galileo aveva sviluppato la
meccanica dei corpi alla superficie della Terra, l’opera di Newton se ne differenzia per
la generalizzazione del principio d’inerzia e del concetto di forza, per l’importanza
attribuita alla massa nei processi meccanici, per l’estensione della validità delle leggi
meccaniche a tutto l’universo, che ridà al mondo l’unità e la continuità già spezzate
dalla meccanica aristotelica, con la differenza tra la fisica celeste e quella terrestre.
La splendida opera di Newton, Principi matematici della filosofia
naturale (1687), contiene i concetti fondamentali, l’assiomatica della
meccanica classica. La caratteristica del tutto originale della teoria di
Newton era che si trattava di una teoria matematica e meccanica, una
caratteristica che ogni teoria fisica ha conservato anche nel
novecento. Possedendo questo duplice carattere, i Principia
sintetizzarono le varie linee divergenti della meccanica seicentesca e,
armonizzandole, diedero la prima precisa immagine matematica
dell’universo di materia e movimento. La legge galileiana della caduta dei gravi e le
leggi di Keplero diventarono casi specifici di una teoria dinamica più generale. Prima di
passare ad esaminare i Principia, una delle più importanti e fondamentali opere che
l’umanità abbia prodotto, è opportuno ricordare che Newton, nella prefazione alla
prima edizione, aveva invitato i lettori a tenere conto di un fatto. Gli antichi, osservava
Newton, ritenevano che la meccanica fosse essenziale per “investigare le cose della
natura”. Essi avevano sviluppato due forme di meccanica. L'una, detta razionale, era
formata da dimostrazioni, e l'altra, detta pratica, comprendeva le arti manuali. In tale
suddivisione la geometria era una parte della meccanica stessa, e, come scrive Newton,
“la meccanica razionale sarà la scienza dei moti che risultano da forze qualsiasi, e delle
forze richieste da moti qualsiasi, esattamente esposta e dimostrata”. Gli studiosi
moderni, come si legge nella prefazione di Newton, “abbandonate le forme sostanziali e
le qualità occulte, tentarono di ridurre i fenomeni della natura a leggi matematiche”. I
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =;:!

Principia dovevano pertanto inserirsi, secondo il loro autore, in un solco già tracciato da
lungo tempo: Newton sosteneva infatti che il compito che egli si prefiggeva era quello
di “coltivare la matematica per quella parte che attiene alla filosofia”, dove il termine
“filosofia” indicava la filosofia naturale, e cioè l'indagine fisica sul mondo. I Principia
sono organizzati in sezioni. All'inizio vengono enunciate alcune definizioni relative alla
quantità di materia, alla quantità di moto e alle forze, nonché alcune considerazioni che
fanno parte di uno Scolio dedicato ai concetti di spazio, di tempo e di moto. Secondo
Newton occorre distinguere tra lo spazio assoluto: “per sua natura senza relazione ad
alcunché di esterno” e “sempre uguale e immobile” e lo spazio relativo. Quest'ultimo è la
“misura dello spazio assoluto”, il risultato di un'operazione realizzata dagli uomini.
Considerazioni analoghe valgono per il tempo. Ne segue che quando si usa la parola
“moto”, bisogna distinguere tra un moto assoluto e uno relativo: il primo è infatti “la
traslazione di un corpo da un luogo assoluto in un luogo assoluto”, mentre il secondo
riguarda la traslazione da un luogo relativo ad un altro.
Sorge un problema: è possibile distinguere un moto assoluto da un moto
relativo? Supponiamo di prendere in considerazione un corpo collocato su una nave in
movimento. Secondo Newton ha senso parlare di “moto vero ed assoluto” di quel corpo,
intendendo quel movimento che nasce “in parte dal moto vero della Terra nello spazio
immobile, in parte dai moti relativi sia della nave sulla Terra, sia del corpo sulla nave”.
È comunque necessario stabilire il moto vero della Terra nello spazio assoluto, e per far
ciò è indispensabile un punto di riferimento preciso, ovvero un luogo immobile. Scrive
in proposito Newton: “I moti totali e assoluti non si possono definire che per mezzo di
luoghi immobili... Ma non esistono luoghi immobili salvo quelli che dall'infinito per
l'infinito conservano, gli uni rispetto agli altri, determinate posizioni; e così rimangono
sempre immobili, e costituiscono lo spazio che chiamo immobile”. La difficoltà di questa
definizione non risiede soltanto nel linguaggio newtoniano, ma nella natura stessa del
problema. Newton è perfettamente consapevole che “nelle cose umane“ è lecito far
riferimento a luoghi e a moti relativi. Ma, aggiunge subito, “nella filosofia occorre
astrarre dai sensi”, e cioè eliminare ogni riferimento a ciò che è legittimo utilizzare nella
vita di ogni giorno. In altre parole, occorre legare i nostri ragionamenti sui moti a luoghi
assoluti e a tempi assoluti, anche se, negli esperimenti e nelle misure sugli spostamenti
compiuti dai corpi reali, non possiamo fare altro che ragionare su dati relativi. A questo
punto appare allora necessario introdurre una sottilissima analisi che riguarda “gli
effetti per i quali i moti assoluti e relativi si distinguono gli uni dagli altri”.
L'analisi prende in considerazione i moti circolari, e si basa sul celebre
esperimento del secchio rotante attorno al proprio asse. Il punto centrale è: quanto ci
può dire la fisica su una questione importante e fondamentale come quella della natura
intrinseca dello spazio e del tempo? Spazio e tempo esistono di per sé,
indipendentemente dagli oggetti di cui è popolato il mondo fisico (concezione assoluta
di Newton), o esistono solo in quanto relazioni di tipo spaziale o temporale tra questi
oggetti (concezione relativa di Leibniz)? Dunque per Newton, il vero tempo e il vero
spazio sono quelli assoluti “senza relazione ad alcunchè con l’esterno”, per cui non possono
essere osservati con i sensi, da cui la necessità di considerare nella pratica, le loro
“misure sensibili”, cioè lo spazio e il tempo relativi. L’impossibilità di osservare il tempo
e lo spazio assoluti è di fatto il punto critico, e in quanto tale messo in discussione da
Leibniz, della concezione newtoniana: perché postulare l’esistenza fisica di qualcosa che
non si può osservare e che non ha, apparentemente, effetti sul mondo materiale?
==<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Newton è consapevole del problema e cerca un modo per giustificare, tramite effetti che
siano invece osservabili e quindi misurabili, la necessità dell’esistenza di quantità
assolute. La sua soluzione è usare effetti dinamici (i cosiddetti effetti inerziali), quali “le
forze di allontanamento dall’asse del moto circolare”, come nell’esperimento del secchio
rotante, dove è appeso ad un filo, ed è fatto ruotare attorno al proprio asse sino a che il
filo non si trovi in uno stato di grande torsione. Si susseguono tre situazioni: all’inizio,
sia il secchio che l’acqua sono fermi (non c’è moto relativo tra secchio e acqua); poi, il
secchio comincia a ruotare, ma il moto ancora non si è comunicato all’acqua, la cui
superficie rimane piana(c’è un moto relativo del secchio rispetto all’acqua); infine, il
moto di rotazione si è comunicato all’acqua, la cui superficie s’incurva per effetto della
forza centrifuga “l'acqua comincerà a ritirarsi a poco a poco dal centro e salirà verso i
lati del vaso, formando una figura concava”, fino alla completa stabilizzazione della
figura concava (il moto relativo tra secchio e acqua è di nuovo nullo). E allora, alla fine
del moto rotatorio, si può dire che, in quel momento, l'acqua compie le “sue rivoluzioni
insieme al vaso in tempi uguali”: tra acqua e vaso si ha quindi una “quiete relativa”.
La conclusione di Newton dal confronto delle tre situazioni è che il moto relativo
dell’acqua rispetto al secchio non può giustificare l’effetto inerziale dell’incurvamento
della superficie dell’acqua (visto che il moto relativo è nullo e compatibile sia con la
superficie piana sia con la superficie curva dell’acqua). A parere di Newton la salita
dell'acqua “indica lo sforzo di allontanamento dall'asse del moto, e attraverso tale
sforzo si conosce e viene misurato il vero e assoluto moto circolare dell'acqua”. In
definitiva ne segue che l’effetto inerziale è dovuto a un moto non relativo, e quindi a un
moto rispetto allo spazio assoluto. Lo scienziato, pertanto, non è limitato dalle
esperienze a considerare solamente i moti relativi. Egli, attraverso lo studio dei moti
circolari e delle forze agenti, può anche conoscere dei moti assoluti. Newton commenta
il risultato raggiunto con una osservazione: “E’ difficilissimo in verità conoscere i veri
moti dei singoli corpi e distinguerli di fatto dagli apparenti: e ciò perché le parti dello
spazio immobile, in cui i corpi veramente si muovono, non cadono sotto i sensi. La cosa
tuttavia non è affatto disperata”. Questo modo di argomentare era errato, in quanto
mancava ancora una concezione matura del principio d’inerzia che permettesse di
indagarne criticamente i fondamenti (moto uniforme e rettilineo rispetto a quale sistema
di riferimento?), e si aveva il torto di ipostatizzare la forza centrifuga, considerandola
quasi come un ente a sé, distinta dall’inerzia. Si dovrà attendere fino a Mach, nella
seconda metà dell’Ottocento, per raggiungere un chiarimento definitivo dal quale
appare che le forze centrifughe sono originate da una rotazione relativa alle stelle fisse,
in quanto se non si ha rotazione relativa a tali stelle, siffatte forze non esistono.
Comunque, nel suo ragionamento, Newton procede come se la forza fosse qualcosa di
estraneo alle strutture metriche dello spazio fisico, e perciò un quid di reale, che opera
nello spazio, ma non è in sé spaziale: questo per lo meno nei riguardi dello spazio vero,
cioè dello spazio assoluto. Per Newton, quindi, la forza è un ente primitivo irriducibile
allo spazio e al tempo.
Le critiche alla concezione newtoniana non si fecero attendere. Berkeley, filosofo
empirista del settecento, osservava che se in tutto lo spazio esistesse un solo corpo, non
avrebbe significato dire che esso ruota o si muove a destra o a sinistra, in alto o in basso.
Più approfondite sono le ragioni filosofiche che a Newton oppone il suo rivale Leibniz,
per il quale i fenomeni di moto vanno considerati rispetto alla totalità dei corpi
costituenti l’universo; per Leibniz, infatti, lo spazio è l’ordine delle cose che coesistono e
il tempo l’ordine delle cose che si succedono. È doveroso osservare che, mentre
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ==;!

Newton dice di voler fondare la sua filosofia sull’osservazione e l’esperimento, pone poi
a base della sua costruzione uno spazio e un tempo assoluti, enti astratti,
completamente sottratti alla nostra percezione sensibile. Essi gli appaiono come
attributi divini, capaci di spiegare, da un punto di vista più alto, la realtà fenomenica.
Dunque, sebbene Newton introduca moto, tempo e spazio assoluti come limiti, tuttavia
come risultato viene a proiettare il mondo fisico sullo sfondo di un tempo e spazio
assoluto nel quale sono i fenomeni, e quindi non è soltanto l’ordine dei fenomeni come
tali (come invece sarà per la teoria leibnitziana e kantiana). Sul che si innesta il suo
contingentismo: il mondo potrebbe essere spostato nello spazio, e Dio lo ha messo qui e
non altrove unicamente perché ha voluto così (dottrina, come ha osservato giustamente
Leibniz, del tutto priva di senso).
Va tenuto presente che lo Scolio newtoniano sullo spazio, il tempo e il moto è un
documento basilare da due punti di vista. In primo luogo esso contiene argomenti che,
secondo Newton, debbono essere considerati come fondamenti (insieme alle definizioni
di cui già s’é detto) della filosofia naturale. In secondo luogo esso implica una
concezione dell'assoluto e del relativo che per più di due secoli rimarrà pressoché
inalterata. Solo le critiche di Mach e le riflessioni di Einstein riusciranno ad andare oltre
quella concezione, nei travagliati anni compresi tra la fine dell'Ottocento e l'inizio del
Novecento. Dopo le definizioni e lo Scolio, Newton introduce un gruppo di assiomi o di
leggi del movimento, quelle che oggi vanno sotto il nome di Principi della dinamica:

PRIMO PRINCIPIO O PRINCIPIO D’INERZIA


Se un corpo è fermo o si muove di moto rettilineo uniforme, vuol dire che non è soggetto a
forze oppure che la risultante delle forze che agiscono su di esso è nulla. Viceversa, se la
risultante delle forze applicate a un corpo è nulla, esso è fermo o si muove di moto rettilineo
uniforme.

SECONDO PRINCIPIO
In ogni istante l'accelerazione di un corpo è determinata dalla forza non equilibrata che
agisce su di esso: l'accelerazione ha la stessa direzione e lo stesso verso della forza, il suo
modulo è proporzionale alla forza e inversamente proporzionale alla massa del corpo:
!
! ! !
dp massa
F=  → F = m⋅ a
cos tan te
dt

TERZO PRINCIPIO
Se su un corpo agisce una forza, allora esiste un altro corpo su cui agisce una forza uguale e
contraria. Ovvero, ad ogni azione corrisponde sempre una reazione uguale e contraria.

Dai primi due principi, che in fondo sono strettamente complementari e


costituiscono in sostanza un unico assioma, risulta il modello che Newton pone alla
base di tutta la teoria del moto: il modello dello stato inerziale (di quiete o moto
rettilineo uniforme, ossia geodetico-euclideo), ogni deviazione dal quale (interpretabile
come un'accelerazione) definisce la presenza di una forza. Anche qui, dunque, come del
resto in tutta la fisica del Seicento, il paradigma del moto è riportato alla concezione
spaziale euclidea, cioè alla struttura di uno spazio tridimensionale continuo e affatto
omogeneo, nel quale alcune linee privilegiate, le rette (e, analogamente per gli spazi, le
===! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

superfici piane) rappresentano una traiettoria standard, detta la più breve (per
definizione, in quanto tutti gli strumenti della fisica sono costruiti presupponendo
appunto come più brevi la retta e il piano euclidei). Questa, come abbiamo visto, era
anche la concezione cartesiana. Tuttavia il più schietto empirismo e strumentalismo
newtoniano turba questa concezione matematica dello spazio fisico, sollevando
problemi di interpretazione che probabilmente non sono solubili. Quanto al terzo
principio, Newton non sostiene di essere lo scopritore, ma tuttavia è il primo ad
enunciarlo in forma così generale, ed interessanti sono gli esperimenti, ideali e reali, che
egli fornisce. Supponiamo che due corpi che si attraggono mutuamente giungano a
toccarsi. Se la forza dell’uno superasse quella dell’altro, il sistema complessivo sarebbe
soggetto ad una forza risultante pari alla differenza fra le due forze attrattive. Tale
sistema, perciò, in base alla seconda legge, dovrebbe muoversi all’infinito di moto
uniformemente accelerato, e questo è evidentemente impossibile. Dunque le due forze
con cui si attraggono reciprocamente due corpi, che possono essere due masse nello
spazio o una calamita e un pezzo di ferro, debbono essere assolutamente uguali. Altro
esempio con le parole di Newton: “Se si pongono il ferro e la calamita su due vascelletti
in acqua stagnante, e se questi vascelletti si toccano, nessuno dei due si muoverà, ma
per l’uguaglianza delle loro attrazioni essi sosterranno gli sforzi reciproci e trovandosi
in equilibrio rimarranno in quiete”.
Il gruppo di assiomi è seguito da alcuni corollari, quali ad esempio quello che
riguarda il cosiddetto parallelogramma delle forze: “Un corpo spinto da forze
congiunte, descriverà la diagonale di un parallelogramma nello stesso tempo nel quale
descriverebbe separatamente i lati”. Newton non dimostra che le tre leggi sono vere. Le
presenta al lettore come se fossero assiomi e, in uno Scolio collocato dopo i corollari,
scrive semplicemente quanto segue: “Fin qui ho riferito i principi accolti dai
matematici e confermati da numerosi esperimenti”. Ad esempio Newton sostiene, nello
Scolio, che Galilei conosceva le due prime leggi e i due primi corollari, e ne fece uso per
ricavare la legge di caduta dei gravi e la legge sui moti parabolici dei proiettili.
Il mondo della meccanica di Newton è abbastanza semplice: particelle che si
muovono nello spazio, nel corso del tempo, attirandosi per mezzo di forze. E’ il mondo
democriteo che si combina con la matematica, ossia con l’eredità pitagorica e la grande
tradizione della fisica matematica. Il mondo di Newton è il mondo di Democrito
matematizzato:

UNIVERSO DI NEWTON

Spazio Tempo Particelle

La prima sezione dei Principia è così completa: essa è costituita, quindi, da un


gruppo di definizioni, di assiomi e di corollari, accompagnati da considerazioni sul
significato che si deve attribuire alle qualificazioni di assoluto e relativo in rapporto al
concetti di spazio, di tempo e di moto. Prende allora l'avvio il primo libro, dedicato al
Moto dei corpi. Questo libro è quasi completamente svolto in termini matematici, o, per
meglio dire, in base a dimostrazioni di tipo geometrico. Dalle dimostrazioni in esso
presenti si ricava ciò che è indispensabile per spiegare il moto dei pianeti. La successiva
sezione del primo libro esamina i teoremi che riguardano il moto dei corpi nelle sezioni
coniche eccentriche, e presenta la soluzione di problemi generali come il seguente:
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ==4!

“Posto che la forza centripeta sia inversamente proporzionale al quadrato della


distanza dei luoghi dal centro, e che sia conosciuta la quantità assoluta di quella forza,
si ricerca la linea che un corpo descriverà muovendo da un luogo dato con una velocità
assegnata secondo una data retta”. La soluzione di questo problema ci insegna che, a
seconda dei valori assunti dalla velocità del corpo, quest'ultimo potrà percorrere
un'ellisse, una parabola oppure un'iperbole. Già Galileo, ma soprattutto Huygens,
avevano riconosciuto sperimentalmente e definito matematicamente il comportamento
fisico di corpi che si muovono secondo traiettorie obbligate (moti gravitazionali, moti
pendolari, eccetera). Newton stende un'intera dinamica di questi moti lungo traiettorie
obbligate, ed anzi, la sua maggiore gloria è l'avere risolti i problemi fisici
dell'astronomia copernicano-kepleriana, estendendo a tutto l'universo la legge di
gravitazione, e considerando la gravità terrestre come un caso particolare di questa
legge universale:

LEGGE DELLA GRAVITAZIONE UNIVERSALE


Due corpi, rispettivamente di massa m1 ed m2, si attraggono con una forza di intensità
direttamente proporzionale al prodotto delle masse ed inversamente proporzionale al
quadrato della distanza che li separa. Tale forza ha la direzione parallela alla retta
congiungente i baricentri dei corpi considerati:
!! ! !!
!!!!
!!
G=costante di gravitazione universale=6,67 × 10-11 N⋅m2/kg2

A questo scopo introduce il modello


matematico delle forze attrattive centrali (cioè
riassunte nel, e applicate al, baricentro dei
corpi), dalla cui composizione secondo la legge
del parallelogramma delle forze si ricavano per
via matematica le orbite reali (naturalmente,
idealizzate). Ma tale concetto di forza con tutte
le sue sottospecie (forza di inerzia, forza di
gravità, forza centripeta e centrifuga) rischia di
introdurre un elemento extramatematico nel sistema esplicativo newtoniano: tanto più
che si tratta sempre di forze che agiscono in distanza. Per questo la teoria della
gravitazione (e in genere tutta la teoria delle forze centrali) suscitò un coro di proteste,
in particolar modo da parte dei cartesiani, in primis Huygens. Newton viene accusato di
aver introdotto un principio non intelleggibile: che due corpi possano influenzarsi a
distanza, istantaneamente nel vuoto. Questo principio sembrava un ritorno alle qualità
occulte della filosofia aristotelica.
Il secondo libro è la parte più delicata dei Principia. In esso Newton cerca di
sviluppare una trattazione matematica e sperimentale di un settore difficilissimo della
meccanica, e cioè il settore che riguarda il moto dei corpi all'interno di un fluido
resistente. L'insieme dei problemi affrontato è effettivamente complesso, e non si deve
dimenticare che non sempre Newton riesce a trovare soluzioni convincenti. D'altra
parte la meccanica dei fluidi trova nei Principia una prima ed originale esposizione, che
consente alla fisica di raggiungere due mete di rilievo. La prima consiste nella
possibilità di evitare le obiezioni che erano state fatte contro la fisica galileiana, in
==5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

quanto quest'ultima non aveva gli apparati teorici capaci di prendere effettivamente in
considerazione il comportamento di un corpo che si muove in un mezzo resistente ma
era spesso obbligata a esaminare solamente dei casi ideali di moto nel vuoto; la seconda
consiste invece nell'impulso che questa parte dei Principia fu in grado di imprimere alle
ricerche sull'idrodinamica.
Va altresì detto che il secondo libro è stato spesso giudicato come una parte del
capolavoro newtoniano che non si inseriva armoniosamente nel complesso dei Principia,
se non in quanto esaminava problemi la cui soluzione si prestava ad essere messa in
gioco come arma critica nei confronti della fisica di Cartesio. Questa valutazione è solo
in parte giusta. La fisica cartesiana dei vortici era un ostacolo che Newton intendeva
abbattere, e una buona teoria dei fluidi rappresentava in tal caso un ottimo strumento
critico. Tuttavia la teoria newtoniana dei fluidi non si riduce a questo solo aspetto. Essa
è parte integrante della meccanica se si ammette una delle implicazioni più profonde
della teoria matematica di Newton, e cioè l'implicazione per la quale è possibile
unificare in una sola teoria la fisica del moto terrestre galileiana e la fisica dei moti
planetari. Sotto il profilo dell'unificazione, la teoria dei fluidi è una parte essenziale
della meccanica. Ciò non toglie che la teoria dei fluidi sia davvero una potente arma
contro la fisica cartesiana. Nello Scolio che chiude il secondo libro quest'arma porta
Newton a dichiarare, senza mezzi termini, che “l'ipotesi dei vortici urta totalmente
contro i fenomeni astronomici, e conduce non tanto a spiegare quanto ad oscurare i
moti celesti”. Il lettore dei Principia è infatti invitato a tenere presente che solo i teoremi
del primo libro permettono di capire “in qual modo questi moti si effettuino negli spazi
liberi indipendentemente dai vortici”. In tal modo Newton stabilisce un rapporto tra i
primi due libri e il terzo, che è dedicato espressamente al “sistema del mondo” e nel
quale si discute di astronomia.
Il terzo libro inizia con la seguente considerazione: “Nei libri precedenti ho
trattato i Principi della Filosofia, non filosofici tuttavia, ma soltanto matematici, a
partire dai quali, però, si può discutere di cose filosofiche”. Dati i principi, e cioè il
gruppo delle definizioni, degli assiomi, dei teoremi e delle dimostrazioni, “rimane da
insegnare l'ordinamento del sistema del mondo”, intendendo che questo ordinamento si
può ricavare dai principi stessi”.
Per il passaggio dai principi al sistema del mondo Newton pensa sia necessario
fissare alcune regulae philosophandi, viste come guide per chi desidera andare dalla
geometria del primo libro ai moti del sistema solare, ossia giustificare l’unità delle leggi
meccaniche e la loro validità in tutto l’universo. È quanto mai opportuno, allora, citare
le quattro regole newtoniane, attraverso la rielaborazione nella seconda edizione dei
Principia.
1. Delle cose naturali non devono essere ammesse cause più numerose di quelle che
sono vere e bastano a spiegare i fenomeni.
2. Perciò, finché può essere fatto, le medesime cause vanno attribuite ad effetti
naturali dello stesso genere.
3. Le qualità dei corpi che non possono essere aumentate e diminuite, e quelle che
appartengono a tutti i corpi sui quali è possibile impiantare esperimenti, devono
essere ritenute qualità di tutti i corpi. (La terza regola mette in discussione il
significato delle qualità dei corpi).
4. Nella filosofia sperimentale, le proposizioni ricavate per induzione dai fenomeni,
devono, nonostante le ipotesi contrarie, essere considerate vere, o rigorosamente
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ==6!

o quanto più possibile, finché non interverranno altri fenomeni, mediante i quali
o sono rese più esatte o vengono assoggettate ad eccezioni. (La quarta regola
prende in considerazione il problema dell’induzione).

Sono affermazioni decise che assumono un sapore polemico verso la filosofia


cartesiana. Newton contrappone alla “fisica delle ipotesi” di Cartesio, la “fisica dei
principi”. Queste regole sono anche uno strumento che consente a Newton di difendere
la legittimità della gravitazione universale. La gravitazione è dedotta dalle leggi di
Keplero ed è sufficiente a spiegare il moto dei pianeti (prima regola). Ci consente di
ricondurre alla stessa causa gli stessi effetti, come la caduta di un sasso sulla superficie
terrestre e la continua “caduta” della Luna in orbita attorno alla Terra (seconda regola).
Eè legittimo considerarla come “universale” dato che opera in tutti i fenomnei
conosciuti terrestri celesti (terza regola). Possono essere immaginate molte altre ipotesi
come alternativa alla gravitazione, per esempio quella dei vortici, ma queste non
valgono nulla se non sono ottenute per induzione dai fenomeni (quarta regola). E’
quindi legittimo, secondo Newton, considerare la gravitazione universale come
qualcosa di esistente in natura. Newton ritornerà sul problema della gravità nello Scolio
Generale che conclude la seconda edizione dei Principia.
Avendo stabilito quali siano le regole, Newton passa ad un elenco di fenomeni. Si
tratta di descrizioni quali la seguente: “I cinque pianeti primari, Mercurio, Venere,
Marte, Giove e Saturno cingono il Sole con le proprie orbite”. Ogni descrizione di un
fenomeno è accompagnata da considerazioni di tipo sperimentale. Così, ad esempio, è
ragionevole dire che Mercurio e Venere ruotano attorno al Sole perché quei pianeti
esibiscono fasi analoghe a quelle della Luna.
Dopo le regole e i fenomeni, il terzo libro contiene una serie di proposizioni,
alcune delle quali in forma di teorema, grazie alle quali viene concretamente realizzato
il passaggio dalla teoria matematica del primo libro alla situazione effettiva esistente
nell'universo. Anche in questo caso un esempio può essere utile per comprendere lo
schema dei Principia: “I pianeti sono mossi lungo ellissi che hanno un fuoco nel centro
del Sole, e, con i raggi condotti a quel centro, descrivono aree proporzionali al tempi”. Si
tratta di proposizioni ad altissimo contenuto teorico, la cui generalità e dimostrabilità
portano all'unificazione della scienza galileiana e kepleriana. Non a caso, infatti,
Newton scrive: “Conosciuti i principi dei moti, da questi ricaviamo a priori i moti
celesti”. Non credo sia il caso di sottolineare l'aspetto meraviglioso di simili operazioni
concettuali, grazie alle quali Newton riesce a costruire catene di ragionamenti i cui esiti
sono conformi alla realtà del sistema planetario. I Principia, cosi come apparvero in
prima edizione nel 1687, si chiudono con la trattazione del moto delle comete.
Halley, che aveva stimolato Newton affinché scrivesse l'opera e che aveva anche
sostenuto le spese di pubblicazione della stessa, dichiarava che l’autore dei Principia
aveva pressoché condotto a termine l'impresa di conoscere il mondo, e che ben poco
rimaneva da fare per coloro che dopo Newton avrebbero compiuto ricerche in questo
argomento e che non era più possibile credere nella dottrina cartesiana dei vortici.
L'entusiasmo di Halley non poteva tuttavia cancellare i pregiudizi che ostacolavano la
credibilità dei Principia e che avevano radici profonde ed estese in una cultura
notevolmente influenzata dalla concezione cartesiana della fisica. Quest'ultima
concezione aveva il pregio di poter essere compresa nelle sue linee generali senza dover
affrontare problemi matematici di difficile soluzione, di poter essere discussa senza
violare le conoscenze del senso comune e di presentarsi immediatamente, per la sua
==7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

stessa natura, a riflessioni filosofiche di notevole interesse. Si deve inoltre tenere


presente che le tesi newtoniane sulla gravitazione non potevano che apparire strane a
intellettuali che ritenevano fondamentale il compito di studiare la natura del moto.
Quest'ultima non era l'oggetto dei Principia, i quali puntavano invece a stabilire alcuni
assiomi che consentissero di ricavare a priori quelli che Newton indicava come
fenomeni, senza entrare nel merito della causa della gravitazione. Da una parte
giungevano critiche secondo le quali introdurre la gravitazione costituiva un ritorno alle
cause occulte che erano state duramente combattute da Cartesio e da molti altri.
Dall'altra parte si diffondeva il sospetto che la teoria di Newton contenesse i germi
dell'ateismo, in quanto poteva far pensare a un meccanicismo che sollevava intricati
problemi teologici. Nello stesso tempo i Principia avevano alcuni punti deboli, quali ad
esempio quelli che riguardavano certi errori o imperfezioni e che dovevano
assolutamente essere eliminati.
Esistevano quindi molte ragioni per preparare una seconda edizione, che
apparve nell'estate del 1713, grazie anche ad un intenso lavoro del matematico Roger
Cotes (1682-1716). La seconda edizione presentava alcune interessanti modificazioni
rispetto alla prima. In particolare, essa conteneva una battagliera prefazione di Cotes e
alcune pagine conclusive scritte da Newton e note come Scolio Generale. Cotes, nella
prefazione, divideva gli studiosi di fisica in tre gruppi. Al primo gruppo appartenevano
i seguaci di Aristotele. Essi pretendevano di analizzare le nature dei corpi ma, in realtà,
non avevano nulla da insegnare poiché parlavano solamente dei “nomi delle cose” e non
delle “cose stesse”. Il secondo gruppo, principalmente rappresentato dai seguaci di
Cartesio, comprendeva coloro che volevano ricondurre la varietà delle forme a poche
relazioni semplici, ma che esageravano nel formulare ipotesi. Essi, scrive Cotes, “cadono
nei sogni, in quanto hanno trascurato la reale costituzione delle cose”. Il terzo gruppo
era infine formato da quegli studiosi che seguivano la filosofia sperimentale e che a
“non assumono come principio niente che non sia stato provato dai fenomeni”.
Naturalmente Newton faceva parte di quest'ultimo gruppo, ed era il primo e il
solo che era stato capace di dedurre la spiegazione del sistema del mondo dalla teoria
della gravitazione dopo aver ricavato quest'ultima mediante un accurato esame di
fenomeni osservabili sulla Terra e nel cielo. Scriveva polemicamente Cotes: “Sento che
alcuni disapprovano questa conclusione e borbottano non so che circa le qualità occulte.
Sono soliti ciarlare continuamente del fatto che la gravità specialmente è un quid, e
che, per la verità, le cause occulte debbono essere bandite dalla filosofia. Ma a costoro si
risponde che cause occulte non sono quelle la cui esistenza si dimostra chiaramente per
mezzo di osservazioni, ma soltanto quelle la cui esistenza è occulta e inventata e
ancora non è stata provata. La gravità, dunque, non sarà la causa occulta dei moti
celesti; se qualcosa, infatti, è appalesato dai fenomeni, è che questo potere esiste di fatto.
Piuttosto, nelle cause occulte si rifugiano coloro che propongono alla guida di questi
movimenti non so che vortici di materia interamente immaginata e affatto sconosciuta
ai sensi”. Secondo Cotes i veri seguaci delle cause occulte erano, dunque, coloro i quali
ragionavano in termini di vortici. D'altra parte, respingendo la falsa filosofia dei vortici
cartesiani, Newton aveva aperto all'uomo la via per una comprensione della
“compagine elegantissima del sistema del mondo”, e, nello stesso tempo, aveva
insegnato a “rispettare ed adorare il fondatore e il signore dell'universo”: pertanto i
Principia costituivano una “fortezza munitissima contro l'assalto degli atei”, come aveva
ben capito Richard Bentley (1662-1742), illustre filologo e studioso di problemi religiosi,
che contribuì ad allontanare da Newton il sospetto di ateismo.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ==8!

Prendiamo adesso in considerazione lo Scolio Generale con il quale la seconda


edizione dei Principia si chiude. Le tesi esposte nello Scolio, infatti, esercitarono una
grande influenza sui dibattiti sul metodo scientifico che si svilupparono dopo Newton.
Nelle poche pagine dello Scolio Generale si esaminano quattro problemi tra loro
collegati. Il primo riguarda i vortici e il vuoto. I vortici debbono essere eliminati per
poter veramente spiegare i moti celesti che avvengono nel vuoto e che sono governati
dalla legge di gravità. L'eliminazione dei vortici fa tuttavia sorgere un secondo
problema. Infatti i pianeti e i loro satelliti hanno moti regolari, ed è giusto chiedere
quale sia la causa di tale regolarità. Newton risponde che i moti regolari “non hanno
origine da cause meccaniche” ma sono il risultato del disegno divino. Il terzo problema,
infatti, è il problema di Dio: “Da una cieca necessità metafisica, che è assolutamente
identica sempre e ovunque, non nasce alcuna varietà di cose. L’intera varietà delle cose
create, per luoghi e per tempi, poté essere fatta nascere soltanto dalle idee e dalla
volontà di un ente necessariamente esistente”. L'ultimo problema dello Scolio Generale
ha come oggetto lo spinoso tema della causa della gravità. Newton esclude che possa
trattarsi di una causa meccanica e ammette di conoscere solamente le proprietà della
gravitazione che risultano dagli esperimenti.
A questo punto lo Scolio Generale enuncia l'argomento celeberrimo sulle ipotesi:
“In verità non sono ancora riuscito a dedurre dai fenomeni la ragione di queste
proprietà della gravità, e non invento ipotesi. Qualunque cosa, infatti, non deducibile
dai fenomeni, va chiamata ipotesi; e nella filosofia sperimentale non trovano posto le
ipotesi sia metafisiche, sia fisiche, sia delle qualità occulte, sia meccaniche. In questa
filosofia le proposizioni vengono dedotte dai fenomeni, e sono rese generali per
induzione”. Per quanto attiene alla fisica dunque: “è sufficiente che la gravità esista di
fatto, agisca secondo le leggi da noi esposte, e spieghi tutti i movimenti dei corpi celesti
e del nostro mare”.
Va precisato che il termine “ipotesi” veniva usato, ai tempi di Newton,
prevalentemente come sinonimo di spiegazione di un fenomeno alla luce di una visione
globale della realtà. Ebbene, era proprio questo tipo di spiegazione, che noi
chiameremmo metafisica, ciò che il grande scienziato voleva innanzitutto respingere nel
modo più deciso e assoluto con l’affermazione hypotheses non fingo (non formulo ipotesi,
l'impossibilità di andare al di là della descrizione dei fenomeni per cercarne la causa).
L’esempio più noto di tal genere di ipotesi era stata la concezione aristotelica del
mondo. Altro esempio, forse ancora più pericoloso perché formulato in termini più
moderni, è offerto, secondo Newton, dal cartesianesimo, che pretenderebbe ricavare
una concezione meccanicistica del mondo dalle speculazioni filosofiche sul concetto di
sostanza estesa. Sarebbe inesatto però ritenere che con l’hypotheses non fingo Newton si
limitasse a respingere le ipotesi nel senso generalissimo così come è stato accennato. In
realtà egli sembra mirare talvolta anche a qualcos’altro: a respingere, in sede scientifica,
il ricorso a ipotesi di più limitata generalità, ideate per spiegare questa o quella legge,
questo o quel gruppo di fenomeni. È questo il motivo per cui Newton si rifiutò
costantemente di cercare una causa alla più importante legge scientifica da lui scoperta,
quella della gravitazione universale. La cosa indispensabile è riuscire a determinare la
formula esatta che regola la forza di gravitazione e saper ricavare matematicamente
tutte le conseguenze che ne derivano; quella formula e queste conseguenze esprimono
rapporti che possono venire rigorosamente controllati sui fenomeni, e perciò ha senso
affermare che esse sono vere o false. L’ipotetica causa da cui la legge dovrebbe
dipendere esprime invece qualcosa di puramente teorico, prico di ogni possibile
==9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

verificazione; qualunque discussione sulla sua verità o falsità è pertanto priva di senso.
L’hypotheses non fingo sarà destinato a divenire, nel Settecento, l’insegna della filosofia
sperimentale: è anche possibile che la gravitazione non sia una legge ultima della
natura, che si possa ricondurre a cause meccaniche e quindi risolvere analiticamente
nelle idee di spazio e moto, ma la philosophia experimentalis deve procedere per
induzione dai fatti osservati, per generalizzazioni successive, e non oltrepassare mai il
piano dell'osservazione sensibile e dell'esperimento, per ora non si può riportare la
gravitazione ad alcuna causa meccanica. Proprio in base a questa considerazione,
l’hypotheses non fingo venne interpretato nell’Ottocento come la più tipica espressione
della metodologia positivistica, e cioè come il severo richiamo a non confondere
l’autentica scienza con la creazione di spiegazioni dei fenomeni, ossia l’invito ad
accogliere nel patrimonio delle conoscenze scientifiche soltanto ciò che la natura stessa,
opportunamente interrogata, è in grado di suggerirci.
Un più attento e realistico esame dell’opera di Newton ci conduce tuttavia a
conclusioni alquanto più caute. Non si vuole certo negare che il senso profondo del
canone newtoniano vada proprio cercato nel richiamo all’esperienza, intesa come
controllo indispensabile di ogni affermazione che intenda venire accolta nella scienza
fisica; si vuole però sottolineare che la tecnica di questo controllo non risulta affatto
precisata dall’anzidetto richiamo. È del resto ben noto che tale precisazione costituisce
ancora oggi un problema tutt’altro che risolto dagli epistemologi.
Bisogna d’altro canto aggiungere che lo stesso Newton lo interpretò, quando ciò
gli tornava utile, con la massima libertà, segno che in esso vi scorgeva soltanto
un’indicazione molto generica, e non una prescrizione da intendersi alla lettera (non
certo una condanna di ogni uso delle ipotesi in fisica e tanto meno una condanna di
ogni idealizzazione dei fenomeni operata dalla matematica). A conferma di ciò basti
ricordare che egli stesso introdusse nella meccanica alcune nozioni, come quelle di
spazio e di tempo assoluto, tutt’altro che riducibili ai semplici dati dell’esperienza, e che
non ebbe affatto timore di fare ricorso all’ipotesi corpuscolare per fornire una
spiegazione scientifica dei fenomeni luminosi. Possiamo dunque affermare che il rifiuto
newtoniano delle ipotesi non può venire inteso, come pretendevano i positivisti
dell’Ottocento, quale affermazione che tutto il lavoro dello scienziato debba esaurirsi
nella pura e semplice sperimentazione. Al contrario, Newton comprese molto bene che
l’idealizzazione matematica dei fenomeni, che contiene in sé sempre qualcosa di
ipotetico, è altrettanto importante, per lo scienziato, quanto l’interrogazione della
natura. L’essenziale è che tale idealizzazione non resti uno schema puramente teorico,
ma dia luogo a conseguenze verificabili nell’esperienza e quindi possa fungere come
guida per l’impostazione della ricerca fisica. Da questo punto di vista il rifiuto delle
ipotesi esprime soltanto la giusta preoccupazione che il risultato ottenuto in sede
ipotetico-matematica non venga accolto come automaticamente vero anche in sede
fisica; interpretarlo, invece, come una mitizzazione del puro sperimentalismo
significherebbe travisare la metodologia newtoniana, significherebbe perdere di vista la
sua intrinseca apertura sia verso l’esperienza sia verso l’elaborazione teorica, da attuarsi
con precisi strumenti matematici.
Lo Scolio, tuttavia, non termina con la dichiarazione metodologica dell’hypotheses
non fingo, ma prosegue con alcune righe dedicate all'etere, che Newton definisce come:
“quello spirito sottilissimo che pervade i grossi corpi e che in essi si nasconde”. È l’etere,
ammette Newton, che con la sua forza e le sue azioni fa sì che le particelle interagiscano
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! ==:!

tra loro a brevi distanze, che si manifestino le interazioni tipiche dei corpi elettrizzati,
che siano osservabili i fenomeni luminosi e che sia possibile la sensazione stessa, dovuta
alle “vibrazioni di questo spirito”. Conclude Newton: “Ma queste cose non possono
essere esposte in poche parole; né vi è sufficiente abbondanza di esperimenti mediante i
quali le leggi delle azioni di questo spirito possano essere accuratamente determinate e
mostrate”.
Le considerazioni sull’etere pongono necessariamente due riflessioni ancora
sull’hypotheses non fingo. Se è vero il canone metodologico secondo il quale non ci sono
nella fisica di Newton concezioni e leggi che non siano necessariamente poste dai dati
dell’esperienza, allora le teorie di Newton non avrebbero mai dovuto richiedere delle
modificazioni o potuto contenere implicite delle conseguenze che gli esperimenti non
confermano, poiché, in un caso del genere, ogni conseguenza sarebbe altrettanto
indubitabile e definitiva come lo sono i fatti sperimentali. Nel 1885, tuttavia,
l’esperimento di Michelson-Morley rivelò un fatto (la non esistenza dell’etere,
contrariamente a quanto sosteneva Newton) che non avrebbe dovuto sussistere se gli
assunti teoretici di Newton fossero stati assolutamente veri. Ciò rese evidente che la
relazione tra i fatti sperimentali e le supposizioni teoriche è del tutto diversa da quella
eventualmente concepita da Newton. In altri termini, ciò significa che la teoria fisica
non è né una semplice descrizione di fatti sperimentali né qualcosa di deducibile da tale
descrizione. Invece, come Einstein metterà in rilievo, si perviene ad una teoria fisica
attraverso mezzi puramente speculativi. La deduzione, nel suo procedimento, non va
dai fatti alle ipotesi teoriche ma da queste ai dati sperimentali. Di conseguenza le teorie
debbono essere proposte in linea speculativa e sviluppate deduttivamente rispetto alle
loro molteplici conseguenze, in modo da poterle sottoporre a prove sperimentali
indirette. In sintesi, ogni teoria fisica costruisce sempre un numero di supposizioni
fisiche e filosofiche maggiore di quello che i semplici dati sperimentali fornirebbero o
implicherebbero.
La seconda riflessione riguarda la possibilità di conciliare la regola dello Scolio
Generale che vieta di fare ipotesi e che invita gli studiosi ad accettare una teoria per la
quale “è sufficiente che la gravità esista di fatto”, con la conclusione dello Scolio stesso,
nella quale il lettore è rinviato allo “spirito sottilissimo”? Non è agevole trovare una
risposta, se non nelle riflessioni fatte in precedenza. Come molti storici hanno ormai
dimostrato, Newton evitava quasi sempre le occasioni di discutere sulle ipotesi, in
quanto desiderava rimanere estraneo, nei limiti del possibile, alle dispute. Ciò
evidentemente crea difficoltà di ogni genere nell'interpretazione delle pagine
newtoniane, anche perchè è ormai noto che, nella sua pratica scientifica, Newton
violava con notevole frequenza le regole filosofiche e metodologiche pubblicate nei
Principia. La lettera inviata a Boyle, nella quale l'etere appariva come un mezzo le cui
proprietà fisiche avrebbero potuto spiegare l'attrazione tra i corpi, non è per fortuna il
solo documento che Newton ci abbia lasciato. Sono particolarmente interessanti, per
quanto riguarda le ipotesi sulla gravitazione, le quattro lettere che Newton inviò a
Bentley tra il dicembre del 1692 e il febbraio del 1693. Nella seconda lettera si può
leggere come Newton fosse desideroso di allontanare da sé ogni sospetto e ogni critica a
proposito della causa della gravità: “Voi parlate a volte della gravità come essenziale e
inerente alla materia. Vi prego di non attribuirmi una simile nozione; infatti la causa
della gravità è ciò che io non pretendo di conoscere”.
La terza lettera era ancor più esplicita: “E’ inconcepibile che la materia bruta e
inanimata possa, senza la mediazione di qualcosa di diverso che non sia materiale,
=4<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

operare ed agire su altra materia senza contatto reciproco, come dovrebbe appunto
accadere se la gravitazione nel senso epicureo fosse essenziale o inerente alla materia
stessa. E questa è la ragione per cui desidero che non mi si attribuisca la gravità come
innata. Che la gravità possa essere innata, inerente e essenziale alla materia, così che
un corpo possa agire su un altro a distanza e attraverso un vuoto, senza la mediazione
di qualcosa grazie a cui e attraverso cui l'azione e la forza possano essere trasportate
dall'uno all'altro, ebbene, tutto ciò è per me un'assurdità così grande, che io non credo
che un uomo il quale abbia in materia filosofica una capacità di pensare in modo reale,
possa mai cadere in essa. La gravità deve essere causata da un agente che agisca
sempre secondo certe leggi; e ho lasciato alla considerazione dei miei lettori il problema
se quell'agente è materiale o immateriale”.
Questo passo deve far riflettere. Chi legge i Principia nella prima e nella seconda
edizione, infatti, non ha elementi sufficienti per capire l'effettiva posizione di Newton
nei confronti dell'etere e della gravità. Non a caso la diffusione del newtonianesimo
passò attraverso una lettura dei Principia nella quale svolgevano un ruolo di primissimo
piano le argomentazioni contenute nello Scolio Generale: per circa due secoli,
generazioni di intellettuali nutrirono l'opinione che al centro del metodo trionfante di
Newton stesse il celebre motto Hypotheses non fingo. Eppure, nel cuore stesso delle
ricerche realmente svolte da Newton, le ipotesi, ivi comprese le ipotesi sull'etere,
svolsero un ruolo fondamentale. La terza lettera a Bentley, se non altro, sta a
testimoniare come Newton fosse lontano da quella immagine della gravitazione che nel
Settecento e nell’Ottocento fu invece coltivata come una genuina raffigurazione della
scienza dei Principia. Nessuno fu più antinewtoniano di Newton, se essere newtoniani
significa, come significò per generazioni di studiosi, credere che l'azione gravitazionale
sia un'azione a distanza che si esercita nel vuoto.
Più tardi, nelle grandi Questioni che chiudono l'Opticks, Newton, supponendo lo
spazio pieno di etere, tenterà di spiegare la gravitazione mediante una pressione di
questo etere; e poiché l’etere è lo spazio stesso in quanto spazio materiale, fisico, ciò
equivale ad un tentativo (peraltro presentato in forma dubitativa, come mera ipotesi,
anzi come argomento di ricerca) di ricondurre la gravitazione ad una struttura dello
spazio fisico in sé. Ma nei Principia, a proposito delle forze centrali attrattivo-repulsive
in generale, Newton dichiara esplicitamente che considera tali forze come semplici
fictiones matematiche, cioè come modelli mediante i quali si ottiene una buona
spiegazione-previsione dei comportamenti fisici, non come qualche qualità o virtù
intrinseca nei corpi stessi. Si deve intendere questo soltanto per le forze centrali che
implicano qualche actio in distans, oppure si deve estendere in generale al concetto di
forza? Alla luce dei testi e dell'intera struttura del sistema della fisica newtoniana è
difficile dare una risposta.
Sebbene storicamente meno importante, l'Opticks (1704) è, ai fini della
comprensione della filosofia, cioè del pensiero scientifico, di Newton, l'opera di gran
lunga più importante, soprattutto per le Questioni in cui l'autore presenta una serie di
importanti ipotesi speculative sulle strutture ultime della materia come temi di future
ricerche per chi vorrà intraprenderle. Nell’Ottica, Newton dice: “Il problema
fondamentale nella filosofia naturale è di procedere dai fenomeni, senza fare uso di
false ipotesi, e di dedurre le cause dagli effetti, fino a che si arriva ad una Causa Prima
che certamente non è meccanica... E non risulta forse proprio dai fenomeni stessi che
esiste un Essere incorporeo, vivente, intelligente, onnipresente, che nello spazio infinito,
come nel proprio sensorio, vede le cose intimamente, le percepisce profondamente, e le
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =4;!

comprende totalmente attraverso la loro presenza immediata in Lui stesso? … Egli


governa tutte le cose e conosce tutto ciò che è o che può essere fatto, ed essendo ovunque
presente, e maggiormente capace di muovere i corpi entro il proprio sensorio uniforme
e infinito— formando, così, e riformando le parti dell'universo— più di quanto noi non
si possa essere capaci di muovere con il nostro volere le singole parti dei nostri corpi”.
Con questo modo di ragionare è possibile forse trovare nello questo spazio
assoluto, pensato come sensorio di Dio, la vera causa e la possibilità stessa della
gravitazione, cioè di quella azione a distanza che Cartesio e Leibnitz avversano in
quanto occulta e misteriosa nel suo agire sulla materia. Il testo del newtoniano Clarke
sull’argomento è chiaro: “... Poiché l'attrazione a distanza è assurda, si deve postulare
un certo spirito immateriale che governa la materia ... una forza immateriale e
universale ovunque e sempre presente nei corpi. La gravità o il peso dei corpi non è un
effetto accidentale del moto, o di qualsiasi altra materia sottile [è uno spunto polemico
contro Huygens e Cartesio], ma è una legge originale e generale di tutta la materia,
istituita da Dio, e mantenuta in essa da qualche potenza efficace, che penetra perfino
nella sua sostanza solida “. Pertanto, Dio stesso è il mediatore dell'azione a distanza fra i
corpi, essendo esso presente ovunque, tanto nello spazio vuoto, quanto nella materia.
L’improvvisa irruzione metafisica non è che l'espressione acuta del contrasto che
sorge nel pensiero di Newton al momento stesso in cui vengono introdotti i concetti di
spazio, tempo, moto assoluti. Il fondamento metodologico della scienza di Newton è un
empirismo moderno: la ricerca di una semplice descrizione razionale dei fenomeni,
basata sull'esperienza, lasciando completamente da parte l'indagine sulle cause prime.
Ma con lo spazio e il tempo assoluti, il perfetto sistema di induzione vagheggiato da
Newton viene ad essere fondato su una realtà che—fin dall'inizio, e in linea di
principio—è sottratta alla conferma e al confronto con la percezione immediata. Se lo
spazio assoluto— che non è mai offerto alle nostre sensazioni—viene posto come base
indispensabile della meccanica, allora risulta errato affermare—come pur vuole
Newton— che l'esperienza è il fondamento e il limite di tutto il nostro conoscere. Un
concetto puramente metafisico è preso come punto di partenza della nuova filosofia
naturale, e questo crea un contrasto insanabile con lo stesso spirito della scienza di
Newton, con l'essenza della sua metodologia. Da ciò la crisi dell'intera teoria, che
comincia a manifestarsi fino dai primi anni e contro cui indirizzeranno le critiche di
scienziati e di filosofi da Berkeley, a Mach, ad Einstein.
Le concezioni fondamentali contenute nell’Ottica, oltre l'ipotesi sulla gravitazione
cui abbiamo già accennato, sono date dalla teoria della luce e dalla teoria atomica,
strettamente legata alla precedente. In primo luogo, anche in Newton si trova quella
distinzione tra qualità prime e qualità seconde (soggettive) che da Democrito-Epicuro
era passata a Galileo, e da Galileo, attraverso Gassendi, era entrata nel patrimonio
comune del pensiero europeo. Newton batte l'accento non tanto sull'essenzialità, quanto
sulla costanza: le qualità essenziali e primarie della materia sono principalmente quegli
aspetti fondamentalmente empirici, anche se astratti e idealizzati, che si ritrovano
costantemente ovunque ci sia materia e costantemente operanti in tutti i fenomeni fisici:
estensione, inerzia, impenetrabilità, elasticità, ecc. In realtà, mediante la loro
enumerazione e descrizione il fisico costruisce un paradigma di materia (caso tipico
l'elasticità supposta perfetta), ma un paradigma che ha le sue basi negli scopi operativi
della scienza stessa e nei mezzi usati per misurare, ecc., e nelle qualità che restano,
almeno relativamente, invarianti di fronte a tali operazioni.
=4=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

In secondo luogo, anche Newton, non considera le qualità secondarie o


soggettive (colori, odori, sapori, ecc.) come mere apparenze non vere, bensì come aventi
una loro legalità ed obiettività, ossia come il risultato di un'azione causale esercitata dai
fenomeni materiali sull'apparato sensoriale. Questo era necessario premettere per capire
a fondo il carattere della filosofia della natura newtoniana. Infatti mediante ciò si
giustifica la riduzione della materia a particelle elementari, aventi le proprietà
fondamentali della materia stessa, le quali si muovono nel vuoto: non quindi
semplicemente punti massa, come sarà nell'atomistica del Settecento (e come del resto è
anche per Newton finché rimane sul terreno della meccanica razionale in senso stretto),
bensì atomi materiali, particelle minime, qualcosa di intermedio tra le omeomerie di
Anassagora e gli atomi di Democrito-Epicuro. Prendiamo per esempio la natura della
luce, di cui Newton, in aspra polemica con la scuola francese (Cartesio, Huygens),
sostenne la struttura particellare anziché ondulatoria. La luce è composta di raggi
cromatici, i quali viaggiano nel vuoto seguendo le leggi normali della meccanica (la
rettilinearità del percorso è conseguenza del principio di inerzia): quando incontrano un
corpo, se questo è molto compatto, ne vengono respinti, ed essendo elastici rimbalzano
seguendo le leggi normali dell'urto. Se invece il corpo è abbastanza poroso (ossia
costituito in modo che tra atomo e atomo ci siano larghi spazi vuoti), lo attraversano
(tutti o in parte), ma subiscono l'attrazione gravitazionale delle particelle del corpo che
attraversano, onde vengono più o meno deviati dal moto inerziale (rettilineo); questo
modello spiega i fenomeni della rifrazione.
Ma vediamo che significhi raggio e che significhi colore. Il raggio è definito da
Newton come la più piccola particella di luce che si possa ottenere con mezzi fisici: per
esempio, la quantità di luce che passi, nel minimo tempo possibile, nel più piccolo foro
possibile praticato in uno schermo opaco, dunque una specie di goccia o ago di luce.
Questo procedimento è tipico di Newton, il quale in realtà opera con l'atomo come con
un modello fisico (quindi qualcosa di matematicamente idealizzato), ma
contemporaneamente si sforza di introdurre una nozione strettamente sperimentale,
concependolo come la più piccola parte di materia isolabile operativamente.
Per quanto poi riguarda il colore, esso è dato dal grado di rifrangibilità. Come è
noto, passando attraverso un mezzo rifrangente, per esempio un prisma di Islanda, la
luce bianca si scompone nei colori dell'arcobaleno; partendo da questa famosa
esperienza Newton la interpreta nel senso che la luce bianca è luce composta (infatti
facendo passare la luce attraverso un secondo prisma analogo al primo ma disposto a
rovescio la si può ricomporre), in cui i vari raggi, ossia le varie luci monocromatiche che
la compongono, si rifrangono secondo angoli diversi (diversi in ampiezza scalare e in
segno), cioè hanno diverso grado di rifrangibilità. Ora, il colore è matematicamente il
grado di rifrangibilità di un dato raggio; continua a chiamarsi con il nome di un colore
(luce gialla, luce rossa, ecc.) poiché al diverso grado di rifrangibilità è associata una
diversa sensazione cromatica nel nostro apparato visivo.
Ritorniamo alla teoria atomica. Newton riprende, soprattutto in connessione con
i suoi studi di chimica, la teoria del Boyle: gli atomi si associano in gruppi piuttosto
stabili (aventi cioè una notevole coesione) che egli chiama atomi composti, sono gli
atomi dei composti chimici. (Newton riprende anche l'idea, di origine baconiana, che
questi atomi composti hanno una determinata struttura, cioè disposizione degli atomi
semplici nello spazio, dalla quale dipendono i comportamenti chimici dei corpi). Come
abbiamo detto, tra atomo e atomo (sia entro la molecola, sia entro il corpo
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =44!

plurimolecolare) c’è il vuoto: gli atomi sono tenuti insieme da forze attrattive di tipo
gravitazionale, per quanto però Newton sospetti che siano matematicamente diverse, in
quanto l'attrazione deve essere inversamente proporzionale a potenze della distanza
superiori alla seconda, ossia cubica o biquadratica, cioè deve essere assai forte per
distanze molto piccole, ma debolissima non appena quelle distanze sorpassino una
certa misura. Con questa ipotesi Newton spiegava molti e diversi fenomeni naturali:
oltre quelli ottici, come abbiamo visto, e molti comportamenti chimici, anche per
esempio interpretava il calore come movimento disordinato delle particelle (quindi un
movimento anticoesivo, che spiegherebbe come mai la maggior parte delle dissociazioni
e sostituzioni chimiche avvengano a caldo).
Nel complesso, l’opera di Newton è forse il più compiuto modello che abbia mai
avuto la fisica di armonica fusione di fatti sperimentali e considerazioni teoriche e chi
legge le opere di Newton non può che rendersi conto di quanti problemi fossero rimasti
insoluti accanto a quelli risolti, e di come Newton stesso fosse cosciente della ampiezza
dell'ignoto e delle difficoltà che dovevano ancora essere superate per garantire la
validità delle soluzioni date al sistema del mondo. Se si tiene anche conto dei
trionfalismi di un certo newtonianesimo di maniera, assai diffuso nel Settecento e
nell'Ottocento, credo che non vi sia conclusione migliore di quella che appare dalle
seguenti parole di Einstein: “Newton stesso era ben più cosciente della debolezza insita
nel suo edificio intellettuale di quanto non lo fosse la generazione di dotti scienziati che
gli seguì. Questo fatto ha sempre destato la mia più profonda ammirazione”.

John Locke (1632-1704), filosofo inglese, è considerato il padre dell'empirismo


moderno e dell'illuminismo critico. Alla pubblicazione dei Principia diviene uno dei più
influenti difensori di Newton. Quindi può essere considerato il primo filosofo
newtoniano, e senza dubbio la sua battaglia contro l'a priori cartesiano fiancheggiò
validamente la lotta dei newtoniani. Nonostante le sue difficoltà matematiche nel
comprendere le parti più avanzate del capolavoro newtoniano, fa dei Principia il punto
di riferimento per la propria filosofia. Il Saggio sull’intelletto umano (1690), con cui si
inaugura la tradizione filosofica dell’empirismo inglese, è esplicitamente presentato
come una giustificazione filosofica dell’opera scientifica di Newton. E Newton trova in
Locke una mente filosofica in grado di articolare una difesa del metodo dei Principia più
convincente di quella fornita dalle newtoniane regole del filosofare.
Delle quattro tematiche su cui Locke concentra le sue riflessioni, a noi interessa
quella della conoscenza, originata proprio dall’esperienza. La ragione, afferma Locke, è
l'elemento essenziale della conoscenza, tuttavia, a differenza di altri pensatori suoi
contemporanei, egli ne elabora una nuova idea. Se il razionalismo di Cartesio non aveva
apportato i risultati sperati, occorreva indagare sulla ragione stessa, sul suo
funzionamento, sui suoi limiti e sulle sue potenzialità conoscitive. Locke si convinse
dell'esistenza di realtà conoscibili dalla ragione, mentre altre che le sfuggivano
completamente. L'analisi critica preliminare è un tratto in comune con il metodo
cartesiano, ma, oltre ad avere punti di partenza differenti (razionalismo per Cartesio,
empirismo per Locke), sortì risultati completamente opposti. La conoscenza dei limiti
della ragione è uno dei punti focali della filosofia di Locke, e intorno ad essa si basa il
suo pensiero.
Locke rifiuta l'idea che nell'intelletto umano esistano principi e idee innate. Egli
pensa che la mente umana all'inizio sia come una tabula rasa cioè priva di idee, senza
conoscenza. La mente non contiene nessun elemento a priori e la conoscenza deriva
=45! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

integralmente dall'esperienza. Egli dunque critica l'innatismo cartesiano, cioè l'esistenza


di idee innate che l'animo umano riceve con l'esistenza stessa. Ma se per Locke la
conoscenza e quindi l'idea di Dio non è innata, allora che origine hanno le idee secondo
il filosofo? Qui egli dimostra la sua indole empirista, considerando la conoscenza frutto
della ragione, ma non della ratio cartesiana, cioè una ratio certa, assoluta ed
indiscutibile, bensì una ragione che necessita di prove empiriche, sul modello della
prassi scientifica. Dunque Locke arriva a formulare una teoria basata sui sensi.
Conoscenza che deriva dall'esperienza sensibile. Sono i nostri sensi, come per esempio
l'ottica, che ci mostrano il mondo, gli oggetti. Se in un primo momento è la sensazione a
mostrarci gli oggetti, necessariamente segue ad essa la riflessione.
Prima di iniziare qualsiasi indagine filosofica è indispensabile criticare l'intelletto
umano per conoscerne le effettive capacità. "Critica", in questo senso, non significa
biasimo ma esame, ricerca. Locke capì che prima di impegnarsi in ricerche di ogni
genere bisognava esaminare le proprie capacità e vedere quali oggetti siano alla portata
della nostra intelligenza e quali siano superiori alla nostra comprensione.
Affrontando il problema della conoscenza umana egli afferma che la conoscenza
deriva dai sensi e che ciò che risulta al di fuori della nostra esperienza non è conoscibile.
Locke prende in questo modo le distanze sia dal dogmatismo sia dallo scetticismo. Egli
sostiene che ciò che conta non è conoscere ogni cosa ma solo quello che ci è utile per
dirigere razionalmente la nostra vita pratica. Per questo non dobbiamo turbarci se non è
possibile conoscere tutto in modo certo, e che dobbiamo accontentarci di una quieta
ignoranza nei confronti di ciò che è impossibile alla nostra comprensione. Locke
afferma così la natura pratica del conoscere. La sua ricerca è dunque uno studio
analitico dei poteri della mente umana.
Secondo Locke, la mente non ha nulla da pensare se prima l'esperienza non le ha
fornito le idee su cui riflettere. L'esperienza è il fondamento di ogni conoscenza umana,
nonché il metro, con cui essa deve giudicare le conoscenze che di volta in volta ha
acquisito (per questo l'esperienza si trova all'inizio, ma anche alla fine del processo
conoscitivo). Ciò che osserviamo, sia esternamente (oggetti esteriori e sensibili), sia
internamente (operazioni interiori della nostra mente) rappresenta il materiale di cui
l'intelligenza si serve per la conoscenza. Le idee sono “tutto ciò che è oggetto della
nostra intelligenza quando pensiamo”, cioè ogni contenuto della mente sia le immagini
sensibili sia i concetti astratti. La mente riceve le idee da due fonti: la sensazione e la
riflessione (che è una sorta di senso interno). La sensazione offre all'intelletto le
impressioni delle cose esterne procurando appunto idee di sensazione (colore, odore
ecc.); la riflessione fornisce all'intelletto la percezione degli stati interiori creando le idee
di riflessione (desiderio, volontà, decisione ecc.). Tutta la conoscenza ha origine e
fondamento da queste due fonti.
Sensi e riflessione producono le idee semplici, l'alfabeto del pensiero, gli elementi
primi e fondamentali della ulteriore conoscenza che la mente riceve passivamente.
Alcune idee però rivelano qualità proprie dei corpi, immutabili, altre solo delle
modificazioni dei nostri sensi in presenza di un dato oggetto, destinate perciò a mutare
in conseguenza delle varie situazioni. Perciò Locke distingue le qualità sensibili in
primarie e secondarie. Chiama qualità primarie quelle che sono oggettive, inseparabili
dagli oggetti come estensione, solidità, movimento, ecc. e qualità secondarie quelle
soggettive che non appartengono agli oggetti ma che i sensi percepiscono perché
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =46!

prodotte dalle varie combinazioni delle qualità primarie come il colore, il sapore, il
suono, ecc.
Le idee semplici costituiscono i materiali della conoscenza, quelle di cui
possiamo avere certezza, perché intuitivamente apprese in base al criterio dell'evidenza
sensibile; proprio per questo le idee semplici rappresentano la vera essenza delle cose,
esse sono anche il suo limite. L'intelletto non è però solo passivo; ha il potere, infatti, di
combinare e comparare le idee semplici creando una infinità di idee complesse. Tra le
molteplici idee complesse particolarmente importanti sono le idee complesse di
sostanza. Le idee complesse di sostanza sono quelle combinazioni di idee semplici che
spingono l'intelletto a rappresentarsi l'idea di un che di sussistente per se stesso, al
quale tutte quelle idee semplici possono essere riferite (ad esempio: l'uomo, l'albero, la
sedia). Tali idee hanno origine dalla consuetudine che la mente ha di considerare un
certo numero di idee semplici costantemente insieme, ma non sono affatto certe, ma
solo altamente probabili. Pertanto le idee complesse non sono conoscibili poiché esse
possono essere risolte sempre a partire dalle idee semplici che ineriscono in essa. Per
Locke, quindi, la sostanza è qualcosa di oscuro e indeterminato quel quid che senza le
idee semplici si dissolve nel nulla.
Il limite della conoscenza umana viene così fissato con chiarezza: l'uomo non ha
alcuna conoscenza dell'essenza delle cose perché è privo delle facoltà di raggiungerla.
L'intelletto umano per Locke non può andare oltre l'ambito dei fenomeni.

Infinitamente inferiore al rivale Newton come scienziato, come pensatore


scientifico Gottfried W. von Leibniz (1646-1716), Leibniz è invece forse la figura più
importante del XVII secolo. Fuori che nelle matematiche pure, i contributi scientifici di
Leibniz sono infatti pressoché nulli, ma, assai più di Newton, egli ha cercato di
elaborare in una visione unitaria tutta la struttura del mondo come si era venuta
costruendo ad opera della scienza moderna.
Leibniz, considerando il meccanicismo cartesiano come materialismo, vedeva
nella filosofia di Cartesio le fondamenta dell’ateismo. Ad opera delle leggi di natura
(aveva scritto Cartesio nei Principia philosophiae) “la materia assume in successione tutte
le forme di cui è capace: se consideriamo tali forme per ordine si potrà giungere a
quella che è propria di questo mondo”. Se la materia, commenta Leibniz, può assumere
tutte le forme possibili, ne segue che nulla di ciò che si può immaginare di assurdo,
bizzarro, contrario alla giustizia non è accaduto o non potrà un giorno accadere. Allora,
come vuole Spinoza, giustizia, bontà e ordine divengono solo concetti relativi all'uomo.
Se tutto è possibile, se tutto ciò che è possibile è nel passato, nel presente e nel futuro,
come vuole anche Hobbes, allora non c'è alcuna Provvidenza. Sostenere, come fa
Cartesio, che la materia passa in successione tutte le forme possibili, equivale a
distruggere la saggezza e la giustizia di Dio. Il Dio di Cartesio, conclude Leibniz, “fa
tutto ciò che è fattibile e passa, seguendo un ordine necessario e fatale, per tutte le
combinazioni possibili: a ciò bastava la necessità della materia, il Dio di Cartesio non è
altro che tale necessità”.
Nella prospettiva di Leibniz, quindi, il cartesianesimo si configura come
materialismo. Quelle affermazioni di Cartesio appaiono identiche, nella sostanza, a
quelle contenute nel quinto libro del De rerum natura di Lucrezio: in un tempo infinito si
producono tutti i possibili generi di incontri e di moti e di combinazioni di atomi e si
produce quindi anche il mondo reale. Leibniz, però, è largo di riconoscimenti al
meccanicismo come uno strumento utile nell'indagine fisica, ma è radicalmente
=47! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

inadeguato e insufficiente sul piano metafisico. L'indagine sulla struttura dell'universo


non è separabile dalla ricerca sulle “intenzioni “ di Dio: ragionare su una costruzione
vuol dire infatti anche penetrare i fini dell'architetto; per spiegare una macchina è
necessario “interrogarsi sul suo scopo e mostrare come tutti i suoi pezzi servono ad
esso”. I filosofi moderni sono “troppo materialisti” perché si limitano a trattare delle
figure e dei moti della materia. Non è vero che la fisica deve limitarsi a chiedersi come
le cose sono escludendo la domanda sul perché esse sono come effettivamente sono. Le
cause finali non servono solo ad ammirare la saggezza divina, ma “a conoscere le cose e
ad adoperarle”. La critica al meccanicismo di Cartesio investe i presupposti
fondamentali: la riduzione della materia a estensione; la costituzione corpuscolare della
materia e la sua divisibilità in atomi non ulteriormente divisibili; la passività della
materia; la distinzione tra il mondo della materia e quello del pensiero.
La dottrina di Leibniz, quindi, pur affermando con pari energia l’ordine del
mondo, vede in esso una libera creazione di Dio e si sforza di conciliare il meccanicismo
con il finalismo, la nuova scienza della natura con i principi della metafisica. Il pensiero
che domina tutte le multiformi attività di Leibniz è questo: esiste un ordine non
geometricamente determinato e quindi necessario, ma spontaneamente organizzato e
quindi libero. Se per Spinoza c’è un solo ordine, univoco e necessario, che è Dio stesso;
per Leibniz c’è invece un ordine non necessario, ma contingente, che risulta il frutto di
una scelta. Infatti Leibniz presenta Dio come colui che ha scelto tra i vari ordini possibili
dell’universo il migliore o più perfetto. Un ordine che includa la possibilità della scelta
(non solo divina, ma anche umana) e che sia suscettibile di essere determinato dalla
scelta stessa, è quello che Leibniz cercò di riconoscere e realizzare in tutti i campi della
realtà. Sarà partendo dalla sua costruzione che Kant tenterà un'interpretazione
filosofica complessiva della scienza newtoniana.
Il massimo titolo di gloria di Leibniz matematico è certamente costituito dal
calcolo infinitesimale, cui giunse più o meno contemporaneamente a Newton, anche se
con una differente impostazione. Più perplessi lascia l'opera fisica di Leibniz, troppo
nebulosa nei suoi aspetti propriamente scientifici e troppo legata alla sua filosofia
generale (metafisica).
Nonostante la rivolta contro Cartesio e la lunga polemica sostenuta contro i
cartesiani, anche Leibniz diffida dell'esperienza, come Cartesio: il metodo di ricerca che
può condurre alla verità è il metodo deduttivo d'Euclide. A questo ideale s'era ispirato
nel 1671, esordendo con una Theoria motus abstracti (1671), contemporanea a una Theoria
motus concreti (1671), impregnate entrambe di una metafisica spiritualista, della quale è
difficile cogliere il contenuto e il significato meccanico. L'incontro con Huygens nel 1675
fu decisivo; Leibniz si convinse che la sola estensione figurata di Cartesio non era
sufficiente per l'interpretazione della natura e che non sarebbe possibile rendere conto
della forza dei corpi, se non si ponesse in essi qualche altra cosa oltre l'estensione e
l'impenetrabilità. Per superare la difficoltà non c'è altra via, secondo Leibniz, che
ammettere francamente il seguente principio metafisico: l'effetto totale è eguale alla
causa piena. Il principio, secondo lui, dà il mezzo di sottoporre le forze al calcolo.
Leibniz non considerò l'estensione e il movimento, fondamentali nella fisica
cartesiana, come gli elementi originari del mondo fisico; egli ritenne che l'elemento
originario della materia fosse la forza. Il pensiero di Leibniz è guidato da un’intuizione
profonda, sia pure d’ispirazione metafisica: c’è nella natura qualche cosa che si conserva
in eterno, qualche cosa d’indistruttibile voluta dalla “sapienza e dalla costanza del
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =48!

Creatore”. Nello Specimen dynamicum (1695) introduce, allora, la distinzione, contro


Cartesio e in genere contro il meccanicismo classico, tra la forza (vis) e forza viva (vis
viva), la prima uguale al prodotto della massa per la velocità (F= mv), la seconda al
prodotto della massa per il quadrato della velocità (F=mv2), e pressappoco identica
(perché poi Leibniz farà un mucchio di confusioni) all'energia cinetica della fisica
odierna. Secondo lui, ciò che rimane costante nei corpi che si trovano in un sistema
chiuso non è la quantità di movimento o di moto (postulata da Cartesio), ma la quantità
di azione motrice o forza viva (oggi diremmo: l'energia cinetica). Questo risultato
rappresenta il più grande titolo di merito di Leibniz nella meccanica.
Ai suoi occhi la correlazione tra statica e dinamica dava la misura della varietà e
della fecondità dei suoi principi metafisici, in particolare del principio di continuità
(natura non facit saltus, la natura non fa salti) e dell’eguaglianza tra causa piena ed effetto
intero.
La forza viva rappresenta la possibilità di produrre un determinato effetto, per
esempio il sollevamento di un peso; così implica un'attività o produttività la quale è
esclusa dal movimento, che è la semplice traslazione nello spazio. Leibniz considera
perciò la forza come assai più reale del movimento. Il movimento non è reale di per sè
stesso, come non sono reali di per sè stessi lo spazio e il tempo, che devono piuttosto
essere considerati come enti di ragione. La forza, invece, è la vera realtà dei corpi. Il
concetto di forza serve a Leibniz per oltrepassare il meccanicismo nella spiegazione dei
fenomeni naturali. Leibniz accetta il meccanicismo cartesiano solo come una
spiegazione provvisoria che esige di essere integrata da una spiegazione più alta, fisico-
metafisica. Egli ammette che nella natura tutto avviene meccanicamente e cioè che tutto
si possa spiegare in essa con le nozioni di figura e di movimento, ma nello stesso tempo
ritiene che i principi stessi della meccanica e le leggi del movimento nascano da
qualcosa di superiore, che dipende piuttosto dalla metafisica che dalla geometria. La
forza è appunto questo superiore principio metafisico che fonda le leggi stesse della
fisica.
Leibniz distingue la forza passiva, che costituisce la massa di un corpo ed è la
resistenza che il corpo oppone alla penetrazione del movimento, e la forza attiva, la vera
e propria forza, che è la tendenza all'azione. Questa forza attiva è avvicinata da lui alla
entelechia aristotelica (intesa come una perfezione avente in sè stessa il principio del
proprio agire). Ma è evidente che la stessa massa materiale, ridotta a forza passiva, non
è più nulla di corporeo. Di conseguenza, l'ultimo risultato della fisica di Leibniz è la
risoluzione della realtà fisica in una realtà incorporea. L'elemento costitutivo della
natura, riconosciuto nella forza, gli si rivela di natura spirituale.
Accanto alla gravitazione newtoniana, anche questa concezione segna una
rottura negli schemi del meccanicismo classico, nel senso che anche qui si introduce
nelle strutture del mondo fisico qualcosa che non si lascia ridurre all'estensione e al
moto come mero attributo dell'estensione stessa, qualcosa che si proietta nello spazio
ma non è spazio, e quindi rende problematica la riduzione della fisica a geometria. Così
secondo la metafisica propria di Leibniz tempo, spazio, materia non hanno una vera e
propria realtà. Tuttavia queste tre nozioni costituiscono il quadro categoriale della
fisica-matematica moderna. Essi, dice Leibniz, sono fenomeni, e critica le nozioni di
tempo, spazio e moto assoluti del suo rivale inglese Newton: per lui tempo e spazio si
risolvono in rapporti di coesistenza e successione tra i fenomeni, sono due ordinamenti
del mondo fenomenico stesso; tempo e spazio non sono né sostanze né esseri assoluti,
=49! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

sono “cose relative”; per cui, per esempio, non ha senso dire, come diceva Newton, che
Dio avrebbe potuto collocare il cosmo astronomico (che a quel tempo veniva pensato
finito) più a destra o più a sinistra di dove lo ha collocato, perché, osserva Leibniz, un
cosmo collocato più a destra o più a sinistra dell'attuale, tutto il resto rimanendo
identico, ne risulterebbe al tutto indiscernibile, quindi sarebbe ad esso identico.
Resta il problema del moto. Non più proiettato contro lo sfondo di uno spazio
assoluto, cessa di essere qualcosa di estrinseco ai mobili, per divenire (un principio
fondamentale della filosofia leibniziana secondo cui non esistono denominazioni
puramente estrinseche) denominazione intrinseca. Anche qui la mera traslazione
spaziale è il fenomeno, l'apparenza sulla quale può operare il sapere intellettuale, ma
che rappresenta soltanto un'impalcatura provvisoria. In realtà ogni mutamento è il
prodotto di un'energia interna alla sostanza individuale semplice (o monade, di cui
l'energia cinetica è la manifestazione fisica più adeguata), per cui essa passa attraverso
una serie di mutamenti (percezioni) derivanti dalla legge costitutiva della monade
stessa (e appunto per questo, che esse derivano sempre e soltanto da tale legge
costitutiva, tutte le denominazioni sono intrinseche). L’introduzione del concetto di
monade segna per Leibniz la raggiunta possibilità di estendere al mondo fisico il suo
concetto dell'ordine contingente e di unificare perciò il mondo fisico e il mondo
spirituale in un ordine universale libero.
Il termine monade vuol sottolineare l’inconfondibilità delle sostanze singole con
gli atomi materiali: “Gli atomi non sono che l’effetto della debolezza della nostra
immaginazione, la quale, per trovare riposo, volentieri arresta a un dato punto le sue
divisioni e le sua analisi”.; le monadi, invece, sono indivisibili in se stesse e non per la
pigrizia del soggetto nel proseguire la propria analisi. La monade è atomo spirituale,
una sostanza semplice, senza parti, e quindi priva di estensione o di figura e
indivisibile. Come tale, non si può disgregare ed è eterna: soltanto Dio può crearla o
annullarla. Ogni monade è diversa dall'altra: non vi sono in natura due esseri
perfettamente uguali, cioè che non siano caratterizzati da una differenza interiore.
Leibniz insiste su questo principio che egli chiama della identità degli
indiscernibili. Due cose non possono differire solo localmente o temporalmente, ma è
necessario sempre che interceda fra esse una differenza interna. Due cubi uguali
esistono solo in matematica, non in realtà. Gli esseri reali si diversificano per le qualità
interiori; e anche se la loro diversità consistesse soltanto nella loro diversa posizione
nello spazio, questa diversità di posizione si trasformerebbe immediatamente in una
diversità di qualità interne e non rimarrebbe quindi una semplice differenza estrinseca.
Anche la materia è costituita di monadi. Essa non è veramente nè sostanza corporea nè
sostanza spirituale, ma piuttosto un aggregato di sostanze spirituali. Questo si collega
con la teoria della materia e in particolare con il giudizio di Leibniz sulla teoria atomica.
Il modello dell'atomo, particella materiale indivisibile e inerte che si muove del tutto
estrinsecamente sullo sfondo di uno spazio assoluto vuoto, è cosa che Leibniz non può
accettare. In primo luogo perché non c'è propriamente spazio, tanto meno quindi spazio
vuoto; in secondo luogo perché non si può pensare la materia come inerte e il moto
come estrinseco; finalmente perché se la materia è, cartesianamente, estensione, essa è
divisibile all'infinito. Tuttavia, riconosce Leibniz, in molti campi della meccanica il
modello atomico rende ottimi servigi, per cui esso ha una sua verità. Non bisogna però
attribuire a Leibniz una specie di pragmatismo ante litteram, neppure sul tipo di quello
che pochi decenni dopo si svilupperà in seno alla scuola newtoniana (Hume). Il fatto
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =4:!

che l'ipotesi atomica è uno strumento di lavoro è segno che il concetto di atomo è un
simbolo, inadeguato e parziale, sì, ma valido nel mondo fenomenico, di una realtà più
profonda: la realtà dell'atomo metafisico, la monade, inestesa, semplice e sorgente di
energia. Di qui il tentativo, che fa di Leibniz il massimo pensatore scientifico di questo
periodo, di inserire nella propria visione complessiva anche i risultati della biologia,
superando i limiti della fisica-matematica entro i quali era rimasto tutto il pensiero
scientifico del Seicento.
L’universo di Leibniz costituito da sostanze individuali o monadi, assimilabili a
punti matematici o ad atomi, ma di essenza spirituale, dotate di quella forza che si
manifesta ovunque, è certamente una visione metafisica in contrasto con la concezione
atomica sia di Newton che di Cartesio, eppure sembra quella più moderna alla luce dei
successivi sviluppi della fisica. Infatti, all'inizio dell'ottocento alcuni fisici teorici, come
Ampere e Cauchy, sottolineranno che, specie con il progredire della fisica anche nei
campi dell'elettricità e del magnetismo, gli atomi tendevano sempre più a divenire
semplici centri o portatori di forze, che nulla avrebbe vietato di concepire come semplici
punti privi di estensione, in quanto centri da cui irradiano le forze medesime. Anche la
fisica moderna, quando si rivolge alle particelle elementari, è tutt'altro che aliena da
concezioni del genere. È naturale che, partendo da queste premesse, Leibniz possa
facilmente confondere, e talvolta anche in modo intenzionale, la forza nel suo concetto
più ampio, o addirittura puramente spirituale, e la forza come concetto della meccanica.
Non si tratta però di semplice confusione, giacché i suoi brani sull'argomento sono
ricchi di intuizioni suggestive, che talvolta si troveranno sviluppate poi da altri
pensatori: come in una progressione aritmetica ogni termine risulta individuato dal
precedente e dalla legge che regola la progressione stessa, così come ogni successivo
istante nell'infinito divenire di questo universo di monadi, è contenuto nel presente, e in
una suprema legge logico-matematica che lo governa. Questo pensiero lo ritroveremo,
un secolo più tardi, in un passo famoso di Laplace: se ci fosse consentito di esprimere
con una formula sintetica una proprietà essenziale di questo universo, potremmo allora
dedurre da essa tutti gli stati successivi di ogni singola parte dell'universo, in
qualunque istante desiderato. Pertanto, le monadi, che alla nostra mente raziocinante
appaiono materia e forza, hanno ciascuna una propria vita intima e progrediente che le
porta a esplicarsi, ad essere, in ciascun istante, diverse da ciò che erano prima; per cui
questo divenire è generato da ciò che la fisica, e l'intuizione comune, dicono forza, ma
che, guardata dal punto di vista filosofico, non è estrinseca alla monade: rappresenta,
piuttosto, “lo stato attuale del divenire, in quanto tende a, o preinvolve, il seguente,
onde ogni presente è gravido del futuro”.
Leibniz si attiene ad un principio di continuità e di permanenza del reale,
evidentemente suggerito dal suo sistema: i vari istanti dell'universo si equivalgono, non
c’è nessuno che possa contenere più realtà dell'altro. Perciò la stessa equivalenza deve
sussistere fra istante precedente e istante seguente, fra causa ed effetto. Da ciò il
fondamento metafisico della sua famosa legge di conservazione della forza viva. Lo
studio dell'urto dei corpi elastici o anelastici era da tempo all'ordine del giorno, e
Cartesio ne aveva tratto la sua legge della conservazione della quantità di moto anche
per lui connessa ad un principio metafisico. Entrambi questi principi di conservazione,
ispirati a visuali metafisiche, anche se esprimono una concezione troppo limitata e
quindi erronea, avviano tuttavia verso il principio più ampio della conservazione
=5<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

dell’energia meccanica o della conservazione dell’energia in generale, che verranno


conquistati più tardi.
Il pensiero scientifico leibniziano è dunque giocato sulla tensione tra una
metafisica di tipo platonico, per cui alla base sta un progetto o piano dell'Essere
interamente razionale, costituito da idee pure e dai loro rapporti intrinseci, e una
visione del mondo fisico semi-empiristica, decisamente relativistica, persino con
venature pragmatistiche. La mediazione è cercata da Leibniz in un principio che nel
Settecento acquisterà poi un significato assolutamente diverso: il principio di ragion
sufficiente. Esso deve mediare il passaggio, che già aveva un po’ preoccupato Cartesio
aprendo una piccola breccia nel suo razionalismo, tra l'ordine necessario della ragione,
il puro rapporto logico tra le idee (verità di ragione), che tuttavia resta sul piano del
possibile, e l'ordine contingente dei fatti empirici (verità di fatto) in cui non sono mai
realizzate tutte le possibilità ideali. La discriminazione tra il possibile e il fattuale è
affidata alla sola esperienza : essa sola ci deve dire che un evento accade e un altro no,
che un essere esiste e l'altro no.
Il contingentismo, così aspramente criticato in Newton, è ben profondamente
radicato in tutto il pensiero scientifico moderno, se lo ritroviamo anche in Leibniz. Ma
questi esige che, almeno, si possa assegnare una ragione sufficiente (non quindi
necessaria) al contingente empirico, che si possa trovare un motivo perché le singole
cose ed eventi del mondo siano così piuttosto che in un altro modo possibile. Che poi
Leibniz finisca in piena teologia con l'affermare che Dio, tra tutti i mondi possibili, ha
scelto il migliore, è cosa che qui non ci interessa. Ci interessa invece la più modesta
applicazione scientifica che ne fa Leibniz, adoperandolo piuttosto come principio di
ragione mancante, un principio generalissimo di cui quello di inerzia potrebbe
considerarsi un'applicazione particolare: non può accadere un evento piuttosto che un
altro se manca la ragione per cui uno dei due debba verificarsi a preferenza dell'altro (i
due piatti di una bilancia su cui siano stati posti pesi uguali restano in equilibrio
mancando la ragione per cui uno dei due dovrebbe traboccare). Così mentre il trapasso
dalla metafisica alla fisica è mediato da una fede teologico-ottimistica nella sapienza e
bontà di Dio, l'applicazione scientifica del medesimo principio mette in rilievo una
struttura a priori del pensiero umano, per cui questo tende a interpretare l'empiria
fattuale mediante una serie di regole e strutture fondamentali (quali, appunto, il
principio di ragione e la legge di continuità) che ricostituiscono in seno alla natura
fattuale una specie di necessità logica.
In questo universo razionale di Leibniz la sua dottrina della conoscenza,
profonda e moderna, è legata al concetto matematico di funzione, che egli coglie e
denomina per primo: “Si dice che y è funzione di x quando a certi valori di x,
corrispondono valori determinati di y “. Proprio questo concetto di funzione ispira una
nuova dottrina della conoscenza, nella quale le idee, in quanto simboli della realtà, non
hanno bisogno di riprodurla a guisa di copie, ma consentono piuttosto di rappresentare
e di elaborare le relazioni che sussistono fra gli eventi reali, permettendo di raggiungere
una veduta razionale della realtà stessa. Dal punto di vista storico, questa radicale
trasformazione della comune veduta gnoseologica, apportata per la prima volta da
Leibniz, grazie al concetto di funzione, è di grande importanza, giacché permette di
superare in modo definitivo l'idea della conoscenza esatta come copia della realtà: “Non
occorre che ciò che conosciamo circa le cose esterne sia perfettamente simile ad esse, ma
occorre piuttosto che le esprima, come un'ellisse esprime una circonferenza vista
obliquamente, in modo che ad ogni punto della circonferenza ne corrisponde uno
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =5;!

A partire da tale concetto,


dell'ellisse, e viceversa, secondo una certa legge di relazione”.
Leibniz ripensa la distinzione democritea fra qualità primarie e secondarie,
assoggettandola ad un approfondimento importante. Nei Nuovi saggi sull'intelletto
umano egli osserva che idee come quelle di colore o di dolore non possono essere
“semplicemente arbitrarie, e prive di connessione naturale con le loro cause... Esiste qui,
fra causa ed effetto, una specie di somiglianza, la quale non si verifica fra i termini
stessi, ma ha piuttosto natura espressiva, e si fonda su un rapporto di corrispondenza,
così come un'ellisse o una parabola o un'iperbole assomigliano, sotto un certo aspetto,
alla circonferenza. Perciò le qualità secondarie, o qualità confuse dei sensi esprimono
proprietà reali dei corpi, anche se non sono assoggettabili alle analisi della matematica
e della dinamica, a cui si prestano invece le qualità distinte (grandezza, figura, moto...).
L'ottica, l'acustica, la meccanica, la termologia e la chimica—e, in una parola, tutti i
progressi della scienza del secolo—non dimostrano che il mondo dei sensi è una illusione.
Il compito di queste scienze esatte è soltanto quello di ridurre le qualità confuse dei
sensi alle qualità distinte che le accompagnano, come numero, grandezza, figura, moto
e solidità”. Solo grazie a tale riduzione—che riporta le qualità sensibili ad una
determinata struttura geometrica o cinematica—potremo assoggettare al calcolo e alla
dimostrazione i fenomeni del mondo sensibile. Tale riduzione non è, dunque, una
rivelazione della vera natura delle cose. Essa è resa necessaria, piuttosto, dalla natura
della nostra ragione, che deve servirsi dei concetti di grandezza, figura e movimento,
per riferire il reale a percezioni precise atte a renderlo intelligibile, in modo da
assoggettarlo al calcolo.
Così intesa, l’interpretazione meccanica dei fenomeni fisici non costituisce un
argomento a favore del materialismo (Leibniz nega addirittura l'esistenza della
materia), ma solo una prova che la realtà sensibile può e deve essere risolta in concetti
trasparenti all'intelligenza dell'uomo, cioè, in ultima analisi, in quelle relazioni logiche e
matematiche in cui esclusivamente risiede secondo Leibniz la verità. La teoria della
conoscenza ci porta così, anch'essa, alla veduta di un universo completamente
spirituale, in perfetto accordo con la dottrina dell'universo composto di monadi: “Nulla
è nell'intelletto che prima non sia stato nel senso, ad eccezione dell'intelletto stesso”
celebre assioma che già contiene in nuce quello che sarà il trascendentalismo kantiano.
=5=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

!"#$%&'&() !

La cosa più bella che possiamo sperimentare


è il mistero; è la fonte di ogni vera arte
e di ogni vera scienza

Einstein

!"#0-))-*-&)%#-#"3(4%+-%#
'-""(#$-**(&!*(#

7.1 Introduzione

Il secolo XVIII segna il culmine dello sviluppo della scienza moderna prima che
essa subisse la grande trasformazione, e la conseguente crisi che, iniziatasi nell'epoca
romantica, ha caratterizzato la scienza contemporanea. Il programma baconiano di
procurare il dominio dell'uomo sulla natura e con esso il benessere per la società umana
mediante il sapere scientifico, in questo secolo non appare un sogno utopistico, bensì
uno scopo non solo storicamente attuabile, ma anzi in rapida via di attuazione, donde
l'ottimismo circa le sorti del genere umano, e soprattutto circa le possibilità che a questo
possono derivare dallo sviluppo della ragione e della scienza.
Ma quello che più caratterizza la posizione del pensiero scientifico nel Settecento
è la centralità che viene assegnata alla scienza in tutta quanta la cultura, dalla politica
fino all'arte e alla religione. Il progresso delle scienze, i nuovi orizzonti che in virtù di
tali progressi esse vengono ad aprire facendo vaste brecce in tutti i campi della cultura
tradizionale, l'autorità di cui esse godono fanno sì che tutti i campi della cultura
vengano permeati di spirito scientifico e di fiducia in tale spirito. La scienza viene così a
costituire non solo e non tanto il fondamento materiale, quanto con una ripresa
dell'ideale cartesiano che va ben al di là dei limiti storici del cartesianesimo, un modello
da imitare. La mente umana ravvisa nella ragione scientifica la base della propria
sicurezza e della propria libertà il fondamento su cui edificare un sapere che la svincoli
dai terrori dell'aldilà e dai pregiudizi tradizionali. E questo atteggiamento sarà detto
Illuminismo e verrà assunto a definire non solo la cultura del Settecento ma un aspetto
ricorrente della civiltà occidentale di tutte le epoche e di tutte le nazioni.
Il Settecento, pur non annoverando, sul piano strettamente scientifico, figure
eccezionali e contributi originali come quelli dovuti nel Seicento a Galileo, Cartesio,
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =54!

Fermat, Newton, Huygens, Leibniz, è, però, nel Settecento che si consolida una vera e
propria cultura scientifica e si plasma in maniera definitiva il volto della civiltà
moderna, così come del resto accade sul terreno politico (dopo la preparazione del
Cinquecento, nel Seicento si consolidano le forme degli stati moderni, ma solo nel
Settecento si compie la rottura definitiva con le strutture medioevali e le loro eredità e
sorgono gli stati veramente moderni). E questo è dovuto certamente allo straordinario
contributo dell’Illuminismo, con la sua celebrazione della ragione come strumento
d’indagine libera e scevra da dogmatismi. Proprio per questo suo ruolo centrale in una
civiltà, quello che più interessa nella scienza settecentesca non è tanto la quantità di
progressi tecnici da essa realizzati, quanto lo sforzo che tutti gli scienziati esercitano per
dare un assetto il più possibile rigoroso alle loro discipline attraverso un paziente
lavorio di sviluppi analitici, di esposizioni sistematiche, spesso anche di
volgarizzamenti della scienza che appunto mira a metterne in rilievo i valori culturali
attraverso il tentativo di raggiungere un certo rigore. E perciò la stessa opposizione tra
empirismo e razionalismo si viene attenuando, degrada sempre più verso sfumature,
oscilla in conciliazioni eclettiche, finchè il genio di Kant non riesce a superare
l'opposizione stessa in una nuova e ardita posizione filosofica con la quale si apre il
pensiero contemporaneo, chiarendo in maniera definitiva le caratteristiche di un
autentico sapere. Non senza dimenticare i contributi di Berkeley e Hume soprattutto in
relazione alla loro influenza su Einstein (Hume) e sulle interpretazioni della meccanica
quantistica (Berkeley).

7.2 Il sogno di un mondo-orologio

Cartesio, Galileo, Bacone, Newton: sul piano della scienza e della filosofia la
cosiddetta età della modernità fu indubbiamente l'epoca di un profondo riassestamento
concettuale. Astronomia, fisica e cosmologia da un lato, metodo di ricerca filosofica
dall'altro, furono solidali e costanti nel procedere secondo una sola direzione, quella che
avrebbe portato a concepire il Mondo come un'unica grande macchina, il cui
meccanismo poteva rivelarsi banale a un'indagine condotta more geometrico, usando cioè
le costruzioni e le procedure tipiche della matematica. Galileo, inoltre, riteneva che la
descrizione del mondo dovesse attuarsi passando per una riduzione di tutte le sue
caratteristiche a quelle solamente che fossero quantificabili e misurabili. In questa
tendenza al riduzionismo lo seguivano Bacone con il suo metodo induttivo e assai più
da vicino Cartesio, con il suo dubbio metodico.
Con Cartesio la certezza della scienza fu sinonimo di chiarezza ed evidenza, il
probabile e l'oscuro vennero spazzati via, nel nome ovviamente di una
matematizzazione della conoscenza, di una geometrizzazione del sapere. La costruzione
della nuova immagine dell'universo in Cartesio fu essenzialmente la costruzione di una
macchina, un meccanismo perfetto al pari di un orologio, che rispondesse e vivesse
armonicamente in virtù dell'adeguata disposizione delle sue parti. Fu sempre il
riduzionismo a trionfare, la certezza matematica ebbe ragione anche dell'imponderabile
e dell'irrazionale.
Ma fu con Newton che l'immagine dell'universo-macchina, dell'ideale
riduzionista, ebbe il suo trionfo. Egli realizzò il sogno di Cartesio e sviluppò una
completa formulazione matematica della visione meccanicistica della natura. L'universo
=55! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

newtoniano era un immenso sistema meccanico governato da leggi assolute ed esatte,


leggi generali, valide per spiegare tanto la caduta di una mela dall'albero quanto i
movimenti dei pianeti. Nei Principia mathematica Newton mette subito in evidenza il
proprio atteggiamento riduzionista; anzitutto, gli elementi che formano il Mondo si
muovono, per il fisico, in uno spazio e in un tempo assoluti, non condizionati cioè dagli
eventi che si verificano dentro di essi, quindi eterni e immutabili. Questi elementi, poi,
sono particelle, atomi, formati tutti della stessa materia e messi in movimento dalla
forza di gravità, la quale agisce a distanza e istantaneamente. Nella meccanica di
Newton tutti i fenomeni fisici si riconducono al moto di particelle elementari e materiali
causato dalla loro attrazione reciproca; un'unica grande legge, quindi, a spiegazione
della molteplicità degli eventi del Cosmo. L'equazione del moto di Newton diventa così
la legge fondamentale del funzionamento dell'universo, la molla che carica l'orologio
perfetto di Cartesio, eterna e immutabile. In questa maniera si connettono fra loro, in
un'unione destinata a durare per tutto il Settecento e buona parte dell’Ottocento, la
visione meccanicistica della natura e il determinismo, cioè quell'atteggiamento che
tende a interpretare ogni fenomeno come la manifestazione di una semplice catena di
causa-effetto.
Era in fondo l'antico sogno greco dell'epistéme, di una conoscenza coerente e
completa. I Greci erano acutamente consapevoli del caos di fronte al quale si trovano i
nostri sensi, della confusione del mondo percepito. Essi, però, avevano la forte
sensazione che questa confusione non fosse la verità ultima del mondo, che al di là ci
fosse un principio supremo, semplice e unitario. Cominciarono gli Ionici, filosofi della
natura, a cercare l'Uno sotto il molteplice; seguirono le riflessioni di Parmenide ed
Eraclito che spostarono il problema dall'individuazione di una sostanza generale al
problema dell'Essere e del mutare. Anche i filosofi di scuola atomista, come Democrito,
Epicuro e Lucrezio, avevano manifestato l'esigenza di ridurre entro uno schema
comprensibile all'uomo, entro una struttura concettuale, l'immenso e il mutabile,
l'eterno e il divenire. La scuola di Platone e di Aristotele, in seguito, dominò lo scenario
filosofico: Aristotele, in particolare, sistematizzò tutte le conoscenze entro una rigorosa
struttura categoriale, ponendo le basi della scienza occidentale che, in virtù della sua
impostazione, si presenta organizzata e suddivisa in settori ben distinti e separati (la
fisica, la matematica, la chimica, ecc.), con oggetti e metodi specifici. Teniamo presente
che per questi scienziati filosofi la realtà delle cose, la loro esistenza, erano date dalla
relazione di forza e materia entro una struttura delineata; quella struttura era tutto il
Mondo conoscibile. E proprio il concetto di relazione, inteso come punto di vista
privilegiato per la conoscenza, che va considerato come l'eredità più feconda del
pensiero scientifico greco.
La scienza dell'età moderna aveva però sottovalutato questo aspetto della
questione, preferendo soffermarsi sulla determinazione assoluta delle leggi, creando
così delle chiusure, dei limiti alla comprensione messi in luce solo nel XX secolo, con la
crisi del modello riduzionista e meccanicista e l’affermarsi dell’indeterminismo della
meccanica quantistica e della relativizzazione dello spazio e del tempo.
Sul piano squisitamente teorico, questa distanza fra uomo e natura è stata resa
possibile, di fatto seppure inconsapevolmente, proprio dalla delineazione del cosiddetto
metodo sperimentale, grazie al quale, dietro alla maschera del dialogo con la natura, lo
scienziato nascondeva il bisogno di ritrovare confermati i propri schemi mentali, le
proprie strutture teoriche irrigidite in leggi.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =56!

Per tutto il Settecento la meccanica di Newton fu ritenuta così l'unica spiegazione


possibile per i fenomeni della natura, applicata con successo in ogni campo,
dall'astronomia alla chimica. Ne venne di conseguenza che tutte le branche della
scienza si uniformarono, nel metodo e nei principi, alla fisica, che divenne la regina
delle scienze, mentre Newton divenne il simbolo e il prototipo dello scienziato modello,
una figura quasi eroica, l'uomo che va alla conquista del Cosmo armato solo del suo
ingegno. Sembrava un sogno destinato ad avverarsi e a durare per sempre. Ma soltanto
un secolo dopo il senso di questa conquista pareva già perdersi, inesorabilmente,
insieme all'ideale di una conoscenza assoluta ed eterna.

7.3 La diffusione del newtonianismo

Per comprendere lo sviluppo delle ricerche fisiche nel Settecento occorre senza
dubbio collegarle alla grande eredità scientifica lasciata da Newton. La diffusione del
newtonianesimo nell’Europa continentale fu uno dei fatti più rilevanti della cultura
dell’epoca, ricco di riflessi in tutti campi del sapere, tenuto conto dell'ostacolo più
arduo che fu costretto a superare, il cartesianesimo, che s'era radicato nelle menti di
molti scienziati, anche inglesi. L’adesione al newtonianesimo assunse, però, due
significati alquanto diversi secondo che nel far proprie le teorie del grande pensatore
inglese, si intendeva porre in primo piano l’una o l’altra delle due fondamentali
esigenze metodologiche presenti nella sua opera: l’esigenza di inquadrare i fenomeni
naturali entro costruzioni generalissime rigorosamente elaborate in precise formule
matematiche, o quella di fondare le conoscenze fisiche su di una scrupolosa
sperimentazione, evitando il ricorso a gratuite ipotesi esplicative. Newton era riuscito
ad armonizzare con indubbia maestria queste due esigenze, scrivendo opere che
potevano venire considerate come esemplari da entrambi i punti di vista. È
incontestabile, però, che tali istanze indicavano due direttrici di ricerca tutt’altro che
coincidenti tra loro. Non deve pertanto stupirci se, nel Settecento, si delineano fra gli
stessi scienziati di origine newtoniana tendenze diverse, una delle quali accentua
soprattutto la necessità di sistemare il sapere scientifico in astratte teorie di carattere
matematico, mentre l’altra sottolinea principalmente la necessità di basare la fisica sopra
un’esatta descrizione dei fenomeni.

Il newtonianismo piantò il primo seme sul continente in Olanda: Willem J.


s'Gravesande (1688-1642) e Pieter van Musschenbroek (1692-1761) ne furono i primi
araldi. s'Gravesande nel suo trattato Elementi matematici di fisica, confermati da
esperimenti, ossia introduzione alla filosofia newtoniana (1719-20) presentò un corso di fisica
da impartire col sussidio di una serie di strumenti, molti dei quali di sua invenzione,
che divennero di uso corrente nei gabinetti di fisica dell'epoca. L'influenza dell'opera di
s’Gravesande sulla fisica sperimentale fu grandissima per buona parte del Settecento.
Musschenbroek si occupò principalmente di ottica ed elettricità, studiando la rifrazione
della luce e realizzando, nel 1745, un po' per caso, uno dei primi condensatori della
storia della fisica, più tardi perfezionato e noto come bottiglia di Leida. Comunque,
grazie ad entrambi, notevole fu la loro influenza sulla cultura francese, abbarbicata nei
primi decenni del Settecento al cartesianesimo. Il cartesianesimo dominava ancora
nell'Academie des sciences di Parigi, quando, nel 1734, Voltaire (1694-1778), nelle Lettres
=57! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

philosophiqes, si dichiarava newtoniano. Nel 1738 pubblicava gli Elements de la philosophie


de Newton, opera di volgarizzazione, che segna l'inizio della riscossa newtoniana negli
ambienti colti d'Europa. L'affermazione della nuova filosofia scientifica fu rapida:
quando comparve (1756) la prefazione dello stesso Voltaire alla traduzione francese dei
Principia, il newtonianismo era accettato da tutti gli scienziati europei, con qualche
eccezione non significativa.
Anche in Italia, dove il cartesianesimo aveva curiosamente trovato un modus
vivendi con la più radicata tradizione galileiana, l'introduzione delle idee di Newton fu
lenta e contrastata. Francesco Maria Zanotti (1691-1777) di Bologna è di solito
annoverato tra i primi newtoniani d'Italia. Tuttavia, l'efficacia della sua opera pare
dubbia, sia per i suoi trascorsi cartesiani, sia per il sospetto dei contemporanei di aver
voluto, più che difendere il newtonianismo, metterlo in ridicolo, sia per i suoi ritorni al
platonismo. Più incisiva fu l’opera del suo discepolo e amico Francesco Algarotti (1712-
1764), che nel 1737 pubblicò Il newtonianismo per le dame, una trattazione popolare,
divulgativa, tradotta in varie lingue, a dimostrazione del suo grande successo. L'opera
di Algarotti si inseriva in un movimento europeo di diffusione della scienza, che da una
parte era il naturale sviluppo del giornalismo scientifico sorto nel secolo precedente, e
d'altra parte era una necessità imposta dalla difficoltà del trattato di meccanica di
Newton, accessibile soltanto ai matematici (e non a tutti).
Nello stesso tempo che in Italia, le idee newtoniane penetravano in Germania,
tramite soprattutto la rinnovata accademia delle scienze di Berlino, mentre in Russia la
penetrazione era avvenuta alquanto prima per opera di Jakov Bruce o Brius (1670-
1735). Bruce, un militare di profondi interessi scientifici, divulgò in Russia la teoria
copernicana, tradusse parecchi libri scientifici occidentali, ebbe gran parte nella
fondazione dell’accademia delle scienze di Pietroburgo, lasciò una ricca biblioteca nella
quale figuravano tutti i maggiori scritti scientifici di Newton e i più importanti di
divulgazione di discepoli e amici; da questo centro s'irradiò il newtonianismo nell'allora
nascente scienza russa.

In definitiva, il secolo XVIII è caratterizzato dall'irrompere della scienza nella


cultura e perciò nella vita sociale. Dipinge bene il nuovo ambiente culturale il solo titolo
dell'Encyclopedie ou dictionnaire raisonné des sciences, des arts et des métiers, che, redatto
sotto la direzione di Diderot e D'Alembert, cominciò a comparire a Parigi nel 1751. Il
lavoro scientifico nel secolo fu principalmente di assimilazione, di sistemazione e di
critica. Con l'organizzazione dei laboratori fisici si migliorò la costruzione degli
strumenti, si assoggettarono a verifica i risultati sperimentali già ottenuti, si diffusero le
dottrine del secolo precedente, soprattutto quella newtoniana. Rispetto al secolo XVII , il
secolo in questione, dal punto di vista dichiaratamente scientifico, è certamente un
periodo meno brillante; non affiora alcuna grande idea nuova (tranne che alla fine del
secolo con l'elettrologia) e nessuna figura di scienziato è paragonabile a Galileo,
Huygens, Newton. Ma le intuizioni dei grandi scienziati del Seicento stavano come
vette isolate e compito del XVIII secolo fu di collegare questi picchi scientifici in uno
svolgimento continuo e ordinato, ottenuto attraverso l'impiego programmatico
dell'analisi matematica nello studio dei fenomeni fisici; fu questo il fatto più importante
del secolo per l'ulteriore sviluppo della scienza.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =58!

Se si volesse fare un bilancio sintetico dei progressi della fisica nel XVIII secolo, si
potrebbe forse dire: si afferma la meccanica di Newton che si trasforma nel corso del
secolo da geometrica in analitica; accanto e in un certo senso in conseguenza della
meccanica celeste, sorge in questo secolo la fisica matematica; si perfeziona la
termometria e si fonda la calorimetria; si assimila l'ottica di Newton senza sensibili
progressi; nella seconda metà del secolo sorge una nuova scienza, l’elettrologia.

7.4 L’illuminismo: libero e critico uso dell’intelletto

L'Illuminismo è quel movimento culturale che si sviluppa nel XVIII secolo nei
maggiori paesi d'Europa e che, pur non coprendo tutta l'area filosofica del Settecento,
rappresenta la voce più importante e significativa del secolo. Infatti, con l'Illuminismo ci
troviamo di fronte ad una svolta intellettuale destinata a caratterizzare in profondità la
storia moderna dell'Occidente. Prima di identificarsi con questo o quell'insieme di
dottrine, l'Illuminismo consiste anzitutto in uno specifico modo di mettersi in rapporto
con la ragione. Si afferma spesso che la sostanza di esso risiede in una esaltazione dei
poteri razionali dell'uomo. Ciò è senz'altro vero, ma non è ancora sufficientemente
caratterizzante, se non si aggiunge subito che l'Illuminismo è l’impegno di avvalersi
della ragione in modo libero e pubblico ai fini di un miglioramento effettivo del vivere.
Gli Illuministi ritengono infatti che l'uomo, pur avendo per natura quel bene prezioso
che è l'intelletto, non ne abbia fatto, nel passato, il debito impiego, rimanendo in una
sorta di minorità che lo ha reso preda di un insieme di forze irrazionali, da cui ha il
dovere di emanciparsi.
Pertanto, usare la ragione liberamente e pubblicamente, traducendo in concreto
l'oraziano sapere aude (abbi il coraggio di conoscere), significa quindi, per gli Illuministi,
assumere un atteggiamento problematizzante nei confronti dell'esistente e di ogni tesi
preconcetta, facendo valere il proprio diritto di analisi e di critica. Da ciò la battaglia
contro il pregiudizio, il mito, la superstizione e contro tutte quelle forze che hanno
ostacolato il libero e critico uso dell'intelletto, soffocando le energie vitali degli
individui: la tradizione, l'autorità, il potere politico, le religioni, le metafisiche, ecc. Da
ciò lo sforzo di sottoporre ogni realtà al “tribunale della ragione” e al vaglio
dell'intelletto, per distinguere il vero dal falso e per individuare ciò che può essere di
giovamento alla società. Questo concetto della ragione come organo di verità e
strumento di progresso, ossia, per usare una metafora cara agli Illuministi, come lume
rischiaratore delle tenebre dell'ignoranza e della barbarie, implica una mutata
interpretazione dell'intellettuale e del suo compito tra gli uomini. Per gli Illuministi il
filosofo, intendendo con questa espressione non solo il pensatore in senso stretto e
tecnico, ma l'intellettuale in genere, non è più il sapiente avulso dalla vita e dedito alle
speculazioni metafisiche, ma un uomo in mezzo agli altri uomini, che lotta per rendere
più abitabile il mondo e che si sente utile al consorzio civile.
L'esaltazione della ragione e della libertà, il rifiuto del dogmatismo e
dell'autoritarismo, la critica del presente e la denuncia delle istituzioni oppressive del
passato, l'impegno nelle riforme, lo sforzo verso il progresso e la diffusione della cultura
costituiscono dunque per gli Illuministi, altrettante manifestazioni concatenate di un
unico atteggiamento globale di fronte al mondo.
=59! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

L’Illuminismo non nasce nel vuoto, perché sorge nell'ambito di determinate


circostanze storiche, innestandosi su alcune linee di sviluppo della società e della
cultura moderna. Innanzitutto, l'Illuminismo manifesta un legame con la civiltà
borghese e protocapitalistica europea, e quindi con quella classe sociale che dal
Cinquecento in avanti è apparsa economicamente in espansione e politicamente in
ascesa, fungendo da forza trainante di quel fondamentale evento storico che è la
Rivoluzione inglese. Anzi, da un certo punto di vista, l'Illuminismo si configura come
l'espressione teorica e l'arma intellettuale del processo di avanzamento della borghesia
settecentesca. Quest'ultima rappresenta infatti la classe oggettivamente portatrice del
progresso, ossia la forza sociale che nel suo dinamismo crescente appare desiderosa di
sottomettere a sé la natura e la società, rompendo con il passato e le sue consuetudini,
incarnate, ai suoi occhi, dalle sopravvissute istituzioni feudali e dalla chiesa. Da ciò la
lotta contro i pregiudizi, le tradizioni, i privilegi arbitrari, le ideologie del potere, ecc. e
la ricerca di una razionalizzazione del vivere tramite lo sviluppo economico, scientifico
e politico, ai fini del raggiungimento di un nuovo ordine umano e di una egemonia
culturale antitetica a quella precedente.
Questo manifesto legame tra l’Illuminismo e borghesia è confermato del resto
dall'estrazione di classe dei suoi rappresentanti, per lo più borghesi, e dall'ideale umano
delineato dal secolo dei lumi. Infatti, se la civiltà comunale aveva celebrato l'intellettuale
laico in contrapposizione a quello ecclesiastico, se l'Umanesimo aveva onorato il filosofo
e il letterato amante dei classici, se il Rinascimento aveva magnificato il cortigiano colto
e raffinato, l'Illuminismo si rispecchia nelle figure del filosofo e del mercante. E tutto ciò
non è affatto contraddetto dalla presenza, nelle file degli Illuministi, di alcuni
aristocratici, in quanto si tratta per lo più di una nobiltà dedita ad attività e a modi di
vita della borghesia, e quindi facilmente portata a riconoscersi nelle esigenze di essa. E
nel caso dei sovrani illuminati si tratta di regnanti che vogliono andare incontro alle
richieste delle forze economicamente e intellettualmente più vive delle loro nazioni.
Erede del Rinascimento, l'Illuminismo lo è altrettanto della Rivoluzione
scientifica. Anzi, sotto certi punti di vista, l'Illuminismo può essere considerato come il
prodotto filosofico per eccellenza di tale evento, come l’espressione più matura e
consapevole. Solo il movimento complessivo dell'Illuminismo, che ha visto nel metodo
scientifico il modello del sapere, e lo ha contrapposto alle metafisiche tradizionali,
cogliendone e propagandandone la connessione con il progresso civile, rappresenta la
vera e propria filosofia della Rivoluzione scientifica e la coscienza più adeguata di essa.
Solo con l'Illuminismo la scienza, ultima nata della cultura occidentale, pone la sua
candidatura al primo posto nella gerarchia delle attività conoscitive.
Questo legame strutturale fra la scienza e l'Illuminismo (e quindi fra scienza e
borghesia) è tanto più evidente se si pensa che, se l'Illuminismo può essere visto come il
punto di arrivo della Rivoluzione scientifica, quest'ultima può essere interpretata, per
certi versi, come il punto di partenza dell'Illuminismo. Infatti, la battaglia galileiana
contro il principio di autorità e i dogmi intellettuali del passato, la sua polemica contro i
teologi e la metafisica, la sua fiducia nella ragione e nell’esperienza, la ricerca di un
sapere fondato e proficuo, rappresentano, al di là della consapevolezza dello scienziato
stesso, altrettante posizioni potenzialmente illuministiche. Rifacendosi idealmente ad
esse e ispirandosi al sogno baconiano di una civiltà scientifica in grado di
padroneggiare la natura, l'Illuminismo crede infatti nella realizzazione dell'uomo
tramite un sapere vero e utile al tempo stesso. Da ciò l'ottimistica esaltazione della
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =5:!

scienza (vista solo nei suoi aspetti positivi e non anche in quelli potenzialmente
negativi) e la lotta aperta contro tutte le forze che potrebbero ostacolarla: i pregiudizi,
l'autorità delle metafisiche, i dogmi delle religioni, ecc. Da ciò l'ideale di estendere il
baconiano “sapere è potere” dalla natura alla società, mediante la costruzione di una
scienza dell'uomo in grado di comprendere e dominare a proprio vantaggio i
meccanismi economici, politici e morali. Programma razionalistico e programma
scientifico, appello alla ragione e richiamo alla scienza, divengono quindi, per gli
Illuministi, una cosa sola, poiché nel sapere positivo essi, vedono il frutto principale
della ragione e la concretizzazione vivente del suo potere nel mondo e fra gli uomini.
L'Illuminismo è anche l'erede delle due grandi scuole filosofiche dell'età
moderna: il razionalismo e l'empirismo. Quando Cartesio, nel Discorso sul metodo,
stabilisce che si debba accettare per vero solo ciò che appare alla mente in modo
evidente, dà avvio al razionalismo, ma nel contempo pone le basi dell'Illuminismo e
della sua idea di un esercizio autonomo e spregiudicato dell'intelletto. Tuttavia, nei
confronti del razionalismo, l'Illuminismo appare contrassegnato, in primo luogo, da una
rigorosa autolimitazione della ragione nel campo dell'esperienza. Infatti, la ragione
cartesiana aveva subìto, per opera di Locke e della metodologia scientifica di Newton,
un ridimensionamento, che l'aveva trasformata da deposito infallibile di idee innate in
un semplice strumento di acquisizione metodica di nuove conoscenze. In virtù di
questo ridimensionamento, la ragione non può fare a meno dell'esperienza, perché è
una forza che si nutre di essa e che funziona solo all'interno del suo orizzonte, fuori del
quale non sussistono che problemi insoluti o fittizi. L'Illuminismo fa sua questa lezione
di modestia e polemizza contro il dogmatismo e contro la presunzione della ragione
cartesiana.
Dall'altro lato, pur essendo fortemente influenzato dall'empirismo, il concetto
illuministico di ragione si distingue da quest'ultimo sia per una maggior fiducia nei
poteri intellettivi dell'uomo (si pensi agli esiti scettici del filosofare humiano), sia per
un'accentuazione della loro portata pratica e sociale. Una ragione operante all'interno
dell'esperienza e criticamente rivolta ad approfondire ogni aspetto dell'esistenza umana
ai fini del progresso sociale: ecco la ragione illuministica e il suo inconfondibile e
irriducibile tratto di originalità.

7.5 L’immaterialismo di Berkeley e l’empirismo radicale di Hume

Il Trattato dei principi della conoscenza umana, pubblicato da Giorgio Berkeley


(1685-1753) nel 1710 affronta già con rigore i problemi lasciati aperti da Locke
soprattutto in relazione al rapporto tra la realtà mentale e la realtà esterna alla mente.
Per Locke alle idee astratte non corrisponde nulla nella realtà esterna alla mente;
Berkeley mostra che esse non esistono nemmeno nella mente. Ma il gran passo innanzi
di Berkeley consiste nel modo in cui egli mostra che non esiste alcuna realtà materiale al
di fuori della mente, non percepita da questa. Questa tesi era già stata avanzata da
Leibniz, ma l'argomentazione di Berkeley è completamente diversa, non implica alcuna
teoria metafisica, è semplice e stringente.
Le idee esistono nella mente. Dire che le cose estese, colorate, pesanti, calde,
rumorose, cioè le varie idee di cose estese, colorate, pesanti, calde, rumorose esistono
nella mente non significa che la mente sia estesa, colorata, pesante, calda, rumorosa, ma
=6<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

significa che tali idee sono percepite dalla mente. Si tratta di comprendere che:
“l'esistenza di un'idea consiste nell'esser percepita”. Tutti riconoscono che le idee
presenti nei nostri pensieri non possono esistere senza la mente; ma anche tutte le
sensazioni e tutte le cose sensibili sono idee, e dunque non possono esistere se non in
una mente che le percepisce. Dire che il tavolo su cui scrivo esiste, significa che lo vedo
e lo sento, cioè lo percepisco; e se io mi trovassi in un'altra stanza, direi che questo
tavolo esiste: “intendendo con ciò che se io fossi nel mio studio lo potrei percepire o che
qualche altro spirito attualmente lo percepisce”. Ebbene, affermare che delle cose non
pensate esistono in sé stesse, assolutamente, cioè senza alcuna relazione al loro essere
percepite, implica una manifesta contraddizione. Sembra che non vi sia nulla di più
facile che pensare case, montagne, fiumi e insomma tutte le cose della natura, senza che
vi sia alcuno a percepirli. Ma questo pensare non è altro che formare nella mente certe
idee, omettendo l'idea di qualcuno che le percepisce, e cioè dimenticando che ci siamo
qui noi a percepirle e a pensarle. Per poter concepire che gli oggetti della nostra mente
esistono al di fuori della mente: “è necessario che voi possiate concepire che essi esistono
non concepiti, o non pensati; la qual cosa è una contraddizione manifesta”. Cioè “la
mente, non accorgendosi di sé stessa, si illude, pensando, di poter concepire che esistano
corpi non pensati dalla mente o fuori di essa”.
Se l'affermazione dell'esistenza di cose al di là della mente e non percepite è una
contraddizione manifesta, l'esistenza delle cose percepite dalla mente, e tali cose sono
appunto le idee, consiste nel loro essere percepite. “Il loro esse [essere] è percipi [essere
percepite]”. Anche per Cartesio e tutti i filosofi moderni che precedono Berkeley, l'esse
delle idee è il loro percipi. La novità di Berkeley consiste nell'escludere, e più
precisamente nel modo in cui si esclude, che al di fuori di questo esse (cioè al di fuori
dell'essere mentale) vi siano delle cose materiali che agiscono sulla mente e che sono i
modelli di cui le idee sono copie più o meno fedeli. Si tratta della negazione più
radicale dell'esistenza della materia; ma si deve anche dire che questa è la materia dei
filosofi, e cioè la res extensa, non è la materia in cui si imbatte ogni giorno il senso
comune degli uomini. Segue, da quanto si è detto, che per Berkeley non può esistere
altra sostanza che quella spirituale ("spirito", "anima," "io", "mente") e che le qualità
sensibili non possono avere come substratum una sostanza materiale o corporea (che da
Cartesio a Locke è intesa appunto come una cosa esterna alla mente).
Il fondamento del sapere rimane per Berkeley l'indubitabilità dell'esistenza
dell'io e di tutto ciò che è percepito dall'io, l'indubitabilità che Cartesio ha posto a
fondamento dell'episteme. Ma né la ragione né i sensi, per Berkeley, possono condurre
all'affermazione dell'esistenza della materia esterna: non la ragione, perché gli stessi
difensori di questa sua funzione escludono che esista una connessione necessaria tra i
corpi e la mente; non i sensi, perché “la testimonianza del senso non può essere portata
come prova dell’esistenza di qualcosa che non è percepito dal senso”.
Che cosa può essere allora considerato reale, visto che non possiamo sperare di
paragonare le nostre percezioni ad un mondo esterno? Reale è, secondo Berkeley, ciò
che viene da noi percepito secondo una certa uniformità, costanza e regolarità; reali
sono quei gruppi di sensazioni che, a differenza dei prodotti vaghi e continuamente
mutevoli della fantasia e del sogno, si presentano alla percezione come immutabili,
omogenei, costanti, uniformi. Il criterio di realtà non è quindi nelle cose, bensì in noi, in
un canone del loro venire percepite da parte della nostra coscienza. Non solo, questa
costanza e uniformità del reale non può essere basata su argomentazioni razionalistiche,
ma esclusivamente sull’esperienza. E tuttavia non è l’esperienza da sola che ci fa dire
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =6;!

che cosa sia reale e cosa no; è un criterio ideale, o meglio coscienziale: l’uniformità e la
costanza con cui percepiamo. Questa coincidenza tra criterio di realtà e criterio di
uniformità porta Berkeley, per tanti versi antinewtoniano, ad un giudizio molto vicino a
quello che Newton aveva dato della legge scientifica. Anche per Berkeley, reale è ciò che
è possibile di una legge scientifica universale e necessaria; anche per Berkeley, la
spiegazione di un fatto risulta così ridotta ad una sua correlazione rigorosa con i fatti
che l’hanno preceduto e con quelli che lo seguono, senza che abbia luogo la pretesa di
conoscere la causa ultima, il substrato ultimo dei fenomeni.
Per Berkeley l'immaterialismo rafforza la nuova scienza della natura, liberandola
da quelle oscurità che ne compromettono lo sviluppo. Ne risulta una concezione
singolarmente moderna della scienza, in particolare della fisica (si pensi alla
interpretazione della meccanica quantistica). Per quanto riguarda la fisica, Berkeley
rileva che mediante l'osservazione possiamo scoprire le leggi generali della natura che
però non hanno valore assoluto, perché non si può essere certi che “l’autore della
natura operi sempre conformemente”. Tali leggi non indicano "cause", ma "segni". “Il
fuoco che io vedo [cioè il fuoco come fenomeno ottico] non è la causa del dolore che
soffro avvicinandomi ad esso, ma è il segno che mi previene di questo fatto”. L'aspetto
visibile, in quanto visibile, non può essere la causa di un'impressione tattile; e d'altra
parte, che il fuoco visibile sia quello stesso oggetto che produce calore è solo un'ipotesi,
e l'ipotesi avanzata appunto dal segno che indica l'esistenza del calore. La natura non
appare come un nesso di cause e di effetti, ma piuttosto come un linguaggio che va
interpretato.
È chiaro inoltre che per Berkeley è inaccettabile la distinzione di Newton tra
tempo e spazio assoluti (o "matematici", o "puri") e tempo e spazio relativi (o
"apparenti"): appunto perché tempo e spazio assoluti (e il concetto correlativo di "moto
assoluto") sono "assoluti", proprio perché sono intesi come non percepiti e non
percepibili, e quindi implicano quell'assurdità che è propria del concetto di una realtà
non percepita. Ma Berkeley ritiene che la fisica non abbia bisogno di tali entità
metafisiche. È la concezione della scienza che risulterà vincente nell'ambito della
epistemologia contemporanea.
Infine, a differenza di Locke, Berkeley, anticipando Hume, critica il principio di
causalità mostrando che tra le idee non può esistere un rapporto causale. Ma anche
Berkeley, come Locke e Cartesio, ritiene che le idee attualmente percepite dai sensi, le
idee che "impressionano" i nostri sensi, siano l'effetto di un'azione esercitata sulla mente
da parte della realtà esterna. L'innovazione di Berkeley è che questa realtà esterna non
può essere altro che una mente, e precisamente la Mente infinita di Dio.

L'effettivo passo innanzi di Davide Hume (1711-1776) rispetto a Berkeley


riguarda la sua critica al principio di causalità e all'affermazione dell'esistenza di un
qualsiasi tipo di sostanza. Per Hume, tutte le percezioni della mente si dividono in due
classi: le "impressioni" e le "idee". Le "impressioni" sono le percezioni che hanno più
forza, intensità, potenza, e comprendono non solo quelle percezioni che Locke e
Berkeley (e naturalmente non solo essi) chiamano "sensazioni", ma anche le emozioni, le
passioni, i sentimenti, le varie forme di volizioni e di desideri e in genere tutto ciò che
Hume chiama "sensazione interna", per distinguerla dalle sensazioni degli oggetti
esterni. Hume usa il termine "impressioni" come sinonimo di "esperienza". D'altra parte,
ciò che Hume chiama "idea" non comprende soltanto le idee che per Locke sono
ottenute dalla "riflessione", ma anche tutte le idee che Locke chiama "complesse" e che
=6=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

sono costruite dalla mente; e ci si spiega quindi perché, per Hume, il pensiero e le idee
non appartengono all' esperienza.
Dunque: tra le percezioni della mente, alcune (le impressioni) sono più intense e
costituiscono l'esperienza; tutte le altre (le idee) sono meno intense e costituiscono ciò
che viene chiamato il "pensiero". Ma non solo le impressioni hanno più intensità delle
idee, esse sono anche i modelli, gli originali, di cui tutte le idee sono immagini e copie
più o meno adeguate. Il che è comprovato anche dal fatto che le impressioni precedono
sempre le idee corrispondenti. Nel Trattato sulla natura umana (1739) Hume dice che: “le
nostre impressioni sono causa delle nostre idee, e non viceversa”. Le idee sono le
“immagini sbiadite” che ci rimangono delle impressioni e di cui facciamo uso nel
pensare e nel ragionare. Con un'operazione analoga a quella di Locke e di Berkeley, per
stabilire il valore di ogni conoscenza umana che pretenda avere come contenuto il reale,
si deve poter ricondurre tale conoscenza all'esperienza. È vero che Hume,
dell'esperienza, sottolinea soprattutto la sua maggior intensità e forza rispetto al
pensiero. Ma questa maggior potenza delle impressioni è il corrispettivo della minor
potenza della mente rispetto a esse.
Dall’analisi che Hume fa sulle idee e le loro connessioni, discende la possibilità di
distinguere due tipi fondamentali di conoscenze: quelle concernenti le “relazioni tra
idee” e quelle concernenti le “materie di fatto”. Il teorema di Pitagora esprime una
relazione tra idee, nel senso che per dimostrarlo non c’è bisogno di far ricorso
all’esperienza. Che domattina sorgerà il sole, non è verità che si possa dedurre dallo
studio delle relazioni intrinseche all’idea, derivata dall’impressione sensibile, che oggi
ed in passato il sole è sorto. La verifica di una proposizione come “domani sorgerà il
sole” è demandata all’esperienza, che sola può certificarla, e rappresenta una
conoscenza delle “materie di fatto”. Mentre è inconcepibile ammettere la falsità del
teorema di Pitagora, il contrario di ogni materia di fatto è sempre possibile. Le scienze
matematiche hanno quindi tre caratteristiche fondamentali che le distinguono dalle
conoscenze concernenti materie di fatto: sono a priori, necessarie, sintetiche. A priori
perché possono essere escogitate con una pura operazione di pensiero, tanto che “anche
se non esistessero in natura circoli o triangoli, le verità dimostrate da Euclide
conserverebbero sempre la loro certezza ed evidenza”. Necessarie perché il contrario di
una verità matematica implica una contraddizione che non può essere accettata dalla
mente. Sintetiche perché accrescono le conoscenze umane, consentendo di scoprire
proprietà, teoremi, ecc. prima ignoti.
Nel campo delle “materie di fatto”, invece, sono possibili tre forme di relazioni
assai diverse: quella di identità (una cosa è identica a se stessa); quella di contiguità
spazio-temporale (una cosa è vicina o lontana, nello spazio o nel tempo, ad un’altra);
quella di casualità (una cosa è causa di un’altra). Hume dimostra, poi, che le prime due
possono essere ridotte alla terza, giacchè quando, ad esempio, percepiamo del fumo, e
ne inferiamo che poco distante (contiguità spaziale) deve esserci del fuoco, in ultima
analisi ci basiamo sulla relazione causale che il fumo è un effetto del fuoco; quando oggi
vediamo un amico, e rivedendolo domani gli applichiamo la relazione di identità per
cui pensiamo che sia la stessa persona, ci basiamo ancora una volta, in ultima analisi,
sulla relazione di causalità. In conclusione “tutti i ragionamenti riguardanti le materie
di fatto sembra che siano fondati sulla relazione di causa ed effetto. Solo per mezzo di
questa relazione si può andare al di là di ciò che risulta evidente per la testimonianza
della memoria e dei sensi”.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =64!

Dunque, tutti i ragionamenti intorno alla realtà, osserva Hume, sono fondati
sulla relazione di causa ed effetto, cioè sul principio di causalità. Ma la conoscenza di
questa relazione non può essere raggiunta ragionando a priori, come abbiamo visto, e
cioè indipendentemente dall'esperienza: tale conoscenza "sorge interamente
dall'esperienza". Hume perviene a questa tesi nel modo seguente. Supponiamo di
percepire una palla di biliardo A, in movimento verso la palla B. (A in movimento verso
B, o A che diventa contigua a B, è considerata normalmente come causa del movimento
di B, e questo movimento come effetto del movimento di A). E supponiamo che ci
venga fatta una duplice richiesta:
1. stabilire quale effetto si produrrà quando A toccherà B;
2. rispondere a questa prima domanda senza basarsi sulle osservazioni fatte in
passato a proposito di situazioni analoghe.
Di fronte a questa duplice richiesta, la nostra mente non può che "inventare", o
"immaginare", arbitrariamente, l'effetto che si produrrà quando A toccherà B. Giacché
l'effetto (il movimento determinato di B) è un evento diverso dalla causa (cioè dal
movimento di A verso B), e quindi la conoscenza dell'evento in cui consiste la causa non
potrà mai far conoscere l'evento in cui consiste l'effetto. Proprio perché causa ed effetto
sono eventi diversi, è impossibile che, conoscendo una certa causa, si riesca a conoscere
a priori (cioè prescindendo dalle esperienze passate) quale effetto verrà prodotto da tale
causa. Proprio perché la causa e l'effetto sono eventi diversi, quando l'effetto non si è
ancora prodotto noi possiamo dunque affermare, a priori, tanto che A, toccando B,
muoverà B, quanto che non lo muoverà; e inoltre possiamo affermare tanto che lo
muoverà in un certo modo, quanto che lo muoverà in infiniti altri modi. Tutti i nostri
ragionamenti a priori non potranno legittimare la preferenza accordata a una di queste
svariate possibilità.
Conclusione: senza l'osservazione e l'insieme delle nostre esperienze passate sul
comportamento delle palle da biliardo, ci è assolutamente impossibile sapere se A,
toccando B, lo muova e quale movimento gli imprimerà. La conoscenza della relazione
tra causa ed effetto e tutte le conclusioni che riguardano tale relazione sono interamente
fondate sull'esperienza.
Ma a questo punto, Hume si chiede: “Qual è il fondamento di tutte le conclusioni
che sono tratte dall'esperienza?”. In passato abbiamo esperimentato che il cibo sfama,
l'acqua disseta, i corpi sono resistenti, il fuoco brucia, la nostra volontà guida i
movimenti del nostro corpo, la palla di biliardo A muove B in un certo modo. Sono tutti
esempi di relazioni causali; e la nostra vita non sarebbe possibile se non estendessimo al
futuro queste nostre esperienze passate. Si tratta però di comprendere che se in passato
abbiamo esperimentato che un certo evento è seguito da un certo altro evento, da ciò
non segue necessariamente che il ripresentarsi di eventi simili al primo debbano essere
sempre seguiti dal ripresentarsi di eventi simili al secondo. Non vi è alcuna
contraddizione a supporre che il corso della natura abbia a cambiare e che un evento
simile a quello già esperimentato possa essere accompagnato da eventi diversi o
contrari a quelli che in passato hanno accompagnato quel primo evento. Ma non è
nemmeno possibile dimostrare la regolarità della natura, perché ogni ragionamento
intorno alla realtà è fondato appunto sul principio di causalità, che presuppone come
esistente appunto quella regolarità della natura, che invece si vorrebbe dimostrare sul
fondamento di esso. Anche ammettendo che il corso delle cose sia sempre stato
=65! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

regolare, questo fatto non costituisce dunque la minima prova che anche per il futuro
sarà così.
Inoltre, sia che consideriamo gli oggetti esterni (=sensibili), sia che si consideri il
rapporto tra la nostra volontà e il nostro corpo, l'esperienza non attesta mai l'esistenza
di un "potere", di una "forza", di una "energia", esplicati da ciò che chiamiamo "causa"
su ciò che chiamiamo "effetto"; e non attesta nemmeno l'esistenza di una "connessione
necessaria" tra i due: l'esperienza non attesta mai, cioè, una qualsiasi qualità “che leghi
l'effetto alla causa e faccia del primo un'infallibile conseguenza dell'altra”, l'esperienza
attesta soltanto che l'uno segue all'altra: “… tutti i ragionamenti che riguardano la
causa e l’effetto sono fondati sull’esperienza e che tutti i ragionamenti desunti
dall’esperienza sono aloro volta fondati sulla supposizione che il corso della natura
continuerà uniformemente lo stesso. Noi concludiamo allora che cause simili, in
circostanze simili, produrranno sempre effetti simili”. Il principio di causalità è dunque
una congettura. La sua evidenza non ha un valore logico, ma psicologico: l’abitudine a
percepire che certi eventi simili tra loro sono seguiti da certi altri eventi simili tra loro,
determina un sentimento di credenza e di fede, in base al quale l'uomo si aspetta che,
verificandosi un certo evento del primo tipo, se ne verifichi un'altro del secondo tipo.
Ma se l'esperienza non attesta l'esistenza di forze o di connessioni necessarie causali,
tanto meno attesta il rapporto causale tra Dio e le cose. E, privata del principio di
causalità, la mente non può in alcun modo dimostrare l'esistenza di Dio, così come non
può dimostrare l'esistenza di una realtà esterna che sia la causa delle nostre percezioni
degli oggetti sensibili.
Sono quindi due gli aspetti decisivi della critica di Hume al principio di causalità.
Innanzitutto, il rilievo che, essendo la cosiddetta causa e il cosiddetto effetto due cose
diverse, la nozione o il concetto dell'una non include la nozione o il concetto dell'altro, e
quindi per sapere che l'una è collegata all'altro bisogna rivolgersi all'esperienza. Al
contrario, nelle proposizioni che non si riferiscono alla realtà e che quindi esprimono
semplici relazioni tra idee, è il caso delle proposizioni matematiche, la nozione del
soggetto può includere la nozione del predicato. Ad esempio, la nozione di "10+5"
include la nozione di "15" e quindi per affermare "10+5=15" non c'è bisogno di riferirsi
all'esperienza. Il secondo rilievo decisivo è che quanto è attestato incontrovertibilmente
dall'esperienza è soltanto un insieme di fatti e questa attestazione, da un lato, non
esclude che i fatti possano susseguirsi in modo diverso da quello cui siamo abituati,
dall'altro lato non contiene nulla di simile a una forza o a una connessione necessaria tra
i fatti.
Se il fondamento di tutti i ragionamenti intorno alla realtà è il principio di
causalità e se tale principio deve avere il suo fondamento nell'esperienza, e quindi è
soltanto una congettura priva di necessità e universalità, appare allora come la filosofia
di Hume venga a operare una riduzione radicale dell'estensione della ragione, e cioè
dell'episteme: la ragione può avere come contenuto reale solo quello che per Cartesio era
il punto di partenza della ragione, ossia il contenuto immediato della mente,
l'indubitabilità delle nostre percezioni. Ogni credenza metafisica è priva di valore
razionale. E anche ogni conoscenza scientifica. Con l'avvertenza che la scienza, a
differenza della metafisica, ha una utilità pratica che la rende indispensabile. Di
conoscenze universali e necessarie ne esistono certamente, ma non sono conoscenze
intorno alla realtà, bensì intorno alle relazioni che sussistono tra semplici idee. E, come
si è accennato, il caso delle proposizioni matematiche.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =66!

L’analisi humiana della causalità eserciterà un’influenza decisiva su Einstein e


sui neopositivisti. Basti ricordare l’estrema importanza della conclusione che afferma il
carattere meramente soggettivo della necessità tradizionalmente attribuita al legame fra
causa ed effetto. È una conclusione che, per un lato, metterà in crisi la pretesa dei
metafisici di fare appello al legame causale per risalire dal mondo dell’esperienza a una
realtà assoluta non esperibile; per l’altro, autorizzerà epistemologi e scienziati a tentare
nuove formulazioni di quel nesso fra i fenomeni, che costituisce l’oggetto principale di
ogni ricerca scientifica.
Questi risultati diventano ancora più radicali in relazione alla critica di Hume
all'idea di sostanza. Locke aveva affermato l'inconoscibilità della sostanza, e Berkeley
aveva negato l'esistenza di ogni sostanza materiale. Hume mostra che, come la mente
non possiede alcuna idea di causa, effetto, connessione necessaria, forza, potere e che
queste parole sono completamente sprovviste di senso, altrettanto accade per ciò che
viene chiamato "sostanza". Anche in questo caso, non esiste alcuna impressione
corrispondente all'idea di sostanza, sia materiale che spirituale; cioè quest'ultima non è
un’idea, ma soltanto una parola sprovvista di senso (appunto perchè non riconducibile
all'esperienza). Quindi, in quanto per Hume il principio di causalità è privo di valore
conoscitivo, è priva di tale valore anche ogni affermazione dell'esistenza della sostanza,
giacché tale affermazione si fonda appunto su quel principio.
A proposito dello spazio e del tempo, Hume sviluppa considerazioni molto simili
a quelle di Berkeley. Quest'ultimo sottolinea che lo spazio puro e il tempo puro,
considerati cioè facendo astrazione da tutti i corpi e gli eventi, sono, appunto, idee
astratte, cioè contraddittorie, e quindi non esistono nemmeno come "idee" (nel senso che
Berkeley dà a questo termine). Hume ribadisce che l'esperienza non attesta nulla di
simile allo "spazio puro" e al "tempo puro", ma solo corpi aventi una certa estensione e
eventi che si succedono con un certo ordine. Anche per Hume, quindi, la struttura
teorica della fisica e della matematica del suo tempo deve essere liberata da quegli
impedimenti dogmatici che la mettono in contrasto con l'esperienza. La conoscenza
della realtà può dunque avere soltanto un contenuto empirico, non è cioè possibile una
conoscenza a priori della realtà. Ma Hume è ben lontano dall'affermare che non esista
altra realtà oltre l'esperienza. La ragione non può spingersi oltre l'esperienza; la natura
dell'uomo spinge l'uomo a credere che esista una realtà esterna e indipendente da lui.
Ma il motivo per il quale Hume nega che l'esperienza sia la totalità della realtà non è
che la natura umana spinge ad avere fede nella realtà esterna (questa fede ha infatti solo
un valore pratico, non conoscitivo), ma è che per Hume la natura umana non è la natura
del Tutto, ossia non coincide con la totalità della realtà.
In altri termini: Berkeley è giunto alla negazione della sostanza corporea; Hume
nega l'esistenza di ogni tipo di sostanza (cioè anche di quella spirituale) e, in particolare,
nega che la ragione, in quanto fondata sul principio di causalità, possa dimostrare
l’esistenza di qualsiasi cosa esistente al di là dell'esperienza (e innanzitutto l'esistenza di
Dio); tuttavia, anche se Hume non è mai esplicito su questo punto, al di là
dell'esperienza e della natura umana, per Hume esiste pur sempre un qualcosa, senza di
cui non avrebbe nemmeno senso parlare di esperienza e di natura umane, e senza di cui
non avrebbe nemmeno senso affermare che noi abbiamo a che fare soltanto con
percezioni: il concetto di percezione non rinvia forse inevitabilmente al concetto di ciò a
cui la percezione si riferisce? Il concetto di percezione non è forse inevitabilmente
relativo, e quindi relativo (se è vero che ciò che conosciamo immediatamente sono
=67! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

soltanto percezioni) a ciò che esiste al di là della percezione, ossia al di là


dell'esperienza? Appunto questo sarà messo in rilievo da Kant, nel contesto di un
grandioso ripensamento dei risultati raggiunti dalla filosofia razionalistica e empiristica.

7.6 La scienza nuova di Vico

Il pensiero di Gianbattista Vico (1668-1744), attraverso la scoperta di un nuovo


criterio della conoscenza scientifica descritto nel suo capolavoro Scienza nuova (1730), si
caratterizza per l’anticartesianesimo. Vico rimprovera a Cartesio e ai cartesiani
soprattutto la pretesa di fondare la certezza conoscitiva unicamente sul criterio
dell’evidenza e quindi di ammettere come scientificamente valide le sole spiegazioni
ricavabili per via razionale da principi in sé evidenti. Il filosofo italiano obietta che il
criterio dell’evidenza non offre in realtà la benchè minima garanzia; qualunque idea
infatti, sia pure falsa, può apparire evidente a colui che la pensa. Da questa premessa
metodologica al rifiuto dell’argomento cartesiano del cogito il passo è immediato: Vico
non nega che dalla coscienza di pensare discenda con certezza la coscienza di esistere,
ma nega che questa coscienza sia un autentico sapere.
Di qui l’assurdità di voler partire dal cogito, quale verità prima, assoluta e
indubitabile, per giungere all’esistenza di Dio, e poi di voler ricavare dalle proprietà
attribuite all’ente supremo la garanzia assoluta della realtà della natura, nonché la
conoscenza necessaria delle leggi supreme che la governerebbero. La polemica di Vico
contro ogni apriorismo della fisica è serrata e implacabile, non mancando di spunti
ancora oggi validi. Nel modo di procedere dei fisici cartesiani (e di molti fisici
matematici) si nasconde, a suo parere, un gravissimo pericolo: quello di confondere la
macchina reale del mondo con il modello immaginario che possiamo tracciarne in
termini matematici, e di credere per conseguenza che la dimostrazione teorica di una
legge entro questo modello possa sostituire l’osservazione diretta della legge medesima
entro il mondo effettivo dei fenomeni.
È sulla base di questa incontestabile frattura tra mondo delle teorie e mondo dei
fatti che Vico sostiene con accanimento il primato del metodo sperimentale (baconiano)
su quello matematico (cartesiano). In un certo senso Vico si fa interprete del profondo
sentimento di divaricazione tra l’approccio sperimentale e quello matematico della
fisica nel Settecento, e che Kant si rese pienamente conto della sua importanza al punto
da assumerlo come uno dei problemi centrali da risolvere con la sua Critica.
Le obiezioni di Vico contro il metodo cartesiano dell’evidenza sono del massimo
interesse non soltanto per le fondamentali conseguenze cui danno luogo nell’ambito
della metafisica e della fisica, ma anche perché costituiscono la premessa a partire dalla
quale Vico pervenne a formulare il suo nuovo celebre criterio della conoscenza. Tale
criterio stabilisce che è possibile giungere a una vera conoscenza di un oggetto
(qualunque esso sia) solo da parte di un soggetto che costruisca l’oggetto stesso. In altri
termini la piena verità di una cosa è accessibile a colui che la produce (verum ipsum
factum). Tale principio, proponendo la dimensione fattiva del vero, ridimensiona le
pretese conoscitive del razionalismo cartesiano, e Vico si serve per avanzare in modo
originale le sue obiezioni alla filosofia cartesiana trionfante in quel periodo. Il cogito
cartesiano infatti potrà darmi certezza della mia esistenza ma questo non vuol dire
conoscenza della natura del mio essere, coscienza non è conoscenza: avrò coscienza di
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =68!

me ma non conoscenza poiché non ho prodotto il mio essere ma l'ho solo riconosciuto.
Il criterio del metodo cartesiano dell'evidenza mi procurerà dunque una conoscenza
chiara e distinta ma che non è scienza se non è capace di produrre ciò che conosce.
Va subito osservato che questo criterio vichiano della conoscenza scientifica,
mentre a prima vista parrebbe escludere la verità della matematica (che Cartesio
pretendeva ricondurre a intuizioni chiare e distinte), riesce invece a salvarne appieno il
valore. Nella matematica, infatti, Vico ritiene che sia l’uomo stesso a costruire gli enti
trattati (numeri, figure, ecc.), per cui si ricava che egli può averne una conoscenza vera e
completa. È un'interpretazione che nel Settecento poteva apparire estremamente ardita
e discutibile ma che in tempi moderni ha dimostrato una straordinaria fecondità. Vico
osserva tuttavia che tale costruzione degli enti matematici non ha un valore reale ma
soltanto convenzionale e arbitrario, bastando che l’uomo modifichi le premesse di una
teoria matematica perché se ne alterino anche tutte le conseguenze. Pur concedendo ai
risultati di tale disciplina la qualifica di vere e proprie conoscenze, egli ne limita
pertanto radicalmente la portata: afferma infatti che sono, sì, verità ma puramente
convenzionali.
Riassumendo: il criterio vichiano della conversione del vero nel fatto restringe in
limiti assai circoscritti il campo delle conoscenze umane autenticamente tali. La
matematica è ammessa come scienza, ma solo di enti fittizi, convenzionali; la fisica è
invece esclusa, per principio, dal campo delle scienze umane, perché solo Dio, e non
l’uomo, è in grado di costruire il mondo della natura.

7.7 Kant e i confini della ragione

Fino a Cartesio l'atteggiamento prevalente del pensiero filosofico, cioè


dell'epistéme, comprende sia l'affermazione che nell'epistéme il pensiero ha "certezza",
ossia conosce la realtà così come essa è in sé stessa, sia l'affermazione che la realtà esiste
indipendentemente dal pensiero. Si tratta dell'affermazione immediata dell'identità di
certezza e verità.
A partire da Cartesio, la filosofia moderna scopre che la realtà, in quanto pensata,
non è la realtà che esiste in sé stessa indipendentemente dal pensiero. In quanto realtà
pensata, l'intero universo che ci circonda è quindi contenuto di pensiero. Per la filosofia
moderna non si può quindi affermare immediatamente che, nell'epistéme, la certezza
abbia come contenuto la verità (cioè sia identica alla verità): immediatamente, c'è invece
opposizione tra certezza e verità e sorge quindi il problema di stabilire quale verità
possa avere la certezza, e cioè che cosa corrisponda, nella realtà esterna, alla nostra
conoscenza epistemica. Dall'affermazione dell'opposizione immediata di certezza e
verità, il razionalismo giunge così all'affermazione dell'identità mediata, cioè dimostrata
mediante una procedura razionale, tra certezza e verità.
Per Locke, invece, la corrispondenza tra idea e realtà esterna è determinata
dall'analisi del modo in cui la realtà esterna agisce causalmente, attraverso l'esperienza,
sulla mente dell'uomo. Anche in questo caso, si tratta però dell'affermazione mediata
dell'identità tra il contenuto di alcune certezze e la verità.
Con Berkeley, da un lato, non esiste alcuna forma di opposizione tra certezza e
verità, perché la realtà corporea non esiste (e quindi la verità, cioè la realtà, è il
contenuto stesso della certezza); dall'altro rimane pur sempre, in Berkeley, una realtà
=69! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

esterna alla mente: la realtà di Dio e la realtà delle altre menti finite. Inoltre, anche per
Berkeley è il principio di causalità applicato alle idee a consentire l'affermazione della
realtà esterna alla mente.
In Hume, è vero che la critica del principio di causalità intende essere la critica
dell'unico strumento in base al quale l'uomo potrebbe affermare una qualsiasi realtà al
di là dell'esperienza, ma Hume non intende sostenere che l'esperienza sia la stessa
totalità dell'essere. Con Hume l'epistéme consiste in quello che per Cartesio era soltanto
il primo passo nella costruzione dell'epistéme: l'indubitabilità dell'esistenza della mente.
L'unica verità è costituita, per Hume, dall'osservazione dei contenuti della mente (cioè
della certezza), che non sono regolati da alcuna legge necessaria e che "si associano" tra
loro secondo semplici "tendenze" che esistono di fatto, ma che, proprio per questo,
potrebbero non esistere o essere sostituite da tendenze del tutto diverse. In questo
modo, non solo la metafisica, ma anche ogni conoscenza razionale della natura è priva
di ogni valore universale e necessario. E se la matematica possiede questo valore è solo
perché le sue proposizioni non si riferiscono all'esperienza, ma si limitano a esplicitare,
nel predicato, quanto è già stato incluso nella definizione del soggetto.
Con Emmanuele Kant (1724-1804) la filosofia moderna compie una
svolta radicale e mostra nel modo più perentorio che le cose in sé stesse,
esterne e indipendenti dalla conoscenza umana, non possono essere
conosciute. Mostra cioè che l'opposizione tra certezza e verità è definitiva.
Non nel senso che la filosofia kantiana rinunci a essere epistéme, ma nel
senso che, proprio per essere la forma più rigorosa di epistéme, deve escludere la
conoscibilità della verità, ossia la conoscibilità delle cose come esse sono in sé stesse. In
altri termini Kant concepisce la realtà non come qualcosa di dato, oggettivo (voluto da
Dio o dalla natura) e come tale immodificabile, ma come una costruzione propria
dell’uomo. In questo senso profondo Kant apre le porte del mondo moderno.
Il pensiero di Kant (detto criticismo) si contrappone all'atteggiamento mentale
del dogmatismo (che consiste nell'accettare opinioni o dottrine senza interrogarsi
preliminarmente sulla loro effettiva consistenza e la convinzione che il contenuto
conosciuto, in cui si imbattono le costruzioni conoscitive edificate dall'uomo, possa
essere l'insieme delle cose in sé stesse), e fa della critica lo strumento per eccellenza
della filosofia. Criticare significa chiarire le possibilità, ossia le condizioni che
permettono l'esistenza, la validità e i limiti dei fondamenti della ragione umana. Questa
filosofia del limite non equivale tuttavia, nelle intenzioni esplicite di Kant, ad una forma
di scetticismo, poiché tracciare il limite di un'esperienza significa nel contempo
garantire, entro il limite stesso, la sua validità. Ovviamente il criticismo kantiano non è
solo una scoperta geniale di Kant, ma anche l'esito di determinate condizioni e istanze
intellettuali che affondano le loro radici nell'epoca del filosofo e in tutto il corso del
pensiero precedente. Il kantismo si inserisce infatti nello specifico orizzonte storico del
pensiero moderno e risulta definito da quelle due coordinate di base che sono la
Rivoluzione scientifica da un lato e la crisi progressiva delle metafisiche tradizionali
dall'altro.
Se l'Illuminismo aveva portato dinanzi al tribunale della ragione l'intero mondo
dell'uomo, Kant si propone di portare dinanzi al tribunale della ragione la ragione
stessa, per chiarirne in modo esauriente strutture e possibilità. Tuttavia, anche in questo
andar oltre l'Illuminismo, Kant è pur sempre figlio dell'Illuminismo, in quanto ritiene
che i confini della ragione possano essere tracciati soltanto dalla ragione stessa, che,
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =6:!

essendo autonoma, non può assumere dall'esterno la direttiva e la guida del suo
procedimento. Prova ne è che Kant combatte instancabilmente, non solo nelle opere
principali, ma anche negli scritti minori, ogni tentativo di fissare dei limiti alla ragione
in nome della fede o di qualsiasi esperienza extrarazionale, presentandosi come
l'avversario risoluto di ogni specie di fideismo o misticismo o fanatismo. Per Kant i
limiti della ragione tendono a coincidere con i limiti dell'uomo: di conseguenza, volerli
varcare in nome di presunte capacità superiori alla ragione significa soltanto
avventurarsi in sogni arbitrari o fantastici.
Si può dire che i temi più elevati della speculazione filosofica e scientifica del
secolo culminano nel poderoso sforzo compiuto da Kant per chiarire le ragioni del
trionfale successo della fisica-matematica, per fornire uno sfondo filosofico al razionale
cosmo newtoniano, per dare una valutazione critica dei metodi e degli scopi della
ragione umana. Quantunque Kant non tratti quasi mai in modo specificamente tecnico i
grandi problemi della matematica, dell'astronomia, della meccanica razionale e delle
scienze empiriche, tuttavia egli proviene dalla scienza, e al suo pensiero sono presenti,
nei loro aspetti essenziali, le questioni di fondo maturate nell'ambito della cultura
moderna e della ricerca scientifica. Infatti, al 1747, quando era ancora studente
universitario, risale il primo scritto che verte proprio su di un problema che in
quell’epoca era di grande attualità presso i fisici: Pensieri sulla vera stima delle forze vive e
valutazione delle prove, di cui si sono serviti in questa controversia il sig. Leibnitz e altri
meccanici, insieme con alcune considerazioni preliminari riguardanti la forza dei corpi in
generale. Ricorrendo ad argomentazioni prevalentemente metafisiche, l’autore vi
distingue due tipi di forza: una “forza morta” misurata dalla quantità di moto mv e una
“forza viva” misurata da mv2; la prima connessa a una considerazione puramente
matematica dei corpi (presi nella loro reciproca esteriorità), la seconda invece facente
riferimento alla loro sostanza interna non spaziale. Sulla base di questa distinzione
risulterebbe possibile, secondo Kant, conciliare i due punti di vista difesi dai cartesiani e
dai leibniziani, liberandoli dagli errori che derivano dal loro esclusivismo. Allo stesso
anno risale la prima importante opera di Kant: Storia naturale generale e teoria del cielo, o
ricerca intorno alla costituzione e all’origine meccanica dell’intero sistema del mondo condotta
secondo i principi newtoniani. L’opera segna un notevolissimo passo avanti rispetto alla
concezione newtoniana del mondo. Infatti, mentre l’ordinamento presente nell’universo
rinvierebbe in modo necessario, secondo Newton, a un essere divino quale architetto e
signore del mondo, Kant ritiene al contrario che tale ordinamento possa venire
integralmente spiegato col semplice ricorso alle leggi generali della natura: la
spiegazione da lui proposta, oggi nota come ipotesi di Kant-Laplace, afferma che il
sistema celeste trarrebbe origine dal moto vorticoso di una nebulosa primitiva (Laplace
vi giunse nel 1796 per via del tutto autonoma e, da grandissimo fisico quale era, seppe
darle una formulazione assai più soddisfacente di quella kantiana, dal punto di vista
tecnico). Va notato che Kant resta fedele alla concezione newtoniana nell’attribuire alla
materia alcune proprietà non puramente geometriche (afferma infatti che essa può
avere densità diversa da un luogo all’altro e che è sottoposta a forze di attrazione e di
repulsione); ciò chiarisce il motivo per cui la sua spiegazione meccanicistica dell’attuale
ordine dell’universo si collochi più sulla linea di Newton che non su quella di Cartesio,
sebbene faccia uso della nozione essenzialmente cartesiana di vortice. Il fatto è che i
vortici di cui parla Kant sono da lui concepiti come effetti delle forze elementari,
attrattive e repulsive, che agirebbero sulla materia, e quindi risultano del tutto diversi
=7<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

da quelli ideati da Cartesio, il quale, partendo dall’identificazione della materia con la


pura estensione geometrica, doveva escludere da essa ogni nozione di forza e doveva
perciò concepire i vortici come moti assolutamente originari.
Fra gli scritti di carattere scientifico dei quindici anni successivi ci limitiamo a
menzionare i seguenti: Nuove osservazioni sulla spiegazione della teoria dei venti; Nuova
dottrina del movimento e della quiete e delle conseguenze che vi sono collegate nei principi della
scienza della natura; Del primo fondamento della distinzione delle regioni nello spazio; Intorno
alla forma e ai principi del mondo sensibile e di quello intelligibile. Per lungo tempo tutti gli
scritti kantiani di argomento scientifico vennero arbitrariamente trascurati dagli
studiosi quasi che rappresentassero un settore isolato della produzione di Kant. Oggi
alla luce di nuovi studi si è giunti a sostenere che proprio questi scritti ci forniscono il
filo conduttore per cogliere il senso oggettivo della filosofia kantiana.
Kant, prendendo le mosse dalle scoperte scientifiche del suo tempo e soprattutto
dalla legge di gravitazione universale di Newton, nella sua opera maggiore Critica della
ragion pura (1781), effettua una profonda analisi critica dei fondamenti del sapere, e per
quanto riguarda la fisica, introduce l’idea della soggettività del tempo e dello spazio.
Poiché ai tempi di Kant l'universo del sapere si articolava in scienza e metafisica, il suo
capolavoro prende la forma di un'indagine valutativa circa queste due attività
conoscitive, in particolare la Critica comprende tre parti: l’estetica e l’analitica
trascendentale che hanno lo scopo di dimostrare la possibilità delle scienze esatte, come
la matematica e la fisica, e la dialettica trascendentale che vuole dimostrare
l’impossibilità di applicare le proposizioni scientifiche a considerazioni che sorpassano
il mondo empirico, cioè l’impossibilità di una scienza metafisica. La scienza e la
metafisica si presentavano in modo diverso, sia a Kant che ai suoi contemporanei.
Infatti, mentre la prima, grazie ai successi conseguiti da Galileo e da Newton, appariva
come un sapere fondato e in continuo progresso, la seconda, con il suo voler procedere
oltre l'esperienza, con il suo fornire, nei vari filosofi, soluzioni antitetiche ai medesimi
problemi, con le sue contese senza fine, non sembrava affatto, nonostante la sua
venerabile antichità, aver trovato il cammino sicuro della scienza. Poiché Kant rileva
l’impossibilità di conoscere una qualsiasi cosa in sé, la cosa in sé, come tale, è
inconoscibile; poiché la metafisica intende essere una conoscenza delle cose in sé, ne
segue che è impossibile come scienza. La metafisica, pertanto, non appartiene
all’epistéme, cioè alla conoscenza, che per Kant non è un’opinione, non ha nulla a che
fare con ipotesi, ma è assolutamente necessaria.
Kant apre il suo capolavoro con un'ipotesi gnoseologica di fondo: “benché ogni
nostra conoscenza cominci con l'esperienza, da ciò non segue che essa derivi
interamente dall'esperienza. Potrebbe infatti avvenire che la nostra stessa conoscenza
empirica sia un composto di ciò che riceviamo mediante le impressioni e di ciò che la
nostra facoltà conoscitiva vi aggiunge da sé sola (semplicemente stimolata dalle
impressioni sensibili)”. Questa ipotesi, secondo Kant, risulta immediatamente
convalidata dalla presenza dei giudizi sintetici a priori. Vediamo in che senso. Kant è
convinto che la conoscenza umana e in particolare la scienza, che era sempre stata al
centro delle sue attenzioni, offrano il tipico esempio di principi assoluti, ossia di verità
universali e necessarie, che valgono ovunque e sempre allo stesso modo. Infatti, pur
derivando in parte dall'esperienza, e pur nutrendosi continuamente di essa, la scienza
presuppone anche, alla propria base, taluni principi immutabili che ne fungono da
pilastri. Kant denomina principi di questo tipo giudizi sintetici a priori: giudizi perché
consistono nell'aggiungere un predicato ad un soggetto; sintetici perché il predicato
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =7;!

dice qualcosa di nuovo e di più rispetto al soggetto; a priori perché, essendo universali e
necessari, non possono derivare dall'esperienza, la quale, come aveva già insegnato
Hume, non ci dice, ad esempio, che ogni evento debba necessariamente, anche in
futuro, dipendere da cause, ma che sinora, nel passato, così è stato.
Dal punto di vista di Kant, i giudizi fondamentali della scienza non sono quindi
né giudizi analitici a priori ne giudizi sintetici a posteriori. I primi sono giudizi che
vengono enunciati a priori, senza bisogno di ricorrere all'esperienza, di conseguenza tali
giudizi, pur essendo universali e necessari (=a priori), sono infecondi, perché non
ampliano il nostro preesistente patrimonio conoscitivo. I secondi sono giudizi dati in
virtù dell'esperienza, ovvero a posteriori (ad esempio i corpi sono pesanti). Questi
giudizi, pur essendo fecondi (= sintetici), sono privi di universalità e necessità perché
poggiano esclusivamente sull'esperienza. Invece, i principi della scienza, i cosiddetti
giudizi sintetici a priori, risultano al tempo stesso sintetici, ossia fecondi, e a priori, ossia
universali e necessari, e quindi irriducibili alle due classi precedenti.
Pur essendo formulata in modo logico, questa teoria kantiana dei giudizi
sottintende un confronto storico con le scuole filosofiche precedenti. I giudizi analitici a
priori richiamano infatti la concezione razionalistica della scienza, che pretendeva di
partire da taluni principi a priori (=le idee innate) per derivare da essi tutto lo scibile,
delineando in tal modo il modello di un sapere universale e necessario, ma sterile. I
giudizi sintetici a posteriori richiamano invece l'interpretazione empiristica della
scienza, che pretendeva di fondare quest'ultima esclusivamente sull'esperienza,
delineando così il modello di un sapere fecondo, ma privo di universalità e necessità.
Kant ritiene invece, contro il razionalismo, che la scienza derivi dall'esperienza, ma
ritiene anche, contro l'empirismo, che alla base dell'esperienza vi siano dei principi
inderivabili dall'esperienza stessa.
Pertanto, nella visione kantiana, la scienza, globalmente considerata, risulta
feconda in duplice senso: sia per quanto riguarda il contenuto o la materia, che le deriva
dall'esperienza, sia per quanto riguarda la forma, che le deriva dai giudizi sintetici a
priori che ne rappresentano i quadri concettuali di fondo. Nello stesso tempo, proprio in
virtù di questi ultimi, essa è anche a priori, cioè universale e necessaria. In sintesi:

scienza = esperienza + principi sintetici a priori

In altre parole, i giudizi sintetici a priori rappresentano la spina dorsale della


scienza, ovvero l'elemento che le conferisce stabilità e universalità, e in mancanza del
quale essa sarebbe costretta a muoversi, ad ogni passo, nell'incerto e nel relativo. Infatti,
senza taluni principi assoluti di fondo, e in ciò risiede il cuore di tutta l'epistemologia
kantiana, la scienza non potrebbe sussistere, in quanto il ricercatore (humiano), ad ogni
passo, sarebbe obbligato a brancolare nel buio, non sapendo ad esempio se anche nel
futuro ogni evento dipenderà da cause o se ogni oggetto d'esperienza sarà nello spazio
e nel tempo. Invece, lo scienziato kantiano è certo a priori di tale verità, anche se per
sapere quali siano le cause che producono gli eventi o che cosa vi sia nello spazio e nel
tempo ha bisogno di ricorrere alla testimonianza dell'esperienza.
Dopo aver messo in luce che il sapere poggia su giudizi sintetici a priori, Kant si
trova di fronte al complesso problema di spiegare la provenienza di questi ultimi.
Infatti, se non derivano dall'esperienza, da dove deriveranno i giudizi sintetici a priori?
Per rispondere a questo interrogativo Kant, articolando la sua ipotesi gnoseologica di
=7=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

fondo, elabora una nuova teoria della conoscenza, intesa come sintesi di materia e
forma. Per materia della conoscenza si intende la molteplicità caotica e mutevole delle
impressioni sensibili che provengono dall'esperienza (=elemento empirico o a
posteriori). Per forma s’intende l'insieme delle modalità fisse attraverso cui la mente
umana ordina, secondo determinati rapporti, tali impressioni (= elemento razionale o a
priori). Kant ritiene infatti che la mente filtri attivamente i dati empirici attraverso forme
che le sono innate e che risultano comuni ad ogni soggetto pensante. Come tali, queste
forme sono a priori rispetto all'esperienza e sono fornite di validità universale e
necessaria, in quanto tutti le possiedono e le applicano allo stesso modo. La mente
kantiana è simile ad un computer, che elabora la molteplicità dei dati che le vengono
forniti dall'esterno mediante una serie di programmi fissi, che ne rappresentano gli
immutabili codici di funzionamento. Quindi, pur mutando incessantemente le
informazioni (= le impressioni sensibili), non mutano mai i loro schemi di recezione (=
le forme a priori). Ma il fatto che in noi esistano determinate forme a priori universali e
necessarie, che per Kant sono lo spazio e il tempo e le 12 categorie, attraverso cui
incapsuliamo i dati della realtà, spiega perché si possano formulare dei giudizi sintetici
a priori intorno ad essa senza il timore di essere smentiti dall'esperienza.
Questa nuova impostazione del problema della conoscenza, questo mutamento
di prospettiva realizzato da Kant, che invece di supporre che le strutture mentali si
modellino sulla natura, suppone che l’ordine della natura si modelli sulle strutture
mentali, comporta una rivoluzione copernicana. Infatti, come Copernico, incontrando
grosse difficoltà nello spiegare i movimenti celesti a partire dall’ipotesi che gli astri
ruotino intorno allo spettatore, suppose che fosse lo spettatore a ruotare intorno agli
astri, così Kant, incontrando delle difficoltà nello spiegare la conoscenza a partire
dall’ipotesi che siano gli oggetti a ruotare intorno al soggetto, cioè che condizionino il
soggetto, suppone che sia il soggetto a ruotare intorno all’oggetto, cioè che condizioni
l’oggetto.
Così Kant, per spiegare la scienza, ribalta i rapporti fra soggetto e oggetto,
affermando che non è la mente che si modella passivamente sulla realtà, nel qual caso
non vi sarebbero conoscenze universali e necessarie, bensì la realtà che si modella sulle
forme a priori attraverso cui la percepiamo. In secondo luogo, la nuova ipotesi
gnoseologica comporta la distinzione kantiana tra fenomeno e cosa in sé. Il fenomeno è
la realtà quale ci appare tramite le forme a priori che sono proprie della nostra struttura
conoscitiva. Il fenomeno non è un'apparenza illusoria, poiché è un oggetto reale, ma
reale soltanto nel rapporto con il soggetto conoscente. La cosa in sé è la realtà
considerata indipendentemente da noi e dalle forme a priori mediante cui la
conosciamo, e come tale costituisce un’incognita. L’originalità del copernicanesimo
filosofico di Kant consiste nel cercare la garanzia ultima della conoscenza non negli
oggetti o in Dio, ma nella mente stessa dell’uomo, fondando così le istanze
dell'oggettività nel cuore stesso della soggettività. Con questo non si intende dire che la
rivoluzione copernicana sia consistita semplicemente nel fondare sul soggetto, anziché
sull'oggetto, la validità del sapere. L'originalità della soluzione kantiana è consistita
anche nell'intendere il fondamento del sapere in termini di possibilità e di limiti, cioè
conformemente al modo d'essere di quell'ente pensante finito che è l'uomo.
Su queste basi Kant costruisce la sua ontologia della fisica newtoniana. I concetti
attraverso cui si sistema tutto il sapere scientifico e quindi contengono l’impalcatura
concettuale della natura fisica, sono spazio e tempo, numero; le dodici categorie (unità,
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =74!

molteplicità, totalità; realtà, negazione, limitazione; sostanza e accidente, causa ed


effetto, reciprocità di azione e passione; possibilità e impossibilità, esistenza e
inesistenza, necessità e contingenza).
Per Newton, come sappiamo, lo spazio assoluto è il sensorium Dei occorrente a
rendere intelligibili le leggi fisiche di un mondo governato dalla gravitazione
universale, ed è una condizione indispensabile, assieme al tempo assoluto, per la
validità delle leggi del moto e della meccanica razionale. Kant pretende di spingere
oltre ancora questi argomenti, cercando non solo nella meccanica, ma anche nella
geometria la prova di tale assolutezza: “Dai giudizi intuitivi dell'estensione, propri della
geometria “ si può ricavare la prova “che lo spazio assoluto ha una propria realtà,
indipendente dalla esistenza di ogni materia, ed anzi in quanto ragione prima della
possibilità della sua composizione “.
Secondo le sue vedute, così difformi da quelle a cui ci ha abituato la critica
moderna (si veda le geometrie non euclidee) le leggi della fisica debbono obbedire a
quelle della geometria, che la precede. Lo spazio, che viene prima, non è tenuto a
conformarsi alle leggi che scaturiscono dalla nostra indagine sulla materia, ma le sue
leggi necessarie contribuiscono a rendere possibile la natura stessa.
Kant è pienamente conscio delle difficoltà e delle antinomie che sorgono dai
concetti di spazio e tempo assoluti. Ad esempio: se spazio e tempo possiedono una
realtà assoluta, oggettiva, precedente rispetto a quella degli oggetti, essi dovettero un
giorno essere riempiti da oggetti che furono ordinati in essi. Vi fu, dunque, una
creazione. E questa avvenne in un certo istante del tempo. Ma il tempo vuoto, assoluto,
non ha in sé ragioni determinanti o discriminanti, per cui un dato istante temporale
possa essere distinto da un altro. Non possiamo dare la preferenza, non possiamo
individuare, un certo istante rispetto ad un altro qualsiasi: quel certo istante, non è un
certo istante. Ed ecco la domanda critica decisiva: dal momento che i giudizi matematici
sono certi, universali e necessari, come possono diventare universali dei giudizi sintetici
o empirici? La risposta di Kant è: spazio e tempo non devono essere più considerati alla
stregua degli altri oggetti dati esternamente, ma invece, pur nella loro assolutezza, li
dobbiamo concepire quali forme e strumenti della nostra conoscenza, puri prodotti
dell'intelletto stesso, forme della nostra sensibilità. Avendo accolto, sotto l'influenza di
Newton, l'idea di uno spazio assoluto, e rifiutato quella di Leibniz, dello spazio relativo,
che solo “rappresenta le cose nei loro scambievoli rapporti”, Kant conclude che, nella
geometria, tali giudizi sono possibili in quanto lo spazio è: “la forma di tutti i fenomeni
del senso esterno, cioè la condizione soggettiva della sensibilità, per mezzo della quale
soltanto è possibile l'intuizione esterna. Poiché, dunque, l'attitudine del soggetto ad
essere modificato dagli oggetti precede necessariamente ogni intuizione di essi, da ciò
deriva che la forma di tutti i fenomeni possa essere data nello spirito prima di tutte le
percezioni effettive, e quindi a priori, e che essa, come pura intuizione, in cui tutti gli
oggetti debbono essere determinati, possa contenere i principi dei loro rapporti, prima
di ogni esperienza... Noi possiamo perciò parlare solo dal punto di vista umano dello
spazio, di esseri estesi, ecc. Ma se prescindiamo dalla condizione soggettiva, nella quale
soltanto possiamo avere un'intuizione esterna, in quanto cioè possiamo venire
modificati dagli oggetti, allora la rappresentazione dello spazio non significa più nulla.
Questo predicato, dunque, viene conferito alle cose solo in quanto appaiono a noi, cioè in
quanto sono oggetti della sensibilità”. L’idea centrale della nuova gnoseologia kantiana
è dunque la soggettività dello spazio e del tempo.
=75! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Spazio e tempo, allora, non sono realtà esterne a noi ma solo un nostro modo di
organizzare i dati sensibili della realtà, ossia sono intuizioni pure, forme dell'intuizione,
i quadri entro cui vengono ordinati i materiali forniti dalla sensibilità. Ma d'altra parte
essi restano distinti e dai materiali che in essi si ordinano e dai concetti matematici
(numero, figura geometrica) mediante cui quei materiali vengono disposti per
l'interpretazione categoriale; gli eventi sono percepiti nello spazio e nel tempo, e quindi
(fenomenicamente, non metafisicamente) avvengono nello spazio e nel tempo, i quali
quindi risultano essere, come sosteneva Newton, assoluti, lo sfondo sul quale sono
ordinati i fenomeni, sfondo però strutturato e articolato, contenente lo schema
(matematico) attraverso cui i materiali sensibili stessi acquistano rilievo per
l'interpretazione concettuale della natura. Spazio e tempo non sono dei contenitori in
cui si trovano gli oggetti, bensì dei quadri mentali a priori entro cui connettiamo i dati
fenomenici. In sostanza, percepiamo le cose le une accanto alle altre (spazio) e le une
dopo le altre (tempo) non perché esse effettivamente siano nello spazio e nel tempo ma
perché questo è il nostro modo di percepire le cose, perché il mondo come noi lo
vediamo è una nostra costruzione.
In sintesi, se Newton aveva fatto dello spazio euclideo uno spazio fisico assoluto,
contenitore universale della materia, teatro degli eventi e base della loro discussione
fisica, Kant, invece, lo concepisce come spazio dell’intuizione pura, come forma a priori
dell’esperienza, ossia come legge strutturale della conoscenza priva di realtà fisica, e
facendo, così, della geometria euclidea un insieme di giudizi sintetici a priori, valevoli
universalmente e necessariamente. La concezione kantiana sullo spazio e sul tempo è
una teoria suggestiva, forse inconfutabile da un punto di vista logico, ma tuttavia
ipotetica. Kant passa a fornirne delle prove tratte dalla geometria in quanto scienza
effettivamente costruita dai matematici, ma, come abbiamo detto e come vedremo, tali
prove svaniscono al tocco dei progressi della matematica nell’Ottocento, con le
geometrie euclidee, e della fisica ai primi del Novecento con la teoria della relatività.
E lo stesso discorso, mutatis mutandis, va ripetuto per ciò che riguarda le
categorie. Queste sono propriamente le forme logiche, ossia le forme del discorso.
Dunque le categorie, ossia i concetti fondamentali della scienza fisica (tra cui sostanza e
causa), costituiscono dei semplici modi di sistemare le proposizioni empiriche, i dati
della conoscenza sensibile, i quali vengono pensati (dalla mente umana, non da quella
divina) entro quel quadro categoriale; ma d'altra parte restano distinte e dai materiali
empirici in esse pensati e dalle stesse relazioni meramente sintattiche del discorso
scientifico. La casualità, per esempio, è connessa con la forma dell'implicazione, ma non
si riduce ad essa: è il rapporto che mediante tale forma viene a stabilirsi tra materiali
empirici. Le categorie, essendo la facoltà logica di unificare il molteplice della
sensibilità, funzionano solo in rapporto al materiale che esse organizzano, ossia in
connessione con le intuizioni spazio-temporali cui si applicano. Considerate di per sè,
cioè senza essere riempite di dati provenienti dal senso esterno o interno, sono vuote.
Questo fa sì che esse risultino operanti solo in relazione al fenomeno, intendendo per
quest'ultimo l'oggetto proprio della conoscenza umana, che è sempre sintesi di un
elemento materiale e di uno formale. Di conseguenza, il conoscere, per Kant, non può
estendersi al di là dell'esperienza, in quanto una conoscenza che non si riferisca
all'esperienza possibile non è conoscenza, ma un vuoto pensiero che non conosce nulla,
un semplice gioco di rappresentazioni.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =76!

Kant ha sempre ribadito che l'ambito della conoscenza umana è rigorosamente


limitato al fenomeno, poichè la cosa in sé, che in contrapposizione al fenomeno (=
l'apparenza sensibile), denomina con il termine greco noumeno (= la realtà pensabile,
l'intelligibile puro), non può divenire, per definizione, oggetto di un'esperienza
possibile. Anche la cosmologia razionale, che pretende di far uso della nozione di
mondo inteso come la totalità assoluta dei fenomeni cosmici, è destinata, secondo Kant,
a fallire. Infatti, poiché la totalità dell’esperienza non è mai un’esperienza, in quanto noi
possiamo sperimentare questo o quel fenomeno, ma non la serie completa dei fenomeni,
l’idea di mondo cade, per definizione, al di fuori di ogni esperienza possibile.
Kant giustifica ulteriormente l'apriorità dello spazio e del tempo mediante talune
considerazioni epistemologiche sulla matematica, volte ad una fondazione filosofica
della medesima. Kant vede nella geometria (che si fonda sullo spazio) e nell'aritmetica
(che si fonda sul tempo) le scienze sintetiche a priori per eccellenza in quanto ampliano
le nostre conoscenze mediante costruzioni mentali che vanno oltre l’esperienza. Qual è,
allora, il punto di appoggio delle costruzioni sintetiche a priori delle matematiche? Kant
non ha dubbi sul fatto che esso risieda nelle intuizioni di spazio e di tempo. Infatti, la
geometria è la scienza che dimostra sinteticamente a priori le proprietà delle figure
mediante l'intuizione pura di spazio, stabilendo ad esempio, senza ricorrere
all'esperienza del mondo esterno, che fra le infinite linee che uniscono due punti la piu
breve è la retta. Analogamente, l'aritmetica è la scienza che determina sinteticamente a
priori la proprietà delle serie numeriche, basandosi sull'intuizione pura di tempo e di
successione senza la quale lo stesso concetto di numero non sarebbe mai sorto. In
quanto a priori, la matematica è anche universale e necessaria, immutabilmente valida
per tutte le menti pensanti.
Per quale ragione, allora, le matematiche, pur essendo una costruzione della
nostra mente, valgono anche per la natura? Anzi, perchè tramite esse siamo addirittura
in grado di fissare anticipatamente delle proprietà che in seguito riscontriamo
nell'ordine fattuale delle cose? Che cosa garantisce questa stupefacente coincidenza, su
cui fa leva la fisica? A questi interrogativi di filosofia della scienza, Galileo, sulla base
della sua epistemologia realistica aveva risposto sostanzialmente che Dio, creando,
geometrizza, postulando in tal modo una struttura ontologica di tipo matematico. Kant,
avendo dichiarato inconoscibile la cosa in sé non poteva certo presupporre simili
armonie prestabilite. Escludendo ogni garanzia di tipo metafisico e teologico, egli
afferma invece che le matematiche possono venir proficuamente applicate agli oggetti
dell'esperienza fenomenica poiché quest'ultima, essendo intuita nello spazio e nel
tempo, che sono anche i cardini della matematica, possiede già, di per sé, una
configurazione geometrica e aritmetica. In altre parole, se la forma a priori di spazio con
cui ordiniamo la realtà è di tipo euclideo, risulta evidente che i teoremi della geometria
di Euclide varranno anche per l'intero mondo fenomenico.
Ma se l’io è il fondamento della natura, l'io è anche il fondamento della scienza
che la studia. Infatti, i pilastri ultimi della fisica, che in concreto si identificano con i
principi dell’intelletto puro, poggiano sui giudizi sintetici a priori della mente, che a
loro volta derivano dalle intuizioni pure di spazio e di tempo e dalle dodici categorie. In
tal modo, la gnoseologia di Kant si configura come l'epistemologia della scienza
galileiano-newtoniana e come il tentativo di giustificarne filosoficamente i principi di
base contro lo scetticismo di Hume. Questi riteneva infatti che l'esperienza, da un
momento all'altro, potesse smentire la verità su cui si regge la scienza. Kant sostiene
=77! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

invece che tale possibilità non sussista in quanto l'esperienza, essendo condizionata
dalle categorie dell'intelletto e dall’io penso, non può mai smentire i principi che ne
derivano. In tal modo, le leggi della natura risultano pienamente giustificate nella loro
validità, in quanto l'esperienza che le rivela non potrà mai smentirle, giacché esse
rappresentano le condizioni stesse di ogni esperienza possibile.
Se dalla Critica della ragion pura emergeva una visione della realtà in termini
meccanicistici, in quanto la natura, dal punto di vista fenomenico, appariva come una
struttura causale e necessaria, nell'Analitica dei principi Kant tenta un'assiomatizzazione
della fisica newtoniana e post-newtoniana fissando una serie di assiomi a priori, fondati
non su rilievi empirici bensì sulle stesse intenzionalità nozionali delle categorie. È vero
che oggi tutto questo apparato di assiomi conserva solo qualche interesse più che
storico, tuttavia è notevole osservare in tale dottrina kantiana alcuni aspetti di grande
importanza nei riguardi del pensiero scientifico moderno. Intanto questo: i principi che
Kant espone sono piuttosto regulae philosophandi che non leggi scientifiche; tuttavia
sorpassano lo stato di meri consigli metodologici per divenire le strutture di ogni
scienza della natura in generale. Indipendentemente dal loro contenuto materiale, i
risultati dell'esperienza non possono venire pensati e formare un sistema, una scienza,
se non entro i quadri costituiti da tali principi. I quali, al solito, non sono dati empirici,
ma neppure sono fondati su idee in senso platonico-cartesiano; perciò costituiscono
soltanto condizioni di scientificità del nostro discorso. Tra questi principi è quello che
Laplace (principio di ragione sufficiente) considerava fondamentale per la scienza, il
principio del determinismo: Tutto ciò che accade presuppone qualcosa cui esso segua
secondo una regola. Il determinismo dunque non è una struttura ontologica della realtà
in sé, esso appartiene al nostro modo di costruire una scienza in generale; ma d'altra
parte non vi è scienza senza un postulato deterministico.

7.8 Il trionfo della meccanica e la filosofia meccanicistica della natura

Il grande lavoro matematico del secolo XVIII, in primis l’analisi, non era fine a se
stesso, perché il grande problema era l'elaborazione di un completo sistema deduttivo
di meccanica analitica. Di problemi di geometria analitica applicata alla meccanica, di
trattazioni analitiche mediante il nuovo potente strumento del calcolo infinitesimale si
occupano più o meno i matematici del tempo, cosicché la meccanica diviene
interamente un ramo dell'analisi; i concetti meccanici fondamentali (velocità,
accelerazione, forza, energia, lavoro, ecc.) vengono risolti in formule analitiche, in
derivate e integrali di funzioni; alla base di tutta la scienza della natura viene messa una
nuova disciplina, altamente matematica come la cinematica analitica; e questo segna in
seno alla filosofia della natura un trionfo, e un rinnovamento, della concezione
razionalistica di fronte all'empiristica che era sembrata trionfare per l'autorità del
grande Newton. Il passaggio dalla trattazione geometrica della meccanica di Newton a
quella analitica non avvenne senza contrasti, soprattutto in relazione all’oscurità dei
nuovi concetti dinamici come quelli di massa, inerzia, forza e dei concetti metafisici che
li accompagnano, come quelli di causa, effetto, azione, ecc.

La prima formulazione matematica della seconda legge del moto, equivalente


alla nostra F=ma, si trova in una memoria di Pierre Varignon (1654-1622) del 1700, che
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =78!

curiosamente la deduce non dalla seconda legge del moto, ma dalle leggi di caduta dei
gravi e quindi senza alcun riferimento alla massa. Risalgono a Varignon anche la
formulazione dei Principi della Statica, la formulazione della definizione di risultante di
più forze e di momento statico e dimostrò razionalmente le due regole fondamentali
della statica : la Regola del parallelogramma sulla somma di più forze inclinate concorrenti
e il celebre Teorema di Varignon sui momenti statici di più forze e della loro risultante.

La trascrizione analitica della meccanica di Newton fu un’opera lenta, iniziata,


con una chiara visione programmatica, da Leonardo Eulero (1707-1783). Eulero si
propose di sviluppare la meccanica come scienza razionale ordinata su poche
definizioni e assiomi, in modo che le leggi meccaniche appaiano, come sono, non
soltanto certe, ma di “verità necessaria”. La dinamica euleriana è fondata sul concetto
primitivo di forza. Egli distingue la forza o potenza esterna al corpo, che ne produce
l'alterazione di moto, e la forza d'inerzia (vis inertiae), cioè la facoltà insita nel corpo di
rimanere nello stato di quiete o di moto rettilineo uniforme in cui si trova. La forza
d'inerzia è proporzionale alla quantità di materia e risiede nel corpo, sia che questo sia
in quiete sia che si trovi in moto rettilineo uniforme. Ne risulta che la forza, cioè la causa
che produce il cambiamento di stato dei corpi, è sempre esterna al corpo, mentre la
forza d'inerzia o l'inerzia “esiste nel corpo stesso ed è una sua proprietà essenziale”: in
sostanza, è una nuova sistemazione dei concetti newtoniani, che ne consente una più
agevole traduzione analitica. Nell’opera Teoria motus corporum solidorum seu rigidorum
(1765), Eulero tratta della dinamica dei solidi, sviluppando la teoria dei momenti
d’inerzia e studia sistematicamente il movimento d'un corpo solido libero. Egli va oltre
lo studio del moto centrale, tramandato da Newton, e tratta in generale tutti i
movimenti di rotazione e i movimenti che obbediscono a forze qualunque, preparando
così il terreno alla cinematica e alla cinetica moderne. In particolare è ammirevole, e in
buona parte tuttora valido, lo studio analitico del moto della trottola che utilizza i
concetti di momento e di asse d'inerzia. Ad Eulero dobbiamo anche un contributo
importante all’acustica attraverso la teoria completa delle ondulazioni delle corde,
giungendo al fondamentale risultato che la velocità di propagazione delle onde nelle
corde è indipendente dalla lunghezza d’onda del suono prodotto, e alla dinamica dei
corpi nei fluidi per il fatto che, nell’esperienza concreta, i corpi non si muovono mai in
vacuo.

La trascrizione analitica della meccanica continua con Jean B. D'Alembert (1717-


1783), che esercitò tale influenza sugli ambienti culturali più progrediti d'Europa da
essere considerato, dopo la morte di Voltaire, il suo erede spirituale. Nella sua grande
opera Traité de Dynamique (1743), che si occupa esclusivamente di dinamica del punto,
D’Alemebert espone la sua filosofia della meccanica. La meccanica, secondo lui,
appartiene alle scienze puramente razionali, cioè a quelle scienze fondate su principi
necessariamente veri, e non su principi fisici o su ipotesi. Come scienza puramente
razionale, la meccanica dev'essere epurata dai principi che hanno contenuto
sperimentale ed essere tutta edificata su pochi principi necessari della più larga
applicazione. Diminuire il numero di principi, estenderne l'applicazione: è questo il
programma della meccanica di D'Alembert. Anche l’idrodinamica comincia ad essere
trattata analiticamente e D’Alembert fu tra i primi, insieme ad Eulero e a Daniel
Bernoulli (1700-1782), e ricavò le equazioni differenziali a derivate parziali che reggono
il moto dei fluidi compressibili e incompressibili. Sebbene i principi di Newton bastino
=79! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

a trattare ogni problema meccanico, pure nel corso del secolo, si ritenne conveniente
introdurre principi particolari (dei lavori o velocità virtuali, della conservazione del
centro di gravità, del momento, delle aree, della forza viva ecc.), atti a consentire una
più facile trattazione di alcuni gruppi di problemi, e D’Alembert, nel suo trattato di
dinamica, enuncia il principio della quantità di moto:

PRINCIPIO DI D’ALEMBERT
Se si considera un sistema di punti materiali legati tra loro in modo che le loro masse
acquisiscano velocità rispettive differenti a seconda se esse si muovano liberamente o
solidalmente, le quantità di movimenti acquisite o perse nel sistema sono uguali.

Nel 1747 D’Alembert trovò l'equazione alle derivate parziali del secondo ordine
che regge le piccole oscillazioni di una corda omogenea vibrante.

Pierre de Maupertuis (1698-1759) aveva definito un nuovo concetto meccanico,


quello di azione (somma dei prodotti delle velocità per gli spazi percorsi) e, sulla base
di considerazioni metafisiche legate al finalismo, cioè alla credenza che ci sia un
progetto, uno scopo, un principio organizzativo o una finalità nelle leggi fisiche che
regolano i processi naturali, e per la sua fedeltà alla fisica di Newton, aveva stabilito che
le leggi meccaniche relative al cammino della luce dovevano rispondere ad un minimo
di azione. In sostanza egli cercava di correggere il principio di Fermat (del minimo
tempo impiegato da un raggio di luce per passare da un punto ad un altro), in modo da
renderlo compatibile con l’affermazione di Newton, il quale ritiene che la velocità della
luce sia più grande nelle sostanze più rifrangenti come acqua o vetro (Maupertuis però
è in errore quando pensa che ciò sia vero, in quanto il principio di Fermat è in perfetto
accordo con la teoria ondulatoria di Huygens). Vediamo come Maupertuis giunge alla
sua scoperta che fa epoca. Se si considera un piccolo intervallo di spazio s durante il
quale la velocità v, per esempio di un raggio di luce, è costante, il principio di Fermat
ammette che è minimo il tempo, ossia il rapporto s/v. Maupertuis, però, osserva che non
c’è nessuna ragione per cui il tempo debba avere una preferenza sullo spazio. Al
contrario, dobbiamo portare questi due enti, che sono i grandi pilastri della teoria
newtoniana, sullo stesso piano, e considerare non il quoziente, come Fermat, ma il
prodotto dello spazio per la velocità (s⋅v), per cui la luce sceglie: “una via che ha il
vantaggio più reale. Il cammino che essa segue è quello per il quale la quantità d'azione
è minima”.
Se invece di un raggio di luce, si considera una particella di massa m, dobbiamo
considerare il prodotto m⋅s⋅v, ed in questo senso il principio viene esteso alla meccanica
in generale dallo stesso Maupertuis, che lo applica allo studio dell’urto, da Eulero, che
lo applica al moto dei proiettili ed ad altre questioni, e soprattutto da Lagrange, che fece
vedere come la sua applicazione permette di ricondurre la soluzione di problemi diversi
ad un’unica legge generale, in modo che la meccanica razionale acquista in chiarezza e
generalità. Riferendoci alla forma m⋅s⋅v, si può dire che l’azione è data dal prodotto
dell’energia cinetica per il tempo (mv2⋅t), e quindi il principio della minima azione dice,
in definitiva, che, nel passare da uno stato all’altro, una massa sceglie quasi sempre, fra
le varie vie possibili, quella che implica la minima azione. Pertanto, secondo
Maupertuis, ad ogni movimento che avviene nell'universo, è associata una quantità
chiamata azione, della quale è possibile dare un'espressione matematica. Inoltre tra tutti
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =7:!

i movimenti possibili, quello che avrà luogo, quello scelto dalla natura, è quello che
minimizza tale azione. Sembrerebbe quindi che la natura abbia una capacità di
decisione e per questo Maupertuis si sentì autorizzato a saltare dalla fisica alla
metafisica. E' proprio questa economia dell'azione, affermò Mapertuis, a rivelarci la
saggezza divina: “E’ questo un principio pieno di saggezza, degno dell’Essere Supremo”.
In definitiva possiamo affermare che la natura segue sempre le vie più semplici, e le vie
più semplici sono quelle che minimizzano il dispendio della natura, cioè l'azione.

Le critiche al principio non si fecero attendere, ma furono più feconde che nocive.
Infatti il fisico olandese Samuele Koenig (1712-1757) fu il primo ad osservare che
nell’enunciato occorre talvolta mutare la parola minimo con quella di massimo, sicché
crolla dai fondamenti la conclusione teleologica che Maupertuis aveva posto alla base
del suo principio. La validità delle critiche di questo genere è stata così pienamente
riconosciuta dalla fisica moderna, che invece di parlare di principi di minimo, oggi si
parla di principi variazionali, o estremali, cioè relativi a minimi o a massimi.

Sul principio di minima azione e sulle sue conclusioni teleologiche Maupertuis si


scontrò con Voltaire, in una polemica dalla quale uscì sconfitto, ed il principio finì nel
discredito totale e abbandonato. Una sorte ingiusta per un principio fisico
fondamentale, che verrà riscoperto soltanto all'inizio del Novecento e rivalutato come
una delle chiavi di passaggio dalla meccanica classica alla fisica quantistica e
completamente riabilitato in tempi ancora più recenti, per aver permesso di scoprire un
importante principio di incertezza della meccanica classica. Una generalizzazione del
principio di Maupertuis si è rivelata significativa anche per la relatività. Basti osservare
che nella scienza classica poteva apparire strano il fatto che un principio così
fondamentale riguardasse una grandezza in certo senso artificiale (energia per tempo).
La cosa è invece molto diversa nel continuo quadridimensionale (o spazio-temporale)
che è alla base della relatività: una regione di questo continuo associa in modo naturale
una certa quantità di energia (o la massa ad essa equivalente), ad un certo intervallo di
tempo; il prodotto energia-durata (cioè l'azione) sorge in esso naturalmente. In altre
parole un continuo spazio-tempo contiene l'azione tanto naturalmente quanto lo spazio
ordinario contiene massa o energia. Guardando dal punto di vista della teoria di
Einstein, ogni impressione di artificiosità scompare, e appunto dall'elaborazione di tale
principio Einstein e Weil furono condotti alle leggi di curvatura del continuo spazio-
temporale, cioè alla nuova legge di gravitazione.

Fu soprattutto Joseph Lagrange (1736-1813) che nella Mecanique analytique (1788)


dedusse per via di mero calcolo di equazioni differenziali (la sua opera non correda il
testo di neppure una figura) tutta quanta la meccanica razionale dal principio di
d'Alembert, da lui riformulato in termini più rigorosamente analitici, definendo l'azione
come l'integrale della quantità di moto esteso a tutto lo spazio. Così la meccanica
diveniva disciplina interamente matematico-deduttiva, e conduce alle ben note
equazioni dinamiche lagrangiane e all’equazione fondamentale della dinamica dei
sistemi, basi della meccanica e della fisica moderne. Questa meccanica analitica ha poi
in vista il perfezionamento del sistema cosmologico abbozzato da Newton fino a farne
un ampio e complesso sistema della natura, una vera e propria dottrina scientifica
destinata a competere con le costruzioni metafisiche dei secoli precedenti, e certo non
scevra dell'influenza di tali costruzioni. Il sistema che si sviluppa si può definire una
=8<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

fisica delle forze centrali. Il cosmo viene rotto in sistemi parziali ma indipendenti, sul
modello del sistema solare, entro i quali masse (idealmente assimilate a punti-massa,
idealmente elastici, con la provvisoria scomparsa dell'atomo boyliano-newtoniano) sono
considerate in movimento (attuale o potenziale) con determinate velocità iniziali, e
assoggettate ad accelerazioni-forze (siano esse gravitazionali o di urto) che ne
determinano le traiettorie nello spazio euclideo; tutti i fatti fisici sono riconducibili o a
tali movimenti o agli effetti meccanici di tali movimenti.

Nel campo dell'astronomia questa concezione viene svolta da William Herschel


(1738-1822) con la teoria degli universi-sole, ossia la teoria che ogni stella è un possibile
sole attorno al quale si muove un possibile sistema planetario, naturalmente seguendo
le leggi kepleriano-newtoniane. Questa concezione generale è già di per sé
spiccatamente razionalistica, ma a sottolinearne tale carattere concorrono l'enfasi
portata sulla cosiddetta semplicità della natura e l'affermarsi in tutte le correnti
scientifiche del tempo di un punto di vista decisamente deterministico. La semplicità
della natura agisce non solo come fede metafisico-religiosa, ma anche come principio
metodologico che penetra profondamente nella struttura stessa della nuova meccanica
analitica. Infatti non solo si parte dal principio del rasoio d'Occam, di un'economia di
concetti, leggi ed entità ipotetiche per la spiegazione dei fenomeni; ma il principio della
semplicità agisce anche come standard meccanico, in quanto si stabilisce in tutti i
fenomeni meccanici il principio del minimo, per cui se non intervengono elementi
disturbatori tutti gli eventi fisici obbediscono al principio della minima traiettoria, della
minima azione, del minimo lavoro, eccetera.

Quanto al determinismo esso si afferma in seno alla scuola leibniziana, dove


emerge la figura del filosofo Christian Wolff (1679-1754) il quale, trasformando in modo
tipico il principio di ragion sufficiente del maestro, finisce con l'affermare che nulla
accade nella natura senza una ragione, con il che intende una causa, sì che ogni evento è
conseguenza di una situazione esistente nel cosmo (praticamente poi, per i fisici, nel
sistema meccanico in esame) al momento dell'evento stesso, e contribuisce a
determinare tutti gli eventi successivi. Fisicamente, questa ragione o causa si riconduce
alle velocità ed accelerazioni di tutte le particelle coinvolte nell'evento fisico stesso,
velocità ed accelerazioni che ne determinano in maniera univoca e necessaria
l'andamento e le conseguenze successive. Ma anche in seno alla scuola newtoniana i
progressi stessi dell'astronomia di osservazione e dell'astronomia matematica ne
mettono in crisi il contingentismo originario.
L'astronomo Edmond Halley (1656-1742) studiando la cometa che porta il suo
nome ne scopre la regolarità dell'orbita, riconducibile alle leggi di Keplero; Alexis
Clairaut (1713-1765) riesce, sulla base della legge newtoniana di gravitazione, a predire
il nuovo passaggio della cometa di Halley per l'aprile 1759, nonché a ricondurre alla
regolarità delle leggi newtoniane le apparenti irregolarità del moto lunare; nel 1781
Herschel scoprirà un nuovo pianeta, Urano, e potrà dimostrare che la sua orbita
obbedisce alle leggi kepleriano-newtoniane. Da allora l'astronomia viene concepita
come scienza esatta, e il fatale movimento dei pianeti, completamente prevedibile a
partire dalle formule di meccanica razionale in cui si esprimono le leggi di natura,
diviene il modello di tutto il divenire naturale.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =8;!

Tipicamente illuministica è l’apertura di Pierre S. Laplace (1749-1827) a una vasta


gamma di interessi (matematica, astronomia, fisica, chimica, ecc.). Questo carattere non
specialistico della cultura di Laplace va connesso alla sua costante preoccupazione di
diffondere fra i contemporanei la conoscenza dei più importanti risultati della ricerca
scientifica, affinchè questi non si trasformino in patrimonio esclusivo di pochi iniziati.
Per Laplace la scienza costituisce uno dei più forti elementi propulsori della civiltà,
cosicchè la sua diffusione in strati sempre più larghi di popolazione fornirà una delle
maggiori garanzie contro l’oscurantismo e la superstizione. In più Laplace ritiene che la
scienza stessa sia un fenomeno eminentemente sociale, cosicchè non potrebbe fiorire e
svilupparsi al di fuori di una società ben decisa a realizzare un vivere civile.
Altro tema tipicamente illuministico che ritroviamo in Laplace è la polemica
contro i sistemi metafisici, i quali pretendono di cogliere la verità assoluta da cui
dedurre l’intera realtà. Il loro errore dipende dal non riconoscere all’esperienza
l’importanza primaria che le compete, e quindi non accettare che essa possa sempre
insegnarci qualcosa di nuovo, capace, per la propria intrinseca novità, di mettere in crisi
ogni precedente concezione. L’illusorietà delle presunte spiegazioni metafisiche si
rivela, secondo Laplace, nel loro stesso fare appello a nozioni inverificabili che non
possono venire smentite solo perché sono puramente verbali. Al contrario, le ipotesi
scientifiche debbono venire suggerite dall’esperienza e risultare passibili di conferma
empirica. Quanto ora accennato ci fa capire perché Laplace, mentre è decisamente
contrario ai sistemi metafisici, non respinga affatto i sistemi scientifici, anzi ne asserisca
la necessità; il fatto è che questi ultimi, in primis il sistema newtoniano di cui riconosce
l’eccezionale importanza, non sono e non vogliono essere assoluti; sono invece
correggibili, perfezionabili, integrabili partecipando in modo essenziale alla dialettica
del progresso scientifico. Stando così le cose, può apparire singolare che proprio
Laplace abbia voluto tracciare, sia pure soltanto in linea di principio, il piano generale e
rigoroso di una spiegazione meccanicistica dell’intero universo (supposto quale un tutto
unico, di cui ogni parte sarebbe legata alle altre da nessi causali infrangibili),
spiegazione basata su di una presunta applicabilità illimitata delle leggi della dinamica
settecentesca, nonché sull’ipotetica integrabilità di tutte le equazioni differenziali cui tali
leggi conducono nei singoli casi. Sorge infatti spontanea la domanda se un tale edificio
teorico non si collochi automaticamente al di fuori della dinamica storica che il nostro
autore riconosceva all’effettivo sapere scientifico, e se pertanto esso non costituisca un
implicito ritorno a quella metafisica che proprio Laplace aveva tanto criticato. Certo è
che egli riuscì a tracciare le linee generali del meccanicismo scientifico con tale
perfezione che il suo piano, o progetto, finì per costituire l’ideale di gran parte della
ricerca scientifica ottocentesca. Data la sua importanza, riportiamo per intero il celebre
passo di Laplace dedicato all’argomento in esame: “Dobbiamo dunque considerare lo
stato presente dell’universo come l’effetto del suo stato anteriore e come la causa del suo
stato futuro. Un’Intelligenza che, per un dato istante, conoscesse tutte le forze da cui è
animata la natura e la collocazione rispettiva degli esseri che la compongono, se per di
più fosse abbastanza profonda per sottomettere questi dati all’analisi, abbraccerebbe
nella stessa formula i movimenti dei più grandi corpi dell’universo e dell’atomo più
leggero: nulla sarebbe incerto per essa e l’avvenire, come il passato, sarebbe presente ai
suoi occhi. Lo spirito umano offre, nella perfezione che ha saputo dare all’astronomia,
un pallido esempio di quest’Intelligenza. Le sue scoperte in meccanica e in geometria,
unite a quella della gravitazione universale, l’hanno messo in grado di abbracciare
nelle stesse espressioni analitiche gli stati passati e quelli futuri del sistema del mondo”.
=8=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Ciò che è importante sottolineare in queste parole è il pieno riconoscimento


dell’autonomia dell’esperienza; vero è infatti che l’Intelligenza in esame è in grado di
dedurre, dalla conoscenza completa dello stato dell’universo in un istante t, quella di
tutti i suoi stati in un qualunque altro istante passato o futuro, ma per compiere tale
deduzione essa ha pur sempre bisogno di apprendere, per esempio attraverso un tipo di
conoscenza non deduttiva e quindi non puramente razionale come l’esperienza (oggi
diremmo con un’operazione di misura), la collocazione rispettiva degli esseri naturali
all’istante t e la distribuzione delle forze che in tale istante agiscono su detti corpi. In
altre parole: il sapere scientifico, anche a livello dell’Intelligenza di cui parla Laplace, ha
bisogno di partire da un insieme di dati, di trovarsi di fronte a qualcosa su cui elevare il
proprio edificio matematico; la ragione non costruisce a priori la natura, ma si limita a
scoprirne le leggi che garantiscono l’inscindibile unità fra il passato, il presente e il
futuro. La differenza tra sistema scientifico e sistema metafisico è, in ultima analisi, tutta
qui; ma è una differenza che stabilisce fra essi un divario incolmabile. Laplace mira a
una “grande scienza”, estremamente generale, capace di organizzare e sistemare tutta la
realtà. Ma proprio la generalità conseguita da tale scienza dovrà risultare l’arma più
efficace contro l’unità metafisico-teologica vagheggiata dai vecchi filosofi. Se infatti è
comprensibile che l’uomo faccia ricorso al soprannaturale quando questo gli è
indispensabile per concepire in forma unitaria la realtà, tale ricorso diventa
automaticamente superfluo e perde di ogni consistenza quando l’unità si rivela
perfettamente afferrabile già per semplice via scientifica. Tanto più che l’unità raggiunta
dalla “grande scienza” è qualcosa di chiaro e ben controllabile, mentre l’altra è un puro
nome, vuoto di contenuto, è una mera fantasia che sfugge per principio ad ogni verifica.
Su queste premesse Laplace costruisce il suo intero sistema cosmologico nella
suprema opere Mécanique Celeste (1805), fondandolo unicamente sulle leggi della
meccanica analitica, le quali gli servono non solo a spiegare matematicamente i
fenomeni celesti, ma a formulare pure matematicamente la celebre ipotesi (detta di
Kant-Laplace) sull’origine del sistema solare dalla nebulosa primitiva: raffreddandosi,
una nebulosa gassosa si contrae e contraendosi la sua velocità di rotazione aumenta
secondo le leggi della dinamica; le forze di rotazione producono una serie di anelli di
materia che frantumandosi e aggregandosi sotto l’azione della gravità danno origine ai
pianeti. Così si sarebbe reso conto del fatto che tutte le orbite sono quasi sullo stesso
piano e tutte le rivoluzioni avvengono nello stesso verso. Tutte le altre stelle potrebbero
essersi formate in un modo simile, e alcune di esse possedere pianeti che girino loro
intorno. E tutto questo, come risponderà a Napoleone, senza bisogno dell’ipotesi di Dio.
L’ipotesi di Laplace sull’evoluzione dell’universo completò la concezione meccanicistica
estendendola fino ai tempi primordiali, ed il meccanismo della forza aveva decisamente
rimpiazzato il meccanismo dell’urto, imponendo a Laplace l’assunzione, aborrita da
Cartesio e Newton, che la gravità sia inerente alla materia.
Il famoso brano di Laplace riferito in precedenza si trova inserito nell’opera Essai
philosophique sur les probabilités, quasi a sottolineare che l’autore non vede alcuna antitesi
fra determinismo meccanicistico e uso del calcolo delle probabilità. È innanzitutto
chiaro che il modello da cui Laplace ricava la propria concezione della conoscenza è
quello della conoscenza astronomica, che sulla base di ben precisi dati osservativi e di
elevate elaborazioni matematiche riesce a presentarci una visione unitaria del cielo, ove
ogni fenomeno rinvia a tutti gli altri e non è quindi spiegabile indipendentemente da
essi. Proprio l’astronomia, inoltre, è in grado di prevedere con notevole esattezza gli
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =84!

eventi futuri e anche di determinare la data precisa di quelli trascorsi. Proprio su queste
considerazioni si inserisce la giustificazione del calcolo delle probabilità. Il
determinismo meccanicista ci garantisce la perfetta razionalità del decorso dei
fenomeni, esclude cioè l’irrazionalità. L’immagine laplaciana dell’intelligenza suprema
pone però in luce due condizioni indispensabili per afferrare tale razionalità: 1) la
conoscenza sicura dell’esatta distribuzione di tutti i corpi e di tutte le forze della natura
in un dato istante t; 2) il pieno possesso dello strumento matematico. Entrambe sono da
noi irraggiungibili, specialmente la prima che comporterebbe un’infinità di
osservazioni, e di conseguenza noi sappiamo che non potremo mai avere una
conoscenza piena e completa di tutto l’universo; sappiamo anzi qualcosa di più, che
l’ignoranza di un evento non può far a meno di ripercuotersi negativamente sulla
nostra conoscenza di tutti gli altri, data la loro rigida interconnessione. La realtà dei
progressi scientifici ci dimostra però, con l’evidenza dei fatti, che siamo
indiscutibilmente in grado di muoverci entro l’intervallo esistente tra ignoranza totale e
onniscienza, avvicinandoci a questo secondo estremo e allontanandoci dal primo; si
tratta di prendere atto di questo stato di cose e inventare uno strumento che tenga conto
sia della nostra parziale ignoranza sia della nostra parziale conoscenza. Questo
strumento è per l’appunto costituito dal calcolo delle probabilità, che secondo Laplace,
rappresenta la chiave di tutte le scienze.
Se l’uomo non può entrare in possesso di una scienza completa ed esaustiva,
come pretenderebbe il metafisico, non è nemmeno condannato ad una ignoranza
completa. Se non può conoscere intuitivamente l’intera realtà, è tuttavia in grado di
approssimarla, di avvicinarsi gradualmente ad essa, di formulare teorie che senza
dubbio saranno sempre rivedibili (sempre solo parzialmente vere) ma che costituiscono
comunque autentici importantissimi passi sulla via della verità totale. Laplace è ben
disposto ad ammettere che la conoscenza probabile non esaurisce la verità, ma sostiene
con estrema decisione che essa è pur sempre conoscenza. La conoscenza
onnicomprensiva resta giustificata come limite cui possiamo e dobbiamo tendere; essa
ha diritto di intervenire nel programma degli scienziati, ma non può essere considerata
come qualcosa di reale. Reale è invece la conoscenza probabile, che rappresenta
l’autentica situazione di tutto il conoscere umano. La conseguenza di queste
argomentazioni è chiara: l’uso del calcolo delle probabilità nella fisica è non solo lecito
ma indispensabile. Il determinismo della natura e l’uso del calcolo delle probabilità non
si escludono ma si integrano a vicenda: è il presupposto di ogni conoscenza scientifica,
l’unica via, realmente in possesso dell’uomo, per accertarsi che il mondo è
effettivamente regolato da leggi ossia che è davvero un mondo ordinato anche se il suo
ordine può in parte sfuggire allo studioso che si sforza di scoprirlo.
Quanto detto consente a Laplace di interpretare i rapporti tra la matematica e la
fisica in modo diverso da come l’avevano interpretato i grandi scienziati del Settecento.
Secondo lui la matematica non ha più il compito di fornire alla fisica principi necessari
ed evidenti, capaci di garantirne a priori l’assoluta scientificità, o dare eleganza alla
teoria fisica. Vi compie invece una funzione essenziale, che trasforma la fisica da pura
registrazione dei fenomeni in conoscenza via via più approssimata di leggi. Le
espressioni usate da Laplace per esporre la propria posizione possono a prima vista
sembrare quasi contraddittorie. Per un lato infatti scrive che “bisogna bandire dalla
scienza ogni empirismo”; per l’altro afferma che la stessa matematica deve piegarsi alle
esigenze della conoscenza fattuale. Il fatto è che l’autentica scienza, per il nostro
=85! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

scienziato, non risulta né puramente induttiva, né puramente deduttiva. Essa deve


riuscire a combinare questi due metodi come li ha combinati l’astronomia, che è giunta
a conseguire una visione del cielo veramente mirabile: “Per giungervi si sono dovuti
osservare gli astri durante lunghi secoli, riconoscere nelle loro apparenze i movimenti
reali della terra, elevarsi alle leggi dei movimenti planetari e da queste leggi al
principio della gravitazione universale, ridiscendere infine da esso alla spiegazione
completa di tutti i fenomeni celesti fino alle loro più piccole particolarità”. Ecco “ciò
che lo spirito umano ha fatto nell’astronomia”, ed ecco ciò che esso deve fare in ogni
conoscenza che voglia davvero risultare scientifica. In questo doppio movimento di
ascesa e discesa la fisica non può fare a meno di ricorrere alla matematica perché questa
e solo questa le permette di dare alle leggi di natura una formulazione semplice, precisa
e generale, nonché di determinare esattamente i rapporti fra una legge e l’altra. In
conclusione: la matematica è uno strumento essenziale della conoscenza della natura,
perché senza di essa è impossibile enuclearne le leggi e perché solo nelle leggi la natura
svela realmente sé stessa.
È doveroso dare atto che nessuno, prima di Laplace, aveva saputo cogliere con
altrettanta chiarezza questo complesso rapporto dialettico esperienza-matematica, e
nessuno aveva affermato con altrettanta decisione che proprio in questo rapporto va
cercata la radice profonda della scientificità. Da tale punto di vista, Laplace si è
effettivamente saputo collocare nella grande via aperta da Galileo e da Newton,
portandola a un grado di consapevolezza che questi due autori erano stati ben lungi dal
raggiungere (tant’è vero che dopo Newton le ricerche fisiche si erano suddivise in due
rami facenti perno o sulla sola matematica o sulla sola esperienza).
Se la concezione deterministico-meccanicistica risulta senza dubbio non più
accettabile, l’indicazione metodologica elaborata da Laplace conserva invece tutta la sua
validità. La scienza moderna ne ha dato ampie e ripetute conferme, sia mostrando
l’importanza di salire dai meri dati empirici a leggi sempre più generali, sia mostrando
la funzione essenziale che in questa graduale ascesa risulta compiuta dalla matematica
ed in particolar modo dal calcolo delle probabilità.

Accanto all'attività teorica, la meccanica del XVIII secolo affina anche l'aspetto
sperimentale. Macchine semplici, bilance idrostatiche e di precisione, tubi di Newton,
piani inclinati di Galileo, macchine per la forza centrifuga, dispositivi per lo studio
dell'urto, pompe idrauliche, pompe pneumatiche, areometri, barometri, tutti costruiti
con cura, talvolta ingombranti, sempre costosi, costituivano le apparecchiature
tradizionali correnti per ogni corso di meccanica sperimentale. In questo contesto
George Atwood (1746-1807), aveva costruito una macchina per dimostrare la maggior
parte dei teoremi sulla velocità, la forza, l'accelerazione, e l'uniformità del movimento
rettilineo.

Verso la fine del XVII secolo i costruttori di macchine si trovavano in un curioso


imbarazzo: se applicavano ai loro dispositivi le regole teoriche della nuova meccanica,
quali s'erano stabilite da Galileo a Newton, le previsioni teoriche erano ampiamente
smentite dal funzionamento pratico delle macchine, e Guillaume Amontons (1663-1705)
indicava la cause del discredito nella scarsa attenzione prestata dai costruttori all'attrito
e alla rigidità delle funi, cioè alla resistenza opposta dalle funi a essere arrotolate o
srotolate da un cilindro. La diagnosi era esatta, sebbene il fenomeno fosse noto e
menzionato fin dall'antichità da Erone, ma ignota ne era l'entità, perché mancavano
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =86!

studi sperimentali, prescindendo da quelli di Leonardo da Vinci, allora ignoti.


Amontons li iniziò con un suo dispositivo sperimentale e trovò che l'attrito è
proporzionale alla forza con cui un corpo preme sull'altro; che è indipendente
dall'ampiezza della superficie di contatto; che è proporzionale alla velocità del moto
relativo. Aggiunse infine che l'attrito volvente è minore dell'attrito radente. Altri studi
dimostrarono che la forza d’attrito dipende anche dalla natura delle superfici a contatto
e dal tempo di riposo, cioè dal tempo per il quale i corpi rimangono in contatto senza
muoversi uno rispetto all’altro. In sostanza l’attrito al distacco è maggiore dell’attrito
dinamico.

Con la bilancia di torsione Henry Cavendish (1731-1810) giunse a stabilire in 5,48


la densità della Terra rispetto all’acqua e la costante di gravitazione universale
G=6,754⋅10-8 cgs contenuta nella legge della gravitazione di Newton.

7.9 L’ottica

Il trionfo della teoria corpuscolare nel XVIII secolo è comunemente attribuito


all'autorità di Newton, ma ad esso va attribuito anche il freno alla teoria ondulatoria di
Huygens, che solo agli inizi dell’ottocento avrà il suo momento di gloria. Nel XVIII
secolo non c'erano ragioni scientifiche decisive a favore dell'una o dell'altra teoria. Il
fenomeno di diffrazione, oggi invocato come experimetum crucis a favore della teoria
ondulatoria, era rimasto un mistero anche per Huygens; il fenomeno d'interferenza
luminosa non era ancora noto. Le due teorie che si fronteggiavano interpretavano
entrambe, più o meno bene, i fenomeni più comuni; entrambe erano complicate. E
allora, complicazione per complicazione, tanto valeva attenersi alla teoria emissionistica
che si presentava come un'ottica del senso comune, in quanto spiegava, in una forma
d'immediata intuizione, il fenomeno ottico più elementare, la propagazione rettilinea
della luce.
Sebbene la grande maggioranza dei fisici del XVIII secolo abbia seguito la teoria
emissionistica, che, privata di ogni elemento ondulatorio, non era neppure la teoria
newtoniana, pure non mancarono, specialmente da parte dei matematici, critiche e
riserve, rimaste però sempre reazioni personali, rivelatrici delle insufficienze teoriche
della dottrina di Newton. Eulero, Daniel Bernoulli, Franklin respingono nettamente la
teoria corpuscolare a favore di una teoria ondulatoria. Eulero, dopo una critica della
teoria newtoniana nei suoi scritti, tentò di costruire una teoria ondulatoria, capace
d'interpretare razionalmente i fenomeni luminosi allora noti. Egli non ricorda mai
Huygens, sebbene sia difficile pensare che non ne abbia conosciuto l'opera e attribuisce
a Cartesio la prima idea di una teoria ondulatoria, ma gli rimprovera di aver supposta
infinita la velocità della luce. Alla teoria newtoniana rivolge critiche allora abbastanza
comuni che si possono così riassumere: la continua emissione di particelle luminifere
provocherebbe, entro un certo tempo, l'esaurimento del Sole; l'incrocio di fasci di luce
provenienti dal Sole e dalle stelle, cioè da ogni direzione, ne modificherebbe la
traiettoria rettilinea; i corpi trasparenti dovrebbero essere dotati di pori disposti in linea
retta in tutte le direzioni; le particelle luminifere scagliate continuamente dal Sole e
dalle stelle riempirebbero lo spazio astrale più della materia sottile cartesiana.
=87! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Alle assurdità del sistema newtoniano si deve opporre una nuova teoria,
l'ondulatoria: la luce è una vibrazione di una materia sottile chiamata etere, diffusa in
tutto l'universo e compenetrata nei corpi, la cui bassissima densità e grandissima
elasticità ne spiega l'enorme velocità rispetto al suono. Per Eulero l'analogia tra luce e
suono è perfetta: “la loro differenza è solo di grado”, dice, onde egli si assume il
compito di riportare tutti i fenomeni ottici sotto il dominio della meccanica. Come
l'altezza dei suoni dipende dalla frequenza, così la diversità dei colori dipende dalla
diversità di frequenza delle vibrazioni dell'etere, corrispondendo alla massima e
minima frequenza rispettivamente il colore violetto e il colore rosso. La luce bianca è
una mescolanza di tutti i colori. La teoria del colore dei corpi illuminati è esemplata sul
fenomeno di risonanza acustica. Se la luce, argomenta Eulero, fosse riflessa da un corpo
opaco su cui cade, l'osservatore non vedrebbe il corpo opaco, ma la sorgente da cui
proviene la luce incidente, come avviene in uno specchio: altrimenti, dunque, va
interpretata la visibilità dei corpi opachi illuminati. Precisamente, secondo Eulero, la
luce che vi arriva mette in moto vibratorio le particelle della loro superficie in risonanza
con l'onda luminosa incidente. Ne deriva che, affinché un corpo appaia di un certo
colore, la luce che lo investe deve contenere quel colore e le particelle della sua
superficie debbono poter vibrare con la frequenza corrispondente. In altre parole, il
corpo opaco capta la luce incidente e la riemette con la frequenza che le sue particelle
superficiali sono capaci di assumere. In questa teoria s'inquadra perfettamente
l'interpretazione della fosforescenza, fenomeno fino allora rimasto ai margini delle
teorie ottiche.
La teoria di Eulero non ebbe seguito apprezzabile, i più la ignorarono, pochi la
confutarono e il suo solo effetto benefico forse consistette nel confermare i dubbiosi,
come D'Alembert, nel loro atteggiamento agnostico: poiché sulla natura della luce non
sappiamo nulla, il comportamento scientifico più corretto è la pura descrizione dei
fenomeni.

Ancora due voci nel deserto: la voce di Jean-Paul Marat (1743-1793),


protagonista della rivoluzione francese, e quella di Johann Wolfgang Goethe (1749-
1832), il poeta tedesco.
Prima della rivoluzione, Marat si dedicava con successo a studi di fisica, non
privi di qualche aspetto interessante, ma tuttavia completamente ignorati dagli
ambienti accademici. Tra altri lavori di ottica, Marat pubblicò nel 1780 un volume in cui
espone una nuova teoria sulla natura dei colori e la rifrazione della luce. La luce,
secondo Marat, è composta di tre colori primitivi: il rosso, l'azzurro e il giallo, la cui
mescolanza, in dosaggi opportuni, dà tutti gli altri colori e la luce bianca. Nelle
immediate vicinanze di un corpo opaco, un raggio di luce è decomposto in tre raggi
corrispondenti ai colori primitivi, i quali incontrano il corpo opaco con angoli
d'incidenza diversi, ne sono egualmente rifratti ed emergono pertanto separati. Secondo
Marat, Newton ebbe il torto di fondere in uno due fenomeni distinti e successivi: la
deviazione e la rifrazione.
Per Goethe l'interesse per la teoria dei colori non fu un passeggero capriccio
d'artista, ma una passione che lo tenne occupato per buona parte della sua vita e alla
quale dedicò numerosi scritti. Dopo essere stato newtoniano, lanciò violenti attacchi
contro Newton, che accusava di aver considerato soltanto l'aspetto fisico dei colori, con
la pretesa di spiegarli unicamente con la diversità dei raggi. Secondo Goethe, i “colori
chimici” sono permanenti e inerenti ai corpi, mentre i “colori fisici” sono temporanei e
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =88!

sorgono dalla varia mescolanza di luce e d’ombra: si trattava di vecchie idee, che ormai
erano state superate da un pezzo.

Nel Settecento si va chiarendo il concetto d'intensità luminosa e si cominciano a


studiare i dispositivi che possono aiutare l'occhio nei confronti d'intensità luminose. Già
Huygens nel 1698 aveva tentato un confronto tra l'intensità luminosa del Sole e di Sirio.
Ma il primo studio sistematico fu compiuto dal francese Pierre Bouguer (1698-1758) che
per confrontare tra loro l'intensità di due sorgenti luminose lo scienziato francese si
serve di uno strumento costituito da un cartone verticale nel quale sono praticati due
fori chiusi con sottile carta bianca, ciascuno illuminato da una sola delle due sorgenti in
esame e che inviano raggi egualmente inclinati sulla superficie dei fori. Posto l'occhio
dietro il cartone, si variano le distanze delle due sorgenti fino a che si giudicano
egualmente illuminati i fori del cartone: ottenuta questa condizione, le intensità
luminose delle due sorgenti stanno tra loro in ragione inversa dei quadrati delle loro
distanze dallo schermo. I numerosi risultati sperimentali ottenuti col dispositivo
descritto e l'impiego della matematica gli permisero di studiare la perdita d'intensità
luminosa per riflessione. Bouguer determinò la perdita d'intensità nel passaggio della
luce attraverso un mezzo, osservando anche l'assorbimento selettivo dell'aria per i
diversi colori; misurò i rapporti d'intensità luminosa della Luna e del Sole, e del Sole a
differenti altezze sull'orizzonte. Tutte queste ricerche furono organicamente esposte nel
Traité d’optique, apparso postumo nel 1760.
Un decisivo progresso si ha con la comparsa nel 1760 di un lavoro del
matematico e fisico tedesco Johann Heinrich Lambert (1728-1777), nel quale distingue
tra lo splendore, grandezza che si riferisce alla sorgente, e l'illuminazione che riguarda i
corpi illuminati. Lo studio teorico e sperimentale comincia dalla seconda grandezza,
con la dimostrazione di quattro teoremi: l'illuminazione è proporzionale alla superficie
del corpo illuminante, inversamente al quadrato della distanza tra corpo illuminato e
illuminante, inversamente al seno dell'angolo d'incidenza alla superficie illuminata,
direttamente al seno che i raggi luminosi fanno con la superficie illuminante. Dopo
l'illuminazione, Lambert passò allo studio dello splendore; descrisse con molti
particolari l'assorbimento dell’aria, confermò la legge di Bouguer sull'influenza dello
spessore del mezzo nell'assorbimento della luce.

7.10 Termometria e calorimetria

I fenomeni termici erano già noti all'alba della civiltà. Ogni forma di tecnologia
dei metalli richiedeva l'applicazione del calore, e le nozioni empiriche in proposito si
dovettero accumulare molto presto. Prima di Platone si riteneva che fuoco e calore
fossero la stessa cosa. Il filosofo greco cominciò a distinguere fra queste due entità,
affermando che il calore fosse una percezione provocata dalla penetrazione della
fiamma nella materia. Anche Aristotele elaborò una sua teoria in merito: egli sostenne
che il calore fosse generato dall’eccitazione dell’etere da parte del Sole e del fuoco.
Dovettero passare molti secoli prima che le concezioni dei filosofi greci venissero messe
in discussione.
Per un lungo periodo di tempo, lo studio scientifico del calore si intrecciò con
quello dei gas che, durante il XVIII secolo, era al centro dell'attenzione. Potremmo
=89! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

arbitrariamente segnare la data d'inizio dello studio scientifico del calore facendola
risalire alla costruzione dei primi termometri dell'Accademia del Cimento, attorno al
1650. Già Galileo aveva costruito, tempo prima, un termoscopio, ma furono i membri
dell'Accademia, in maggioranza suoi allievi, a usare ampiamente e sistematicamente i
termometri. Si trattava comunque di uno strumento che non aveva punti fissi: i dati
ottenuti con termometri differenti non potevano quindi essere confrontati tra loro.

Nel 1701 Newton aveva proposto una scala in cui il punto di congelamento
dell'acqua era assunto come lo zero e la temperatura del corpo umano aveva il valore
12. Naturalmente si presupponeva che il coefficiente di espansione del fluido utilizzato
nel termometro fosse costante, o, per meglio dire, si definiva la temperatura in modo da
rendere costante quel coefficiente. Alcuni anni dopo Gabriel Fahrenheit (1686-1736)
propose di assumere come punto zero la temperatura più bassa che si poteva allora
ottenere usando una miscela di ghiaccio e di sale. Poco dopo la morte di Fahrenheit si
scelsero come punti fissi la temperatura di congelamento e quella di ebollizione
dell'acqua a pressione atmosferica (scala Celsius).
Per tutta la prima metà del Settecento la fisica si dedicò alla costruzione e al
perfezionamento dei termometri, convinta che essi misurassero “i gradi di calore”. La
generalità dei fisici riuniva in un unico confuso concetto tanto la sensazione termica che
il calore. Le teorie, pur con numerose variazioni, erano sostanzialmente due,
tramandate dall'antichità classica e rinverdite dal rinascimento: la teoria cinetica e la
teoria sostanziale.

La teoria cinetica, che riteneva il calore un modo d'essere o un accidente della


materia, era abbastanza seguita nella prima metà del Settecento, tanto che Eulero, nel
1738, vince il premio del concorso bandito dall'Academie des sciences di Parigi,
sostenendo la tesi che “il calore consiste in un certo moto delle piccole particelle dei
corpi”. Nello stesso anno il suo condiscepolo Daniel Bernoulli (1700-1782) precisava la
secolare intuizione generica in un'opera classica. Le particelle dei fluidi elastici, cioè,
come noi diremmo, dei gas, sono secondo Bernoulli in rapido movimento in tutte le
direzioni. Se un certo numero si trova in un cilindro verticale vuoto, superiormente
chiuso da un diaframma mobile, gli impulsi trasmessi al diaframma dalle particelle che
si urtano ne equilibrano il peso: il diaframma si solleva se il proprio peso diminuisce e si
abbassa se aumenta. Nel secondo caso, però, la forza elastica del gas racchiuso aumenta,
sia perché il numero di particelle diventa maggiore rispetto allo spazio da esse
occupato, sia perché ogni particella urta più frequentemente contro il diaframma.
Bernoulli dimostra che, ammesse queste ipotesi, gli spazi che il fluido elastico occupa
sono in ragione inversa della forza elastica del gas: è la legge di Boyle. Secondo
Bernoulli, inoltre, la temperatura aumenta la velocità delle particelle e la forza
espansiva del gas risulta proporzionale al quadrato dell'aumento di velocità, perché con
l'aumentare della temperatura aumentano sia il numero di urti, sia l'intensità di
ciascuno. Bernoulli verifica la propria teoria servendosi del termometro di Amontons.

La teoria di Bernoulli non affrontava specificamente il problema sulla natura del


calore: era semplicemente una teoria cinetica dei gas, nella quale il calore interveniva,
con un meccanismo non chiarito, come acceleratore delle molecole gassose. Fu Michail
Lomonosov (1711-1765) a distinguere nettamente i due problemi, trattati in due
memorie successive. Secondo Lomonosov, per ogni corpo solido, liquido o aeriforme, il
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =8:!

calore consiste nel moto intestino della materia, cioè nel moto delle sue ultime
particelle. Ma dei tre movimenti che una particella può avere, traslatorio, oscillatorio,
rotatorio, qual è quello nel quale propriamente consiste il calore? Lomonosov esclude i
due primi movimenti per ragioni che oggi possono apparire insufficienti, ma che ai suoi
tempi si presentavano come abbastanza ragionevoli (come puo esservi inavvertito
tremolio di particelle in un corpo solido, compatto?), ed è perciò condotto ad affermare
che il calore consiste nel moto rotatorio delle ultime particelle costituenti i corpi. La
produzione di calore per attrito (fenomeno fondamentale da lui invocato a sostegno
della teoria meccanica), la propagazione del calore, i cambiamenti di stato sono
interpretati meccanicamente come trasmissione di moto rotatorio tra particelle a
contatto con le loro superfici. La teoria prevede anche un limite inferiore del calore, cioè
della temperatura, ma non un limite superiore: “perché non si può assegnare nessuna
velocità di moto tanto grande che un'altra maggiore non si possa immaginare. .. Per
contro il moto può essere diminuito sino a ridurre il corpo in quiete e non può esservi
alcuna ulteriore diminuzione di moto”.
In conclusione, Lomonosov, senza dubbio ispirato dalla teoria di Bernoulli a lui
ben nota, sostanzialmente accetta gli urti elastici bernoulliani, come fenomeno
secondario, conseguente all'attrazione newtoniana e al moto rotatorio degli atomi, una
teoria più elaborata, di più difficile comprensione, ma che aveva sulla bernoulliana il
vantaggio di indicare che il meccanismo che consente di percepire il moto e un calore.
Tanto la teoria di Bernoulli che quella di Lomonosov furono presto dimenticate, forse
perché troppo premature rispetto alla scienza del tempo. Quando una teoria anticipa
troppo i tempi, viene facilmente dimenticata.

Per tutto il XVIII secolo convisse con la teoria meccanica anche la teoria
fluidistica, la quale, anzi, con l'inoltrarsi del secolo, andava via via acquistando
maggiori simpatie. Alla teoria fluidistica si era avvicinato anche Galileo, che ipotizzava
“atomi di fuoco” che si insinuano nei corpi, in particolare nei fluidi e ne determinano la
dilatazione. La teoria fluidistica era un'ipotesi rappresentativa d'immediata intuizione,
con facili nessi analogici, che nella prima metà del secolo fu in felice connubio con la
teoria del flogisto.
La teoria del flogisto (dal greco=combustibile) era stata elaborata da Johan J.
Becher (1635-1682), uno scienziato tedesco, e ampiamente sviluppata e perfezionata da
un altro scienziato tedesco, Georg E. Stahl (1660-1734). La teoria del flogisto postulava
l'esistenza di una sostanza, il flogisto, che si pensava fosse contenuta in tutti i corpi
combustibili; il flogisto si liberava sia quando veniva bruciato materiale organico, sia
trattando metalli con il calore in aria libera. Questa azione trasformava i metalli in
metalli deflogisticati, quelli che noi oggi chiamiamo ossidi. Un ossido poteva tuttavia
riacquistare il proprio flogisto per riscaldamento con carbone, il quale era un qualcosa
contenente flogisto quasi puro. Stahl sapeva che gli ossidi pesavano più dei metalii dai
quali originavano, ma si potevano trovare scappatoie attribuendo al flogisto un peso
negativo o cercando altre vie per sfuggire a quelle difficoltà. La teoria del flogisto
poteva essere adattata alla spiegazione di molti fatti, ha la sua importanza nella storia
della chimica ed è servita a interpretare, sia pure erratamente, notevoli scoperte, come
quella dell'ossigeno. Il flogisto non era calore, ma quando si liberava dai corpi
produceva calore. La teoria non s’identificava, perciò, con la teoria sostanziale del
calore.
=9<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Antoine Lavoisier (1743-1794) fece tramontare la teoria del flogisto, ma dette


maggior vigore alla teoria sostanziale del calore, ponendo il calorico tra gli elementi.

La comunità scientifica iniziò a domandarsi, non solo quale fosse la natura del
calore, ma come questa grandezza, distinta dalla temperatura, potesse essere
quantificata. Il primo uomo che ne parlò come di un’entità fisica definita, misurabile, fu
Joseph Black (1728-1799). Egli riteneva che il calorico fosse un fluido straordinariamente
elastico, imponderabile e indistruttibile, capace di penetrare nella materia quando essa
veniva riscaldata e di uscirne quando veniva raffreddata. L’equilibrio termico tra due
corpi, posti a contatto, veniva giustificato come il risultato di un flusso di calorico dal
corpo più caldo a quello più freddo, fino al raggiungimento della stessa temperatura.
Da questa idea fondamentale Black è condotto a formulare regole di misura per il calore
e un primo metodo di misura, quello delle mescolanze. Black definì poi la caloria ed
affermò che quantità uguali di sostanze diverse portate alla stessa temperatura
contengono quantità diverse di “calorico”. Nacque, in tal modo, il concetto di capacità
termica delle diverse sostanze. Un altro importante concetto introdotto da Black fu
quello di calore latente, cioè la quantità di calore necessaria per trasformare acqua in
ghiaccio a 0 °C o per trasformare acqua bollente in vapor d’acqua a 100 °C. Sino a Black
si riteneva che bastasse portare un solido alla temperatura di fusione, perché le forze di
attrazione tra le sue molecole s'indebolissero tanto da far assumere al corpo lo stato
liquido. Black fece tramontare la teoria con un esperimento fondamentale: a una massa
di ghiaccio a 32 °F (0 °C) aggiunse un'eguale massa d'acqua a temperatura via via
crescente sino a ottenere la fusione di tutto il ghiaccio, rimanendo la temperatura di
tutta la massa a 32 °F. Trovò così che la temperatura dell'acqua calda da aggiungere era
di 172 °F (circa 58,3 °C). Ossia, come oggi diremmo, il calore di fusione del ghiaccio è
circa 76 cal/g⋅°C. Ma il risultato sperimentale smentiva il punto fondamentale della
teoria sostanziale del calore: la costanza della quantità di calore nei fenomeni termici.
Nell'esperimento l'acqua calda cedeva al ghiaccio calore, ma questo spariva, non si
trovava più come aumento di temperatura del ghiaccio e perciò non era rivelabile al
termometro. Come far rientrare l'andamento del fenomeno nella teoria? come
aggiustare il conto? Black non ebbe esitazioni: saldò il conto inventando il calore
nascosto o, in termini moderni, il calore latente. Durante la fusione una parte di calore si
fissa sulle molecole del corpo e non è più rilevabile dal termometro, il quale rivela
soltanto il calore libero. Imboccata la via del calore latente, altri fenomeni ricevevano
interpretazioni del medesimo tipo. Le idee teoriche di Black, comunque, sono ancora
dominate dal concetto di flogisto.

Anche per l’evaporazione il contributo di Black fu determinante. Aveva riscosso


grande favore la teoria di Charles Le Roy (1726-1779), secondo il quale l'evaporazione è
una soluzione di acqua in aria. Come per le soluzioni infatti, anche per le evaporazioni
in ambiente chiuso si raggiunge la saturazione e il limite di saturazione aumenta con
l'aumentare della temperatura. La teoria cominciò a impallidire quando Black provò che
la produzione di vapore richiede somministrazione di calore. Egli, posta su un fuoco
regolato una certa massa d'acqua, la riscaldava sino all’ebollizione e ne determinava,
dopo un certo tempo, la perdita di peso; inversamente, constatava che una massa
d'acqua si riscalda se in essa si fa condensare una certa quantità di vapore. Black,
accertava, così, il grande calore latente del vapore. Lavoisier tentò di conciliare le due
teorie: l'evaporazione è una soluzione di liquido parzialmente in aria e parzialmente in
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =9;!

calorico (vocabolo da lui usato per indicare il fluido calore), come dimostra la
refrigerazione che sempre accompagna l'evaporazione. Ma l'evaporazione di un liquido
in ebollizione è un fenomeno per sua natura completamente differente, nel senso che la
parte di liquido sciolta nell'aria è quasi trascurabile rispetto alla parte di liquido sciolta
nel calorico. Lavoisier, pertanto, proponeva di chiamare vaporizzazione quest'ultimo
fenomeno ed evaporazione il primo: vocaboli che ci sono rimasti ormai come sinonimi,
sebbene il primo abbia una certa sfumatura di rafforzamento. Ma la distinzione fisica
saliente tra i due fenomeni è, secondo Lavoisier, che nell'evaporazione la quantità di
vapore prodotto è proporzionale alla superficie evaporante e nella vaporizzazione alla
quantità di calorico fornita. Lavoisier, insomma, fa un passo indietro rispetto alla
scienza di Black.

In questo ambiente scientifico si cominciarono i primi esperimenti calorimetrici e


a George W. Richmann (1711-1753), fisico estone, si deve la prima formula sulle
mescolanze in base a una sua concezione fluidistica del calore. Gli esperimenti di
Richmann furono ripetuti da Johann K. Wilcke (1732-1796), che verificò la formula delle
mescolanze e introdusse l’unità di misura del calore, sostanzialmente definita alla
maniera moderna. Ma il metodo delle mescolanze ottenne la sua massima applicazione
con il calorimetro di Lavoisier, grazie il quale si misurarono con estrema precisione i
calori specifici di molti corpi, solidi e liquidi.
La prima contestazione sulla natura del calorico fu avanzata da Benjamin
Thompson (1753-1814), conte di Rumford, che fu tra i primi a rilevare fatti e a eseguire
esperimenti che suffragavano le idee sull'origine meccanica del calore. Thompson aveva
interessi tecnici e, a Londra, eseguì esperimenti su cannoni e su esplosivi, mostrando
che una parte del lavoro compiuto durante l’alesatura della bocca da fuoco si trasforma
in calore e, usando un attrezzo appositamente smussato, mostrò anche che il calore era
prodotto in continuazione purché si fornisse lavoro e non era direttamente correlato al
taglio del metallo. Thompson sostenne che esso era incompatibile con una teoria
materiale del calore e che la causa del calore era un moto molecolare o un insieme di
vibrazioni e dette anche dati quantitativi da cui si può ricavare un equivalente
meccanico della caloria di circa 5,5 J/cal (il valore vero è 4,18 J/cal). Quindi Thompson
fu il primo a concepire l’idea che il calore fosse dovuto ad una sorta di movimento
interno dei corpi materiali e non ad una sostanza particolare, come affermava Black.
L’origine dei suoi dubbi risiedeva nella constatazione che il calore era prodotto “dal
nulla” in certi fenomeni di attrito che, apparentemente, non avevano nulla a che vedere
con le trasformazioni chimiche. Il calore, dunque, non poteva essere considerato come
una qualsiasi sostanza, ma doveva essere attribuito a qualche tipo di moto sconosciuto.

Seguendo i lavori di Thompson, Humphry Davy (1778-1829) fece un esperimento


che accrebbe i dubbi sulla natura materiale del calore: egli dimostrò che due pezzi di
ghiaccio, sfregati l'uno contro l'altro, fondono. L'esperimento era importante perché si
sapeva che il calore specifico dell'acqua è maggiore di quello del ghiaccio, il che negava
ogni interpretazione del fenomeno basata su una teoria materiale del calore.

Le ricerche compiute da Thompson e da Davy non riuscirono, tuttavia, a


sconfiggere la teoria materiale del calorico. Per esempio Laplace corresse la formula
della velocità del suono data da Newton, sottolineando che le onde sonore producono
compressioni adiabatiche (senza trasporto di calore) e non compressioni isoterme (a
=9=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

temperatura costante) come aveva pensato Newton. In questo calcolo dell'elasticità


adiabatica di un gas Laplace fece uso della teoria del calorico e ottenne risultati in
accordo con l'esperienza. Il successo così ottenuto rafforzò la teoria del fluido calorico.
Inoltre le misure dei calori specifici dei gas sembravano essere in accordo con questa
teoria, anche se, in realtà, non lo erano.
In questo periodo andava anche sviluppandosi lo studio delle leggi dei gas che
doveva essere di straordinaria importanza sia per la chimica che per la fisica. Esso era
cominciato sin dai tempi di Newton. Una delle prime conquiste fu la scoperta della
relazione tra il volume e la pressione di un gas ad opera di Boyle e Mariotte e si
scoprirono molti nuovi gas e divenne possibile misurarne le proprietà fisiche: tutti
obbedivano, approssimativamente alla legge di Boyle-Mariotte.
Alla fine del XVIII secolo finalmente la termologia aveva raggiunto dignità
scientifica per i numerosi fenomeni termici scoperti e studiati, per la costruzione di
strumenti e l’elaborazione di coerenti convenzioni di misura, per l’interpretazione non
contraddittoria dei fenomeni di cambiamento di stato e per aver stabilito la differenza
sostanziale tra calore e temperatura.
Un cenno va fatto sulle macchine a vapore, sia per la diretta influenza che
avranno sullo studio della fisica, sia per il loro impatto dirompente sulla società in
relazione alla rivoluzione industriale. Già alcuni cinquecentisti, come Cardano, si erano
occupati della forza espansiva del vapor d'acqua. Denis Papin (1647-1714), discepolo di
Huygens e suo collaboratore alla costruzione di una macchina nella quale lo stantuffo di
un corpo di tromba si sollevava mediante la combustione di polvere pirica posta sul
fondo del cilindro, scoprì che la temperatura di ebollizione dell'acqua aumenta se si
aumenta la pressione, e applicò la scoperta per ottenere acqua a temperatura superiore
a 80 °R, riscaldandola in una pentola chiusa; per evitare la possibile esplosione della
pentola, inventò la valvola di sicurezza, un meccanismo di autoregolazione.
Il fabbroferraio Thomas Newcomen (1679-1730) riallacciandosi all'opera di Papin,
ne riprendeva in particolare l'idea del pistone. Nella macchina di Newcomen il vapore,
prodotto da una caldaia, sollevava lo stantuffo; chiusa quindi la valvola d'ammissione,
si produceva la condensazione del vapore refrigerando il cilindro con acqua; allora lo
stantuffo, spinto dalla pressione atmosferica, cadeva in basso e il moto alternativo dello
stantuffo, attraverso un bilanciere, era comunicato all'albero di una pompa. La
macchina, molto rudimentale, funzionò per decenni, con una perdita enorme di calore,
dovuta principalmente al raffreddamento del cilindro a ogni colpo, mediante un getto
d'acqua.

James Watt (1736-1819), propostosi il problema di diminuire lo spreco di calore


nella macchina di Newcomen, gli sorse l'idea che l'espulsione del vapore dal cilindro si
poteva ottenere anche aprendo al momento giusto una comunicazione tra il cilindro e
un recipiente vuoto: il vapore vi si sarebbe precipitato. Nacque così il refrigerante, il
terzo elemento della macchina termica, che in tal modo si trasformava veramente in una
macchina a vapore, mentre i modelli precedenti erano piuttosto macchine atmosferiche,
perché il loro funzionamento era basato sullo sfruttamento della pressione atmosferica.
Incoraggiato dal primo grande successo, Watt continuò ad apportare alla macchina altri
geniali perfezionamenti, e può essere così considerato l’inventore della macchina a
vapore.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =94!

Già al principio del XIX secolo, l'Inghilterra contava cinquemila macchine a


vapore in funzione, la Francia alcune centinaia, la Germania una decina. La diffusione
della macchina a vapore, fattore primo della nuova era d'industrializzazione, richiama
l'attenzione dei fisici dapprima sullo studio del vapor d'acqua e più in generale degli
aeriformi, successivamente a considerazioni globali sul suo funzionamento.

7.11 Elettricità e magnetismo

La meccanica fu la prima parte della fisica a essere sviluppata secondo gli schemi
che usiamo oggi e servì da modello per il lavoro successivo e, per molto tempo, vi
furono la speranza o l'illusione di ridurre a essa tutta la fisica. L'elettromagnetismo
costituisce l'altro grande pilastro della fisica classica, e, in ultima analisi, si dimostrò
irriducibile alla meccanica.
Al tempo della morte di Newton, quando la meccanica aveva quasi preso la sua
configurazione moderna, la maggior parte delle scoperte relative all'elettricità doveva
essere ancora fatta, infatti, la fenomenologia dell'elettrostatica e della magnetostatica fu
esplorata in larga misura solo nel XVIII secolo, che abbonda di studiosi dell'elettricità e
di scoperte importanti anche se isolate da un contesto generate. L’elettricità fu la prima
branca della fisica moderna le cui origini riposano interamente sull’esperimento, e non
sullo sviluppo di una catena di idee risalenti fino all’antichità. In questo senso,
l’elettrologia fu una scienza veramente baconiana.
Il primo passo necessario per progredire rispetto a quanto si era ottenuto
strofinando il vetro e l'ambra era quello di costruire macchine che fossero in grado di
eseguire lo strofinio in modo efficiente. Otto von Guericke, al fine di fare esperimenti
sul comportamento di certi fenomeni in un vuoto pari a quello che doveva esistere nello
spazio celeste e sull’esistenza di molte virtù che avrebbero dovuto agire a distanza,
costruì una sfera di zolfo mescolato con vari minerali, che poteva essere elettrizzata per
strofinio. Questa sfera gli permise di rilevare parecchie virtù, oltre a essere la prima
macchina elettrostatica.
Il successivo passo nello studio dell'elettricità, la scoperta dei conduttori e degli
isolanti, fu in gran parte merito di un inglese Stephen Gray (1666-1736), che cominciò
facendo esperimenti con un lungo tubo di vetro elettrizzato a una delle estremità e
chiuso da entrambe le parti con tappi di sughero. Osservazioni casuali lo portarono a
modificare l'esperimento, inserendo in uno dei sugheri un bastoncino diretto verso
l'esterno del tubo e così facendo notò che l'elettrizzazione impartita al vetro si
propagava al sughero e al bastoncino. Egli in seguito estese la sperimentazione su
grandi distanze e, mantenendo sospeso un filo per mezzo di cordicelle di seta, riuscì a
trasportare l'elettricità per più di 90 metri. Tuttavia le cordicelle di seta si ruppero sotto
il peso e, quando furono sostituite con fili metallici più robusti, gli effetti elettrici non
vennero più trasmessi. Alla fine Gray interpretò questo esperimento e altri del genere
introducendo la distinzione tra isolanti e conduttori.
Il successivo importante studioso dei problemi dell'elettricità è il francese Charles
Dufay (1698-1739), che scoprì che vi sono due, e solo due, specie di elettricità e le
chiamò elettricità vetrosa ed elettricità resinosa, perché si manifestavano strofinando
rispettivamente il vetro o una sostanza resinosa (oggi parliamo invece di cariche
=95! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

positive e negative). È degno di nota che per stabilire questo fatto fondamentale siano
stati necessari più di cento anni a partire da Gilbert; Dufay accertò che elettricità di
specie uguali si respingono, mentre quelle di specie diverse si attraggono. Nel 1733 egli
assunse un collaboratore per le ricerche sui fenomeni elettrici, l’abate Jean Antoine
Nollet (1700-1770), che formulò una teoria dell’elettricità che andò per la maggiore per
alcuni anni, ma che oggi non ha interesse per i fisici. Egli immagina l’esistenza di un
fluido, forse il medesimo della materia del fuoco e della luce, sparso in tutto l’universo e
compenetrato nei corpi. Lo sfregamento di un copro lo commuove ed esso ne zampilla
in filetti di numero discreto fortemente divergenti. Questa fuoriuscita di materia
effluente richiama dai corpi vicini la materia affluente di eguale natura, che, in quantità
eguale, entra con minore velocità da più numerosi pori. I fenomeni elettrici sono effetti
meccanici dei due flussi di materia elettrica, la cui sede è il corpo elettrizzato.

L'invenzione del condensatore elettrico segnò un progresso tecnico di grande


importanza. Casualmente si scoprì che caricando un liquido in una bottiglia, e tenendo
la bottiglia in mano, si potevano ottenere violente scariche. E.G. von Kleist (1700-1748)
osservò il fenomeno nel 1745 e Pieter van Musschenbroek (1692-1761) di Leida, rilevò
l'importanza del fatto, cosicché l'apparecchio che accumulava o condensava l'elettricità
divenne noto sotto il nome di bottiglia di Leida. Si scoprì poi che la presenza del liquido
non era necessaria e che esso poteva essere sostituito da un foglio conduttore ricoprente
l'interno della bottiglia.
Alcuni anni dopo, John Canton (1718-1772), ispirato dalle teorie di Franklin,
giunse a un'altra importante osservazione. Un conduttore posto vicino a un corpo
carico, ma non in contatto con esso, manifesta una carica elettrica di segno opposto a
quella del corpo carico nella parte più vicina a quest'ultimo, e una carica dello stesso
segno nella parte più lontana. Questo effetto, noto come induzione elettrica, era
radicalmente diverso dagli altri metodi di elettrizzazione noti fino ad allora.

La materia non poteva semplicemente consistere di particelle minute all’interno di


un brodo di fluido etereo e calorifico: era necessario aggiungere un fluido elettrico come
ulteriore ingrediente. Ai primi del Settecento, il “fuoco elettrico”, così chiamato per
ovvie ragioni, fu infatti collegato o con la materia del calore o con l’etere, ma, poiché
una nuova informazione sulla conduzione ed altri fenomeni doveva venir trovata nelle
ipotesi dell’elettricità, il fluido elettrico venne inevitabilmente caratterizzato come una
entità distinta, senza peso e impalpabile come la materia del calore. La postulazione di
questa entità, con cui Benjamin Franklin (1706-1790) fu capace di render conto di un
ampio campo di osservazioni empiriche, dipese in primo luogo dalla dimostrazione dei
suoi effetti. La caratteristica distintiva della teoria elettrica di Franklin fu che essa
sintetizzava il concetto newtoniano di una forza attrattiva tra le particelle ultime di
materia con la postulazione di un singolo fluido elettrico consistente in particelle
reciprocamente repulsive. Secondo la concezione di Franklin, esisteva una sola
elettricità (dottrina monastica) e il caricare positivamente un corpo consisteva nel
pompare in un corpo, dal grande serbatoio nella terra, una quantità di fluido elettrico
maggiore di quello contenutovi normalmente, e tale eccesso si collocava per sua natura
all’esterno del corpo, formando una specie di atmosfera elettrica aderente alla superficie
del corpo stesso. Al contrario, il caricarlo negativamente implicava un prelevamento
forzato di una parte della normale elettricità del corpo. Quindi nessun corpo poteva
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =96!

venire caricato in isolamento completo. In effetti, il solo fenomeno che la teoria dello
scienziato americano non poteva spiegare era la repulsione tra due corpi caricati
negativamente, un punto del quale all’inizio fu inconsapevole. Infatti, poiché la carica
negativa indicava una mancanza del fluido elettrico, la materia normale dei due corpi
avrebbe dovuto manifestare una mutua attrazione leggermente maggiore del solito. Lo
scienziato americano attribuisce al fluido elettrico tre proprietà fondamentali: l’estrema
sottigliezza, la mutua repulsione tra le sue parti; la forte attrazione tra la materia
elettrica e la materia ordinaria.
Franklin fu un rappresentante dell’illuminismo nel contesto americano, e il
principale apporto all'elettrologia fu l'idea della conservazione della carica elettrica e le
conseguenze che ne trasse:

PRINCIPIO DI CONSERVAZIONE DELLA CARICA ELETTRICA


La carica elettrica di un sistema chiuso, somma algebrica delle cariche positive e delle
cariche negative, si mantiene costante nel tempo

Si deve però aggiungere che parecchi studiosi, in primo luogo William Watson
(1715-1787), arrivarono indipendentemente a concezioni analoghe. Secondo Franklin un
corpo contiene un'uguale quantità di elettricità positiva e di elettricità negativa che, in
condizioni normali, si neutralizzano esattamente l'una con l'altra. L'elettrizzazione è la
separazione delle due forme di elettricità, positiva e negativa, con la conseguenza che la
loro somma deve rimanere costante e pari a zero. Franklin illustrò questi concetti con
esperimenti nei quali due persone, in piedi su piattaforme isolate, ricevevano l'elettricità
da un tubo di vetro strofinato con un panno: uno dei due soggetti la riceveva dal vetro,
l'altro dal panno. Quando essi avvicinavano le dita, una scintilla passava dall'uno
all'altro ed entrambi venivano neutralizzati. Altri esperimenti analoghi a questo ne
variavano la forma ma non la sostanza. Per quanto questo risultato fosse importante, la
fama di Franklin presso il grande pubblico è dovuta soprattutto ai suoi esperimenti
sull'elettricità atmosferica, esperimenti culminati nell'invenzione del parafulmine. A
quel tempo le idee riguardanti il fuoco, la combustione, il fulmine, le scintille e le
scariche elettriche erano confuse. Franklin suppose che il fulmine fosse una gigantesca
scintilla elettrica: egli aveva già dimostrato che un corpo appuntito perde facilmente la
sua carica elettrica e, combinando questi due fatti, pensò di riuscire a scaricare un
edificio in modo graduale, proteggendolo così dal fulmine. Gli esperimenti eseguiti,
dapprima in Francia da altri e successivamente a Filadelfia da Franklin, dimostrarono
che si poteva effettivamente estrarre l'elettricità dalle nuvole.

Accanto a Franklin va ricordato il suo amico Joseph Priestley (1733-1804), che


scrisse un libro dal titolo The History and Present State of Electricity (1767) senza
sospettare che lo studio dell'elettricità era appena cominciato. In questo libro riportò un
esperimento che era già stato eseguito da Franklin e che egli confermò. In esso si
dimostrava che all'interno di una scatola metallica chiusa non vi è alcuna carica.
Priestley conosceva l'opera di Newton e giunse alla conclusione che questo esperimento
indicava che le cariche elettriche di uguale segno si respingevano con una forza
proporzionale all'inverso del quadrato della loro distanza. La deduzione era corretta,
ma essa non fu ulteriormente elaborata e non attirò l'attenzione che meritava.
=97! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Il primo decennio della seconda metà del Settecento fu quindi fervido di


discussioni, esperimenti e congetture teoriche sui fenomeni elettrici e magnetici, ed un
altro importante protagonista di questo periodo è Ulrich Theodor Aepinus (1724-1802)
che introduce l’uso della matematica nel settore in esame grazie soprattutto all’opera
Tentamen theoriae electricitatis et magnetismi (1759). Egli cerca la soluzione dei problemi
attraverso una originale ripresa dello schema newtoniano dei Principia. Si doveva, a suo
avviso, compiere un’indagine formale sulle interazioni, senza entrare nel merito della
natura delle forze in gioco e sviluppando un apparato deduttivo rigoroso. Invece di
parlare di atmosfere elettriche, era assai meglio parlare di attrazioni e repulsioni in
senso matematico. La visione frankliniana aveva ammesso l’esistenza di repulsioni tra
le parti della materia elettrica e di attrazioni tra queste ultime e quelle della materia
ordinaria. Secondo Aepinus una teoria completa poteva essere elaborata solo a patto di
introdurre una terza forma di interazione, e cioè una repulsione tra le parti della
materia ordinaria.

Attorno al 1770 la fenomenologia dell'elettricità statica poteva dirsi nota. Si


sapeva che esistevano due tipi di elettricità, una positiva e l'altra negativa, ovvero, come
altri pensavano, un tipo solo, ma tale da poter essere aggiunto o sottratto a un corpo
elettricamente neutro. Si sapeva che l'elettricità si conserva, e cioè che la somma delle
cariche positive e negative è costante. Si conoscevano gli isolanti nei quali l'elettricità
non si può spostare, e i conduttori, nei quali essa si sposta liberamente. Si sapeva che
cariche uguali si respingono tra loro, e che cariche opposte si attraggono Una volta
capiti questi fatti fondamentali, i tempi erano maturi per stabilire una legge quantitativa
per l'attrazione e per la repulsione, e probabilmente molti avevano presente il
precedente newtoniano della gravitazione.
La prova sperimentale diretta della legge dell'inverso del quadrato della distanza
fu ottenuta per la prima volta da John Robison (1739-1805) che costruì un ingegnoso
apparecchio con il quale misurò la dipendenza della forza elettrica dalla distanza. Per
parecchi anni, tuttavia, egli non pubblicò i suoi risultati, e, nel frattempo, Charles
Augustin Coulomb (1736-1806) stabilì in modo chiaro la legge di tale forza, che ancora
oggi giustamente è nota come legge di Coulomb, e la cui forma di interazione è analoga
a quella newtoniana per l’interazione gravitazionale:

LEGGE DI COULOMB
La forza (attrattiva o repulsiva) fra due cariche elettriche puntiformi Q1 e Q2 ha modulo F
direttamente proporzionale al prodotto delle cariche e inversamente proporzionale al
quadrato della distanza r che le separa:
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =98!

Coulomb dimostrò la sua legge, chiaramente enunciata in un saggio del 1788,


servendosi della bilancia di torsione, uno strumento d’incomparabile sensibilità e
versatilità da lui inventato. La ristrutturazione coulombiana della base empirica
dell'elettricità e del magnetismo fu netta. Grazie alla legge di Coulomb la
fenomenologia nota diventava ordinabile secondo schemi teorici generali, e si aprivano
nuovi campi d'indagine guidati da tali schemi. Eppure, la scienza coulombiana non era
esente da problemi e da difficoltà. Per un verso quella scienza era basata su
procedimenti di misura raffinatissima, i cui risultati erano in forte dipendenza da una
strumentazione delicata e sensibile. Non era facile riprodurre i dati sperimentali di
Coulomb, soprattutto se si tentava di riprodurli attraverso dispositivi di laboratorio la
cui geometria non era identica a quella descritta nei resoconti coulombiani: al variare
della geometria, variavano anche i risultati delle misure e apparivano altre forme di
interazione che non riproducevano quelle con andamento 1/r2. Per un altro verso, poi,
l'intera trattazione coulombiana semplificava una fenomenologia nota ponendo una
clausola molto forte sulla separazione tra fenomeni magnetici ed elettrici. Era una
clausola che, alcuni anni piu tardi, Ampère avrebbe dovuto spezzare, in quanto essa
impediva di prevedere l'esistenza di azioni reciproche tra elettricità e fluidi magnetici.
Coulomb aveva posto basi sicure per l'elettrostatica e la magnetostatica, ma, nello stesso
tempo, aveva creato barriere per l'elettrodinamica.
Il lavoro di Coulomb fu subito accettato in Francia, ma dovette passare del tempo
prima che ciò accadesse in altri paesi, anche se la stessa legge era stata scoperta, ma non
pubblicata, dal più eminente studioso inglese nel campo dell'elettricità, Cavendish. La
fama di Cavendish è dovuta più alla sua attività di chimico che a quella di fisico, poiché
le sue scoperte chimiche vennero pubblicate, mentre solo una piccola parte del suo
lavoro nel campo dell'elettricità fu da lui resa nota in un difficile saggio pubblicato nel
1771. La maggior parte dei risultati da lui trovata in elettricità fu rivelata da Maxwell,
che ne intraprese la pubblicazione avvenuta nel 1870. Nella parte del suo lavoro che non
era stata pubblicata si trovò la prova della legge dell'inverso del quadrato della
distanza, basata sull'assenza di campo elettrico all'interno di un conduttore carico ed
elaborata usando teoremi trovati da Newton. Cavendish studiò il flusso di carica lungo
i conduttori e la resistenza ad esso offerta da diversi materiali. Ma fino ad allora, a
dispetto dell’ovvia analogia meccanica espressa nell’idea di un fluido elettrico, il flusso
continuo o corrente di elettricità era del tutto ignoto. A parte la scintilla, l’elettricità era
meglio conosciuta attraverso gli effetti meccanici di attrazione e repulsione. Sebbene la
teoria di Franklin postulasse che il fluido elettrico fosse universalmente associato alla
materia, questo fatto diventò evidente soltanto quando il suo stato normale venne
disturbato. Perciò si trattò di un fenomeno veramente sorprendente quando, alla fine
del settecento, l’elettricità si rivelò come una lenta corrente e non come una scarica
violenta e rapida. La scoperta fu fatta accidentalmente e in maniera tale da essere
interpretata erroneamente. La definizione data da Cavendish della capacità di un
conduttore, deriva dal principio da lui enunciato, che conduttori caricati “allo stesso
grado” (oggi diremmo allo stesso potenziale) contengono quantità di elettricità
proporzionali alle loro capacità. La quantità di elettricità può essere misurata
direttamente scaricando il corpo con un oggetto campione. Egli scoprì inoltre che due
condensatori con la stessa geometria hanno una capacità che dipende dal dielettrico.
Infine misurò la resistenza di vari corpi come quella dell'acqua satura di sale che è
=99! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

560000 volte più resistente al passaggio di elettricità del ferro, nelle stesse condizioni di
configurazione geometrica.

Avendo a disposizione la fenomenologia dell'elettrostatica e conoscendo la legge


dell'inverso del quadrato della distanza, era possibile ormai dare una descrizione
matematica dei fenomeni dell'elettrostatica lasciandosi guidare dall'idea newtoniana di
azione a distanza. I grandi fisici matematici del tempo di Napoleone o dell'epoca
immediatamente successiva, Laplace e Poisson in Francia, Green in Inghilterra, Gauss in
Germania, e altri, svilupparono questa teoria in una forma ancor oggi valida. Lagrange
nel 1772 aveva già introdotto, per la gravitazione, il concetto fondamentale di
potenziale, Laplace aveva trovato l'equazione differenziale a derivate parziali per il
potenziale nel vuoto (1782) e Poisson aveva esteso l'equazione di Laplace al caso in cui
fossero presenti delle cariche (1813). L'operatore differenziale 'Delta', detto anche
laplaciano, doveva così diventare uno degli strumenti fondamentali della fisica
matematica. Green e Gauss, infine, scoprirono le proprietà fondamentali del potenziale
newtoniano, contenute nelle famose formule che portano oggi il loro nome.

Una buona parte delle ricerche sull'elettricità stava quindi giungendo a un certo
stadio di maturità quando altre scoperte sperimentali aprirono nuovi orizzonti e
rivelarono che quanto già si conosceva era appena la proverbiale punta dell'iceberg. I
nuovi indirizzi provennero da una fonte del tutto inaspettata; le ricerche di un
anatomista e biologo professionale, Luigi Galvani (1737-1798) di Bologna. Gli studiosi
dell'elettricità avevano constatato per anni l'esistenza di effetti fisiologici delle scariche
elettriche e di connessioni, reali o immaginarie, tra fenomeni elettrici e biologici. Gran
parte di questo lavoro era sbagliata, talvolta anche fraudolenta, e, nel complesso,
l'argomento non era considerato molto serio. Galvani, d'altronde, era molto stimato e
quanto affermò in una pubblicazione in latino del 1791, intitolata De viribus electricitatis
in motu musculari commentarius, attirò subito l'attenzione e l'accurato esame degli esperti.
Egli modificò gli esperimenti fatti finora in molti modi, e scoprì che l'elettricità
atmosferica agiva sulle rane e anche che le contrazioni aumentavano se si mettevano
fogli metallici sui muscoli in modo da costituire una specie di bottiglia di Leida, con la
rana stessa in funzione di bottiglia. Un notevole effetto si otteneva inoltre toccando i
nervi e le gambe con un arco metallico, e la reazione era molto più intensa se l'arco era
composto di due metalli differenti. Da questi esperimenti Galvani sperava di trarre
conoscenze su quella natura dello spirito animale che egli studiava da anni; invece
iniziò due grandi capitoli della scienza, l'elettrofisiologia e lo studio delle correnti
elettriche. Che egli non riuscisse a dipanare la matassa è più che naturale: nessuno vi
riuscì per molti anni, e Galvani si trovò presto immerso in una controversia scientifica
soprattutto con Volta. Quest'ultimo peraltro aveva una visione chiara solamente di una
parte del problema complessivo: la parte restante di elettrofisiologia non è ancora oggi
chiarita del tutto.

È qui che incontriamo uno dei fondatori della scienza elettrica, Alessandro Volta
(1745-1827), dal cui nome deriva il volt, l’unità di misura della tensione. Giovan
Battista Beccaria (1716-1781), a quel tempo studioso di elettricità affermato e
internazionalmente noto, stimolò Volta a fare poche teorie e a basarsi soprattutto sulla
sperimentazione. Infatti le opinioni teoriche del giovane Volta erano assai meno
importanti dei suoi esperimenti. Man mano che passavano gli anni, Volta approfondì la
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =9:!

conoscenza sull'elettricità statica giungendo al livello dei migliori studiosi del suo
tempo, e cominciò a costruire strumenti originali.
Il loro successo e la loro importanza
derivavano dal fatto che egli aveva ormai idee
chiare (usando termini moderni) a proposito della
quantità di elettricità Q, del potenziale (o tensione,
come egli diceva) V e della capacità elettrica C,
nonché della relazione Q=CV. Un ottimo esempio di
strumento voltiano è l'elettroforo. Una piastra
metallica conduttrice, appoggiata su una focaccia
isolante, viene prima portata a terra, ossia a
potenziale zero, poi isolata e sollevata dalla focaccia. La piastra diventa così carica a
potenziale elevato e l'operazione può essere ripetuta indefinitamente. L'invenzione era
molto ingegnosa e fu successivamente sviluppata in una intera serie di macchine
elettrostatiche. Volta era inoltre consapevole di dover misurare quantitativamente le
grandezze elettriche, e inventò un elettrometro, il precursore di tutti gli elettrometri
assoluti elettrostatici, che poteva misurare le differenze di potenziale in modo
riproducibile.
Poco dopo aver compiuto 45 anni Volta lesse i lavori di Galvani che dovevano
avviarlo alla sua più grande invenzione. All'inizio Volta concordava con l'opinione di
Galvani, che assimilava la rana a una bottiglia di Leida, ma dopo alcuni mesi cominciò a
sospettare che la rana fosse soprattutto un rivelatore e che la fonte dell'elettricità fosse
esterna all'animale. Osservò anche che se due metalli diversi posti a contatto l'uno con
l'altro vengono messi sulla lingua, si avverte una particolare sensazione, a volte acida e
a volte alcalina. Egli suppose, e lo potè dimostrare con misurazioni elettrostatiche che
suscitano ancora oggi la nostra ammirazione, che due metalli diversi, come il rame e lo
zinco, assumono, una volta a contatto, potenziali diversi. Misurò poi questa differenza
di potenziale, ottenendo risultati non eccessivamente diversi da quelli che oggi
attribuiamo alla differenza di potenziale di contatto. Volta spiegò quindi gli esperimenti
di Galvani, almeno nel caso in cui l'arco metallico che collegava i muscoli con i nervi era
bimetallico, supponendo che la rana fosse semplicemente un elettrometro estremamente
sensibile.
Naturalmente Galvani rispose che si potevano osservare le contrazioni anche
quando l'arco metallico era composto di un solo materiale: si trattava di una obiezione
seria e Volta, per difendere la sua tesi , invocò le disomogeneità nel metallo e altre
cause. Uno studio più approfondito del problema da parte di Volta dimostrò che egli
aveva sostanzialmente ragione e portò all'invenzione della pila, una delle meraviglie di
tutti i tempi. Volta scoprì che i conduttori di elettricità possono essere divisi in due
classi: la prima comprende i metalli che, una volta a contatto, raggiungono potenziali
diversi, la seconda comprende i liquidi (elettroliti, nel linguaggio moderno) che non
possono assumere un potenziale molto diverso da un metallo immerso in essi. Inoltre i
conduttori della seconda categoria, una volta messi a contatto, non assumono potenziali
sensibilmente diversi. Per di più quelli della prima categoria potevano essere ordinati in
una scala tale che ciascuno di essi era positivo rispetto al successivo (per esempio lo
zinco rispetto al rame): in una catena di metalli la differenza di potenziale tra il primo e
l'ultimo era la stessa che ci sarebbe stata se i contatti intermedi non fossero esistiti e il
primo e l'ultimo membro della serie fossero stati in contatto diretto:
=:<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

LEGGI DELL'EFFETTO VOLTA


PRIMA LEGGE: al contatto fra due metalli diversi alla
stessa temperatura si stabilisce una differenza di
potenziale caratteristica della natura dei metalli e
indipendente dall'estensione del contatto.
SECONDA LEGGE: in una catena di conduttori metallici
tutti alla stessa temperatura, la differenza di potenziale
fra i due metalli estremi è la stessa che si avrebbe se
essi fossero a contatto diretto.
TERZA LEGGE: fra due metalli della stessa natura si produce una differenza di potenziale se
essi sono gli estremi di una catena della quale fanno parte due metalli diversi a contatto con
una soluzione elettrolitica.

Galvani morì nel 1798, ancora convinto che la sua tesi fosse giusta e che
l'elettricità animale non fosse uguale all'elettricità ordinaria. Volta proseguì nel suo
lavoro e, basandosi sulle scoperte già citate, arrivò infine all'idea di combinare un certo
numero di conduttori del primo e del secondo tipo in modo tale che le differenze di
potenziale generate in ciascun contatto si sommassero tra loro. Egli chiamò tale
strumento pila, perché era composto da una pila di dischi di zinco, di rame e di panno
imbevuto di acido. La pila generava una corrente elettrica continua di intensità
maggiore, per ordini di grandezza, di quella che si poteva ottenere con le macchine
elettrostatiche, e in questo modo essa dava il via a una vera rivoluzione scientifica.
Volta non solo aveva scoperto la prima nuova fonte di energia in duemila anni, ma
aveva mostrato che la chimica è una scienza elettrica. In questo Volta, però, mostrò poco
interesse, negando, erroneamente, che le azioni chimiche giocassero un ruolo primario
nella produzione di elettricità da parte delle sue pile. Altri si impadronirono di questo
punto, concettualmente così affascinante e sperimentalmente così fertile.
Dopo l'invenzione della pila Volta scomparve praticamente dalla scena e lo
sfruttamento della sua scoperta fu lasciato ad altri. Probabilmente era troppo vecchio
per competere con forze più giovani e fresche, ed è anche possibile che egli fosse
psicologicamente bloccato dalla stessa grandezza dei suoi precedenti risultati. Egli non
lasciò una scuola, il suo modo di lavorare era troppo personale e la mancanza di
matematica nei suoi scritti e insegnamenti può aver limitato la sua capacità di
comunicare.
La scoperta della pila pose un nuovo strumento nelle mani dei fisici sperimentali
e questa nuova fonte di elettricità stimolò subito una nuova serie di ricerche
sperimentali e richiese nuovi concetti teorici.

Il magnetismo seguì le sorti dell'elettricità, eccezion fatta per le cariche


magnetiche libere che non furono trovate, mentre furono invece trovati i dipoli con
uguali quantità di magnetismo positivo e negativo. L'esistenza di cariche magnetiche,
monopoli come vengono chiamate, è tuttora un soggetto di attiva indagine e ha
ramificazioni profonde nella moderna teoria delle particelle. L'esistenza di monopoli,
unita alla quantistica ci permetterebbe di spiegare la quantizzazione della carica
elettrica, uno dei misteri della fisica contemporanea.
Tutto sommato fu facile estendere la matematica dell'elettrostatica alla
magnetostatica. Ovviamente, i fenomeni magnetici non presentano la varietà e la
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =:;!

dinamicità dei fenomeni elettrici, per cui è naturale che la letteratura scientifica del
Settecento sul magnetismo non ha l’ampiezza e la prolificità di quella sull’elettricità.
Comunque, tre furono le direttrici principali dell’indagine magnetica: ricercare la legge
di attrazione e repulsione magnetica, analoga a quella di Coulomb; aumentare
l’intensità di magnetizzazione delle calamite artificiali; studiare i fenomeni di
magnetismo terrestre, in particolare determinare l’intensità del magnetismo terrestre e
l’inclinazione magnetica, alla quale Bernoulli ed Eulero dedicarono delle memorie in cui
mostravano che le difficoltà da superare non erano solamente di ordine empirico, ma
più propriamente di natura concettuale.

7.12 Il sorgere di alcune istanze critiche

Gran parte delle discipline, a parte la meccanica razionale, che si svilupparono


nel Settecento traevano direttamente dall’esperienza la prova delle conclusioni via via
raggiunte, ossia cercavano la garanzia della propria scientificità, non nell’evidenza
razionale dei principi, ma nella verifica sperimentale. Ma una domanda cominciava a
sorgere: quale può essere il tipo di certezza che un numero più o meno grande, ma
comunque finito, di fatti attentamente registrati è in grado di fornire ad asserti di
carattere generale, come solo le leggi scientifiche? Questa domanda, che oggi occupa
una posizione centrale nelle ricerche epistemologiche, fu dibattuta da alcuni fra i
massimi filosofi del Settecento (per esempio Hume) e cominciò ad affiorare anche
nell’animo di alcuni scienziati di tale secolo, a ciò sollecitati dalle loro stesse indagini
prettamente scientifiche.
Uno dei primi ad occuparsene, in anticipo di qualche anno rispetto ad Hume, fu
‘s Gravesande, uno dei maggiori artefici della diffusione delle teorie newtoniane in
Europa. ‘s Gravesande, abbandonando fra il 1720 e 1723 il punto di vista newtoniano
per quanto riguardava la questione controversa della misura della forza e convertitosi al
punto di vista leibniziano, si rende ben conto che le famose regulae philosophandi di
Newton non sono regole logiche, onde non si può pretendere che valgano a priori; e
nemmeno ha senso volerle giustificare per via induttiva, come si giustificano i singoli
risultati della fisica, in quanto costituiscono, proprio esse, il fondamento di ogni
induzione. La consapevolezza del carattere non logico delle regole applicate nella
elaborazione della fisica, conduce ‘s Gravesande a porre una netta distinzione fra
conoscenza matematica e conoscenza sperimentale: la prima concerne soltanto il mondo
delle idee e perciò non può dirci nulla sulla realtà delle cose; la seconda invece riguarda
proprio il mondo dei fatti e, poiché non siamo in grado di provare che le idee
convengano alle cose, non può fare alcun riferimento a verità a priori, valide solo nel
mondo delle idee.
Ricollegandosi a questa concezione, anche van Musschenbroek, altro
newtoniano, giunge a sostenere che le leggi naturali possono venire esattamente
formulate anche senza l’ausilio della matematica: l’essenziale è, che chi vuole pervenire
a conoscerle, sappia cogliere tutte le proprietà del mondo reale rivelateci dai sensi,
senza trascurarne alcuna. L’antitesi fra questa concezione della scienza e quella alla base
della meccanica razionale non potrebbe essere più netta. È una frattura che ricomparirà,
sotto forme diverse, anche nel XIX secolo, e di cui solo l’epistemologia moderna sembra
in grado di fornirci una soluzione soddisfacente.
=:=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

A proposito di questa soluzione è bene accennare agli importanti risultati cui


giunse Lavoisier, secondo il quale lo scienziato non solo debba attribuire la massima
importanza ai dati dei sensi, ma anche alla funzione del linguaggio. Partendo dal
postulato che “noi pensiamo se non con l’ausilio delle parole”, la lingua deve costituire
uno strumento fondamentale per la scienza. Ma che cosa è la matematica? Essa è
essenzialmente una lingua, fornita di straordinaria precisione e proprio perciò
estremamente utile alla descrizione dell’esperienza. Sviluppando il pensiero di
Lavoisier potremmo dire: la matematica costituisce uno strumento preziosissimo per le
scienze della natura, non già perché capace di dedurre le leggi particolari da principi
assoluti ed evidenti, ma perché fornita di una chiarezza ed esattezza incomparabilmente
superiori a quelle del linguaggio comune. Anche se non possiamo attribuire a Lavoisier
una consapevolezza intorno alla funzione del linguaggio matematico, che verrà
conquistata solo nel XX secolo, emerge comunque l’idea che un’impostazione
sperimentalistica della fisica non poteva sviluppare tutte le istanze critiche, insite in
essa, se non riusciva anzitutto a liberare il linguaggio scientifico dall’uso di termini,
come quello di flogisto, di calorico e di etere, che pretendevano riferirsi ad entità
empiricamente non verificabili né in forma diretta né in forma indiretta. Toccherà alla
fisica dell’Ottocento dibattere a fondo l’ipotesi del calorico e quella dell’etere. La prima
verrà gradualmente espunta dalla scienza durante la prima metà del XIX secolo, l’altra
sarà definitivamente abbandonata solo all’inizio del Novecento ad opera di Einstein. Le
vittoriose critiche contro di esse saranno condotte in nome di una radicale esigenza
sperimentalistica.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =:4!

!"#$%&'&()!

Il processo di una scoperta scientifica è,


in effetti, un continuo conflitto di meraviglie

Einstein

"3%))%*-&)%5#"(#)-,$%'!&($!*(#-#
"3-"-)),%$(+&-)!0$%#

8.1 Introduzione

L’inizio del XIX secolo fu senza dubbio uno dei periodi più agitati per l’Europa.
Basti ricordare le guerre di Napoleone, le radicali trasformazioni da lui realizzate
nell’apparato amministrativo della Francia e dei paesi ad essa via via sottomessi, il
subitaneo crollo del suo impero, e il nuovo equilibrio fra le grandi potenze europee
faticosamente raggiunto nel congresso di Vienna. Il periodo che succede alla caduta di
Napoleone si suole designarlo con il nome di restaurazione, in quanto alle dinastie
regnanti prima della rivoluzione francese vengono restituiti i loro vecchi domini, e più
in generale si restaura il principio d’autorità, che ha come conseguenza un
rinnovamento dello spirito confessionale, il controllo dell’insegnamento nelle
università, il soffocamento della coscienza critica. Non ci si limita a denunciare il
pericolo delle concezioni che si richiamano in qualche modo all’illuminismo, ma si
guardano con sospetto perfino gli indirizzi filosofici che intendono combattere
l’illuminismo in nome della libertà. Malgrado la buona volontà dei moderati, le forze
più retrive e conservatrici riescono spesso a prendere il sopravvento, aggravando il
disagio materiale e morale di larghi strati della popolazione. Si moltiplicano le misure
repressive, che però si rivelano sempre meno efficaci. Si arriva così al 1848, anno in cui
tutta l’Europa viene scossa da una profonda ondata rivoluzionaria.
La spinta innovatrice, con tutte le sue contraddizioni, portata dalle armate
napoleoniche in quasi tutti i paesi europei non poteva non ripercuotersi positivamente
anche nel campo della tecnica. Il progresso tecnologico era ovunque sentito come un
grande passo verso la modernità, e l’esigenza di modernizzarsi era certo uno dei pochi
fattori che poteva disporre favorevolmente le popolazioni nei confronti dei
conquistatori. Concluso questo travagliato periodo, l’interesse per il progresso
tecnologico non venne peraltro a cessare. Le numerose e sanguinose guerre, di
=:5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

proporzioni mai viste prima d’allora, avevano recato immani guai a vinti e vincitori; in
questo stato di cose, l’aumento della produzione si imponeva come esigenza primaria
per una stabile ricostruzione dell’economia e per lo stesso consolidamento della pace.
Ma tale aumento poteva soprattutto essere ottenuto con la modernizzazione delle
tecniche produttive, di qui il diffondersi di una consapevolezza sempre maggiore circa
l’importanza generale del progresso di queste tecniche. La classe sociale a ciò più
interessata si rivelò immediatamente la borghesia, che, sola, possedeva i mezzi
finanziari e le energie per impiantare stabilimenti in grado di utilizzare i nuovi ritrovati
della tecnica. Essa divenne, così, la principale protagonista della rivoluzione industriale,
che doveva in breve tempo trasformare la struttura economica dell’Europa.
La cosa che ci interessa sottolineare è la straordinaria ed entusiastica fiducia che
cominciò a venire riposta, nella prima metà dell’Ottocento, nel progresso tecnologico-
industriale, non di rado considerato come capace di realizzare rivoluzioni ben più
profonde e più solide di quelle attuate in campo meramente politico. L’ingenua
illusione non potè tuttavia durare a lungo. Essa verrà dissolta dall’insorgere di
gravissime contraddizioni sociali, generate proprio dal progresso dell’industria. Ma
questa è un’altra storia.
Le vicende economiche-politiche che hanno inizio verso la metà del XIX secolo
sono: rafforzamento economico della borghesia, fondazione della I Internazionale
socialista (1864), sua crisi dopo il fallimento della Comune di Parigi (1871), fondazione
della II Internazionale (1889), guerra di secessione negli Stati Uniti d’America,
intensificarsi dell’attività coloniale da parte delle grandi potenze europee, nascita della
fase imperialistica del capitalismo.
Un carattere generale della cultura durante il periodo in esame è l’importante
aumento di peso specifico che vi assumono le ricerche scientifiche, e il parallelo
graduale declino dell’importanza riconosciuta alle ricerche filosofiche. Ciò non significa
che non affiorino grossi problemi di natura autenticamente filosofica (basti pensare a
quelli connessi alla profonda crisi del meccanicismo o a quelli suggeriti dalle tesi
innovatrici dell’evoluzionismo), ma sono problemi che si legano direttamente, non alle
speculazioni dei filosofi, bensì al concreto travaglio delle scienze. Uno dei mutamenti
essenziali fra la prima e la seconda metà dell’Ottocento è costituito dalla nuova
importanza che vengono ad assumere le cosiddette scienze applicate. Mentre la prima
rivoluzione industriale (XVIII secolo) si era spesso e largamente avvalsa delle ingegnose
invenzioni di abili tecnici che lavoravano ai margini della scienza senza ricevere da essa
precise istruzioni (si pensi alle prime macchine a vapore), la cosiddetta seconda
rivoluzione industriale, che inizia appunto verso la metà dell’Ottocento, trova invece
nelle scoperte scientifiche uno degli ausili principali per il proprio potenziamento. Si
pensi, per esempio, al determinante contributo dell’elettrotecnica, resa possibile dalle
grandi scoperte compiute dai fisici, allo sviluppo dell’industria o dei trasporti.
Negli ultimi decenni dell’Ottocento diventa manifesto il fecondo interscambio tra
scienza e tecnica, che si impone come un carattere fra i più significativi dell’epoca. Ciò
implica l’impossibilità di guardare alle singole discipline come a qualcosa di isolato, di
fornito di vita propria, di capace di svilupparsi indipendentemente dalla collaborazione
delle altre discipline. Però, diversamente da oggi, la funzione dirigente in questa
globalità spetta in modo incontestabile alla scienza, mentre le ricerche tecniche, pur
fornendo utili strumenti a quelle scientifiche, non hanno in sostanza altro compito che
quello di adeguarsi ai loro progressi. Come già accennato, l’utilizzazione sistematica
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =:6!

delle scoperte scientifiche da parte dell’industria e gli straordinari successi ottenuti


mediante tale utilizzazione non tardarono a procurare alla scienza una larghissima
popolarità, alimentando le speranze che essa avrebbe finito per risolvere ogni problema
all’umanità. È vero che di tanto in tanto l’economia subiva gravissime crisi, che
toglievano a milioni di lavoratori le modeste conquiste civili e sociali faticosamente
acquisite, ma nemmeno tali crisi riuscivano in realtà a fermare lo sviluppo della
produzione e tanto meno ad arrestare il progresso scientifico-tecnico. Fiducia nella
scienza e fiducia nel progresso risultano, così, abbinate nella mente dei più e
determinano a poco a poco l’atmosfera culturale, positivistica, che si diffonde in gran
parte dell’Europa, specialmente presso i ceti borghesi.

8.2 La filosofia romantica della natura

Da Galileo in poi la natura era stata prevalentemente considerata come un ordine


oggettivo e come un insieme di relazioni fattuali legate fra loro da cause efficienti,
mentre la scienza era stata interpretata come un'indagine matematizzante e analitica sui
fenomeni osservabili. Ciò aveva prodotto un rifiuto della concezione rinascimentale, e
quindi greca e medioevale, del cosmo, generando ciò che va sotto il nome di
meccanizzazione del quadro del mondo, ossia un'interpretazione della natura come un
sistema di materia in movimento retto da un insieme di leggi meccaniche, escludenti
ogni riferimento a presunti fini o scopi.
La scienza newtoniana della natura, che nel corso dell'età dell'Illuminismo era
venuta sempre più assumendo la figura di un sistema meccanicistico logico-
matematico, trova nel corso della reazione romantica seguita alla caduta del
giacobinismo una violenta opposizione da parte del nuovo pensiero idealistico e
spiritualistico. Ricollegandosi da un lato ad un filone di pensiero vitalista e dinamicista
(da Leibniz allo stesso Kant) e riprendendo dall'altro la visione antico-rinascimentale
della physis, i romantici, non senza influenze di tipo mistico e teosofico, pervengono ad
una filosofia della natura organicistica (=la natura è una totalità organizzata nella quale
le parti vivono solo in funzione del Tutto), energetico-vitalista (=la natura è una forza
dinamica, vivente e animata), finalistica (=la natura è una realtà strutturata secondo
determinati scopi, immanenti o trascendenti), spiritualistica (=la natura è anch'essa
qualcosa di intrinsecamente spirituale “spirito in divenire”) e dialettica (=la natura è
organizzata secondo coppie di forze opposte, formate da un polo positivo e uno
negativo, e costituenti delle unità dinamiche).
Dunque, un vivo sentimento di unità e spiritualità della natura anima i
protagonisti del Romanticismo contro la concezione newtoniana e meccanicistica del
mondo. La vera novità del Romanticismo, però, consiste nel nuovo modo di considerare
la ragione. L’Illuminismo aveva, sì, esaltato la ragione come una forza in grado di
trasformare il mondo, ma non l’aveva considerata assoluta o onnipotente. Al contrario,
con il Romanticismo la ragione viene considerata una forza infinita (=onnipotente) che
abita il mondo e lo domina e, perciò, ne costituisce la sostanza stessa.
Analizziamo, per ciò che ci riguarda, due momenti caratteristici della filosofia
romantica della natura, specialmente di quella tedesca. Il primo è il filone filosofico-
scientifico legato prevalentemente alla teoria del dinamismo fisico, che cercava di
interpretare unitariamente i nuovi ordini di fenomeni che si erano rapidamente imposti
=:7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

alla ricerca fisica e biologica, ed era rivolto soprattutto contro il meccanicismo


atomistico, sostenendo che l’estensione dei corpi non è dovuta ad una sostanza
materiale, ma all’effetto di forze repulsive agenti su punti geometrici inestesi. La
materia era dunque un prodotto della forza o del movimento ed in ciò si vedeva, su un
piano filosofico metafisico, la possibilità di stabilire una comune matrice per il mondo
della natura e per quello dell’uomo. Vi era inoltre, nell’indagine complessiva dei
fenomeni naturali, il problema di considerare i vari tipi di interazione fra i fenomeni
ammettendo una continuità tra essi, e tale continuità risultava maggiormente plausibile
ponendo l’accento più sul movimento e sulle forze, che non su una pluralità di sostanze
ponderabili o imponderabili. L’idea di un’unica forza appariva come un criterio di
unificazione estremamente suggestivo. Appariva inoltre importante, in una visione
monistica ispirata allo spinozismo, che tale forza potesse costituire una fonte
inesauribile di movimento, cioè che non occorresse rifarsi, come Newton, ad un
intervento soprannaturale per garantire la continuità e la stabilità della natura. Nel suo
complesso, anche per i tentativi di considerare i fenomeni luminosi, elettrici e chimici
come stati di coesione della materia piuttosto che come effetto di fluidi o sostanze
elementari, il dinamismo fisico può forse considerarsi come un tentativo di formulare
una fisica del continuo analoga a quella che gli stoici propugnarono nell’antichità contro
la tradizione atomistica democritea. Il secondo aspetto da analizzare della scienza
romantica è la sua dimensione mitologico-scientifica, che appare evidente soprattutto
nell’uso che essa fece del principio di polarità. L’origine di questo principio può farsi
risalire all’antagonismo delle forze centrifughe e centripete che insieme determinano,
per Newton, il comportamento dei corpi. La conoscenza più antica della polarità del
magnete e l’introduzione nel 1778 dei termini positivo e negativo per indicare la
tensione elettrica, portò a considerare la polarità come un’identità strutturale di
fenomeni qualitativamente diversi, come un utile paradigma di ricerca fisica. Questo
paradigma risultò ben presto come una condizione universale per la produzione del
movimento, come un principio causale. Attraverso gli sviluppi che la polarità ebbe nella
dialettica dell’idealismo apparve sempre più la possibilità di trovare in questo principio
come in quello della forza, un criterio di unificazione per il mondo della natura e dello
spirito. Il principio di polarità può considerarsi un tipico aspetto di quella mitologia
scientifica che caratterizza la scienza romantica in quanto vi è la totale assenza di regole
esplicite che estendono tale principio da un campo limitato di fenomeni a tutti i
fenomeni e la sua assunzione quasi come un’idea archetipa, originariamente percepita.

L’esigenza di una nuova mitologia che tragga il proprio contenuto dalle


conoscenze scientifiche è espressa in vario modo, ma con chiara consapevolezza, da
Johannes G. Herder (1744-1803), Novalis (1772-1801) e Friedrich Schlegel (1772-1829).
Emerge in essi la convinzione che l’infinita creatività della natura non può essere colta
razionalmente ma solo intuita in forme estetico-simboliche, comuni a quelle dell’opera
d’arte. Ma la convinzione di questa infinita creatività non comportava necessariamente
il mito, cioè il considerare gli oggetti concreti quali principi astratti, quali modelli delle
vicende più lontane e differenti dei fenomeni. Goethe, per esempio resiste a questa
tentazione. La grande maggioranza dei naturalisti del periodo romantico, Goethe
compreso, non pensavano come Kant che il grado di scientificità delle conoscenze
naturali fosse commisurato all’adozione della matematica, ma partivano piuttosto dalla
convinzione che la matematica poteva accordarsi con la realtà concreta solo in modo
approssimativo e per una coincidenza del tutto empirica che non trovava nessuna
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =:8!

garanzia a priori. Non l’applicazione della matematica quindi ma l’intuizione o la


riflessione filosofica potevano permettere il superamento delle indagini troppo
circoscritte ed il raggiungimento di una visione complessiva di tutta la realtà naturale
che includesse anche l’uomo. Gli sviluppi mitologici della scienza romantica,
soprattutto tedesca, non mancarono certo di stimoli fecondi per la cultura dei successivi
decenni. È però necessario riconoscere che essi costituirono un momento negativo
rispetto all’ampliarsi di quella coscienza critica che aveva trovato nello stesso
illuminismo tedesco notevoli affermazioni.

La filosofia romantica della natura si sviluppa soprattutto per opera di Wolfgang


Goethe (1749-1832), nel genio del quale poesia e scienza si sviluppano in intima fusione,
non certo, per la verità, sempre a vantaggio del secondo termine. Nella Teoria dei Colori
(1810) Goethe inizia contro Newton quella polemica che poi si protrarrà per tutto il
Romanticismo, fino a Hegel compreso: l'ottica newtoniana, con il suo meccanicismo,
manca totalmente di cogliere il valore sensibile, emotivo, estetico e quindi spirituale del
colore, per ridurlo a mero movimento di particelle materiali. Goethe dunque,
riallacciandosi in un certo modo alla scienza pre-galileiana (diciamo, aristotelica) vuole
contrapporre alla riduzione fisica-matematica della natura un atteggiamento qualitativo
ed estetizzante, per il quale essa si carica di valori e significati che oltrepassano la
geometria del moto. L’idea direttrice di Goethe è quella che costituiva il nucleo più
profondo dello spinozismo, cioè la concezione della natura come unica ed eterna realtà,
perfettamente organizzata da cui l’uomo non può venire scisso essendo uno dei modi
finiti in cui si estrinseca la sostanza infinita. In altri termini la natura è “l’abito vivente
della divinità….c’è in lei una vita eterna, un eterno divenire, un moto perenne…E’
salda. Il suo passo è misurato, rare le sue eccezioni, invariabili le sue leggi. Ha pensato
e non cessa mai di pensare; non come l’uomo, tuttavia, ma come natura. Si è riservata
un’intelligenza propria, che abbraccia ogni cosa e di cui nessuno può carpirle il
segreto”. Il mondo stesso dei fenomeni costituisce pertanto l’intermediario sicuro per
giungere alla divinità, come il corpo è l’intermediario per giungere all’anima. Di qui
l’assurdità di cercare una dimostrazione razionale astratta dell’esistenza di Dio, mentre
essa ci viene rivelata immediatamente dall’esistenza medesima della natura. Proprio
questa concezione conduce Goethe a pensare Dio come una forza spirituale impersonale
che pervade l’universo, determinandone la finalità interna, che non appartiene soltanto
a una considerazione soggettiva del mondo, ma che possiede un’esistenza effettiva e
reale; ciò implica il ripudio di ogni forma di atomismo meccanicistico.
Che nessuno può “carpire il segreto della natura” va inteso nel senso che
nessuno può raggiungere una conoscenza piena e completa del principio divino che
vive in lei. È tuttavia possibile conoscerne le singole leggi (questo è ol compito della
ricerca scientifica), in quanto però non ci si illuda di poter giungere ad esse con la pura
ragione., bensì partendo dall’esperienza. A tal fine occorrerà osservare i fenomeni nella
loro immediata concretezza, riproducendoli con cura un numero sufficiente di volte,
fino a coglierne tutti i nessi e le affinità: “Non ci si guarderà mai abbastanza dal trarre
da esperimenti conclusioni affrettate; giacchè è appunto al passaggio dall’esperienza al
giudizio, dalla conoscenza all’applicazione, che, come ad una stretta, tutti i nemici
segreti dell’uomo stanno in agguato, fantasia, impazienza, precipitazione, arroganza,
caparbietà, forma mentis, preconcetti, pigrizia, volubilità … ci aspettano al varco, e
inopinatamente sopraffanno sia l’attivo uomo di mondo, sia lo studioso pacato e
apparentemente alieno da passioni”. Questo passo, anche se manifesta una seria
=:9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

preoccupazione metodologica, non conduce però il poeta tedesco a inserirsi pienamente


entro la via maestra della scienza moderna. Ciò che impedì a Goethe questo inserimento
fu soprattutto l’avversione per la matematica, che invece costituisce uno dei cardini
della metodologia galileiano-newtoniana. È un’avversione che è presente in gran parte
dei pensatori romantici che scaturiva, per un lato, dal timore (non del tutto
ingiustificato) che gli schemi matematici potessero costituire un pericoloso schermo tra
il ricercatore e l’autentico mondo dell’esperienza, per un altro lato però dal desiderio di
sottrarsi al controllo dei calcoli, sostituendo ardite sintesi al rigore dell’analisi.
Da un punto di vista prettamente scientifico, come abbiamo già accennato,
Goethe elabora una teoria dei colori vivacemente contrapposta a quella newtoniana.
Mentre lo scienziato inglese aveva affermato che il bianco è un colore composto, e in
quanto tale può venire analizzato in uno spettro di colori semplici, Goethe lo assunse
invece come colore fondamentale non analizzabile, e sostenne che gli altri colori sono
combinazioni di luce bianca e di ombra. Affermò poi, in base alla concezione filosofica
generale secondo cui la natura possederebbe la capacità di rivelarsi direttamente
all’uomo, che, anche nello studio dei colori, dobbiamo fidarci assai più dlla
testimonianza diretta dei sensi che non di quella indiretta, fornitaci da artificiosi
dispositivi sperimentali, come il prisma ottico per scomporre la luce bianca nelle sue
componenti cromatiche.

Concezioni del genere vengono ampiamente sviluppate nelle filosofie della


natura di Friedrich Schelling (1775-1854) e Georg W. F. Hegel (1770-1831).
Nella filosofia della natura di Schelling le numerose scoperte scientifiche del
tempo nel campo della chimica, dell'elettricità, del magnetismo e della biologia,
vengono ricondotte al concetto dell'Assoluto come identità e a costruire, attraverso tali
scoperte, una visione unica e semplice del mondo naturale come realizzazione e
rivelazione di un Assoluto che è nello stesso tempo natura e spirito, attività incosciente
e ragione. Schelling anzi vede nei fenomeni elettrici la prova e quasi il simbolo del
modo in cui l'Assoluto si manifesta come natura.
Le Idee per una Filosofia della natura (1797) partono dal fenomeno della
combustione nella quale Lavoisier aveva scoperto (1783) un fenomeno di ossidazione,
distruggendo la vecchia teoria del flogisto cioè di una speciale materia che intervenisse
a produrre il fenomeno. Schelling si propone di vedere quale conseguenza la scoperta
dell'ossigeno abbia per la ricerca naturale e non soltanto relativamente alla chimica, ma
per l'intero dominio della vita vegetale e animale, alla quale l'ossigeno è indispensabile.
Poiché i fenomeni che accompagnano la combustione sono la luce e il calore,
strettamente congiunti, Schelling ritiene di poterli ricondurre ad un unico fluido
elastico, che riconosce nell'aria, la quale è probabilmente il mezzo universale per cui la
natura agisce sulla materia morta. In questo modo egli torna senza accorgersene ad una
teoria di tipo flogistico. Più fortunata è la sua intuizione dell'unità della forza magnetica
e della forza elettrica (si veda l’unificazione dell’elettricità e del magnetismo in un’unica
teoria, l’elettromagnetismo, realizzata da Maxwell), che non ritiene distinte tra loro ma
dovute ad un unico principio, riconoscendo nello stesso tempo questo principio nella
forza di attrazione e di repulsione dei corpi. Attrazione e repulsione sono da lui
considerate come i principi del sistema naturale. Difatti ogni fenomeno naturale è
l'effetto di una forza che è come tale limitata e perciò condizionata dall'azione di una
forza opposta; sicché ogni prodotto naturale si origina da una azione e da una reazione
e la natura agisce attraverso la lotta di forze opposte.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! =::!

Schelling ha raggiunto a questo punto chiaramente la sua dottrina dell'Assoluto


come identità, e l'ha raggiunta attraverso la filosofia della natura. Lo scritto successivo
Sull'anima del mondo (1798), al quale dà il sottotitolo di Ipotesi della più alta fisica per la
spiegazione dell'organismo universale, è destinato a dimostrare la continuità del mondo
organico e del mondo inorganico in un tutto che è esso stesso un organismo vivente:
questo è ciò che, secondo Schelling, gli antichi intendevano con l'espressione anima del
mondo. Schelling ammette qui che l'anima del mondo costituisca l'unità delle due forze
opposte (attrazione repulsione) che agiscono nella natura, che il conflitto di queste forze
costituisca il dualismo e la loro unificazione la polarità della natura. E avanza l'ipotesi
che l'anima del mondo si manifesti materialmente nel fluido che gli antichi chiamavano
etere, il dualismo nell'opposizione della luce e dell'ossigeno in cui l'etere si scinde, e la
polarità nella forza magnetica. Ma la tesi fondamentale dell'opera è che la natura è un
tutto vivente e che ogni cosa è provvista di vita.
Il concetto di natura nella dottrina di Hegel ha una funzione importante, e le
divisioni fondamentali della filosofia della natura sono: la meccanica, la fisica, e la fisica
organica. La meccanica considera l’esteriorità che è l'essenza propria della natura, o
nella sua astrazione (spazio e tempo), o nel suo isolamento (materia e movimento), o
nella sua libertà di movimento (meccanica assoluta). Lo spazio è l’esteriorità considerata
nella sua forma universale ed astratta. Il tempo è “l’'essere che mentre è, non è, mentre
non è, è: il divenire intuito”. La materia, considerata prima nella sua inerzia poi nel suo
movimento (urto e caduta), è la realtà frazionata e isolata che determina e unifica tra
loro lo spazio e il tempo, i quali in sé sono astrazioni. Infine, la meccanica assoluta
raggiunge il vero e proprio concetto della materia, che è quello della gravitazione. La
gravitazione è, secondo Hegel, un movimento libero e perciò i corpi nei quali essa si
realizza, i corpi celesti, si muovono liberamente. La seconda grande divisione della
filosofia della natura, la fisica, comprende la fisica dell'individualità universale, cioè
degli elementi della materia, la fisica dell'individualità particolare, cioè delle proprietà
fondamentali della materia (peso specifico, coesione, suono, calore) e la fisica
dell'individualità totale, cioè delle proprietà magnetiche, elettriche e chimiche della
materia. La terza divisione, fisica organica, comprende la natura geologica, la natura
vegetale, e l'organismo animale. Per Hegel fa parte della fisica organica anche la
particolare conformazione della terra, studiata dalla geografia fisica.
Hegel, però, nonostante l’enorme interesse per la realtà naturale, si collocò
interamente al di fuori della scienza moderna e anzi contribuì ad allontanare da essa
gran parte della filosofia dell’Ottocento. Vediamone i motivi. Hegel condivise con
parecchi suoi contemporanei la convinzione della necessità di abbandonare, o per lo
meno modificare radicalmente, la linea che Newton aveva impresso allo studio della
natura; questa linea era stata accolta senza discussione da gran parte dei fisici del
Settecento, e il proposito di sottoporla ora ad un’approfondita discussione sembrava
dettato dalla generale esigenza di rinnovamento emersa nel nuovo secolo. Le critiche
sollevate da Hegel contro la scienza newtoniana investivano, senza mezzi termini, i due
pilastri fondamentali di tale scienza: la spiegazione matematica e l’appello
all’esperienza.
La spiegazione matematica viene accusata di essere superficiale e illusoria, in
base al fatto che la matematica non è capace di dimostrare razionalmente gli oggetti di
cui si occupa, ma li presuppone come qualcosa di dato. Così, per esempio, la necessità
della tridimensionalità spazio non viene dedotta ma accolta come un fatto assoluto e
4<<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

indiscutibile. Ad un’accusa molto simile viene sottoposto l’appello all’esperienza, cioè


di presentare i dati empirici come parte integrante della spiegazione scientifica, mentre
in realtà essi non spiegano nulla, richiedendo invece di venire essi stessi spiegati. La
descrizione dell’esperienza costituisce nulla più che il primo passo dell’autentico lavoro
scientifico; deve limitarsi a fornire il materiale e a fare il lavoro preparatorio, di cui la
fisica empirica poi si avvale liberamente per mostrare la necessità con la quale le
determinazioni naturali si concatenano in un organismo concettuale: “La nascita e la
formazione della scienza ha come presupposto e condizione la fisica empirica; ma altra
cosa è il processo di originazione e i lavori preparatori di una scienza, altra cosa la
scienza stessa”. Per loro conto, i risultati dell'indagine empirica non hanno il minimo
significato: “Se la fisica dovesse fondarsi sulle percezioni e le percezioni non fossero
altro che i dati dei sensi, il procedimento della fisica consentirebbe nel vedere, ascoltare,
fiutare, ecc., e anche gli animali in questo modo sarebbero dei fisici”. Un qualsiasi dato
osservativo rappresenta in se stesso qualcosa di accidentale, di irrazionale; limitarsi ad
accoglierlo, senza giustificarlo razionalmente, in una dottrina fisica, significa incrinare
la scientificità di tale dottrina. Ancora più condannabile è infine, secondo Hegel, la
pretesa di rivestire matematicamente i dati empirici. Essa è infatti viziata da un
carattere doppiamente illusorio, per l’illusorietà di far intervenire i dati empirici nella
spiegazione scientifica e per quella di confondere tali dati con le astratte nozioni della
matematica. Caso tipico di questa assurda pretesa è il principio d’inerzia: la sua
assurdità si rivela nel fatto che esso pretende postulare, come qualcosa di evidente,
l’infinita prosecuzione di un moto che a rigore non esiste essendo irrealizzabile
nell’esperienza (il moto inerziale dovrebbe infatti prescindere dalla gravità e da ogni
forma di attrito, mentre in tutti i moti empiricamente verificabili sono sempre presenti
sia la gravità che l’attrito).
Un’esame imparziale di queste critiche ci dice che esse non erano così prive di
fondamento. È noto infatti che la matematica cui egli si riferiva era tutt’altro che esente
da grossi equivoci e da presupposti ingiustificati, visto che, per esempio, solo alla fine
del secolo fu discusso a fondo il problema della tridimensionalità o pluridimensionalità
dello spazio. Né meno oscuro era, all’inizio dell’Ottocento, il problema dei rapporti fra
aspetto teorico e aspetto empirico delle conoscenze scientifiche, tante è vero che esso
costituisce ancora oggi argomento di dibattito fra gli epistemologi. In particolare va
riconosciuto che era esattissima l’accusa di Hegel contro il principio d’inerzia, visto che
la critica più moderna ha infatti chiarito, senza possibilità di equivoci, che tale principio
non trova un fondamento diretto nell’esperienza. I motivi del mancato inserimento di
Hegel entro il grande e complesso filone del pensiero scientifico moderno non possono
dunque venire cercati nel suo antinewtonianesimo, che lo portò, spesso, su posizioni
analoghe a quelle dei migliori scienziati della sua epoca, come il rifiuto della teoria
corpuscolare della luce o della concezione sostanzialistica del calore.
Il vero motivo del completo distacco fra Hegel, e quindi l’hegelismo, e la scienza
moderna va dunque cercato altrove, cioè in una distorsione che investe il centro stesso
del pensiero hegeliano. Trattasi in primo luogo dell’interpretazione che tale pensiero
fornisce alla razionalità. Hegel ripete più volte che la scienza mancherebbe ai propri
scopi se non fosse in grado di dedurre la totalità dei fenomeni naturali, cioè di scoprire
la “necessità logica” di ogni processo, di ogni legge, di ogni singolo fatto. Abbiamo
ritrovato un atteggiamento del genere al fondo delle critiche sollevate alla fisica
newtoniana; altre volte questo atteggiamento lo spinge ad affermazioni che hanno
l’aspetto di autentici paradossi, come l’affermazione che la vera scienza deve “dedurre”
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4<;!

il numero dei pianeti del sistema solare. Ebbene, anche a prescindere dall’aspetto
paradossale di tali asserti, vi è in essi qualcosa che risulta veramente incompatibile con
lo spirito scientifico, ossia la pretesa che la conoscenza scientifica sia una conoscenza
esaustiva, e ciò in due sensi: 1) perché abbracci la totalità della natura; 2) perché spieghi
in modo completo ogni singolo fenomeno, sì da non lasciare più aperto intorno ad esso
alcun problema. Tutta la storia del pensiero moderno ci ha provato che la scienza
respinge da sé, con la massima fermezza, l’aspirazione a un tale carattere esaustivo; la
spiegazione scientifica non presume mai di essere definitiva. Anzi, il distacco fra essa e
la spiegazione metafisica sta proprio qui, nel fatto che la metafisica pretende fornire la
ragione ultima e assoluta del mondo, mentre la scienza si accontenta di fornircene
conoscenze parziali e sempre perfezionabili. Hegel non ha capito questo carattere delle
conoscenze scientifiche e perciò non ha potuto contribuire efficacemente al loro
progresso, anche quando le singole tesi da lui sostenute, come quelle antinewtoniane,
erano sostanzialmente corrette. Date queste premesse, non c'e da stupirsi che Hegel si
serve nel modo più arbitrario e fantastico dei risultati della scienza del suo tempo,
interpretandoli e concatenandoli in modo tale che essi perdono il loro valore scientifico
senza perciò acquistare un qualsiasi significato filosofico.

Il Romanticismo si fa sentire, pure se in maniera meno caratteristica e meno


diretta, in tutti i campi della conoscenza scientifica; si fa sentire come afflato
rinnovatore, come libertà di fronte agli schemi e alle categorie tradizionali, come
impulso creativo di nuovi campi di sapere e di ricerca. In particolare, in fisica, si notano
importanti spunti di rinnovamento critico rispetto alla fisica dell’età dell’Illuminismo,
ed a ciò contribuirono non poco gli strumenti matematici che nel frattempo si andavano
sviluppando permettendo rappresentazioni analitiche di nuovi concetti che prima erano
rimasti affidati all’intuizione. Importantissimo è il fatto che, nella teoria della luce, la
concezione corpuscolare imposta dall'autorità di Newton entra in crisi, e si riafferma, su
nuove basi sperimentali e matematiche, la teoria ondulatoria. E ad assestarsi su tale
base tendeva anche l’elettrologia, dopo gli studi di Galvani e di Volta e le dispute
relative. Si avvicina, così, l'era della fisica dei moti ondulatori, in contrasto con quella
dell'era newtoniana che era stata essenzialmente una fisica dei moti corpuscolari. Con
ciò nel campo del pensiero scientifico stava succedendo una cosa molto importante:
cominciava a rompersi l'unità della scienza. Lo sforzo settecentesco di sistemare tutto il
sapere naturalistico mediante un unico modello era in via di fallimento: ora c'erano due
fisiche, la fisica dei corpuscoli e la fisica delle vibrazioni, la fisica del vuoto e la fisica
dell'etere, due modelli non ancora antitetici, come diverranno nel XX secolo, perché per
il momento invocati a spiegare classi diverse di fenomeni, ma già coesistenti e con una
fisionomia e una ontologia della natura ben diverse.
Contemporaneamente si affaccia quello che sarà il carattere predominante della
scienza contemporanea: lo sperimentalismo. Anche la scienza moderna era stata, in un
certo senso, sperimentale. Ma l'esperimento moderno ha un significato ben diverso da
quello contemporaneo: quello infatti è un modo di catturare la natura, una domanda
rivolta a questa e un modo per costringerla a rispondere, ossia per procacciarsi dei dati
e di verificare delle ipotesi, al massimo, la ricerca di un modello che riproduca in
laboratorio, nelle sue linee essenziali, i processi che avvengono nel cosmo.
L'esperimento contemporaneo è ancora tutte queste cose, ma anche una cosa nuova, è
divenuto la natura stessa. L'uomo non riproduce più la natura, il canone della imitatio
naturae ha perduto di senso: ora produce la natura stessa, le leggi della nuova scienza
4<=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

sono le leggi del laboratorio, non le leggi del mondo esterno scoperte attraverso il
laboratorio.
Paradossalmente, connesso con tale sperimentalismo è il formalismo della
scienza contemporanea. Nella scienza moderna il linguaggio matematico era quello in
cui si formulava la legge, di fronte alla formula stava la descrizione del fenomeno
sperimentato. Invece nella scienza contemporanea il linguaggio matematico fornisce
esso stesso, quasi direttamente, un'immagine dell'evento sperimentale, che nei suoi
contenuti sensibili e toto coelo diverso da quello che è intuibile attraverso il linguaggio
che lo descrive. Non c'e più da una parte una historia naturalis, raccolta più o meno
ordinata di osservazioni ed esperimenti, e dall'altra la sistemazione teorico-matematica:
le due cose tendono a fondersi, contenendo la formula le condizioni operative dello
stesso esperimento. Anche questo carattere, soprattutto come distacco dall'intuizione e
dal senso comune, ha origine nella scienza romantica. Le nuove teorie sulle estensioni
del concetto di numero (Gauss), le geometrie non-euclidee, i nuovi metodi e le nuove
discipline creati da Abel e da Galois portano le matematiche su un terreno
estremamente sintattico, algoritmico, privo di possibilità di interpretazione
immediatamente intuitiva, dall'intuizione al rigore, cioè al formalismo. Ma anche nella
fisica, si tenta di sistemare le nuove scoperte dell'elettrodinamica mediante le categorie
e i principi della fisica newtoniana: ma applicati fuori del loro originario modello
corpuscolare questi acquistano un significato più astratto (vedi il concetto di campo).
Un altro aspetto interessante della fisica ottocentesca è che il lavoro scientifico si
fa sempre più specializzato, e l’uomo di scienza versato in molti campi rimane un
ricordo del seicento o del settecento. Il nuovo tipo di ricercatore può concentrare tutte le
sue energie su un argomento rigorosamente delimitato, nel cui ambito può acquisire in
breve una preparazione pressocché perfetta e quindi porsi in grado di impostare in
termini molto esatti i pochi problemi affrontati, utilizzando altresì i risultati più
aggiornati conseguiti da altri ricercatori nel medesimo settore. In tal modo era
abbastanza probabile che, anche senza possedere una particolare genialità e originalità,
egli sarebbe riuscito a ottenere qualche risultato arrecando il suo contributo alla
soluzione di quel dato problema, soluzione che sarebbe poi scaturita in seguito
all'accumularsi di altri contributi pazientemente arrecati da altri specialisti.
Tutto ciò è stato una conseguenza del dilatarsi del volume e dei campi del sapere.
All’interno di scienze come la matematica, l'astronomia, o la fisica, si erano prodotti
mutamenti molto significativi per quanto riguardava i metodi e le impostazioni
generali, e che al loro interno si erano aperti capitoli nuovi che avevano assunto il
carattere di vere e proprie discipline (si pensi per esempio, all'interno della fisica al
costituirsi, accanto alla meccanica e all'ottica esistenti sin dall'antichità, dell'elettrologia
e della termodinamica).
Tale privilegio della specializzazione doveva alimentare negli scienziati una certa
diffidenza nei confronti della filosofia, che trova viceversa nell'indagine dei temi più
generali la sua ottica più tipica, e ciò si riflette anche nel fatto che la filosofia che più si
preoccupò di valorizzare le scienze, ossia il positivismo, marginalizzò buona parte dei
problemi genuinamente filosofici. D'altro canto questa separazione tra filosofia e
scienza fu incoraggiata dalle correnti idealistiche e romantiche che, pur senza essere
esclusive, furono certamente predominanti nel pensiero ottocentesco.
La filosofia di Kant, ossia la parte del suo pensiero dedicata a rispondere alla
domanda "che cosa possiamo conoscere?", era stata in effetti una chiarificazione delle
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4<4!

condizioni e delle modalità con cui le scienze esatte (matematica e fisica matematica)
realizzano la loro impresa conoscitiva. Kant si era spinto anche più in là del semplice
discorso di teoria generale della conoscenza e aveva cercato di offrire nei Principi
metafisici della scienza della natura (1786) un quadro in cui cercava di far discendere dalle
considerazioni generali sulle possibilità della conoscenza, più dettagliate conseguenze
circa i principi e le leggi fondamentali della fisica teorica. Anche l'idealismo
trascendentale succeduto al criticismo kantiano, e di solito presentato come il
responsabile della separazione tra scienza e filosofia e della sottovalutazione del sapere
scientifico, in realtà non perseguì affatto un simile programma: pur interessandosi
anche a diverse altre manifestazioni dello spirito umano oltre alla scienza, i suoi
maggiori rappresentanti cercarono di inquadrare la scienza stessa fra le imprese
importanti della ragione di cui la filosofia deve saper dar conto e giustificare la portata
(pur superandole in quanto a fondatezza e rigore).
In realtà fu l'insuccesso concreto di simili "fondazioni" deduttive dei contenuti
delle scienze naturali a partire da grandi principi metafisici che screditò le costruzioni
idealistiche ed ebbe come effetto anche quello di far ritenere dannoso per le scienze ogni
commercio con la filosofia e far considerare la filosofia come un complesso di
ragionamenti astratti e confusi, di fronte al quale si pone l'esercizio umile, ma fecondo
di apporti conoscitivi, delle singole scienze specializzate. Tuttavia un interesse di tipo
fortemente teorico, che rispecchiava in qualche misura preoccupazioni filosofiche,
veniva prendendo corpo all’interno delle stesse scienze. In senso lato possiamo dire che,
mentre il Settecento era stato soprattutto caratterizzato dall'interesse preminente per la
raccolta di dati e il conseguimento di risultati e scoperte, cui corrispondeva spesso
un'elaborazione teorica piuttosto approssimativa, nell'Ottocento primeggia invece lo
sforzo per la creazione di teorie unitarie e rigorose, capaci di fornire un inquadramento
criticamente vagliato e logicamente solido delle conoscenze raggiunte nei vari ambiti
disciplinari.
La rilevanza assunta dalla dimensione teorica nella costruzione del sapere
scientifico è sufficiente a mostrare che una parte non trascurabile delle esigenze
intellettuali dell'uomo trovava nelle scienze una sua soddisfazione, secondo
caratteristiche di generalità e sforzi di comprensione globale e unificazione molto vicini
allo stile della riflessione filosofica, fino a entrare in contatto diretto con dibattiti
filosofici veri e propri, e ciò spiega perché questo mondo della scienza potesse rivelare
un'indubbia vitalità culturale.

8.3 La filosofia positivistica

Il Positivismo è un movimento filosofico e culturale, caratterizzato


dall'esaltazione della scienza, che nasce in Francia nella prima metà dell'Ottocento e che
si impone, a livello europeo e mondiale, nella seconda parte del secolo. Il positivismo è
il romanticismo della scienza. La tendenza propria del romanticismo a identificare il
finito e l'infinito, a considerare il finito come la rivelazione e la realizzazione
progressiva dell'infinito, è trasferita e realizzata dal positivismo nel seno della scienza.
Il termine “positivo”, da cui deriva il nome di questa corrente, viene assunto, dai filosofi
positivisti, in due significati fondamentali: 1) positivo è innanzitutto ciò che è reale,
effettivo, sperimentale, in opposizione a ciò che è astratto, chimerico, metafisico; 2)
4<5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

positivo è anche ciò che appare fecondo, pratico, efficace, in opposizione a ciò che è
inutile e ozioso.
Il Positivismo appare caratterizzato, sin dall'inizio, da una celebrazione della
scienza, che si concretizza in una serie di convinzioni di fondo:
1. La scienza è l’unica conoscenza possibile e il metodo della scienza è l’unico
valido; pertanto il ricorso a cause o principi che non siano accessibili al metodo
della scienza non dà origine a conoscenza; e la metafisica, che fa appunto tale
ricorso, è priva di valore.
2. Non avendo oggetti suoi propri, o campi privilegiati di indagine sottratti alle
scienze, la filosofia tende a coincidere con la totalità del sapere positivo o, più
specificamente, con l'enunciazione dei principi comuni alle varie scienze. La
funzione peculiare della filosofia consiste quindi nel riunire e nel coordinare i
risultati delle singole scienze, in modo da realizzare una conoscenza unificata e
generalissima. In ogni caso, essa si costituisce come studio delle generalità
scientifiche.
3. Il metodo della scienza, in quanto è l'unico valido, va esteso a tutti i campi,
compresi quelli che riguardano l'uomo e la società.
4. Il progresso della scienza rappresenta la base del progresso umano e lo
strumento per una riorganizzazione globale della vita in società, capace di
superare la crisi del mondo moderno o di accelerarne lo sviluppo in modo
sempre più rapido.
Le basi storiche e culturali di questo successo del Positivismo sono parecchie. Sul
piano politico abbiamo un quadro europeo che, al di là dello scontro in Crimea (1854) e
della guerra lampo tra Prussia e Francia (1870), appare sostanzialmente caratterizzato
dalla pace e dall'espansione coloniale europea in Africa e in Asia. Dal punto di vista
economico abbiamo un ulteriore balzo in avanti del capitalismo industriale, coincidente
con una sua progressiva internazionalizzazione. In ambito sociale troviamo un
profondo mutamento delle strutture e dei modi di vita delle città, che in pochi decenni
sono investite da rivolgimenti più radicali di quelli conosciuti in altrettanti secoli. Nel
settore scientifico abbiamo tutta una serie di importanti scoperte, mentre sul piano
tecnico le applicazioni del vapore e dell'elettricità danno inizio ad un'era nuova,
rappresentata soprattutto dalle ferrovie, divenute ben presto il principale simbolo della
modernità e delle sue vittorie sullo spazio e sul tempo.
Il decollo del sistema industriale, della scienza, della tecnica, degli scambi e
dell'estensione della cultura su larga scala, determina, in questo periodo, un clima
generale di fiducia entusiastica nelle forze dell'uomo e nelle potenzialità della scienza e
della tecnica. Questo ottimismo, presente soprattutto nelle classi dirigenti e
capitalistiche, ma anche nelle classi popolari, che possono vivere in condizioni più
agiate o meno grame rispetto al passato, si traduce in un vero e proprio culto per il
pensiero scientifico e tecnico. Di conseguenza, se l'Umanesimo aveva celebrato, come
ideale o tipo umano, soprattutto il filologo, l'Illuminismo soprattutto il filosofo, il
Romanticismo soprattutto il poeta, il Positivismo esalta soprattutto lo scienziato.
Complessivamente riguardato, il Positivismo della seconda metà dell’Ottocento
appare quindi come la filosofia della moderna società industriale e tecnico-scientifica, e
non per nulla esso si sviluppa principalmente in quelle nazioni (come l'Inghilterra, la
Francia e la Germania) che appaiono all'avanguardia del progresso industriale e
tecnico-scientifico, mentre impiega tempo ad affermarsi nei paesi (come ad esempio
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4<6!

l'Italia) in ritardo rispetto ad esso. Dall'altro lato, il Positivismo della seconda metà
dell'Ottocento appare anche come l'ideologia tipica della borghesia liberale
dell'Occidente.

Auguste Comte (1798-1857), padre del positivismo ottocentesco, fin dal principio
si è rivolto alla scienza, non per quelle che sono le sue caratteristiche e finalità, ma
perché vedeva nella scienza la rigenerazione totale dell’uomo e la realizzazione di tutto
ciò che di più alto e perfetto possa esserci; vedeva, cioè, nella scienza, l’infinito
racchiuso e rivelato. Comte ha enunciato uno schema secondo il quale, a suo giudizio, si
articola la storia di un settore di conoscenza che pervenga a piena maturità.
Si inizia con uno "stadio teologico" in cui i fenomeni sono spiegati come effetto
di cause soprannaturali, si passa a uno "stadio metafisico" in cui i fenomeni vengono
compresi e spiegati in base a principi universali e astratti e si culmina con lo "stadio
positivo" (ossia quello scientifico) nel quale lo spirito umano, riconoscendo
l'impossibilità di raggiungere nozioni assolute, rinuncia a cercare l'origine e il destino
dell'universo e a conoscere le cause intime dei fenomeni e si applica unicamente a
scoprire, mediante l'uso ben combinato del ragionamento e della scrupolosa
registrazione dei dati empirici, le loro leggi effettive, cioè le loro relazioni invariabili di
successione e di somiglianza.
L'esempio più ammirabile della spiegazione positivistica è quello della legge di
gravitazione universale di Newton. Tutti i fenomeni generali dell'universo sono
spiegati, per quanto possono esserlo, dalla legge della gravitazione newtoniana giacché
questa legge permette di considerare tutta l'immensa varietà dei fatti astronomici come
un solo e medesimo fatto guardato da punti di vista diversi e consente di unificare con
esso i fenomeni fisici.
Ora, sebbene varie branche della conoscenza umana siano entrate nella fase
positiva, la totalità della cultura intellettuale umana, e quindi dell'organizzazione
sociale che su di essa si fonda, non sono state ancora permeate dallo spirito positivo. In
primo luogo, Comte nota che accanto alla fisica celeste, alla fisica terrestre, meccanica e
chimica, e alla fisica organica, vegetale e animale manca una fisica sociale cioè lo studio
positivo dei fenomeni sociali. In secondo luogo, la mancata penetrazione dello spirito
positivo nella totalità della cultura intellettuale produce uno stato di anarchia
intellettuale e quindi la crisi politica e morale della società contemporanea. È evidente
che se una delle tre filosofie possibili, la teologica, la metafisica o la positiva, ottenesse
in realtà una preponderanza universale completa, ci sarebbe un ordine sociale
determinato. Ma poiché invece le tre filosofie opposte continuano a coesistere, ne risulta
una situazione incompatibile con una effettiva organizzazione sociale. Comte si
propone perciò il compito di portare a termine l'opera iniziata da Bacone, Cartesio e
Galilei e di costituire il sistema delle idee generali che deve definitivamente prevalere
nella specie umana, ponendo termine così alla crisi rivoluzionaria che tormenta i popoli
civilizzati. Tale sistema di idee generali o filosofia positiva presuppone però che sia
determinato il compito particolare di ciascuna scienza e l'ordine complessivo di tutte le
scienze: presuppone una enciclopedia delle scienze che muovendo da una
classificazione sistematica fornisca il prospetto generale di tutte le conoscenze
scientifiche. L'enciclopedia delle scienze sarà dunque costituita da cinque scienze
fondamentali: astronomia, fisica, chimica, biologia e sociologia. La successione di queste
scienze è determinata da: “una subordinazione necessaria e invariabile, fondata,
indipendentemente da ogni opinione ipotetica, sulla semplice comparazione
4<7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

approfondita dei fenomeni corrispondenti”. Della gerarchia delle scienze non fa parte,
come si vede, la matematica, in quanto, per la sua importanza fondamentale, è la base
di tutte le altre scienze.
La dottrina della scienza è la parte dell'opera di Comte che ha avuto più vasta e
duratura risonanza nella filosofia e maggiore efficacia sullo sviluppo stesso della
scienza. Come già Bacone e Cartesio (ai quali dichiara di collegarsi), Comte concepisce
la scienza come essenzialmente diretta a stabilire il dominio dell'uomo sulla natura.
Non che la scienza sia essa stessa di natura pratica o abbia esplicitamente di mira
l'azione. Comte al contrario afferma energicamente il carattere speculativo delle
conoscenze scientifiche e le distingue nettamente da quelle tecnico-pratiche, limitando
ad esse soltanto il compito di una enciclopedia delle scienze. Tuttavia, considerato nel
suo insieme, lo studio della natura è destinato a fornire: “la vera base razionale
dell'azione dell'uomo sulla natura”; giacché “solo la conoscenza delle leggi dei fenomeni,
il cui risultato costante è di farceli prevedere, può evidentemente condurci nella vita
attiva a modificarli a nostro vantaggio”. Lo scopo dell'indagine scientifica è la
formulazione delle leggi perché la legge permette la previsione; e la previsione dirige e
guida l'azione dell'uomo sulla natura. La ricerca della legge diventa così il termine
ultimo e costante dell'indagine scientifica.
La dottrina di Comte non è per nulla un empirismo. La legge, implicando il
determinismo rigoroso dei fenomeni naturali e la loro possibile subordinazione
all'uomo, tende a delineare l'armonia fondamentale della natura. Tra i due elementi che
costituiscono la scienza, il fatto osservato od osservabile è la legge, è la legge che
prevale sul fatto. Ogni scienza, dice Comte, consiste nella coordinazione dei fatti; e se le
diverse osservazioni fossero del tutto isolate, non ci sarebbe scienza: “Si può anche dire
generalmente che la scienza è essenzialmente destinata a dispensare, sino al punto in
cui i diversi fenomeni lo comportano, da ogni osservazione diretta, permettendo di
dedurre dal più piccolo numero possibile di dati immediati il più grande numero
possibile di risultati”. Lo spirito positivo tende a dare alla razionalità un posto sempre
crescente a spese dell'empiricità dei fatti osservati. Dice Comte: “Noi abbiamo
riconosciuto che la vera scienza, apprezzata secondo quella previsione razionale che
caratterizza la sua principale superiorità nei confronti della pura erudizione, consiste
essenzialmente di leggi e non già di fatti, sebbene questi siano indispensabili al loro
stabilirsi e alla loro sanzione”. E aggiunge: “Lo spirito positivo, senza misconoscere mai
la preponderanza necessaria della realtà direttamente constatata, tende sempre ad
aumentare il più possibile il dominio razionale a spese del dominio sperimentale,
sostituendo sempre più la previsione dei fenomeni alla loro esplorazione immediata”.
A questa tendenza logica della scienza si collega, secondo Comte, il suo
essenziale relativismo. Le nostre conoscenze reali sono relative da una parte
all'ambiente, in quanto agisce su di noi, dall'altra parte all'organismo in quanto è
sensibile a questa azione. Tutte le speculazioni umane sono perciò profondamente
influenzate dalla costituzione esterna del mondo che regola il modo d'azione delle cose
e dalla costituzione interna dell'organismo che determina il risultato personale; ed è
impossibile stabilire in ogni caso l'apprezzamento esatto dell'influenza propria di
ciascuno di questi due elementi inseparabili del nostro pensiero. In virtù di questo
relativismo, si deve ammettere l'evoluzione intellettuale dell'umanità e si deve
ammettere anche che tale evoluzione è soggetta alla trasformazione graduale
dell'organismo. In tal modo rimane esclusa definitivamente l'immutabilità delle
categorie intellettuali dell'uomo; e Comte dichiara che da questo punto di vista le teorie
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4<8!

successive sono: “approssimazioni crescenti di una realtà che non potrebbe mai essere
rigorosamente apprezzata, la migliore teoria essendo sempre a ogni epoca quella che
rappresenta meglio l'insieme delle osservazioni corrispondenti”.
Sono, queste, le idee che hanno assicurato per lungo tempo il successo della
dottrina della scienza di Comte. Ma queste idee sono anche il fondamento di un insieme
di limitazioni arbitrarie e dogmatiche che Comte avrebbe voluto imporre alla ricerca
scientifica. Già nel Corso di filosofia positiva (1830-1842) circola una continua polemica
contro la specializzazione scientifica, polemica che vorrebbe immobilizzare la scienza
sulle sue posizioni più generali ed astratte, e sottrarre queste posizioni ad ogni ulteriore
dubbio ed indagine. Comte condanna tutti i lavori sperimentali che gli sembrano
produrre una “vera anarchia scientifica”, condanna pure l'uso eccessivo del calcolo
matematico; e vorrebbe determinare per ogni genere di osservazione: “il grado
conveniente di precisione abituale, al di là del quale l'esplorazione scientifica degenera
inevitabilmente, per un'analisi troppo minuziosa, in una curiosità sempre vana e
qualche volta anche gravemente perturbatrice”. Fa parte dello spirito della sana
filosofia riconoscere che: “le leggi naturali, vero oggetto delle nostre ricerche, non
potrebbero rimanere rigorosamente compatibili, in nessun caso, con una investigazione
troppo dettagliata”; e perciò nessuna sana teoria può oltrepassare con successo
“l'esattezza reclamata dai nostri bisogni pratici”. E così, mentre afferma il carattere
speculativo e disinteressato della ricerca scientifica, Comte vorrebbe imporre a tale
ricerca i limiti propri dei bisogni pratici riconosciuti. In altri termini, la ricerca scientifica
deve venire incontro ai bisogni intellettuali dell'uomo; e tutto ciò che sembra esorbitare
da tali bisogni cade fuori di essa. Qui Comte ritiene evidentemente i bisogni intellettuali
dell'uomo fissati e determinati una volta per tutte e pretende così di imporli come guida
alla scienza; la quale, in realtà, ha essa stessa il compito di definirli e di farli emergere
dai suoi problemi. Comte fa valere con estrema energia il principio che condanna
qualsiasi ricerca scientifica la cui utilità per l'uomo non risulti evidente. Così
l'astronomia è ridotta allo studio della terra: “In luogo del vago studio del cielo, essa
deve proporsi la conoscenza della terra, non considerando gli altri astri che secondo i
loro rapporti reali con il pianeta umano”.
Le branche della fisica sono dichiarate irriducibili perché corrispondono alla
divisione dei sensi umani. Sono condannati come inutili gli studi che concernono: “le
pretese interferenze ottiche o gli incroci analoghi in acustica”. Si accusa di spirito
metafisico Lavoisier e si condannano “i lavori dispersivi della chimica attuale”.
Insomma, “l'usurpazione della fisica da parte dei geometri, della chimica da parte dei
fisici, e della biologia da parte dei chimici, sono semplici prolungamenti successivi di un
regime vizioso” che dimentica il principio fondamentale dell'enciclopedia scientifica e
cioè che “ogni scienza inferiore non dev'essere coltivata se non in quanto lo spirito
umano ne ha bisogno per elevarsi solidamente alla scienza seguente, fino a giungere
allo studio sistematico della Umanità, sol sua stazione finale”. Bisogna quindi sottrarre
la scienza agli scienziati e affidarla invece a veri filosofi “degnamente votati al
sacerdozio dell'Umanità”.
E’ pressoché inutile fermarsi a osservare che lo sviluppo ulteriore della scienza
ha smentito in pieno la convenienza e l'opportunità di queste prescrizioni e proscrizioni
di Comte, che avrebbero immobilizzato la scienza stessa e le avrebbero impedito di
compiere quella stessa funzione utile all'umanità, cui Comte la chiamava. Speculazioni
astronomiche, branche di calcolo astrattissime, ricerche fisiche apparentemente prive
d'ogni possibile riferimento alla pratica e coltivate in un primo tempo a titolo
4<9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

puramente speculativo, si sono poi rivelate suscettibili di applicazioni utilissime, ed


indispensabili alla stessa tecnica produttiva. Le limitazioni e i pregiudizi di Comte
avrebbero in realtà troncato alla scienza ogni possibilità di sviluppo teoretico e pratico.

8.4 Indagine sui fondamenti nella scienza ottocentesca

Come abbiamo già sottolineato, nell'Ottocento viene a istituirsi un complesso


rapporto tra la filosofia e le nuove scienze esatte, ossia l'esigenza filosofica tende a
trasferirsi, per così dire, dall'esterno all'interno delle scienze, sostanzialmente secondo
tre aspetti: attraverso lo sforzo di tener viva l'esigenza della generalità accanto alla
crescente specializzazione di tutte le discipline scientifiche; mediante un impegno
notevole posto nello sviluppo dell'aspetto teorico delle scienze accanto al loro netto
impianto empirico e sperimentale; attraverso un impegno di riflessione critica quasi
senza precedenti a proposito di quelli che poi vennero chiamati i fondamenti logici e
concettuali delle scienze esatte.
Sin dagli inizi dell'Ottocento, venne manifestandosi quella che potremmo
chiamare una preoccupazione di ricostruire le basi di parecchie discipline, in particolare
della fisica e della matematica, di rigorizzare concetti, procedimenti e dimostrazioni.
Non si trattò certamente di un puro lavoro di riassetto e consolidamento del già noto:
infatti, mano a mano che le precisazioni e le rigorizzazioni critiche avvenivano,
sgorgavano come loro conseguenze teoremi nuovi, nuove costruzioni, addirittura
nuove discipline. Questa esigenza corrisponde a quello spirito di sistematicità e rigore
che ha sempre caratterizzato l'ideale occidentale della scientificità, e che potremmo
esprimere anche come aspirazione a "trovare l'unità del molteplice", non di rado
confusa tuttavia con la "riduzione del molteplice all'uno". Abbiamo inoltre già avuto
occasione di sottolineare come la costruzione della meccanica come prima scienza
naturale moderna avesse predisposto le menti a concepire la meccanica come chiave di
lettura scientifica di tutti i fenomeni naturali, preparando in tal modo il sorgere di un
nuovo meccanicismo che prese corpo specialmente nell'Ottocento. Diciamo nuovo
perchè già nel Seicento si era diffuso un meccanicismo filosofico, consistente in sostanza
nella rinascita dell’antico atomismo democriteo, e questo aveva anzi costituito la
metafisica di sfondo accettata dalla nuova scienza fisica galileiana e newtoniana. Il
meccanicismo ottocentesco è in parte diverso, poiché non si limita all'accettazione di un
quadro metafisico tutto sommato molto generale e generico, ma assume una ben precisa
scienza, ossia la meccanica, come chiave di lettura di tutta la realtà fisica, il che significa,
in sostanza, che ogni fenomeno naturale si presupponeva fosse spiegabile utilizzando
concetti, leggi e principi della meccanica, ricorrendo se necessario a complesse
modellizzazioni e calcoli matematici.
Questo programma sembrava ben avviato, perché alcune branche tradizionali
della fisica, come l'acustica, l'ottica e la teoria del calore (i cui oggetti di studio erano in
sostanza costituti da fenomeni sensibili diversi) erano state inglobate nella meccanica,
rispettivamente nei capitoli della teoria delle vibrazioni, della propagazione di
corpuscoli nel vuoto, oppure di onde in un mezzo elastico (l'etere luminifero), o come
effetti cumulativi di moti caotici di molecole in agitazione all'interno dei corpi. Come
espressione della fiducia che a simile riduzione dovesse venire perseguita per ogni
fenomeno naturale basteranno due citazioni molto autorevoli. Afferma Helmoltz: “Il
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4<:!

compito delle scienze fisiche si determina pertanto, in ultima istanza, come quello di
ricondurre i fenomeni naturali a forze immutabili, attrattive o repulsive, la cui
intensità dipende dalla distanza. La possibilità che questo compito sia assolto
costituisce, nello stesso tempo, la condizione della completa intelligibilità della natura”.
Gli fa eco ancora una quarantina d'anni dopo, Kelvin: “Io non mi sento soddisfatto se
prima non sono riuscito a costruirmi un modello meccanico dell'oggetto che studio; se
mi posso fabbricare un tale modello, comprendo, se non posso farlo, non comprendo”.
La frase di Helmholtz si legge nella fondamentale memoria Sulla conservazione
della forza uscita nel 1847, anno in cui vari autori espressero, in forme diverse ma
sostanzialmente equivalenti, il principio di conservazione dell'energia e questa
sembrava ormai costituire la moneta comune mediante cui avvengono tutti gli scambi
di fenomeni in natura e d'altro canto la dimostrazione dell'equivalente meccanico della
caloria ottenuta Joule poco dopo (1850) mostrava che si poteva assumere una grandezza
meccanica (il lavoro) come misura per esprimere l'energia. Quanto a Kelvin, la frase
citata si legge nelle Lezioni sulla dinamica molecolare e sulla teoria ondulatoria della luce
(1884), un'opera in cui il grande fisico si rifiuta di aderire alla teoria elettromagnetica
della luce fondata da Maxwell, per il fatto di non riuscire a ottenerne un modello
meccanico. Del resto lo stesso Maxwell, alla fine del suo Trattato di elettricità e
magnetismo (1873) esprimeva ancora la tesi che il mezzo dentro cui si propagano le onde
elettromagnetiche doveva possedere proprietà meccaniche e considerava un compito
delle generazioni future quello di scoprirne la struttura meccanica. Ma né Kelvin, né
altri valentissimi fisici matematici che si cimentarono nello sforzo di presentare una
teoria fisicamente sostenibile di un tale etere elettromagnetico riuscirono a costruirla.
Il meccanicismo, per un certo periodo, fu la filosofia della natura imperante e
anche dopo il suo tramonto il suo stile intellettuale si è conservato sotto forma di
fisicalismo, ossia come concezione secondo cui tutti i fenomeni naturali sono riducibili a
fatti fisici, nel senso che concetti, leggi e principi della fisica sono sufficienti per
spiegarli completamente.

8.5 La teoria ondulatoria

Il maggior titolo di merito di Thomas Young (1773-1829) è il suo sostegno alla


teoria ondulatoria della luce. Già nel 1800 egli aveva pubblicato una memoria sul suono
e la luce, nella quale, come già aveva fatto Eulero, metteva in evidenza le analogie tra i
due ordini di fenomeni: fu questo il punto di partenza della sua teoria delle
interferenze. Al suo spirito non conformista la teoria corpuscolare di Newton appariva
molto insoddisfacente. Specialmente gli sembrava inconcepibile la costanza della
velocità delle particelle luminose, sia che fossero scagliate da piccole sorgenti, come una
candela, sia che emanassero da sorgenti enormi come il Sole. E soprattutto gli sembrava
profondamente oscura e insufficiente la teoria newtoniana degli accessi, con la quale
Newton aveva tentato d'interpretare la colorazione delle lamine sottili. Ripetuto questo
fenomeno e meditato a lungo su di esso, Young ebbe il lampo di genio di tentarne la
spiegazione come effetto della sovrapposizione della luce riflessa dalla prima faccia
della lamina sottile guardata per riflessione e della luce che, penetrata nella lamina, si
riflette sulla seconda faccia ed emerge poi dalla prima: codesta sovrapposizione poteva
portare all'estinzione o a un rinforzo della luce monocromatica impiegata.
4;<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Affinché si abbia l'interferenza occorre che i due raggi di luce arrivino allo stesso
punto dalla stessa sorgente (in modo che abbiano esattamente sempre lo stesso
periodo), in direzioni pressapoco parallele, dopo aver percorso cammini diversi. Sicché,
continua Young, quando le due parti della stessa luce arrivano all'occhio per vie
diverse, praticamente nella stessa direzione, la luce diventa intensa al massimo quando
la differenza dei cammini è multipla di una certa lunghezza e intensa al minimo nello
stato intermedio; questa certa lunghezza è differente per luci di differenti colori:

INTERFERENZA COSTRUTTIVA
In un punto si ha interferenza costruttiva, e quindi una frangia chiara, se la differenza fra le
distanze percorse dai due raggi è uguale a un numero intero m di lunghezze d'onda:

∆x = mλ
INTERFERENZA DISTRUTTIVA
In un punto si ha interferenza distruttiva, e quindi una frangia scura, se la differenza fra le
distanze percorse dai due raggi è uguale a un multiplo dispari di λ/2:
λ
∆x = (2m − 1)
2

Nel 1802 Young confortò il principio con la classica esperienza della doppia
fenditura. L'esperienza è ben nota: in uno schermo opaco si praticano, con una punta di
spillo, due forellini vicini e si illuminano con la luce solare passata attraverso un piccolo
foro della finestra; i due coni
luminosi dietro lo schermo
opaco, dilatati dalla diffrazione,
in parte si sovrappongono e
nella parte comune si formano,
in luogo di un aumento
uniforme di intensità luminosa,
una serie di frange
alternativamente scure e
brillanti. Se si chiude un
forellino dello schermo
scompaiono le frange e appaiono soltanto gli anelli di diffrazione dell'altro forellino; le
frange scompaiono pure se i due forellini s'illuminano direttamente con la luce del Sole
o d'una fiamma artificiale. Adottando la teoria ondulatoria, Young interpreta il
fenomeno in modo semplice: le frange scure compaiono dove il ventre di un onda
passata da un forellino si sovrappone alla cresta di un’onda passata dall'altro forellino,
in modo che i loro effetti si elidano; una frangia luminosa invece si ottiene dove si
sovrappongono le creste alle creste e i ventri ai ventri di due onde passate attraverso i
due forellini. L’esperimento consentiva a Young di misurare anche la lunghezza d'onda
per i vari colori, ottenendo circa 0,7 micron per la luce rossa e 0,42 micron per l’estremo
violetto. Sono queste le prime misure di lunghezza d'onda della luce che la storia della
fisica ricordi, e per essere le prime sono di una sorprendente precisione.
I lavori di Young, pur rappresentando il più importante progresso portato alle
teorie ottiche dall'epoca di Newton, furono accolte dai fisici del tempo con diffidenza,
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4;;!

dovuta in parte all'abuso fatto da Young del principio d'interferenza applicato anche a
fenomeni certo non interferenziali, in parte a una certa oscurità di esposizione che si
nota oggi e che doveva essere più evidente allora per concetti affatto nuovi, in parte,
come gli rimproverò Laplace, dall'essersi Young accontentato di dimostrazioni
matematiche alquanto disinvolte e talvolta superficiali, certamente frutto della scarsa
educazione matematica ricevuta in gioventù.
Huygens aveva scoperto, dichiarando di non saperlo interpretare, il seguente
fenomeno: la luce passata attraverso lo spato d'Islanda assume un carattere speciale, per
cui se incontra un secondo spato con la sezione parallela al primo non si birifrange, ma
semplicemente si rifrange; se poi il secondo spato si ruota opportunamente si verifica
nuovamente la birifrangenza, ma l'intensità dei due raggi rifratti dipende dall'angolo di
rotazione. Nei primi anni del XIX secolo riprese lo studio del fenomeno Etienne-Louis
Malus (1775-1812), sostenitore della teoria corpuscolare, il quale scoprì che si trattava
del fenomeno della polarizzazione (un'onda è polarizzata linearmente se la vibrazione
avviene costantemente su uno dei piani passanti per la direzione di propagazione),
provocato dalla bilateralità del raggio. Young ne venne turbato e scoraggiato, anche
perché l’opinione scientifica del tempo si opponeva decisamente alla teoria ondulatoria,
e scrisse a Malus: “I vostri esperimenti dimostrano l’insufficienza di una teoria (quella
delle interferenze) che io avevo adottato, ma non provano la sua falsità”.

Jean-Francois-Dominique Arago (1786-1853) provò che è polarizzata la luce della


Luna, delle comete, dell'arcobaleno, onde si ha nuova conferma che queste luci sono
luci solari riflesse; polarizzata è anche la luce emessa obliquamente da solidi e liquidi
incandescenti, onde si prova che essa proviene da uno strato interno del corpo ed è stata
rifratta uscendo nell'aria. Ma la più importante e più nota scoperta di Arago è la
polarizzazione cromatica: facendo attraversare da luce polarizzata una lamina di
cristallo di roccia di 6 mm di spessore e osservandone la luce emergente attraverso uno
spato, egli otteneva due immagini colorate coi colori complementari: per esempio, se
un'immagine prima era rossa, per un determinato senso di rotazione dello spato, essa
passa all'aranciato, al giallo, al verde ecc. Jean-Baptiste Biot (1774-1862) riprese queste
esperienze e dimostrò che, per ottenere un certo colore, la rotazione dello spato è
proporzionale allo spessore della lamina. Nel 1815 scoprì, inoltre, il fenomeno di
polarizzazione rotatoria e l’esistenza di sostanze destrogire e levogire.
In conclusione, i fenomeni fondamentali di polarizzazione della luce vasto erano
stati scoperti dai fisici francesi nel settennio 1808-15. E siccome la scoperta di tali
suggestivi fenomeni era avvenuta sotto il segno della teoria emissionistica, parve che
questa ne ricevesse nuovo lustro.

Ma il sussulto di vitalità della teoria corpuscolare ebbe breve durata, grazie


all’opera di Augustin Fresnel (1788-1827) che rianimò l’interesse per Young. Fresnel
conobbe da Arago l'esperienza dei due fori di Young, che gli sembrava del tutto idonea
a dimostrare la natura ondulatoria della luce. Idonea ma non per tutti. I newtoniani,
infatti, attribuivano il fenomeno all'azione dei bordi dei fori. Per convincere gli ostinati,
bisognava ideare un'esperienza nella quale fosse eliminata ogni possibile attrazione
della materia sui raggi di luce. Fresnel vi riuscì e comunicò nel 1816 la ben nota
esperienza dei due specchi e successivamente, nel 1819, del biprisma.
Messo il principio d'interferenza al riparo da ogni attacco, la teoria ondulatoria
disponeva di tre principi: il principio delle onde elementari, il principio dell'inviluppo,
4;=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

il principio d'interferenza. Erano tre principi staccati, che Fresnel genialmente fuse nel
nuovo concetto d'inviluppo da lui elaborato. Per Fresnel l'inviluppo di onde non è un
semplice inviluppo geometrico, come per Huygens. In un punto qualunque dell'onda
l'effetto totale è la somma algebrica degli impulsi che vi producono tutte le onde
elementari; la somma di tutti questi impulsi, che si sovrappongono secondo il principio
dell'interferenza, può anche essere nulla. Così era superata la secolare difficoltà che
aveva sempre impedito l'affermazione della teoria ondulatoria: la conciliazione tra la
propagazione rettilinea della luce e il suo meccanismo ondulatorio. Ogni punto esterno
a un'onda riceve luce da una piccolissima regione dell'onda attorno al punto a esso più
vicino e tutto avviene dunque come se la luce si propagasse in linea retta dalla sorgente
al punto illuminato. È vero che le onde dovrebbero aggirare gli ostacoli, ma
l'affermazione non va presa grossolanamente in senso qualitativo, perché l'inflessione
dietro gli ostacoli è funzione della lunghezza d'onda; nota la lunghezza d'onda si può
calcolare come e quanto la luce s'inflette dietro gli ostacoli. Presi in esame i fenomeni di
diffrazione, Fresnel calcola le inflessioni che debbono avvenire e i risultati dei suoi
calcoli corrispondono in modo ammirevole ai risultati sperimentali. Le prime memorie
di Fresnel sulla diffrazione, per il loro scarso rigore matematico, furono male accolte da
Laplace, da Poisson, da Biot, fini analisti che del rigore matematico avevano un culto.
Stabilita la teoria della diffrazione, Fresnel passò allo studio dei fenomeni di
polarizzazione. La teoria corpuscolare, nel tentare d'interpretare i numerosi fenomeni
scoperti nel primo quindicennio del secolo, costretta a introdurre ipotesi su ipotesi,
affatto gratuite, talvolta contraddittorie, era divenuta incredibilmente complicata. In
collaborazione con Arago continuò le ricerche sperimentali sull'eventuale interferenza
della luce polarizzata. I due scienziati stabilirono sperimentalmente che due raggi di
luce polarizzati in piani paralleli interferiscono sempre e polarizzati in piani
perpendicolari non interferiscono mai (nel senso che non si estinguono). Come spiegare
questo fatto? Come spiegare tutti gli altri fenomeni di polarizzazione che non avevano
nulla di analogo nei fenomeni acustici? Fresnel, non riuscendo a trovare altra via
d'uscita all'interpretazione dei fenomeni di polarizzazione, si decise ad adottare la
teoria della trasversalità delle vibrazioni.
Che l'ipotesi potesse servire alla spiegazione delle principali proprietà della luce,
polarizzata o non polarizzata, fu ampiamente dimostrato da Fresnel; ma che essa non
avesse nulla di fisicamente impossibile, era un altro discorso. La trasversalità delle
vibrazioni portava di conseguenza che l'etere, pur essendo un fluido sottilissimo e
imponderabile, doveva anche essere un solido rigidissimo, più rigido dell'acciaio,
perché solamente i solidi trasmettono vibrazioni trasversali. L'ipotesi si presentava
veramente ardita, quasi aberrante. Arago, fisico non certo irretito da pregiudizi, non se
la sentì di condividere la responsabilità di questa strana ipotesi e rifiutò la sua firma alla
memoria presentata da Fresnel. Dal 1821 Fresnel continuò quindi da solo il suo
cammino, e fu un cammino di successi. L'ipotesi delle vibrazioni trasversali gli consentì
di costruire il suo modello meccanico di luce. Ne è supporto l'etere che pervade tutto
l'universo e compenetra i corpi, subendo da parte dei corpi modificazioni nelle sue
caratteristiche meccaniche. Per effetto di queste modificazioni, quando un'onda elastica
si propaga dall'etere puro all'etere commisto di materia, sulla superficie di separazione
una parte dell'onda torna indietro e l'altra parte penetra nella materia: era così spiegato
meccanicamente il fenomeno di riflessione parziale, rimasto per secoli un mistero per i
fisici, e Fresnel dava le formule che portano il suo nome, rimaste sino a oggi immutate.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4;4!

La velocità di propagazione della vibrazione che attraversa la materia dipende


dalla lunghezza d'onda e, a parità di lunghezza d'onda, è minore nei mezzi più
rifrangenti: ciò porta come conseguenza la rifrazione e la dispersione della luce. In
questa teoria tutti i complicati fenomeni di polarizzazione sono interpretati in modo
ammirevolmente coerente con i risultati sperimentali e appaiono come casi particolari
delle leggi generali di composizione e scomposizione delle velocità. Lo studio della
doppia rifrazione implicava la ricerca delle forze che in un mezzo elastico sviluppano i
piccoli moti molecolari. Questo studio portò Fresnel a enunciare alcuni teoremi che
contribuirono allo sviluppo di un nuovo ramo della fisica, la teoria generale
dell'elasticità.
Fresnel affrontava i problemi e li risolveva affidandosi più alla sua potente
intuizione che al calcolo matematico, per cui più volte sbagliò e spesso accennò appena
alle soluzioni. Ma le sue idee, pur tra le opposizioni dei vecchi fisici, conquistarono
rapidamente i giovani scienziati, ammirati dalla facile intuibilità e dalla semplicità del
modello teorico, che ordinarono e rettificarono la teoria e ne svilupparono le
conseguenze.
Nei primi anni della carriera di William R. Hamilton (1805-1865) la teoria
ondulatoria non era unanimemente accettata, ed in presenza di questo atteggiamento
dei maggiori scienziati del tempo, Hamilton si propose di costruire una teoria formale
dei fenomeni ottici conosciuti, che fosse suscettibile tanto di un’interpretazione
ondulatoria quanto di una interpretazione corpuscolare nel senso del principio di
minima azione. Il suo scopo dichiarato era di fornire una teoria formale dell'ottica che
avesse la stessa potenza, bellezza e armonia possedute dalla meccanica di Lagrange.
Secondo Hamilton noi possiamo considerare le leggi di propagazione dei raggi
luminosi in se stesse, indipendentemente dalle teorie che le interpretano e pervenire
così a un'ottica matematica. Anzi, avviatosi su questa via, egli ne dedusse una dottrina
di filosofia scientifica. Hamilton distingue nell'evoluzione delle scienze due momenti:
nel primo lo scienziato si eleva dai fatti singoli alle leggi per induzione e analisi; nel
secondo discende dalle leggi alle conseguenze per deduzione e sintesi. Insomma,
secondo Hamilton, l'uomo raccoglie e raggruppa le apparenze finché l'immaginazione
scientifica ne scopre le intime leggi, facendo sorgere l'unità dalla varietà;
successivamente dall'unità l'uomo riottiene la varietà, costringendo le leggi scoperte a
dare le rivelazioni del futuro. Questo il metodo di lavoro di Hamilton. Giunge così alla
formulazione del principio che porta il suo nome, secondo il quale una certa grandezza
ottica, matematicamente definita, è stazionaria nella propagazione della luce. Per questa
via si perviene a razionalizzare ottica geometrica in una teoria formale che interpreta i
fatti sperimentali senza costringere a scegliere tra l'ipotesi corpuscolare e l'ipotesi
ondulatoria della luce. Hamilton estese, poi, la sua teoria ottica alla dinamica e la
sviluppò sistematicamente, facendo dipendere la soluzione del problema generale della
dinamica da due equazioni simultanee alle derivate parziali. C'è nell'opera di Hamilton
una sintesi ammirevole tra problemi ottici e problemi dinamici, ed è interessante
osservare a questo proposito come i più potenti strumenti matematici della meccanica
quantistica siano stati forniti dalla meccanica analitica, formatasi nel quadro della fisica
classica.

Ma fu Carl G. Jacobi (1804-1851) che, con i suoi celebri lavori, dette la più ampia
applicazione della teoria di Hamilton, nello stesso tempo semplificandola e
4;5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

generalizzandola in una forma divenuta classica: per questo motivo la teoria è spesso
indicata come teoria di Hamilton-Jacobi.

Come abbiamo più volte accennato, la teoria corpuscolare richiede una maggiore
velocità della luce nei mezzi più rifrangenti, mentre la teoria ondulatoria ne richiede
una minore. Parve ad Arago, avversario della teoria corpuscolare ma non
completamente convinto fautore di quella ondulatoria, che la misura della velocità della
luce nei mezzi materiali fosse il modo migliore, l'experimentum crucis, per discriminare
le due teorie. Arago aveva così dato un particolare spicco all'idea di un'esperienza
cruciale per la definitiva affermazione della teoria ondulatoria, onde la misura della
velocità con mezzi terrestri acquistò urgenza e importanza agli occhi dei giovani fisici. Il
primo che riuscì a eseguirla fu Louis Fizeau (1819-1896) nel 1849, con un esperimento
concettualmente identico a quello di Galileo. Fizeau ottenne per la velocità della luce il
valore di 313.274.304 m/s. Il dispositivo di Fizeau non consentiva, però, misure di
velocità nei vari mezzi.

Vi arrivò Lèon Foucault (1819-1868) nel 1850 con un dispositivo che traduce il
seguente concetto: il tempo impiegato dalla luce nel percorso d'andata e ritorno tra due
specchi, il primo dei quali in rapidissima rotazione, è misurato dalla rotazione subìta
nello stesso tempo dallo specchio mobile, valutata dalla deviazione del medesimo
raggio luminoso al suo ritorno sullo specchio mobile. Per misurare il numero di giri per
secondo dello specchio mobile, Foucault adoperò, forse per la prima volta nelle ricerche
fisiche, il metodo stroboscopico, cioè l'artificio di rallentare apparentemente un moto
periodico per consentirne la comoda osservazione. Interponendo tra i due specchi,
distanti tra loro qualche metro, una sostanza diversa dall'aria, si può misurare la
velocità della luce in questa sostanza. Gli esperimenti di Foucault erano soltanto
comparativi; egli, interponendo un tubo d'acqua tra i due specchi constatò che la
velocità della luce nell'acqua è i 3/4 della velocità nell'aria. Per la velocità della luce
ottenne un valore di 298.000 km/s, con un errore probabile di ± 500 km/s.

Le misure furono ripetute con successivi perfezionamenti al metodo di Foucault


da Simon Newcomb (1835-1909), da Michelson e da altri. Tutte queste determinazioni,
inoltre, concordano nel misurare minori velocità nei mezzi più rifrangenti. Ma queste
misure hanno anche rivelato un fatto importante: l'indice di rifrazione di un mezzo non
è esattamente eguale al rapporto tra le velocità della luce nel vuoto e nel mezzo in
esame, come voleva la teoria di Fresnel; si osserva un costante disaccordo che supera di
molto gli errori sperimentali. Il disaccordo fu interpretato nel 1881 da Lord Rayleigh il
quale introdusse i concetti di velocità di fase, cioè di velocità della cresta dell'onda
risultante di più onde monocromatiche sovrapposte: in un mezzo dispersivo la velocità
di gruppo, che è quella direttamente misurata, non coincide con la velocità di fase.
Nel 1850 le esperienze di Fizeau e Foucault sembrarono il definitivo trionfo della
teoria ondulatoria. Ma le teorie non sono mai definitive. La teoria di Fresnel avrà vita
tranquilla ancora per una ventina d'anni, poi cominceranno i guai. La teoria ondulatoria
era molto soddisfacente, ma lasciava i fisici alle prese con l’etere, questo “mezzo
luminifero” trattabile matematicamente ma sperimentalmente non individuabile e
concettualmente impossibile a raffigurarsi. L’imbarazzo venne aumentato dalla
mancanza di una qualsiasi alternativa accettabile.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4;6!

L'ipotesi delle vibrazioni elastiche poneva un primo problema: l'etere è fermo o si


muove? In particolare, l'etere che si trova addensato in un corpo si muove col corpo?
Arago, con belle esperienze, aveva dimostrato che il movimento della Terra non ha
alcuna azione sensibile sulla rifrazione della luce che arriva dalle stelle. Il risultato era
inconciliabile con la teoria corpuscolare, per cui chiedeva a Fresnel se esso s'inquadrava
con la teoria ondulatoria. E Fresnel gli rispondeva che il risultato s'interpretava
facilmente nella teoria ondulatoria, come s'interpreta il fenomeno d'aberrazione, pur
d'ammettere il trascinamento parziale dell'etere: un corpo cioè che si muove non
trascina con se tutto l'etere in esso contenuto, ma solamente l'eccesso di etere che esso
contiene rispetto a quello che è contenuto in un volume eguale di spazio vuoto. Con
questa ipotesi Fresnel riusciva a spiegare tutti i fenomeni risultanti dal movimento
rapido d'un corpo rifrangente.

L'influenza del movimento dei corpi luminosi o sonori fu studiata teoricamente


nel 1842 dal fisico austriaco Christian Doppler (1803-1853). Egli faceva osservare che se
una sorgente luminosa si avvicina all'osservatore,
questi percepisce vibrazioni luminose di durata
minore di quelle emesse dalla sorgente, cioè il colore
di questa si sposta verso il violetto, mentre invece si
sposta verso il rosso se la sorgente si allontana
dall'osservatore. Analogamente se un corpo sonoro si
muove avvicinandosi all'osservatore, questi
percepisce un suono più acuto di quello emesso dalla
sorgente, mentre lo percepisce più grave se la
sorgente si allontana. Nel 1848 Fizeau propose di
servirsi di questo fenomeno, detto effetto Doppler-
Fizeau, per la misura della velocità radiale degli astri dallo spostamento delle loro righe
spettrali.
Anche l'effetto Doppler sembrava confermare le idee di Fresnel sul parziale
trascinamento dell'etere, e tuttavia questa ipotesi fu combattuta da George G. Stokes
(1819-1903), uno dei più illustri continuatori dell'opera di Fresnel. In un notevole lavoro
del 1845 Stokes sosteneva il totale trascinamento dell'etere nell'immediata prossimità
della Terra, che si mutava in parziale trascinamento gradatamente decrescente con la
distanza dalla Terra. Nel 1851 Fizeau tentò di risolvere la questione facendo interferire
due raggi di luce, di cui uno avesse attraversato una colonna d'acqua nel senso del moto
da questa posseduto e l'altro in senso contrario. Se l'etere è trascinato nel moto, le frange
d'interferenza si debbono spostare rispetto alla posizione che occupano quando
l'esperimento si compie con acqua ferma: i risultati sperimentali ottenuti da Fizeau
confermavano l'ipotesi di Fresnel. Ma Michelson e Morley nel 1887, con un’esperienza
divenuta famosa, e che tratteremo nel capitolo sulla Relatività di Einstein, tentarono di
rivelare sperimentalmente il moto della Terra rispetto all'etere supposto immobile, il
cosiddetto “vento d'etere”. L’analisi dei risultati, secondo Michelson, dimostrava che
l’etere si muove insieme con la Terra, ma il fenomeno di aberrazione della luce indicava
che l’etere è in riposo. Le due conclusioni, in netto contrasto, posero la fisica in un grave
imbarazzo, che verrà superato dal genio di Einstein con la sua teoria della relatività
ristretta.
4;7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

8.6 La spettroscopia

Nel primo trentennio del XIX secolo le ricerche sulla polarizzazione e gli studi
sulla natura della luce fecero considerare come secondarie altre scoperte importanti
collegate col fenomeno luminoso, che nello tesso tempo si venivano facendo.
Che ai raggi luminosi siano collegati effetti anche calorifici è un'ovvia
osservazione, nota naturalmente fin dall'antichità. Nel 1800 Herschel fece una scoperta
fondamentale. Egli voleva studiare se veramente il calore era distribuito uniformemente
nello spettro solare, come da tutti si diceva, soltanto in base a una sbrigativa intuizione.
Herschel spostò perciò un sensibile termometro lungo lo spettro solare e trovò che la
sua temperatura non solo andava via via aumentando dal violetto al rosso, ma che era
massima in una regione oltre il rosso, là dove l'occhio non discerneva nulla. Egli
interpretò subito il fenomeno come dovuto a radiazioni calorifiche invisibili provenienti
dal Sole, deviate dal prisma meno del rosso e poi dette perciò infrarosse; studiò allora
queste radiazioni oscure su una sorgente terrestre costituita da un cilindro di ferro caldo
ma non incandescente e ne dimostrò la rifrazione mediante lenti. Ma John Leslie (1766-
1832), uno sperimentatore molto accurato, attribuiva il fenomeno di Herschel a correnti
d'aria; le sue obiezioni non ebbero credito, né seguito. Più fortunate furono altre sue
ricerche sperimentali, che dimostrarono che l'irraggiamento e l'assorbimento calorifico
di un corpo dipendono dalla natura della sua superficie.

Il tedesco Johann Ritter (1776-1810) aveva fatto un'altra scoperta simmetrica a


quella di Herschel e di eguale importanza. Egli, ripetendo nel 1801 gli esperimenti di
Herschel, si propose di studiare gli effetti chimici delle varie radiazioni luminose. Egli
s'accorse così che l'effetto delle radiazioni dello spettro andava via via aumentando dal
rosso al violetto e raggiungeva il massimo dopo il violetto, in una regione dove l’occhio
non percepiva luce: erano così scoperte nello spettro nuove radiazioni presenti nella
luce solare, rifratte dal prisma più del violetto e dette perciò ultraviolette.
Allo studio delle radiazioni ultraviolette si ricollega la ripresa delle ricerche
relative alla fluorescenza per opera di Stokes. Egli si propose di studiare il fenomeno
consistente nell'azzurro brillante presentato dalla soluzione di solfato di chinina
fortemente illuminata. Ben presto Stokes s’accorse che il fenomeno non s'inquadrava
nella dottrina newtoniana dei colori prismatici, perché l'azzurro della chinina
compariva anche quando la luce incidente non conteneva il colore azzurro. Stokes
aveva scoperto il fenomeno della fluorescenza come il risultato che la luce secondaria
provenisse da uno straterello superficiale del corpo investito dalla luce primaria.

Un progresso veramente fondamentale per gli studi sulle radiazioni invisibili fu


compiuto da Macedonio Melloni (1798-1854), uno dei più grandi sperimentatori che
abbia avuto l’Italia. Melloni si dedicò allo studio del calore raggiante servendosi di uno
strumento molto più sensibile dei comuni termometri allora usati: il
termomoltiplicatore. Dopo aver preso in esame i risultati ottenuti nello studio del calore
raggiante dai fisici precedenti, e averne corretti alcuni, egli iniziò le ricerche personali
con lo studio dell'assorbimento del calore raggiante da parte dei corpi, scoprendo che il
salgemma è molto trasparente per il calore, onde esso è particolarmente adatto per la
costruzione di prismi e lenti per lo studio delle radiazioni infrarosse; dimostrò la varia
rifrangibilità dei raggi calorifici, che ancora si negava, e dei raggi chimici, cioè dei raggi
ultravioletti; dimostrò la polarizzazione del calore raggiante; dimostrò con
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4;8!

un'esperienza ingegnosa, oggi attribuita a John Tyndall (1820-1893), che l'intensità del
calore raggiante varia in ragione inversa del quadrato della distanza. Fondamentale è la
memoria di Melloni del 1842 in cui illustra il concetto che il calore raggiante, la luce, i
raggi ultravioletti, sono radiazioni analoghe che differiscono soltanto nella lunghezza
d’onda. Fu questa una delle maggiori conquiste della scienza del tempo e una forte
spinta all’elaborazione di teorie unitarie, che caratterizza il progresso fisico del XIX
secolo. E ancora Melloni dimostra che il fenomeno delle radiazioni infrarosse ha lo
stesso andamento dell'assorbimento delle radiazioni visibili e come i corpi sono, sotto
determinati spessori, diafani o opachi per la luce, così essi sono diatermani o atermani
per il calore, secondo la terminologia da lui introdotta e tuttora in uso, e che
l'irraggiamento calorifico non è un fenomeno soltanto superficiale, ma vi concorrono gli
strati interni, di spessore variabile, del corpo raggiante. In La thermocrose ou la coloration
calorifique (1850) Melloni riespose organicamente, in una forma avvincente, tutta la sua
teoria del calore raggiante e i suoi classici esperimenti.

Un grande impulso allo studio della dispersione e alla costruzione di lenti


acromatiche, dette Joseph von Fraunhofer (1787-1826). Per fare misure esatte della
dispersione dei prismi, egli scelse come sorgente di luce una candela o una lampada a
olio e trovò nello spettro una riga gialla chiara, ora conosciuta come riga del sodio, e
s'accorse subito che essa era sempre nello stesso posto e quindi molto comoda per una
esatta misura degli indici di rifrazione. Dopo di che, narra lo scienziato nella sua prima
memoria del 1815: “Io desideravo di scoprire se una simile linea brillante si potesse
vedere nello spettro della luce solare; e trovai col telescopio, invece di questa, quasi
innumerevoli linee verticali forti e deboli, che però erano più oscure delle altre parti
dello spettro, e alcune di esse apparivano quasi perfettamente nere”.
Fraunhofer, dopo accurate misure delle posizioni delle linee e variando in più
modi le condizioni sperimentali giunse alla convinzione che “queste linee sono nella
natura della luce del Sole e non sorgono da diffrazione o da illusioni dello
sperimentatore”. Ne scoprì centinaia (precisamente 576) e le studiò attentamente;
distinse le più forti con le lettere maiuscole e minuscole dell'alfabeto; notò la loro
posizione costante nello spettro e quindi capì la loro importanza per la misura degli
indici di rifrazione, costituendo punti fissi di riferimento; riconobbe che la riga D dello
spettro solare è nella stessa posizione della riga gialla brillante della lampada. Il suo
spettroscopio era costituito dal collimatore, dal prisma e dal cannocchiale, lo rivolse
verso Venere e trovò che anche lo spettro della luce del pianeta presenta le stesse righe
dello spettro solare. Negli ultimi anni di vita Fraunhofer si dedicò allo studio della
diffrazione, costruendo reticoli anche con oltre 300 righe per millimetro.

I reticoli furono oggetto di studio teorico da parte di Ottaviano Fabrizio


Mossotti (1791-1863), il più grande fisico matematico italiano della prima metà del
secolo, il quale indicò la convenienza di usarli per una determinazione facile e precisa
della lunghezza d'onda.
Gli esperimenti di Fraunhofer sugli spettri di emissione furono continuati in
Inghilterra da Brewster, Herschel e William Fox Talbot (1800-1877). Quest'ultimo, già
fin dal 1834, dopo numerosi esperimenti con fiamma di alcool nel quale erano stati
sciolti sali diversi, concludeva: “Allorché nello spettro d'una fiamma compaiono certe
righe determinate, queste righe sono caratteristiche del metallo contenuto nella
fiamma”.
4;9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

E l'anno successivo Charles Wheatstone (1802-1875), sperimentando sullo spettro


dell'arco elettrico, credeva di poter concludere che le righe dipendessero soltanto dalla
natura degli elettrodi, ma non dal gas in cui scocca la scintilla. Il fisico svedese Anders
Jones Angstrom (1814-1874) dimostrò che, con un abbassamento di pressione del gas, si
può eliminare l'influenza degli elettrodi e ottenere soltanto lo spettro del gas illuminato.
Il fortunato incontro tra Heinrich Geissler (I8I4-I879), un operaio costruttore
d'apparecchi di fisica, e Julius Plucker (I801-I868), fisico e matematico tedesco, portò
alla costruzione quasi contemporanea (1855) dei tubi di Geissler e dei tubi di Plucker,
particolarmente adatti allo studio degli spettri dei gas.
Alcuni anni prima William Allen Miller (18I7-1870), continuando alcuni
esperimenti iniziati da Herschel, studiava lo spettro solare dopo aver fatto passare i
raggi del Sole attraverso vapori diversi (di iodio, di bromo ecc.) e osservava nello
spettro righe oscure, onde nel 1845 egli concluse che le righe osservate erano
d'assorbimento ed erano presentate soltanto dai vapori colorati e non dagli incolori;
conclusione contraddetta da Pierre Janssen (1824-1907), astronomo francese, che trovò
righe d'assorbimento anche col vapor d'acqua. Seguì una lunga discussione
sull'interpretazione di queste righe e fu alla fine riconosciuto che si trattava proprio di
righe d'assorbimento.

Una prima relazione tra spettri di assorbimento e spettri di emissione fu posta in


evidenza nel 1849 da Foucault il quale osservava nello spettro di un arco elettrico tra
elettrodi di carbone numerosissime righe chiare, tra le quali particolarmente brillante
era la riga D del sodio. Ma facendo attraversare l'arco da un intenso fascio di luce solare
e osservandone lo spettro, la riga D diventava oscura: egli concluse che l'arco che emette
la riga D, la assorbe quando la radiazione arriva da altra sorgente. Ma i veri fondatori
dell'analisi spettrale furono i tedeschi Gustav Kirchhoff (1824-1887) e Robert Bunsen
(1811-1899). Ai lavori sperimentali eseguiti dai due scienziati dal 1859 al 1862 rese
preziosi servizi un modesto dispositivo, il becco di Bunsen, che forniva una fiamma di
alta temperatura e non luminosa che consentiva di portare allo stato di vapore sostanze
chimiche, ottenendone lo spettro non mescolato con righe proprie della fiamma, che in
molte occasioni avevano tratto in errore gli sperimentatori precedenti. Nel 1859
Kirchhoff e Bunsen pubblicarono la loro prima memoria sperimentale e l'anno
successivo Kirchhoff trasse la conclusione, confortata anche da considerazioni
termodinamiche, che ogni gas assorbe esattamente le stesse radiazioni che è capace di
emettere. È il principio oggi detto d'inversione dello spettro o principio di Kirchhoff,
che verrà usato per studiare il problema d'irraggiamento del corpo nero. I due scienziati
ritennero inoltre sufficientemente accertato, dai propri e dagli altrui esperimenti, che
ogni riga brillante degli spettri d'emissione fosse caratteristica dell'elemento che l'ha
emessa. Armati di questi due principi, iniziarono l'analisi spettrale terrestre, che li
condusse nel 1861 alla scoperta del rubidio e del cesio, due metalli da loro così
denominati per le linee rispettivamente rosse e azzurre che ne avevano consentita la
scoperta. Negli anni successivi altri scienziati scoprivano il tallio, l'indio, l'elio, e così
via.
L'applicazione dell'analisi spettrale alla luce proveniente dai corpi celesti fu fatta
da Kirchhoff e la sua interpretazione delle righe di Fraunhofer, rimaste sino allora un
mistero, come righe di assorbimento dell'atmosfera solare segna una data memorabile
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4;:!

nella storia della fisica e l'atto di nascita dell'astrofisica. Confrontando le righe di


assorbimento dello spettro che proviene da un astro con le righe brillanti degli elementi
noti sulla Terra, si possono dedurre gli elementi presenti nell'atmosfera dell'astro. Da
questo confronto già Kirchhoff poteva affermare che nell'atmosfera solare esistono il
sodio, il ferro, il magnesio, il rame, lo zinco, il boro, il nichelio. La conclusione
generalissima a cui hanno condotto le innumerevoli indagini successive è che gli
elementi esistenti sulla Terra sono diffusi dappertutto: insomma, l'universo è costruito
in tutte le sue parti con lo stesso materiale.

Dopo un lungo lavoro Angstrom pubblicava nel 1868 un lavoro, rimasto per
molti anni un libro di consultazione degli spettroscopisti, nel quale erano riferite le
misure di lunghezza d'onda di quasi duecento righe dello spettro solare. L'aiuto portato
agli studi dall'opera spettroscopica di Angstrom fu talmente grande che nel 1905 il suo
nome fu adottato, per convenzione internazionale, per designare l'unità di lunghezza
più diffusa in spettroscopia: 1 angstrom=10-10 m.

8.7 La termologia e la termometria

Gli studi sperimentali del XVIII secolo sulle dilatazioni termiche avevano
prodotto una confusione d'idee, che si protrarrà fin quasi alla metà dei XIX secolo. Si
diceva, per esempio, che il mercurio si dilata uniformemente, ma senza aggiungere
rispetto a quale campione o a quale scala termometrica se ne riferiva la dilatazione.
Bisogna, però, aggiungere che, se non si cavillava troppo, in pratica le cose andavano
abbastanza bene, perché i termometri del tempo davano indicazioni sufficientemente
confrontabili, tanto che Fourier, per esempio, definisce: “La temperatura di un corpo, le
cui parti sono egualmente riscaldate, e che conserva ii suo calore, è quella indicata dal
termometro”. Comunque, il problema di una scala termometrica indipendente dalla
sostanza impiegata nel termometro sarà risolto soltanto nel 1848, da Thomson (Lord
Kelvin), attraverso il secondo principio della termodinamica.
Pierre-Louis Dulong (1785-1838) e Alexis-Thérès Petit (1791-1820), notarono che
in ogni termometro a mercurio si osserva la dilatazione apparente del liquido, sicché se
solido e liquido non obbediscono alla stessa legge di dilatazione, le dilatazioni date dal
termometro non possono assumersi come proporzionali alle dilatazioni assolute del
mercurio: occorre, dunque, conoscere la dilatazione assoluta del mercurio. L'ingegnoso
metodo adoperato era quello di misurare due temperature e due altezze. Le
temperature erano misurate con un termometro ad aria e con un termometro a mercurio
e le due altezze con uno strumento apposito, detto più tardi catetometro, e divenuto un
prezioso strumento per determinare il dislivello tra due punti anche non posti sulla
stessa verticale.
La conoscenza della dilatazione assoluta del mercurio consentì a Dulong e Petit
lo studio sperimentale della dilatazione termica degli altri liquidi e dei solidi. Il risultato
generale fu che la dilatazione del mercurio varia con la temperatura da 1/1550 per °C
tra 0 °C e 100 °C a 1/5300 tra 0 °C a 300 °C e che varia pure la dilatazione degli altri
solidi cimentati (vetro, ferro, rame, platino). Altre ricerche sperimentali fatte nella stessa
scia aperta da Dulong e Petit dimostrarono che lo stesso andamento ha la dilatazione
dei liquidi. Ma tanto nei solidi che nei liquidi si riscontrano forti anomalie in prossimità
4=<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

dei cambiamenti di stato. Da ciò la necessità di definire per ogni solido o liquido un
coefficiente di dilatazione termica teoricamente per ogni temperatura e praticamente
per intervalli ristretti di temperatura. Ne segue la necessità, indicata nel 1826 da
Friedrich W. Bessel (1784-1846), della correzione di temperatura nella determinazione
dei pesi specifici e la necessità di una tavola di correzione per le letture barometriche.
Già l'Accademia del Cimento aveva riconosciuto che l'acqua ha un massimo di
densità e aveva condotto Andrè De Luc (1727-1817) a sistematiche esperienze
sull'irregolarità di dilatazione dell'acqua. De Luc trovò che l'acqua raggiunge il suo
massimo di densità a 41 °F (5 °C). Gli esperimenti furono continuati per tutto il secolo
XIX e nel 1868 Francesco Rossetti (1833-1881) poneva il massimo di densità tra 4,04 e
4,07 °C, mentre nel 1892 Carl Scheel (1866-1936) lo poneva a 3,960 °C. La temperatura di
4 °C a cui tutti i testi di fisica fanno corrispondere il massimo di densità dell'acqua è un
valore arrotondato.

Gli studi di Amontons sulla dilatazione termica dell'aria furono continuati da


molti altri fisici nel corso del XVIII secolo, ma le conclusioni erano di uno scoraggiante
disaccordo: alcuni ritenevano la dilatazione uniforme, altri variabile. Il coefficiente di
dilatazione trovato da Volta, pari a 1/270 per grado centigrado, e pubblicato in una
memoria, fu poco noto negli ambienti scientifici.
Gay-Lussac (1778-1850) certamente ignorava la memoria di Volta quando nel
1802, in una memoria rimasta classica, riprese lo studio della dilatazione termica dei
gas, nella cui introduzione storica si apprende che quindici anni prima aveva condotto
studi sperimentali sullo stesso argomento, senza mai pubblicare nulla, Jacques-
Alexandre Charles (1746-1823), che aveva scoperto che l'ossigeno, l’azoto, l’idrogeno,
l'anidride carbonica e l'aria si dilatano egualmente tra 0 °C e 100 °C. Gay-Lussac estese e
completò il lavoro di Charles, giungendo a dimostrare che tutti i gas hanno eguale
dilatazione totale tra 0 °C e 100 °C e, supponendola per tutti uniforme, calcolava il
coefficiente per tutti i gas. Più tardi Gay-Lussac si accorse che l'uniformità di dilatazione
da lui ammessa era un'affermazione gratuita, onde si adoperò per dimostrarla in una
successiva serie di esperimenti. Il coefficiente 1/266,66 dato da Gay-Lussac fu
considerato per trentacinque anni uno dei numeri più sicuri della fisica, prima che
avvenisse una nuova determinazione.

Volta si occupò intensamente anche del comportamento dei vapori, senza


tuttavia pubblicare mai una memoria organica. Volta credette di poter riassumere il
comportamento dei vapori in tre leggi: le prime due (se le temperature crescono in
progressione aritmetica, le tensioni del vapore crescono in progressione geometrica; le
tensioni del vapore di tutti i liquidi sono eguali a eguale distanza dalla temperatura di
ebollizione) furono ben presto riconosciute false; la terza dice che la pressione di un
vapore è la stessa sia che esso occupi uno spazio vuoto, sia che occupi uno spazio pieno
d’aria di qualsiasi densità. Volta, inoltre, condivide con lo spagnolo Augustin
Bétancourt (1760-1826) il merito di aver dato un nuovo indirizzo alle ricerche sui
vapori, volte a utilizzarli come potenza motrice. Alla ricordata terza legge di Volta
giunse indipendentemente nel 1802 John Dalton (1766-1844), sotto il cui nome oggi la
legge è conosciuta. Dalton dedusse, con considerazioni già fatte anche da Volta, che non
poteva sostenersi la teoria secondo la quale l’evaporazione è un fenomeno chimico, cioè
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4=;!

una combustione del vapore con l’aria. Nel 1816 Gay-Lussac estese la legge di Dalton
anche alle miscele di vapore.

Il problema di ottenere artificialmente basse temperature cominciò ad avere un


avvio di soluzione con le miscele frigorifere. I primi esperimenti scientifici furono
compiuti da Gian Francesco Cigna (1734-1790) e provò che più l'evaporazione è rapida,
più intenso è il raffreddamento. Antoine Baumé (1728-1804) scoprì che il
raffreddamento è più intenso con l'evaporazione dell'etere solforico che con l'acqua. In
base a queste conoscenze Fernand Carré (1824-1894) pubblicò il suo metodo di
fabbricazione del ghiaccio mediante evaporazione dell'etere, in seguito sostituito con
ammoniaca. Nel 1871 Karl Linde (1842-1934) descrisse la sua macchina per ghiaccio in
cui il raffreddamento è ottenuto mediante espansione di un gas. Nel 1896 egli combinò
la macchina col suo apparecchio a controcorrente, col quale riuscì a ottenere idrogeno
liquido.

Il problema della liquefazione dei gas ha una storia secolare che comincia dalla
seconda metà del XVIII secolo con la liquefazione mediante solo raffreddamento,
dell'ammoniaca, dell'anidride solforosa e del cloro ottenuta nel 1805. Un progresso
decisivo fu compiuto contemporaneamente e indipendentemente da Charles Cagniard
de la Tour (1777-1859) e da Faraday. Il primo riuscì a determinare la temperatura critica
di alcuni liquidi cimentati, ma non riuscì a stabilire la temperatura critica dell'acqua,
anzi non riuscì neppure a evaporare completamente l'acqua. Risultati più concreti
ottennero gli esperimenti di Faraday del 1823. Gli esperimenti di Cagniard de la Tour e
di Faraday fecero capire che si poteva ottenere la liquefazione dei gas sottoponendoli ad
alte pressioni.

Nel 1845 Henri-Victor Regnault (1810-1878) osservava che la compressibilità


dell'anidride carbonica presentava irregolarità alle basse temperature e seguiva la legge
di Boyle verso i 100 °C, onde emise l'ipotesi che per ogni gas esista un campo di
temperature entro il quale essi seguono la legge di Boyle. Regnault rese più precise le
misure di molte grandezze relative a gas e vapori, accumulando dati che per lungo
tempo rimasero senza paragone per precisione. Il suo laboratorio parigino era un
modello per quanto riguardava la tecnica delle misure di precisione della tensione dei
vapori saturi, dei calori specifici, per il controllo dell'equazione di stato nel caso di gas
reali che si allontanano leggermente dal comportamento previsto dalla legge di Boyle e
così via. Regnault stesso divenne la massima autorità nel campo e il suo materiale
sperimentale servì egregiamente per la verifica delle teorie del calore, la termodinamica
e la meccanica statistica. Inoltre il gusto scientifico e lo stile sperimentale di Regnault si
propagarono, ad opera dei molti visitatori e allievi del suo laboratorio, e influenzarono
la formazione di una intera generazione di fisici in tutta l'Europa.
Nel 1860 l'idea di Regnault fu ripresa e modificata da Dimitrij Mendeleev (1834-
1907), secondo il quale per tutti i fluidi deve esistere una temperatura assoluta di
ebollizione sopra la quale essi esistono gassosi sotto qualunque pressione. Lo studio
della questione fu ripreso nel 1863 in forma nuova da Thomas Andrews (1813-1885).
Egli introduceva anidride carbonica in un tubo capillare e la chiudeva con una colonna
di mercurio. Spingendo mediante una vite il mercurio si sottoponeva l'anidride
carbonica alla pressione voluta, mentre si variava gradatamente la temperatura.
Ottenuta, mediante sola pressione, la parziale liquefazione del gas, e poi via via
4==! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

riscaldando, Andrews osservava gli stessi fenomeni che trent'anni prima aveva studiato
Cagniard de la Tour. Quando la temperatura dell'anidride carbonica raggiungeva i
30,92 °C scompariva la superficie di separazione tra liquido e gas, e con qualsiasi
pressione non si riotteneva più la liquefazione dell'anidride carbonica. In un'importante
memoria del 1869 Andrews proponeva di chiamare punto critico dell'anidride
carbonica la temperatura di 30,92 °C; con la stessa tecnica egli determinò i punti critici
per l'acido cloridrico, per l'ammoniaca, per l'etere solforico, per l'ossido nitroso. Propose
anche di riservare il vocabolo vapore agli aeriformi a temperatura inferiore alla
temperatura critica e il vocabolo gas agli aeriformi a temperatura superiore: così era
posta una fondamentale distinzione per la ricerca fisica.
Una conferma a queste vedute di Andrews vennero da esperimenti in cui i gas
permanenti erano stati sottoposti a una pressione di 3000 atmosfere senza ottenerne la
liquefazione. Questi risultati avvalorarono l'ipotesi avanzata da Andrews secondo la
quale i gas permanenti sono aeriformi a temperature critiche più basse delle
temperature allora raggiunte: la loro liquefazione si sarebbe quindi potuta ottenere
mediante un preventivo forte raffreddamento seguito eventualmente da compressione.
L'ipotesi fu brillantemente confermata nel 1877 da Luigi Cailletet (1832-1913) e Raoul
Pictet (1846-1929), che, lavorando indipendentemente, liquefecero l'ossigeno,
l'idrogeno, l'azoto, l'aria, mediante un forte raffreddamento preventivo. Altri fisici
continuarono i lavori di Cailletet e Pictet, ma soltanto la macchina di Linde, più sopra
ricordata, rese pratico il procedimento, consentendo la produzione di grandi quantità di
gas liquidi e il loro impiego, divenuto oggi divenuto comune, nella ricerca scientifica e
nell'industria.

I metodi per la determinazione dei calori specifici (metodo delle mescolanze)


presentavano difficoltà nella loro applicazione agli aeriformi a causa del piccolo peso
specifico di gas e vapori. Perciò nel 1813 Francois Delaroche (?-1813?) e Jacques Bérard
(1789-1869) proposero d'introdurre nel calorimetro un serpentino nel quale si facesse
passare, a temperatura nota, il gas a pressione costante. Il merito di Delaroche e Berard
è soprattutto nell'aver attirato l'attenzione sulla necessità di distinguere il calore
specifico di un gas a pressione costante da quello a volume costante. Ma qualche anno
prima dei lavori di Delaroche e Bérard si era cominciato a studiare sistematicamente un
curioso fenomeno segnalato da Erasmus Darwin (1731-1802), nonno del più celebre
Charles, e da Dalton: la compressione dell'aria produce riscaldamento e la sua
espansione raffreddamento. Questo comportamento termico dell'aria faceva capire che
il calore specifico a pressione costante doveva essere maggiore del calore specifico a
volume costante, indipendentemente da qualunque teoria sulla natura del calore: infatti
è chiaro che se un gas espandendosi si raffredda, quando lo si riscalda consentendogli
di dilatarsi bisogna fornirgli tanto calore da compensare il concomitante
raffreddamento d'espansione, e da riscaldarlo ulteriormente. Dalla conoscenza di questi
fatti sperimentali, nel 1816 Laplace ebbe la felice idea di attribuire la discordanza notata
tra la velocità sperimentale di propagazione del suono e la velocità teorica calcolata
dalla legge di Newton alle variazioni di temperatura che gli strati d'aria subiscono per
effetto delle alternative compressioni e rarefazioni. Partendo da queste considerazioni
teoriche Laplace corresse la formula di Newton, introducendovi un termine che è il
rapporto per l'aria dei calori specifici a pressione e a volume costanti: dai dati forniti da
Delaroche e Bérard, Laplace deduceva in 1,5 il valore del rapporto.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4=4!

Nonostante tutti i precedenti lavori e altri che li seguirono, le conoscenze sui


calori specifici dei gas a volume costante erano poche e talvolta inattendibili. Un esame
critico delle diverse vie seguite convinse Dulong che il metodo indiretto, suggerito da
Laplace, fosse il migliore, purché le velocità del suono nei gas fossero determinate con
l'accuratezza che era mancata da quando Ernst Chladni (1756-1827), considerato il
padre dell’acustica sperimentale, aveva iniziato questo genere di misure. Con sagacia e
molta pazienza Dulong misurò la velocità del suono in vari gas (aria, ossigeno,
idrogeno, anidride carbonica, ossido di carbonio, ossido d’azoto, etilene) e dal fatto che
questi rapporti (e specialmente quelli relativi all'aria, all'ossigeno, all'idrogeno,
all'ossido di carbonio) fossero pressappoco eguali, Dulong concluse che i fluidi elastici
(gas e vapori), in eguali condizioni di volume, pressione e temperatura, sviluppino una
stessa quantità di calore allorché sono compressi o dilatati subitamente della medesima
frazione di volume, e le corrispondenti variazioni di temperatura sono in ragione
inversa dei loro calori specifici a volume costante. Aggiungiamo che il metodo di
Dulong fu migliorato nel 1866 da August Kundt (1839-1894) con l'introduzione del tubo
che porta il suo nome e che costituisce tuttora uno dei migliori metodi per la
determinazione del rapporto tra il calore specifico a pressione costante e quello a
volume costante.

La conducibilità calorifica, come fatto empirico, era conosciuta fin dalla più
remota antichità. Ma i primi studi sperimentali si possono far risalire a Richmann, che
impiegò un dispositivo sperimentale, ripreso poi da molti altri fisici, costituito da una
sbarra di ferro con piccoli fori pieni di mercurio in ciascuno dei quali è immerso un
termometro. Scaldando un'estremità della sbarra, si trova che le temperature lungo
l'asta decrescono non linearmente. Nel 1789 impiegando questo dispositivo, Jan
Ingenhousz (1730-1799) aveva dato la seguente scala di conducibilità: oro, rame, stagno,
platino, ferro, piombo. Il dispositivo precedente ed altri del genere trascuravano fattori
importanti, come la capacità termica e la conduzione esterna, e la critica a tali
procedimenti sperimentali cominciò con Jean-Baptiste-Joseph Fourier (1768-1830), che
intraprese lo studio teorico della propagazione del calore, introducendo nella
trattazione concetti che orientavano per vie nuove anche la ricerca sperimentale.
L'equazione fondamentale trovata da Fourier che regola la conduzione termica è
l'equazione differenziale alle derivate parziali, detta anche equazione del calore o di
Fourier:

∂2 T 1 ∂T
=
∂x2 C ∂t

Nell’opera di Fourier, così come in quella di Hamilton, si rileva una esigenza di


rigore che si esprime essenzialmente mediante un poderoso sforzo di matematizzazione
delle teorie prese in esame. Il fatto può apparire del tutto naturale se pensiamo alla
funzione che ha sempre avuto l’applicazione della matematica alle altre scienze e se
teniamo presente l’alto livello di rigore raggiunto dalla matematica ottocentesca. Qui vi
è però qualcosa di nuovo: la matematizzazione viene usata non solo per rendere esatto
il linguaggio della fisica, ma anche per liberarla dal ricorso a modelli di valore incerto e
contestabile; per stabilire, cioè, un nesso immediato fra le teorie e i fenomeni, senza
dover far appello a ipotesi inverificabili circa la realtà sottostante ai fenomeni stessi (per
esempio la trattazione del calore non condizionata da questa o quella ipotesi sulla
4=5! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

natura del fenomeno esaminato; oppure tra la scelta del modello corpuscolare o
ondulatorio della luce). Si tratta, in ultima analisi, di un primo e significativo passo
verso quella formalizzazione e assiomatizzazione delle teorie, in cui gli epistemologi
moderni vedono la condizione indispensabile per uno studio veramente critico del
significato e del valore conoscitivo di una qualsiasi scienza.
Grandi difficoltà presentava il problema della conducibilità dei liquidi e dei gas,
tanto che al principio del secolo liquidi e gas si considerarono da molti fisici
assolutamente non conduttori. Ma César Despretz (1789-1863) nel 1839 e Angstrom nel
1864 dimostrarono senza possibilità di dubbio la piccola conducibilità dei liquidi. Per i
gas dette prove certe di conducibilità Heinrich G. Magnus (1802-1870) nel 1861 e
Clausius l'anno successivo, mentre Boltzmann nel 1875 dimostrò la proprietà
teoricamente.

8.8 La termodinamica

La teoria fluidistica, dopo aver coesistito pacificamente per secoli con la teoria
meccanica del calore, prende il sopravvento nella seconda metà del XVIII secolo e alla
fine dello stesso secolo la lotta si acuisce ed entra nella sua fase decisiva.
I più importanti studi sul calore nella prima meta del XIX secolo avevano lo
scopo pratico di migliorare il funzionamento delle macchine a vapore e Dalton
lamentava questo indirizzo delle indagini scientifiche, che a lui sembrava troppo
tecnico. Era stato Watt a porre il problema in termini di cruda praticità: quanto carbone
occorre per produrre un certo lavoro e con quali mezzi, a parità di lavoro, è possibile
ridurne al minimo il consumo.
Allo studio di questo problema pratico si accinse Sadi-Nicolas Carnot (1796-
1832), che riassunse i risultati dei suoi studi sulla macchina a vapore in un opuscolo
apparso nel1824 col titolo Reflexions sur la puissance motrice du feu et sur les machies
propres a developper cette puissace. La comparsa delle Reflexions segna una data
memorabile nella storia della fisica; non soltanto per il risultato raggiunto, ma anche per
il metodo imitato poi innumerevoli volte. Carnot pone a base del suo ragionamento
l'impossibilità del moto perpetuo che non era ancora assurto a principio scientifico.
Carnot avvia il suo studio specifico con un elogio della macchina a vapore; constata che
la relativa teoria è molto arretrata; osserva che, per farla progredire, è necessario
prescindere un po' dalla sua empiricità e considerare in astratto la potenza motrice del
fuoco, “indipendentemente da ogni meccanismo e da ogni agente speciale”. A tal fine
cominciò a schematizzare la macchina a vapore nel modo piu astratto, facendosi
guidare dall'analogia con una turbina ad acqua, e cioè da un caso in cui l'acqua scende
da un livello superiore a uno inferiore e la sua energia potenziale si trasforma in
potenza motrice. Nel caso della macchina a vapore, egli pensava, il calore cade da una
temperatura alta a una più bassa e, nel far questo, fornisce potenza motrice: "la
produzione di calore non basta a creare energia propellente, in quanto è necessario che
ci sia del freddo; senza di esso il calore sarebbe inutile".
A quell'epoca Carnot seguiva la teoria del calorico, e per questa ragione gli sfuggì
la differenza fondamentale tra l'acqua e il calore: mentre la quantità d'acqua è costante,
la quantità di calore ceduta alla temperatura più bassa diminuisce per un ammontare
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4=6!

proporzionale al lavoro ottenuto. Carnot non era a conoscenza di questo fatto e credeva
che il calore (il calorico) si conservasse.
Carnot pose la domanda fondamentale: qual è il massimo lavoro ottenibile
quando il calore cade da una temperatura a un'altra, e da quali fattori dipende?
Nell'esempio della macchina a vapore il calore è ceduto a un cilindro chiuso da un
pistone. È ragionevole pensare che il calore debba essere ceduto con il minor salto
possibile di temperatura, perché quando il calore passa a una temperatura più bassa per
conduzione, non si ottiene lavoro. Sviluppando questo concetto Carnot si accorse che
tutte le trasformazioni eseguite dalla macchina dovevano costituire una successione di
stati di equilibrio. Di conseguenza, la macchina doveva poter funzionare in una data
direzione, oppure, rovesciando tutte le operazioni, nella direzione opposta: la macchina,
insomma, doveva essere reversibile. In una macchina dobbiamo avere una sorgente di
calore ad alta temperatura, un refrigerante a temperatura inferiore e un sistema capace
di trasferire il calore dall'una all'altro: per esempio, un cilindro con un pistone. È molto
importante, per poter ragionare chiaramente, che la trasformazione durante la quale il
calore passa dalla sorgente ad alta temperatura al refrigerante a temperatura più bassa
lasci completamente inalterato il sistema che trasferisce il calore stesso.

Un'operazione così
fatta fu descritta da Carnot ed
è nota con il nome di ciclo,
formato da due isoterme e
due adiabatiche, perché essa è
tale che, dopo un certo
numero di passi parziali,
l'apparecchio che trasferisce il
calore ritorna nel suo stato
originale. La macchina è
evidentemente reversibile.
Carnot giunge così al teorema
che porta il suo nome: “La
potenza motrice del calore è indipendente dagli agenti messi in opera per ottenerla; la
sua quantità è fissata unicamente dalle temperature dei corpi tra i quali avviene in
ultima analisi il trasporto del calorico”.
Insomma, il rendimento di una macchina termica è determinato dalle
temperature della sorgente e dal refrigerante, elemento quest'ultimo, affermò
esplicitamente Carnot, essenziale come la caldaia, sostituito dall’ambiente quando nella
macchina manchi come elemento costruttivo, e non dipende dalla sostanza usata nel
ciclo. Tutto questo costituisce l'essenza del principio di Carnot o secondo principio della
termodinamica:

TEOREMA DI CARNOT
Tutte le macchine reversibili che lavorano fra due temperature fissate hanno lo stesso
rendimento e nessuna macchina reale (irreversibile) che scambi calore con due sorgenti a
quelle temperature può avere un rendimento maggiore:
T2 − T1
η rev ≥ η dove ηrev =
T2
4=7! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Possiamo ora accoppiare due macchine reversibili, l'una che lavora in un senso e
l'altra nel senso opposto. Se una di esse avesse un'efficienza superiore a quella dell'altra,
potremmo realizzare un moto perpetuo, il che, secondo il teorema di Carnot, è una
assurdità. Osserviamo che il principio di Carnot, come il principio sul moto perpetuo, è
un principio d’impossibilità, sul quale la termodinamica si è costituita come scienza
deduttiva, a somiglianza della geometria. Ora, principi d’impossibilità s'incontrano
nell'elettromagnetismo, nella relatività, nella meccanica quantistica, onde è possibile
pensare che capitoli della fisica abbastanza sviluppati attraverso la ricerca sperimentale,
possano essere organizzati in forma deduttiva a partire da postulati d'impossibilità,
come è avvenuto per la termodinamica.
Un'altra osservazione: Carnot non si occupa esplicitamente della natura del
calore. Dice che adopererà indifferentemente i termini “calore” e “calorico”, il che fa
supporre, come abbiamo già detto, che egli credesse alla sostanzialità del calore, per il
quale accetta il principio di conservazione già enunciato da Black. Stabilito il teorema
fondamentale, Carnot lo applica alla soluzione di altri problemi; per esempio, al lavoro
di espansione isotermica, giungendo alla conclusione che il rapporto Q/T tra calore e
temperatura corrispondente dava un valore costante per un dato processo isotermico.
Carnot calcola il lavoro prodotto per percorrere un ciclo infinitesimale da un grammo di
aria, di vapore, di alcool, ottenendo una conferma all'indipendenza del lavoro prodotto
dalla sostanza che percorre il ciclo.
Dopo la pubblicazione del trattato, Carnot si convinse pienamente della teoria
meccanica del calore, come risulta dal seguente brano, trovato nei suoi manoscritti e
pubblicato nel 1878 in appendice alla ristampa delle sue Reflexions: “Il calore non è altra
cosa che la potenza motrice, o piuttosto che il movimento che ha cambiato di forma. È
un movimento nelle particelle dei corpi. Dovunque c'è distruzione di potenza motrice
vi è, nel medesimo tempo, produzione di calore in quantità precisamente proporzionale
alla quantità di potenza motrice distrutta. Reciprocamente, dovunque c'è distruzione
di calore, vi è produzione di potenza motrice. Si può dunque porre in tesi generale che
la potenza motrice è una quantità invariabile nella natura, che essa non è mai,
propriamente parlando, né prodotta, né distrutta. In verità essa cambia di forma, vale
a dire che essa produce ora un genere di movimento, ora un altro, ma non è mai
annientata”.

L'opuscolo di Carnot passò quasi inosservato; il disinteresse si può spiegare con


le poche aderenze accademiche del giovane e soprattutto con la novità dei concetti
espressi, pur essendo la redazione molto chiara ed elegante. Solo dieci anni dopo, nel
1834, richiamò l'attenzione sull'opera Benoit Clapeyron (1799-1864), il quale in questa
occasione enuncia l'equazione di stato o caratteristica dei gas perfetti, che pone una
semplice relazione tra pressione volume e temperatura di una determinata massa
gassosa, sintetizzando le leggi di Boyle e di Volta e Gay-Lussac:

EQUAZIONE DI STATO DEI GAS PERFETTI


Il prodotto fra la pressione p di un gas perfetto e il volume V da esso occupato è
direttamente proporzionale alla temperatura assoluta T e al numero n di moli del gas:
!" ! !"#

/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4=8!

Dall'epoca di Rumford sino al 1840 circa non si registra alcun lavoro importante
per la termodinamica, ad eccezione dei già ricordati lavori di Carnot e di Clapeyron. Il
capovolgimento di mentalità si operò, soprattutto tra i giovani fuori degli ambienti
accademici, dove il peso della tradizione e l'autorità dei maestri talvolta impacciano il
rinnovamento delle idee. Si spiega così come quasi contemporaneamente e
indipendentemente fosse avanzato da diversi giovani, non legati alla scienza ufficiale,
come Carnot, Mayer, Joule, per citare i più famosi, il concetto di equivalenza tra calore e
lavoro.
Il principio di conservazione dell’energia si sviluppò in un lungo periodo di
tempo segnato da osservazioni e da generalizzazioni sempre crescenti, finché raggiunse,
attorno alla metà del XIX secolo, una posizione centrale non solo per la fisica ma per
ogni scienza, anche per le sue implicazioni filosofiche. Fu come se una nuova "scienza
dell'energia" riprendesse le differenti teorie fisiche e le inglobasse come altrettanti casi
particolari nel quadro di una concezione che si proponeva in qualità di verità finale
della fisica. In questa prospettiva, la scienza dell'energia diventava e dissimulava al
tempo stesso la potenza della natura. Sin dai primi anni del XIX secolo si sapeva, in
meccanica, che, per punti materiali interagenti secondo forze derivabili da un
potenziale, la somma dell'energia potenziale e dell'energia cinetica era costante. Questo
teorema poteva suggerire una forma generalizzata della conservazione che
comprendeva anche il calore, purché il calore stesso fosse identificabile con il moto, ed è
probabile che parecchi scienziati e pensatori siano stati influenzati da considerazioni del
genere. Le scoperte nel campo dei fenomeni elettrici, d'altra parte, ponevano nuovi
problemi su come inserirle nello schema della conservazione dell'energia. Il termine
energia era vecchio di secoli quando nel 1807 Young lo introdusse nella scienza per
indicare il prodotto mv2, ma il suo uso era tutt'altro che preciso. Pensatori chiari come
Carnot ed Helmholtz usarono parole come puissance motrice (il cui significato letterale è
potenza motrice) e Erhaltung der Kraft (che alla lettera significa conservazione della
forza) per parlare del lavoro o dell'energia.
Le carenze nella formulazione e le incertezze nella nomenclatura fanno sì che sia
impossibile attribuire a una singola persona la scoperta della conservazione
dell'energia, ma gli scienziati che contribuirono maggiormente alla scoperta furono
Mayer, Joule e Helmholtz. Non citiamo Carnot perché, anche se fu indubbiamente uno
dei primi ad avere idee chiare sull'argomento, il suo lavoro fu pubblicato soltanto nel
1878, quando la termodinamica era ormai una scienza stabilita, per cui i suoi pensieri
sulla conservazione dell'energia non poterono esercitare alcuna influenza sull'opera dei
suoi successori.

Robert Mayer (1814-1878) ebbe una subitanea intuizione della legge nel luglio
1840 e in una sua memoria pubblicata si chiede che cosa noi intendiamo per “forza” e
quali siano le differenti forze in relazione tra di loro (per capire la memoria di Mayer il
lettore moderno sostituisca la parola “forza” con la parola “energia”). Per lo studio della
natura è necessario che si abbia un concetto di forza altrettanto chiaro come quello di
materia. Mayer continua: “Le forze sono cause; in conseguenza noi possiamo nei loro
confronti fare una completa applicazione del principio causa aequat effectum”. Mayer
prosegue in questa impostazione di sapore metafisico e giunge alla conclusione che: “Le
forze (probabilmente la “forza viva” come veniva chiamata allora l’energia cinetica)
sono oggetti indistruttibili, convertibili e imponderabili”; e che se la “causa è materia,
l'effetto è materia; se la causa è una forza, l’effetto è una forza”. Ne segue: “se, per
4=9! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

esempio, strofiniamo fra loro due lastre di metallo, vediamo il moto scomparire e
d’altro canto fa la sua comparsa il calore”. Seppure genericamente, in queste parole è
espresso il principio di conservazione dell’energia.
Con poche considerazioni Mayer mostra che sarebbe irragionevole negare una
connessione causale tra il moto (ossia, secondo la nostra terminologia, il lavoro) e il
calore; come irragionevole sarebbe supporre una causa, il moto, senza effetto, o un
effetto, il calore, senza causa. Mayer chiude la disquisizione con una deduzione pratica:
“Qual è la quantità di calore che corrisponde a una data quantità di moto o forza di
caduta?” Con un'intuizione veramente geniale egli dedusse questo equivalente dalla
conoscenza dei calori specifici dei gas a pressione e a volume costante. Questo metodo
di Mayer consiste nel dire che la differenza tra i due calori specifici equivale al lavoro
fatto per vincere, nell'espansione del gas, la pressione esterna. Utilizzando i valori dei
calori specifici dati da Dulong, Mayer, con un calcolo appena accennato nella memoria,
trova che una grande caloria equivale a 365 chilogrammetri, e subito commenta: “Se noi
compariamo con questo risultato il lavoro delle nostre migliori macchine a vapore, noi
vediamo che una piccola parte solamente del calore applicato sotto la caldaia è
realmente trasformata in moto, ossia nel sollevamento di pesi”. Data la insufficiente
cultura matematica, Mayer non riuscì ad esprimere il principio di equivalenza in
un’equazione compiuta.
Mayer deve essere considerato anche come il primo ad aver compreso l’unità di
tutte le manifestazioni energetiche della natura. Con intuizione metafisica dice:
“Affermo quanto segue: la forza di caduta, il movimento, il calore, la luce, l’elettricità e
la differenza chimica tra corpi ponderali costituiscono un solo oggetto sotto apparenze
diverse”. E ancora: “Il movimento si trasforma in calore. In queste cinque parole è
implicita tutta la mia teoria”. Il principio della conservazione dell'energia offre a
Mayer spunti per il suo materialismo filosofico, col quale nega l'esistenza di qualsiasi
principio spirituale che possa essere ipotizzato come causa sia della vita e sia del
pensiero, considerandoli meri esiti di un processo di trasformazione della materia, che
si evolve dallo strutturalmente semplice al sempre più complesso.

James Joule (1818-1889) nel 1843, ancora ignorando il


lavoro di Mayer, determinò sperimentalmente l'equivalente
meccanico della caloria, ossia stabilì l’esistenza di una
proporzionalità diretta tra la quantità di calore prodotto ed il
lavoro eseguito. Il dispositivo di Joule consiste nel riscaldare
l'acqua di un calorimetro agitandola con un frullino e fare quindi
il rapporto tra il lavoro occorso per il riscaldamento e il calore
prodotto. Annunciando i risultati delle sue ricerche, Joule scrisse:
“Il lavoro eseguito dal peso di una libbra lasciato cadere da
un’altezza di 722 piedi a Manchester, se viene utilizzato per
produrre calore per attrito di acqua, fa aumentare di 1 °F la
temperatura di una libbra d’acqua”. Con questo esperimento e queste parole, Joule è
uno dei primi scienziati a formulare con chiarezza il principio di conservazione
dell’energia, che usando un linguaggio moderno, può essere così espresso:
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 4=:!

PRINCIPIO DI EQUIVALENZA
Il lavoro L (espresso in joule) necessario per ottenere un dato incremento di temperatura è
direttamente proporzionale alla quantità di calore Q (espressa in calorie) che bisogna
fornire per ottenere lo stesso incremento:

L = JQ
dove J=4,186 J/cal è noto come equivalente meccanico del calore.

Joule interpreta così come una conversione, un mutamento quindi, gli effetti
dell'azione del calore in un sistema meccanico, e getta le basi per l'interpretazione di
questi effetti in chiave di scambio, trasformazione d'energia. Nell'ottica di Joule,
l'energia non si dissipa, ma si conserva pur trasformandosi. Con Mayer e Joule l'antico
"calorico" fu definitivamente abbandonato e il calore e lavoro diventano due aspetti
diversi dell’energia che è possibile trasformare l’uno nell’altro e viceversa.

Però, dalle pubblicazioni di Mayer e Joule passarono alcuni anni prima che i fisici
si accorgessero del principio di equivalenza. Nel 1847 Hermann von Helmholtz (1821-
1894) pubblicava la sua celebre memoria Uber die Erhaltung der Kraft (Sulla
conservazione dell’energia) senza conoscere ancora l'opera di Mayer (ma conosceva
quella di Joule). Il lavoro di Helmholtz, anche se presenta alcune analogie con le
precedenti pubblicazioni di Mayer, è assai più solidamente strutturato, contiene meno
considerazioni filosofiche e fornisce innumerevoli esempi tratti dalla meccanica, dalla
termologia, dall’elettricità e dalla chimica e utilizza valori numerici presi dalle solide
misure di Joule. Pertanto, Helmhotz, non si limita a prendere in esame la forza (ossia
l'energia) meccanica e calorifica, ma anche le altre forme di energia. Sostanzialmente
Helmholtz, riprendendo il concetto di Mayer, chiama energia qualunque ente che possa
convertirsi da una forma in un'altra e, come Mayer, le attribuisce il carattere
d'indistruttibilità onde essa si comporta come qualunque sostanza: non può essere nè
creata, nè distrutta. Tra materia ed energia c'è un'intima relazione: “La materia e la
forza sono astratte dalla realtà, e formate in modo del tutto eguale; e noi possiamo
percepire la materia proprio soltanto attraverso le forze, insite in essa, ma non mai in
sé e per sé”.
Helmholtz, come già Carnot a cui si richiama, pone a fondamento della propria
trattazione l'impossibilita “di produrre continuamente forza motrice dal nulla”. Per
applicare il principio ai fenomeni meccanici, egli imita l'esperimento mentale e il
ragionamento di Carnot: se un sistema di corpi passa da uno stato a un altro consuma
una certa quantità di lavoro, che dev'essere eguale a quello che si deve fornire al sistema
per farlo ritornare dal secondo stato al primo, a prescindere dal modo, dalla traiettoria e
dalla velocità del ritorno; infatti, se i due lavori fossero diversi, si produrrebbe (o si
distruggerebbe) a ogni ciclo una forza motrice dal nulla. Ciò che si conserva nei processi
meccanici è la somma della forza di tensione (energia potenziale, secondo la nostra
terminologia) e della forza viva. È questo il principio di conservazione della forza.
Helmholtz passa poi a dimostrare che il principio si applica ai fenomeni meccanici (urto
dei corpi, attrito, compressione o espansione dei gas) da produzione di calore, ai
fenomeni elettrostatici o elettrodinamici, magnetici o elettromagnetici, e infine ai
fenomeni del mondo organico. Quest’ultima estensione ci sembra di particolare
importanza dal punto di vista storico. L'impossibilità del moto perpetuo era, come
44<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

abbiamo accennato, uno stato d'animo dei fisici, che stentava ad assurgere a principio
scientifico generale, perché sembrava contraddetto dall’esperienza più comune: il
lavoro degli animali. Sino a quando non si mette una relazione tra il lavoro eseguito
dagli animali e i cibi ingeriti la produzione di forza motrice dal nulla pare possibile.
Oggi che siamo familiarizzati col concetto di energia, può sembrare che la
memoria di Helmholtz non aggiungesse nulla a quanto avevano asserito Mayer e Joule.
Ma, per apprezzare la concezione nuova di Helmholtz, basta riflettere che Mayer e Joule
s'erano riferiti a un caso particolare, anche se importantissimo, mentre Helmholtz
introduce una grandezza nuova, prima ignota alla fisica o equivocamente confusa con
la forza, presente in tutti i fenomeni fisici, mutevole nelle forme ma indistruttibile,
imponderabile ma regolatrice delle apparenze della materia. Tutta la fisica della
seconda metà del XIX secolo poggiò su due concetti, materia ed energia, obbedienti
entrambe a leggi di conservazione. Il peculiare carattere distintivo dei due enti era la
ponderabilità della materia e l'imponderabilità dell'energia.
Le vedute di Helmholtz ispirarono la scuola degli energetisti, il cui programma
fu l'abbandono della concezione meccanicistica dell’universo secondo la quale tutti i
fenomeni debbono essere spiegati mediante i concetti di materia e di forza, e al posto di
questa concezione se ne sostituiva un'altra nella quale il gioco delle energie, attuali e
potenziali, esistenti nei corpi, spiega i vari fenomeni. L'energia è per gli energetisti
l’unico ente fisico reale e la materia ne è l'apparente supporto.
Il problema della scala termometrica, che aveva affaticato generazioni di
scienziati per due secoli, ebbe la più razionale soluzione da parte di William Thomson
(poi Lord Kelvin) (1824-1907), il maggior fisico dell’impero britannico, che aveva
conosciuto l'opera di Carnot attraverso l'esposizione analitica di Clapeyron, nella cui
memoria si propone, tra le altre cose, il calcolo del lavoro prodotto da una macchina
perfetta, nella quale una caloria passa tra due corpi la cui differenza di temperatura sia
un grado (centigrado), e calcola che codesto lavoro non è costante, ma va diminuendo
con l'aumentare della temperatura. Il calcolo di Clapeyron fermò l'attenzione di
Thomson, il quale intuì che per questa via sarebbe stato possibile definire una scala
assoluta delle temperature, assoluta nel senso d'indipendente dalla sostanza
termometrica adoperata. Thomson ebbe l’idea di definire la temperatura per mezzo di
una macchina di Carnot, il cui rendimento è indipendente dal fluido. Secondo la nuova
definizione, una certa quantità di calore che cade di un grado nella nuova scala fornisce
una certa quantità di lavoro fissa. Thomson, nel lavoro scritto nel 1848, aderiva, come
Carnot, all’ipotesi della conservazione del calorico, e presuppose, sbagliando, che la
quantità di calore che entrava nella macchina alla sorgente fosse eguale a quella che ne
usciva al refrigerante. Ma il metodo, alcuni anni dopo, potè essere facilmente adattato
alla conservazione dell’energia. Il risultato fu il seguente: sapendo che il rendimento di
una macchina reversibile è funzione delle sole temperature della sorgente e del
refrigerante (η=T2-T1/T2), doveva esistere uno zero assoluto perché il rendimento non
può essere superiore all’unità. La scala assoluta delle temperature, definita in questo
modo, doveva essere confrontata con le scale pratiche, e ciò fu fatto in pochi anni,
dando i risultati sperati, ossia le scale termometriche coincidevano con quella assoluta,
stabilendo ovviamente la grandezza del grado, per esempio fissando che la temperatura
dell’acqua bollente supera di 100 gradi quella del ghiaccio fondente.
Thomson fu uno scienziato molto eclettico, trattò problemi svariatissimi
mostrando di possedere una superba maestria professionale, sia che si trattasse di
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 44;!

elettrostatica, che di correnti transitorie o altro; seppe mettere in luce le analogie tra la
teoria di Fourier sulla conduzione del calore e la teoria del potenziale, discusse alcuni
aspetti delle idee di Faraday sulla propagazione dell'azione elettrica, analizzò i circuiti
oscillanti e le correnti alternate da essi generate, e i suoi scritti influenzarono Maxwell,
che gli chiese consigli e persino il permesso di lavorare sulla sua stessa linea di ricerca.
Thomson applicò la fisica anche in un campo lontano da quelli già ricordati,
speculando sulle possibili origini del calore solare e sulle condizioni di temperatura
della Terra. I suoi metodi erano validi e ingegnosi, ma poiché non conosceva l'origine
nucleare dell'energia del Sole e la radioattività della Terra, non gli era possibile
giungere a risultati corretti. Tentò di spiegare l'origine del calore solare facendo l'ipotesi
o di meteoriti precipitanti sul Sole o di una contrazione gravitazionale: ma l’eta' del
Sole, secondo i calcoli che egli fece attorno al 1854, era inferiore a 5⋅108 anni, valore
troppo piccolo rispetto ai risultati moderni (maggiori di un fattore 10). Inoltre basandosi
sul gradiente della temperatura in zone superficiali della Terra cercò anche di
ricostruire la storia termica della Terra e di assegnare a quest'ultima un'età. Qui pure il
suo calcolo portava a valori troppo piccoli: 4⋅108 anni, mentre i dati odierni danno circa
4,6⋅109 anni. I geologi, che si basavano sui tempi necessari per i fenomeni geologici, non
potevano aderire alle sue stime. Essi non criticavano la matematica di Thomson ma
sostenevano che le sue ipotesi di partenza dovevano essere sbagliate. Anche i biologi
non riuscivano a far rientrare le recenti idee sull'evoluzione nella scala temporale
suggerita da Thomson. La controversia durò per molti anni, e Thomson non prestò mai
troppa attenzione alle giuste obiezioni dei geologi e dei biologi. La scoperta della
radioattività e delle reazioni nucleari indicò infine l'origine dell'errore presente nelle
premesse del fisico inglese.
Thomson era profondamente legato ai modelli meccanici a cui aspirava ridurre
tutti i fenomeni fisici. Naturalmente non era il solo ad avere questa visione
meccanicistica della natura, ma menti più profonde della sua, pur ricorrendo ai modelli
come strumenti euristici, erano andate al di là di essi, lasciandoli cadere al momento
opportuno. Sta qui una delle differenza tra Kelvin e Maxwell, in cui si manifesta la
superiorità del secondo rispetto al primo. Gli studi sulla termodinamica sono forse il
massimo e più duraturo contributo portato da Thomson alla fisica, anche se era stato
preceduto da un lavoro simile di Clausius. Le due ricerche si erano svolte
indipendentemente l'una dall'altra, e furono entrambe di importanza capitale. Questo
lavoro di Thomson è però alquanto astruso e i suoi contemporanei lo ricordavano e lo
onoravano per altre investigazioni scientifiche, come quelle precedentemente
analizzate.
Il principio di Carnot, dedotto nel quadro della teoria fluidistica del calore,
poteva apparire in contraddizione col principio di equivalenza, perché supponeva che
in una macchina ideale la quantità di calore “caduta” da una temperatura a un'altra più
bassa rimanesse costante, come costante rimane la quantità di acqua che cadendo in una
cascata produce lavoro meccanico. Rudolf Clausius (1822-1888) e Thomson quasi
contemporaneamente e indipendentemente, si assunsero il compito d'inquadrare i due
principi in una nuova assiomatica, più organica e chiara quella del primo, che pose i
fondamenti della teoria meccanica del calore.
Clausius osservò che la costanza del rapporto tra lavoro speso e calore prodotto
si ha soltanto nelle trasformazioni cicliche, nelle trasformazioni, cioè, nelle quali il corpo
in esame, dopo una serie di cambiamenti, ritorna nelle condizioni iniziali. Per esempio,
44=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

non ci si trova in questo caso nel calorimetro di Joule, perchè in esso si ha acqua fredda
a principio della trasformazione e acqua calda alla fine. Se la trasformazione non è
ciclica, il rapporto non è costante; ossia la differenza, misurata nelle stesse unità di
misura, tra calore speso e lavoro prodotto o viceversa non è nulla. Muovendo dal
principio secondo cui non vi è mai perdita di energia, bensì trasformazione (primo
principio della termodinamica), Clausius intuì che era necessario che vi fosse un
processo di compensazione della trasformazione del calore in energia meccanica,
qualcosa che permettesse il mantenimento dell'energia termica interna al sistema nei
valori di partenza, o comunque su valori omogenei. Di fatto, ciò era possibile solo
nell'ipotesi che una parte dell'energia, paradossalmente, si perdesse, che all'interno del
sistema termico si assistesse ad una degradazione dell'energia complessiva. Clausius
comprese che, mentre le altre forme d'energia si potevano trasformare una nell'altra
integralmente e reversibilmente, l'energia termica non si riconvertiva completamente,
ma dissipava una parte di sé nelle trasformazioni e perdeva dunque una parte della sua
capacità di svolgere lavoro. Da qui l'impossibilità di costruire sistemi termici idealmente
conservativi. Pertanto, Clausius ebbe la felice idea di saldare il conto che non tornava,
introducendo il concetto di energia interna. Per esempio, se si vaporizza una certa
quantità di acqua, mantenendola a temperatura costante, il calore fornito è molto
maggiore del lavoro di espansione del vapore: l’altra parte di energia dove è andata? Il
calore fornito all'acqua in parte si trasforma in lavoro esterno di espansione del vapore
(e dell'acqua) e in parte si trasforma in energia interna, che il vapore restituisce sotto
forma di calore condensandosi.
Con l'invenzione del concetto di energia interna Clausius dette forma matematica
precisa al principio di equivalenza anche per le trasformazioni aperte:

PRIMO PRINCIPIO DELLA TERMODINAMICA


Per ogni sistema termodinamico, qualunque sia la trasformazione che esso subisce, la
variazione DU dell'energia interna è uguale alla differenza fra la quantità di calore Q che il
sistema assorbe dall' esterno e il lavoro L che il sistema compie verso l'esterno:
∆U = Q − L

Tanto Clausius che Thomson dedussero il principio di Carnot da un altro più


intuitivo e quasi identico, che rappresentano forme alternative del secondo principio
della termodinamica. Thomson, parte dall’idea che è impossibile produrre con
continuità energia meccanica dal solo raffreddamento di un sistema, cioè a costruire
una macchina reale che possa trasformare in lavoro il calore sottratto a una sola
sorgente, senza cederne una certa quantità a un'altra sorgente a temperatura più bassa,
in quanto tale macchina produrrebbe un moto perpetuo. L'impossibilità di realizzare un
simile processo costituisce il secondo principio della termodinamica nella formulazione
data da Kelvin:

SECONDO PRINCIPIO DELLA TERMODINAMICA: ENUNCIATO DI KELVIN


È impossibile realizzare una trasformazione il cui risultato finale sia solamente quello di
convertire in lavoro meccanico il calore prelevato da un'unica sorgente.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 444!

Ciò che rende questo enunciato veramente restrittivo è quel "solamente"; infatti, se si
ammette che avvengano altri fatti concomitanti, altre modificazioni del sistema, non è
affatto impossibile trasformare integralmente il
calore in lavoro.
Clausius, invece, osserva che in natura i
fenomeni spontanei avvengono sempre nello
stesso verso; sono, cioè, fenomeni irreversibili.
È da notare che, se una trasformazione avviene
in un certo verso, non sarebbero violati né il
primo principio della termodinamica né gli
altri princìpi di conservazione nel caso in cui la
stessa trasformazione avvenisse inversamente.
Quindi questi princìpi non forniscono alcuna
indicazione circa il verso in cui effettivamente
si svolge un processo spontaneo.
L'irreversibilità dei fenomeni è messa in evidenza nel seguente principio, che
rappresenta l’enunciato del secondo principio della termodinamica dato da Clausius:

SECONDO PRINCIPIO DELLA TERMODINAMICA: ENUNCIATO DI CLAUSIUS


È impossibile realizzare una trasformazione il cui risultato finale sia solamente il passaggio
di calore da un corpo a una data temperatura a un altro a temperatura maggiore.

Ovviamente i due enunciati sono perfettamente equivalenti fra loro, nel senso
che se non fosse vero il primo non sarebbe vero neanche il secondo, e viceversa.
Possiamo così concludere che fissato un fenomeno reale, che avvenga
spontaneamente senza alcun intervento esterno, è impossibile come unico risultato
finale far avvenire, nelle medesime condizioni, il processo in senso inverso. Più
precisamente è impossibile trovare un processo inverso che possa riportare nello stato
iniziale sia il sistema considerato sia l'ambiente con cui esso è a contatto.
I due enunciati, ed altri simili (i fenomeni naturali sono irreversibili; i fenomeni
avvengono in modo che l'energia che vi interviene si degradi; ecc.) sono totalmente in
antitesi con le tradizionali leggi dinamiche reversibili, e ciò rappresenterà uno dei
motivi della crisi del meccanicismo nella seconda metà del XIX secolo.
L'impossibilità di costruire sistemi termici idealmente conservativi, la
diminuzione della capacità di conversione di calore in lavoro, questa degradazione
dell'energia, indusse Clausius nel 1865 ad introdurre una nuova grandezza fisica,
l’entropia S (dal greco entropè=trasformazione), che doveva assumere un ufficio
fondamentale nell'ulteriore assetto della termodinamica: “Nello stesso modo in cui
diciamo che U (energia) è il contenuto di calore e di lavoro di un corpo (primo
principio), anche S (entropia) può essere considerata il contenuto di trasformazione di
un corpo… per questo motivo ho utilizzato la parola entropia dal greco entropè che
significa trasformazione, affinché questa quantità fosse il più possibile simile a energia,
in quanto entrambe sono così strettamente connesse l’una all’altra che mi è parso utile
una certa analogia nei loro nomi”. In particolare l’entropia doveva servire a distinguere
un processo reversibile da uno irreversibile e di attribuire un significato preciso al
concetto di degradazione dell'energia.
445! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Precisamente, se si indica con dS la variazione d'entropia per una trasformazione


infinitesima nella quale trasformata la quantità di calore dQ alla temperatura T, si ha
per definizione:
dQ
dS =
dT

Clausius dimostrò che si tratta di una grandezza di cui non si conosce il valore
assoluto, ma soltanto le variazioni, e tale che essa aumenta sempre nei sistemi
irreversibili termicamente isolati; rimarrebbe costante soltanto nel caso ideale di
trasformazioni reversibili. L'entropia è una grandezza caratteristica di un corpo
(funzione di stato), come il volume, la temperatura, l'energia interna.
Perciò possiamo formulare, in maniera del tutto generale, il secondo principio
della termodinamica in termini di entropia:

PRINCIPIO DELL'AUMENTO DELL'ENTROPIA


L'entropia totale dell'universo (il sistema più il suo ambiente, che insieme sono isolati
dall'esterno) non cambia in un processo reversibile, ma aumenta sempre in un processo
irreversibile.

In generale possiamo affermare che, se il valore dell'entropia di un sistema in un


certo stato B è maggiore di quello che compete a un altro stato A, il sistema si evolve nel
verso che porta da A a B. L'aumento dell'entropia indica il verso secondo il quale si
succedono gli eventi, cioè caratterizza lo scorrere del tempo; per questo l'entropia è
stata chiamata anche la "freccia del tempo".
Il principio dell’aumento dell’entropia, a differenza degli altri enunciati, non si
applica solamente ai processi che coinvolgono trasformazioni di calore in lavoro o flussi
di calore fra corpi a diversa temperatura, ma anche a ogni altro tipo di processo, e
Clausius intendeva caratterizzare con il concetto di entropia non soltanto un aspetto
particolare dei fenomeni termici, ma uno stato generale di qualunque sistema, una legge
universale: la crescita dell'entropia in un sistema, la degradazione dell'energia
dovevano essere indicatori di un'irreversibile evoluzione spontanea. L'unico requisito
necessario affinché si potesse parlare di entropia era che il sistema studiato fosse
comunque un sistema isolato, senza scambi con l'esterno, e per Clausius l'universo
intero poteva essere considerato un sistema isolato.
Così l'entropia divenne la chiave di lettura dei fenomeni su scala macroscopica,
cosmologica: l'energia del mondo è costante. L'entropia del mondo tende fino a un
massimo:

LEGGI FONDAMENTALI DELL’UNIVERSO COSMOLOGICO


∆EUniverso = 0 L’energia dell’Universo è costante
∆SUniverso > 0 L’entropia dell’Universo tende sempre ad aumentare

Riguardo a quest’ultima relazione, Clausius fece osservare che tutti i processi


naturali, rappresentati per esempio dal calore che spontaneamente passa dal caldo al
freddo, o dal lavoro che inutilmente si trasforma in calore per attrito, originano sempre
variazioni di entropia positive. Al contrario tutti i processi innaturali, rappresentati, per
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 446!

esempio, dal calore che forzatamente viene trasformato in lavoro utile, o che viene
costretto a passare da un corpo freddo ad un ambiente più caldo con un consumo di
energia, originano sempre variazioni di entropia negative. Poiché calcoli teorici
suggerivano che l’insieme delle variazioni positive di entropia dovesse essere maggiore
dell’insieme delle variazioni negative, Clausius giunse alla conclusione che: l’entropia
dell’Universo è destinata sempre ad aumentare, fino al raggiungimento di un valore
massimo coincidente con uno “stato di morte immodificabile” dell’Universo, la
cosiddetta “morte termica”, uno stato in cui vi è la totale assenza di ogni processo fisico,
chimico e biologico.
Come diceva il giovane Freud quando Clausius era ormai anziano: “Lo scopo
finale di tutte le forme di vita è la morte”.
L'opposizione dei fisici all'introduzione di questa nuova grandezza fu vivissima,
specialmente per il suo carattere misterioso, dovuto principalmente al fatto che essa non
è percepibile dai nostri sensi.

I fondatori della termodinamica, Mayer, Joule, e Carnot, in buona sostanza si


erano disinteressati della natura del calore. Essi si limitavano solamente ad affermare
che il calore, in certe condizioni, si può trasformare in lavoro meccanico, e viceversa. I
pionieri della teoria non credettero mai necessario indagare quale fosse l'intimo
rapporto tra i fenomeni meccanici e le manifestazioni termiche. Fu Helmholtz, nella
citata memoria del 1847, ad affacciare l’ipotesi che l'intima ragione della trasformabilità
tra calore e lavoro potesse essere ricercata, secondo una via che egli non indicava,
riconducendo i fenomeni termici a fenomeni meccanici, cioè a fenomeni di movimento,
come era stato tentato nel secolo precedente.
Verso la metà del secolo la teoria atomica aveva fatto notevoli progressi e già
poteva essere utilizzata dai fisici con confidenza, onde essa venne a confluire con la
teoria meccanica del calore per la costruzione dell'edificio della teoria cinetica dei gas.
Ne posero le fondamenta il fisico e chimico tedesco August Kronig (1822-1879) e l'anno
successivo Clausius. Prima di accingerci a narrare la storia essenziale della teoria
cinetica dei gas, che s'intreccia, ripetiamo, con la storia della teoria atomica, è necessario
ricordare, per la sua enorme importanza per la meccanica statistica, la legge
fondamentale enunciata nel 1811 da Avogadro:

PRINCIPIO DI AVOGADRO
Volumi uguali di gas diversi, nelle stesse condizioni di temperatura e di pressione,
contengono lo stesso numero di molecole. Inversamente, uno stesso numero di molecole di
gas, di qualunque specie, nelle stesse condizioni di temperatura e di pressione, occupa lo
stesso volume.

All'epoca della fondazione della teoria cinetica, però, il numero di Avogadro


NA=6,02·1023 mol-1 non si conosceva ancora.
Nella memoria Fondamenti d'una teoria dei gas pubblicata nel 1856, Kronig
suppone un gas costituito da un insieme di molecole, assimilate a sferette perfettamente
elastiche, in continuo moto assolutamente disordinato. Egli ritiene anche trascurabile il
volume delle molecole rispetto al volume totale del gas e nulle le azioni reciproche tra le
molecole. Per effetto del continuo moto, le molecole si urtano tra loro e urtano contro le
pareti del recipiente, con conseguenti variazioni della loro velocità. In base a queste
447! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

ipotesi tenuta presente la legge di Avogadro e applicando la meccanica dei punti


materiali, Kronig riusciva a dedurre la legge di Boyle, che porta a concludere che il
prodotto della pressione per il volume di una massa gassosa è eguale a 2/3 dell'energia
cinetica traslatoria di tutte le molecole della massa gassosa. Il suddetto prodotto perciò,
rimane costante finché rimane costante l'energia cinetica traslatoria delle molecole. Ma
l'equazione caratteristica dei gas avverte che il prodotto varia col variare della
temperatura, quindi l'energia cinetica deve variare con la temperatura, ossia l'energia
cinetica dipende dalla temperatura. Ne viene spontanea l'idea di definire la temperatura
mediante l'energia cinetica media delle molecole, ponendo tra le due grandezze una ben
determinata relazione matematica, che nella terminologia moderna assume la forma:
3
EC = kB T
2
A queste basi della teoria aveva pensato, indipendentemente a suo dire, anche
Clausius. Mentre Kronig supponeva le molecole dotate di solo moto traslatorio,
Clausius osservò che l'urto reciproco delle molecole provoca necessariamente anche un
loro moto rotatorio. Ciascuno di questi moti, chiamato “grado di libertà”, è un modo
indipendente in cui un atomo può ricevere e immagazzinare energia. Secondo il
teorema di equipartizione dell’energia, l’energia di un gas dovrebbe essere distribuita in
modo uniforme tra le sue molecole e quindi suddivisa in parti uguali tra i differenti
modi in cui una molecola può muoversi:

PRINCIPIO EQUIPARTIZIONE DELL’ENERGIA


In un gas alla temperatura T, ad ogni grado di libertà del moto molecolare corrisponde
un’energia cinetica media pari a:
!
!! ! !! !
!

Inoltre, gli atomi che costituiscono una molecola si muovono gli uni rispetto agli
altri secondo un moto forse oscillatorio. Su queste basi teoriche, Clausius calcola così,
per esempio, che a 0 °C la velocità delle molecole d'ossigeno è 461 m/s e delle molecole
d'idrogeno 1844 m/s. I valori, quasi eguali a quelli calcolati oggi, sembrarono enormi e
incompatibili con la piccola velocità di diffusione di un gas in un altro e con il basso
potere conduttore dei gas. Ma già nel 1858 Clausius osservava che il processo di
diffusione non dipende tanto dalla velocità delle molecole, quanto dal libero cammino
medio di una molecola, definito come il valore medio del percorso rettilineo compiuto
da una molecola tra due urti successivi (nel 1860 calcolato da Maxwell) e in
conseguenza il numero di urti di ogni molecola in un certo tempo. Si ottengono, come si
sa, numeri grandissimi, che, in condizioni normali, sono dell'ordine di 5 miliardi per
secondo. Lo schema teorico di Kronig e Clausius è un po' semplicistico, onde le
conseguenze tratte si potevano ritenere confermate dall'esperienza soltanto in prima
approssimazione. In particolare l'equazione di stato che la teoria dava come verificata in
ogni circostanza era seguita da gas molto rarefatti.

Nel 1873 comparve la prima memoria di Johannes Van der Waals (1837-1923),
nella quale si dimostrava che basta correggere la precedente teoria in due punti soltanto
per giungere a conclusioni applicabili ai gas reali. Basta, in primo luogo, tenere presente
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 448!

che il volume delle molecole non è nullo, ma, con l'aumentare indefinito della pressione,
esso non tende a zero, ma a un certo valore finito, detto covolume, legato al volume
totale delle molecole; in secondo luogo, bisogna non trascurare l'attrazione mutua tra le
molecole, cioè la coesione del gas, che ha per effetto di diminuire la pressione, perché
ogni molecola all'istante dell'urto contro la parete è, per così dire, frenata dall'attrazione
delle altre molecole. Tenendo conto di queste due correzioni, Van der Waals scrisse
l'equazione di stato che porta il suo nome:

EQUAZIONE DI STATO DEI GAS REALI

 a 
 p + 2  (V − b) = RT
 V 
a e b costanti caratteristiche del gas reale

Abbiamo osservato che il secondo principio della termodinamica, nell'enunciato


di Clausius, era in antitesi con i tradizionali concetti meccanici. La meccanica aveva
considerato sempre i processi meccanici come reversibili, mentre il secondo principio
della termodinamica li riteneva irreversibili. La teoria cinetica mutò l'antitesi in
antinomia: se il calore si riduce a moto delle singole molecole, retto da leggi dinamiche
reversibili, come è possibile conciliare la reversibilità dei processi singoli con
l'irreversibilità della massa?
Forse una delle ragioni dell'aspra lotta degli energetisti (Rankine, Helmholtz,
Ostwald, Mach) contro la teoria atomica, da loro giudicata troppo rozza e ingenua, è
proprio da ricercare nell'antinomia tra i processi dinamici reversibili e il secondo
principio della termodinamica. Secondo loro l'antinomia si sarebbe eliminata quando
fosse venuto a mancare uno dei termini e perciò propendevano per l'abbandono della
teoria cinetica. Ma l'antinomia fu superata per altra via; la tracciò Maxwell, nell’articolo
Illustrations of the dynamical theory of gas (1860), ponendosi un preciso problema di teoria
cinetica: se le molecole di un gas sono in continuo moto, qual è la velocità che in un
certo istante ha una determinata molecola di gas? Ma seguire mentalmente o con il
calcolo l'evoluzione di tutte le singole molecole dello sterminato numero contenuto in
una massa gassosa non è possibile. Ciò che si può fare, secondo Maxwell, è la statistica
delle velocità; cioè, non chiedersi quale sia la velocità di una singola molecola, ma
quante siano le molecole che in un certo istante hanno una determinata velocità. A
fondamento del suo calcolo, Maxwell pose le seguenti considerazioni intuitive: nessuna
direzione di moto è privilegiata; nessuna velocità è privilegiata o proibita, cioè una
molecola può assumere tutti i valori delle velocità compresi tra un massimo e zero; ogni
gas abbandonato a se stesso finisce per assumere uno stato stazionario nel quale la
distribuzione statistica delle velocità rimanga costante col tempo. In altre parole, se due
molecole di velocità rispettiva a e b collidono e dopo la collisione assumono le velocità p
e q, contemporaneamente altre due molecole di velocità p e q collidono e assumono
velocità a e b, in modo che rimanga costante il numero di molecole di velocità
rispettivamente a, b, ..., p, q. In base a queste ipotesi e ad altre meno importanti che si
trovano nelle pieghe del ragionamento, Maxwell dette la formula della distribuzione
delle velocità nelle molecole di un gas:
3/2 mv2

∆N 4N  m  2 2kB T
=   v e
∆v π  2kB T 
449! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

che determina, in funzione della velocità v, la probabilità che una molecola abbia una
velocità compresa fra v e v+dv, quando sia data la temperatura del gas. In questo modo
non solo si ammette che le velocità delle molecole siano diverse ma introduce l’ipotesi
molto importante che le velocità delle molecole varino distribuendosi secondo la stessa
legge con cui si distribuiscono gli errori in una serie di osservazioni. Tale distribuzione
può cioè considerarsi casuale. Le velocità varieranno da zero all’infinito, ma è possibile
calcolare il numero medio delle molecole, e quindi la loro probabilità, la cui velocità si
colloca entro certi limiti. Oltre al calcolo delle velocità e del percorso libero medio (la
lunghezza media percorsa dalla particella fra due urti successivi), queste ipotesi
permettevano a Maxwell di spiegare importanti proprietà osservabili dei gas. La teoria
cinetica dei gas sviluppata da Maxwell e Clausius apriva in tal modo una nuova
prospettiva teorica nella conoscenza dei fenomeni naturali. In primo luogo con essa
assumeva un ruolo molto importante nella fisica il calcolo delle probabilità.
L'introduzione di leggi statistiche nella fisica considerate non più, dunque, leggi
dinamiche causali, ma leggi statistiche che permettono di prevedere l'evoluzione futura
non con assoluta certezza, ma solamente con probabilità, talvolta grandissima. In
secondo luogo si aveva una completa rivalutazione dell’atomismo tradizionale e
soprattutto si poteva dare una nuova interpretazione della termodinamica che risolveva
le difficoltà sorte dall’apparente contrasto fra il primo e secondo principio della
termodinamica. Se si considera infatti l’energia, che si conserva in base al primo
principio, come la somma delle energie delle singole molecole di un corpo, allora il
secondo principio non nega affatto, con la dissipazione dell’energia, che l’energia, cioè
la capacità di compiere lavoro, delle singole molecole diminuisca. Tale principio
afferma soltanto che essa non è più utilizzabile per l’uomo, ad esempio quando si ha un
livellamento di temperatura fra i corpi, cioè si ha una distribuzione più uniforme della
velocità delle molecole in essi. In altre parole non vi è una velocità, in media, più
probabile di un’altra.

La teoria di Maxwell sollevò molte critiche. Ci limitiamo a riferire soltanto


l'obiezione fondamentale mossa da Joseph Loschmidt (1821-1895) nel 1876. I fenomeni
meccanici, diceva Loschmidt, sono reversibili; quindi se esiste una serie di processi che
porta un gas da uno stato anormale di distribuzione non maxwelliana delle velocità allo
stato di distribuzione maxwelliana, dovrà esistere anche la serie di processi inversi che
porta il gas dallo stato di distribuzione maxwelliana allo stato non maxwelliano, il quale
pertanto non è stazionario, contrariamente all'ipotesi fondamentale di Maxwell. Le
polemiche si placarono solamente dopo la verifica sperimentale della legge di
distribuzione maxwelliana, oggi ritenuta estremamente probabile.

Per superare le difficoltà sollevate dal secondo


principio della termodinamica, il concetto di probabilità
degli eventi fisici, non esplicitamente introdotto da
Maxwell, fu avanzato nel 1878 da Ludwig Boltzmann
(1844-1906). Boltzmann si propose di porre la teoria
cinetica di Maxwell su basi concettualmente più solide.
Nel 1871 Maxwell aveva immaginato il seguente
esperimento mentale, rimasto classico: consideriamo due
recipienti A e B contenenti un gas, a pressione e a
temperatura uniforme, e comunicanti fra loro per mezzo di
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 44:!

un setto perfettamente scorrevole, che possa essere manovrato senza alcuna spesa di
lavoro. Immaginiamo ora un essere diabolico, noto come diavoletto di Maxwell, che tenga
aperto il setto solo quando una particella, durante il disordinato moto molecolare, tende
a passare da B in A, tenendo chiusa la comunicazione in caso contrario. Dopo un certo
tempo, teoricamente anche molto lungo, tutte le molecole sono passate in A, mentre in B
si è formato il vuoto. Si è così invertita l'esperienza di Joule, essendosi prodotto, senza
alcun lavoro esterno, uno squilibrio di pressione fra i due recipienti. In modo analogo
l'equilibrio termico nei due scomparti potrebbe essere alterato mediante il passaggio
delle molecole più veloci in B e di quelle più lente in A. In definitiva, in entrambi i casi,
il secondo principio della termodinamica sarebbe violato.
 Dobbiamo ora chiederci se durante il moto molecolare, per una successione di
casi fortuiti, i fantasiosi fatti illustrati da Maxwell possano realmente verificarsi. A
rigore di logica non è assurdo pensare che a un certo istante tutte le molecole siano
passate in A o che si sia spontaneamente prodotta nei due ambienti, lasciati in
comunicazione, una disomogeneità macroscopica di pressione o di temperatura.
Tuttavia, la probabilità di simili eventi fortuiti dipende dal numero di molecole presenti
nei recipienti, nel senso che, col crescere del numero di molecole, la probabilità diviene
così piccola che praticamente i casi considerati non si realizzano mai. Boltzmann,
quindi, sulla base della precedente considerazione, propose un’innovazione radicale: il
secondo principio della termodinamica non è una legge naturale certa, ma solo di
estrema probabilità. Quindi le ragioni del secondo principio della termodinamica
derivano esclusivamente da osservazioni effettuate su sistemi formati da numeri
enormemente grandi di molecole, con intenzionale esclusione di ogni processo
elementare. Da tutto ciò discende che, se il numero delle molecole è molto piccolo, il
concetto di irreversibilità non ha alcun significato fisico, mentre, quando un sistema è
formato da un numero molto grande di elementi, esiste un'impossibilità pratica di
violare l'unidirezionalità dei processi reali. Per un sistema termodinamico, pertanto, fra
tutti i processi possibili si verificherà con quasi assoluta certezza quello avente la
massima probabilità. Allora, i vari enunciati del secondo principio dovrebbero
affermare, piuttosto che l'impossibilità di determinati fenomeni, la loro estrema
improbabilità. Anche la legge dell'accrescimento d'entropia nei processi adiabatici
irreversibili è una legge di probabilità. S'intuisce, dunque, che dev'esserci una relazione
tra entropia e probabilità, messa in luce da Boltzmann nel suo teorema enunciato nel
1887, una delle più alte conquiste della fisica teorica:

EQUAZIONE DI BOLTZMANN
L'entropia S(A) dello stato macroscopico A di un sistema è espressa in funzione della
probabilità termodinamica P(A) di quello stato dalla relazione:

! ! ! !! !"#!!!
dove la probabilità termodinamica P(A) di uno stato macroscopico A, è una grandezza proporzionale al numero
delle configurazioni microscopiche.

Dall’equazione di Boltzmann discende che ogni aumento di entropia in un


processo irreversibile significa che la natura preferisce uno stato più probabile a uno
meno probabile. L’aumento di entropia in un processo irreversibile, cioè l’aumento di
una grandezza, definita come il rapporto Q/T, che sembrava sfuggire ad ogni
comprensione di tipo meccanico tradizionale, viene così ricondotto al variare delle
45<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

proprietà meccaniche di un sistema di particelle in interazione. La dissipazione


dell’energia in tal modo non risulta più soltanto una valutazione tecnica ed economica
di processi macrofisici irreversibili, come la conduzione di calore, ma è il risultato di un
comportamento meccanico nella struttura invisibile della materia. Boltzmann trovò
quindi un modo per definire l’entropia come una misura statistica del movimento di un
insieme di atomi e mostrò che le collisioni tra gli atomi spingono l’entropia verso il suo
massimo valore. Se in un contenitore di gas atomi veloci, e quindi caldi, si mescolano
con atomi lenti, quindi freddi, il rimescolamento energetico e casuale tende a rallentare
gli atomi veloci ed accelerare quelli lenti fino al raggiungimento di una velocità
mediamente uguale per tutti. A questo punto la temperatura è identica dappertutto
(equilibrio termico) e l’entropia massimizzata. In sostanza, lasciando gli atomi
mescolarsi tra di loro, urtarsi e condividere l’energia nel modo più uniforme possibile,
essi raggiungeranno uno stato di massima entropia. Il disordine degli atomi a questo
punto è massimo, nel senso che sono disposti nel modo più casuale possibile.
E sotto questo nuovo punto di vista che la complessità si affaccia per la prima
volta. Con Clausius essa mostra il proprio volto catastrofista se è vero che l'entropia è la
manifestazione di una perdita della capacità di trasformazione energetica (lo stato di
massima entropia corrisponde a quello di una omogeneizzazione dei potenziali
energetici, a una morte termica) e bisogna quindi leggere le scoperte della
termodinamica come un attentato all'armonia prestabilita dell'universo, lo svanire
dell'illusione di un ordine interno e immutabile, l'irruzione del caos. Con Boltzmann si
scopre il carattere fondamentalmente disordinato dei movimenti molecolari interni ad
un sistema. Collega così l’intuizione dell'entropia di Clausius a questo nuovo risvolto
della questione e ne ricava una relazione fondamentale: il calore e l'energia propria ai
movimenti disordinati delle molecole, nell'ambito del sistema stesso, e ogni aumento di
calore corrisponde ad un aumento dell'agitazione molecolare, ad un'accelerazione dei
movimenti disordinati. È dunque perché la forma calorica di energia comporta un
disordine che si verificano perdite e degradazione della capacità di lavoro. L'aumento di
entropia è pertanto connesso con il passaggio da una condizione di ordine a una di
disordine. Siamo così in grado di giustificare l'origine dell'irreversibilità e quindi il
verso naturale degli eventi: esso proviene dall'ordine che si trasforma in disordine o, il
che è lo stesso, dal passaggio da una condizione poco probabile a una più probabile.
L'entropia diventa così la metafora del disordine: quando l'una cresce, cresce
l'altro, e allo stato massimo, quello verso cui, secondo Clausius, l'universo stesso
tenderebbe, corrisponde un disordine molecolare completo, che si manifesta con
l'equilibrio termico e l'omogeneizzazione. Il limite massimo di disordine e agitazione
molecolare, se inteso come limite fisico del sistema-universo, pone subito un
interrogativo drammatico: come può il Cosmo, apparentemente ordinato, tendere alla
propria disorganizzazione? Ogni armonia prestabilita verrebbe così, nel campo
dell'entropia su scala universale, sistematicamente bandita dal discorso della scienza. Il
disordine è così presente nella microstruttura di tutte le cose, soli e pianeti, sistemi
aperti o chiusi, cose inanimate ed esseri viventi; è un disordine costitutivo, che fa parte
necessariamente della natura di ogni essere fisico.
Infiltratosi nel mondo fisico, con il secondo principio della termodinamica e nel
mondo microfisico, al disordine mancava soltanto una conferma definitiva, che arrivò,
per così dire, dallo spazio profondo, con la scoperta nel XX secolo dell’espansione
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 45;!

dell’universo e della radiazione cosmica di fondo distribuita uniformemente alla


temperatura di circa 4 °K, eco del big bang.

Il finale più appropriato all’esame della termodinamica e della meccanica


statistica spetta a Josiah Gibbs (1839-1903), che rappresenta l’ingresso dell’America nel
campo della fisica teorica. La memoria On the equilibrium of heterogeneous substances
(1876-1878) fu molto apprezzata da Maxwell, anche se poco nota alla maggior parte dei
fisici per il suo carattere piuttosto astratto. La conseguenza di tutto ciò fu che dopo
molti anni alcuni grandi fisici, come Planck ed Einstein, riscoprirono i risultati ottenuti
da Gibbs. Il secondo contributo fondamentale fu rivolto alla meccanica statistica. In un
breve libro Elementary principles of statistical mechanics (1901), Gibbs rielaborò la materia
in una forma estremamente generale, originale ed elegante, e che esercitò una profonda
influenza sulla meccanica statistica e che viene studiato ancora oggi.

Nell'ultimo decennio del XIX secolo la fisica aveva accettato le idee


rivoluzionarie di Maxwell e di Boltzmann, accogliendo nel suo seno leggi
probabilistiche; ma tra certezza e probabilità c'e un abisso. La fisica classica si trovò,
dunque, di fronte a un dualismo inevitabile. In presenza di una qualunque legge che
credesse d'interpretare un fenomeno, la fisica si doveva chiedere: è questa una legge
dinamica, causale o una legge statistica di probabilità? Davanti a questo dualismo i fisici
si divisero in due schiere. I pochi volevano superarlo negando l'esistenza di leggi certe e
dando a tutte le leggi fisiche carattere di probabilità; i molti volevano ricondurre tutte le
leggi statistiche a leggi dinamiche elementari. Le leggi statistiche, dicevano, sono sintesi
di leggi individuali dinamiche causali, che la nostra mente non riesce a seguire tutte
assieme; la probabilità che risulta dalle leggi statistiche è solamente la misura della
nostra ignoranza; la scienza non si può fermare alle leggi statistiche, ma deve risalire da
queste alle leggi individuali dinamiche che le compongono, perché solamente così la
nostra mente può seguire i nessi causali. Ovviamente questi fisici ritenevano
pienamente valido il rigido determinismo dei fenomeni naturali, affermato da Laplace.
Ma gli ultimi anni del XIX secolo dovevano mettere in discussione questo rigido
determinismo e dare il via alla crisi della fisica classica che si concretizzerà nei primi
decenni del XX secolo ad opera della teoria della relatività e della meccanica quantistica.

8.9 La complessità e il disordine

“[…] Per gli antichi la Natura era una fonte di saggezza. La Natura medievale
parlava di Dio. Nei tempi moderni la Natura è divenuta così silenziosa che Kant pensò
che scienza e saggezza, scienza e verità dovessero essere completamente separate.
Abbiamo vissuto con questa dicotomia nel corso degli ultimi due secoli. È tempo che essa
giunga alla fine. [...] Una prima tappa verso una possibile riunificazione della
conoscenza è stata la scoperta, nel corso del XIX secolo, della teoria del calore, delle
leggi della termodinamica. Nella nostra attuale prospettiva la termodinamica appare
dunque come la prima scienza della complessità” (Prigogine, Premio Nobel per la
chimica, 1977).

Il problema è intanto quello di capire la differenza epistemologica che corre tra i


due termini, complicato e complesso, che sono solo apparentemente simili.
45=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

In primo luogo: parlando di un fenomeno la cui spiegazione ci obbliga a mettere


in gioco un numero considerevole di variabili, dipendenti o indipendenti, soprattutto
per quanto riguarda la sua espressione in chiave simbolico-numerica (una formula) o in
chiave descrittiva (un teorema), cos'e che ci autorizza a considerarlo un "fenomeno
complesso"? E inoltre: la messa in evidenza, all'interno di questo fenomeno, osservato
nel suo sviluppo, di alcune congruenze e condizioni di ordine ricorrenti deve farci
pensare che vi è una semplicità della spiegazione sotto un'apparente difficoltà di lettura,
che esiste una struttura nascosta?
La fisica ha compreso che nella conoscenza della realtà non si tratta soltanto di
raccogliere un numero considerevole di dati relativi ad un fenomeno, per meglio
definirlo, e che non è il numero elevato di variabili in gioco a stabilire la presenza di una
complessità, quanto piuttosto il loro essere visibilmente intrecciate in una rete di
relazioni.
Ciò che fa davvero la differenza tra i due concetti di complesso e complicato è la
scoperta che tutti i fenomeni fisici mostrano un'apparente mancanza di ordine nella
propria evoluzione e a volte nella stessa struttura, caratteristiche che non permettono di
ricostruire certe serie di eventi se non come processi caotici. Il contesto entro cui la fisica
scopre la complessità si individua così nella scoperta del carattere imprevedibile di
alcuni fenomeni, e nella comprensione del fatto nella fisica non esistono oggetti
semplici, cioè la ricostruzione di un evento osservato sembra rispondere a leggi
deterministiche, ma va ben oltre queste leggi e che la previsione dello stato futuro di un
sistema può sembrare possibile, ma a costo di ridurre qualitativamente la portata del
fenomeno studiato. Il criterio che permette di differenziare complicatezza e complessità
dovrebbe comunque scaturire anche dall'evidenza del limite intrinseco alle spiegazioni
che la fisica classica ha dato dei fenomeni, quelle cioè che puntano a semplificare, a
ridurre, a sminuire la portata di un fenomeno, ad ignorare le innumerevoli relazioni
possibili fra fenomeni ed eventi diversi. Quindi, nel momento in cui si prende coscienza
dell'esigenza di una nuova situazione teorica si dovrebbero, per così dire, ridisegnare
anche gli strumenti e le procedure d'indagine della fisica e il sistema delle pratiche
sperimentali. La strada nuova intrapresa dalla ricerca scientifica solo apparentemente
rompe con la tradizione, ma che in realtà recupera il senso dell'eredità greca, del
pensiero dinamico dei primi atomisti, molto più vicini alla termodinamica (e alla
meccanica quantistica) di quanto non siano state le categorie di Aristotele e i miti
demiurgici di Platone. Arriva quindi dal passato, un passato per troppo tempo
dimenticato, il cuore teorico di queste nuove sfide che la natura lancia alla scienza.
Tutto questo implicherà, soprattutto nel Novecento, un notevole spostamento di
prospettiva: si mostra anzitutto come ogni idea di esattezza nella scienza, se è scaturita
da una concezione del Mondo come meccanismo semplice, sia fittizia. Di conseguenza,
si è manifestato il carattere puramente descrittivo delle leggi scientifiche, la loro
incapacità, cioè, di andare oltre la semplice supposizione di uno stato di cose, di
spiegare davvero un fenomeno, fatto questo che mette sotto una luce diversa anche il
concetto di osservazione e di esperimento, nonché quello di verità.
Se le leggi non ci dicono nulla di preciso e affidabile riguardo il verificarsi di un
fenomeno nello spazio e nel tempo, se sono ormai soltanto la descrizione di una
possibilità che le cose accadano, allora la scienza si riduce ad essere solo uno dei
possibili discorsi sul mondo, non più l'unico esatto. Del resto, l'osservazione di un
fenomeno non è più il punto di partenza per individuare una spiegazione; compiere un
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 454!

esperimento non è più un atto costitutivo della conoscenza, ma piuttosto una pratica
esplorativa, un modo come un altro per conoscere. Siamo passati così da un'immagine
della scienza come episteme, cioè sicurezza, certezza, raggiungimento della verità, alla
scienza come doxa, sapere fallibile, ipotetico, opinione, un discorso intorno alle cose.
Forse è questo l'aspetto più importante che porterà alla crisi della fisica classica e che
rappresenterà l’aspetto fondamentale della scienza del '900.
Esaminiamo a questo punto più nel dettaglio l'evoluzione della crisi, che è la
storia del crollo dell'immagine del Mondo-orologio cartesiano e newtoniano e
dell'ideale della scienza come portatrice di verità, nonché dell'affacciarsi di un nuovo
modo di vedere il mondo.
Tutto comincia con la Rivoluzione industriale, con la scoperta che il fuoco
trasforma la materia, permette ai corpi di dilatarsi, di fondersi o evaporare, e
soprattutto permette al combustibile di bruciare con grande produzione di fiamma e
calore. La scienza del XIX secolo comprende il fatto che la combustione produce calore e
che il calore produce lavoro (effetto meccanico). La teoria del calore nasce come
problema squisitamente tecnico ed economico: non riguarda la natura del calore o la
sua azione sui corpi, ma piuttosto l'uso di tale azione. Si tratta di sapere, cioè, in quali
condizioni il calore produce energia meccanica e fa girare un motore. Ma da questo
interesse pratico della scienza deriverà, di anche la scoperta sconvolgente del fatto che il
fenomeno della trasformazione del calore, per la sua natura e i suoi effetti, non era
assolutamente riconducibile, né riducibile, alla meccanica newtoniana, alla fisica
classica. Sfuggiva, inevitabilmente, ad ogni tentativo di spiegazione.
Se infatti la termodinamica nasceva con l'enunciazione del principio secondo cui
l'energia si conserva intatta, attraverso le più diverse trasformazioni, e non va mai
perduta in nessuna delle sue parti, a questo Primo Principio fece presto seguito
l'individuazione, nell'ambito dello studio delle macchine a vapore, di un altro fattore
assai meno tranquillizzante: se è vero che la quantità di energia complessiva di un
sistema termico (una macchina vapore, ad esempio) si mantiene costante, la parte
d'energia effettivamente utilizzabile per compiere un lavoro invece diminuisce, si
dissipa a causa dell'attrito e di altre forze che entrano in gioco nel sistema. Questo
Secondo Principio trasformava di fatto la termodinamica, fino a quel momento scienza
dell'Ordine e della stabilità, in una scienza del Disordine e dell'incertezza. In sostanza,
si affermava che uno scambio termico, o di qualunque altra forma di energia, è un
processo di continua trasformazione, ma anche che la direzione seguita dal processo
non è mai invertibile, non è mai possibile riportare tutte le grandezze e le variabili che
intervengono in un fenomeno al loro stato iniziale. Nei processi termodinamici niente
torna indietro: così come mescolando acqua caldissima e fredda si ottiene acqua tiepida,
e continuando a mescolare la temperatura si uniformerà sempre più, allo stesso modo la
crescita costante del disordine è il destino dei sistemi termici; la parola che individua
questa circostanza è di origine greca: entropia. Da un punto di vista filosofico, l'ingresso
di questa variabile disordinata nell'universo newtoniano, razionale e immutabile,
rappresentò il bisogno di un profondo mutamento di prospettiva, ma non
necessariamente un ritorno dell'irrazionalità: soprattutto significò in qualche modo
scrollarsi di dosso la convinzione che tutto nell'universo avvenga secondo un Piano
prestabilito, che l'equilibrio sia il risultato di un progetto stabile, che le leggi del Cosmo
siano interpretabili in un'ottica di semplicità. La termodinamica, con la sua attenzione
455! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

per i processi irreversibili, con l'uso dei concetti di probabilità e di caos, fu anzi la prima
vera scienza della complessità.
Alla fine dell’800 le lacune interne alla meccanica classica messe in luce da
Carnot, Clausius, Boltzmann lasciavano intendere che l'immagine tipica dell'universo,
quella di un perfetto meccanismo prevedibile nel suo funzionamento, era ormai
improponibile. Spazio, Tempo, Materia, Causa ed Effetto, le parole chiave della scienza,
si misero all'improvviso a parlare un linguaggio nuovo, mentre quello di Newton, la
sua sintassi e il suo vocabolario, si mostravano ormai troppo semplici.

8.10 La corrente elettrica e i suoi effetti: nascita dell’elettrodinamica

La notizia dell’invenzione della pila si sparse rapidissima, destando un interesse


quale forse non s’era mai avuto dai tempi di Newton, ed aprì nuovi scenari sui
numerosi e sorprendenti fenomeni che si andavano scoprendo. Le ricerche scientifiche
presero subito tre vie: studio della natura della corrente elettrica (chiamata all’inizio
fluido galvanico in ottemperanza alla secolare idea fluidistica) prodotta dalla pila,
costruzione di pile sempre più potenti, studio dei nuovi fenomeni.
La polemica sulla natura del nuovo ente messo in gioco dalla pila di Volta non fu
sterile, ma ebbe un’azione stimolante nel suggerire nuove ricerche. Uno dei primi
fenomeni osservati da Volta nel suo apparato elettromotore fu la decomposizione dei
sali del liquido della pila e la calcinazione delle lastre metalliche, in particolare dello
zinco.

Anthony Carlisle (1768-1840) e William Nicholson (1753-1815) nulla sapevano


degli esperimenti voltiani, quando, costruitisi una pila, cominciarono i propri. Dopo
qualche mese gli sperimentatori inglesi scoprirono il fenomeno di scomposizione
dell'acqua. L'annuncio degli esperimenti di Carlisle e Nicholson dettero il via a una
moltitudine di ricerche analoghe. Nello stesso anno 1800 Henry annunciava di aver
decomposto l'ammoniaca; Cruikshank osservò che nelle soluzioni di sali metallici
attraversati dalla corrente si deposita il metallo al capo del conduttore dove si sviluppa
l'idrogeno nel caso delle soluzioni acide.
Condusse ricerche sistematiche sugli effetti chimici della corrente Humphry Davy
(1778-1829) dimostrando che l'acqua non era direttamente scissa dalla corrente, ma
questa, invece, produceva la scissione degli acidi e dei sali disciolti nell'acqua. Nel 1806,
dopo lunghi e pazienti tentativi, Davy riuscì a scomporre, mediante la corrente, la
potassa, ottenendo un metallo, da lui battezzato potassio, con proprietà affatto inattese:
era un metallo di poco più pesante dell'acqua, mentre sino a quell’epoca si conoscevano
soltanto metalli molto più pesanti dell'acqua, ed era un metallo che s'infiammava
spontaneamente a contatto con l'acqua. Poco tempo dopo Davy scompose anche la
soda, ottenendo un altro metallo nuovo, da lui detto sodio. Con Davy sorse una nuova
scienza, l'elettrochimica, che nei corso del secolo si va progressivamente staccando dalla
fisica, per riavvicinarsi, come vedremo, verso la fine del secolo.

Il francese Nicolas Gautherot (1753-1803) e l’inglese William Hyde Wollaston


(1766-1828) nel 1801, quasi contemporaneamente e indipendentemente, enunciarono la
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 456!

teoria chimica della pila, secondo la quale l'origine della forza elettromotrice della pila
va ricercata nell'azione chimica tra i metalli e il liquido interposto.

Sin dai primi esperimenti sugli effetti chimici della corrente elettrica, gli
scienziati si chiesero: perché in una soluzione di acqua acidulata, percorsa da corrente,
si sviluppa, sempre allo stesso capo del circuito, idrogeno e all'altro capo ossigeno?
Alcuni sostenevano che la corrente elettrica libera a un capo del circuito l'idrogeno di
una molecola d'acqua e il corrispondente ossigeno rimane sciolto nella rimanente acqua,
mentre all'altro capo la corrente libera l'ossigeno e nell'acqua si scioglie il
corrispondente idrogeno; poi idrogeno e ossigeno sciolti si mescolano e ricompongono
l'acqua. Altri che il fluido galvanico sottrae a un'estremità del circuito l'idrogeno di una
molecola d'acqua e trasporta l'ossigeno corrispondente all'altra estremità. Rimaneva,
però, nel vago il meccanismo di queste scissioni e ricomposizioni. Ma, proprio in quei
primi anni di secolo diventava sempre più consistente l'ipotesi atomico-molecolare con
la scoperta delle leggi degli equivalenti, delle proporzioni costanti, delle proporzioni
multiple.

In questo ambiente di fervida operosità per la chimica quantitativa, portò un


geniale contributo al meccanismo di scissioni chimiche osservate al passaggio della
corrente Christian Grotthus (1785-1822) che nel 1805 pubblica una memoria, nella quale
assimila la pila a colonna di Volta a un magnete elettrico e in conseguenza introduce i
termini polo positivo e polo negativo per indicare i due capi della pila. Egli estende
l'analogia alle molecole elementari dell'acqua, cioé agli atomi d'idrogeno e d'ossigeno
uniti in ogni particella d'acqua; al passaggio della corrente avviene il distacco degli
atomi e forse per effetto di frizione tra le due parti, l'idrogeno acquista l'elettricità
positiva e l'ossigeno la negativa, onde, per una fila di molecole tra i poli, l'atomo O della
molecola OH è attratto verso il polo positivo e vi cede la sua carica, mentre l'atomo H,
con un meccanismo che Grotthus non indica, si ricombina con l'ossigeno O’ della
molecola successiva, il cui idrogeno H' si ricombina con l'ossigeno della molecola
successiva, e così di seguito. Una cosa analoga avviene per l'idrogeno delle molecole che
si trovano vicine al polo negativo. Così, con questo gioco di successive scissioni,
elettrizzazioni e ricombinazioni, si spiega, secondo Grotthus, il fatto che l'idrogeno si
sviluppi sempre a un'estremità e l'ossigeno all'altra. La teoria di Grotthus, nonostante la
primitività, la sua oscurità in qualche punto e qualche errore tecnico, durò per oltre
mezzo secolo, con perfezionamenti successivi, tra i quali fu fondamentale la teoria
dualistica enunciata completamente nel 1814 dal chimico svedese Jakob Berzelius (1779-
1848): tutti i composti chimici sono costituiti da due parti oppostamente elettrizzate. La
teoria di Grotthus, integrata dall'ipotesi di Berzelius, rappresenta un caposaldo
dell'evoluzione del pensiero scientifico, perché preparò il terreno alle teorie ioniche.
Tra gli effetti termici prodotti dalla corrente della pila, il più vistoso senza dubbio
fu l'arco tra conduttori di carbone. Davy sperimentò subito l’altissima temperatura
dell’arco, che fondeva il platino. Se l' esperimento dell'arco era spettacolare, altri
fenomeni termici parvero capricciosi; per esempio, due fili di platino di eguale
lunghezza e di differente diametro, messi in serie in un circuito, si portava all'ignizione
soltanto il filo più sottile, mentre posti in parallelo si portava all'ignizione soltanto il filo
più grosso; Davy riscaldando con una lampada una parte di un circuito portato tutto al
calor rosso, diminuiva la temperatura di un'altra parte e raffreddandola con ghiaccio
457! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

l'aumentava. Fino al 1841 tutti i tentativi di spiegare queste e molte altre capricciose
esperienze andarono falliti; ma si rinsaldò sempre più la convinzione che il
riscaldamento dei conduttori fosse legato alla resistenza che essi opponevano al
passaggio della corrente, corrispondendo a maggior resistenza maggiore sviluppo di
calore. Davy, dagli accennati suoi esperimenti, andò più oltre, affermando che: “il
potere conduttore dei metalli varia con la temperatura ed è più basso quasi nello stesso
rapporto in cui la temperatura è più alta”. Una prima eccezione alla legge fu trovata
nel 1833 da Faraday, che, sperimentando sul solfuro d'argento, constatava che il suo
potere conduttore aumenta con la temperatura.

Che potesse esistere un'intima relazione tra elettricità e magnetismo fu sospettato


fin dai primi sperimentatori, colpiti dall'analogia dei fenomeni di attrazione e
repulsione elettrostatica e magnetostatica. Raggiunta con la pila di Volta la possibilità di
ottenere una corrente elettrica di lunga durata, i tentativi di scoprire i legami tra
fenomeni elettrici e fenomeni magnetici s'intensificarono e si moltiplicarono. Eppure,
nonostante questa ricerca febbrile, la scoperta si fece attendere vent'anni. Le ragioni del
ritardo vanno ricercate nelle idee scientifiche allora dominanti; precisamente nel fatto
che si concepivano soltanto forze di tipo newtoniano, cioè forze che si esercitano tra
particelle materiali, lungo la retta che le congiunge, per cui a partire da quella analogia
tra legge di Coulomb e legge di Newton erano state elaborate delle teorie raffinate sui
fenomeni elettrostatici e magnetostatici, sorrette da ipotesi sui fluidi elettrici e magnetici
e dall'idea complessiva che la meccanica fosse un sicuro fondamento concettuale. Sicché
gli sperimentatori tentavano di rivelare forze di questo tipo, montando dispositivi coi
quali si ripromettevano di scoprire una presunta attrazione o repulsione tra un polo
magnetico e una corrente elettrica (più generalmente tra il fluido galvanico e il fluido
magnetico); oppure tentavano di magnetizzare un ago d'acciaio lanciandovi una
corrente.
Nel 1820, tuttavia, il quadro delle indagini sui fenomeni elettrici e magnetici subì
una scossa di notevoli proporzioni, a seguito della pubblicazione di un breve scritto in
latino intitolato Experimenta circa effectum conflictus electrici in acum magneticam.
L'autore dello scritto era Hans Christian Oersted (1777-1851), un fisico danese il quale
aveva osservato che una corrente elettrica circolante lungo un filo conduttore era in
grado di far deviare un ago magnetico fino a formare un angolo retto con la direzione
del flusso elettrico, e che la deviazione era del tutto anomala. Essa infatti appariva
solamente quando la corrente circolava, e si manifestava in modo tale da far escludere
che la forza responsabile fosse diretta lungo la retta che congiungeva ago e filo. In tal
modo venivano violati dalla natura stessa due presupposti basilari delle teorie fisiche
allora disponibili: la forza che faceva deviare l'ago si manifestava infatti solo nel caso
che la corrente circolasse e non era immediatamente riconducibile a effetti dovuti a
cariche elettriche statiche, mentre la deviazione sembrava coinvolgere non tanto
un'interazione lungo rette quanto un’interazione lungo curve. L'interesse e lo stupore
degli scienziati furono grandi, non tanto per la soluzione di un problema lungamente
ricercata, quanto perché si vide subito che il nuovo esperimento rivelava una forza non
di tipo newtoniano. Si intuì anche un fatto grave, del quale, peraltro, si ebbe piena
coscienza col volger degli anni: questo esperimento di Oersted rappresentava la prima
lacerazione alla costruzione newtoniana del mondo.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 458!

Descritto l'esperimento, Oersted osserva che la declinazione dell'ago diminuisce


con l'aumentare della sua
distanza dal conduttore
parallelo, non muta col mutare
del mezzo interposto, s'inverte
con l'inversione della corrente.
Ciò che sembra veramente
oscura nella memoria di
Oersted è la spiegazione che
egli tenta di dare dei fenomeni
osservati, dovuti, secondo lui, a
due moti elicoidali in senso inverso attorno al conduttore di “materia elettrica”,
rispettivamente positiva e negativa, e definisce il conflitto elettrico, cioè la corrente, che
dà il titolo alla memoria, come “l'effetto che ha sede nel conduttore e nello spazio
circostante”. Questo è un concetto troppo nebuloso per essere avvicinato alle idee di
Faraday, come quella di campo che esamineremo in seguito.
Quando Oersted morì, la sua fama era giustamente assicurata in quanto egli
aveva saputo porre la prima pietra nel cammino della scienza verso l'esplorazione dei
fenomeni elettromagnetici; infatti, con il suo esperimento, oltre a porre dubbi sulla
possibilità di trovare spiegazioni soddisfacenti nell'ambito delle teorie note e affermate,
rendeva manifesta una fenomenologia che sino ad allora era stata negata. Si pensava
infatti che esistessero analogie tra elettricità e magnetismo, ma si era nello stesso tempo
convinti che i fenomeni elettrici e magnetici fossero tra loro indipendenti, mentre
l'esperimento di Oersted mostrava che questa indipendenza era illusoria. Vari scienziati
come Biot, Savart, e Laplace presero dunque in seria considerazione l'esperimento di
Oersted e produssero congetture e schemi di spiegazione tendenti a ricondurre l'effetto
osservabile all'interno dei quadri teorici tradizionali. Altri scienziati discussero invece
di vortici magnetici nell'etere, facendo a volte riferimento alla possibile rinascita di
nozioni fisiche tipiche della scienza di Cartesio.
Arago montò il suo ben noto dispositivo della corrente verticale che attraversa un
cartoncino orizzontale cosparso di limatura di ferro, senza però vedere le circonferenze
di limatura di ferro, forse perché non si poteva ancora vedere ciò che ancora non si
conosceva; infatti sarà Faraday con la teoria delle curve magnetiche o linee di forza, a
rendere visibili alla mente degli sperimentatori tali circonferenze di limatura di ferro.
Arago vide solamente, come indipendentemente vide Davy un mese dopo di lui, che il
conduttore: “si carica di limatura di ferro come farebbe un magnete” onde dedusse che
“esso sviluppa il magnetismo nel ferro che non è stato soggetto a una preventiva
magnetizzazione”.

Sempre nello stesso anno 1820 Biot lesse due memorie in cui comunicava i
risultati di una ricerca sperimentale da lui condotta insieme con Felix Savart (1791-
1841). Biot si proponeva di scoprire la legge che regola l'intensità della forza
elettromagnetica alle diverse distanze, qualitativamente già enunciata da Oersted. Per
raggiungere lo scopo, Biot pensò di servirsi del metodo delle oscillazioni, già usato da
Coulomb. Montò perciò un dispositivo costituito da un grosso conduttore verticale,
perpendicolare all'asse di un ago magnetico di declinazione: lanciando nel conduttore
una corrente, l'ago si pone in oscillazione con un periodo che dipende dalla forza
elettromagnetica esercitata sui poli alle varie distanze della corrente dal centro dell'ago.
459! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Dalle loro misure Biot e Savart dedussero che la forza elettromagnetica è normale al
piano formato dal filo e dalla normale a esso condotta dal polo magnetico ed è
inversamente proporzionale alla distanza del polo dal filo. Nell'enunciato non si fa
cenno all'intensità della corrente, per la quale non c'era ancora possibilità tecnica di
confronto. Nella formulazione moderna, la legge diventa:

LEGGE DI BIOT-SAVART
Il modulo B dell'induzione magnetica generata da un filo rettilineo
molto lungo percorso da una corrente di intensità i in un punto a
distanza r dal filo è direttamente proporzionale all'intensità di
corrente e inversamente proporzionale alla distanza:

µ0 i
B=
2π r

L'esperimento di Arago, interpretato da molti fisici del tempo come effetto della
magnetizzazione di un filo percorso da corrente, fu intuito nella sua essenza da
Ampère, il quale subito predisse, e poco dopo sperimentalmente provò, che una sbarra
d'acciaio introdotta in un'elica percorsa da corrente si magnetizza permanentemente: si
era trovato così un nuovo metodo di magnetizzazione, enormemente più efficace e
pronto e comodo degli antichi. Ma soprattutto s'era dato l'avvio alla costruzione di un
semplice apparecchietto prezioso, l'elettrocalamita, costruita per la prima volta nel 1825
dall'americano William Sturgeon (I783-1850).
Alla prima memoria di Oersted ne seguì una seconda, che ebbe scarsa diffusione.
In essa Oersted dimostrava la reciprocità del fenomeno elettromagnetico da lui
scoperto. Egli sospendeva un piccolo elemento di pila a un filo, chiudeva il circuito e ne
otteneva la rotazione avvicinandovi un magnete; lo stesso esperimento fu eseguito da
Ampère a cui comunemente si attribuisce. E, più semplicemente, Davy dimostrò
l'azione di un magnete su una corrente mobile avvicinando il polo di una calamita a un
arco elettrico. Sturgeon, costruita la sua elettrocalamita, modificò l'esperimento di Davy
in cui l'arco ruota continuamente in campo magnetico.

L'avvio alla soluzione del problema sollevato da Oersted fu dato dal matematico
francese André-Marie Ampère (1775-1836) il 18 settembre 1820, qualche giorno dopo
essere venuto a conoscenza dell’esperimento di Oersted, annunciando all'Academie des
sciences di Parigi la scoperta sperimentale delle azioni ponderomotrici tra correnti, che
egli chiamò azioni elettrodinamiche, un insieme di “attrazioni e repulsioni
completamente diverse da quelle ordinarie”. Ampére, nel descrivere le osservazioni che
costituivano l'argomento principale della sua scoperta, sosteneva che questi nuovi
fenomeni erano fatti, dati da esperienze facilmente ripetibili. Ma, come spesso accade
nelle vicende scientifiche, i primi passi verso la soluzione di un problema dato sono
anche i primi passi verso la scoperta di problemi insospettati. Le indagini di Ampére
sfociarono infatti nella costruzione di una nuova teoria fisica, l'elettrodinamica, e, nello
stesso tempo, fecero apparire nuovi quesiti sulla natura dei fenomeni elettromagnetici e
sui rapporti tra elettrodinamica e teorie fisiche esistenti.
Subito dopo la scoperta di Oersted, si presentò come naturale ai fisici questa
interpretazione: al passaggio di una corrente, un conduttore diventa un magnete e Biot,
accettata questa concezione, interpretava le azioni elettrodinamiche come dovute
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 45:!

all’azione mutua dei magnetini elementari suscitati dalla corrente in ogni conduttore; in
sostanza, ogni conduttore, percorso
da corrente, diventa un tubo
magnetico. Ma Ampère propose
un’altra interpretazione, che
costituisce la parte più geniale della
sua opera: non il conduttore
percorso da corrente diventa un
magnete, ma il magnete è un
complesso di correnti. Infatti, diceva Ampère, se supponiamo che in un magnete esista
un complesso di correnti circolari, giacenti in piani esattamente perpendicolari all’asse,
tutte nello stesso senso, una corrente parallela all’asse del magnete si viene a trovare ad
angolo con le predette correnti e ne sorgono azioni elettrodinamiche che tendono a
rendere parallele e nello stesso senso le correnti. Se la corrente rettilinea è fissa e il
magnete mobile, questo devierà; se il magnete è fisso e la corrente mobile, questa si
muoverà. È facile rendersi conto che l’ipotesi di Ampère, nel 1820, era eccezionalmente
innovatrice, onde si capisce il riserbo con cui fu accolta. Non v'erano dubbi che si
trattasse di una ipotesi e non di un fatto osservabile. Ma Ampere sosteneva che “dal
semplice accostamento dei fatti, non mi sembra possibile dubitare che non esistano
realmente tali correnti attorno all'asse dei magneti”. Se si accettava una simile
impostazione, come lo stesso Ampere faceva notare, “si giunge al risultato inatteso che
i fenomeni del magnete sono unicamente prodotti dall’elettricità”. In conclusione
Ampere scriveva che tutti i fenomeni collegati all'interazione tra correnti e magneti
rientravano completamente nelle leggi di attrazione e di repulsione tra correnti, a patto
che si accettasse l'ipotesi sulla natura elettrica del magnetismo.
Pertanto, se una corrente genera un campo magnetico e un campo magnetico
produce una forza su una corrente, allora due correnti devono necessariamente
interagire con una forza. Con i suoi esperimenti elettrodinamici Ampère dimostrò che:

L'intensità F della forza d'interazione è direttamente


proporzionale a ciascuna delle due intensità di corrente e alla
lunghezza dei conduttori, mentre è inversamente proporzionale
alla loro distanza:

i1 ⋅ i2
F =k⋅ ⋅L
d
La forza è attrattiva o repulsiva a seconda che i versi delle
correnti sono concordi o discordi.

Infine, Ampère giunge al famoso principio di equivalenza, come degna


conclusione dello stretto legame tra elettricità e magnetismo:

PRINCIPIO DI EQUIVALENZA
Un circuito percorso da corrente si comporta come un magnete.
46<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Secondo Ampère, il merito della sua teoria è quello di aver ricondotto sotto una
causa unica, l'azione tra due elementi di corrente, tre ordini di fenomeni
apparentemente diversi: le azioni magnetostatiche, le elettromagnetiche e le
elettrodinamiche; ma soprattutto, con la sua formula sull’azione elettrodinamica delle
correnti, di avere bandito dalla fisica le forze rivolutive, riconducendo tutte le forze
della natura ad azioni tra particelle, lungo la retta che le congiunge. Ampere era
consapevole dello scetticismo che circondava l'ipotesi sul magnetismo e che derivava da
una lunga consuetudine a ragionare in termini di fluidi magnetici e da una altrettanto
abitudinaria tendenza a interpretare la legge di Coulomb come una prova
dell'impossibilità di interazioni fra fluidi elettrici e fluidi magnetici. D'altra parte
l'elettrodinamica era effettivamente in grado di ordinare un numero elevatissimo di
fenomeni entro uno schema matematico soddisfacente. L'ortodossia newtoniana di
Ampere aveva probabilmente la funzione di dirottare da quest’ultima le critiche che
potevano esserle rivolte in quanto essa non poteva fare a meno dell'ipotesi sulla natura
elettrica dei fenomeni magnetici.
Tutti i precedenti risultati sono raccolti nella memoria Teoria matematica dei
fenomeni elettrodinamici unicamente dedotta dall'esperienza (1825). Con questa grande
memoria, giudicata da Maxwell “perfetta nella forma e incensurabile nella precisione”,
Ampère rappezzava la concezione meccanicistica, fortemente scossa dall'esperimento di
Oersted. Ma proprio l'opera di Maxwell avrebbe fatto scorgere che si trattava di un
semplice rammendo. A ogni modo, con i lavori di Ampere del periodo 1820-25 si
aprivano per le scienze fisiche delle sorprendenti direttrici di sviluppo, in quanto quei
lavori mostravano il manifestarsi di una complessa fenomenologia elettromagnetica.

Che cos’è un conduttore? È un elemento puramente passivo del circuito elettrico


risposero i primi sperimentatori dei fenomeni galvanici; occuparsene non ha senso
perché soltanto la sorgente è l'elemento attivo. Questa mentalità spiega il disinteresse
degli scienziati, protrattosi almeno sino al 1840, nei riguardi dei pochi studi
sull'argomento. Trascorsero oltre vent'anni dall'invenzione della pila, prima che si
riprendessero, pur in un clima di disinteresse, le ricerche settecentesche sulla resistenza
elettrica; solamente i bisogni della telegrafia spinsero più tardi a un serio impegno; non
è un caso che animatore degli studi sulla resistenza elettrica (e in generale sulle misure
elettriche) sia stato un tecnico, Wheatstone. Tra i primi a riprendere le ricerche fu Davy,
che nel 1821 sperimentò sulla conducibilità relativa di alcuni metalli, trovando l'argento
il miglior conduttore. Lo seguì nel 1825 Antoine-Cesar Becquerel (1788-1878) che
impiegò il galvanometro nel quale ciascun avvolgimento era inserito in derivazione ai
capi di ciascuno dei due conduttori in esame, a loro volta derivati ai poli della stessa
pila: i due conduttori hanno eguale o diversa resistenza a seconda che, al passaggio
della corrente, l'ago del galvanometro non devia o devia. Sperimentando con fili diversi
per diametro e per lunghezza, Becquerel giunse alla conclusione che due fili di egual
natura hanno eguale conducibilità quando le lunghezze sono nel rapporto delle sezioni
dei fili, enunciato coincidente col moderno.
Della resistenza interna della pila si occupò Stefano Marianini (1790-1866).
Gliene dette occasione lo strano risultato a cui giunse nello studio della tensione delle
batterie di pile: egli osservò che aumentando il numero di elementi di una pila a
colonna non si accresce sensibilmente l'effetto elettromagnetico sull'ago, onde pensò
subito che ogni coppia voltaica opponga sempre un ostacolo al passaggio della corrente.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 46;!

Georg Simon Ohm (1789-1854), ispirato dalla teoria analitica del calore di Fourier,
ebbe l’idea che il meccanismo del flusso di calore si potesse assimilare al flusso di
elettricità in un conduttore. E come nella teoria di Fourier il flusso di calore tra due
corpi o tra due punti dello stesso corpo si attribuisce alla loro differenza di temperatura,
così Ohm attribuisce alla differenza di forza elettroscopica tra due punti di un
conduttore la causa del flusso di elettricità dall'uno all'altro. Vale la pena aggiungere
come prova della lentezza della diffusione dei nuovi concetti, che Ohm definisce la
forza elettroscopica come la densità dell'elettricità nel punto considerato e fu solamente
nel 1850 che Kirchhoff, osservato che questo punto di vista era in contraddizione con i
principi dell'elettrostatica, interpretò la forza elettroscopica come la funzione potenziale
della quantità totale di elettricità libera. Guidato dall'analogia col flusso di calore, Ohm
iniziò i suoi studi sperimentali con la determinazione dei valori relativi delle
conducibilità dei diversi conduttori.
Negli esperimenti del tempo parecchie erano le cause d'errore (impurità dei
metalli, calibrazione dei fili, loro esatta misura ccc.), tra le quali era massima la
polarizzazione delle pile, cioè il fatto che, non conoscendosi ancora pile costanti, il
tempo necessario per le misure ne alterava la forza elettromotrice. Furono queste cause
d'errore a condurre Ohm a riassumere in una legge logaritmica i risultati sperimentali
da lui ottenuti nello studio della variazione dell'intensità di corrente col variare della
resistenza inserita tra due punti del circuito. Dopo la pubblicazione della prima
memoria, Ohm cominciò ad utilizzare la pila termoelettrica, recentemente introdotta da
Seebeck, e montò un dispositivo con tale pila e nel cui circuito esterno inseriva
successivamente otto fili di rame di eguale diametro e di varia lunghezza. Misurava
l'intensità di corrente con una specie di bilancia di torsione costituita da un ago
magnetico sospeso con un filo metallico appiattito: quando la corrente, parallela all'ago,
lo deviava, Ohm torceva il filo di sospensione sino a riportare l'ago nella posizione di
riposo e riteneva l'intensità di corrente proporzionale all'angolo di torsione del filo.
Ohm concluse che i risultati sperimentali: “possono essere rappresentati molto
soddisfacentemente dall'equazione X=a/b+x dove X indica l'intensità dell'effetto
magnetico del conduttore la cui lunghezza è x, a e b essendo costanti dipendenti
rispettivamente dalla forza eccitatrice e dalla resistenza delle rimanenti parti del
circuito”. Nel 1827 Ohm pubblicò il suo capolavoro Die galvanische Kette, mathematisch
bearbeitet. La teoria, ispirata, come abbiamo accennato, alla teoria analitica del calore di
Fourier, introduce i concetti e le definizioni di forza elettromotrice o forza
elettroscopica, di conducibilità elettrica, di caduta di forza elettroscopica o caduta di
potenziale, secondo la nostra terminologia, d'intensità di corrente. In termini moderni le
leggi di Ohm vengono così enunciate:

PRIMA LEGGE DI OHM SECONDA LEGGE DI OHM


A temperatura costante, la differenza di La resistenza di un filo conduttore è
potenziale ∆V applicata a due estremità di un direttamente proporzionale alla lunghezza L e
conduttore metallico è direttamente inversamente proporzionale alla sezione S:
proporzionale all'intensità i della corrente che
L
percorre il conduttore: R =ρ
S
∆V = R ⋅ i
in cui ρ è una costante di proporzionalità, chiamata
resistività, dipendente solo dalla natura fisica del
Il coefficiente di proporzionalità R è chiamato resistenza
conduttore.
elettrica del conduttore.
46=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Ohm provò che la prima legge è valida anche per i conduttori liquidi e nel 1877
Edmund Hoppe (1854-1928) la estenderà a tutti i conduttori.
Già nel 1825 Marianini aveva dimostrato che nei circuiti derivati la corrente
elettrica si suddivide in tutti i conduttori, qualunque ne sia la natura, contro l’idea di
Volta, il quale aveva ritenuto che se un ramo derivato è metallico e gli altri liquidi tutta
la corrente sarebbe passata per il conduttore metallico. L'osservazione di Marianini fu
fatta propria da Claude Pouillet (1790-1868) che nel 1837, ancora ignorando la legge di
Ohm, dimostrò che la conducibilità del circuito equivalente a due circuiti derivati è
eguale alla somma delle conducibilità dei due circuiti. Con questo lavoro di Pouillet
s'inizia lo studio dei circuiti derivati, che Gustav Robert Kirchhoff (1824-1887)
generalizza nel 1845 con suoi famosi principi:

1° PRINCIPIO DI KIRCHHOFF 2° PRINCIPIO DI KIRCHHOFF


La somma delle correnti entranti in un nodo è La somma algebrica delle f.e.m. (V) applicate
uguale alla somma delle correnti uscenti: in un circuito è uguale alla somma delle
cadute di tensione (VR = R·I) provocate dal

IEntranti = IUscenti ∑ passaggio della corrente nelle resistenze
presenti nel circuito:

∑ V = ∑R ⋅ I
Il più forte impulso alle misure elettriche, in particolare alle misure di resistenza,
venne dalle esigenze della tecnica, come l'introduzione del telegrafo. Nel 1840 Charles
Wheatstone (1802–1875) trovò il metodo di eseguire misure di resistenza indipendenti
dalla costanza della forza elettromotrice impiegata (metodo del ponte di Wheatstone).

Come abbiamo già visto, Volta aveva scoperto un fenomeno secondo il quale
mettendo a contatto due metalli diversi, per esempio rame e zinco, alla stessa
temperatura si stabilisce fra di essi una differenza di potenziale. Thomas Seebeck (1770-
1831), forse ignaro di tale esperimento, nel 1821 annunciava la scoperta del seguente
fenomeno noto come effetto Seebeck: se un'estremità di una sbarretta di bismuto,
saldata a entrambe le estremità con i capi di una spirale di rame, è riscaldata con una
lampada e l'altra estremità tenuta fredda, l'ago di declinazione entro la spirale ruota,
indicando il passaggio d'una corrente che nella saldatura non scaldata va dal rame al
bismuto.
Nel primo quarantennio dall'invenzione della pila non erano mancati i tentativi,
alcuni sfortunati e altri incompleti, per scoprire a quale legge obbedisse la produzione
di calore da parte della corrente elettrica. Gli insuccessi si possono spiegare con la scarsa
chiarezza dei concetti d'intensità di corrente e di resistenza elettrica e la conseguente
mancanza di ben definite unità di misura e di appropriati strumenti di misura.
L'ignoranza della legge di Ohm, poi, portava gli sperimentatori a inserire nel
circuito successivamente fili di resistenza diversa, credendo di variare così solo la
resistenza e non l'intensità della corrente. Nel 1841 Joule iniziò il lavoro sperimentale
sul calore prodotto dalla corrente. In tre successivi esperimenti in ciascuno dei quali
erano disposte in serie due resistenze immerse in due calorimetri eguali, Joule ottenne
che, per la stessa intensità di corrente, le quantità di calore prodotto erano proporzionali
alle rispettive resistenze dei conduttori. Questo primo risultato lo condusse a formulare
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 464!

un'ipotesi sull'effetto dell'intensità di corrente, attraverso il seguente, non molto chiaro,


ragionamento: “Considerando la suddetta legge, pensai che l'effetto prodotto
dall’aumento dell'intensità di corrente elettrica dovesse variare come il quadrato
dell'intensità di corrente; perché è evidente che in questo caso la resistenza deve
variare in un doppio rapporto, provenendo dall’aumento della quantità di elettricità
passata in un dato tempo e anche dall'aumento di velocità della stessa”.
Probabilmente Joule vuole dire che il calore prodotto dalla corrente è dovuto agli
urti delle particelle del fluido elettrico contro le particelle del conduttore. Ora, se
aumenta l'intensità della corrente, aumenta la velocità delle particelle di fluido elettrico
e perciò gli urti saranno più vigorosi e saranno più numerosi per l'aumentata quantità
di fluido elettrico che passa, in un dato tempo, attraverso una sezione del conduttore.
Comunque sia, Joule sottopose al controllo sperimentale la sua ipotesi e trovò che la
quantità di calore misurata dal calorimetro in cui era immersa la spira di rame differiva
così poco dalla calcolata, da poter senz'altro ritenere la legge pienamente verificata,
almeno nei conduttori metallici:

LEGGE DI JOULE
Un conduttore ohmico di resistenza R, percorso per un tempo ∆t da una corrente di intensità
costante I, dissipa per effetto Joule un’energia elettrica pari a:

Q=RI2∆t

Ripetuti gli esperimenti con numerosi tipi di pila, Joule concluse che la legge
trovata per i metalli vale anche per la resistenza interna della pila, e con eguale acume e
accuratezza sperimentale, estese la legge agli elettroliti.

Numerosi scienziati verificarono la legge di Joule traendone le prime


conseguenze. Per esempio Domenico Botto (1791-1865) e Lenz, in maniera
indipendente, stabilirono che la massima quantità di calore che un generatore
qualunque può fornire al circuito esterno si ha quando la resistenza di questo è uguale a
quella interna del generatore.

8.11 Faraday e l’elettromagnetismo

Le scoperte di Ampère, come quelle di altri studiosi di elettricità del suo tempo
quali Poisson, erano formulate in un linguaggio matematico perfetto che rappresentava
lo sviluppo finale della fisica newtoniana trapiantata in Francia. Anche se Newton
aveva espresso dubbi sul concetto di azione a distanza, la maggior parte della fisica
successiva (come pure quella di Newton) si basava su quell'idea. L'attribuire un ruolo
fondamentale al mezzo attraverso il quale le forze elettriche si propagano ha
rivoluzionato la scienza elettrica facendole compiere giganteschi progressi. Essi sono
dovuti in larga misura a Faraday e a Maxwell, che hanno portato lo studio
dell'elettricità classica al suo punto più alto.
Anche se non ci addentreremo nelle applicazioni pratiche, saremmo ciechi se non
rilevassimo come l'elettricità ha modificato il nostro sistema di vita e ha generato un
vasto campo di applicazioni tecniche. Per molte di queste - i motori elettrici, i generatori
465! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

e i trasformatori - è sufficiente l'elettricità, secondo lo schema dell'azione a distanza.


Tuttavia le onde elettriche e le comunicazioni radio richiedono, per la loro spiegazione,
la conoscenza della teoria elettromagnetica di Maxwell.

Trattando del concetto di campo dobbiamo partire con la presentazione di


Michael Faraday (1791-1867). Alla fine della sua carriera, intorno al 1860, gli appunti di
laboratorio di Faraday contenevano più di sedicimila annotazioni. La molteplicità degli
argomenti studiati dal grande 'filosofo naturale', come egli si definiva, è la seguente, in
ordine cronologico: Ricerca sulle leghe dell'acciaio (1818); Composti del cloro e del carbonio
(1820); Rotazioni elettromagnetiche (1821); Liquefazione dei gas (1823, 1845); Vetri ottici
(1825); Scoperta del benzene (1825); Induzione elettromagnetica (1831); Identità dell'elettricità
proveniente da varie fonti (1832); Decomposizione elettrochimica (1832); Elettrostatica e
dielettrici (1835); Scariche nei gas (1835); Luce, elettricità e magnetismo (1845); Diamagnetismo
(1845); Considerazioni sulle vibrazioni dei raggi (1846); Gravità ed elettricità (1849); Tempo e
magnetismo (1857).
L'elettricità si manifesta in forme assai diverse e ha una fenomenologia
complicata: una corrente elettrica può essere per esempio generata dalle tradizionali
macchine elettrostatiche, dalla pila di Volta o dall'induzione elettromagnetica. Quali
sono i rapporti esistenti tra le correnti elettriche generate in ciascuno di questi modi?
Sono esse identiche? Il problema era serio ed era stato posto da tempo. Le prove
pesavano a favore della tesi secondo cui esisteva un unico tipo di corrente elettrica, ma
non c'erano studi inequivocabili e analisi sistematiche. I successivi sforzi di Faraday si
volsero a dare una risposta definitiva al problema, ed escogitò metodi per misurare
quella che noi oggi chiamiamo quantità di elettricità. La conclusione del lavoro fu la
seguente: “La potenza chimica, come la forza magnetica, è direttamente proporzionale
alla quantità assoluta di elettricità che passa”. Ulteriori studi sull'elettrolisi portarono
alla scoperta di quelle che oggi chiamiamo le leggi di Faraday:

LEGGI DI FARADAY SULL' ELETTROLISI


Prima legge: la massa di sostanza che si deposita a un elettrodo è direttamente
proporzionale alla quantità di carica elettrica che passa nel voltametro.
Seconda legge: in più voltametri, contenenti elettroliti diversi, e collegati in serie in modo
che siano attraversati dalla stessa quantità di carica elettrica, le masse delle sostanze che si
depositano agli elettrodi sono direttamente proporzionali agli equivalenti chimici.

Questo fatto praticamente forzava la conclusione che tutti i portatori di elettricità


hanno la stessa carica e masse proporzionali al peso atomico, o, più precisamente, al
peso atomico diviso per la valenza. Il passo dalla natura atomica della materia alla
natura atomica dell'elettricità e all'elettrone era breve, ma Faraday non lo fece. Egli
confermò con una famosa dimostrazione (fatta servendosi di un grande cubo
conduttore) che l'elettricità si trovava tutta sulla superficie dei conduttori, e che una
carica conferita al cubo non aveva alcuna influenza al suo interno. Questo è un
esperimento che dimostra la legge dell'inverso del quadrato della distanza.
Faraday fu spinto dall'idea di linea di forza a meditare sullo stato degli isolanti
posti tra corpi carichi, e giunse alla conclusione che essi dovevano essere in una specie
di stato di tensione. Per verificarlo riempì lo spazio tra sfere conduttrici concentriche
con isolanti diversi. Scoprì quindi che i condensatori così formati avevano capacità
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 466!

diverse, benché fossero geometricamente identici, e attribuì pertanto all'isolante un


potere induttivo specifico. In questa scoperta era stato anticipato da Cavendish, ma
nessuno lo sapeva perché i manoscritti di Cavendish a quel tempo erano ancora ignoti.
Faraday spiegò qualitativamente il fenomeno introducendo il concetto di polarizzazione
di un dielettrico.
Il periodo più fecondo per Faraday va dal 1830 al 1839. In quegli anni fu il
principale creatore della moderna elettricità. Nel 1821 aveva analizzato l'azione scoperta
da Oersted, sottolineando il fatto che l'azione magnetica era perpendicolare alla
direzione della corrente che la produceva. Riuscì inoltre a costruire una specie di
motore elettrico che mostrava la rotazione di un filo metallico percorso da una corrente
elettrica in un campo magnetico costante, e fece vedere tale rotazione anche nel campo
magnetico terrestre. Negli scritti di Faraday si trovano alcuni termini che a uno studioso
moderno possono sembrare vaghi e imprecisi, come ad esempio i termini 'azione' e
'potere', ma quando li usava aveva idee piuttosto chiare, come quei concetti che lo
portano ad avvicinarsi di molto alla moderna idea di campo. In alcuni casi la sua
descrizione diventa molto precisa e le sue linee di forza, rese visibili con la disposizione
di limatura di ferro nei caso dei campi magnetici, sono perfette.
Faraday era convinto che il rapporto tra l'elettricità e il magnetismo doveva
essere esteso oltre i risultati di Oersted e che, se una corrente poteva produrre un campo
magnetico, anche un campo magnetico
doveva essere in grado di produrre una
corrente. Egli non era certo il solo fisico di
questa opinione, Ampère e Arago, tra gli
altri, ebbero certamente idee analoghe.
L'idea di un nesso tra corrente elettrica,
moto e campo magnetico era quindi
nell'aria. Faraday la meditò per circa dieci
anni e fece anche numerosi esperimenti in proposito, tutti però negativi. Nel 1831
riprese i tentativi di vedere se un campo magnetico concatenato con un circuito
conduttore chiuso poteva produrre una corrente. I risultati furono negativi nel caso
statico. Era ormai la quinta volta che egli tentava esperimenti volti a produrre una
corrente elettrica per azione di un campo magnetico. Nell'estate costruì un anello di
ferro attorno al quale si avvolgevano due spire di rame. Egli allora osservò che se
mandava della corrente in una spira e collegava l'altra a un galvanometro, l'apparecchio
segnalava una corrente ma non nello stato stazionario, bensì solo quando si iniziava o si
interrompeva la corrente nell'altra spira. Questo era il nodo da sciogliere. Alla fine di
settembre era infatti già giunto alla comprensione e alla dimostrazione sperimentale
dell'induzione elettromagnetica, e aveva afferrato il punto fondamentale secondo cui,
per generare una corrente, un conduttore deve tagliare quelle linee di forza magnetica
che erano una delle sue concezioni predilette.

LEGGE DI FARADAY-NEUMANN
La f.e.m. indotta f che si genera, in media, in un circuito conduttore ∆Φ
f=−
durante un intervallo di tempo ∆t è: ∆t
dove ∆Φ è la variazione del flusso del campo magnetico concatenato con il circuito che si verifica nell'intervallo di
tempo considerato.
467! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Il segno meno che figura nell'espressione della legge di Faraday-Neumann indica


la polarità della f.e.m. indotta e quindi il verso della corrente, in accordo con quanto
stabilito da una legge scoperta dallo scienziato russo Emilij Lenz (1804-1865) nel 1834:

LEGGE DI LENZ
Il verso nel quale la corrente indotta scorre in un circuito è tale da opporsi, tramite il flusso
del campo magnetico da essa generato, alla variazione di flusso che ha dato origine alla
corrente.

Una volta capita la natura dell'induzione elettromagnetica Faraday potè spiegare


le osservazioni fatte da Arago e anche inventare un generatore elettromagnetico di
correnti, una primitiva dinamo. Nel corso di alcuni mesi di lavoro, verso la fine del
1831, egli fece enormi progressi e, oltre alle fondamentali scoperte che fecero epoca,
pose anche le basi, almeno concettuali, della futura industria elettrica. Si narra che
quando un uomo politico gli chiese a che cosa servissero quelle scoperte, egli abbia
risposto: “Al momento attuale non lo so, ma un giorno sarete in grado di tassarle “.
Faraday era profondamente interessato alla spiegazione teorica delle sue
scoperte, e non aveva molta simpatia per l'azione a distanza. Anche Newton aveva
avuto dubbi in proposito; tuttavia, nella sua successiva evoluzione, la fisica matematica
newtoniana dimenticò questi problemi e la legge dell'inverso del quadrato della
distanza divenne il concetto dominante, mettendo in seconda linea la funzione del
mezzo. Faraday non era tecnicamente un matematico e quindi era meno colpito degli
altri dai risultati ottenuti con i formalismi della teoria newtoniana. D'altra parte egli
aveva visto con i suoi occhi le linee di forza così come si formano mettendo limatura di
ferro vicino a un magnete, e aveva anche osservato che esse potevano essere curve, il
che costituiva per lui una prova del fatto che l'azione non si propagava sempre in linea
retta. Quando il suo disco di rame ruotava tra i poli di un magnete a ferro di cavallo,
egli diceva che: “il disco stava tagliando delle curve magnetiche. Per curve magnetiche
io intendo linee di forza magnetica che potrebbero venir evidenziate con della limatura
di ferro”. In occasione della sua grande scoperta dell'induzione elettromagnetica, egli si
era poi reso conto che il taglio delle linee di forza da parte del conduttore era il punto
fondamentale. Non c'è da meravigliarsi, quindi, che queste linee di forza fossero
diventate la guida dei suoi pensieri.
Il fatto che le linee di forza potessero esser rese visibili mostrò a Faraday, come
egli credeva, che vi fosse una evidenza sperimentale della loro esistenza come invece
non ve ne era per l’etere. La successiva posizione di Faraday è del tutto peculiare: egli
rifiutò l’azione a distanza, rifiutò l’atomo, eppure sostenne una teoria sulla struttura
della materia tra le più astratte che siano mai state formulate. Secondo Faraday la
materia consisteva di centri di forza circondati da linee di forza. La vibrazione di queste
linee rendeva conto dell’elettricità, della luce, della gravità e del magnetismo, cioè di
tutti i fenomeni radianti, come egli richiamava. Il fatto che tutto lo spazio sia riempito
da linee di forza spiega perché il magnetismo o la gravità siano onnipresenti nello
spazio.
Che le forze elettriche e magnetiche fossero simili alla gravitazione nell’osservare
la legge dell’inverso del quadrato della distanza era stato dimostrato da Coulomb nel
1777. A questo punto, risultò ovvio da alcuni esperimenti che, seppure la gravità e le
forze elettromagnetiche agissero in modo simile sui corpi, esse lo facevano per vie
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 468!

diverse. Il campo gravitazionale non viene disturbato dall’interposizione di corpi,


mentre così non avviene per i campi elettrici e magnetici, che possono esserne
vistosamente alterati. Sotto questo aspetto, il meccanismo di propagazione
dell’elettricità e del magnetismo era più chiaro di quello della gravità. Queste differenze
nella propagazione non furono chiaramente riflesse nella prima teoria elettromagnetica,
la quale, non diversamente dalla teoria della gravitazione di Newton, non si fondava né
sulla natura dell’elettricità e del magnetismo né sul modo della loro trasmissione, se
non che essi erano dei fluidi.
La principale sfida a questo modo di vedere le cose venne quindi avanzata da
Faraday, le cui ipotesi riguardavano l’esistenza di un autentico campo, un mezzo
continuo che circonda il corpo agente e attraverso cui si trasmette l’azione di
quest’ultimo. Usando tali criteri d’indagine, Faraday aveva distinto tra gravità (non
propagata da alcun mezzo), radiazione (propagata ma indipendentemente da ogni
corpo ricevente) ed elettricità (anch’essa propagata, ma da linee di forza dipendenti sia
dalla sorgente sia dal ricevente). Questi concetti fanno di Faraday il fondatore
dell’odierna teoria del campo.
Una delle idee favorite da Faraday era che le varie forze della natura come
l'elettricità, il magnetismo, la luce, la gravità e forse anche altre, si influenzino l'una con
l'altra. Egli parlava anche di unità delle forze. Alcune di queste congetture possono
sembrare metafisiche, ma bisogna ricordare il fatto importantissimo che esse riuscivano
a guidarlo verso grandi scoperte. Nel 1845 decise di verificare l'influenza esercitata sulla
luce da vari agenti. La luce polarizzata, che ormai era ben conosciuta ed era già stata
capita nelle sue linee essenziali sin dai tempi di Fresnel, divenne uno degli argomenti
preferiti da Faraday. Egli cercò di vedere se poteva verificarsi un cambio di
polarizzazione facendo passare la luce attraverso un pezzo di vetro o di cristallo
soggetto a un campo elettrico.
I risultati furono negativi, anche se in seguito John Kerr (1824-1907), servendosi
di mezzi sperimentali piu raffinati, riuscì a trovare l'effetto che Faraday aveva invano
cercato. Tuttavia il 13 settembre 1845 Faraday conseguì finalmente un primo grande
successo. Egli fece passare la luce polarizzata linearmente attraverso un particolare tipo
di vetro pesante che egli stesso aveva preparato anni prima. Quando si eccitava un
campo magnetico che investiva il vetro con linee di forza parallele alla direzione di
propagazione della luce, il piano di polarizzazione di quest'ultima subiva una
rotazione. Dopo la scoperta Faraday fece immediatamente un certo numero di
esperimenti per controllare se l'effetto osservato era genuino e riuscì a coglierne
correttamente le caratteristiche essenziali.
La scoperta successiva riguardò il diamagnetismo. La maggior parte dei materiali
se disposti a forma di ago, si orientano perpendicolarmente alle linee di forza di un
campo magnetico. Essi vengono inoltre respinti sia dall'uno che dall'altro polo di un
magnete. Questo comportamento è provocato da forze assai deboli, molto inferiori a
quelle che agiscono sul ferro in un campo magnetico. Il fenomeno meritava studi
accurati e Faraday dedicò parecchi mesi all'argomento.
Nel 1846, in un breve saggio dal titolo Thoughs on ray vibration (Riflessioni sulla
vibrazione dei raggi), Faraday espone, anche se in modo non molto chiaro, alcuni
concetti sorprendenti e fondamentali, che sembrano una proposta alla teoria
elettromagnetica della luce. Questa affermazione può sembrare esagerata, ma essa è
corroborata dallo stesso Maxwell che, 18 anni dopo, nel formulare la teoria
469! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

elettromagnetica della luce, scriveva: “Aggiungasi che alcuni appunti di Faraday,


pubblicati solo di recente, mostrano come egli avesse effettivamente approfondito molto
la natura elettromagnetica della luce”. Se Faraday avesse sostenuto la tesi che la luce
consiste di un flusso di corpuscoli (l’opinione più diffusa nel settecento) è improbabile
che egli avrebbe mai provato a connettere la luce con l’elettricità e il magnetismo, e
gettate le basi per una teoria elettromagnetica della luce. Ma la teoria corpuscolare era
stata violentemente attaccata all’inizio dell’ottocento ed intorno al 1850 si era verificata
nell’ottica un’autentica rivoluzione.
Negli anni cinquanta Faraday si dedicò alla ricerca di una possibile interazione
tra gravità ed elettricità, ma i risultati furono negativi. Ancora una volta Faraday era nel
giusto, solo che i tempi non erano ancora maturi per questa scoperta. Dobbiamo
aspettare il genio di Einstein qualche decennio dopo. Nel 1862 egli fece il suo ultimo
esperimento, cercò di trovare l'influenza di un campo magnetico sulla luce emessa da
una sorgente in esso collocata. Il risultato fu negativo, perché gli strumenti di Faraday
non erano sufficientemente precisi per rivelare effetti molto piccoli. Trentaquattro anni
dopo il giovane Pieter Zeeman (1865-1943), ispirato direttamente da quanto aveva letto
sul tentativo di Faraday, ripetè l'esperimento con strumenti più raffinati e scoprì
l'effetto Zeeman, che costituisce una delle premesse della nuova fisica atomica.
Faraday fu riconosciuto, sia ai suoi tempi che successivamente, come uno dei più
grandi filosofi naturali. Quali erano le sue qualità straordinarie? Un'immaginazione
potente accompagnata da una straordinaria ingegnosità nello sperimentare; una
passione indomabile per il lavoro sorretta da un'adeguata resistenza fisica; uno spirito
critico che gli permetteva di distinguere rapidamente un effetto spurio da una vera
scoperta; e infine uno spirito di osservazione cui nulla sfuggiva. Aveva alcune idee
generali che lo guidavano, e compensò l'ignoranza della matematica formale con un
profondo intuito geometrico e spaziale, e con la capacità di concentrarsi a lungo su un
soggetto. Il modo di far fisica di Faraday era adatto a un tempo in cui vi era da scoprire
una fenomenologia del tutto nuova, mentre le basi teoriche erano quasi inesistenti.
L’idea che magneti e cariche possano produrre rispettivamente campi magnetici
ed elettrici costituisce un fondamentale progresso concettuale. Dall’epoca di Newton in
poi, il modo in cui le forze, come la gravità, potevano concretamente agire su oggetti
lontani aveva continuato a rappresentare un assoluto mistero. La cosiddetta “azione
istantanea a distanza” sembrava fisicamente inaccettabile. I campi di Faraday
risolvevano l'enigma, almeno in linea di principio. Se tutto lo spazio era permeato da
campi elettrici o magnetici, che circondavano rispettivamente ogni oggetto carico e ogni
magnete, allora un oggetto carico o un magnete, posto a notevole distanza dall'altro,
avrebbe potuto sperimentare una forza dovuta indirettamente a quella carica o a quel
lontano magnete, ma velocemente manifesta in virtù dell'interazione con il campo
magnetico o elettrico presente nelle sue immediate vicinanze. Non ci sarebbe stato più
bisogno di nessuna azione diretta a distanza. Faraday ne arguì che anche la gravità
potesse essere descritta in termini di linee di forza, evitando così di ricadere nell'enigma
newtoniano.
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 46:!

8.12 Maxwell e la teoria dei campi

Sicuramente spetta a Faraday il merito di avere ideato la nozione di “campo”,


come un continuum di forze espandentesi ovunque entro lo spazio (onde non avrebbe
più senso il concetto di spazio vuoto) e tali da determinare completamente i fenomeni
elettrici che ivi hanno luogo. Ma il grande fisico sperimentale non aveva una adeguata
preparazione matematica per compiere una trattazione rigorosa di questo concetto,
cosicchè la nozione di campo fu interpretata dalla maggior parte della comunità
scientifica come un comodo artificio per descrivere i fenomeni, la cui vera origine
andava in ogni caso ricercata nelle cariche elettriche che generano il campo. Affinché
quella tesi diventasse realmente convincente, ci sarebbe stato bisogno di un fisico il cui
talento di teorico equivalesse a quello di Faraday in quanto sperimentatore, e
fortunatamente un teorico del genere si era appena trasferito in
Inghilterra, proprio nel periodo in cui Faraday proponeva quelle nuove
idee, e si chiamava James Clerk Maxwell (1831–1879), grazie al quale il
concetto di campo di Faraday assunse una realtà tangibile ed una
formulazione matematica nel senso moderno della teoria dei campi:
“Procedendo nello studio degli scritti di Faraday osservai che il suo
metodo di considerare i fenomeni era un metodo matematico, benché
non fosse espresso con i soliti simboli. Vidi pure che questo metodo poteva essere esposto
matematicamente”.
L’elaborazione della teoria dei campi e la sua traduzione in un preciso sistema di
equazioni differenziali (le famose equazioni di Maxwell) costituì, secondo Einstein e
Infeld, così come è riportato letteralmente nel loro libro L’evoluzione della fisica,
“l’avvenimento più importante verificatosi in fisica dal tempo di Newton in poi, e ciò
non soltanto per la dovizia di contenuto di tali equazioni, ma anche perché esse hanno
fornito il modello di un nuovo tipo di legge”. Questa importanza risiede nel fatto che la
teoria maxwelliana si presenta quale una fisica del continuo, contrapposta a quella del
discontinuo che aveva dominato per circa due secoli la mente dei ricercatori e
considerata come la candidata più autorevole ad assumere il ruolo di scienza universale
della natura. Già gli antichi filosofi avevano intuito la possibilità di due modi antitetici
di concepire la natura: la teoria del pneuma ideata dagli stoici era, in sintesi, una fisica
del continuo, antitetica a quella atomistica di Democrito e degli epicurei che era
palesemente una fisica del discontinuo. Però, mentre quest’ultima aveva compiuto da
Galileo in poi enormi progressi ed era stata fatta oggetto di una precisa e fecondissima
elaborazione matematica, la fisica del continuo, pur sostenuta e difesa da larghi strati di
filosofi, non era invece riuscita a trovare una soddisfacente traduzione in formule
matematiche, cosicchè veniva giudicata come priva di una vera scientificità. Il grande
merito di Maxwell è stato proprio quello di avere dimostrato che risulta possibile
renderla anch’essa matematicamente rigorosa, purchè si usino strumenti opportuni
(diversi da quelli usati da Newton e dai suoi continuatori) e che, così elaborata, la fisica
del continuo si rivela in grado di descrivere con esattezza i fenomeni elettrici e
magnetici, assai più semplicemente e chiaramente della fisica newtoniana. Stando così
le cose, non è difficile comprendere la portata anche filosofica delle nuove idee
introdotte da Maxwell, se teniamo presente che esse comportano in definitiva una
modificazione che ci costringe a prendere atto che la strutturazione concettuale della
scienza tramandataci dai grandi pensatori delle generazioni precedenti può talvolta
47<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

costituire una pesante ipoteca e che in certi casi occorre liberarsene coraggiosamente se
non si vuole arrestare il progresso scientifico.
Aveva appena ventiquattro anni, quando, nel dicembre 1855, Maxwell presentò
alla Cambridge Philosophical Society la sua prima memoria sulle teorie elettriche.
Aveva per titolo Sulle linee di forza di Faraday. Il giovane scienziato intuì molto bene
l’enorme importanza della nuova interpretazione, abbozzata da Faraday, dei fenomeni
elettrici e magnetici. Si rese cioè conto che essa costituiva una vera e propria svolta nel
modo di concepire tali fenomeni, comportando il totale abbandono dell’interpretazione,
di tipo newtoniano, fino a quel momento accolta dalla maggioranza dei fisici, che
voleva scorgervi un caso di azione a distanza. Pur riconoscendo la piena validità degli
esperimenti ideati da Faraday per dimostrare che nei fenomeni anzidetti è anche
interessato il mezzo interposto fra le cariche o fra i poli magnetici, Maxwell si rese pure
conto che il concetto di campo introdotto per spiegare teoricamente gli ingegnosi
esperimenti eseguiti era ingenuo e confuso. Faraday aveva sì tentato di descrivere il
campo elettrico e magnetico come un insieme di linee di forza che si estendono in varie
direzioni a partire dalle cariche o dai magneti, ma non si era poi preoccupato di fornire
una esatta definizione di queste linee. I suoi avversari avevano pertanto buone ragioni
di sostenere che esse non erano altro che un’arbitraria idealizzazione di ciò che accade
per la limatura di ferro quando viene sparsa sopra un foglio appoggiato su una
calamita. Per rispondere alle loro critiche, occorreva trovare il modo di dare a tali linee
un vero e proprio status scientifico, svincolandole dall’esempio prima citato, ed il modo
ingegnoso con il quale si poteva sperare di aggredire con successo la questione era
quello di prendere in esame le analogie fisiche. Dice Maxwell: “Per analogie fisiche
intendo quelle parziali similitudini tra le leggi di una scienza e quelle di un'altra che
rendono ciascuna di esse idonea a illustrare l'altra”. In altre parole, il suo proposito era
di dare una spiegazione meccanica completa dei fenomeni elettrici, cioè un modello
meccanico, in modo da ricondurre tutti i fenomeni fisici ai principi fondamentali della
dinamica. Consiste in questa concezione la famosa teoria dei modelli, che tanto
appassionò fisici e filosofi della seconda metà del XIX secolo: un fenomeno fisico è
“spiegato quando di esso si può dare un modello meccanico”. Poincarè dimostrerà più
tardi che, trovato un modello meccanico per la spiegazione di un fenomeno fisico, se ne
potrebbero trovare infiniti altri, onde, per questa via, lungi dall'avvicinarsi alla verità, la
scienza se ne allontanerebbe. I sostenitori della teoria dei modelli ribattevano che non
importa sapere se il modello corrisponda intrinsecamente al fenomeno: la scienza non
dà la verità, ma modelli di verità. La polemica sarà ripresa in altra forma nel XX secolo.
Nel saggio del 1855, Maxwell si sforza di raggiungere questo scopo sulla base di
una semplice ma chiara analogia fra l’insieme delle linee di forza di cui parlava Faraday
e un insieme di sottilissimi tubicini di sezione variabile, pieni di fluido incompressibile.
Assimilando la trasmissione dell’energia elettrica allo spostamento di questo fluido
(spostamento analizzabile sulla base delle leggi di una teoria avente indiscussa dignità
scientifica come l’idrodinamica), Maxwell potè giungere ad una prima formulazione
abbastanza precisa e coerente della teoria di Faraday. Non era ancora un risultato
definitivo, ma era certo un passo in avanti nella descrizione dei fenomeni. È interessante
notare che, in tale elaborazione, non viene introdotta nessuna ipotesi sulla natura
dell’elettricità; e anche questo poteva essere utile per non suscitare sospetti o diffidenze
presso i fisici-matematici della scuola classica. Maxwell, incamminatosi su questa via,
nel lavoro Sulle linee fisiche di forza (1861-62) viene delineato un vero e proprio modello
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 47;!

meccanico dell’induzione elettromagnetica, modello che risulta pure idoneo a spiegare


l’attrazione e repulsione fra le cariche elettriche e fra poli magnetici. Il modello
maxwelliano è costituito da un complesso meccanismo di cilindri ruotanti (o vortici), tra
i quali sarebbero interposte lunghe file di sferette, ciascuna capace di un moto rotatorio.
Gli assi di rotazione dei vortici risulterebbero paralleli a quelle che Faraday aveva
chiamato “linee di forza” del campo magnetico; le varie velocità di rotazione di tali
vortici produrrebbero in essi una tendenza a contrarsi o a dilatarsi. Le sferette sarebbero
invece particelle di elettricità, e il loro moto costituirebbe una corrente elettrica. Le leggi
della meccanica classica applicate al moto dei vortici anzidetti e delle sferette interposte
risulterebbero in grado di spiegare come una variazione del campo magnetico possa
produrre una corrente elettrica e, viceversa, il moto delle particelle elettriche generi una
deformazione del campo magnetico. Un seguito di ingegnose considerazioni
mostrerebbe poi che il complesso meccanismo è anche in grado di spiegare i fenomeni
dell’elettrostatica e della magnetostatica. Il ricorso ad un modello siffatto rientrava
perfettamente nel programma della scienza meccanicistica. Però nel saggio Una teoria
dinamica del campo elettromagnetico (1865) Maxwell non fa più parola del modello
descritto nell’opera precedente, ma si preoccupa unicamente di sviluppare una teoria
matematica dei fenomeni elettromagnetici, di tradurli in equazioni e di ricavare da esse
tutte le conseguenze che ne discendono logicamente. Il risultato ottenuto è una prima
formulazione delle famose equazioni del campo, che verranno poi esposte in termini
più rigorosi nel Trattato del 1873, che, suscitò, ed era da aspettarselo, forti perplessità tra
i fautori del meccanicismo.
Nel lavoro Sulle linee fisiche di forza è abbozzata una delle più importanti scoperte
in fisica, quella delle onde elettromagnetiche, che richiedeva un discorso specifico su di
un problema più generale, quello dell’etere, la speciale sostanza richiesta dal modello
ondulatorio della luce e che riempirebbe l’intero spazio. Il modello dei cilindri e delle
sferette induceva Maxwell ad attribuire al sistema portante del magnetismo e
dell’elettricità una vera e propria elasticità, grazie alla quale non solo i mutamenti nella
forza magnetica producono mutamenti in quella elettrica e viceversa, ma tali mutamenti
si propagano dal punto in cui hanno avuto luogo in tutte le direzioni dello spazio
circostante. È stato lo studio approfondito di questa propagazione a far nascere l’idea in
Maxwell delle onde elettromagnetiche, ed a fargli scoprire che esse debbono venire
considerate come trasversali rispetto alla direzione lungo la quale si propagano. Ma già
i fisici della generazione precedente erano stati condotti ad ammettere qualcosa di
molto simile per la luce, cioè ad ammettere che questa consista di vibrazioni dell’etere,
trasversali rispetto alla direzione del raggio luminoso. Di qui l’ipotesi sorta quasi
spontaneamente in Maxwell, che tra le onde elettromagnetiche e le onde luminose
dovesse esistere una stretta affinità; ma il nostro scienziato non poteva accontentarsi di
un’ipotesi generica, per quanto affascinante. Si trattava dunque di darle una
formulazione rigorosa, che potesse garantirne la piena dignità scientifica. Ancora una
volta lo strumento cui fa ricorso è quello di costruire con dovizia di particolari un
modello meccanico dell’etere. Esso dovrà risultare capace, per un verso, di spiegare la
funzione attribuitagli ormai unanimamente dagli studiosi di ottica (cioè la funzione di
trasmettere le onde luminose concepite come onde trasversali), e capace, per un altro
verso, di spiegare l’affinità fra le onde luminose e quelle elettromagnetiche.
Effettivamente, il modello ideale ideato da Maxwell si rivelò discretamente idoneo ad
adempiere i due compiti sopra accennati. Esso gli permise fra l’altro di cogliere il
47=! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

grande significato di un risultato sperimentale scoperto pochi anni prima (1852) dai due
fisici Wilhelm Weber (1804-1891) e Rudolf Kohlrausch (1809-1858): la quasi identità tra il
valore della velocità della luce e quello del rapporto tra unità elettrostatica e unità
elettrodinamica delle cariche (rapporto avente le dimensioni di una velocità). I due
valori sono tanto vicini tra di loro che, nonostante le ipotesi arbitrarie di partenza,
Maxwell non sa trattenersi dal commentare: ”Noi difficilmente possiamo esimerci dal
dedurre che la luce consista in ondulazioni trasversali dello stesso mezzo che è causa
dei fenomeni elettrici e magnetici”.
Riflettendo su tale risultato, Maxwell giunse all’importantissima conclusione che
le onde elettromagnetiche e le onde luminose si propagano con la medesima velocità.
Non era ancora, a rigore, la formulazione esplicita della natura elettromagnetica della
luce, ma era un passo decisivo verso questa conclusione. Anche la costruzione del
modello meccanico dell’etere rientrava nel programma della fisica meccanicistica. Certo
è, comunque, che quello maxwelliano si rivelò particolarmente felice, riuscendo ad
eliminare parecchie difficoltà riscontrate da quasi tutti i fisici in tale strano fluido, e
quindi accrescendo l’accettabilità della sua esistenza. Con esso il programma
meccanicista dimostrava di essere ancora in grado di fornire agli scienziati utili
suggerimenti. Però anche questo modello, col trascorrere del tempo, perse gran parte
del proprio interesse nell’opera di Maxwell. Esso gli era servito per intuire la profonda
identità fra onde elettromagnetiche e onde luminose; una volta compiuta questa
funzione, poteva ormai venire abbandonato come i modelli precedenti. Già nell’opera
del 1865, Una teoria dinamica del campo elettromagnetico, il geniale scienziato si limita a
parlare dell’etere come di un mezzo elastico, estremamente sottile, che ha l’unico
compito di fungere da veicolo delle onde elettromagnetiche e luminose. La teoria è
detta dinamica, perché i fenomeni elettromagnetici sono attribuiti al moto del mezzo
elastico in cui sono immersi i corpi elettrici e magnetici. Ma non si fanno ipotesi sui
moti, non si specificano le tensioni del mezzo, insomma, non si danno modelli
meccanici. Anzi, è evitata persino la terminologia meccanica, e fa eccezione il vocabolo
energia, usato nella sua propria accezione meccanica; ma, mentre i predecessori
localizzavano l'energia nei corpi elettrici o magnetici, Maxwell ritiene il campo elettrico
sede dell'energia, la quale si presenta nella duplice forma di energia di moto (o cinetica)
o di tensione (ossia potenziale) del mezzo elastico che riempie il campo. Nel Trattato del
1873, tale “fluido immaginario” sarà identificato con il mezzo portante delle onde
elettromagnetiche, senza attribuirgli alcuna altra proprietà fisica se non quella, appunto,
di trasportare tali onde. È chiaro che a Maxwell non interessa più costruire
un’immagine visualizzabile dell’etere, ma solo di formulare con esattezza le equazioni
differenziali che regolano i fenomeni in esso verificantisi. La trattazione matematica ha
finito per eclissare ogni spiegazione modellistica.
I fisici conobbero la concezione maxwelliana del campo elettromagnetico, e in
particolare la teoria elettromagnetica della luce, attraverso l’opera A Treatise on
Electricity and Magnetism (1873). Verso il 1860 l'elettrodinamica, dopo i lavori di
Neumann, Weber e Helmholtz, sembrava una scienza ormai definitivamente sistemata,
dai confini netti. Il Trattato di Maxwell turbò questa prospettiva di sereno lavoro,
facendo intravedere ben più vasti campi di dominio per l'elettrodinamica. Come
abbiamo più volte affermato, il principale scopo propostosi da Maxwell nelle sue
ricerche sull’elettromagnetismo fu quello di tradurre in forma matematica precisa le
idee di Faraday, dimostrando con ciò ai fisici-matematici seguaci della grande
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 474!

tradizione newtoniana che anche la fisica del continuo poteva venire elevata al rango di
autentica scienza, altrettanto bene quanto la fisica del discontinuo. Talvolta egli sembra
sostenere che il valore dell’una equivale a quello dell’altra, malgrado l’opposizione
radicale dei loro metodi e dei loro punti di partenza: “Quando ebbi vestita di forma
matematica quelle che mi parevano le idee di Faraday, vidi che in generale le
conclusioni ottenute coi due metodi si accordavano, sicché dello stesso fenomeno si
poteva dar ragione nei due modi arrivando a stabilire le stesse leggi, ma i metodi di
Faraday somigliavano a quelli dei quali partendo dal tutto si procede all'analisi delle
parti, mentre i soliti metodi matematici cominciano dalle parti e per sintesi
costruiscono il tutto”. In realtà, se in taluni casi i due metodi conducono effettivamente
alle medesime leggi, è pur vero che in molti altri il nuovo metodo porta a conclusioni
che sfuggivano completamente al metodo precedente. Basti citare a titolo di esempio la
polarizzazione elettrica dei dielettrici che resta inspiegabile dal punto di vista classico,
mentre assume un ruolo fondamentale nella concezione maxwelliana; essa permette di
definire con esattezza le cosiddette correnti di spostamento, facendo appello alle quali
Maxwell riesce ad eliminare il grave divario fin allora esistente nella trattazione dei
circuiti chiusi e di quelli aperti.
Maxwell riassume tutta la costruzione teorica in un gruppo di quattro equazioni,
Le famose equazioni di Maxwell, che mettono in relazione, in perfetta simmetria fra loro, il
campo elettrico e il campo magnetico:

EQUAZIONI DI MAXWELL
"! !
! "! ! "!  
ΣQ dΦ(B) dΦ(E )
Φ(E) = Φ(B) = 0 C(E) = − C(B) = µ0 i + ε0
ε0 dt  dt 

Grazie a queste equazioni, il campo elettrico e magnetico, nel caso dinamico,


sono due aspetti diversi di un unico ente fisico, il campo elettromagnetico e quindi non è
possibile studiare E o B, prescindendo dall’altro. Queste equazioni, pertanto,
definiscono la struttura del campo elettromagnetico e sono molto diverse dalle
ordinarie equazioni della meccanica. Mentre le leggi meccaniche si applicano nelle
regioni dello spazio in cui esiste materia, le equazioni di Maxwell sono valide nell'intero
spazio, vi esistano o non vi esistano corpi o cariche elettriche; esse regolano le
evoluzioni del campo, mentre le leggi meccaniche regolano le evoluzioni delle particelle
materiali. Inoltre, mentre le leggi della meccanica di Newton avevano rinunciato alla
contiguità dell'azione nello spazio e nel tempo, le equazioni di Maxwell, invece,
stabiliscono la continuità dei fenomeni; esse collegano eventi contigui nello spazio e nel
tempo: dalle condizioni del campo qui e ora possiamo predire le condizioni del campo
nell’immediata vicinanza e nell'istante appena trascorso.
Le differenze di fondo tra l’impostazione maxwelliana e quella classica della
trattazione dei fenomeni elettromagnetici, sono state mirabilmente illustrate da Einstein
ed Infeld nel volume L’evoluzione della fisica: “ Le equazioni di Maxwell definiscono la
struttura del campo elettromagnetico. Sono leggi valide nell’intero spazio e non soltanto
nei punti in cui materia o cariche elettriche sono presenti, com’è il caso per le leggi
meccaniche. Rammentiamo come stanno le cose in meccanica. Conoscendo posizione e
velocità di una particella, in un dato istante, e conoscendo inoltre le forze agenti su di
essa, è possibile prevedere l’intero percorso futuro della particella stessa. Nella teoria di
475! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

Maxwell invece basta conoscere il campo in un dato istante per poter dedurre dalle
equazioni omonime in qual modo l’intero campo varierà nello spazio e nel tempo. Le
equazioni di Maxwell permettono di seguire le vicende del campo, così come le
equazioni della meccanica consentono di seguire le vicende di particelle materiali. Ma
fra le leggi della meccanica e quelle di Maxwell sussiste una ulteriore differenza
essenziale. Un confronto fra le leggi di gravitazione di Newton e le leggi del campo di
Maxwell porrà in rilievo alcuni dei tratti caratteristici di queste ultime e delle
rispettive equazioni. Mediante le leggi di Newton possiamo dedurre il moto della Terra,
dalla forza agente fra Sole e Terra. Dette leggi collegano il moto della nostra Terra con
il lontano Sole. Benchè così distanti l’una dall’altro, Terra e Sole prendono ambedue
parte allo spettacolo delle forze agenti, in qualità di attori. Nella teoria di Maxwell non
vi sono attori materiali. Le equazioni matematiche di questa teoria esprimono le leggi
governanti il campo elettromagnetico. Non collegano, come nelle leggi di Newton, due
eventi separati da una grandissima distanza; non collegano ciò che succede qui con le
condizioni imperanti colà. Il campo qui ed ora dipende dal campo nell’immediata
vicinanza, e nell’istante appena trascorso. Le equazioni del campo consentono di
predire ciò che avverrà un poco più lunghi nello spazio ed un poco più tardi nel tempo,
se sappiamo ciò che avviene qui ed ora. Esse ci mettono in grado di estendere a
piccolissimi passi la nostra conoscenza del campo. Sommando tutti questi piccoli passi,
possiamo dedurre ciò che succede qui, da ciò che avviene a grande distanza. Nella
teoria di Newton al contrario, non si hanno che lunghi passi fra eventi distanti. Gli
esperimenti di Oersted e di Faraday possono dedursi dalla teoria del campo
elettromagnetico, ma soltanto sommando tanti piccoli passi, ognuno dei quali è
governato dalle equazioni di Maxwell”.
Nell'ambito della nuova teoria, Maxwell sottolineava la centralità della nozione
di campo, senza però eliminare quella di etere. Ma come si è ampiamente discusso,
Maxwell progressivamente abbandona ogni riferimento a modelli meccanici dell'etere
in favore di un uso sempre più accentuato dell'astrazione matematica, autonoma dai
dettagli dei modelli eterei e più vicina a quelli che saranno gli esiti novecenteschi della
sua teoria. In definitiva, l’immagine del mondo di Maxwell non è più quella semplice
descritta da Newton, fatta da particelle che si muovono nello spazio al passar del
tempo. Con l’introduzione di
questa nuova entità il “campo”, il
mondo è sempre descritto in
maniera elegante da equazioni,
ma è un po’ più complicato.
Il passo finale da compiere per Maxwell era quello di arrivare a considerare la
luce come un’onda elettromagnetica. Dice Maxwell nel suo Trattato: “[…] si è tentato di
spiegare i fenomeni elettromagnetici con un'azione meccanica trasmessa da un corpo a
un altro con l'intermediario di un mezzo che riempirebbe lo spazio compreso tra i
corpi. La teoria ondulatoria della luce suppone anche l'esistenza di un mezzo. Noi
dobbiamo ora mostrare che il mezzo elettromagnetico ha proprietà identiche a quelle
del mezzo dove si propaga la luce […]. Possiamo ottenere il valore numerico di certe
proprietà del mezzo, per esempio della velocità con la quale si propaga la
perturbazione, velocità che possiamo calcolare da esperienze elettromagnetiche e che
possiamo osservare direttamente nel caso della luce. Se si trova che la velocità di
propagazione delle perturbazioni elettromagnetiche è la stessa della velocità della luce,
e ciò non solamente nell'aria, ma in tutti gli altri mezzi trasparenti, noi abbiamo forti
ragioni per credere che la luce è un fenomeno elettromagnetico, e, con la combinazione
di prove ottiche ed elettriche, ci convinceremo della realtà di questo mezzo, proprio
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 476!

come, nel caso di altre qualità di sostanze, ci convinciamo dalla combinata


testimonianza dei sensi”.
Supponiamo che in una certa regione dello spazio si verifichi una variazione
temporale del campo elettrico, dovuta, per esempio, al moto accelerato di una carica
elettrica. Nei punti immediatamente vicini si produce allora, per la quarta equazione di
Maxwell, un campo magnetico anch'esso variabile nel tempo. La variazione del campo
magnetico, per la terza equazione, origina nei punti immediatamente vicini un campo
elettrico variabile, e così via. Nasce in tal modo una perturbazione elettromagnetica che
si propaga nello spazio, ossia un’onda elettromagnetica. Questo fatto nuovo previsto da
Maxwell è una notevole conseguenza dell'esistenza della corrente di spostamento. In
altri termini, la configurazione dei campi non è immobile, ma viaggia nello spazio, in
modo che i valori che il campo elettrico e il campo magnetico assumono in un punto in
un dato istante si ritrovano, dopo un certo intervallo di tempo, in un punto lontano.
Maxwell usando le sue equazioni riuscì a calcolare la velocità di tale perturbazione,
formulandola in termini di due costanti fondamentali della natura e scoprì che la
perturbazione aveva le stesse caratteristiche di un'onda. Inoltre, una volta calcolata la
velocità di quell’onda elettromagnetica, Maxwell finì per rendersi conto che si trattava
di un valore familiare: ! ! ! ! !"""!!!!!!"!!, infatti corrispondeva alla velocità della
!! !!
luce. Ciò lasciava ipotizzare (come fu successivamente confermato sperimentalmente)
che la luce stessa poteva essere fatta di onde di campi elettromagnetici. Questo fu un
risultato clamoroso, che mise in evidenza lo straordinario potere unificante della teoria
elaborata da Maxwell. Egli, avendo notato che le onde elettromagnetiche e la luce, oltre
a essere caratterizzate entrambe da vibrazioni trasversali, si propagano con la stessa
velocità, avanzò l'ipotesi della natura elettromagnetica della luce.
Le equazioni di Maxwell costituivano così una teoria unitaria non solo dei
fenomeni elettrici e magnetici, ma anche di quelli luminosi.
La prima grande unificazione della fisica, cioè descrivere la luce, l’elettricità e il
magnetismo attraverso un unico complesso di equazioni matematiche, era avvenuta e
segnò il culmine della fisica classica e suggerì anche una teoria della materia e della
radiazione dalla quale deriva l’odierna teoria del campo.
Nella prefazione alla prima edizione del Trattato del 1873 Maxwell traccia le linee
generali del proprio programma, che possiamo così riassumere: 1) mostrare che i più
importanti fenomeni elettrici e magnetici possono venire sottoposti a misurazione; 2)
cercare le relazioni matematiche che intercorrono tra le qualità così misurate; 3) ricavare
le conseguenze più generali dai dati d’osservazione, valendosi per l’appunto di tutti gli
strumenti che ci sono forniti dalla matematica; 4) applicare questi risultati a casi
semplici, che permettano una facile verifica dei risultati stessi; 5) porre in luce i rapporti
esistenti tra le formule matematiche della teoria elettromagnetica e quelle della
dinamica classica.
I primi quattro punti collocano in maniera evidente la metodologia di Maxwell
entro la grande tradizione galileiano-newtoniana della scienza moderna; ci dicono
infatti che la ricerca scientifica deve fare simultaneamente appello all’esperienza e
all’elaborazione matematica dei dati d’osservazione. Il quinto è forse il più interessante
perché ribadisce, sia pure in forma implicita, la posizione di Maxwell di fronte ai fisici
meccanicisti dell’Ottocento: mentre questi si dimostravano certi a priori che le formule
matematiche usate con tanto successo dalla dinamica newtoniana sarebbero riuscite, se
ben applicate, a farci comprendere in modo altrettanto perfetto anche i fenomeni
477! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

elettrici e magnetici, Maxwell si limitava a dire che il Trattato dovrà analizzare con la
massima cura i rapporti effettivamente esistenti fra il tipo di matematica usato nella
teorizzazione di questi fenomeni e quello usato in altri settori della fisica da Newton e
dai newtoniani. Ciò che egli propone è dunque nulla più che un esatto confronto fra i
due; ma già sappiamo che da questo confronto scaturirà proprio la loro radicale
differenza. In effetti le equazioni di Maxwell, che sono equazioni differenziali alle
derivate parziali, posseggono una struttura nettamente diversa da quella delle
equazioni più caratteristiche della meccanica newtoniana; ed è per l’appunto la loro
nuova struttura ciò che ci permette di applicarle con successo allo studio delle vicende
del campo anziché allo studio delle vicende di particelle materiali.
Ora sorge spontanea la domanda: quale è la teoria generale in cui Maxwell
pensava di inquadrare le proprie equazioni? La risposta più interessante è stata fornita
da Hertz, lo scopritore delle onde elettromagnetiche e uno dei massimi conoscitori delle
opere maxwelliane: “La teoria di Maxwell è il sistema delle equazioni di Maxwell”.
Prendere le equazioni di Maxwell come ipotesi fondamentali, come postulati sui quali
poggiare l'intero edificio delle teorie elettriche. In sostanza, Maxwell non riteneva di
dover completare la matematizzazione dei fenomeni con l’aggiunta di una teoria in
quanto matematizzazione e teorizzazione erano per lui coincidenti. Ci sembra
opportuno sottolineare l’importanza di questa tesi. Quando per spiegare un fenomeno
si pensava di doverlo inquadrare in una concezione filosofica della natura, o per lo
meno di doverne costruire un modello di immediata intuibilità, è ben comprensibile che
teorizzazione e matematizzazione dovessero costituire due momenti diversi della
ricerca scientifica: alla teorizzazione spettava il compito più elevato di farci
effettivamente capire i fenomeni fisici, alla matematizzazione era invece riservato un
compito più modesto, di fornirci i mezzi per calcolare il loro decorso e di guidare in tal
modo la scienza applicata. Ma una volta messa veramente da parte l’esigenza di una
conoscenza metafisica della natura e ridotti i modelli a semplici ausilii della ricerca (da
abbandonarsi a ricerca compiuta), che senso potrebbe avere la pretesa di cercare
qualcos’altro, oltre i dati osservativi e la loro traduzione in formule? In questo modo il
sistema delle equazioni di Maxwell operò, entro lo sviluppo della scienza ottocentesca,
come un potente stimolo a fare della fisica-matematica una disciplina autonoma,
sganciandola da ogni vecchio impegno filosofico e avviandola alla ricerca di formule
generalissime capaci di sintetizzare in un unico sistema i più ampi settori fenomenici.
Fu proprio questa nuova impostazione della fisica-matematica a permetterle un più
immediato contatto con la fisica sperimentale elevando la matematica al rango di
strumento unico, necessario e sufficiente, per l’elaborazione teorica dei dati osservativi.
Alla morte di Maxwell i sostenitori della sua teoria erano pochi giovani entusiasti
di lingua inglese, legati al maestro da affetto e rispetto. Lo stesso Maxwell aveva
riconosciuto questa situazione nel penultimo paragrafo del suo Trattato: “Nelle menti
di uomini eminenti sembra rimanga ancora qualche prevenzione o obiezione a priori
contro l'ipotesi di un mezzo nel quale prenderebbero origine i fenomeni di radiazione
luminosa o calorifica e le azioni elettriche a distanza. È vero che in una certa epoca
storica coloro che si abbandonavano a speculazioni sulle cause dei fenomeni fisici
avevano l'abitudine di spiegare ogni specie di azione a distanza per mezzo d'un fluido
etereo speciale, che aveva la funzione o la proprietà di produrre azioni. Essi
riempivano lo spazio di tre o quattro specie di etere sovrapposti, le cui proprietà erano
immaginate per salvare le apparenze; sicché i ricercatori più ragionevoli preferivano
non solo la legge di Newton sull'azione a distanza, ma addirittura il dogma di Cotes che
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 478!

l'azione a distanza è una proprietà primitiva della materia, onde nessuna spiegazione
potrebbe essere più intelligibile del fatto. Perciò la teoria ondulatoria della luce ha
incontrato una viva opposizione, motivata non tanto dalla sua importanza a spiegare i
fenomeni quanto dall'ipotesi stessa d'un mezzo in cui si propagherebbe la luce”.
E chiude il trattato con le parole: “In conclusione, tutte queste teorie conducono a
concepire un mezzo nel quale si produce la propagazione; se ammettiamo l'ipotesi di
questo mezzo, credo che esso debba occupare un posto dominante delle future nostre
ricerche e che noi dobbiamo sforzarci di combinare nel nostro spirito e di
rappresentarci tutti i particolari della sua azione: è lo scopo che mi sono costantemente
proposto lungo tutto questo Trattato”.
Ma appunto la nuova concezione fisica di Faraday e di Maxwell stentava a farsi
strada, anche, ma non unicamente, come osserva Maxwell, per il timore di cadere nel
settecentesco vizio dei fluidi. Il problema fisico era: esistono le onde elettromagnetiche
previste da Maxwell? Si possono produrre? Si possono rivelare? Hanno le proprietà loro
attribuite dalla teoria? Era passato più di un decennio dalla prima edizione del Trattato
e ancora nessun fisico aveva osato porsi le domande.
Cominciò nel 1884 il giovane fisico Heinrich Hertz (1857-1894) a intuire che
solamente la risposta a quelle domande avrebbe potuto consentire di formulare un
giudizio non preconcetto sull'intera teoria elettromagnetica di Maxwell, di cui la teoria
della luce costituiva il punto centrale. Hertz fece acutamente una prima fondamentale
osservazione: le equazioni di Maxwell mostrano che le onde elettromagnetiche possono
sorgere da oscillazioni elettriche. Ora, intorno al 1870 era ben noto che la scarica di un
condensatore poteva essere oscillatoria e Kirchhoff nel 1864 ne aveva data una teoria
completa, mentre Helmholtz, nel 1869, aveva dimostrato che si possono ottenere
oscillazioni elettriche anche in una spirale di induzione, i cui capi fossero collegati alle
armature di un condensatore. Hertz adoperò dapprima le bobine del suo maestro
Helmholtz, ma poi si orientò verso la scarica in aria di un condensatore. Dovette
superare molte difficoltà, prima di ottenere onde adatte allo scopo. Le difficoltà
consistevano essenzialmente nel fatto che le frequenze misurate erano dell'ordine di
centinaia di migliaia per secondo; se la velocità delle onde era veramente quella della
luce, un semplice calcolo dimostra che le lunghezze d'onda risultano dell'ordine di
chilometri, troppo lunghe per essere rivelate, anche tenuto conto che l'energia irradiata
si affievolisce col quadrato della distanza dalla sorgente. Se si voleva avere la possibilità
di rendere percepibili le onde, occorreva produrre scariche di frequenza molto più
elevata di quelle che i fisici erano allora in grado di ottenere. Hertz si dedicò quindi per
due anni allo studio delle scariche oscillatorie e ottenne alla fine un completo successo,
ideando un oscillatore costituito da un condensatore a piatti paralleli o da due sfere
collegate con un'asta metallica interrotta nella parte mediana; gli estremi affacciati
dell'interruzione terminano con sferettine distanti tra loro alcuni millimetri. I calcoli
mostrarono che le onde elettromagnetiche prodotte avevano una velocità dello stesso
ordine di grandezza della velocità della luce, come prevedeva la teoria di Maxwell. I
primi risultati sperimentali furono pubblicati da Hertz nel 1887 e l’anno successivo, con
l'impiego di specchi parabolici cilindrici, dimostrò la riflessione, la rifrazione e la
polarizzazione delle onde prodotte. Dimostrò inoltre che vettore elettrico e vettore
magnetico sono tra loro perpendicolari, conformemente alla teoria maxwelliana.
Molti sperimentatori imboccarono subito la via aperta da Hertz e furono proposti
nuovi dispositivi per la produzione e la rivelazione delle onde. Nei primi anni
479! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

successivi alle scoperte di Hertz gli sforzi degli sperimentatori s’erano concentrati
specialmente sui rivelatori e poca attenzione era stata rivolta agli oscillatori, sicché poco
si era aggiunto all’opera di Hertz. Gli scienziati continuavano a sperimentare con la
stessa lunghezza d’onda (circa 66 cm) usata da Hertz, onde i fenomeni di diffrazione
mascheravano ogni altro fenomeno. Un grande passo fu compiuto da Augusto Righi
(1850-1920), che con il suo oscillatore ottenne onde di pochi centimetri e riuscì così a
riprodurre tutti i fenomeni ottici, in particolare la doppia rifrazione delle onde
elettromagnetiche.

Hertz aveva esplicitamente escluso la possibilità di servirsi delle onde


elettromagnetiche per trasmissioni a distanza di segnali, e la maggioranza dei fisici ne
aveva condiviso lo scetticismo. Non mancarono, in verità voci discordi, come quella di
Cookes, che fin dal 1892 aveva preconizzato una telegrafia senza fili. Anzi, tentativi
concreti erano stati fatti, con risultati molto modesti, da Nikola Tesla (1856-1943).

Nel 1894 Guglielmo Marconi (1874-1937; Premio Nobel) iniziò una serie di
sperimentazioni e nel 1895 il giovane scienziato autodidatta ebbe un’idea geniale e
fondamentale: munire l'oscillatore di un'antenna, costituita in un primo tempo da una
lastra metallica sospesa per aria a un palo di legno, collegata elettricamente a una sfera
dell'oscillatore di Hertz, mentre l'altra sfera era posta a terra. Nel luglio del 1896
cominciarono a Londra gli esperimenti di Marconi sulla radiotelegrafia, le cui rapide
evoluzioni e i mirabili risultati hanno inciso e incidono profondamente sulle condizioni
di vita e sui destini dell'uomo.

Ma ancora più importanti furono gli sviluppi teorici della teoria maxwelliana. La
fisica dei campi venne inizialmente accolta soprattutto come linguaggio, come
strumento atto ad agevolare la comprensione dei fenomeni dal punto di vista
meccanico. Non deve dunque stupirci se tale linguaggio fu ben presto largamente
applicato anche alla teoria newtoniana della gravitazione, onde si cominciò a parlare di
capo gravitazionale oltrechè di campi elettrici e magnetici. Il più delle volte l’uso di
questo termine termine veniva utilizzato senza rendersi conto delle profonde
innovazioni categoriali implicate da tale nozione, come la sostituzione di una fisica del
continuo alla vecchia fisica del discontinuo. Sarà merito di Einstein non fermarsi
all’aspetto tecnico della nuova teoria, cioè limitarsi a cercarne formulazioni
matematiche via via più rigorose e più generali. In realtà egli seppe penetrare ad un
tempo sia la grande portata filosofica, come dimostrano le citazioni in precedenza
riportate, sia la straordinaria fecondità per la descrizione fisica del mondo (basti
ricordare la sua famosa dichiarazione che senza la nozione di campo “sarebbe
impossibile formulare la teoria della relatività generale”). Vale la pena ricordare già
adesso che, approfondendo il concetto di campo gravitazionale in stretta analogia con
quello di campo elettromagnetico, Einstein giungerà a sostenere (nel 1918) che il campo
gravitazionale si propaga in modo pressochè identico a quello delle onde
elettromagnetiche (onde il termine di onde gravitazionali) e quindi con una velocità
finita. Va notato che questa tesi costituisce in un certo senso il naturale sviluppo della
polemica di Maxwell contro l’azione a distanza; in essa, infatti, il concetto di azione a
distanza (azione istantanea) viene respinto a favore dell’azione per contiguità
(propagazione che avviene nel tempo) non solo nella trattazione dei fenomeni
elettromagnetici ma anche per quelli gravitazionali. Anche il concetto di etere ci porta
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 47:!

alle soglie della teoria della relatività. Maxwell non abbandonò mai completamente la
nozione tradizionale di etere, ma dopo averne costruito un complicato modello
meccanico, finì per lasciar cadere anche questa ingegnosa visualizzazione del singolare
fluido, da lui stesso qualificato come immaginario, per interessarsi esclusivamente della
traduzione delle sue proprietà in termini matematici. Pur così volatilizzato, l’etere
continuò, in ogni modo, a venir concepito, da Maxwell e dai suoi immediati
continuatori, come qualcosa di reale, come il supporto, non meglio definito, dei campi
elettromagnetici, pensati appunto come “stati” dell’etere. Proprio la trattazione
matematica della teoria dei campi, mentre per un lato favoriva questa volatilizzazione
del concetto di etere, per un altro lato sembrava invece destinata a dargli nuova dignità
scientifica. Si dimostra infatti che le equazioni di Maxwell, diversamente da quelle della
meccanica classica, non restano invarianti se le riferiamo a due differenti sistemi
inerziali, ossia non obbediscono al principio di relatività galileiana. Se ne ricava che la
validità stessa delle equazioni di Maxwell sembra provarci l’esistenza di un sistema di
riferimento privilegiato o sistema inerziale assoluto; di qui l’idea che fosse appunto
l’etere a costituire tale sistema. In altre parole, le equazioni di Maxwell risulterebbero
valide se riferite proprio all’etere, concepito come immobile, mentre cesserebbero di
esserlo se riferite a un sistema in movimento rispetto all’etere. L’importanza di questa
conclusione è evidente: essa suggeriva ai fisici della generazione immediatamente
successiva a Maxwell di cercare nei fenomeni elettromagnetici, e in particolare in quelli
luminosi, una nuova via per dare un significato concreto, scientificamente attendibile, ai
vecchi termini newtoniani di “quiete assoluta” e di “moto assoluto”. La possibilità di
verificare sperimentalmente questa congettura, misurando la velocità della luce rispetto
a quella della Terra, fu avanzata dallo stesso Maxwell. Fu proprio tale suggerimento a
spingere Michelson e Morley a compiere il famoso esperimento, che analizzeremo nel
capitolo sulla relatività, che fallì con grande delusione di tutto il mondo scientifico (sarà
il genio di Einstein, con la sua teoria della relatività, ad abbandonare l’idea dell’etere e a
dare una nuova visione dei fenomeni elettrodinamici). E sarà proprio questo fallimento
a segnare il punto di rottura fra la meccanica classica e la meccanica relativistica.
Eppure, nonostante i profondi legami fra la teoria maxwelliana dei campi e la
teoria einsteiniana della relatività, la teoria di Maxwell non può venire considerata
come una teoria veramente moderna. Se è vero, infatti, che costituì una delle basi
essenziali per i successivi lavori di Einstein, è pur vero che questi potè giungere alla sua
concezione tanto innovatrice dello spazio e del tempo solo con la negazione di alcuni
punti basilari della teoria maxwelliana (in primo luogo col rifiuto completo dei concetti
di quiete e moto assoluto). Né va dimenticato che anche sotto altri aspetti la teoria di
Maxwell entrò presto in crisi, infatti la fine del secolo vide un rapido ritorno alla fisica
del discontinuo, sotto forma di fisica dei quanti. Basti ricordare che la teoria dei campi
dovette trasformarsi profondamente per adeguarsi alla nuova importantissima
concezione; ne nacque la cosiddetta teoria quantistica dei campi (di cui tutti riconoscono
la straordinaria fecondità per le più raffinate ricerche atomiche e subatomiche),
radicalmente diversa dalla teoria classica di Maxwell.
La scoperta della radiazione elettromagnetica non fu solo di enorme interesse per
realizzare l’unificazione dell’ottica e dell’elettrodinamica; essa comportò anche l’unione
con la termodinamica, riempiendo così il vuoto lasciato nella teoria dell’energia attorno
la metà del 1800. Il lavoro sperimentale era cominciato con l’osservazione di Boyle che i
colori chiari assorbono meno calore di quelli scuri. La scoperta di “calore scuro” (la
48<! /0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(!

radiazione infrarossa) da parte Herschel non solo rafforzò la separazione qualitativa tra
radiazioni termiche e radiazioni luminose, ma suggerì un espediente, il “corpo nero”,
che è il perfetto corpo assorbente e radiante. Tuttavia, durante la prima metà
dell’ottocento, mentre prevaleva la teoria del calorico, la radiazione termica venne
interpretata come una semplice dispersione del fluido calorico nel mezzo circostante. I
principi termodinamici diedero nuovo vigore allo studio della radiazione poiché si
poteva ora dedurre, anche con l’aiuto del principio di conservazione dell’energia, che la
radiazione è esattamente l’inverso dell’assorbimento.

Questa verità venne espressa in diverse forme: Balfour Stewart ( 1827-1887)


dedusse che a paragone di un “corpo nero” una sostanza, ad ogni data frequenza,
assorbirà con la stessa efficienza con cui irradia; Kirchhoff provò attraverso un
esperimento mentale che per ogni data frequenza e a temperatura costante, il rapporto
tra energia assorbita ed energia irradiata è lo stesso per qualsiasi corpo; e ancora,
Tyndall mostrò che sia la radiazione che l’assorbimento di calore ad opera dei gas sono
proporzionali al numero di atomi nelle molecole. L’equivalenza così determinata
spiegava l’esistenza di linee luminose negli spettri di emissione e di linee scure in quelli
di assorbimento.
Di questo fenomeno e dell’evidente periodicità delle linee spettrali che le formule
empiriche cercavano di esprimere non vi fu alcuna spiegazione soddisfacente (bisogna
aspettare l’ipotesi di Planck formulata nel 1900). Tuttavia, si suppose, in base al
carattere vibratorio della luce, da considerazioni di meccanica generale e da risultati
come quelli di Tyndall, che gli spettri, e quindi la radiazione e l’assorbimento di energia
in generale, fossero prodotti da movimenti di molecole. Ma dire che la luce deve esser
simile al calore essendo riconducibile a un teoria cinetica non era dire molto.
Newton fu il primo a ottenere in base a esperimenti una regola per determinare
la velocità con cui i corpi caldi cedono calore a quelli più freddi che li circondano: la
diminuzione di temperatura in un dato tempo è proporzionale all’aumento della
temperatura del corpo.

Nel 1879, Josef Stefan (1835-1893) propose una relazione più semplice, della
quale, cinque anni dopo, Boltzmann ne fornì una giustificazione teorica basata sulle
equazioni di Maxwell, e cioè che una radiazione deve esercitare una pressione sulla
superficie su cui cade:

LEGGE DI STEFAN-BOLTZMANN
Il calore perso è proporzionale alla quarta potenza della temperatura assoluta:
∆Q
= σST 4
∆t

In questo periodo Samuel Langley (1834-1906) stava effettuando delle


misurazioni dell’energia irraggiata a frequenze diverse da corpi riscaldati a varie
temperature. Questo ed altri lavori sulla distribuzione energetica si dimostrarono del
tutto coerenti con la legge di Wilhelm Wien (1864-1928; Premio Nobel):
/0(-#*!.&,,*!1#2#%*!&!.&,!)&$2#&-(!/%#&$0#3#%(! 48;!

LEGGE DI WIEN
la temperatura alla quale un corpo è sottoposto e la lunghezza d’onda alla quale corrisponde
l’emissività massima sono inversamente proporzionali:

λ max ⋅ T = cos t.

A questo punto la teoria elettromagnetica di Maxwell, confermata da Hertz,


sembrava saldamente legata alla termodinamica. La struttura complessiva della fisica si
andava nettamente unificando, ed il numero di connessioni incrociate andava
aumentando in modo costante.
Il concetto che la radiazione fosse un pompare energia da parte di qualche
oscillatore in un mezzo; che questa energia resti nel mezzo finché non venga trasferita a
qualche ricevitore ove produce nuovi effetti fisici, tutto ciò era stato trattato con
completezza da un punto di vista matematico e giustificato da trenta anni di sviluppo
della fisica.
Ma restavano alcuni problemi irrisolti, come quello di costruire una teoria
generale che legasse energia, temperatura e lunghezza d’onda della radiazione del
corpo nero; era come se in meccanica si fosse alla ricerca di una teoria che mettesse in
relazione accelerazione, forza e massa. Wien ed altri non vi riuscirono, e dobbiamo
aspettare Planck con la sua ipotesi quantistica che diede vita alla meccanica quantistica,
che insieme alla teoria della Relatività, rivoluzionerà il modo di concepire il
microcosmo, lo spazio ed il tempo.

You might also like