Home Cannizzato.it Corso Serale ScuolaNet Aetnanet
 
 

  Test Center per

Aica-EQDL Cisco Networking Academy





Aica-ECDL Microsoft Office Specialist
 

  Scuola trasparente

· Albo Pretorio Digitale

· Amministrazione trasparente

· Codice disciplinare

· AVCP

· Organigramma gestione emergenze

· Sito OPENCOESIONE

 

  Orientamento

Orientamento
POF
 

  Scuola certificata in conformità alla norma UNI EN ISO 9001

Scuola certificata in conformità alla norma UNI EN ISO 9001
 

  Presentazione

· Scuola
· Ubicazione e descrizione
· Storia

· Organizzazione

· Dipartimenti

· Contatti

 

  Didattica

· Calendario
· Orario Classi Diurno
· Orario Classi Serale
· Orario docenti Diurno
· Orario docenti Serale
· Programmazioni didattiche docenti diurno
· Programmazioni didattiche docenti serale
· Libri di testo

 

  Collegamenti

· Home
· Corso serale
· ScuolaNext
· Aetnanet
· Sito OPENCOESIONE
· Centro Polifunzionale di Servizio
· Dipartimento di Chimica
· Dipartimento di Informatica
· WebTV ed e-learning

· SchoolBook

· Progetto EEE al Cannizzaro

 

  Segreteria

· Modulistica
· Tasse scolastiche
· Graduatorie d'Istituto

 

  Focus

· Consorzio Aetnanet
· Centro Polifunzionale di Servizio
· Rete TSSS

· Rete ENIS

· Scuola ASAS

· MSDN Academic Alliance

 

  Testata a rotazione


Circolari del direttore dei servizi
[ Circolari del direttore dei servizi ]

·Nuovo orario di ricevimento al pubblico dell'ufficio Didattica
·Disposizioni per la regolamentazione degli accessi all'istituto in vigore dal 15
·Nuovo orario di ricevimento al pubblico dell'ufficio Didattica
·Turnazione Collaboratori Scolastici - Dal 22 al 27 Giugno 2009
·Turnazione Collaboratori Scolastici - Dal 15 al 20 Giugno 2009
·Turnazione Collaboratori Scolastici - Dal 25 al 30 Maggio 2009
·Turnazione Assistenti Tecnici - Dal 25 al 29 Maggio 2009
·Turnazione Collaboratori Scolastici - Dal 18 al 23 Maggio 2009
·Turnazione Collaboratori Scolastici - Dall'11 al 16 Maggio 2009
 

  Archivio News

Seleziona il mese da vedere:


[ Mostra tutti gli articoli ]
 

 
  Bacheche: Crisi dei fondamenti della fisica classica e ......"
Postato il Martedì, 13 gennaio 2004 ore 14:36:00 CET di p.privitera
 
 
  Iniziative

Dispense  sul seminario che si è tenuto al Cannizzaro sul tema "Crisi dei fondamenti della fisica classica e mutamenti dei principi generali della conoscenza".Le dispense sono a cura dei  professori Rapisarda Martino, Micalizzi Filippo e Maccarrone Gaetano.



ITIS “S. CANNIZZARO” – CATANIA

SEMINARIO

“CRISI DEI FONDAMENTI DELLA FISICA CLASSICA E MUTAMENTI DEI PRINCIPI GENERALI DELLA CONOSCENZA”

 

Dispensa a cura del Prof. Filippo Micalizzi

 

ALCUNE NOTE  SU SCIENZA E FILOSOFIA

 

                              

 

 

 

 

 

 

 

L’eredità del pensiero greco

 

 

o de avexetastos bios ou biwtos anqrwpos

“Una vita senza ricerca non è degna di essere vissuta”

(Apologia di Socrate)

 

I filosofi greci sono stati i primi ad indagare intorno alla possibilità di una conoscenza razionale del  mondo. Essi hanno sollevato una serie di questioni  relative ai fondamenti del sapere che hanno costituito il nucleo attorno cui  si sono sviluppati il pensiero,  la scienza la cultura europei a partire dal VI sec A:C  fino ai nostri giorni..

Accennerò brevemente ad alcune di queste tematiche perché, come vedremo,  la crisi dei fondamenti  le riproporrà in tutta la loro “drammaticità”,  inducendo filosofi  a “ritornare” alla Metafisica di Aristotele e al Sofista di Platone  e scienziati a riprendere gli Analitici di Aristotele o la filosofia della natura dei “presocratici”. Di nuovo, come 2500 fa,  la comunità filosofica si dividerà allora fra coloro che si ispireranno ai Pitagorici o a  Platone e coloro che invece seguiranno la strada tracciata dagli ionici, dai sofisti o da Aristotele.  

 

Il pensiero razionale è nato con i Greci, i quali intraprendono un programma di ricerca  il cui fine è definire un metodo di conoscenza che fa uso di procedimenti razionali e che respinge  decisamente l’intervento di entità soprannaturali per spiegare le cause dei fenomeni. L’obiettivo è quello di raggiungere la “verità” , alhqeia , che etimologicamente deriva da lanqanw = essere nascosto, sfuggire all’osservazione  In questa parola c’è già il “programma di ricerca” dell’intera filosofia greca:  la verità non è ciò a cui si deve credere per fede (verità nella nostra lingua viene da “vara” che significa fede),  ma ciò che va reso manifesto (c’è l’alfa privativa…) e  lo strumento che fa emergere  “ciò che è nascosto”  è l’indagine razionale.

Ma esiste una verità ?  O, in altri termini, esiste una realtà oggettiva governata da leggi razionali indipendentemente dal soggetto ?  

I greci, è noto, guardano il mondo reale come fusis  (da fuw = produrre, generare) , come tale  esso è concepito come sede di continui processi di generazione e di corruzione, di un continuo passaggio da essere a non essere, dalla vita alla morte . In questa incessante catena di mutamenti  noi rileviamo però che alcune fenomeni sembrano mostrarci delle regolarità, delle caratteristiche, nei fenomeni, che si ripetono. La domanda può porsi quindi in questi termini: queste regolarità sono il risultato di una realtà strutturata indipendentemente dall’osservatore? 

La scuola ionica e i sofisti rispondono un deciso No.  Per poter affermare questo, sostengono, dovremmo assicurarci che effettivamente  c’è qualcosa  che si mantiene identico, e non solo approssimativamente, a se stesso; ma,  quand’anche così fosse chi ci assicura che ciò che noi vediamo come immutabile ora lo sarà anche domani o per sempre ?  Da questa premessa essi deducevano che l’unica forma di conoscenza è la sensazione, la quale proprio perché mutevole,  non può darci alcuna certezza sull’esistenza di una realtà ordinata secondo rapporti razionali. Scienza e opinione pertanto hanno la stessa validità.

Protagora e i sofisti estendono queste concezioni anche alle questioni etiche e politiche. “L’uomo è misura di tutte le cose” afferma Protagora.  Neppure i valori etici e morali quindi, esattamente come le categorie gnoseologiche, hanno una valenza oggettiva.   

 

Allora una verità oggettiva non esiste? 

La scuola eleatica (Parmenide, Zenone) e i pitagorici  sono convinti di Si .  

A loro avviso, i sensi sono solo degli strumenti  attraverso cui osserviamo la realtà, ma non ci danno di per sè nessuna conoscenza.  L’equazione sensazione =conoscenza è pertanto sbagliata. L’organo della conoscenza è l’intelletto ed è questo che ci garantisce una conoscenza stabile.

 

“Dunque in queste affezioni (i sensi) non c’è conoscenza bensì nel ragionare intorno ad esse”  (Platone - Teeteto) .

 

L’intelletto ci permette di rilevare l’esistenza di una corrispondenza fra le regolarità osservate in natura e le leggi della logica  e della matematica (scuola pitagorica e platonica). Questa corrispondenza non può essere casuale. Quanto  alla logica e alla matematica si tratta di conoscenze che non ricaviamo dall’esperienza ma da noi stessi.

Una realtà oggettiva con le sue leggi quindi esiste, anche se la strada che porta alla conoscenza delle sue leggi è difficile e ardua da percorrere. 

 

Platone e Aristotele si inseriscono in questo dibattito sui fondamenti della conoscenza apportando  contributi di alto valore speculativo e introducendo nuove tematiche e nuovi punti di vista. I due filosofi possono essere considerati i veri fondatori del pensiero europeo in quanto aprono due distinte linee di ricerca che per la ricchezza di temi e la profondità d’indagine  costituiscono i due tronconi principali lungo i quali si  svilupperà  il pensiero europeo. 

Entrambi sono convinti che al di là delle apparenze esiste una realtà oggettiva conoscibile con gli strumenti della logica. In altre parole che  il mondo è  logos (da legw : dire). Il significato di questo termine è profondo e costituisce il tratto distintivo della filosofia europea. Per es. le filosofie orientali (uso questo termine in senso geografico)  non hanno un logos in quanto non riconoscono alla ragione umana la possibilità di conoscere ciò che si cela dietro le apparenze (il velo di maia). Il raggiungimento della verità si risolve in un processo “mistico” che passa attraverso una faticosa e graduale opera di purificazione dai sensi.

logos è parola dal significato molteplice: significa  ciò che viene espresso mediante un discorso ma significa anche ragione..

Se la realtà è logos  allora essa può essere espressa mediante il discorso scritto o parlato. Il pensiero greco si è sviluppato intorno a due diverse concezioni del logos che hanno dato avvio a due “progetti” di conoscenza distinti,  Il logos eracliteo e il logos  parmenideo.

Il logos eracliteo sostiene che l’essenza della realtà è il movimento e considera la quiete solo un momento dentro il flusso del reale.  Conoscere allora significa trovare le leggi di movimento della realtà.

Il logos  parmenideo sostiene l’esatto contrario. L’essenza del reale è la quiete e il movimento è solo apparenza. Conoscere significa individuare le strutture costanti che si celano dietro l’apparente flusso del molteplice. 

Se il reale “svelato” è  logos , la scienza,  diventa discorso comprensibile a tutti e non riservato solo a pochi iniziati. La scienza diventa  pubblica.  

La scienza ora è  episthmh (da   epi e istamai quindi lett. “su ciò che persiste, che non muta” o da epw  , “seguire il movimento di una cosa”  ) ovvero un indagine, condotta con il solo ausilio dell’intelletto, volta a trovare le leggi  di ciò  che  “permane”  o di ciò che “si muove”.

 

Sia Platone che Aristotele sono persuasi che esiste una realtà indipendente dall’osservatore e che questa sia regolata da leggi conformi alla ragione. Scienza è per entrambi ricerca di ciò che “persiste”. Dove divergono nettamente è sulla natura della struttura logica che sottende la realtà.   

Per Platone  ciò che una cosa è si trova al di fuori della cosa stessa ed è  inaccessibile all’osservazione empirica. Non possiamo perciò arrivare alla definizione di cosa sia qualcosa  mediante inferenze induttive.  

Per Aristotele invece ciò che una cosa è si trova dentro la cosa stessa ed è accessibile all’osservazione empirica. E’ possibile perciò arrivare alla definizione di cosa sia qualcosa  (rispondere alla domanda ti esti ? ) mediante inferenze induttive.

Per Platone ciò che rende il reale razionale è il fatto di essere composto di entità logiche, che lui chiama  idee (ma anche forme). Le cose, gli oggetti dell’esperienza  sono solo delle copie approssimative delle idee. Ciò che dà senso al mondo è il particolare modo in cui le idee sono correlate fra di loro e il criterio d’ordinamento lo dà la matematica . La conclusione è  che la validità delle teorie scientifiche non può essere derivata dall’esperienza, ma da considerazioni logico-matematiche e da procedimenti logica-deduttivi. 

Per Aristotele invece ciò che rende razionale il mondo è il suo essere composto di sostanze semplici   Le cose come oggetti dell’esperienza sono sostanza complete composte “tutte” di materia e forma.  Ciò che assicura un senso al mondo è che ogni sostanza è intrinsecamente definibile  e perfettamente catalogabile in una realtà che rispecchia le regole della logica .   

 

 

 

 

Leibniz Newton,  Kant e l’universo

 

 

 

“ Un francese che capiti a Londra trova che le cose sono molto  cambiate In filosofia come in tutto il resto. Ha lasciato il mondo pieno e lo trova vuoto. A Parigi l’universo lo si vede composto da vortici di materia sottile; a  Londra nulla si vede di tutto questo…Presso i cartesiani tutto avviene per effetto di un impulso incomprensibile; per Newton, invece in forza di un’attrazione di cui non si conosce meglio la causa”   (Voltaire –Lettere inglesi)

      

E’ interessante vedere lo stato delle conoscenze sullo spazio e il tempo prima della rivoluzione einsteniana. Le cosmologie a confronto erano fondamentalmente due: quella di Leibniz e quella di Newton. La cosmologia di Cartesio era stata ormai accantonata grazie alla rivoluzione newtoniana. 

Leibniz confuta la tesi secondo cui lo spazio e il tempo debbano considerarsi entità reali indipendenti. A tal fine invoca il principio di ragion sufficiente, un principio su cui è fondata tutta la cosmologia leibniziana:

 

“Non accade niente senza che ci sia una ragione perché ciò sia così invece che altrimenti”

 

Vediamo di chiarirne il significato prendendo in considerazione lo spazio.

Chiedersi se le leggi della natura sono necessarie è una domanda mal posta perché esistono infiniti mondi possibili cui corrisponderanno cosmologie diverse. Tuttavia ci sarà pure un motivo per cui viviamo proprio in un mondo fatto così. La disposizione dei mobili in una stanza della vostra casa non è “necessaria”, ma sicuramente ci sarà un motivo sufficiente perché sia così.   

Seguiamo ora l’argomentazione relativamente allo spazio.

Supponiamo che A,B,C,D…  siano n oggetti qualsiasi. Ognuno di questi sta in un rapporto peculiare con gli altri nel senso che se io sostituisco, poniamo, l’oggetto D con un altro, per es. X,  quest’ultimo avrà un rapporto  con gli altri simile ad A ma non identico. Se però prescindo dalle relazioni specifiche dei due oggetti, posso affermare che D e X occupano il medesimo posto.  Il concetto di posto dunque è un astrazione.

A questo punto sorge nell’intelletto un ulteriore livello di astrazione e questa porta  all’idea che comunemente abbiamo della spazio come contenitore di oggetti. Ciò non avviene perché lo spazio sia una realtà oggettiva ma per una necessità interna dell’intelletto:  quella di concepire in unica idea tutte le  possibili relazioni di situazione che gli n oggetti possono assumere.

Lo spazio quindi è un prodotto dell’intelletto, ovvero  il modo in cui sintetizziamo (per usare un termine kantiano) entro un'unica idea insiemi di relazioni (spaziali in questo caso).

Ma, e qui sta il punto, la certezza ultima che lo spazio non può essere  “sostanza”,  ci è garantita da Dio.

Infatti se così fosse, Dio avrebbe creato uno spazio omogeneo e isotropo in cui noi non saremmo capaci di spiegarci perché abbia disposto gli oggetti in questo modo invece che in un altro. Un cosmo così fatto potrebbe essere solo il frutto della volontà di un dio di  impedire all’uomo di comprendere ciò che è stato creato per noi, non essendo più valido il principio di ragion sufficiente.

La materia contenuta nell’universo deve essere distribuita uniformemente in tutto lo spazio (che è infinito), quindi il cosmo non ha né confini né un centro.  Se così non fosse dovrebbe esserci una ragione sufficiente perché le galassie siano disposte in questo modo piuttosto che in un altro.

Newton naturalmente la pensava in maniera diversa. La materia non può essere infinita perché Dio è l’unico infinito in “atto”.  La materia quindi non è distribuita uniformemente perché l’universo è finito e ha un centro. 

Per entrambi  comunque lo spazio era euclideo e quindi  era  possibile in linea di principio costruire un modello in scala che ne riproducesse l’esatta topologia.

Chi aveva ragione?

Kant nella seconda parte della critica dimostra che entrambe le asserzioni sono vere. Questo accade, afferma il grande  filosofo, perché i nostri schemi non sono adatti ad un’indagine di questo tipo: lo spazio infatti non è un idea dell’intelletto ma un’intuizione pura:

 

“Tutte le rappresentazioni, nelle quali non è mescolato nulla di ciò che appartiene alla sensazione, le chiamiamo pure (in senso trascendentale). Quindi la forma pura delle intuizioni sensibili in generale, in cui tutta la varietà dei fenomeni viene intuita in determinati rapporti si trova a priori nello spirito”. Questa forma pura della sensibilità si chiamerà essa stessa intuizione pura” (Critica della ragion pura)

 

In altre parole quello che noi chiamiamo spazio è semplicemente il modo in cui organizziamo le nostre sensazioni secondo certi rapporti spaziali. E questo modo è conforme alla geometria euclidea, per cui se lo spazio come “cosa in sé”  fosse per es. curvo non  avremmo alcuna possibilità di accorgercene.

Lo spazio tempo einsteniano mette in crisi  la teoria kantiana. Per es. una conseguenza della geometria euclidea è che non possiamo disegnare cinque punti tutti equidistanti fra loro. Ma cosa diremmo se trovassimo per es. cinque stelle equidistanti? Per Kant sarebbe impossibile e sospetterebbe un errore di misura, ma in uno spazio curvo questo sarebbe possibile. Ovviamente dovremmo rinunciare rappresentare l’universo mediante un modello in scala del tipo di quello di Newton o Leibniz. 

Le teorie kantiane sulla spazio e il tempo furono rivedute dai neokantiani della scuola di Marburgo, ma ormai era sempre più evidente che esse non erano più in grado di seguire il passo della rivoluzione scientifica in atto. La nuova fisica dei quanti infatti metteva in discussione alla radice le elaborazioni kantiane decretando la non necessarietà di una rappresentazione spazio-temporale dei fenomeni.

La Critica della ragion pura era troppo legata alla fisica newtoniana, ed era stata “inventata” dal genio di Kant  per dare a questa una solida base speculativa .

 

 

 

 

“Austria felix” e Ernst Mach 

 

 

“Si stupiva un dì un allocco, certo io trovo assai sciocco

che quel pino sempre esista se non c’è nessuno in vista.

Molto sciocco o mio signore è soltanto il tuo stupore

Tu non hai pensato che se quel pino sempre c’è

                                                                       È perché lo guardo io. Ti saluto e sono Dio”

                                                                       (Filastrocca del XVII sec. su G. Berkeley)

 

La vita culturale della Vienna nei primi venti anni del nuovo secolo è ricca di stimoli e di novità in tutti i campi intellettuali:  pittura, letteratura, musica, architettura, filosofia…. 

D’altronde nei vent’anni che precedono il XX secolo la città era stata un importante centro di studi in vari campi del sapere: Brentano aveva ripreso la logica scolastica e riebolandola in direzione della fondazione logica della matematica, K. Menger e il suo allievo Bohm-Bawerk aveva fondato la teoria marginale in economia e gli austro-marxisti come Adler, Hilferding,  Bauer avevano fatto opera di revisione o di ammodernamento del marxismo. 

I  famosi caffè, come il Cafe Central o il Griensteldt., diventano luoghi in cui  si incontrano, si intrecciano, in una rete complessa,  interesse culturale , aspirazione umana, sensibilità artistica, intelligenza speculativa di una generazione che di lì  a poco assisterà impotente alla carneficina della Grande Guerra, al crollo dell’Impero asburgico, all’avvento della barbarie nazista. E sarà il nazismo a dare il colpo di grazia, decretando la fine di  quest’ “Austria felix”, così lucidamente evocata da Joseph Roth (1894-1939) ne “La cripta dei cappuccini” .      

Ciò che accomuna queste avanguardie è l’atteggiamento scettico e disincantato verso la realtà  e la sua pretesa di “oggettività” (uno degli autori più letti è Schopenhauer). La realtà  è apparenza, illusione, sogno e dietro la sua falsa solidità  non ci sta nulla di razionalizzabile, nulla a cui valga la pena di credere. Ma non è solo ciò che sta fuori di noi a perdere la sua “materialità”.  A Vienna c’è Sigmund Freud  che sta evocando ben più terribili “fantasmi” che si agitano inquietanti e proteiformi nel profondo dell’inconscio. Cosa ci dicono? Ci dicono  che  “l’uomo non è più padrone in casa propria”: la festa autocelebrativa dell’ “Io razionale”  dopo quasi duemilaecinquecento anni è finita.    

C’è anche uno scrittore a Vienna che non conosce ancora Freud e probabilmente non sa neppure di che si occupa.  E’ Arthur Schnitzler e  scrive un romanzo:  “Doppio sogno” . Una tranquilla famiglia borghese, una coppia del tipo “belli, innamorati e felici”, che inesorabilmente, confessione dopo confessione, si cala nelle regioni più nascoste e profonde dell’io. Ed ecco che a poco a poco  “il rimosso” affiora, con i suoi desideri repressi, le sue pulsioni, le sue tensioni erotiche,  e svela l’indicibile che si cela dietro l’ipocrita facciata  del perbenismo. Tutto va in malora.  

A Vienna lavorano artisti come Gustav Klimt e Oskar Kokoscha che sperimentano nuovi forme espressive nella pittura in contrapposizione all’impressionismo francese. Nel 1897  fondano la Secessione grazie all’aiuto economico di mecenati come T. Wittngenstein, padre di Ludwig, che costruirà per loro il palazzo della Secessione. L’edificio verrà poi abbattuto dai nazisti come un simbolo di “arte  degenerata”. 

La scomposizione fra immagine e colore, l’esaltazione dell’atonalità, sono alcuni strumenti espressivi con cui questo straordinario gruppo di artisti porta avanti un discorso nuovo fondato sull’arte come espressione della soggettività e individualità dell’artista, sulla negazione di ogni forma di oggettività e di realismo, sul rifiuto dei canoni di bellezza e di armonia convenzionali.

Di altissimo livello artistico è  l’opera di Kokoscha. Basti a provarlo le  ben 16 le opere che figurano nell’esposizione sull’arte degenerata organizzata dai nazisti a Monaco nel 1937. Scrittore  oltre che artista, studioso di Bachofen, Nietzche  e Freud , sviluppa sul piano letterario il tema antropologico della “lotta fra i sessi”,  attraverso la composizione di una serie di drammi fra cui  (1910)  “Assassinio, speranza delle donne”.

La filosofia dominante in molte Università europee è ancora quella kantiana, ma a Vienna, nel 1895 è arrivato Mach, che ha occupato la cattedra di Filosofia delle scienze induttive.  Una cattedra creata ad hoc grazie all’interessamento di un entusiasta allievo. H. Gomperz, convinto che si possa dare un fondamento scientifico all’estetica impressionista. Gomperz, che entrerà a far parte del Circolo di Vienna, intercederà presso il padre, illustre grecista dell’Università di Vienna che riesce a far istituire una cattedra di “Filosofia delle scienze induttive”. 

L’influenza di Mach  fu profonda e in tutta l’Europa, Russia compresa; e non si esercitò solo su filosofi e scienziati, ma anche su artisti e i letterati. 

Basti pensare che Robert Musil consegue il dottorato di filosofia (1908) proprio  con una tesi su Mach (“Sulla teoria di Mach”).

Basti pensare che Vladimir Lenin è obbligato a scrivere, nel pieno della acuta crisi politica apertasi nel POSDR sopraggiunta con il fallimento della rivoluzione democratica del 1905, il suo  “Materialismo ed empiriocriticismo” in cui, in pagine dense di vis polemica, cerca di confutare il solipsista Mach, “ottimo scienziato” ma “pessimo filosofo”,  accusandolo di ripetere “male”  quello che aveva già detto “bene” Gorge Berkeley. Già, perché persino il bolscevico Bogdanov, dirigente di primo piano del POSDR e leader carismatico degli otzovisti, contro cui Lenin combattè una battaglia durissima, aveva accolto con entusiasmo le idee di Mach e meditava una “revisione” del materialismo dialettico in senso machiano.  

E’ un peccato che Lenin non avesse ancora letto Hegel, (lo farà qualche anno dopo e scriverà i quaderni filosofici), avrebbe forse evitato di combattere Mach con  l’arma spuntata del materialismo “volgare”.

Ma la testimonianza più indicativa è quella di Hugo von Hoffmannsthal, indicativa perché rivela  corrispondenze significative  fra  il piano della sensibilità  artistica e quello speculativo. . Lo scrittore dopo aver assistito ad una lezione di Mach scrive:

 

..ho completamente perduto la capacità anche solo di pensare o di dire qualcosa di unitario…ho provato un inspiegabile malessere anche solo a pronunciare le parole “spirito” , “anima”, o “corpo”…le parole astratte di cui la lingua (in ted. Zunge, nel senso di parte anatomica) deve naturalmente servirsi, mi si disgregano in bocca come funghi ammuffiti. Mi si disgrega tutto in parti e le parti ancora in parti e nulla più si lascia abbracciare con un concetto”

 

Hoffmannsthal ha centrato in pieno lo spirito della filosofia di Mach.  Che cos’è la mente, la realtà esterna, gli oggetti fisici? Sono solo modalità con cui combiniamo gli elementi  ritagliandoli da un flusso omogeneo di sensazioni.  Omogeneo significa che non esiste distinzione fra elementi psichici ed elementi fisici; quindi non esiste un primato della fisica sulla psicologia. Quest’ultima può avere uno statuto scientifico in quanto i fenomeni mentali e ciò  che noi chiamiamo “coscienza” sono riducibili a fenomeni osservabili e analizzabili.  Sparisce con questo il dualismo cartesiano fra materie e spirito, l’irriducibilità della “res cogitans” alla “res extensa”.

Le cose allora sono complessi relativamente stabili di sensazioni che noi distinguiamo come “cose”, non perché corrispondano a strutture “sostanziali” indipendenti,  ma unicamente in seguito ad un lungo  processo evolutivo di adattamento dell’uomo alla natura. Siamo in  pieno darwinismo.

L’assemblaggio degli elementi dell’esperienza non viene operato dall’intelletto ma dal nostro sistema nervoso periferico-centrale e secondo un criterio che è eminentemente  “pratico”.

 

Quanto agli oggetti della scienza essi non si differenziano dagli oggetti della comune esperienza ma presentano una complicazione in più: non è possibile distinguere gli elementi derivati dall’osservazione da quelli introdotti dalla teoria stessa.

 

“Neppure osservazione e teoria sono separabili in modo netto, perché quasi tutte le osservazioni sono già influenzate dalla teoria e , se hanno sufficiente importanza, influenzano a loro volta la teoria”

 

Compito della scienza perciò non è quello di spiegare fantomatiche strutture più o meno nascoste dietro le apparenze, ma semplicemente descrivere, correlazioni funzionali fra esperienze sensoriali.

 

“Ci si illude solitamente nel ritenere di aver ridotto l’inintellegibile all’intellegibile. La comprensione consiste esclusivamente nell’analisi; e solitamente si riducono inintegibilità non comuni ad altre inintelligibilità ma più comuni”  (La meccanica nel suo sviluppo storico-critico)

 

La storia dimostra inconfutabilmente, (è  l’opinione di Mach, non la mia)  che il fine della scienza non è mai stato la “conoscenza”  disinteressata,  ma quello di produrre il migliore adattamento dell’uomo alla natura; e l’ uomo ha svolto questa attività adottando criteri di economicità e risparmio . 

 

“Tutta la scienza ha lo scopo di sostituire, ossia di economizzare esperienze mediante la riproduzione e l’anticipazione di fatti nel pensiero”

 

o, più esplicitamente, nel lavoro su “Le forme dei liquidi”:

 

“Essa (la scienza) si propone con il minimo di lavoro, nel minimo tempo, con il minimo sforzo di pensiero, di appropriarsi la massima quantità possibile dell’infinita, eterna verità”

 

 

 

 

Ludwig Wittgenstein

 

 

 

“ I problemi metafisici nascono quando il linguaggio fa vacanza”

                                                  (Ludwig Wittgenstein)

 

Il pensiero di Wittgenstein si può suddividere in due fasi: quella espressa nel  Tractatus logicus-philosophicus e quella, più matura, espressa nelle Ricerche filosofiche. La differenza fra i due momenti ha come oggetto la natura  del linguaggio.

Nella prima elaborazione Wittgenstein  è convinto che esista un linguaggio “privilegiato”, quello della scienza.  Esso può vantare questo status speciale perché è strutturato in modo da essere un’immagine “fedele” quanto logica della realtà.

Il compito centrale della ricerca filosofica è quindi determinare con l’aiuto della logica le regole e la struttura di un tale linguaggio. 

L’uso di tale linguaggio permetterà alla filosofia, da un lato, di compiere la sua azione chiarificatrice delle condizioni e dei limiti del discorso scientifico,  dall’altro di smascherare le incongruenze che si celano dietro le asserzioni della metafisica.    

Possiamo farci un’idea della filosofia di Wittgenstein  paragonando il mondo ad una scacchiera composta di quadrati su cui stanno i pezzi degli scacchi. I quadrati e i pezzi sono le “cose”, gli oggetti fisici della realtà. Ad un certo istante possiamo rilevare la posizione dei pezzi e questo sarà un “fatto”, cioè qualcosa che accade. E’ evidente che possiamo comprendere questo “fatto”  solo se conosciamo le regole del gioco. Ma, e questo è il punto cruciale, anche il significato degli oggetti, i pezzi e i quadrati, non può essere compreso al di fuori delle regole del gioco. Allora il “mondo” non è composto di “cose”, non è la scacchiera più i pezzi, ma di “fatti”, la totalità di tutti i possibili accadimenti  (posizioni dei pezzi sui quadrati della scacchiera)  sulla base di leggi definite ( le regole del gioco). Quindi il mondo non è costituito prima  cose e poi di eventi, ma di fatti, cioè cose ed eventi, in cui le “cose” acquistano significato solo se concepite in relazione ad essi :

    

 

“Come non possiamo affatto concepire oggetti spaziali fuori dallo spazio, oggetti temporali fuori dal tempo, così noi non possiamo concepire alcun oggetto fuori della possibilità del suo nesso con altri”

 

Queste idee centrali in tutto il suo pensiero, vengono espresse nelle prime proposizioni del Tractatus

 

1.      Il mondo è tutto ciò che accade

1.1.   Il mondo è la totalità dei fatti, non delle cose

2.      Ciò che accade, il fatto, è il sussistere di stati di cose

2.1.   Lo stato di cose è un nesso d’oggetti (entità, cose)

 

Ciò che Wittgenstein chiama oggetti sono entità “logiche” non ulteriormente scomponibili in entità più semplici; come tali essi sono i costituenti ultimi della realtà (da qui deriva il nome di atomismo logico, dato alla sua filosofia ).  La loro esistenza non può essere dimostrata, ma come Wittgenstein fa rilevare,  se non esistessero, non potremmo dire nulla sul mondo perché le proposizioni che descrivono i fatti sarebbero scomponibili all’infinito.  

Esiste una corrispondenza fra fatti e proposizioni che li descrivono. Come un fatto è una relazione fra cose e/o altri fatti,  così la proposizione è un insieme di segni che correla i nomi, che denotano le cose,  con altri nomi e/o con  altre proposizioni. 

Come i fatti, anche le proposizioni sono scomponibili in proposizioni elementari che descrivono stati di cose. Una proposizione ha un senso se di essa è possibile dire se è vera o falsa .

La condizione perché ciò sia possibile è che i nomi che figurano in essa abbiano un significato e che sia scomponibile in proposizioni elementari che descrivono stati di cose. 

Il mondo allora è descritto completamente da tutte le proposizioni elementari unitamente all’indicazione di quali siano vere e quali siano false.

Quanto alle asserzioni che riguardano la metafisica, esse vanno respinte non perché siano false ma perché prive di significato.  Proposizioni come “Esiste la cosa in sè ma è inconoscibile” o “ Dio ha creato il mondo”  sono prive di senso perché  i loro termini “Dio” e “cosa in sé” non designano entità  univocamente determinate e “creare il mondo” o “essere  inconoscibile”  non descrivono stati di cose.

La seconda fase del pensiero di Wittgenstein è quella dell’insegnamento a Cambridge (dove ha rilevato la cattedra di Moore). In questo periodo scrive le “Ricerche filosofiche” uno dei capolavori della filosofia del novecento.

Due sono le modifiche sostanziali alle tesi del Tractatus,

 

  • La funzione del linguaggio non è solo quella di rappresentare o denotare la realtà    
  • Il senso di una proposizione non dipende dalla sua scomponibilità (atomismo logico)  ma  dalle circostanze e dalle regole del suo uso.

 

Il linguaggio  è un insieme di  regole (che richiedono per il loro apprendimento specifiche tecniche) che nascono all’interno di un contesto caratterizzato da specifiche circostanze e bisogni (“forme di vita” nel linguaggio di Wittgenstein.). Insomma non esiste un linguaggio ma tanti “linguaggi” ognuno dei quali segue delle regole  che apprendiamo attraverso una serie di pratiche che Wittgenstein. chiama “giochi linguistici” ovvero:

 

 Tutto l’insieme costituito del linguaggio e delle attività di cui è intessuto”

(Ricerche filosofiche)

Per es. esistono linguaggi  la cui funzione è valutativa-pratica, come come quelli che esprimono sentimenti religiosi o imperativi etici, linguaggi descrittivo-teoretici come quelli scientifici).   Le regole che definiscono un linguaggio in ogni caso  sono  “pubbliche”   nel senso che la loro applicazione poggia su una prassi  riconosciuta dalla comunità.  

 

 

 

 

Il circolo di Vienna

 

 

La matematica pura è quella scienza in cui non sappiamo

di che cosa stiamo parlando e se ciò che stiamo dicendo è vero

                                                           (Bertrand Russell)

 

Il Circolo di Vienna  si costituisce per iniziativa di  M. Schlick,  docente presso quella  stessa cattedra che era stata di Mach e di  Boltzmann (morto suicida). e  di alcuni studiosi di diverse discipline, fra i quali annoveriamo  H.Hahn (matematico), O. Neurath (sociologo), V. Kraft (storico delle idee), F. Kaufmann (giurista), P. Frank (fisico), R.Carnap (filosofo).  L’iniziativa  nasce, è bene sottolinearlo, al di fuori del mondo accademico:  le prime riunioni si tengono infatti  non nelle sedi universitarie ma  nei caffè di Vienna  e,  solo  quando il numero dei  partecipanti cresce, si decide di spostarle (sempre il giovedì) in una sala  dell’Istituto di matematica.   

Alle riunioni partecipano anche studenti come Kurt Godel che tanta importanza avrà per la logica, e non solo, negli anni successivi; Godel si limita ad ascoltare e non prende mai la parola:  qualche anno dopo  rievocando quegli anni, confesserà che era perché non ne condivideva le idee; Alle riunioni viene anche un altro  “grande” , Ludwig Wittgenstein.  Anche l’atteggiamento del filosofo non è dei più partecipativi : spesso se ne sta in disparte leggendo poesie, del tutto incurante degli accesi dibattiti che si protraggono fino a tarda notte.    

 

Il circolo si propone due grandi obbiettivi:.

Il primo, la par destruens, è quello di ripulire la scienza di tutte quelle nozioni metafisiche di matrice kantiana, idealistica o, peggio, neotomistica,  che rappresentavano allora le idee dominanti della cultura filosofica “accademica”.  Il Circolo intende estendere a tutta la scienza  l’approccio “antimetafisico” adottato da E. Mach nella sua riformulazione meccanica. 

La critica alla metafisica, come pretesa di spiegare razionalmente il mondo nella sua “totalità”  è puntuale e ne coglie con chiarezza i punti deboli. Fondamentalmente due sono gli errori che le vengono attribuiti:

Il primo è l’uso impreciso del linguaggio . Essa utilizza termini come “sostanza”  “anima”  etc.. il cui significato è poco preciso e conduce  a fraintendimenti. 

In realtà i metafisici non si avvedono che questa difficoltà è tutta interna alla sfera del linguaggio e delle sue regole, e nulla ha che vedere con quella degli “oggetti” e delle loro relazioni.

Per esempio nel linguaggio  comune utilizziamo sostantivi non solo per designare “cose”, ma anche qualità, relazioni o processi. La grammatica ha così facilitato la “sostanzializzazione” della realtà,  ovvero ha introdotto l’idea errata che termini come  “rosso” o “  “moto” corrispondano a  proprietà delle cose.

Il secondo errore è la pretesa di arrivare ad una conoscenza certa senza l’ausilio dei dati empirici ovvero deducendo proposizioni da altre proposizioni e confidando solo sulla interna coerenza logica del sistema.

I dati empirici invece dimostrano che la coerenza logica è solo un requisito necessario ma non sufficiente per convalidare una teoria. 

Insomma, come afferma, P.Frank, con una felice metafora, si tratta  di mettere “il vino nuovo in otri nuovi”. Il  “vino nuovo”  era  la relatività e  la meccanica quantistica.

 

L’altro grande obbiettivo del Circolo, la parte costruens,  è quello di avviare un opera di unificazione di tutte le scienze  sulla base di una metodologia unica e  di una identica struttura logico-formale.

 

Per attuare il questo  “programma”  il Circolo deve risolvere questioni di fondo del tipo:

 

Quand’è il criterio di demarcazione fra asserzioni scientifiche e asserzioni  “metafisiche”?

 

Come costruire, servendosi della logica e della teoria delle proposizioni elaborata da Russell e Wittgenstein,

un linguaggio valido per tutte le proposizioni scientifiche?  

 

La risposta che il Circolo darà a queste domande, non  esente da contraddizioni e incertezze,  ed è profondamente debitrice dell’opera  E. Mach e di L. Wittgenstein.

 

Il criterio di demarcazione che il circolo individua al fine di distinguere scienza e metafisica è il criterio verificazionista. Una proposizione è scientifica se è scomponibile in proposizioni elementari, gli enunciati base, che possano essere verificate direttamente con l’osservazione, in altre parole, proposizioni che corrispondano a dati sensoriali.. La richiesta di verifica a questo punto impone che si diano un insieme  “finito” di  procedure d’osservazione chiaramente definite e riproducibili in qualunque momento.

Quindi se io dico “in questo lago ci sono 5 cigni bianchi”  ho enunciato una proposizione scientifica perché  facilmente verificabile da tutti, in quanto i termini “cigno” e “bianco” corrispondono a insiemi di dati sensoriali precisi, e perché è possibile produrre un elenco  di operazioni “riproducibili” da chiunque intenda  verificarla. 

E’ importante sottolineare che, in questa fase di eleborazione del Circolo di Vienna,  gli enunciati base descrivono dati sensoriali e non  oggetti fisici. Questi ultimi,  come sappiamo da Mach, sono soltanto complessi di sensazioni relativamente stabili, la cui natura dipende a loro volta da  processi psichici  interni al soggetto. Una teoria scientifica è vera se i suoi enunciati base sono veri, cioè se sono riconducibile a esperienze sensoriali.

Questo criterio di scientificità, apparentemente dotato di buon senso, però conduce a delle incoerenze.  

Il problema più serio sorge quando faccio asserzioni del tipo “tutti”. Per esempio la proposizione:  “Tutti i cigni sono bianchi” è scientifica? Sulla base del criterio su esposto la risposta dovrebbe essere no, perché la sua verifica richiederebbe un numero infinito di osservazioni.

Il “dramma” è che le leggi fisiche hanno tutte questa forma, per cui sostenere che “Tutti i cigni sono bianchi” non è una proposizione scientifica equivale ad affermare che le leggi della fisica non appartengono alla scienza ma alla metafisica. Siamo incappati  in un’aporia.

Storicamente questa difficoltà segna il passaggio del Circolo di Vienna dalla fase “fenomenista” alla fase “fisicalista”.

Questa seconda fase è caratterizzata dalla consapevolezza che il criterio “verificazionista”  è inadeguato e  che occorre trovarne un altro che ridefinisca il ruolo dei dati empirici nel processo di verifica delle teorie. 

I capisaldi di questa revisione, operata principalmente da  Neurath  e Carnap ,  si ispirano al  Wittgenstein delle “Ricerche filosofiche” possono riassumersi nei seguenti punti:

 

  1. Il rapporto fra oggetto fisico e dati sensoriali va rovesciato: è l’oggetto fisico a determinare, a costruire i dati sensoriali e non il contrario
  2. Gli enunciati-base non riguardano allora dati sensoriali ma oggetti fisici. Essi descrivono possibili resoconti di esperienze e vengono chiamati “enunciati protocollari”  perché sono assimilabili a resoconti del tipo “qui e ora….”
  3.  Una proposizione è scientifica se è riducibile ad uno o più enunciati protocollari 
  4. Il criterio di verifica di non  si basa sul confronto fra enunciati-base e “dati empirici” , ma su quello fra proposizione ed enunciati protocollari  Non si tratta quindi di una “verifica” ma di una “conferma”
  5. L’oggettività di una teoria scientifica è definita dalla sua intersoggettività

 

Quindi la  proposizione “Tutti i cigni sono bianchi”  è scientifica in quanto è possibile confrontarla  (confrontare il predicato osservativi “bianco” e “cigno” )  con enunciati protocollari del tipo “Alle 10.00 A.M  nel parco di Yellowstone Filippo ha osservato un cigno bianco”. 

 

 


 

La nausea

 

 

“E’ dunque questa la Nausea: quest’accecante evidenza! 

Quanto mi ci son lambiccato il cervello! Quanto ne ho scritto!

Ed ora lo so: io esisto – il mondo esiste – ed io so che il mondo esiste. Ecco tutto”

                                               (J.P.Sartre – La nausea)

 

Per lunghi secoli, il pensiero razionale nell’indagare intorno ai processi conoscitivi è sempre partito dal tacito presupposto che fosse sempre possibile definire nettamente una superficie di separazione fra uomo e mondo. L’ al di qua di questa interfaccia,  un “luogo”  non contaminato dalla materia e dalla storia,  era la sede dell’ io, delle categorie logiche, dell’anima, della  coscienza etc..., un fortino ben protetto, da cui l’ Io razionale lanciava i suoi assalti  per conquistare ciò che stava “al di là”.

Ci siamo accorti che questo dualismo era una costruzione “ideologica”: dietro l’Io puro, dietro lo “spirito assoluto”, dietro la “res cogitans” , operava la razionalità del dominio dell’uomo sulla natura, su una natura ridotta a “cosa”. 

Pensieri, emozioni, sentimenti desideri  tutto è intenzionale; persino la coscienza è sempre coscienza di qualcosa.

E’ la fine della metafisica, la morte di Dio.  

Allora, quale significato dare alla nostra esistenza? Quale senso dare ad un mondo del tutto privo di fondamento oggettivo? Tutto è rimesso alla libertà, la libertà incondizionata, di ognuno di noi:

“è la stessa cosa ubriacarsi in solitudine o guidare i popoli”.

Ma forse una speranza c’è.

Lasciamo l’ultima parola a Ronquetin:

 

“Allora è possibile giustificare la propria esistenza? Un pochino?….Non potrei forse provare…

Dovrebbe essere un libro: non so far altro. Ma non un libro di storia: la storia parla di ciò che esistito – un esistente non può mai giustificare un altro esistente. ..Una storia, per esempio, come non possono capitarne, un’avventura. Dovrebbe essere bella e dura come l’acciaio, e che facesse vergognare le persone della propria esistenza”

 


 

 

 

Bibliografia

Platone – Dialoghii  Vol. 3 -Sofista, Teeteto, Parmenide, Filebo  - La Terza

Aristotele –Opere Vol. 6 - Metafisica – La Terza

Hahn, Neurath, Carnap - La concezione scientifica del mondo – La Terza

E. Mach  - Conoscenza ed errore – Einaudi

E. Mach  - La meccanica nel suo sviluppo storico critico –Boringhieri

V. Lenin – Materialismo ed empiriocriticismo – Editori Riuniti

R.Carnap – La costruzione logica del mondo – Fabbri

R. Carnap – Sintassi logica del linguaggio - Silva

M. Schlick  -  Sul fondamento della conoscenza – La Scuola

A. Ayer – Linguaggio, verità e logica - Feltrinelli

Wittgenstein – Tractatus logicus-philosophicus – Einaudi

Wittgenstein -  Ricerche filosofiche – Einaudi

Aldo Gargani - Introduzione a Wittgenstein – La Terza

Barone – Il neopositivismo logico - Einaudi

K. Popper –  La logica della scoperta scientifica –Einaudi

K. Popper  -  Congetture e confutazioni – Einaudi

R. Kuhn – La struttura delle rivoluzioni scientifiche - Einaudi

E. Nagel – La prova di Godel - Boringhieri

B. Russell – Principi della matematica – Longanesi

B. Russel – Storia della filosofia occidentale - Longanesi

J.P Sartre – L’essere e il nulla – EST

J.P Sartre – La nausea – Longanesi

J.P Sartre – L’esistenzialismo è un umanismo - Mursia

 

*************************************************************

ITIS “S. CANNIZZARO” – CATANIA

SEMINARIO

“CRISI DEI FONDAMENTI DELLA FISICA CLASSICA E MUTAMENTI DEI PRINCIPI GENERALI DELLA CONOSCENZA”

Dispensa a cura del Prof. Gaetano Daniele Maccarrone

 

RELATIVITA’

 

Il pensiero di E. Mach ebbe molta influenza nella cultura filosofico-scientifica di fine Ottocento e alcuni aspetti del suo programma epistemologico furono ripresi più tardi dagli esponenti del Circolo di Vienna. Obiettivo prioritario del suo programma era l’eliminazione dalla scienza di entità e concetti per principio non controllabili empiricamente. Lo spazio e il tempo assoluti della meccanica newtoniana, “forme pure dell’intuizione sensibile” per I. Kant, furono considerati da Mach come rilevanti esempi di residui metafisici in ambito scientifico. La Relatività (Speciale e Generale) rappresenta il superamento della concezione newtoniana, ottenuto da Einstein ispirandosi alle idee di Mach.

 

 

Cenni sul percorso storico-scientifico che portò alla Relatività Speciale.

 

Nella seconda metà dell’Ottocento, si era realizzata l’unificazione della trattazione dei fenomeni elettrici, magnetici e luminosi nella teoria dell’elettromagnetismo di J.C.Maxwell. Le equazioni di Maxwell prevedono alcune conseguenze interessanti ai fini del tema che stiamo trattando: 1) le onde elettromagnetiche possono propagarsi nello spazio tra  i corpi materiali; 2) la velocità delle onde elettromagnetiche, al di fuori dei mezzi materiali, ha un valore ben determinato. Per comodità indicheremo con c questo valore (circa 300.000 Km al secondo), come si fa solitamente nella letteratura scientifica. Fino ad allora, la propagazione di qualsiasi fenomeno ondulatorio aveva richiesto il supporto di un mezzo materiale: le onde marine hanno bisogno del mare, quelle sonore dell’aria etc. Si fece quindi l’ipotesi che un mezzo omnipervasivo, chiamato etere elettromagnetico, fungesse da supporto per la propagazione delle onde elettromagnetiche. c era dunque da intendere come la velocità di tali onde rispetto all’etere, ovvero la velocità che esse manifestavano quando le si osservava stando fermi nell’etere. Qualora le si fosse osservate mentre ci si trovava in movimento rispetto all’etere, tuttavia, la loro velocità sarebbe dovuta apparire diversa; alla stessa maniera in cui ci appare diversa la velocità di un’auto che ci sta superando quando ci troviamo a bordo di un’altra automobile in movimento, rispetto a quando ci troviamo fermi sul ciglio della strada. Le equazioni di Maxwell, che assegnavano un ben determinato valore per la velocità delle onde elettromagnetiche (c), dovevano quindi essere valide solo quando l’osservatore fosse stato in quiete rispetto all’etere. D’altra parte, le medesime equazioni andavano benissimo per descrivere i fenomeni elettromagnetici osservati sulla Terra, come se la Terra stessa potesse trovarsi sempre in quiete rispetto all’etere, malgrado il moto di rotazione attorno al suo asse, il moto di rivoluzione attorno al Sole etc. Questo era chiaramente impossibile. Qualcuno avanzò l’ipotesi che, durante il suo moto, la Terra potesse trascinare l’etere che le stava attorno, ma ciò rendeva difficile spiegare alcuni fatti sperimentali (aberrazione della luce stellare). Un’altra possibilità era che i fenomeni elettromagnetici presentassero deviazioni così piccole dal comportamento previsto tramite le equazioni di Maxwell, che gli esperimenti non potevano metterle in evidenza a causa della insufficiente precisione nelle misure. Questo si sarebbe verificato se la Terra si fosse trovata in moto nell’etere con una velocità piccola rispetto a c, ipotesi del tutto ragionevole. Si cercò dunque di progettare e realizzare esperimenti con un grado di precisione sufficiente a rilevare l’eventuale moto della Terra rispetto all’etere. Un famoso esperimento, effettuato da Michelson nel 1881 e poi ripetuto insieme a Morley nel 1887 con maggior precisione, mirava a raggiungere questo obiettivo; ma non furono trovati quegli effetti che ci si aspettava a causa del moto della Terra rispetto all’etere. Numerose furono le proposte per giustificare l’esito negativo dell’esperimento di Michelson-Morley e di altri simili (ma con varianti significative) che furono realizzati successivamente, anche dopo che Einstein ebbe presentato la sua teoria. Lorentz e Poincaré, in particolare, ebbero il merito di costruire una teoria capace di rendere conto dei fenomeni. Detta teoria prevedeva che i corpi in moto attraverso l’etere, interagendo con esso, subissero variazioni di lunghezza e forma e che la misura dell’intervallo di tempo tra due eventi dipendesse dalla velocità con cui ci si muoveva nell’etere. Poincaré propose anche di utilizzare il principio di relatività come una comoda regola che esprimeva l’impossibilità di evidenziare sperimentalmente il moto rispetto all’etere. Questa impossibilità, come è stato fatto notare in precedenza, consisteva nell’incapacità di rilevare deviazioni dal comportamento previsto tramite le equazioni di Maxwell. Tali equazioni dovevano cioè continuare a valere nella stessa forma anche quando ci si trovava in moto rispetto all’etere. Per correlare le misure di due osservatori in differenti stati di moto occorre effettuare delle trasformazioni di coordinate; Lorentz trovò le trasformazioni che permettevano ad osservatori in differenti stati di moto rispetto all’etere di continuare ad usare la stessa forma delle equazioni di Maxwell.

 

 

La Relatività Speciale

 

E’ in tale contesto che si colloca l’opera di Einstein. Nel 1905 venne pubblicato il suo lavoro “Sull’elettrodinamica dei corpi in movimento”, in cui propose la teoria della Relatività Speciale, fondata sui due seguenti postulati (gli enunciati di Einstein sono un po’ diversi, ma del tutto equivalenti):

 

1)      Le leggi della fisica hanno la stessa forma in tutti i sistemi di riferimento inerziali

2)      La velocità della luce nel vuoto ha lo stesso valore in tutti i sistemi di riferimento inerziali

 

Un commento su tali postulati si impone, sia per chiarirne il significato che per valutarne le conseguenze. Un sistema di riferimento può essere considerato come un insieme di osservatori in quiete relativa che concordano sulla posizione e sull’istante di tempo in cui si verifica ciascun evento. Esprimere in breve, in maniera rigorosa e intuitiva allo stesso tempo, cosa significa “inerziale” è impossibile; accontentandoci perciò di essere soltanto intuitivi, possiamo dire che un sistema di riferimento è inerziale quando il moto dell’insieme di osservatori (che sono fra loro in quiete) non è accelerato. Questo significa che tutti insieme si muovono in linea retta con velocità costante. Un osservatore qualunque in moto non accelerato, ovvero appartenente ad un qualche sistema di riferimento inerziale, è detto osservatore inerziale.

Il secondo postulato asserisce che tutti gli osservatori inerziali debbono assegnare lo stesso valore alla velocità della luce nel vuoto, ovvero: il valore della velocità della luce nel vuoto è invariante. Questa affermazione prendeva atto dell’esito negativo degli esperimenti con cui si era cercato di rivelare l’eventuale moto della Terra rispetto all’etere, assumendo che fosse possibile che osservatori diversi, malgrado il loro differente stato di moto, concordassero sulla velocità di un determinato oggetto fisico (la luce). Lorentz e Poincaré avevano trovato il modo di spiegare una tale stranezza; ma avevano appunto dovuto spiegarlo, a partire da ipotesi ad hoc sul modo in cui i corpi avrebbero dovuto interagire con l’etere quando si muovevano attraverso esso. Einstein non fornì, né cercò, alcuna spiegazione del fatto; semplicemente lo assunse come punto di partenza. Questo, che può apparire un comodo espediente, esprime invece la profonda differenza delle scelte epistemologiche e fisiche di Einstein. Cerchiamo di capire. Le misure di velocità implicano misure di distanza e di intervalli di tempo; affinché alla luce possa essere assegnata la stessa velocità da parte di osservatori in stati di moto differenti, occorre che i risultati delle loro misure siano diversi da quelli che ci si aspetterebbe secondo la fisica classica, newtoniana. Partendo dall’analisi delle procedure con cui si effettuano le misure di lunghezza e di tempo, nonché dai postulati della sua teoria, Einstein fece vedere che la simultaneità di due eventi non deve essere considerata un fatto assoluto, valido cioè per qualsiasi osservatore, ma deve dipendere dal sistema di riferimento. In altri termini, due eventi giudicati simultanei in un certo sistema di riferimento, sarebbero invece giudicati avvenire in istanti di tempo diversi in qualsiasi altro sistema di riferimento. In stretta connessione con ciò, si deve concludere che anche la misura di una lunghezza o di un intervallo di tempo porta ad esiti diversi a seconda dello stato di moto di chi effettua la misura (precisamente: gli oggetti in moto appaiono contratti nella direzione del moto; il ritmo degli orologi in moto è più lento).

La Relatività Speciale richiede di rigettare la rappresentazione classica delle relazioni spaziali e temporali. Si abbandona l’idea newtoniana di uno spazio e un tempo assoluti, definiti “senza relazione ad alcunché di esterno”. Le implicazioni di un tale stravolgimento non sono soltanto fisiche, ma anche epistemologiche. In accordo col pensiero di Mach, Einstein non cercò di adattare la teoria fisica ad una rappresentazione dello spazio e del tempo data come un a priori, espressione di ciò che è “vero”; viceversa, costruì le relazioni spazio-temporali a partire dalle concrete operazioni di misura e da opportune ipotesi teoriche. Queste ultime vennero scelte da Einstein per motivi empirici (invarianza della velocità della luce) e per ragioni di eleganza e semplicità (principio di relatività). Quando fu proposta, la Relatività Speciale non rappresentava un migliore strumento previsionale rispetto alla teoria di Lorentz e Poincaré. Questa non è una circostanza eccezionale nel percorso evolutivo della scienza: è possibile che diverse alternative teoriche, circa equivalenti per le rispettive capacità di fare previsioni, si trovino in competizione all’interno della comunità scientifica. La teoria che prende il sopravvento, non potendo contare su un vantaggio significativo nel render conto dell’esperienza, viene spesso preferita sulla base di criteri filosofici o estetici. La nostra esperienza del mondo non ci costringe dunque ad una scelta teorica univoca, ma abbiamo sempre a disposizione più alternative, ciascuna corrispondente ad una diversa rappresentazione del reale. Questa mancanza di univocità non va considerata come un difetto, non deriva da una insufficienza delle teorie scientifiche, ma traduce la ricchezza di idee e di strategie utili di cui possiamo disporre: entro certi limiti, abbiamo la possibilità di adottare una rappresentazione del mondo che soddisfi le nostre esigenze estetico-filosofiche, senza rinunciare alla capacità previsionale richiesta a qualsiasi teoria scientifica. Contrariamente a quanto comunemente si pensa, l’attività dello scienziato non si esaurisce in una asettica presa d’atto di come stanno le cose. Essere consapevoli di disporre di molte possibili scelte teoriche, d’altra parte, non implica necessariamente un atteggiamento anti-realista, come testimonia il caso dello stesso Einstein nella disputa scientifica che accompagnò la nascita della Meccanica Quantistica. Egli credeva in una realtà esterna esistente secondo modalità indipendenti dalla nostra attività di osservatori. Questa, tuttavia, è cosa diversa dal ritenere che ci sia un solo modo “giusto” di rappresentare tale realtà. Il successo della Relatività Speciale è un chiaro esempio storico di come il progresso scientifico non segua, in generale, la strada indicata da Popper e di come non risulti adeguato nemmeno il “falsificazionismo sofisticato” di Lakatos. In questo caso, infatti, non si ha alcuna falsificazione della teoria precedente, non si può ritenere esaurito o regressivo il programma di ricerca di Lorentz e Poincaré, non si passa ad una teoria di maggiore generalità.

Consideriamo adesso il primo postulato della Relatività Speciale: il principio di relatività. Esso esprime un altro tipo di invarianza: l’invarianza delle relazioni (leggi della fisica), piuttosto che quella dei valori, come accade invece nel secondo postulato. Al contrario che in Fisica Classica, la massa, la lunghezza di un oggetto e la durata di un intervallo di tempo hanno valori che dipendono dallo stato di moto rispetto all’osservatore, cioè non sono invarianti. Questo segna una rottura con una lunga tradizione, incarnata dalle diverse forme del meccanicismo, che aveva sempre considerato la massa, la grandezza e la forma degli oggetti elementari quali proprietà intrinseche ed essenziali degli stessi. In Relatività, la relativizzazione di fondamentali grandezze fisiche mette in risalto, per contrasto, l’invarianza delle relazioni che le legano: le leggi della fisica mantengono la loro forma, malgrado il fatto che i valori delle grandezze fisiche che esse correlano siano diversi a seconda dello stato di moto rispetto all’osservatore. Ciò che è invariante ha carattere di oggettività, nel senso “moderno” di intersoggettività. Secondo il neo-kantiano E.Cassirer, la Relatività attua un ribaltamento idealistico del fondamento della conoscenza: la verità di un’affermazione non si fonda più sulla corrispondenza con un qualche assoluto, ovvero l’oggetto con le sue proprietà intrinseche, assunto come un dato esterno; viceversa, è il significato stesso del concetto di oggetto (non più assoluto) che va fondato sulla verità delle leggi generali attraverso le quali si organizza sinteticamente l’esperienza.

In stretta relazione con tale problematica e per evitare fraintendimenti indotti dal senso comune, è opportuno chiarire come si modifica la relazione tra i significati di “reale” e di “oggettivo”, quando con quest’ultimo termine si intenda intersoggettivo. Se “oggettivo” ha il significato di indipendente dal soggetto, in quanto espressione dell’effettivo stato delle cose, allora ciò che è oggettivo è anche reale; se invece con “oggettivo” intendiamo solo intersoggettivo, la realtà di ciò che è oggettivo non è necessariamente implicata. Dopo questa premessa, è opportuno affrontare la questione se gli strani effetti relativistici debbano essere considerati reali o soltanto apparenza. Consideriamo a tale scopo il noto “paradosso dei gemelli” -come viene impropriamente chiamato- in cui uno di due gemelli compie un viaggio su una veloce astronave, con la quale si allontana dalla Terra per poi ritornarvi e trovare che l’altro gemello, che non ha viaggiato, è invecchiato molto più di lui. L’attenzione riservata a questo esempio è giustificata dal fatto che se l’esperimento portasse all’esito previsto dalla Relatività, qualora potesse effettivamente essere realizzato, si avrebbe una chiara risposta alla questione e precisamente: gli effetti relativistici sono reali! Naturalmente non abbiamo ancora i mezzi tecnici per poter realizzare l’esperimento così come è stato proposto, ma tanti altri ne sono stati condotti in cui emerge il ritardo degli orologi in moto; in particolare, nel 1971, Hafele e Keating hanno confermato le previsioni relativistiche in quello che può essere considerato una sorta di esperimento “dei due gemelli”, anche se questi non erano effettivamente persone ma orologi atomici. Coloro i quali vogliono mantenere la loro posizione contro la realtà degli effetti relativistici, in questo caso, forniscono un’interpretazione scorretta dell’esperimento di Hafele e Keating, oppure si appellano ad una supposta differenza tra il “tempo della fisica” e quello “biologico”. Se una differenza può essere posta è piuttosto con il “tempo psicologico”: ciascuno di noi ha una percezione del tempo, influenzata da numerosi fattori soggettivi,  che non corrisponde a quello che abbiamo chiamato il “tempo della fisica” (anche se questo non significa che non sia possibile fornirne una giustificazione in termini fisici). L’esperienza soggettiva del tempo non è apparenza, solo esprime un diverso modo di “misurare” il tempo. Alla stessa maniera, la non-intersoggettività degli effetti relativistici non implica che siano solo apparenza. Il problema della realtà di quanto prevede la Relatività si è posto storicamente per via del suo carattere, in certi casi, controintuitivo; ma non dobbiamo dimenticare che anche quello che viene considerato dagli anti-relativisti il modo “naturale” di rappresentare il mondo è il risultato di un’evoluzione scientifico-culturale e apparirebbe strano, per molti aspetti, a un medioevale o a un contemporaneo di Aristotele.

Il concetto di tempo che ci restituisce la Relatività Speciale, come abbiamo notato, è molto diverso da quello classico. Evidenziamone alcune implicazioni. Il principio di relatività ci obbliga a dare pari dignità a tutti i sistemi di riferimento inerziali e in ciascuno di essi il tempo scorre ad un ritmo diverso. E’ quindi più proprio parlare di tempi al plurale, piuttosto che immaginare un unico tempo. Inoltre, lo stato dell’universo ad un istante dato, quello che comunemente chiamiamo il “presente”, non è lo stesso per tutti gli osservatori. Poiché non è possibile definire un “presente” in modo oggettivo, si è portati a considerare lo spazio-tempo come un tutto inscindibile, in cui non sono univocamente individuabili la dimensione temporale e le tre dimensioni spaziali. Anche l’ordine temporale tra due eventi non è sempre univocamente determinato. Per alcune coppie di eventi, quelle tra cui non può essere stabilita una relazione di tipo causa-effetto, l’evento che per alcuni osservatori inerziali appare precedere, per altri è visto invece seguire.

 

 

 

La Relatività Generale

 

La Relatività Speciale rende superfluo il concetto di etere, ma non ottiene una completa relativizzazione del moto, poiché mantiene un’intera classe di riferimenti privilegiati, quelli inerziali. Nella sua critica alla meccanica newtoniana, Mach aveva proposto di interpretare quelle che per Newton erano evidenze empiriche a sostegno dell’esistenza di uno spazio assoluto, ovvero le forze di allontanamento dall’asse (forza centrifuga) che si manifestano durante un moto circolare, come effetti del moto relativamente alla materia distante dell’universo. Einstein sentì forte l’esigenza di costruire una teoria machiana, in cui si potesse parlare di moto solo riferendolo ad un qualche oggetto materiale. Da una tale esigenza nacque la Relatività Generale. Il punto di partenza fu la riflessione di Einstein su un fatto che già Galileo aveva messo in evidenza: i corpi in caduta libera hanno tutti la stessa accelerazione (ciò dipende dall’equivalenza tra le masse inerziale e gravitazionale dei corpi). Consideriamo adesso un insieme di corpi in quiete relativa, a cui possiamo pensare di associare un sistema di riferimento inerziale. Un  osservatore che si muovesse di moto accelerato rispetto ad essi, li vedrebbe tutti dotati di una stessa accelerazione, come accade per i corpi in caduta libera in un campo gravitazionale. Possiamo allora riproporre un esperimento concettuale dello stesso Einstein. Supponiamo che un osservatore si trovi all’interno di un’astronave e che non possa guardare fuori. Se l’astronave è ferma sulla superficie terrestre, l’osservatore si sente gravare sul pavimento che lo sostiene e se lascia cadere un oggetto qualsiasi, lo vedrà andare verso il pavimento con una ben determinata accelerazione, il cui valore indichiamo con g. Supponiamo adesso che l’astronave sia lontana da qualsiasi corpo celeste e che viaggi con accelerazione proprio uguale a g; l’osservatore avvertirà di avere lo stesso peso di quando l’astronave era ferma sulla Terra e gli oggetti lasciati andare si dirigeranno verso il pavimento con la stessa accelerazione g che nel caso precedente. In definitiva, l’osservatore non può distinguere in quale delle due situazioni fisiche si trova. Einstein fece l’ipotesi che questo si dovesse verificare qualunque fosse l’esperimento effettuato dentro l’astronave. Se le cose stanno così, ai fini della descrizione fisica, un osservatore in moto accelerato deve risultare equivalente ad uno inerziale che si trovi in presenza di un opportuno campo gravitazionale. Viene a cadere così il privilegio conservato dai sistemi di riferimento inerziali. Einstein pensò che la generalizzazione del principio di relatività potesse essere espressa dalla richiesta che le leggi della fisica debbano avere la stessa forma in tutti i sistemi di coordinate (principio di covarianza generale). Il contenuto fisico di questa richiesta risiede nell’equiparazione degli effetti inerziali e di quelli gravitazionali (questo è vero, in realtà, in regioni sufficientemente piccole dello spazio-tempo). La realizzazione del programma della Relatività Generale portò Einstein ad adottare per lo spazio-tempo una geometria non-euclidea: lo spazio-tempo viene curvato dalla presenza delle masse e il moto degli oggetti in caduta libera in un campo gravitazionale non è spiegato per mezzo dell’azione di forze, ma è considerato un moto inerziale (in senso ampliato) determinato dalla geometria della regione in cui avviene. Ciò vale anche per la luce, che viene deviata, come per l’azione di una lente, quando passa vicino ad una stella o ad una galassia. In questi casi si parla di lenti gravitazionali e gli astronomi hanno osservato molti esempi del genere negli ultimi anni. Il ritmo degli orologi è influenzato dalla maggiore o minore vicinanza a grandi concentrazioni di massa; così, sulla cima dell’Everest, un orologio procederebbe ad un ritmo più sostenuto rispetto a quello di un altro orologio identico che si trovasse sulla superficie terrestre. La Relatività Generale è oggi una teoria di successo, una delle due teorie fisiche fondamentali (l’altra è la Meccanica Quantistica) delle quali si cerca una sintesi e rappresenta la struttura teorica di riferimento per fenomeni di rilevanza astronomica e cosmologica. E’ proprio con la Relatività Generale che nasce la cosmologia scientifica, che ci permette di considerare l’intero universo come un unico sistema fisico e di fare previsioni sulla sua evoluzione.

Sebbene Einstein abbia tentato di mostrare il contrario, la Relatività Generale non realizza pienamente l’intento di Mach per motivi che non è il caso di analizzare qui. Bisogna comunque aggiungere che essa costituisce la base teorica di quasi tutti i tentativi che sono stati portati avanti da altri autori per ottenere una teoria pienamente machiana.  

Abbiamo detto che la Relatività Generale adotta una geometria non-euclidea: lo spazio-tempo viene curvato dalla materia. La nostra esperienza di tutti i giorni, d’altra parte, si lascia interpretare senza problemi nell’ambito di una geometria euclidea. La geometria è una branca della matematica con caratteristiche e una storia peculiari. Essa ha origini empiriche e, sebbene sia stata trasformata dai Greci in una scienza astratta, per moltissimo tempo si è ritenuto che l’evidenza fondasse la verità dei suoi postulati. Qualche dubbio restava solo per il V postulato di Euclide, della cui evidenza alcuni matematici non erano convinti. Questo stato di insoddisfazione fu all’origine delle ricerche che portarono alla costruzione delle geometrie non-euclidee nel XIX secolo. La “stranezza” di tali costrutti fece sorgere il sospetto che potesse trattarsi di sistemi contraddittori, ma fu dimostrato che le geometrie non-euclidee non erano contraddittorie se la geometria euclidea non lo era. Il dibattito sulla geometria si ricollega a quello più ampio sui fondamenti della matematica, che diede origine a diverse correnti di pensiero nel tentativo di eliminare alcuni paradossi e garantire la coerenza teorica. In particolare, Hilbert propose di assiomatizzare tutte le teorie matematiche, considerate come sistemi ipotetico-deduttivi riguardanti simboli privi di significato e costruiti su assiomi né veri né falsi, suggerendo inoltre una strategia per dimostrarne la coerenza assoluta.  I risultati di Gödel portarono poi un duro colpo al programma di Hilbert. Ci interessa qui sottolineare che, come risultato di questo dibattito, si distinse più chiaramente tra geometria intesa come sistema formale e la sua interpretazione semantica. E’ stato fatto notare che la geometria euclidea non godeva di nessun vantaggio da un punto di vista formale, poiché l’eventuale dimostrazione della sua coerenza avrebbe garantito anche la coerenza di quelle non-euclidee. Dal punto di vista della Fisica, tuttavia, si pone il problema di stabilire quale sia la vera geometria. Fino ad Einstein, la quasi totalità della comunità scientifica non aveva mai messo in dubbio la verità della geometria euclidea. Si deve oggi necessariamente rigettarla in quanto non corrispondente alla realtà? La risposta a questa domanda è interessante non solo per la scienza, ma più in generale per la stessa teoria della conoscenza. E’ rilevante a questo proposito quanto sostiene H.Reichenbach: quando sono presenti forze che agiscono alla stessa maniera su tutti i corpi (forze universali), non è possibile stabilire se un oggetto mantiene la stessa lunghezza in posti diversi. Questo dipende dal fatto che, così come la scelta dell’unità di misura, anche l’affermazione dell’eguaglianza di lunghezze in posti diversi può solo essere stabilita per convenzione. Poiché la gravità ha proprio le caratteristiche di una forza universale, ci troviamo nella condizione di poter scegliere più di una geometria. Questa scelta, tuttavia, ha delle conseguenze sulla teoria fisica che dovremo associarle. In altri termini, solo l’insieme geometria + fisica è controllabile empiricamente, ma fatta una scelta circa una delle due, l’altra resterà determinata. Così potremo avere: gravità newtoniana + geometria euclidea; oppure Relatività Generale + geometria non-euclidea. Dovremo valutare dunque la convenienza dell’insieme geometria + fisica; potrebbe infatti essere più semplice adottare la geometria euclidea, ma avremmo poi notevoli difficoltà ad inventare ipotesi ad hoc per render conto di ciò che prevede la Relatività Generale partendo da una teoria newtoniana della gravitazione.

Un’ultima considerazione: la Relatività Generale nega che si possa parlare di uno spazio-tempo vuoto, nel senso in cui si intende ciò nella fisica newtoniana e che corrisponde al modo comune di intendere. Lo spazio-tempo con la sua geometria è la manifestazione del campo gravitazionale newtoniano. Togliendo la materia e il campo gravitazionale non resta uno spazio-tempo vuoto, ciò che resta è il nulla. Questo ci restituisce un’immagine del tutto nuova, in cui lo spazio-tempo non è da considerare un contenitore passivo e inalterabile nel quale gli eventi accadono, ma è piuttosto una rappresentazione dell’insieme degli eventi.

 

 


 

MECCANICA QUANTISTICA

 

La Meccanica Quantistica, elaborata nei primi decenni del XX secolo, è la cornice teorica entro cui i fisici hanno cercato di collocare i fenomeni atomici e sub-atomici. Si trattava, a quel tempo, di un terreno ancora inesplorato, nel quale l’esperienza precedente del mondo macroscopico avrebbe potuto fornire strumenti concettuali non sempre adeguati. Inoltre, come fece notare il grande fisico P.A.M.Dirac, l’indagine di oggetti che si ritiene possano essere elementari, cioè non scomponibili ulteriormente in costituenti, pone un problema metodologico. Non è infatti più possibile pensare di costruire una spiegazione di tali sistemi ritenuti elementari in termini riduzionistici, ovvero risalendo al loro comportamento a partire dalle proprietà e dalle interazioni dei costituenti. Per di più, l’esistenza di oggetti elementari pone un limite inferiore alle dimensioni e alle energie in gioco e le modificazioni che possiamo riscontrare nei differenti fenomeni fisici devono coinvolgere multipli di tali valori limite. Quando studiamo il mondo macroscopico, la piccolezza relativa dei costituenti elementari ci permette di trascurare l’esistenza di questi limiti e di immaginare processi in cui i cambiamenti avvengano con continuità. Nel mondo microscopico, in cui i valori delle grandezze fisiche non sono molto maggiori dei valori limite, ciò non è possibile: bisogna abbandonare l’approssimazione della continuità e ricorrere a descrizioni in cui i cambiamenti si realizzino “a salti”, ovvero per quanti. L’immagine della realtà che ci restituisce la Meccanica Quantistica è nello stesso tempo affascinante e sconvolgente. Familiarizzare con le novità concettuali da essa introdotte è qualcosa di simile all’ipotetica esperienza di comunicare con una razza aliena, in cui saremmo costretti a rappresentarci situazioni completamente nuove adottando punti di vista estranei.

 

Cenni sul percorso storico-scientifico che portò alla Meccanica Quantistica.

 

Le linee di ricerca che maggiormente furono rilevanti per la nascita della Meccanica Quantistica sono due: gli studi sull’interazione della radiazione con la materia e quelli in cui si analizzava la deviazione di particelle cariche che attraversavano la materia. La prima comparsa della quantizzazione nella descrizione dei fenomeni atomici risale al 1900 e fu dovuta a M.Planck, che riuscì a render conto delle caratteristiche della radiazione emessa da particolari oggetti, capaci di assorbire completamente la radiazione incidente, chiamati “corpi neri”. La soluzione trovata da Planck prevedeva che all’origine della radiazione emessa da un corpo nero ci fossero degli oscillatori elementari, la cui energia di oscillazione non poteva essere qualsiasi, ma doveva essere un multiplo intero di una certa quantità fondamentale. L’energia E degli oscillatori era legata alla frequenza n della radiazione emessa dalla semplice relazione: E = h n, dove h è la famosa costante di Planck, che ha un valore piccolissimo. Anche in altri casi, noti nella letteratura scientifica con i nomi di effetto fotoelettrico ed effetto Compton, non si riusciva rendere conto dei fenomeni partendo dall’ipotesi che lo scambio di energia tra gli atomi e la radiazione elettromagnetica avvenisse secondo le modalità di un processo continuo, come prevedeva la teoria classica dell’elettromagnetismo. Si affermò l’idea che in detti fenomeni il campo elettromagnetico potesse essere descritto in termini di corpuscoli localizzati (fotoni di energia E = h n), piuttosto che come una distribuzione continua di energia, come competerebbe nella teoria classica ad un’onda. D’altra parte, la tradizionale descrizione ondulatoria continuava ad essere richiesta nella spiegazione dei fenomeni di interferenza. In altri termini, per la rappresentazione del campo elettromagnetico si era costretti a ricorrere a due modelli differenti e incompatibili. Circa nello stesso periodo, gli esperimenti di diffusione di particelle cariche da parte della materia misero in evidenza che l’interno dell’atomo era sede di forze elettromagnetiche molto intense e questo portò Rutherford, nel 1910, a proporre il suo modello atomico a nucleo centrale, in cui l’atomo è rappresentato come un sorta di sistema solare in miniatura, con gli elettroni che orbitano attorno a un piccolissimo nucleo. Si tratta dell’immagine dell’atomo ancora oggi maggiormente diffusa tra i non specialisti, anche se non è più adeguata alla luce degli sviluppi teorici apportati dalla Meccanica Quantistica. Il modello atomico di Rutherford doveva tuttavia far fronte, in particolare, ad una grande difficoltà: come era possibile che gli elettroni negativi non precipitassero sul nucleo positivo, visto che la teoria classica dell’elettromagnetismo prevedeva che essi dovessero irradiare, perdendo progressivamente energia nel moto attorno al nucleo? Le loro orbite avrebbero dovuto restringersi sempre più, fino a quando non fossero finiti sul nucleo, rendendo così instabile l’atomo. Fu N.Bohr che indicò la strada da seguire. Egli si convinse che le difficoltà per spiegare l’emissione e l’assorbimento della radiazione, la stabilità dell’atomo e la diffusione di elettroni da parte degli atomi, richiedevano l’abbandono degli schemi tradizionali, sia dell’elettromagnetismo che della meccanica. Con questa convinzione rielaborò il modello atomico di Rutherford, assumendo ciò che non si riusciva a spiegare ma che l’esperienza sosteneva: postulò che le orbite elettroniche fossero stabili. Nell’atomo di Bohr solo alcune orbite sono permesse e a ciascuna corrisponde una diversa energia dell’elettrone che la occupa (quantizzazione). L’assorbimento di radiazione avviene quando questa ha proprio l’energia che occorre per permettere ad un elettrone di passare ad un’orbita permessa più energetica; l’emissione di radiazione, viceversa, corrisponde al salto di un elettrone verso un’orbita meno energetica. Poiché l’energia della radiazione, come abbiamo visto, è legata alla sua frequenza, un determinato atomo può assorbire o emettere solo radiazione corrispondente a particolari valori di frequenza. E’ per questo che analizzando la “luce” emessa o assorbita da un oggetto si può risalire agli elementi che lo costituiscono. Il modello riesce a rendere conto anche della perdita di energia “per quanti” che subisce un elettrone libero quando urta uno degli elettroni di un atomo. Anche il modello di Bohr verrà superato dalla Meccanica Quantistica, alla quale aprì la porta. Un contributo importante per gli sviluppi teorici successivi venne, nel 1923, da L.De Broglie. Abbiamo già notato come la radiazione elettromagnetica venisse a volte associata a corpuscoli (fotoni) e altre ad onde. De Broglie trovò il modo di estendere questa dualità anche alla materia, associando ad ogni oggetto materiale (corpuscolo) una lunghezza d’onda, ovvero una proprietà caratteristica delle onde. In questo modo fu possibile ottenere un’interpretazione della stabilità dell’atomo, nonché della distribuzione discreta delle orbite elettroniche al suo interno e delle energie associate. Se anche le particelle possedevano le proprietà caratteristiche delle onde, doveva essere possibile generare con esse i tipici fenomeni ondulatori. In un famoso esperimento di diffrazione di elettroni, Davisson e Germer confermarono più tardi (1927) la natura duale corpuscolare-ondulatoria della materia. Nel 1926, continuando sulla strada intrapresa da De Broglie, E.Schrödinger propose la sua famosa equazione d’onda, che occupa un posto centrale in tutti i testi di Meccanica Quantistica; anche se l’interpretazione che ne dava il suo autore era diversa da quella poi affermatasi. Schrödinger pensava che la sua equazione descrivesse onde reali e materiali, mentre oggi vengono considerate onde di probabilità. Questo radicale cambiamento nell’interpretazione della teoria fu dovuto soprattutto a M.Born e, insieme all’affermazione del principio di indeterminazione di Heisenberg, segnò il passaggio dalla vecchia teoria dei quanti alla moderna Meccanica Quantistica. La grande maggioranza della comunità scientifica accettò la proposta di Born di considerare la grandezza fisica che descriveva il comportamento ondulatorio nell’equazione di Schrödinger solo come uno strumento matematico, utile per calcolare la probabilità di trovare una particella in una determinata regione dello spazio, in seguito ad un esperimento effettuato per localizzarla (è importante osservare –e su questo torneremo in seguito- che questa è cosa diversa dalla probabilità che la particella si trovi in detta regione spaziale, indipendentemente dalle operazioni di misura che effettuiamo per localizzarla). Per concludere questo excursus storico estremamente sintetico sulla nascita della Meccanica Quantistica, ricordiamo il contributo teorico per il quale W.Heisenberg è famoso e cioè le relazioni di indeterminazione. Poiché ogni operazione di misura su un sistema fisico implica un’interazione con esso, la misura di certe grandezze fisiche altera i valori di altre in maniera incontrollabile. Questo si traduce in un limite per la nostra capacità di determinare con esattezza, tramite degli esperimenti, il valore attuale di tutte le grandezze fisiche rilevanti. Le relazioni di indeterminazione asseriscono che questo limite è una legge generale di natura e stabiliscono che il prodotto delle incertezze sul valore simultaneo di opportune coppie di grandezze fisiche non può essere inferiore a un numero che ha l’ordine di grandezza della costante di Planck. Per esempio, se cercassimo di misurare la posizione di un certo oggetto, il disturbo così arrecatogli modificherebbe la sua velocità, in modo tale che quanto più cerchiamo di conoscere con esattezza la posizione, tanto più imprecisa sarà la conoscenza della velocità. Questo peraltro ci impedirebbe di stabilire quale sarebbe la traiettoria precisamente seguita dall’oggetto da quel momento in poi. Se si trattasse di un corpo macroscopico, il disturbo prodotto sarebbe così piccolo da non potere essere rilevato e potremmo trascurarlo; non è invece lecito fare ciò nel caso di un oggetto microscopico.

 

Interpretazione della Meccanica Quantistica

 

L’interpretazione ortodossa della Meccanica Quantistica è spesso chiamata “interpretazione di Copenaghen”, in omaggio alla scuola di N.Bohr che fu molto attenta anche alle implicazioni filosofiche della teoria. In realtà, non si tratta di un’interpretazione unitaria, poiché non si può dire che tra i personaggi che contribuirono a definirla ci fosse coincidenza di idee. E’ opportuno perciò presentarne alcuni aspetti caratterizzanti, riferendoli a coloro che se ne fecero sostenitori:

a)               N.Bohr: non si deve assumere di poter attribuire proprietà individuali ai sistemi quantistici indipendentemente dallo strumento di misura; non si possono avere informazioni su proprietà (relative al complesso sistema-strumento) incompatibili, utilizzando uno stesso dispositivo di misura (principio di complementarità); la fisica classica e il suo linguaggio sono un prerequisito essenziale, poiché la descrizione degli esiti di un esperimento deve avvenire in termini puramente classici, come richiesto dall’uso di strumenti il cui funzionamento viene spiegato con la fisica classica.

b)               W.Heisenberg: i fenomeni atomici sono reali come quelli della vita quotidiana, ma gli oggetti microscopici non hanno lo stesso grado di realtà fisica di quelli del mondo di ogni giorno (sono piuttosto dei costrutti teorici); c’è un limite alla precisione con cui possono essere conosciuti i valori attuali di grandezze fisiche incompatibili (relazioni di indeterminazione).

c)               M.Born: la teoria ci permette solo di conoscere la probabilità dei risultati delle misure.

d)               P.Jordan: il processo di misura, eseguito con strumenti macroscopici, costringe il sistema osservato ad assumere un valore definito (anche se prima della misura non lo era) per la grandezza misurata.

 

Cerchiamo adesso di valutare le conseguenze di questa interpretazione e quale sia la “visione del mondo” che ci restituisce la Meccanica Quantistica.

L’attenzione di Bohr è centrata soprattutto sulla inscindibilità tra sistema osservato e apparato di misura. Quando, alla fine di una misurazione, attribuiamo certe proprietà al sistema osservato, facciamo una semplificazione di comodo, poiché in effetti quelle proprietà andrebbero attribuite all’insieme sistema+apparato. La nostra esperienza precedente del mondo ci porta ad adottare descrizioni differenti (onda-corpuscolo), che ci appaiono incompatibili se pretendiamo di estenderle alla totalità dei fenomeni. Sembra dunque impossibile racchiudere la complessità della natura in un’unica rappresentazione. Quando scegliamo l’apparato di misura, a causa dell’accoppiamento di questo con il sistema da osservare, scegliamo anche quale dei differenti e incompatibili aspetti potrà essere evidenziato. Bohr fa del suo principio di complementarità una regola generale, che riguarda l’intero processo di acquisizione della conoscenza.

Ancora oggi non è a tutti ben chiaro in che senso la Meccanica Quantistica sia una teoria indeterministica. Ciò dipende dalla circostanza che, nelle intenzioni originarie, le relazioni di indeterminazione non riguardavano propriamente la natura in sé, ma erano state introdotte per esprimere e formalizzare un limite, che pur essendo ineludibile e universale, era relativo solo alla nostra capacità di conoscere la natura. Ci si è successivamente resi conto che la Meccanica Quantistica implica un più fondamentale intrinseco indeterminismo. Precisamente, la teoria prevede che sistemi preparati e trattati in modo assolutamente identico possano evolvere in maniera diversa, in contrasto con la tradizionale concezione deterministica. Come dire che alla stessa causa e nelle stesse condizioni può non corrispondere lo stesso effetto, ovvero che il futuro non è determinato univocamente dal presente. Si comprende come ciò abbia dato origine in ambito etico-filosofico a un dibattito sul libero arbitrio. Questo attacco al determinismo in ambito fisico può essere ricondotto, verosimilmente, al più generale clima culturale ed emozionale generato dal disordine sociale che seguì la conclusione del primo conflitto mondiale. Era il periodo in cui trovarono diffusione le idee dei dadaisti e dei surrealisti, con il loro rigetto della causalità, dell’ordine logico, della razionalità e l’esigenza di una ridefinizione della realtà in cui il caso e la soggettività avrebbero dovuto avere un ruolo fondamentale.

Tenendo conto dei limiti posti dalle relazioni di indeterminazione, si può comprendere perché la Meccanica Quantistica sia una teoria che permette di calcolare solo delle probabilità. Occorre ricordare che queste probabilità si riferiscono ai risultati delle misure delle varie grandezze fisiche, ma non si può intendere che tale incertezza sia dovuta alla nostra incompleta conoscenza della situazione reale, sia cioè epistemica; essa traduce invece l’effettivo stato fisico del sistema sotto osservazione. La Meccanica Quantistica prevede la possibilità di stati in cui il valore di alcune grandezze fisiche non è determinato. Supponiamo, ad esempio, di volere accertare se un certo oggetto si trovi oppure no all’interno di una stanza. Dovremo effettuare una misura di posizione e come risultato troveremo che l’oggetto si trova (stato-1), o non si trova (stato-2), all’interno della stanza. In Meccanica Quantistica sono date due differenti descrizioni formali per lo stato-1 e per lo stato-2. La teoria prevede però che lo stato dell’oggetto, prima della misura, possa essere anche un altro, che è una sorta di combinazione dei due stati sopra detti. In tal caso, non si può dire né che l’oggetto stia fuori della stanza, né che stia dentro: la posizione dell’oggetto, prima della misura, è indeterminata, ma non per nostra ignoranza. All’atto della misura, tuttavia, troveremo l’oggetto nello stato-1 o nello stato-2: la misura induce un cambiamento nello stato dell’oggetto, che non sarà più quello indeterminato che aveva prima, ma diventerà uno dei due che ci appaiono ragionevoli sulla base della nostra esperienza quotidiana. E’ utile insistere ulteriormente sul fatto che, nel caso considerato, non si può pensare che l’oggetto si trovasse, già prima della misura, dentro o fuori la stanza e che noi non lo sapessimo, di modo che la misura ci avrebbe solo informati circa una situazione prima sconosciuta. Si possono infatti progettare opportuni esperimenti che mostrano come una tale interpretazione porti a previsione scorrette. Heisenberg considerò l’effetto della misura su un sistema in uno stato indeterminato in analogia al passaggio dalla potenza all’atto che ritroviamo nella filosofia di Aristotele.

Una delle conseguenze più singolari della Meccanica Quantistica è la cosiddetta non-separabilità che gli oggetti quantistici sperimentano in determinate circostanze. Consideriamo, per esempio, due elettroni che abbiano interagito e che, non disturbati, si allontanino successivamente l’uno dall’altro. La teoria prevede che essi formino un sistema unico, con un comportamento peculiare. Benché sia possibile attribuire proprietà fisiche al sistema composto dai due elettroni, non sarà invece possibile fare altrettanto per i singoli elettroni. In altri termini, non si può descrivere il sistema composto come l’insieme di due distinti elettroni, ciascuno con proprietà fisiche definite. Inoltre, qualora noi effettuassimo una misura su uno degli elettroni, indurremmo un cambiamento nello stato dello stesso e troveremmo un valore determinato, ma imprevedibile, per la grandezza fisica misurata; l’altro elettrone, inoltre, fosse anche distante anni-luce, acquisirebbe istantaneamente quelle proprietà che consentono di descrivere il sistema composto in accordo con le leggi fisiche fondamentali. Basandosi su questa previsione della teoria, Einstein, insieme a due collaboratori, portò un forte attacco alla Meccanica Quantistica: se i due elettroni non possono “comunicare” con segnali più veloci della luce, il secondo elettrone potrebbe “essere informato” del cambiamento di stato del primo solo con un certo ritardo; perciò, se nel preciso momento della misura sul primo elettrone si può attribuire anche al secondo una determinata proprietà fisica, esso deve averla posseduta fin da prima e poiché la teoria non ci fornisce tale conoscenza, occorre che essa sia incompleta. Einstein pensava che la Meccanica Quantistica fosse essenzialmente una teoria statistica, che non era capace pertanto di fornire tutte le informazioni dettagliate, necessarie per una descrizione deterministica dei sistemi fisici. La celebre frase “Dio non gioca a dadi” esprimeva chiaramente il rifiuto di Einstein dell’indeterminismo fondamentale, proprio dell’interpretazione di Copenaghen. In alternativa, chi avesse condiviso il realismo filosofico di Einstein, anche accettando la validità delle relazioni di indeterminazione, avrebbe potuto considerarle solo l’espressione di un limite della nostra possibilità di effettuare misure precise ed esaustive di tutte le grandezze fisiche.  La critica di Einstein aprì le porte al tentativo di “completare” la Meccanica Quantistica, in modo da ottenere una qualche teoria deterministica che assegnasse valori determinati, anche se incontrollabili, a tutte le grandezze fisiche osservabili (teorie con variabili nascoste).  Nel 1932, tuttavia, il grande matematico J.von Neumann presentò un teorema che escludeva tale possibilità, qualora si volesse costruire una teoria predittivamente equivalente alla Meccanica Quantistica. Quest’ultima condizione era essenziale, poiché gli esperimenti confermavano le previsioni quantistiche. Come si scoprì dopo il 1952, quando D.Bohm propose una teoria con variabili nascoste con le caratteristiche richieste, le ipotesi del teorema di von Neumann erano restrittive in modo ingiustificato. Un importantissimo risultato di J.S.Bell contribuì a fare chiarezza nell’intricata questione. Bell riuscì a dimostrare che qualsiasi teoria che pretendesse di riprodurre le previsioni della Meccanica Quantistica, doveva rinunciare all’ipotesi che fosse impossibile, per due sistemi, influenzarsi istantaneamente a distanza (ipotesi di località). Si può inoltre far vedere che le teorie con variabili nascoste prevedono che il valore di alcune grandezze fisiche non possa essere assegnato indipendentemente dal contesto (apparato e operazioni di misura). In altri termini, dette teorie possono riprodurre in maniera deterministica i risultati della Meccanica Quantistica, al prezzo di rinunciare a considerare oggettive (in senso forte) tutte le proprietà di un sistema fisico e di ammettere la possibilità di influenze istantanee a distanza. Vale la pena di sottolineare che nella contrapposizione tra i sostenitori delle teorie con variabili nascoste e quelli della Meccanica Quantistica non è in discussione la migliore capacità di fare previsioni di una teoria rispetto all’altra, ma la possibilità di sfuggire ad un indeterminismo fondamentale. E’ uno scontro tra due diverse visioni del mondo, che mette in gioco il significato e il valore conoscitivo da attribuire alle teorie scientifiche.

Le considerazioni precedenti ci restituiscono un’immagine della realtà profondamente diversa da quella che ci è familiare. In particolare, non possiamo più pensare alle cose come definibili solo in termini di loro supposte caratteristiche intrinseche, oggettivamente possedute. Le proprietà che siamo soliti attribuire agli oggetti sono l’effetto di un collegamento con il resto del mondo che si realizza ad un livello profondo: l’universo ci appare come il risultato di una estesa rete di relazioni, forse un’unica indivisibile entità, piuttosto che come un insieme di oggetti separati e quasi indipendenti.

 

Oggettività macroscopica

 

Prima di sostenere l’incompletezza della Meccanica Quantistica, Einstein aveva attaccato direttamente la validità delle relazioni di indeterminazione, cercando di immaginare situazioni sperimentali in cui il limite che tali relazioni impongono venisse superato. I tentativi di Einstein diedero origine ad una vivacissima disputa intellettuale con Bohr, che ebbe importanti conseguenze sull’interpretazione filosofica della Meccanica Quantistica. Bohr ebbe successo nel trovare soluzioni compatibili con le relazioni di indeterminazione ai problemi posti da Einstein, ma per conseguire questo risultato fu costretto a trattare come sistemi quantistici anche i corpi macroscopici e non soltanto gli sfuggenti componenti del mondo atomico. In un primo momento non furono chiare le implicazioni di un tale passo; sembrava che l’unica conseguenza fosse l’introduzione di una incertezza nelle misure sui corpi macroscopici, che era comunque così piccola da essere del tutto trascurabile. Trattando quantisticamente tutti gli oggetti, tuttavia, si rinuncia a interpretare il passaggio da uno stato indeterminato ad uno determinato, che l’interpretazione di Copenaghen riconduce all’atto della misura, come l’effetto dell’interazione con un oggetto (lo strumento di misura) che, in quanto macroscopico, appartiene ad un ambito fisico differente. Cade così la barriera che inizialmente aveva separato il mondo microscopico da quello per cui bisognava usare la fisica classica. D’altra parte, non c’è alcuna giustificazione di principio per non applicare ai corpi macroscopici la stessa teoria che si utilizza per i loro costituenti: la Meccanica Quantistica è una teoria universale, che regola il comportamento di ogni cosa. Se le cose stanno in questo modo, bisogna aspettarsi che anche i corpi macroscopici possano trovarsi in uno stato indeterminato; per esempio quando, dopo aver interagito con un oggetto microscopico, formano con esso un tutto non-separabile. Questa possibilità fu evidenziata da Schrödinger con un esperimento concettuale che è rimasto famoso, in cui lo stato quantistico di un gatto prevede che l’animale non sia né vivo, né morto. Perché non abbiamo esperienza di tali “stranezze” nel mondo di tutti i giorni? O meglio, perché abbiamo potuto costruire una fisica (quella classica) che non prevede stati indeterminati per i corpi macroscopici e possiamo descriverli supponendo che posseggano sempre oggettivamente le proprietà che attribuiamo loro?  Si tratta di una questione fondamentale per l’interpretazione della teoria, ma è opportuno precisare che non è un problema che ha rilevanza pratica. Si può dimostrare infatti che per oggetti macroscopici sarebbe difficilissimo, anzi praticamente impossibile, accorgersi di quando lo stato è indeterminato. E’ per questo motivo che la maggior parte dei fisici, che non fa ricerca sui fondamenti della Meccanica Quantistica, ma usa la teoria soltanto come uno strumento di lavoro, può non preoccuparsi troppo del problema e può continuare a supporre, come suggerisce l’interpretazione di Copenaghen, che ad un certo punto intervenga un cambiamento che rende determinato lo stato del sistema, anche se non lo era prima della misura/osservazione. La questione di principio tuttavia sussiste ed è ineludibile per chi voglia pervenire ad una coerente interpretazione della teoria. Sono state avanzate parecchie proposte per recuperare l’oggettività (apparente o effettiva) degli oggetti macroscopici. Alcune di queste proposte sono essenzialmente degli espedienti tecnici che lasciano aperto il problema concettuale. Altre sostengono che l’oggettività è solo apparente, in quanto approssimativa; ma si tratta di un’approssimazione eccellente nel caso di sistemi sufficientemente strutturati. Si deve però far ricorso, in certi casi, ad ipotesi ad hoc e  si presentano delle difficoltà nella trattazione formale generale del meccanismo fisico che viene suggerito per realizzare detta oggettività approssimativa. Ci soffermeremo un po’ di più a presentare due proposte diverse, particolarmente suggestive.

Nella prima delle due, si riconosce la necessità di dover applicare la stessa teoria, la Meccanica Quantistica, a tutti i corpi (macroscopici e microscopici) e nello stesso tempo si attribuisce reale oggettività alle loro proprietà fisiche dopo la misura/osservazione da parte dello sperimentatore. Si riconosce cioè che lo stato degli oggetti osservati può realmente cambiare da indeterminato a determinato per effetto della misura/osservazione; ma l’origine del cambiamento stavolta è individuata nella coscienza dello sperimentatore. L’oggettivazione delle proprietà fisiche dei corpi che ci circondano sarebbe dunque l’effetto della presa di coscienza da parte dell’osservatore. In questo modo, la coscienza viene riconosciuta come “altro” rispetto alla materia, essa rimane esterna al dominio di applicabilità della Meccanica Quantistica, cui invece sono assoggettati tutti gli oggetti fisici. La coscienza reagisce all’azione esterna provocando reali effetti fisici. Le possibili implicazioni per il tradizionale problema mente-corpo sono evidenti. Bisogna comunque sottolineare che ciò che viene inteso con “coscienza” resta piuttosto vago. Come in altre interpretazioni della Meccanica Quantistica, l’osservatore non è considerato un ricettore passivo di informazioni, ma in questa il suo ruolo è veramente fondamentale: l’intero universo, prima dell’avvento di un qualche osservatore cosciente, risulta indeterminato nelle sue proprietà fisiche. La realtà verrebbe configurata dai nostri atti coscienti di osservazione. E’ stato fatto notare che questo rappresenterebbe un totale ribaltamento del percorso seguito in precedenza dalla scienza, indirizzato verso un progressivo abbandono della visione antropocentrica e della supposta posizione privilegiata dell’uomo.

Non meno audace è la seconda delle due proposte, come è facile intuire dal nome con il quale la si identifica: “interpretazione a molti mondi”. Ricordiamo che la Meccanica Quantistica prevede l’esistenza di stati indeterminati per gli oggetti. Uno stato di tal genere si esprime formalmente come somma di stati determinati, ciascuno dei quali descrive uno dei possibili differenti esiti di una misura/osservazione. L’interpretazione a molti mondi associa ognuna di queste possibilità ad un mondo diverso. La misura/osservazione non causerebbe perciò alcun cambiamento di stato (da indeterminato a determinato), ma ci informerebbe circa quale dei mondi possibili è il nostro. Gli innumerevoli mondi non sono pensati in grado di comunicare fra loro e in ognuno di essi una diversa copia di noi stessi sperimenterebbe uno dei molteplici modi di essere e di evolvere delle cose. Una variante di questa interpretazione prevede un solo mondo e quindi una sola copia di noi stessi, ma suppone che ciascuna delle possibilità di cui abbiamo parlato prima si realizzi e sia sperimentata da un diverso livello della nostra mente. In altri termini, ciascuno di noi disporrebbe di una mente “stratificata” o, se vogliamo, di molte diverse menti che non hanno consapevolezza l’una dell’altra. Ognuna di esse sperimenterà una delle possibili percezioni della realtà. Lo “stato mentale globale” sarà correlato allo stato quantistico del mondo, ma non corrisponde alla percezione di nessuna singola mente. In definitiva, questa interpretazione ritiene che la fisica si occupi di ciò che gli osservatori pensano.

Le due precedenti interpretazioni appaiono talmente inverosimili che si può pensare si tratti di giocose ipotesi fanta-scientifiche, piuttosto che di ponderate ricerche di fisica teorica, ma non è così. Esse sono state proposte e sostenute da scienziati di primissimo piano e rappresentano il tentativo di fornire un’immagine coerente del mondo, anche se incredibile all’apparenza. Gli scienziati cercano di salvare l’una o l’altra delle tradizionali categorie interpretative della realtà, con la consapevolezza che qualcuna dovrà comunque essere abbandonata. La realtà è sorprendente e l’immagine che ce ne restituisce la fisica del Novecento è radicalmente diversa da quella basata sul senso comune.

 


 

LA RICERCA DI UNA “TEORIA DI TUTTO”

 

Il successo della scienza deriva dalla sua capacità previsionale e questa è fondata sulla costruzione di teorie generali: la spiegazione scientifica richiede la generalizzazione. L’analisi storica mostra chiaramente come la scienza si sia evoluta realizzando una progressiva unificazione teorica. Oggi riusciamo a controllare un ambito empirico molto più vasto che in passato con solo poche teorie fondamentali. La speranza dei fisici è di poter pervenire ad un’unica teoria, che riesca a render conto di tutte le interazioni fondamentali conosciute (gravitazionale, elettromagnetica, debole, forte). Si parla spesso a questo proposito di una “Teoria di Tutto”. Il significato che viene dato a questo termine, tuttavia, non è sempre lo stesso. I più ottimisti pensano che si possa costruire una teoria che non lasci nulla di inspiegato; altri pensano che l’obiettivo che si può raggiungere è più limitato, sia per motivi pratici che di principio. Senza entrare nel merito della questione, diciamo soltanto che una qualsiasi teoria unificata delle quattro interazioni fondamentali deve mettere insieme Relatività e Meccanica Quantistica, un compito che si è rivelato molto difficile. Accenniamo appena ad alcuni sviluppi che si sono avuti negli ultimi vent’anni in tale direzione e in particolare alla cosiddetta teoria delle superstringhe, che per una parte dei fisici rappresenta la strada più promettente verso l’unificazione cercata. Il termine “stringhe” deriva dal fatto che gli oggetti fondamentali, di cui sarebbero costituiti tutti gli altri, sono delle strutture a una sola dimensione e cioè delle piccolissime corde elastiche vibranti. La massa, la carica e le altre proprietà fisiche delle particelle che consideravamo elementari (elettroni, quarks, neutrini, etc.) vengono ricondotte alle caratteristiche e al modo di vibrare delle stringhe. In effetti, dieci anni fa circa, si capì che la teoria “definitiva” (teoria-M) avrebbe dovuto considerare anche oggetti bidimensionali, tridimensionali, etc. E’ molto incoraggiante che ci siano ottime garanzie di risolvere il problema dell’unificazione della Relatività e della Meccanica quantistica, ma si devono affrontare formidabili difficoltà matematiche. Basti pensare che non si dispone ancora di un’equazione fondamentale; si hanno soltanto equazioni approssimate risolte solo parzialmente. La teoria prevede la possibile esistenza di una serie infinita di particelle, oltre quelle che ci sono già note; ma noi non le avremmo ancora rivelate perché occorrerebbe un’energia molto maggiore di quella di cui possiamo disporre negli acceleratori attuali. Nei primi istanti della vita dell’universo si devono essere formate molte di queste particelle più energetiche, ma ci si aspetta che siano quasi tutte decadute rapidamente in altre con minore energia, ma più stabili. Un’altra previsione sorprendente della teoria è che lo spazio dovrebbe avere dieci dimensioni e non solo le tre che conosciamo. Le dimensioni aggiuntive risulterebbero invisibili, perché microscopiche e arrotolate su se stesse, a differenza delle tre dimensioni estese che percepiamo normalmente. In certe condizioni lo spazio-tempo può “strapparsi” e in tal caso cambia il valore della massa delle particelle. Ci sono interessanti conseguenze di alcune applicazioni cosmologiche della teoria. Questa prevede l’esistenza di particelle con le giuste proprietà per essere i costituenti della cosiddetta “materia oscura”, che si ritiene oggi sia la parte più cospicua della materia del nostro universo. In alcune applicazioni cosmologiche, si esclude che il cosmo possa avere avuto dimensioni minori di un certo valore minimo (comunque piccolissimo: 10-35 metri); si trova inoltre che lo stato dal quale ha avuto inizio la fase attuale di espansione (Big Bang) potrebbe essersi prodotto per una piccola regione all’interno di un più grande universo freddo e infinitamente esteso.

Malgrado l’interesse che la teoria delle superstringhe suscita presso molti fisici teorici, bisogna precisare che non si ha ancora alcuna conferma empirica di essa. Nel prossimo futuro, sia per le menzionate difficoltà matematiche che per limiti tecnologici, saranno possibili solo controlli indiretti e non decisivi. L’interesse per la teoria deriva in parte dalla sua capacità di risolvere alcuni problemi fondamentali o almeno di farne intuire la possibile soluzione. Se si pensa alla quantità di nuovi interrogativi che essa solleva, tuttavia, si comprende che il suo successo è dovuto soprattutto ad altro: si tratta di una teoria di grande eleganza concettuale, per l’altissimo grado di generalità e di simmetria. In definitiva, essa risulta appagante per motivi prevalentemente estetici. Gran parte dei fisici e la quasi totalità dei fisici teorici sono sensibili alle armonie matematiche tanto care a Pitagora e a Platone. Molto più di altre, la teoria delle superstringhe appare come una complessa costruzione matematica: le stringhe sono solo astrazioni formali? Solo “trucchi” che tornano utili agli scienziati nel loro lavoro? Alcuni pensano che la “Realtà” sia altro rispetto all’immagine che ce ne costruiamo e considerano gli strumenti formali utilizzati per fare previsioni solo delle regole d’azione e non “vera” conoscenza. Le teorie scientifiche, tuttavia, non sono solo elaborazioni astratte e sofisticate, incapaci di cogliere la “vera” struttura della “Realtà”. Esse esprimono conoscenza effettiva, perché noi diciamo di conoscere e di capire soprattutto quando possiamo prevedere e controllare. La conoscenza è interpretazione, in quanto espressione della relazione tra soggetto conoscente e oggetto. Le teorie scientifiche compendiano la nostra esperienza interpretata, che è dunque rappresentazione del mondo. Come commento finale vale la pena di riportare un pensiero del grande matematico, fisico ed epistemologo francese H.Poincaré: “O la scienza non permette di prevedere e allora è senza valore come regola d’azione; o permette di prevedere in modo più o meno imperfetto e allora non è senza valore come mezzo di conoscenza”.


 

BIBLIOGRAFIA

 

-                     L.S.Feuer, Einstein e la sua generazione, Il Mulino 1990

-                     G.Boniolo (a cura), Filosofia della fisica, B.Mondadori 1997

-                     Ray d’Inverno, Introduzione alla relatività di Einstein, CLUEB 2001

-                     S.Bergia, A.P.Franco, Le strutture dello spazio-tempo, CLUEB 2001

-                     A.Einstein, Il significato della relatività, Boringhieri 1976

-                     R.Resnick, Introduzione alla relatività ristretta, Ambrosiana 1968

-                     W.Rindler, La relatività ristretta, Cremonese 1971

-                     E.Cassirer, Teoria della relatività di Einstein, Newton 1981

-                     H.Reichenbach, Relatività e conoscenza a priori, Laterza 1984

-                     L.Kostro, Einstein e l’etere, Dedalo 2001

-                     E.Bellone, Storia della fisica, UTET 1998

-                     B.D’Espagnat, I fondamenti concettuali della meccanica quantistica, Bibliopolis 1977

-                     R.Penrose, La mente nuova dell’imperatore, Sansoni 1998

-                     R.Penrose, Ombre della mente, Rizzoli 1996

-                     R.Penrose, Il grande, il piccolo e la mente umana, Raffaello Cortina 1998

-                     B.Greene, L’universo elegante, Einaudi 2000

-                     D.Lindley, La luna di Einstein, Longanesi 1997

-                     J.A.Wheeler, Gravità e spazio-tempo, Zanichelli 1997

-                     A.Einstein, L.Infeld, L’evoluzione della fisica, Boringhieri 1979

-                     M.Born, La sintesi einsteiniana, Boringhieri 1973

-                     D.Z.Albert, Meccanica quantistica e senso comune, Adelphi 2000

-                     A.Einstein, Autobiografia scientifica, Boringhieri 1979

-                     C.M.Will, Einstein aveva ragione?, Bollati-Boringhieri 1989

-                     R.Sexl, H.K.Schmidt, Spaziotempo, Boringhieri 1980

-                     H.R.Pagels, Universo simmetrico, Bollati-Boringhieri 1988

-                     W.Heisenberg, Fisica e filosofia, Il Saggiatore 1994

-                     A.Einstein, Relatività: esposizione divulgativa, Boringhieri 1987

-                     A.Pais, Sottile è il Signore, Boringhieri 1987

-                     J.D.Barrow, Teorie del tutto, Adelphi 1992

-                     G.Kane, Il giardino delle particelle, Longanesi 1998

-                     H.Reichenbach, Filosofia dello spazio e del tempo, Feltrinelli 1977

-                     B.D’Espagnat, Alla ricerca del reale, Boringhieri 1983

-                     G.C.Ghirardi, Un’occhiata alle carte di Dio, Il Saggiatore 1997

-                     M.Planck, La conoscenza del mondo fisico, Bollati-Boringhieri 1993

-                     E.Schrödinger, L’immagine del mondo, Boringhieri 1987

-                     G.Gamow, Trent’anni che sconvolsero la fisica, Zanichelli 1988

-                     F.Hund, Storia della teoria dei quanti, Boringhieri 1980

-                     V.Fano, I.Tassani, L’orologio di Einstein, CLUEB 2002

 

******************************************************

ITIS “S. CANNIZZARO” – CATANIA

SEMINARIO

“CRISI DEI FONDAMENTI DELLA FISICA CLASSICA E MUTAMENTI DEI PRINCIPI GENERALI DELLA CONOSCENZA”

 

Dispensa a cura del Prof. Martino Rapisarda

 

CONVERGENZE, CONFRONTI E CONTRAPPOSIZIONI

TRA CULTURA SCIENTIFICA E UMANISTICA

 

 

 Gorge Bernhard Riemann il 10 giugno del 1854 tenne la sua famosa conferenza “Sulle ipotesi che costituiscono i fondamenti della geometria”, che avrebbe avuto importanti implicazioni nel futuro delle scienze, della filosofia, della letteratura e delle arti europee.

Vale la pena di citare alcuni esempi:

Ø      Il matematico Lewis Carroll nel suo libro “Attraverso lo specchio” connette l’Inghilterra con il Paese delle Meraviglie, in accordo con la teoria delle connessioni multiple o dei cunicoli spazio-temporali di Riemann

Ø      La scoperta della quarta dimensione divenne di dominio pubblico nel 1877, quando venne celebrato a Londra il processo per frode contro l’esperto in poteri paranormali Henry Slade, che coinvolse alcuni fra i più noti fisici di quel periodo come Thompson, Weber, Crookes, Lord Rayleigh e Zollner

Ø      Nel 1884 l’ecclesiastico Edwin Abbot scrisse un racconto dal titolo “Flatland: A romance of Many Dimensions by a Square”, prima elaborazione di una visita ad un mondo di dimensioni superiori

Ø      Nel 1891 Oscar Wilde scrisse una parodia intitolata “Il fantasma di Canterville”

Ø      Nel 1894 Wells scrisse il racconto “The Time Machine”, dove ipotizza che il tempo potesse essere considerato come la quarta dimensione alternativa a quella dello spazio, come già sostenuto da Jean d’Alembert nel lontano 1754 con l’articolo Dimension

Ø      La storica dell’arte Henderson nel suo “The fourth Dimension and Non–Euclidean Geometry in Modern Art” ipotizza che la quarta dimensione abbia avuto un’influenza cruciale sull’arte avanguardistica del Cubismo e dell’Espressionismo (vedi Picasso “Ritratto di Dora Maar”, Marcel Duchamp “Nude Descending a Staircase” etc.); successivamente Savator Dalì dipinse il famoso Christus Hypercubus oggi esposto al Metropolitan Museum of Art di New York

Ø      Fyodor Dostoyevscky nel suo romanzo “I Fratelli Karamazov” ci presenta il protagonista Ivan Karamazov mentre ragiona sull’esistenza delle dimensioni superiori e sulle geometrie non-euclidee, nell’ambito di una discussione sull’esistenza di Dio

Ø      La frattura in seno ai bolscevichi tra il loro leader Lenin e il movimento degli Otzovist (ideatori della divinità), i quali incoraggiavano i contadini russi servendosi della religione e dello spiritismo sulla scorta di un sensazionalismo legato alla scoperta della quarta dimensione e della radioattività, avvenuta nel 1896 ad opera di Henri Becquerel e Marie Curie. Nel 1908 Lenin nel suo trattato filosofico “Materialismo ed Empirio-Criticismo” , (ignorando la scoperta di Einstein divulgata nel 1905), difende il materialismo dialettico dall’attacco di mistici e metafisici, ritenendo che materia ed energia dovessero essere considerate i due poli di una nuova struttura dialettica

 

Naturalmente molte altre testimonianze non sono qui prese in considerazione per brevità di trattazione, ma anche per affrontare in termini più generali la questione del rapporto tra le scienze e le culture umanistiche. 

Dalla seconda metà degli anni cinquanta del secolo scorso, da quando Charles Percy Snow tenne la conferenza dal titolo “Le due culture e la rivoluzione scientifica”, (http://www2.unibo.it/boll900/numeri/2001-i/W-bol/Burnard/Burnardtesto.html#1)

la controversia sulla pericolosa divisione della società occidentale del XX secolo in due culture, quella umanistica e quella scientifica, ha animato piccoli e grandi dibattiti.

In Italia, da quando Feltrinelli nel 1964 pubblicò il famoso pamphlet  “Le due culture”di sir Snow, dove l’autore denuncia l'isolamento tra le scienze esatte e le culture umanistiche, si sviluppò un acceso ed ampio confronto tra uomini di scienza ed umanisti, che fu divulgato dai più grandi quotidiani del periodo come il Corriere della Sera e il Paese Sera.

Scrive Snow:

Trent’anni fa le due culture non si rivolgevano la parola, ma almeno si sorridevano freddamente. Oggi la cortesia è venuta meno e si fanno le boccacce”.

Per comprovare le proprie tesi, lo Snow registra le risposte ai due quesiti:

Ø      Conosci il secondo principio della termodinamica?

Ø      Conosci l’Amleto di Shakespeare?

 

Moravia su Paese Sera risponde, commettendo un grave errore di interpretazione (secondo Ludovico Geymonat):

“L’Amleto ha due facce: una ricca di implicazioni filosofiche, estetiche, etiche… ed una rivelatrice dei momenti più vistosi del suo Pathos drammatico….

Il secondo principio della termodinamica ha (invece) una sola faccia per tutti; come ogni legge scientifica, può essere conosciuto in un modo solo.”

 

Naturalmente Geymonat afferma che l’ignoranza di Moravia in ambito scientifico è una questione che riguarda soprattutto lui.

Rispondendo a Moravia, sullo stesso Paese Sera, Elio Vittorini ribadisce con coraggio e decisione che il secondo principio della termodinamica “è veramente alla base della cultura moderna” ed afferma:

“In realtà la cultura è sempre basata sulla scienza. Sempre contiene la scienza. Quella antica era unita sulle basi della scienza antica. La scissione è avvenuta col nascere di una nuova scienza, col metodo sperimentale di Galileo. L’attuale contrapposizione tra cultura umanistica e cultura scientifica è un pseudo concetto. In realtà la vera contrapposizione è tra una cultura vecchio-scientifica e una cultura nuovo-scientifica.”

Quindi “non è concepibile un serio umanesimo che non si basi in ultima istanza sull’attività scientifica e sulla concezione del mondo che essa a grado a grado ci procura.”

E’ fuori dubbio che Vittorini avesse ragione, così come è fuori dubbio che ancora oggi non si insegna questa verità ai giovani e che a cinquant'anni dall'enunciato di Snow non è accaduto molto

e le due culture sono ancora divise.

Ma veniamo al vero cuore del problema delle convergenze dei confronti e delle contrapposizioni

tra cultura scientifica e umanistica, partendo dal tema di oggi che riguarda l’avvento della teoria quantistica nel panorama scientifico novecento.

Concludo ricordando le parole di Niels Bohr uno dei padri fondatori di questa sconvolgente teoria:

“Chiunque non resti turbato dalla teoria quantistica molto probabilmente non l’ha capita.”

 

 

 

 
 
  Links Correlati

· Inoltre Iniziative
· News by p.privitera


Articolo più letto relativo a Iniziative:
Crisi dei fondamenti della fisica classica e ......"

 

  Valutazione Articolo

Punteggio Medio: 3.91
Voti: 12


Dai un voto a questo articolo:

Eccellente
Ottimo
Buono
Sufficiente
Insufficiente

 

  Opzioni


 Pagina Stampabile Pagina Stampabile

 Invia questo Articolo ad un Amico Invia questo Articolo ad un Amico

 


 
 

powered by PHPNuke - created by Mikedo - designed by Clan Themes


| Torna Su | Home Page | Documenti |