Che cosa è la Scienza

di Mario Bon

9 aprile 2012

(rivisto il 15 ottobre 2016)

 

Per capire cosa sia la Scienza si deve partire dallo scopo che la Scienza si prefigge e da come questo scopo viene perseguito.

 

Lo scopo della Scienza è fare delle previsioni con un errore noto

 

Ne segue che alla scienza non interessa descrivere la realtà (o perseguire una verità) ma ottenere un modello, o anche solo un algoritmo, che consenta di ottenere queste previsioni (si veda oltre, gli isomorfismi). La frase che caratterizza la Scienza del XX secolo è  “…tutto avviene come se…” .  La filosofia, la metafisica, l’ ontologia, si occupano dell’essere in sé. La scienza si occupa della realtà come appare. Nell’antichità scienza e filosofia erano la stessa cosa. Separarle è stato un errore.

 

Anche l’astrologia propone delle previsioni ma non si cura in alcun modo dell’errore che commette nel farle.  La Scienza si caratterizza per la determinazione dell’errore. L’ astrologia non è una scienza.

La meteorologia è una scienza. La meteorologia non fornisce certezze ma probabilità.

Quando il metereologo afferma che domani pioverà significa che la probabilità di pioggia è almeno del 95%

(ovvero in passato, se le stesse condizioni si sono riproposte per 100 volte, per 95 volte ha piovuto).

 

Per raggiungere lo scopo la Scienza applica il “metodo scientifico” che si riassume in tre fasi:

 

Osservazione, Ragionamento, Esperimento

 

Il metodo è stato formalizzato da Galileo Galilei e sintetizzato da Einstain in un articolo apparso su Science. Il risultato dell’ Esperimento viene quindi Osservato ed il ciclo ricomincia. Il ciclo si conclude quando Osservazione, Ragionamento ed Esperimento risultano coerenti. Affinché un Esperimento sia “credibile” deve essere “ripetibile” il che significa che altri ricercatori, in altre parti del mondo, devono essere messi nelle condizioni di replicare lo stesso esperimento ed ottenere gli stessi risultati. Si tratta di una procedura di validazione: tutti i risultati degli esperimenti, per essere accettati, devono essere condivisi e validati.  Questo costringe a controllare, ed a descrivere nei particolari, le “condizioni al contorno” . Per esempio la risposta in frequenza di un diffusore acustico può essere ripresa in camera anecoica o in ambiente con un gating system, ad una certa distanza dal diffusore, ad una certa altezza da terra, con un certo microfono, ad una certa temperatura e pressione atmosferica…. La misura si fa in un minuto, calcolare gli errori e descrivere le “condizioni al contorno” richiede molto più tempo. Non si può accettare il risultato di una misura che non sia corredato dalla valutazione dell’errore e da una esaustiva descrizione delle condizioni al contorno.

 

Il metodo scientifico è molto più utilizzato di quanto possa apparire. Un topolino in una gabbia dispone di due bottoni: quello rosso rilascia del cibo, quello blu provoca una scossa dolorosa. Il primo tentativo del topolino è casuale (il ciclo comincia con un esperimento “casuale”)  ma quando ha “osservato” che premendo il bottone rosso ottiene cibo non sbaglia più. Nel caso del topolino forse non possiamo parlare di “ragionamento” ma si tratta comunque di un processo governato dal cervello. Anche il topolino applica il metodo scientifico che dovrebbe essere chiamato, più in generale, “metodo naturale”.

 

Dato che quello che interessa sono delle previsioni, la Scienza elabora dei modelli in grado di produrre le previsioni che servono con l’errore più adatto allo scopo contingente. L’ingegnere che progetta un ponte esegue dei calcoli che gli consentono di prevedere se questo ponte reggerà il carico e sopporterà i terremoti.

Se le previsioni sono corrette il ponte regge, se sono sbagliate il ponte cade.

 

Prendiamo un altoparlante dinamico. Come tutti sappiamo l’altoparlante ha una sua frequenza di risonanza fondamentale. Se siamo interessati a “prevedere” la frequenza di risonanza con un errore del 3% possiamo schematizzare l’altoparlante come un oscillatore armonico semplice formato da una massa e una molla (un pendolo elastico). Se invece vogliamo prevedere anche il fattore di merito meccanico dobbiamo aggiungere un terzo elemento (attrito viscoso). L’oscillatore armonico semplice ha poco a che vedere con l’altoparlante ma consente di ottenere delle previsioni con l’errore richiesto. Se desideriamo conoscere anche la distorsione o la risposta in frequenza dell’altoparlante dobbiamo “arricchire” il modello di altri elementi che rappresentino la non linearità del campo magnetico, dello spider, del bordo esterno, i break up della membrana, ecc. Nel realizzare il modello si utilizza sempre il metodo: Osservazione, Ragionamento, Esperimento.

 

Alla fine il modello è costituito da un insieme di espressioni matematiche dove, assegnando i valori delle variabili indipendenti, si ottengono i risultati voluti con l’errore richiesto.

 

Per fare un altro esempio consideriamo il transistor. A seconda del risultato, e dell’errore desiderato, possiamo scegliere tra diversi modelli:

 

-          il modello in corrente continua

-          il modello di Ebers-Moll

-          il modello a parametri ibridi per piccoli segnali  (4 parametri)

-          il modello di Giacoletto

-          il modello di Gummel Poon (il più completo con 41 parametri)

 

E’ evidente che, se dobbiamo polarizzare il transistor, useremo il semplice modello in corrente continua mentre, se ci interessano gli effetti della temperatura, le alte frequenze e le non linearità, useremo il modello di Gummel-Pool. Nessuno di questi modelli “è” un transistor ma ciascuno di essi consente di fare previsioni con un diverso livello di accuratezza. Di volta in volta sceglieremo quello più adatto (il più semplice adatto allo scopo).

 

Un set di espressioni matematiche non è un altoparlante e non è nemmeno un transistor: come fa a “funzionare”? Il modello matematico funziona perché il modello e l’oggetto reale sono isomorfi (almeno per quanto concerne le proprietà che interessano).  Gli isomorfismi sono essenziali e, senza saperlo, li utilizziamo estensivamente nella vita di tutti i giorni. L’isomorfismo tra l’insieme dei numeri naturali e l’insieme delle mele ci consente di affermare che 2 mele + 3 mele = 5 mele.

E’ evidente che l’isomorfismo tra numeri naturali e mele riguarda l’operazione di somma, moltiplicazione, divisione, sottrazione. Non riguarda il gusto o la struttura chimica della mela. Allo stesso modo sommiamo le pere, le arance, ecc. . Da questo punto di vista, e limitatamente per queste proprietà aritmetiche, gli insiemi delle mele, per, banane, ecc. sono isomorfi. L’isomorfismo astrae dalla particolare natura degli enti. Sommiamo le mele e le galassie applicando le stesse regole. 

 

Riassumendo:

 

Lo scopo della scienza è fare previsioni con un errore noto.

Il metodo scientifico si riassume in Osservazione, Ragionamento ed Esperimento

Gli esperimenti devono essere ripetibili (ovvero condivisi e validati)

Le previsioni vengono ottenute operando su modelli “isomorfi” ai sistemi reali.

 

Manca ancora qualche cosa. Dato che le nostre capacità di memorizzazione sono limitate abbiamo bisogno di un sistema che consenta di ridurre il numero di nozioni consentendoci così di poter contare su una base di conoscenze sempre più ampia. Per fare questo si deve realizzare “l’economia di pensiero” attraverso “l’unità di trattazione”. L’unità di trattazione, da una parte, porta alla normalizzazione ed alla standardizzazione e dall’altra spinge alla unificazione delle teorie ed alla ricerca di principi sempre più universali (vds analogie elettro-acustiche ma anche la ricerca dell’unificazione delle quattro forze fondamentali –gravità, elettromagnetica, forza forte e forza debole). Per esempio un tempo ottica, elettrologia, magnetismo.. erano “scienze separate” oggi sono tutte comprese nell’elettromagnetismo.

 

Grazie al metodo scientifico la fisica moderna ha prodotto le leggi del moto (da Galileo Galilei in avanti), la Teoria della Gravitazione Universale di Newton, le Leggi di Maxwell, la Teoria della Relatività di Einstain e la Meccanica Quantistica (Dirac, Bohr, e molti altri fino a Fermi e Rubbia). Tutte queste Teorie, che in realtà sono dei modelli, sono state verificate sperimentalmente (entro i limiti degli errori previsti).

La fisica della propagazione del suono, la meccanica e l’elettromagnetismo rientrano nella “Meccanica Classica” e non sono più in discussione.  Almeno per questo aspetto, per quanto riguarda l’HiFi, possiamo stare tranquilli: non dobbiamo scoprire nulla di nuovo ma al massimo riconoscere fenomeni noti. Sicuramente non potremo accettare alcuna conclusione in contraddizione con le attuali conoscenze consolidate (in particolare in contrasto con il Secondo Principio della Termodinamica).

In ogni caso ogni nuova teoria deve comprendere le conoscenze pregresse validate come caso particolare. Per esempio il Principio di Relatività Galileiano (noto come Legge di Composizione delle Velocità) è un caso particolare della Relatività Ristretta che a sua volta è un caso particolare della Relatività Generale.   Quando in un futuro più o meno prossimo sarà formulata una nuova teoria questa dovrà contenere, come caso particolare, la Relatività Generale. 

 

Le teorie

 

La validità di una teoria (di un modello) è inversamente proporzionale al numero di postulati su cui essa si basa.

Tutta la matematica, dall’insiemistica agli spazi di funzionali, si basa su

 

-          concetto di insieme

-          proprietà di appartenenza

 

il concetto di insieme è un  “concetto primitivo” perché non può essere spiegato se non ricorrendo al concetto stesso di insieme (o usando dei sinonimi).

La proprietà di appartenenza è una (la) “proprietà primitiva” perché non può essere spiegata se non utilizzando la stessa proprietà di appartenenza (o altre ad essa riconducibili – per esempio il concetto di possesso).

Con l’insieme e  l’appartenenza si costruisce tutta la matematica a cominciare dai numeri naturali, razionali, irrazionali, fino agli spazi vettoriali generalizzati di Hilbert ed agli spazi di funzionali. La matematica è il principale strumento della fisica nel senso che consente di formulare le leggi fisiche in forma astratta.

 

Tutta la fisica si costruisce a partire da pochi postulati e un alcune evidenze sperimentali:

 

lo spazio è omogeneo

 ed isotropo

Conservazione della quantità di moto

Conservazione del momento angolare

 

 

 

 

Postulati della Relatività

il tempo è omogeneo

(ma non isotropo)

Conservazione dell’energia

la velocità della luce è costante

(sperimentale)

 

l’intervallo è invariante

Conservazione della relazione di causa-effetto

Carica elettrica (sperimentale)

Conservazione della Carica

(Proprietà delle funzioni d’onda)

 

 

dal primo postulato deriva la conservazione della quantità di moto e del momento angolare, dal secondo la conservazione dell’energia.

 

Un’altra conseguenza del secondo postulato (omogeneità del tempo) è il libero arbitrio di cui godiamo (l’omogeneità del tempo esclude la predestinazione). La omogeneità del tempo esclude anche che la materia possa essere creata dal nulla e, di conseguenza, ci spiega come la creazione possa essere possibile solo in presenza di una discontinuità nel continuum spazio-temporale.

Ragionare sulla omogeneità ed anisotropia del tempo porta a comprendere molte più cose si possa immaginare e non solo nel campo scientifico.

I primi quattro postulati reggono la Teoria della Relatività. Con il quinto si completa il quadro.

Le Leggi di Conservazione sono la conseguenza di una qualche forma di simmetria.  Il resto è “descrittivo” nel senso che le Leggi della Fisica non fanno altro che sintetizzare le osservazioni sperimentali (realizzano l’ economia di pensiero attraverso l’unità di trattazione).

 

 

Le Sorgenti di alcuni campi:

Sorgenti del campo gravitazionale

masse

Sorgenti del campo elettrico

Cariche

Sorgenti del campo magnetico

Cariche in moto

Sorgenti della radiazione

Cariche accelerate

Sorgenti del suono

Corpi in movimento

 

Almeno per quanto riguarda la Fisica Classica è necessario (o almeno comodo) introdurre un secondo concetto primitivo: il divenire (il tempo, in Meccanica Classica è una variabile indipendente e lo spazio è tridimensionale).

 

L’ “Alta Fedeltà”, così come se la immagina l’audiofilo medio, è una scienza molto debole perché fondata su una quantità fantasmagorica di postulati sostenuti da scuole di pensiero diverse e in aperta contraddizione tra loro.  Sembrano tante religioni diverse…..

Per il solo fatto che molti la conoscano come una scienza debole non è detto che lo sia veramente. Per migliorare il livello medio di conoscenza si deve, per prima cosa, eliminare i preconcetti e le false convinzioni. La via maestra è il metodo: Osservazione, Ragionamento, Esperimento.

 

Isomorfismo

 

Isomorfismo (dal Greco isos = uguale e morphé = forma). I morfismi (omomorfismi ed isomorfismi) sono fondamentali. La definizione di un isomorfismo è la condizione necessaria e sufficiente per la definizione di un modello: il ponte tra l’astrazione matematica e la realtà da rappresentare. Le analogie elettromeccaniche sono un esempio di isomorfismo.

 

Due insiemi  A e B dotati di struttura, i cui elementi siano legati da una corrispondenza biunivoca, si dicono isomorfi se sussiste corrispondenza biunivoca le loro strutture e se i risultati ottenuti operando sugli elementi di A corrispondono biunivocamente ai risultati che si otterrebbero eseguendo le corrispondenti operazioni sui corrispondenti elementi di B.

La corrispondenza biunivoca è quindi estesa non solo agli elementi ed alle strutture (operazioni) ma anche ai risultati delle operazioni tra elementi corrispondenti.

 

Se esiste un isomorfismo fra due strutture, queste si dicono isomorfe. Due strutture isomorfe sono  intercambiabili: le due strutture si possono identificare ignorando le identità specifiche degli elementi degli insiemi di supporto e focalizzandosi solo su aspetti rilevanti delle strutture stesse.  L’isomorfismo consente di astrarre dalla natura degli enti.

 

L’insieme delle mele è isomorfo all’insieme dei numeri naturali (anello abeliano rispetto alla somma) e questo ci permette di dedurre che 1 mela + 2 mele è uguale a 3 mele. In realtà l’operazione viene fatta con i numeri naturali (1+2=3) e il risultato viene riferito alle mele. Contrariamente la semplice operazione (mela) + (mela, mela) darebbe come risultato (mela, mela, mela) e non 3 mele il che non è un problema in sé ma lo diventa quando le mele sono più di 10 o 100 (non abbiamo abbastanza dita per contarle…).  Per superare questo limite molte civiltà hanno sviluppato un metodo di calcolo basato sul 12 (le falangi di indice,medio,anulare e mignolo). Non a caso le ore sono 24 (12 di giorno +12 di notte) i mesi sono dodici, i minuto 60 (12x5), ecc..

Grazie all’isomorfismo possiamo fare tutte le operazioni con i numeri naturali e quindi riferirli all’insieme delle mele (ma anche pere, banane, missili balistici, ecc.). Questo ci consente di fare la spesa e pagare il conto alla cassa.

 

Per prevedere il comportamento di un dispositivo reale se ne elabora un modello. Le previsioni sono valide solo se il modello ed il dispositivo reale sono isomorfi (o, più precisamente, all’interno dei limiti di validità dell’isomorfismo).

  

 

Quando i risultati ottenuti operando sul modello non corrispondono alla realtà sperimentale significa che non c’è isomorfismo. Manca quindi la corrispondenza biunivoca tra gli elementi o tra le strutture o tra le operazioni o tra i risultati delle operazioni. Questo è quanto succede quando si dice che i risultati delle misure non rappresentano le qualità sonore dei dispositivi audio (amplificatori, sistemi di altoparlanti, ecc.) e indica una carenza che è prima di tutto teorica e metodologica e che richiede la verifica e la ridefinizione della corrispondenza tra elementi, strutture, operazioni e risultati delle operazioni. Si veda a tal proposito lo sviluppo ottenuto nell’acustica architettonica, dal 1960 ad oggi, reso possibile dalla definizione di due insiemi:

 

- qualità soggettive della percezione (attributi dl suono)

- quantità oggettive misurabili

 

e dallo studio delle relazioni che tra loro intercorrono.

 

L’ omomorfismo si differenzia dall’isomorfismo perché stabilisce una relazione univoca (e non biunivoca) tra elementi, strutture e operazioni di due insiemi. La relazione che intercorre tra l’ingresso e l’uscita di un sistema lineare (per es. un amplificatore audio) è un omomorfismo (corrisponde  ad una rototraslazione di un opportuno spazio vettoriale).

 

Gli isomorfismi sono determinanti nella vita quotidiana di ogni essere senziente. Senza gli isomorfismi non potremmo contare, non esisterebbe il commercio e nessuna misura di alcun tipo sarebbe possibile. Come tutte le cose che servono veramente (e che utilizziamo con una scarsa consapevolezza) gli isomorfismi sono poco conosciuti e ancor meno studiati nelle scuole. Vengono così a mancare le basi teoriche e culturali necessarie per :

 

- l’elaborazione i modelli dei dispositivi reali,

- la formulazione di teorie consistenti,

- realizzare l’economia di pensiero attraverso l’unità di trattazione.                    

 

No isomorfismo, no party.

 

Relatività e Meccanica Quantistica

 

Cosa hanno a che fare la Relatività e la Meccanica Quantistica con l’elettroacustica? Una delle conseguenze della Relatività riguarda tutte le scienze (elettroacustica compresa):

 

le Leggi della Fisica sono le stesse in tutto l’Universo

 

Questo significa che fenomeni come l’interferenza e la diffrazione esistono in Italia e in Inghilterra o in Giappone o su Marte e, in ogni luogo, valgono le stesse leggi. Ne segue che un sistema di altoparlanti non può essere esente da certi difetti, o possedere proprietà particolari, per il solo fatto di essere stato realizzato in Inghilterra o in Francia. Questo vale in particolare per la diffrazione ai bordi. Grazie a ciò anche in Italia è possibile realizzare sistemi di livello almeno pari, se non superiore, che all’estero.

 

I postulati della Relatività ci consentono di definire le proprietà dei segnali e ci indicano come rappresentarli (si veda l’articolo dedicato alla Teoria dei Segnali).

 

Le funzioni che rappresentano i segnali (fondamentali per la Teoria delle Comunicazioni, Acustica, Elettroacustica. ecc.) sono un sottoinsieme delle funzioni d’onda usate in Meccanica Quantistica. La Teoria dei Segnali è un caso particolare della Meccanica Quantistica quindi possiamo applicare ai segnali il formalismo di Dirac (tipico della Meccanica Quantistica), il concetto di stato, gli operatori di selezione e molte altre cose utili ed interessanti. In particolare il formalismo di Dirac è molto “compatto” . facile da leggere e da scrivere.

 

Applicando ai segnali i principi della Meccanica Quantistica si arriva alla formulazione della Teoria Unificata dei Segnali.

Ne segue anche un’altra considerazione: sollevare un dubbio sulla Teoria dei Segnali,  sulla Teoria di Fourier o su altri aspetti e procedure della Scienza significa mettere in dubbio la Relatività e la Meccanica Quantistica che, come ben sappiamo, sono teorie sperimentalmente confermate (e, a rigore, non dovrebbero chiamarsi “teorie” ma “leggi”).

 

La Fisica Classica è un caso particolare della Fisica Quantistica Relativistica valida quando le velocità in gioco sono molto minori della velocità della luce e i corpi sono abbastanza grandi (ma non troppo).  Le conoscenze di Fisica Classica sono stabili da decenni e non sono più in discussione. Questo non significa che tutti i fenomeni siano noti ma che ogni  nuovo fenomeno osservato può essere ricondotto a leggi note (anche se questo processo può non essere banale). Infatti, come si usa dire, “le cause non sono sempre palesi”.

 

Il rapporto tra Osservabile ed Osservato

 

Quando si misura una grandezza si provoca sempre una certa alterazione della stessa grandezza che si vuole misurare. Questa alterazione può essere trascurabile o determinante.

Per esempio supponiamo di voler pesare una mela. Per farlo la dobbiamo prendere e porla sulla bilancia. Nel prenderla piccole quantità di sudore o di epitelio della nostra mano si depositano sulla mela che peserà un poco di più. Questo è un esempio di alterazione trascurabile perché la bilancia del fruttivendolo a malapena riesce a discriminare 10 grammi.

Supponiamo ora di voler osservare un elettrone. Per farlo lo dobbiamo illuminare. La luce che colpisce l’elettrone ne altera l’ energia (Effetto Compton) con il risultato che l’elettrone acquista velocità e non è più dove ci aspettiamo che sia. Questo è un esempio di alterazione determinante.

Per quanto riguarda l’elettroacustica, quando misuriamo la risposta in frequenza di un altoparlante, lo colleghiamo ad un amplificatore che, con il suo fattore di smorzamento, altera il risultato della misura.

 

se il microfono è molto vicino all’altoparlante (pochi centimetri)

le riflessioni sul microfono alterano la misura: quanto più la superficie del microfono è paragonabile alla superficie dell’altoparlante (microfono da mezzo pollice e un tweter da un pollice)

se il microfono è molto lontano dall’altoparlante (per es. oltre un metro)

le riflessioni dell’ambiente e degli ostacoli vicini al microfono o alla sorgente alterano la misura

 

Lo stesso avviene quando misuriamo un amplificatore: l’effetto del carico collegato alla sua uscita altera la misura in vario modo. Gli esempi sono almeno tanti quante le misure possibili.

Dovremmo abituarci a considerare i “protagonisti”  di una misura che sono:

 

Osservabile

Una grandezza, un fenomeno fisico, la realtà.

Osservatore

colui che osserva ovvero lo strumento di misura.

Osservato

il risultato di una osservazione ovvero la rappresentazione che l’osservatore ottiene dell’osservabile. Il risultato della misura.

 

Osservare è sinonimo di misurare. L’uomo è dotato di sensi (tatto,  gusto,  olfatto, vista, udito, equilibrio e propriocezione) e questi sensi sono i nostri “strumenti di misura”. I sensi sono limitati: per esempio

 

-          la vista è sensibile solo alla radiazione elettromagnetica in una stretta banda centrata attorno al rosso

-          l’udito è sensibile alla variazioni di pressione di frequenza compresa tra 20 e 20000 Hz e tra 0 e 120 dB.

-          La pelle è sensibile ad un certo intervallo di temperatura, di pressione, di dolore

 

Altri animali sono sensibili alla radiazione termica (serpenti) o agli ultrasuoni (pipistrelli). Altri animali possono vedere quando per noi è completamente buio (gatto). E’ del tutto evidente che la rappresentazione dell’ambiente circostante che ottiene un serpente è diversa da quella che ottiene l’uomo. La realtà ci appare quindi come i nostri sensi ci consentono di percepirla (e non come è veramente o come è “in sé” come direbbe un filosofo). Per superare le limitazione dei nostri sensi l’uomo ha inventato strumenti quali il microscopio o il telescopio, i microfoni e gli analizzatori di spettro, ecc. . Gli strumenti di misura ampliano la percezione ma sono comunque soggetti ad errori.

 

L’interazione tra osservabile ed osservatore determina il conosciuto (l’osservato) come risultato di un processo (la misura) che altera lo stato del sistema in esame.

 

Quindi possiamo conoscere solo uno stato “alterato” della realtà e non la realtà come in effetti è. Questo è un principio generale che vale la pena ribadire: non possiamo conoscere direttamente il mondo fisico ma solo la rappresentazione che otteniamo dagli strumenti di misura (e i nostri sensi sono anch’essi degli  strumenti di misura). questa consapevolezza è alla base della Meccanica Quantistica (la rinuncia al determinismo a favore della probabilità).

 

Gli Osservatori sono stati introdotti da Einstain (Relatività Ristretta) mentre il rapporto tra osservabile ed osservato è il punto di partenza dello sviluppo della Meccanica Quantistica (la rinuncia al determinismo). Rinunciare al determinismo significa riconoscere la nostra incapacità di descrivere la natura per quello che è (Principio di Heisembreg).

 

L’interazione tra osservabile ed osservatore è fondamentale nella analisi spettrale dei segnali: lo stato del segnale osservato (il suo spettro) è determinato dallo strumento di misura (analizzatore di spettro).

 

Il conoscibile

 

Possiamo conoscere qualsiasi cosa o ci sono cose che non siamo in grado di conoscere?

La storia della scienza dimostra che, nel tempo,  abbiamo imparato una quantità di cose nuove in tutti i campi. Nel 1969 l’uomo è sbarcato sulla Luna ma soprattutto è tornato dalla Luna sulla Terra. Se la Teoria Gravitazione di Newton non fosse più che corretta questa impresa non avrebbe avuto successo. Il viaggio dell’uomo sulla Luna è un successo della Teoria Newtoniana che dobbiamo  dunque considerare, non più teoria, ma una Legge della Fisica. Qualsiasi teoria sulla gravitazione si vorrà costruire in futuro dovrà contenere la gravitazione di Newton come caso particolare. Così avviene, infatti, per la Teoria della Relatività di Einstain che contiene la gravitazione newtoniana, appunto, come caso particolare. Anche la Relatività è ampiamente provata sperimentalmente, ed è talmente isomorfa alla realtà fisica da essere essa  stessa utilizzata come strumento di ricerca.

Vista la storia che abbiamo alle spalle possiamo supporre che saremo in grado conoscere ancora molte altre cose.

Ma come avviene la conoscenza e perché certe cose le capiamo facilmente e altre difficilmente o per nulla?

Per conoscere un sistema si devono riconoscere le parti che lo compongono e le relazioni che sussistono tra queste parti sussistono. Fatto questo primo passo dovremo essere in grado di prevedere l’evoluzione del sistema a partire da condizione date. Con riferimento all’insiemistica conoscere significa stabilire un isomorfismo tra il sistema osservato e una struttura presente nella nostra mente (cui corrisponde, nel nostro cervello, una altrettanto corrispondente struttura sinaptica). Questo implica che questa struttura sinaptica sia già presente (perché formatasi precedentemente o innata) o compresa tra quelle possibili (compatibili con le possibili configurazioni sinaptiche). 

Conoscere significa stabilire un isomorfismo tra la realtà e la rappresentazione che di essa abbiamo (non solo attraverso i sensi ma anche attraverso gli strumenti di misura che, a tutti gli effetti, sono estensione dei nostri sensi). Questo avviene consciamente o inconsciamente.

Fortunatamente il nostro cervello è in grado di formulare, recepire, comprendere nuove strutture e di stabilire nuovi isomorfismi permettendo di ampliare la conoscenza (plasticità cerebrale).  A tale scopo è molto istruttivo studiare come Boltzmann ha dedotto l’espressione dell’entropia, come Max Plank ha dedotto la legge della radiazione del corpo nero e come Einstain abbia concepito la Teoria della Relatività.

 

La realtà è quello che è, la percezione della realtà deriva da stimoli fisici ma la rappresentazione della realtà avviene attraverso strutture astratte. Esempi di strutture (assolutamente astratte) sono gli spazi vettoriali, gli spazi di Minkovski, le geometrie non euclidee, l’oscillatore armonico, ecc..

 

Più strutture si conoscono più aumenta la probabilità di riconoscere le strutture che ci circondano e più aumenta anche la capacità di costruire nuove strutture (per simmetria, antisimmetria, complementarietà, analogia o affinità con le strutture note).

 

Il numero di strutture presenti in natura appare in qualche modo limitato o riconducibile ad un numero di strutture limitato: le leggi che regolano l’Universo sono poche, le particelle elementare stabili sono poche, le forze fondamentali sono quattro (già ridotte a 3 con la definizione del campo elettro-debole, e probabilmente presto due). Una delle strutture più diffuse nell’Universo è l’oscillatore armonico.

Se ora dovessimo dare una definizione di “intelligenza” potremmo dire che “l’intelligenza è la capacità di riconoscere strutture diverse e stabilire isomorfismi”. Ampliando il numero di strutture conosciute aumentiamo la nostra intelligenza. A scuola, in modo assolutamente inconsapevole, ci insegnano a riconoscere un certo numero di strutture diverse. Se questo fosse un processo consapevole saremmo tutti più intelligenti e l’efficacia dell’insegnamento sarebbe molto superiore.

 

 

Evoluzione del pensiero

 

Se una struttura è nota, ne sono note le parti e le relazioni tra le parti. Attraverso la logica, possiamo dedurre, dalle relazioni note,  nuove relazioni. La Logica è, per definizione, lo studio delle relazioni.

Ma non sempre le relazioni tra gli elementi che caratterizzano una struttura sono note. Qui si manifesta una caratteristica originale del nostro cervello che possiamo chiamare immaginazione, intuizione, ragionamento euristico o altro. In sostanza l’uomo riesce a risolvere un problema anche quando i dati per farlo sono insufficienti.

Un computer può fare tante cose, con il tempo, per un errore, diventerà autocosciente, ma non avrà la capacità di immaginare o di ragionare euristicamente (almeno speriamo che sia così….). Questa certezza è in qualche misura consolatoria.

 

L’evoluzione del pensiero è un processo euristico. Se così non fosse, esaurita la fase di speculazione logica, l’uomo sarebbe incapace di formulare nuove relazioni ed il progresso si fermerebbe.

 

C’è poi un altro aspetto: spesso accade che persone diverse, in luoghi diversi ed in modo indipendente, giungano alle stesse conclusioni o facciano le stesse scoperte. Questo avviene per una serie di motivi legati alla tecnologia, alla storia, alla cultura, ecc.. Sembra quasi che li progresso della conoscenza non possa essere fermato…. da qualche parte, quando è il momento, salta fuori.

 

La neurofisiologia cognitiva, prima o poi, localizzerò, nel cervello, l’area deputata ai processi euristici.

 

La Cosmologia e la Teoria Standard

 

La Teoria Standard è, al momento, la versione normalmente accettata della storia della nascita dell’Universo. Tutto comincia con il Big Bang (la grande esplosione) che genera lo spazio-tempo e proietta in modo disordinato la materia nello spazio. Man mano che l’Universo di espande la materia si raffredda e  si aggrega dando origine agli elementi, alle stelle ed alle galassie che continuano ad allontanarsi le une dalle altre. Questa  teoria presenta alcun lacune. Per esempio non dice dove è finita l’antimateria o perché non osserviamo la presenza di antimateria. Altre evidenze sperimentali non possono essere spiegate se non ipotizzando l’esistenza dell’ energia oscura. Si sta ancora lavorando sulla ricostruzione dei primi istanti di vita dell’Universo.

 

In campo cosmologico, comunque, esistono solo due possibilità: o si accetta l’idea di un atto creativo che ha  originato l’Universo dal nulla, o si ipotizza che l’Universo è sempre esistito ed attraversa una seri di stati ciclici senza mai nascere o morire (ma questo contrasta con il secondo principio della Termodinamica). La questione  si risolve  con un atto di Fede.

Lo studio dell’Universo ci dice che, almeno per il nostro pianeta, ci sarà una fine. Il Sole diventerà una gigante rossa ed, espandendosi, ingloberà e brucerà la Terra, la nostra galassia è in rotta di collisione con un’altra e si scontreranno, grossi meteoriti prima o poi ci colpiranno estinguendo la vita così come avvenne per i dinosauri. Più banalmente un  brillamento solare abbastanza violenta, che potrebbe avvenire in qualsiasi momento, potrebbe investire la Terra e cancellare la vita o la tecnologia che oggi supporta la vita.

Abbiamo costruito un mondo tecnologico estremamente fragile che dipende in larga parte dalla elettricità. Basta considerare cosa succede quando si esaurisce la batteria del cellulare….

Non sappiamo da dove veniamo ma sabbiamo benissimo dove andremo a finire: in un modo o nell’altro sperimenteremo direttamente la sublimazione. Resta da capire quando.

 

 

Il programma di Hilbert

di Mario Bon

25 novembre 2015

 

Economia di pensiero e unità di trattazione

 

Hilbert e Godel erano contemporanei. Hilbert un famoso ed affermato matematico e fisico, Godel un giovane logico.

Hilbert aveva capito che la  mente di una persona non poteva contenere la vastità delle informazioni note e che questo poneva un limite agli sviluppi futuri della scienza. Si pose quindi il problema di ridurre la quantità di nozioni particolari attraverso la assiomatizzazione delle scienza.

Assiomatizzare significa formulare una serie di assiomi (postulati) dai quali si possa dedurre qualsiasi altra relazione. A quel punto, noti gli assiomi, tutto il resto è ottenibile per  logica deduzione. Ricordare pochi assiomi o ricordare tutta una scienza non è la stessa cosa.

Hilbert era preoccupato del ruolo che il “fattore umano” gioca nelle dimostrazioni. Per essere certo che una dimostrazione fosse realmente tale stabilì che qualsiasi dimostrazione dovesse essere eseguita da una macchina in un numero finito di passi. Al quel tempo il computer ancora non esisteva. Hilbert immaginò, in qualche modo, che fosse possibile realizzarlo.  Una volta fissate queste regole Godel  evidenziò un limite che sintetizzò nel “Primo Teorema di Incompletezza”.

Il teorema di incompletezza dimostra che, all’interno di qualsiasi teoria che comprenda almeno i numeri naturali, esistono delle proposizioni per le quali non è possibile dimostrare la  verità o la falsità. Questo, erroneamente, è stato interpretato come il “fallimento” del programma di Hilbert. Non solo il programma di Hilbert non è  fallito, ma continua ancora oggi perché l’economia di pensiero, che si ottiene con l’economia di pensiero, è uno dei principi guida dell’evoluzione del cervello umano. Hilbert non ha fatto altro che esplicitare una esigenza della mente e una strategia di sopravvivenza del cervello.

Del resto né Godel né Von Newmann (al quale si deve il “Secondo Teorema di Incompletezza”) pensavano che l’incompletezza potesse essere un problema.

Il vero problema è l’ignoranza. All’ignoranza si pone rimedio, all’imbecillità no. L’imbecillità è irreversibile.

Per fortuna esiste almeno un caso in cui l’imbecillità si rende riconoscibile: un imbecille non  cambia idea nemmeno davanti all’evidenza. L’imbecille è onnisciente.

 

 

 

Conclusione

 

Per concludere stiamo bene attenti a non sparare minchiate solo perché trattiamo di Alta Fedeltà.