Si sostiene che una determinata ipotesi possa essere spiegata anche tramite l'inclusione di vincoli ecologici specifici per ogni sottospecie, come indicato da Baker nel 2009. Questo tipo di spiegazione, dunque, dovrebbe giustificare la conclusione dell'analisi ambientale (EIA), ovvero che i cicli vitali sono determinanti e che siamo ontologicamente impegnati nell'esistenza dei numeri. Tuttavia, non è sufficiente fermarsi a questa conclusione. Una parte fondamentale del ragionamento risiede nella riformulazione dell'argomento iniziale, poiché il contesto della frase cambia significativamente quando il riferimento ai numeri viene parafrasato nell'argomento in una logica del primo ordine con identità. Questo solleva la domanda cruciale su come possa essere mantenuto il legame tra l'esplanandum e l'esplanans in questa nuova formulazione. Come può una spiegazione in cui si usa la proprietà matematica della primalità, come nel caso dell'ipotesi matematica dell'ipotesi provvisoria, essere trasferita o trasformata in una spiegazione di un dato che, parafrasato in logica del primo ordine con identità, appare molto differente?

Il tema di questa sezione riguarda proprio la difficoltà di utilizzare una spiegazione matematica all'interno di un contesto che implichi la logica del primo ordine. La questione non è semplicemente che la spiegazione matematica di un ipotesi provvisoria possa essere la migliore, ma come tale spiegazione possa essere trasferita a un dato (D) che è stato riformulato in un contesto logico che tratta pluralità piuttosto che entità. Infatti, il dato riformulato nella logica del primo ordine, che tratta oggetti come pluralità, non può essere trattato alla stessa maniera da una spiegazione matematica che concerne entità. La difformità tra i due contesti è palese: l'esplanandum riformulato, che ora riguarda le pluralità, non può essere direttamente collegato alla proprietà matematica della primalità, che riguarda invece entità singole.

Per superare questa disparità, occorre un principio di collegamento logico che possa unire le pluralità con le entità. In questa ottica, uno strumento utile per evitare la circolarità potrebbe essere il Principio di Hume, che afferma che "per ogni concetto F, G, il numero di F è identico al numero di G se e solo se F e G sono equinumerosi." In altre parole, il principio stabilisce che due insiemi, espressi dai concetti F e G, sono equinumerosi se esiste una relazione biiettiva che collega ogni elemento dell'uno con un elemento dell'altro. In tale contesto, il concetto di equinumerosità può essere utilizzato per collegare pluralità di oggetti con entità numeriche, dando così una base solida alla matematica.

Il principio di Hume, combinato con la logica del secondo ordine, fornisce anche una base per derivare gli assiomi di Peano, che definiscono i numeri naturali. Ciò consente di applicare operazioni aritmetiche sui numeri naturali, come l'addizione e la moltiplicazione, e di ottenere risultati utili sui numeri primi. Tuttavia, va sottolineato che il vero problema riguarda la natura dell'equivalenza provata tra il dato parafrasato (Df ol .) e la formulazione successiva (D# .), che potrebbe risultare un'equivalenza analitica. La differenza tra un'equivalenza analitica e una non analitica è cruciale: se (Df ol .) è analiticamente equivalente a (D# .), allora la spiegazione matematica non è semplicemente una rappresentazione, ma possiede un contenuto matematico che potrebbe rendere il ragionamento circolare.

In questo contesto, il fatto che l'equivalenza tra le due espressioni (Df ol .) e (D# .) derivi esclusivamente dalla logica del secondo ordine, dalle definizioni di Frege e dal principio di Hume, implica che la spiegazione matematica della fenomenologia empirica descritta dal dato parafrasato deve essere vista come intrinsecamente legata alla matematica stessa. Se questa relazione logica e matematica tra le espressioni è valida, il ragionamento rischia di essere circolare, in quanto il contenuto della formulazione matematica potrebbe trasferirsi al dato empirico in un modo che non è puramente logico.

L'importanza di questo tipo di analisi risiede nel fatto che il principio di Hume non solo stabilisce un legame tra entità e pluralità, ma fornisce anche una base per la comprensione delle strutture matematiche come il numero e la sua applicazione in contesti empirici. Per risolvere la questione della circolarità, è necessario esplorare le implicazioni logiche e filosofiche di questi principi, poiché una loro errata applicazione potrebbe compromettere la validità delle spiegazioni matematiche applicate a fenomeni empirici.

Quali sono i limiti e le possibilità delle teorie matematiche più deboli nelle spiegazioni scientifiche?

Nell’ambito delle teorie matematiche, una domanda cruciale riguarda la ricerca delle teorie matematiche più deboli in grado di interpretare qualsiasi tipo di matematica utilizzata nelle spiegazioni scientifiche. Questa strategia ricorda quella proposta da Bueno nel 2001, che suggeriva a un nominalista di sfruttare il programma di matematica inversa (reverse mathematics) avviato da Harvey Friedman, il cui obiettivo era scoprire quali siano gli assiomi più deboli per provare un teorema. Tuttavia, ci sono delle differenze importanti da considerare: la prima, come nota lo stesso Bueno, riguarda l’obiettivo nominalista di ricostruire il più possibile la matematica, mentre il nostro scopo è decisamente più modesto, limitandosi a trattare solo quella che Tallant nel 2013 definisce “matematica esplicativa scientifica”.

Un'altra differenza fondamentale risiede nell'approccio: mentre Bueno si concentra principalmente sui principi di astrazione, da parafrasare mediante una combinazione di logica plurale e mereologia, il nostro approccio si basa sul criterio ontologico di Quine, come illustrato nella sezione 2.1 o 3.3, dove alcuni partecipanti al dibattito mettono in discussione questo criterio. Questi aspetti ci spingono a riflettere sulle implicazioni di adottare un modello matematico all'interno di spiegazioni scientifiche, senza cadere nella trappola della circularità.

Nel caso delle spiegazioni scientifiche come quelle relative al ciclo di vita della cicala, ad esempio, possiamo riscontrare due spiegazioni alternative: la prima implica l’uso della matematica di Frege, in cui vengono utilizzati concetti di logica secondaria di ordine due e una serie di vincoli ecologici; la seconda, invece, adotta l'Aritmetica di Robinson, interpretata in un contesto di concatenazione di stringhe non vuote. In quest’ultimo caso, non è necessario assumere l'esistenza dei numeri come entità platoniche. Tuttavia, per concludere che la prima spiegazione è la migliore, bisogna farlo senza assumere a priori la verità del platonismo matematico. Questo impone un’analisi approfondita della natura e della forza matematica delle teorie coinvolte.

Mentre l'Aritmetica di Frege è teoricamente molto più potente dell’Aritmetica di Robinson, un nominalista non dovrebbe preoccuparsi eccessivamente di questa differenza. Tuttavia, una differenza nella portata empirica delle teorie è una questione che non può essere ignorata. Per un nominalista, ciò che conta davvero è la differenza nella portata empirica tra le due spiegazioni, non la loro forza matematica intrinseca. Questo punto evidenzia un’importante sfida per la difesa della posizione dell’Indicatore Empirico di Applicabilità (EIA). Se l’Aritmetica di Robinson può essere utilizzata come una teoria di base abbastanza debole, ma sufficiente per spiegare i fenomeni osservabili, allora la spiegazione basata su tale teoria può risultare più soddisfacente per un nominalista che evita impegni ontologici aggiuntivi rispetto alla matematica fregeana.

Va aggiunto che, anche se il programma di interpretabilità relativa tra diverse teorie matematiche potrebbe sembrare debole rispetto ad approcci matematici più forti, esso è comunque in grado di interpretare una vasta gamma di teoremi, e quindi risulta utile in un numero significativo di spiegazioni scientifiche. Questo suggerisce che, pur nella sua limitatezza, l’Aritmetica di Robinson possiede sufficiente potenza per alcune applicazioni pratiche, senza dover ricorrere a una ontologia più complessa che coinvolga numeri fregeani.

La questione centrale rimane però quella della circolarità dell’argomento. Se la spiegazione matematica dipende dalla forza della teoria matematica stessa, c'è il rischio di ricadere in un ragionamento circolare. Per evitare questo, sarebbe utile pensare a un approccio che non si basi sulla superiorità matematica, ma sulla differenza di portata empirica tra le teorie. In questo modo, si potrebbe evitare di incorrere nel cosiddetto "question begging", una trappola logica che affligge molte teorie filosofiche che fanno riferimento alla matematica come una giustificazione ontologica.

Infine, il dibattito sullo status dei cosiddetti principi di astrazione, come il principio HP, è cruciale per il futuro delle teorie matematiche applicate. La questione se questi principi siano analitici o meno determinerà la capacità dell'argomento di superare la circolarità e di rendere matematicamente solide le spiegazioni scientifiche. Chi si occupa di applicazioni matematiche dovrebbe tenere presente questo dibattito, poiché influenzerà inevitabilmente la comprensione della matematica come strumento indispensabile per le spiegazioni scientifiche.

Come Determinare la Rilevanza di una Relazione Causale in una Spiegazione Scientifica

Nel campo della scienza, il concetto di causalità è fondamentale per la costruzione delle spiegazioni. Tuttavia, il modo in cui determiniamo quali relazioni causali sono rilevanti per una spiegazione può variare notevolmente a seconda della concezione di causalità che adottiamo. Ad esempio, se concepiamo la causalità come una regolarità priva di eccezioni, simile alla visione empirista di Hume, ogni volta che un oggetto (ad esempio il sale) viene "stregato", esso si dissolve in acqua senza eccezioni, rendendo questa relazione causale rilevante per una spiegazione di dissoluzione. Tuttavia, se la causalità è intesa in termini di influenze multiple e complesse, come suggerito da Salmon, la questione della rilevanza diventa più sfumata. Come possiamo determinare se una determinata influenza causale è veramente rilevante per un evento, o se è semplicemente parte di un ampio insieme di cause?

Un esempio tipico riguarda una situazione apparentemente banale: un giocatore colpisce una finestra con una palla da baseball. Se consideriamo tutte le influenze causali come rilevanti, anche le urla dei giocatori durante l'impatto dovrebbero essere incluse come causa della rottura della finestra. Tuttavia, l'intuizione comune ci dice che solo l'impatto della palla è rilevante, e non le urla. Questo tipo di osservazione, che esclude alcune parti della storia causale come non essenziali, è stato discusso anche da Lewis, il quale ha sottolineato che alcune cause, pur facendo parte della totalità della storia causale, non sono importanti nel determinare l'effetto di un evento.

L'approccio controfattuale di Lewis ha introdotto una prospettiva innovativa, in cui la causalità viene analizzata in termini di dipendenze controfattuali: "Se l'oggetto A non fosse esistito, l'oggetto B non sarebbe mai esistito". Questo approccio aiuta a separare ciò che è causalmente rilevante da ciò che non lo è, e fornisce una base per determinare se una determinata relazione causale può davvero spiegare un evento. La teoria dei controfattuali permette di immaginare scenari alternativi e di esplorare le conseguenze di eventi ipotetici, rispondendo alla domanda di come avrebbero potuto andare le cose in situazioni diverse.

Un altro sviluppo significativo è l'approccio interventista di Woodward, che pone l'accento sull'intervento come mezzo per determinare la causalità. Secondo Woodward, una spiegazione scientifica efficace deve essere in grado di associare a un esperimento controfattuale, in cui un cambiamento nelle variabili (ad esempio, l'altezza di un flagpole) deve determinare un cambiamento nel fenomeno che si sta spiegando (come la lunghezza dell'ombra). Questo legame tra intervento e causalità è cruciale: un "intervento" consiste nel manipolare una variabile (detta variabile di intervento) per vedere come essa influenzi altre variabili. La teoria suggerisce che le variabili non siano indipendenti, ma che una variazione in una possa causare modifiche significative in altre.

Se pensiamo a un esempio matematico, come la dimostrazione che 2 è l'unico numero primo pari, vediamo che la spiegazione non si limita a fornire una sequenza logica di passi, ma ci offre una ragione per cui questa affermazione è vera. La matematica, in questo caso, non solo stabilisce una verità, ma fornisce anche una spiegazione che risponde al "perché" della verità stessa. In tal modo, le dimostrazioni matematiche, se ben strutturate, sono in grado di rispondere a domande più profonde rispetto a semplici affermazioni di verità, come nel caso della "redutio ad absurdum" che dimostra l'unicità di 2 come primo pari.

Le teorie di causalità, quindi, offrono strumenti essenziali per costruire spiegazioni scientifiche e matematiche, ma anche per determinare con maggiore precisione quale parte della storia causale sia realmente significativa per la comprensione di un evento. È fondamentale che ogni relazione causale considerata in una spiegazione sia contestualizzata nell'ambito di un modello teorico che permetta di isolare e verificare la rilevanza delle diverse influenze.