AIΩN è uno spazio aperto. Si accettano contributi!

mercoledì 7 agosto 2024

Scarpe spaiate, teoresi severiniana e indeterminismo quantistico

 


S’immagini di avere un paio di scarpe, una destra e una sinistra. Si prenda una delle due scarpe senza guardarla e la si porti in un luogo remoto. Rimane una scarpa con te che non hai osservato e quindi non sai se è la destra o la sinistra. Quando decidi di guardare la scarpa che hai con te, scopri che è, per esempio, la scarpa sinistra. Immediatamente sai che la scarpa che hai portato lontano è la destra. Questo perché le due scarpe sono “preparate” in modo tale che una è necessariamente destra e l’altra sinistra. Questa relazione è «predeterminata» e non cambia indipendentemente da dove le scarpe vengono portate: la conoscenza dello stato della scarpa che si ha con sé ci dà automaticamente la conoscenza dello stato della scarpa lontana.

 

Nella teoresi di Emanuele Severino espressa nella «Struttura Originaria» (SO), l’unità di L-immediatezza (immediatezza logica) e F-immediatezza (immediatezza fenomenologica) è centrale sotto tuti gli aspetti. La L-immediatezza riguarda l’identità-innegabilità logica delle determinazioni, ossia il loro essere necessario e innegabile nel contesto della totalità dell’essere. La F-immediatezza, invece, si riferisce al manifestarsi immediato dei fenomeni (apparire), ovvero ciò che appare direttamente alla nostra «esperienza». Il filosofo bresciano sostiene che queste due dimensioni non possono essere separate: ogni fenomeno che appare (F-immediatezza) è intrinsecamente legato alla verità logica del suo logos (L-immediatezza).

 

Applicando questa idea al «problema» delle scarpe, possiamo constatare che l’atto di osservare la scarpa che abbiamo con noi (F-immediatezza) è immediatamente collegato alla verità logica della relazione predeterminata tra le due scarpe (L-immediatezza). Quando osserviamo che la scarpa con noi è la sinistra, stiamo simultaneamente riconoscendo la necessità logica che la scarpa lontana è la destra. Non c’è separazione tra ciò che appare fenomenologicamente e la verità logica sottostante. L’informazione che otteniamo osservando una scarpa non è creata ex novo, ma è una manifestazione di una relazione necessaria preesistente (originaria). Ciò mostra come la «percezione» fenomenologica sia sempre legata alla struttura logica dell’essere, eliminando l’illusione che ci possa essere una separazione (isolamento) tra l’apparire e l’essere.

 

L’esempio delle scarpe può servire come una fruttuosa analogia per comprendere il fenomeno dell’entanglement quantistico, sebbene con limitazioni. L’entanglement quantistico è un fenomeno in cui due o più particelle diventano interconnesse in modo tale che lo stato di una particella non può essere descritto indipendentemente dallo stato dell’altra, anche se sono separate da grandi distanze — di norma in sede sperimentale lo stato entagled è «preparato» in laboratorio mediante apposite tecniche. In altre parole, la misurazione dello stato di una particella influenza istantaneamente lo stato dell’altra — ciò creò non pochi problemi ad Albert Einstein, tra i primi ad avere contezza del fenomeno, la cui teoria della relatività non ammetteva fantsmatiche azioni a distanza.

 

Secondo l’interpretazione di Copenaghen della fisica quantistica, prima della misurazione, le particelle entangled esistono in una sovrapposizione di stati possibili. Questo significa che non hanno un valore definito per certe proprietà (come posizione o spin) fino a quando non vengono misurate. È l’atto della misurazione che «collassa» la funzione d’onda, determinando uno stato specifico per le particelle. In questo contesto, l’indeterminismo intrinseco della fisica quantistica afferma che gli stati delle particelle non sono predeterminati prima della misurazione.

 

L’analogia delle scarpe può aiutare a visualizzare come la conoscenza dello stato di un oggetto possa rivelare immediatamente lo stato di un altro oggetto connesso. Tuttavia, ha delle limitazioni significative. Mentre le scarpe sono oggetti classici con stati determinati anche prima dell’osservazione, le particelle quantistiche non hanno stati definiti fino al momento della misurazione. Questo indeterminismo intrinseco, dove le particelle esistono in una sovrapposizione di stati, è una caratteristica fondamentale dell’interpretazione di Copenaghen.

 

Quindi, mentre l’analogia delle scarpe può illustrare l’interconnessione e la rivelazione istantanea di informazioni, essa non cattura la natura intrinsecamente probabilistica e la sovrapposizione degli stati che caratterizzano l’entanglement quantistico secondo l’interpretazione di Copenaghen. Nell’entanglement, lo stato di ciascuna particella si palesa solo dopo la misurazione, evidenziando un livello di indeterminismo che l’analogia delle scarpe, con i loro stati predeterminati, non può completamente rappresentare.

 

In SO, la contraddizione C concettualizza la dialettica tra finito e infinito. Questa contraddizione, che emerge da un isolamento semantico, implica che il finito è sempre incompleto e aperto a ulteriori determinazioni. La contraddizione C evidenzia la mancanza di strutture logico-semantiche utili per risolvere completamente il problema; da qui si può asserire con una certa sicurezza che in SO il significato è insaturabile: ogni significato finito è parte di un processo infinito di aggiunta di nuove determinazioni necessarie (note come costanti). Tale insaturabilità del significato, quindi, riflette una realtà in cui ogni determinazione è sempre parziale e aperta all’infinito.

 

Abbiamo visto che l’approccio di Copenaghen alla fisica quantistica, con il suo indeterminismo intrinseco, introduce un elemento di incertezza: prima della misurazione, lo stato delle particelle è indeterminato e descritto da una sovrapposizione di stati. È solo l’atto di misurazione che determina uno stato specifico, facendo collassare la funzione d’onda. Questo porta a una visione della realtà quantistica come intrinsecamente probabilistica e non completamente determinata prima dell’osservazione, avvalorando la realtà del caso all’interno dei fenomeni quantistici.

 

Un punto di contatto tra la teoresi severiniana e l’approccio di Copenaghen può essere trovato nell’insaturabilità del significato e nell’indeterminismo epistemico. La contraddizione C implica che il finito non può mai essere completamente determinato, poiché è sempre aperto a nuove determinazioni. Analogamente, l’approccio di Copenaghen postula che lo stato delle particelle non è determinato fino alla misurazione, riflettendo un’indeterminazione epistemica che può essere vista come una manifestazione della nostra conoscenza limitata e della natura insaturabile del significato — sebbene per alcuni l’indeterminismo quantistico abbiamo una natura ontologica, quindi avulsa da qualsiasi mancanza di conoscenza; per tale motivo il punto di contatto rimane tale se lo status dell’indeterminazione è epistemico.

 

Tuttavia e per l’appunto, esistono anche divergenze significative. Secondo Severino, la necessità ontologica implica che ogni evento e determinazione è parte della struttura originaria della verità, dove tutto è necessario e interconnesso. Non c’è spazio per la contingenza o l’indeterminismo assoluto nell’essere. L’indeterminismo intrinseco della fisica quantistica, come proposto dall’approccio di Copenaghen, sembra contraddire questa visione, postulando che lo stato delle particelle non è determinato ontologicamente prima della misurazione.

 

Nell’ottica della verità originaria e della necessità, anche i fenomeni quantistici e le loro interpretazioni rientrano nella struttura totale dell’apparire dell’essere. La contraddizione C, come manifestazione dell’incompletezza e dell’apertura infinita del finito, può fornire un quadro per comprendere l’indeterminismo quantistico come una forma di insaturabilità del significato. Questo indeterminismo (epistemico) non contraddice la necessità ontologica, ma riflette la nostra conoscenza limitata e la continua rivelazione di nuove determinazioni necessarie.

 

L’approccio di Copenaghen — dal versante epistemico — può essere visto come un’espressione dell’insaturabilità del significato, dove l’atto di misurazione rivela uno stato tra molti possibili, aggiungendo determinazioni necessarie al nostro sapere finito. In questo senso, l’indeterminismo epistemico della fisica quantistica può essere compatibile con la struttura originaria della verità di Severino, se inteso come una manifestazione della contraddizione C e dell’insaturabilità del significato.

 

Possiamo asserire consci della natura comunque superficiale della presente analisi che, sebbene vi siano divergenze tra la teoresi severiniana e l’approccio di Copenaghen, esistono — in ottica epistemica — anche punti di contatto significativi. Entrambe le visioni possono essere integrate riconoscendo che i fenomeni quantistici e le loro interpretazioni rientrano nella struttura necessaria della verità originaria, riflettendo l’insaturabilità del significato e la continua rivelazione delle determinazioni necessarie nel processo infinito di comprensione dell’essere.

 

L’isolamento semantico tra L-immediatezza e F-immediatezza può essere anche inteso come la radice dell’indeterminismo intrinseco della fisica quantistica, in particolare secondo l’interpretazione di Copenaghen. Quando queste due dimensioni vengono separate, si crea l’illusione che i fenomeni possano esistere indipendentemente dalle loro determinazioni logiche, aprendo la strada all’indeterminismo e alla contingenza. Nell’interpretazione di Copenaghen, lo stato delle particelle non è determinato fino all’atto della misurazione, suggerendo che l’apparire fenomenologico delle particelle non sia legato in modo necessario alle loro determinazioni logiche. Questo isolamento porta alla percezione che gli stati delle particelle siano indeterminati prima della misurazione, mentre in realtà, secondo necessità, ogni evento è già parte della struttura necessaria dell’essere.

 

Questo isolamento semantico introduce anche l’idea del caso assoluto all’interno dell’approccio probabilistico imposto dalla fisica quantistica, poiché separa la verità logica dalla manifestazione fenomenologica, creando l’apparenza che gli eventi possano avvenire senza relazione necessaria con il resto delle determinazioni. La negazione della necessità emerge quindi da questo isolamento, poiché permette di pensare che gli eventi possano essere contingenti e non necessari. Tuttavia, nella struttura originaria della verità, ogni ente e ogni evento è parte di una totalità necessaria e interconnessa, dove non c’è spazio per la contingenza o il caso assoluto.

 

L’illusione del caso assoluto e dell’indeterminismo intrinseco nasce dal pensare che i fenomeni possano esistere senza una determinazione necessaria, ma ciò — sappiamo — è il risultato dell’isolamento semantico tra L-immediatezza e F-immediatezza. Riconoscere l’unità di queste due dimensioni permette di superare l’illusione della progettualità sottesa alla contingenza e di vedere ogni evento come parte della necessità. In questo modo, anche i fenomeni quantistici e le loro interpretazioni rientrano (come negazione della verità originaria) nella struttura totale dell’essere, riflettendo l’insaturabilità del significato e la continua rivelazione delle determinazioni necessarie nel processo infinito di comprensione dell’essere.

 

Severino, attraverso il suo rigore teoretico, in SO introduce il concetto Γ per mostrare cosa accade quando si isolano L-immediatezza e F-immediatezza. Questo concetto evidenzia le problematiche che emergono dall’isolamento semantico tra queste due dimensioni, sottolineando l’importanza della loro unitarietà come momenti di un’unica verità. Rammentiamo che l’isolamento di L-immediatezza e F-immediatezza crea una frattura che porta a concepire le determinazioni come separate dai loro contesti fenomenologici o logici, rispettivamente.

 

Quando si propende maggiormente per la L-immediatezza, si cade nell’idealismo (primalità del pensiero), dove si enfatizza la verità logica delle determinazioni a scapito del loro apparire fenomenologico. Questo approccio porta a considerare le determinazioni come assolute e indipendenti dal contesto fenomenologico in cui appaiono, creando una rigidità che non riconosce la complessità del reale. D’altra parte, una maggiore propensione per la F-immediatezza conduce al realismo (primalità dell’oggetto come esterno, separato), dove si enfatizza l’apparire fenomenologico a scapito della verità logica. Questo porta a considerare le esperienze fenomenologiche come indipendenti dalle strutture logiche che le determinano, creando un’apertura alla contingenza e all’indeterminismo.

 

Severino mostra che entrambe queste posizioni sono frutto di un isolamento semantico che non riconosce l’unità fondamentale tra L-immediatezza e F-immediatezza. Il concetto Γ illustra come l’isolamento di queste dimensioni porta a una contraddizione dialettica. Questa contraddizione non può essere assolutamente risolta isolando ulteriormente le determinazioni, ma deve essere riconosciuta e integrata nella totalità originaria della verità, dove ogni ente è parte di una struttura necessaria e interrelata.

 

Nell’ottica della verità originaria e della necessità, sappiamo che anche i fenomeni quantistici e le loro interpretazioni rientrano nella struttura totale dell’essere. Abbiamo visto che la contraddizione C, come manifestazione dell’incompletezza e dell’apertura infinita del finito, può fornire un quadro per comprendere l’indeterminismo quantistico come una forma di insaturabilità del significato. Questo indeterminismo non contraddice la necessità ontologica dell’essere, ma riflette la comprensione progressiva della verità. Riconoscere l’unità di L-immediatezza e F-immediatezza permette di superare l’illusione della contingenza e del caso assoluto e di vedere ogni evento come parte di una struttura necessaria e interconnessa.

 

Nelle opere di Severino, l’isolamento semantico viene criticato come l’essenza dell’errore. Questo isolamento è ciò che egli fa ricadere nel «concetto astratto dell’astratto», ovvero la posizione della parte come isolata dal tutto di cui è parte.

In SO la posizione di ogni significato implica la posizione del suo contraddittorio e dell’intero campo semantico mentre la determinatezza del significato coimplica la determinatezza dell’intero campo semantico — Francesco Berto chiama quest’ultima asserzione Principio dell’Olismo Semantico —. Nel linguaggio severiniano, ogni significato è parte di una totalità interconnessa e la manifestazione di un significato implica necessariamente (L-immediatamente) l’apparire dell’intero. Questo implica che l’isolamento di un significato dal suo contesto è intrinsecamente contraddittorio, poiché nega la relazione necessaria del significato con l’intero. La critica dell’isolamento semantico e la valorizzazione dell’unità dialettica delle determinazioni sono quindi fondamentali per comprendere la complessità e la necessità ontologica del reale, superando le riduzioni idealistiche e realistiche e riconoscendo ogni evento come parte di una struttura necessaria e interconnessa. A questo punto possiamo asserire che all’interno di un indeterminismo epistemico è possibile trovare una strada per la conciliazione tra significati originari e fenomeni quantistici riportando la loro interpretazione su un piano concreto dell’astratto. Ciò esclude categoricamente che ciò che sembra apparire nei fenomeni quantistici abbia un rilievo ontologico. Di fatto in questo secondo caso la logica dei fenomeni quantistici risulta, in accordo con molti scienziati, controintuitiva (un mistero). Al contrario in un’ottica dialettica il mistero svanisce e la sua comprensione si dipana sul piano concreto dell’astratto, cioè, considerando il fenomeno in sé non isolato dalle sue determinazioni necessarie.

 

 

martedì 6 agosto 2024

Limiti della computabilità e teoresi severiniana: appunti per una possibile analisi filosofica




Roger Penrose, fisico-matematico britannico, ha sostenuto, a più riprese — e.g., in «La mente nuova dell’imperatore» (1989) — che i limiti della computabilità — definiti nell’ambito dell’informatica teorica e non solo — indicano l’impossibilità che una macchina o un’intelligenza artificiale possano mai raggiungere la coscienza. Penrose, che ha dialogato con Emanuele Severino in convegni e annesse pubblicazioni, vede nella coscienza un elemento distintivo, ovvero un qualcosa che va oltre le capacità dei calcoli algoritmici, suggerendo che la coscienza stessa potrebbe essere definita indirettamente dalla sua capacità di comprendere e risolvere problemi che sono fuori dalla portata delle macchine di Turing Universali. Questa visione si può collegare in modo interessante e proficuo alla teoresi severiniana sviluppata sin dalla «Struttura Originaria» (1958) — d’ora in poi SO —, offrendo una prospettiva comprensiva sul rapporto tra «computabilità algoritmica», coscienza (dal punto di vista scientifico) e sguardo filosofico per mezzo della cosiddetta «Contraddizione C».
 
La computabilità è un campo fondamentale dell’informatica teorica che esplora ciò che può essere calcolato da un algoritmo e i limiti intrinseci di questi processi. Uno dei concetti centrali in questo campo è quello degli insiemi ricorsivamente enumerabili e degli insiemi ricorsivi. Questi termini delineano i confini tra ciò che possiamo elencare tramite un algoritmo e ciò che possiamo decidere in maniera definitiva.
 
Si precisa che qui non si introdurrà il concetto di «funzione computabile» e relative proprietà peculiari; quindi, si incorrerà in una inevitabile semplificazione a scapito del rigore formale ma a beneficio della comprensibilità.
 
Un insieme è detto ricorsivo se esiste una macchina di Turing (un modello teorico di calcolo che esemplifica l’elaborazione di un qualsiasi computer) che può decidere l’appartenenza di qualsiasi elemento all’insieme in un tempo finito. In altre parole, per ogni elemento, la macchina di Turing può fermarsi e confermare se l’elemento appartiene o meno all’insieme. Al contrario, un insieme ricorsivamente enumerabile è un insieme per cui esiste una macchina di Turing che può elencare tutti i suoi elementi, ma non può necessariamente decidere l’appartenenza di ogni elemento in un tempo finito. Questo significa che, per alcuni elementi, l’algoritmo potrebbe non fermarsi mai.
 
Il teorema, noto in teoria della computabilità, che afferma l’esistenza di insiemi ricorsivamente enumerabili ma non ricorsivi sottolinea un aspetto fondamentale: esistono insiemi per i quali possiamo costruire un algoritmo (i.e., una procedura che prevede un insieme finito di passi) per elencare i loro elementi, ma non possiamo costruire un algoritmo per decidere l’appartenenza per ogni elemento dato in tempo finito. Ciò mette in evidenza i limiti della computabilità algoritmica.
 
In una prospettiva storica, la teoria della computabilità inizia con il lavoro pionieristico di Alan Turing negli anni ’30. Turing introdusse il concetto di macchina di Turing, un modello teorico che formalizza la nozione di algoritmo e calcolo, nel suo fondamentale articolo «On Computable Numbers, with an Application to the Entscheidungsproblem». Kurt Gödel, con i suoi teoremi di incompletezza, in logica formale (del prim’ordine) dimostrò che ci sono verità matematiche che non possono essere provate all’interno di un sistema formale (sufficientemente potente, espressivo, da esprimere l’aritmetica), anticipando in qualche modo i limiti della computabilità. Alonzo Church, contemporaneo di Turing, sviluppò il calcolo lambda e contribuì significativamente alla teoria degli algoritmi, portando alla formulazione della tesi di Church-Turing, che afferma che qualsiasi funzione calcolabile può essere calcolata da una macchina di Turing. Questi studiosi, insieme a molti altri, hanno gettato le basi per comprendere i limiti e le possibilità del calcolo algoritmico.
 
Emanuele Severino fin dalla SO del 1958 affronta il tema della contraddizione in modo approfondito e rigoroso. Una degli elementi centrali della sua teoresi è la «contraddizione C», che può essere spiegata come un isolamento semantico. Secondo Severino, un significato S appare isolatodalle sue costanti necessarie, creando una situazione in cui S non è S, ma una sua forma astratta o formale che è, in realtà, non-S. Questa disequazione tra il S-concreto e il S-formale si realizza quando S appare isolato dalle sue costanti, risultando in una contraddizione dialettica.
 
La contraddizione C riflette un isolamento semantico simile a quello osservato nella teoria della computabilità che potrebbe essere assimilata ad una teoria «formale». Quando consideriamo un insieme ricorsivamente enumerabile — ma non ricorsivo —, vediamo che l’insieme è in qualche modo isolato dal contesto totale delle sue costanti (i suoi membri o determinazioni). Questo isolamento implica che, pur potendo elencare gli elementi dell’insieme, non possiamo decidere in modo definitivo tramite una procedura algoritmica l’appartenenza di ogni elemento — ciò, ricordiamo, è decretato dal teorema sopra accennato.
 
Questo concetto può essere esemplificato dal Problema della Fermata (Entscheidungsproblem o Halting Problem), uno dei problemi più noti nella teoria della computabilità affrontato da Turing. Il problema chiede se esista un algoritmo che possa decidere se una macchina di Turing si fermerà su un dato input. Turing ha dimostrato che non esiste un tale algoritmo generale, rendendo il problema indecidibile. Tuttavia, possiamo costruire un algoritmo che elenca tutte le macchine di Turing che si fermano su determinati input, rendendo l’insieme ricorsivamente enumerabile ma tuttavia non ricorsivo. Qui, l’isolamento semantico trova un possibile parallelo: l’insieme di tutte le macchine che si fermano è isolato dalla totalità degli input possibili (determinazioni), risultando in una forma di contraddizione (dialettica).
Il concetto di isolamento semantico in Severino, dove l’apparire di un significato è isolato da sue costanti, può essere paragonato all’incapacità di decidere l’appartenenza di tutti gli elementi in un insieme ricorsivamente enumerabile. In entrambi i casi, c’è una complessità intrinseca che impedisce una visione completa e deterministica dell’insieme o del significato totale, rendendo il sistema incompleto e contraddittorio.

La contraddizione C, come descritto da Severino, è una contraddizione dialettica caratterizzata da una mancanza, che si esprime come l’assenza di alcune costanti necessarie per il pieno significato di S. In tal senso essa è problematicità originaria poiché mancherebbero le strutture logico-semantiche per la soluzione del problema (nel finito). Tale contraddizione non è semplicemente risolvibile con una negazione, ma essa è un’assenza che deve essere colmata all’infinito attraverso l’aggiunta di nuove costanti. In altre parole, la contraddizione non viene negata o risolta in senso tradizionale, ma viene affrontata e «tolta all’infinito» in modo processuale, tramite l’inclusione progressiva delle costanti mancanti. Ciò ha un parallelo anche con il concetto di gödelizzazione riguardo il rendere decidibileun sistema formale con l’aggiunta di (infiniti) assiomi ad-hoc. Inoltre, nella logica del primo ordine l'insieme di tutti i teoremi di una teoria è un insieme ricorsivamente enumerabile. Ciò significa che è possibile scrivere un algoritmo che possa generare, prima o poi, ogni dimostrazione valida. Ci si può chiedere se questi teoremi soddisfino la proprietà più restrittiva di essere anche ricorsivi. Cioè, ci si può chiedere se è possibile scrivere un programma per computer in grado di determinare con certezza se un'affermazione è vera o falsa (all’interno del sistema formale o programma). Gödel con i suoi teoremi dice che, in generale, non è possibile. Tali risvolti mostrano che c’è una triangolazione tra decidibilità in Gödel e il Problema dell’Arresto di Turing e, alla luce della presente analisi, con la Contraddizione C in Severino.

Abbiamo visto che il fisico-matematico Roger Penrose, ha elaborato un’argomentazione di matrice scientifica sulla coscienza che si collega in modo interessante a queste riflessioni. Sappiamo che per Penrose i limiti della computabilità indicano l’impossibilità che una macchina (di Turing) o un’intelligenza artificiale possano mai raggiungere una forma coscienza. Secondo Penrose, la coscienza non è computabile e non può essere ridotta a un algoritmo, poiché essa implica la capacità di risolvere problemi che esulano dai limiti delle macchine di Turing. Penrose, nel suo modello ORCH-OR (ORCHestrated Objective Reduction), ideato con il medico Stuart Hameroff, indica nell’intrinseco indeterminismo della fisica quantistica il problema della coscienza, specificatamente nell’elaborazione dell’informazione nei microtubuli — microstrutture presenti nel sistema nervoso degli esseri viventi — dove avverrebbero fenomeni di decoerenza quantistica significativi e intrinsecamente incomputabili.
 
Questa visione offre un’interpretazione indiretta della coscienza come qualcosa che non può essere completamente catturato da sistemi finiti e deterministici. Tale idea si allinea con il pensiero di Severino riguardo alla contraddizione C e all’isolamento semantico: così come il significato S è costantemente incompleto e necessita di integrazione continua, così la coscienza — nel finito — si sottrae alla completa definizione e controllo algoritmico, rimanendo al di fuori del dominio della pura computabilità. 

Si precisa che per Severino il concetto di «coscienza», scientificamente inteso, ha a che fare con il modo della produzione ed è figlio della cultura greca tradizionale (i.e., Platone), mentre esso è autenticamente legato alla «manifestazione del mondo», per cui non è possibile localizzare la coscienza — come sostiene Penrose   in un qualche luogo come il cervello.
 
L’analisi dei limiti della computabilità e la teoresi di Severino, sebbene in ambiti distinti, mostrano un’interessante relazione. Entrambi i campi trattano l’impossibilità di una completezza assoluta e la presenza di contraddizioni dovute all’isolamento di elementi chiave dal contesto totale. Questa analisi, sebbene superficiale, suggerisce che le riflessioni filosofiche di Severino offrono uno sguardo comprensivo delle limitazioni algoritmiche e della natura intrinseca delle contraddizioni nel contesto della computabilità (e per estensione della logica formale).

Ulteriori spunti
Si può ora fare un cenno su cosa succede al teorema della computabilità se si oltrepassa il finito e si estende il tempo all’infinito. Nella teoria della computabilità, le macchine di Turing a tempo infinito (ITTMs) sono un’estensione teorica delle macchine di Turing in cui il calcolo può procedere attraverso una sequenza infinita di passi. Ad ogni «passo di tempo infinito» la configurazione della macchina viene aggiornata in modo ben definito. Questo approccio teorico permette di superare alcune delle limitazioni dei modelli computazionali finiti, aprendo la strada alla risoluzione di problemi che altrimenti rimarrebbero indecidibili.
Tale concetto sembra riflettere la logica della contraddizione C, dove la mancanza viene colmata attraverso un processo infinito. In Severino, questo appare chiaramente nella sua idea che ogni significato (o ente) è sempre in una posizione di continua realizzazione (nel finito, nell’apparire) — sebbene non oscilli tra l’essere e il nulla , poiché le sue costanti non sono mai completamente poste ma vengono costantemente aggiunte nel corso dell’apparire infinito. Questo parallelo con l’estensione del tempo infinito nella computabilità mostra come entrambi i sistemi concettuali, pur operando in domini differenti, convergano sull’idea di un processo infinito come soluzione ai limiti intrinseci dei sistemi finiti. Infatti, il teorema della computabilità che afferma l’esistenza di insiemi ricorsivamente enumerabili ma non ricorsivi viene esteso in modo significativo se consideriamo il calcolo su un tempo infinito. In un contesto finito, questi insiemi rimangono isolati, non completamente decidibili. Tuttavia, se si permette un tempo infinito, alcuni di questi insiemi possono diventare completamente decidibili, poiché la macchina di Turing ha un tempo illimitato per elaborare e decidere l’appartenenza di ogni elemento. Questo riflette il modo in cui la contraddizione C viene risolta in Severino: non attraverso una soluzione finita e deterministica, ma attraverso un processo continuo e infinito di integrazione. Quindi, l’estensione del concetto di computabilità al tempo infinito e la contraddizione C di Severino offrono una visione complementare dei limiti e delle possibilità del finito. Entrambi suggeriscono che alcune contraddizioni e limitazioni non possono essere risolte o superate all’interno di un contesto finito, ma richiedono un approccio diretto con l’infinito.
 
Ricordiamo inoltre che in SO la struttura originaria della verità è intrinsecamente legata all’insaturabilità del significato. Cioè, dovuto alla forma finita della verità stessa e, come tale, è inevitabilmente coinvolta nel rinvio semantico. Questo rinvio è dovuto al fatto che la compiuta saturazione o determinazione di un significato richiede la datità dell’intero. Tuttavia, poiché l’intero non appare mai in modo completo e concreto, ogni significato in SO è necessariamente insaturabile. In altre parole, qualsiasi significato che emerge nell’apparire modifica continuamente il significato originario, mostrando così la sua apertura a infiniti rinvii semantici. Tale insaturabilità del significato è strettamente legata alla contraddizione C, che sappiamo essere una contraddizione dialettica determinata dall’isolamento del significato S dalle sue costanti. In sintesi, per Severino, il significato è insaturabile perché la completa determinazione di un significato richiede l’apparire dell’intero campo semantico, mai raggiungibile nel concreto.
 
L’insaturabilità del significato, dal versante teoretico, può spiegare il teorema della computabilità in quanto entrambi riflettono l’impossibilità di una determinazione completa e definitiva. Nel contesto della computabilità, ripetiamolo, il teorema afferma che esistono insiemi ricorsivamente enumerabili ma non ricorsivi, evidenziando che alcuni problemi non possono essere completamente risolti algoritmicamente. Allo stesso modo, l’insaturabilità del significato indica che ogni significato è continuamente aperto a nuovi rinvii semantici e non può mai essere completamente determinato. Entrambi i concetti sottolineano un limite intrinseco: nella computabilità (nel suo contesto formale), è il limite dell’algoritmo di decidere l’appartenenza a un insieme in modo definitivo; nella teoresi Severiniana, è il limite della piena saturazione del significato. Questa correlazione mostra come la complessità e l’indeterminatezza siano fondamentali sia all’interno dell’informatica teorica che nel sottosuolo della filosofia.

__________
Emanuele Severino, La Struttura Originaria (1958)
Alan Turing, On Computable Numbers, with an Application to the Entscheidungsproblem (1936)
Roger Penrose, La mente nuova dell'imperatore (1989)
Marcello Frixione, Dario Palladino, La computabilità, algoritmi, logica, calcolatori (2011)
Roger Penrose, Emanuele Severino, et al., Artificial Intelligence Versus Natural Intelligence (2022)
Francesco Berto, La dialettica della Struttura Originaria (2003)
Enrico De Santis, Umanità Complessità, Intelligenza Artificiale. Un connubio perfetto (2021)

 

Ispirazioni filosofiche per un cammino nella scienza

 


Non posso ormai negare che nel sottosuolo del mio lavoro di ricerca scientifica la riflessione filosofica ha giocato un ruolo fondamentale. Sebbene la demarcazione tra scienza e non-scienza sia ben delineata dal punto di vista epistemologico, come sostenuto da Karl Popper, ritengo che lo studio del pensiero filosofico, libero da pregiudizi e forme più o meno inconscie di dogmatismo, sia essenziale per l'innovazione e l'avanzamento della conoscenza scientifica.

Karl Popper, uno dei più influenti filosofi della scienza del XX secolo, ha spesso sottolineato l'importanza della metafisica come fonte di idee per la scienza. Nella sua opera "Logica della scoperta scientifica" (1934), Popper sostiene che la distinzione tra teorie scientifiche e metafisiche non deve essere vista in termini di valore assoluto, ma piuttosto secondo la loro capacità di stimolare la ricerca scientifica nell'ottica dell'«accrescimento della conoscenza». Egli argomenta che le teorie scientifiche spesso nascono da idee metafisiche che non sono immediatamente verificabili, ma che possono essere successivamente sottoposte a test (controlli) empirici.

In un’appendice della Logica (App. *I) egli sostiene che: «considerando la questione da un punto di vista storico, [la metafisica] è la fonte da cui rampollano le teorie delle scienze empiriche».

Ancora, nella sua Logica tiene a precisare, in contrapposizione ai positivisti e i neopositivisti che basavano la demarcazione tra scienza e metafisica — con l'intento di annientare la metafisica — su criteri di carattere induttivo:


«Non mi spingo neppure tanto lontano da asserire che la metafisica non ha nessun valore per la scienza empirica. Infatti non si può negare che, accanto alle idee metafisiche che hanno ostacolato il cammino della scienza, ce ne sono state altre — come l'atomismo speculativo — che ne hanno aiutato il progresso. E guardando alla questione dal punto di vista psicologico sono propenso a ritenere che la scoperta scientifica è impossibile senza la fede in idee che hanno una natura puramente speculativa, e che talvolta sono addirittura piuttosto nebulose; fede, questa, che è completamente priva di garanzie dal punto di vista della scienza e che pertanto, entro questi limiti, è 'metafisica'.»

Popper poi continua descrivendo l'essenza dei suoi intenti epistemologici: «Tuttavia, pur avendo avanzato queste cautele, sostengo ancora che il primo compito della logica della conoscenza e quello di formulare un concetto di scienza empirica allo scopo di rendere I'uso linguistico, ora piuttosto incerto, il piú possibile definito; di tracciare una netta linea di demarcazione tra la scienza e le idee della metafisica, anche se queste idee possono avere favorito il progresso della scienza durante tutta la sua storia.»

Si può evincere, come del resto è noto, che Popper, da una prospettiva epistemologica, ritiene estremamente importante il considerare «il progresso della scienza durante tutta la sua storia» nel tentativo di stabilire una logica dell'accrescimento della conoscenza in generale e della scienza empirica in particolare.

Il tema dell'intrinseca importanza della metafisica è ulteriormente elaborato in "Congetture e confutazioni" (1963), dove Popper discute come molte delle più grandi idee scientifiche abbiano avuto origine da congetture metafisiche. Tali congetture, pur non essendo scientifiche nel senso stretto, hanno giocato un ruolo fondamentale nello sviluppo della scienza. Anche in "Realismo e lo scopo della scienza" (1983), Popper sottolinea il contributo positivo della metafisica nello sviluppo delle teorie scientifiche, affermando che essa può fornire un «quadro di riferimento» entro il quale le teorie scientifiche possono essere sviluppate e testate.

In parallelo, le concezioni di Emanuele Severino sulla necessità di un sapere "fondato" e "incontrovertibile" offrono una prospettiva complementare e teoreticamente avvincente. Severino sostiene che la filosofia deve mirare a un sapere «incontrovertibile», in contrasto con il sapere scientifico, che per sua natura è ipotetico e «controvertibile» — cosa ben chiara anche a Popper —. Ad esempio, in "Essenza del Nichilismo" (1972), Severino discute la differenza tra il sapere incontrovertibile della filosofia e il sapere ipotetico della scienza, che è sempre soggetto a revisione. Severino e Popper concordano su un punto fondamentale, sebbene molto lontani su molti altri punti (e.g., lo status della «contraddizione»): il sapere scientifico è caratterizzato dalla sua fallibilità e dalla continua revisione delle sue ipotesi. Questa differenza di approccio sottolinea l'importanza di integrare la riflessione filosofica nel lavoro scientifico, se non altro per avere contezza dei perimetri in cui si «muove» il pensiero nella sua forma diacronica.

A questo punto si rende necessaria una precisazione. Qui, per questioni di brevità, per «metafisica» si intende un'accezione generale e non puntuale per cui gli asserti metafisici non essendo verificabili non sono «scientifici» e, in particolare, non si sta tenendo presente, quando si cita Severino, che la sua filosofia matura è una forma radicale di superamento della metafisica classica o tradizionale — non è questo il luogo di esprimere un giudizio critico sulla riuscita del superamento —.

Nella attività di ricerca di ogni giorno, tengo certamente sempre presente la distinzione tra scienza e metafisica — e «la logica della scoperta scientifica» è in ciò una guida ineludibile sul versante epistemologico —, ma allo stesso tempo non sottovaluto l'importanza della filosofia in generale. Le idee metafisiche, pur non empiricamente verificabili secondo l'accezione popperiana, possono stimolare nuove ipotesi scientifiche e guidare la ricerca verso nuove direzioni, come lo stesso Popper ci ricorda. Allo stesso modo, la riflessione filosofica rigorosa dal punto di vista teoretico, come quella e.g., di Severino, può aiutare a mantenere una visione critica e fondata del sapere. Possiamo concludere questa breve riflessione asserendo che lo studio del pensiero filosofico, privo di pregiudizi, arricchisce il quotidiano lavoro scientifico, fornendo un contesto più ampio e profondo entro cui operare, innovare e coltivare l'intuizione e la creatività. La filosofia e la scienza, pur distinguendosi per i loro metodi e obiettivi, possono così reciprocamente arricchirsi e avanzare insieme verso una comprensione più completa di ciò che comunemente definiamo «realtà» — fine ultimo dell'essenza di ogni sapere, sebbene ciò non sia sempre in luce.

Nel castello di Emanuele Severino - Leonardo Messinese


 

Vediamo cosa c'è «Nel castello di Emanuele Severino», secondo la prospettiva di Leonardo Messinese, professore ordinario di Metafisica alla Pontificia Università Lateranense.

Messinese scrive nell'introduzione:

«Il pensiero filosofico di Severino può essere paragonato a un grande 'castello', con una sola porta d'ingresso e di dimensioni molto strette, così che pure quando si riesce a evitare di cadere in questo o quel fraintendimento iniziale, è comunque molto faticoso riuscire a entrarvi. Anche una volta passati indenni da questa prima difficoltà, il disagio tuttavia potrebbe non essere terminato. Infatti potrebbe insorgere la preoccupazione che l'avanzare all'interno del castello vada di pari passo con il restringersi del proprio autonomo spazio di azione, fino a sentirsi costretti a guadagnare l'uscita prima che sia troppo tardi. Per qualcuno, perciò, l'impresa a cui mi sono accinto scrivendo questo libro potrebbe contenere un prezzo eccessivo, rispetto all'eventuale beneficio che ne potrebbe ricevere

È una delle prime cose che ho pensato quando ho letto le opere più tecniche — dal punto di vista teoretico — di Severino.

Il volume di Leonardo Messinese è una guida accessibile per comprendere un autore il cui pensiero, al di là di alcune semplicistiche raffigurazioni, è estremamente complesso. Messinese paragona il pensiero di Severino ad un grande castello, con una sola porta d’ingresso e dalle dimensioni molto strette  come abbiamo visto. Anche quando si riesce faticosamente ad entrarvi, è difficile riuscire a visitarlo per intero. Accostandosi ai suoi scritti si è condotti a respirare l’aria che avvolge le cime più alte del pensiero filosofico, ad avvicinare le incontaminate e inaccessibili montagne alle quali Heidegger paragonava le «grandi metafisiche». Il libro si rivolge a una duplice tipologia di lettori. Coloro i quali conoscono le tesi di Severino attraverso le pagine dei quotidiani e delle riviste culturali, potranno averne una comprensione più adeguata. Chi, invece, è un «addetto ai lavori» nel campo degli studi filosofici, potrà valutare la bontà del percorso interpretativo che è stato tracciato nel libro e, magari, esserne convinto. In ogni caso il lettore non troverà la profondità teoretica che può solo trovare negli scritti tecnici del filosofo bresciano. In ogni caso «Nel castello di Emanuele Severino» è un buon contenitore di riferimenti bibliografici sia dell'autore che dei suoi commentatori e, altresì, è un'ottima guida per comprendere il rapporto di Emanuele Severino con la metafisica tradizionale e con il cristianesimo nella sua form storica.

 

Scelti

I Large Reasoning Models (LRM) o Reasoning Language Models (RLM) sono più che motori statistici?

source Negli ultimi anni, il dibattito sulle capacità dei grandi modelli linguistici si è spesso concentrato su un’affermazione apparentemen...