AIΩN è uno spazio aperto. Si accettano contributi!

giovedì 24 luglio 2025

L’IA tra meraviglia, provvisorietà e spinte geopolitiche. Un parallelo tecnologico per comprenderne la portata


Mentre Donald Trump porta avanti l’ «America’s AI Action Plan» e ora che l’IA generativa è alla portata di tutti, giornali e media vari si stanno affollando di esperti, o sedicenti tali, che con sicumera si lanciano in affermazioni sulla differenza tra «umano» e «macchina» mostrando, a titolo di prova, come gli attuali sistemi incorrano in banali errori, imprecisioni, «allucinazioni», polarizzazioni, etc. Anche eminenti accademici si accingono a convincerci che l’«IA scrive ma non capisce», che abbiamo a che fare con un «pappagallo stocastico» o che le macchine non hanno «comprensione» e «non saranno mai come noi». Questi sistemi certamente compiono errori, ma non solo perché sono «sistemi statistici» bensì perché il lasso di tempo tra la sperimentazione e la commercializzazione ubiqua è quasi nullo. In tutti gli ambiti della tecnologia ormai è così: acquistiamo prodotti che continuano ad essere migliorati, corretti o aggiornati quando già ne siamo in possesso.

L'IA è differente dall'umano come ognuno di noi – in quanto individuo – è differente da ogni altro individuo. È inutile lanciarsi in differenze che si basano sul voler trovare una caratteristica comune agli umani e una caratteristica comune alle macchine (per poi confrontarle) poiché si incorre nell'errore di assolutizzare caratteri categoriali, come empatia, intelligenza, etc. di cui non abbiamo una precisa definizione e metodi di misura. Se ci guardiamo intorno e osserviamo ciò che succede intorno a noi e nel mondo, di empatia e intelligenza ne scorgiamo ben poca. Il punto è che tali affermazioni assolute e perentorie necessitano di un sapere fondato e ben altre considerazioni il cui fondamento è in un sapere non più di moda, soprattutto in ambito scientifico. Ma vagando oggi – anche inconsapevolmente – all'interno di un paradigma postmoderno che ha detto addio al sapere veritativo appare possibile muovere riflessioni sull'umano e le macchine (e le presunte differenze) su basi intuitive, senza porre attenzione al metodo di fondo che ci porta invece a non poter oltrepassare una concezione oggettivata dell'umano che lo costringe a rassomigliare ad una macchina più di quanto si possa immaginare. In ogni caso, in questo articolo non si approfondiranno tali considerazioni ma si procederà a mostrare come la «rivoluzione cognitiva» che stiamo vivendo è solo nello stato embrionale – siamo all’inizio dell’accelerazione esponenziale. Siamo in un momento altamente sperimentale in cui tutte le riflessioni e la mostra dei banali errori commessi dalle IA non contano assolutamente nulla rispetto a ciò che avverrà nei prossimi tre o quattro anni. E per portare avanti questa tesi faremo delle osservazioni di carattere squisitamente tecnologico, provando a vedere cosa succederà nei prossimi anni, al di là delle considerazioni sull'AGI (Artificial General Intelligence) – altro concetto non fondato – che pure alimentano il dibattito. È necessario farsene una ragione: le macchine saranno infinitamente più «intelligenti» di noi e non è escluso che emulino in maniera talmente precisa emozioni e sentimenti che si mostreranno empatiche, forse anche più di noi stessi (saremo noi che non avremo più capacità discriminatoria essendoci avvicinati cognitivamente alle macchine stesse). Queste affermazioni hanno un carattere provocatorio ma sono oltremodo necessarie per controbilanciare la sicumera con cui si fanno certe dichiarazioni basate su ciò che oggi le macchine possono fare e che solo un paio di anni fa, bisogna ammetterlo, era fantascienza. Vale certamente la pena concentrarsi sui limiti, come ad esempio il gruppo di Sami Bengio ad Apple che sta studiando i limiti dei modelli di IA di tipo «reasoning» e che ha mostrato come oltre una certa soglia di complessità le prestazioni calano drasticamente. Ma qui non si sta usando il limite come prova assoluta che ci differenzia dall’umano; anzi, in questo caso il limite è messo a fuoco al fine di trovare nuove metodologie per oltrepassarlo – e il gruppo di ricerca di Bengio ne ha proposta più di qualcuna. Come ultima premessa vale la pena sottolineare che tutte le possibili metafore utili a mostrare il cambiamento che l’IA sta portando nelle nostre vite sono valide. L’avvento dell’IA generativa come l’invenzione della stampa a caratteri mobili o addirittura della scrittura; l'espansione dell’IA come la diffusione di Internet negli anni Novanta.

Un parallelo che, invece, è utile per la nostra tesi è quello dello sviluppo dei primi motori di ricerca, nati in forma sperimentale e in «garage» universitari – fu così la Standford University per Google – e poi diventati giganti con prestazioni senza precedenti. Di fatto, al di là della meraviglia tecnologica sottesa ai sistemi di IA attuali, qualcosa di fondamentale manca ancora all’appello: un’infrastruttura sistemica, distribuita e interconnessa, che permetta a questi modelli di diventare strumenti stabili, persistenti e scalabili. E proprio il 23 luglio 2025 il Presidente Trump ha firmato tre Executive Orders per agevolare la costruzione di datacenter, allentare vincoli ambientali e promuovere l’export di tecnologie IA agli alleati – un vero e proprio piano denominato «America’s AI Action Plan», presentato come acceleratore della supremazia tecnologica USA e alla base di una «Golden Age» per l’innovazione.

Questi provvedimenti al di là di essere atti amministrativi si configurano come il segnale (geo)politico che qualcosa di più grande sta prendendo forma sotto la superficie. Ma cosa intendiamo dire quando parliamo di infrastruttura sistemica per l’IA? Alla fine degli anni 2000, Google non divenne un motore di ricerca dominante a livello mondiale solo perché inventò il PageRank, ma soprattutto perché costruì da zero un intero ecosistema distribuito globalmente – datacenter, protocolli e infrastrutture hardware – capace di rendere scalabile e affidabile i suoi algoritmi di ricerca. Ed è proprio ciò che si sta facendo in questo momento in termini di investimenti miliardari e progetti strategici per l’IA e che avranno anche ricadute geopolitiche (e mentre negli Stati Uniti ci si prepara con l’«America’s AI Action Plan» in Europa si pensa ad investire nella difesa – ci si potrebbe domandare chi venderà questa tecnologia e chi, quindi, incasserà utili fondi per finanziare i propri piani industriali in ambito IA...).

Ciò merita più di una riflessione. L’architettura hardware distribuita è il cuore invisibile che trasforma una tecnologia promettente in un’invenzione epocale. In questo articolo, esploreremo come nel contesto dell’IA oggi siamo ancora in una fase pionieristica e di sperimentazione con modelli brillanti ma ancora imprecisi, infrastrutture insufficienti, investimenti in corso e spinte politiche in atto. Fino a quando non esisterà un ecosistema globale pensato per l’IA, non avremo ancora raggiunto la vera maturità l’IA continuerà a funzionare come un «piccolo miracolo tecnologico», ma gran parte delle carenze, soprattutto riguardo all’ambito multi-agente, è dovuta alla mancanza di una solida base strutturale di tipo hardware.

1. Il precedente storico: l’evoluzione architetturale di Google 

Per comprendere il punto in cui ci troviamo oggi con l’IA generativa, può essere illuminante guardare indietro agli anni in cui nacque Google. Agli inizi, Google non era che un progetto sperimentale universitario. Si disponeva di una buona idea proveniente dall’ambito matematico – l’algoritmo PageRank – che ordinava le pagine del web in base alla loro importanza relazionale (formalizzando le interconnessioni tra le pagine web per mezzo di grafi). Ma quella brillantezza iniziale, da sola, non sarebbe bastata a trasformare un motore di ricerca in una delle infrastrutture centrali del nostro tempo. 

La vera forza di Google è emersa quando si è scelto di costruire qualcosa che allora non esisteva e cioè un’architettura distribuita, progettata ex novo per supportare la scalabilità globale dell’indicizzazione. Ciò significava ripensare l’intero stack tecnologico e portò alla progettazione del Google File System (2002) per la gestione di enormi quantità di dati su nodi instabili, del MapReduce (2004) per distribuire il calcolo in parallelo, del BigTable (2005) per archiviare dati strutturati a livello planetario, di Borg (2006) per orchestrare migliaia di processi su cluster di computer. Infine, con Spanner (2012) Google si dotò del primo database globale con coerenza temporale atomica. 

Fu tale sovrapposizione sistemica – tra software e hardware, tra algoritmo, datacenter e cluster di calcolo – a rendere Google non solo efficiente, ma egemone a livello planetario, inseguita da Microsoft con Bing Search. Un algoritmo non avrebbe mai retto da solo il peso del web. Serviva una visione architetturale e investimenti infrastrutturali. E qui sta il nodo della nostra analogia: oggi siamo entusiasti delle capacità dei modelli di IA generativa (o ne critichiamo i limiti), ma siamo esattamente nel punto in cui era Google a fine anni Novanta. Si dispone di modelli brillanti – basati sul meccanismo di attenzione nei Transformer – ma manca un’infrastruttura pensata per rendere l’IA sistemica, stabile, ubiqua. Proprio come Google costruì il «supercomputer del web», le grandi company foraggiate da scelte a carattere geopolitico si stanno preparando per le grandi infrastrutture che supporteranno l’IA di domani (e non di dopodomani). 

L’esempio di Google mostra chiaramente che l’innovazione non si cristallizza in un algoritmo (o in una singola soluzione), ma nella capacità di trasformarlo in una rete infrastrutturale globale, capace di evolvere con le esigenze cognitive e operative della società. Il fatto è che oggi viviamo un’era tecnologica in cui il lasso di tempo tra la sperimentazione e la commercializzazione ubiqua è quasi nullo. 

 

2. L’IA generativa oggi: strumenti potenti, ma ecosistemi fragili 

Oggi ci troviamo nel pieno dell’entusiasmo per l’Intelligenza Artificiale generativa o la percepiamo come una minaccia, vuoi perché «candidata a sostituirci» o perché produttrice di errori che diventeranno endemici nell’architettura del sapere di cui in futuro disporremo. I modelli di linguaggio di nuova generazione – noti come LLM, Large Language Models – sono in grado di produrre testi, dialoghi, codice per computer, descrizioni visive e interazioni con un livello di fluidità e coerenza sorprendente. Il meccanismo che li anima – una particolare Rete Neurale Artificiale nota come Transformer ideata nel 2017 – si è rivelato una svolta nel modo in cui le macchine apprendono automaticamente, processano sequenze simboliche e catturano correlazioni nei dati. Da qui, la corsa ai modelli sempre più grandi, più multimodali, più performanti. Ma se ci fermiamo un momento ad analizzare il contesto in cui questi modelli operano, emerge una contraddizione strutturale in quanto la potenza dell’algoritmo non è ancora accompagnata da un ecosistema solido in cui possa realmente esprimersi. I modelli funzionano, ma lo fanno all’interno di architetture ancora in fase di adattamento come sistemi cloud generalisti, GPU pensate originariamente per il rendering grafico, pipeline ingegnerizzate ad hoc per sostenere operazioni che richiedono enormi quantità di memoria e calcolo distribuito

La sensazione è quella di una corsa alimentata dalla pressione economica e dal desiderio di dimostrare e creare engagement nel pubblico, più che dalla stabilità di un sistema già maturo. Ogni nuova release è un piccolo miracolo d’ingegneria in equilibrio precario in quanto non abbiamo ancora una «piattaforma hardware naturale» per l’IA generativa come oggi lo sono, ad esempio, I browser per il web o il TCP/IP per Internet o i motori di ricerca. E il salto verso l’IA agentica, che si profila come la prossima evoluzione, rende ancora più urgente la necessità di infrastrutture ad hoc, potenti e distribuite. Un agente intelligente non è solo un modello che genera output. Un agente è un’entità che pianifica, osserva, ricorda, valuta alternative, agisce nel tempo e si adatta all’ambiente e dispone di un proprio «calcolatore elettronico» per sviluppare inferenze di tipo simbolico (in linea con l’IA neuro-simbolica altra fruttuosa evoluzione degli attuali modelli che promette di superare i «limiti statistici» attuali). L'IA basata su agenti, ha bisogno di infrastrutture che vadano oltre il calcolo per espletare – per miliardi di utenti – funzionalità quali orchestrazione, memoria persistente, ambienti interattivi, protocolli di comunicazione tra agenti, osservabilità, governance, gestione della latenza

In altri termini, l’IA sta crescendo, ma lo sta facendo in un ecosistema tecnologico costruito per altri scopi. Finché non si arriverà ad un’architettura stabile – distribuita, modulare, reattiva – si resterà in una fase pionieristica, per quanto affascinante (o inquietante). 

Per questo, sotto la superficie del dibattito pubblico, è in corso una corsa globale per costruire la nuova infrastruttura cognitiva del XXI secolo. Ed è una corsa che coinvolge tanto I giganti tecnologici quanto I governi, quindi ha connotati geopolitici. Abbiamo visto, infatti, come il presidente degli Stati Uniti Donald Trump ha firmato tre Executive Orders destinati a cambiare radicalmente il quadro normativo dell’innovazione. Misure straordinarie per accelerare la costruzione di datacenter e centri di calcolo dedicati all’intelligenza artificiale, semplificazione dei permessi, allentamento delle restrizioni ambientali per l’impiego di energia fossile e nucleare e un piano da oltre 100 miliardi di dollari per incentivare la produzione, l’export e la distribuzione di tecnologie IA. L’obiettivo è chiaro: rendere gli Stati Uniti il baricentro infrastrutturale dell’«era cognitiva» e affermare la supremazia nell’IA nei confronti della Cina. Le grandi aziende non stanno a guardare. Google ha annunciato un investimento da 25 miliardi di dollari nei prossimi due anni per costruire datacenter ad alta efficienza dedicati all’IA, con un piano capex globale che supererà gli 85 miliardi nel solo 2025. OpenAI, in partnership con Oracle e SoftBank, sta realizzando Stargate, un’infrastruttura colossale da oltre 100 miliardi di dollari, con una capacità energetica superiore ai 4,5 gigawatt e l’impiego previsto di oltre due milioni di chip NVIDIA (che intanto è diventata una «trillion dollar company»). Meta ha avviato la costruzione di supercluster IA in grado di occupare l’equivalente di interi quartieri urbani, mentre Microsoft ha introdotto un piano da 80 miliardi per espandere I propri datacenter su scala globale. E questo è solo l’inizio. 

Non si tratta più di aumentare la potenza computazionale, ma di trasformare l’intero ambiente tecnologico e creare datacenter progettati per l’IA, reti distribuite a bassa latenza per il dialogo tra agenti, sistemi di orchestrazione in tempo reale, memorie condivise e riattivabili, impianti energetici «sostenibili» e nuove forme di governance integrate nei protocolli. È la nascita di una nuova infrastruttura cognitiva, capace di ospitare intelligenze fluide basate sul silicio (pero ora e fino alla prossima rivoluzione quantica), connesse, autonome. In gioco non c’è solo la competizione tra modelli di IA, ma la possibilità di costruire un sistema in cui l’intelligenza artificiale non sia un’entità isolata, ma parte di un ecosistema fluido, reattivo e distribuito. È una rivoluzione invisibile che si gioca lontano dai riflettori, tra reti elettriche, sale server, chip, protocolli e codici.  Qui la similitudine più utile è l'invenzione dell'automobile, all'inizio un tabbicolo sperimentale usabile da pochissimi esperti e appassionati, dopo uno stumento che ha modificato l'assetto economico e sociale di intere società creando un indotto gigantesco (strade, catene logistiche, nuovi lavori) che ha modificat addirittura il panaorama urbano.

 

3. Rischi di una «bolla» sistemica? Il dibattito sul parallelo con le dot-com 

Quando una tecnologia cresce così rapidamente da catalizzare miliardi in investimenti, interi piani governativi e una nuova retorica del progresso, è inevitabile chiedersi se siamo davvero nel mezzo di una rivoluzione o ci stiamo avvicinando a un’altra bolla come è già successo nel passato. La domanda è lecita e torna con forza proprio in questi mesi, alimentata da un boom che alcuni economisti definiscono «più grande e più rischioso della bolla delle dot-com dei primi anni Duemila». 

Il paragone non è casuale. All’inizio degli anni Duemila, fu proprio Internet a generare aspettative smisurate, poiché si pensava che ogni azienda potesse diventare una «.com», ogni settore potesse essere reinventato online, ogni investimento si giustificasse con una narrazione dirompente. Poi arrivò il fattore sistemico di «correzione». Molte startup svanirono, ma l’infrastruttura sopravvisse. Esempi sono la banda larga, i protocolli, i browser, i data center e tutte quelle aziende che seppur inizialmente in perdita riuscirono a mettere su un business che incontrava la futura domanda del mercato (vedi il caso Amazon). Fu proprio ciò che rimase in piedi dopo lo scoppio a costituire le fondamenta dell’economia digitale di oggi. 

Oggi, l’intelligenza artificiale sembra trovarsi in una fase simile. Secondo Torsten Sløk, capo economista di Apollo, le valutazioni delle aziende IA sono già disallineate dai loro reali ritorni economici, in modo ancora più marcato rispetto al 2000. Alcuni osservatori parlano di una «bolla narrativa» con grandi promesse, poca trasparenza, tempi lunghi di ritorno sugli investimenti. Eppure, non tutti sono pessimisti. Steve Case, cofondatore di AOL, invita a distinguere tra «la bolla finanziaria e l’onda tecnologica». Anche se ci sarà una correzione – sostiene – questa potrà servire a rafforzare l’ecosistema, selezionando I modelli e le aziende più solide. Allo stesso modo in OpenAI si riconosce che «sì, siamo in una bolla», ma una bolla costruttiva. L’esempio è quello delle autostrade costruite in anticipo rispetto al traffico del futuro e le infrastrutture oggi in corso di realizzazione potrebbero rivelarsi essenziali nel medio-lungo termine. Altri, come Eric Schmidt, ex CEO di Google, respingono l’idea stessa di bolla sostenendo che al contrario dei primi anni Duemila questa volta le «fondamenta» sono reali. In effetti, a differenza del passato, molti dei protagonisti dell’IA di oggi sono già profittevoli, con prodotti sul mercato, clienti consolidati e partnership industriali. Anche Bank of America, in una nota recente, ha evidenziato che l’attuale volatilità del mercato IA è inferiore a quella tipica delle bolle, suggerendo che potremmo trovarci in una fase di espansione razionale, più che di euforia insostenibile. 

Tuttavia, il livello di aspettativa è altissimo. Se l’IA futura (chiamiamola anche «agentica») non manterrà la promessa di trasformare l’interazione uomo-macchina, se i ritorni industriali tarderanno ad arrivare o se emergeranno problemi strutturali – energetici, etici, normativi – allora potremmo assistere a un rallentamento brusco e ad un nuovo «inverno dell’IA» come accaduto in passato ancora prima della bolla dot-com. Ma anche in questo scenario, vale la lezione delle dot-com: non tutto ciò che esplode svanisce. L’infrastruttura rimane. Ed è proprio qui la vera posta in gioco. I modelli saranno sempre più brillanti e sostituibili, ma è attraverso i sistemi infrastrutturali che si riusciranno a costruire che potranno mostrare tutto il loro potenziale e, forse, la promessa dell’AGI. 

 

Conclusione – Siamo ancora nel garage 

A osservare l’entusiasmo attorno all’intelligenza artificiale generativa e agentica, si potrebbe pensare di trovarsi nel cuore di una rivoluzione compiuta. E invece no, siamo ancora agli inizi. Per quanto impressionanti siano I modelli attuali, e per quanto potenti siano gli investimenti e le retoriche che li circondano, ci troviamo in una fase embrionale, non dissimile da quella in cui Google muoveva I primi passi nel retro di un dormitorio universitario. 

Allora, come oggi, c’era un algoritmo promettente, ma mancava tutto il resto: l’infrastruttura per renderlo un sistema, il design architetturale per sostenerne la crescita, la visione ingegneristica per distribuirne l’intelligenza. Fu solo con la costruzione di datacenter, protocolli, orchestratori, database distribuiti e reti globali che il motore di ricerca divenne la macchina della conoscenza contemporanea. 

Oggi ci troviamo nello stesso punto. I modelli generativi hanno mostrato scintille di intelligenza, ma sono ancora isolati, fragili, costosi e dipendenti da contesti artificiali. L’agire, il ricordare, il pianificare, l’adattarsi – tutte le qualità che associamo all’intelligenza – richiedono un’infrastruttura sistemica, ancora da costruire. Un’infrastruttura che non è solo tecnologica, ma anche energetica, normativa, epistemica. Ciò porterà anche alla rivoluzione della robotica autonoma. Ecco perché, nonostante le demo, I benchmark e le campagne pubblicitarie e il marketing passivo-aggressivo, siamo ancora nel garage. Il momento in cui l’intelligenza artificiale diventerà sistema, e non solo spettacolo, non è ancora arrivato. Nelle retrovie delle big tech, nei corridoi delle politiche industriali, nei progetti da migliaia di megawatt che trasformano datacenter in organismi cognitivi distribuiti. È qui che si gioca il vero futuro dell’IA. Certamente non da noi in Europa dove si pensa a finanziare la difesa acquistando tecnologie che provengono proprio da quel paese che ha deciso di avere una supremazia strategica sull’IA. 

Come già accaduto con il web e con I motori di ricerca, non sarà dolo un algoritmo a cambiare il mondo, ma l’ecosistema che gli si costruirà attorno. 

 

Riferimenti bibliografici  

  1. Whitehouse.gov | Executive Orders July 23, 2025. (2025) Accelerating Federal Permitting of Data Center Infrastructure. https://www.whitehouse.gov/presidential-actions/2025/07/accelerating-federal-permitting-of-data-center-infrastructure/

  2. P., Mirzadeh, I., Alizadeh, K., Horton, M., Bengio, S., & Farajtabar, M. (2025). The illusion of thinking: Understanding the strengths and limitations of reasoning models via the lens of problem complexity. arXiv preprint arXiv:2506.06941.

  3. Brin, S., & Page, L. (1998). The anatomy of a large-scale hypertextual Web search engine. Computer Networks and ISDN Systems, 30(1–7), 107–117. https://doi.org/10.1016/S0169-7552(98)00110-X

  4. Dean, J., & Ghemawat, S. (2004). MapReduce: Simplified data processing on large clusters. OSDI ’04: Proceedings of the 6th Symposium on Operating Systems Design and Implementation, 137–150. https://static.googleusercontent.com/media/research.google.com/it//archive/mapreduce-osdi04.pdf

  5. S., Gobioff, H., & Leung, S. T. (2003, October). The Google file system. In Proceedings of the nineteenth ACM symposium on Operating systems principles (pp. 29-43). https://dl.acm.org/doi/pdf/10.1145/945445.945450

  6. Chang, F., Dean, J., Ghemawat, S., Hsieh, W. C., Wallach, D. A., Burrows, M., ... & Gruber, R. E. (2008). Bigtable: A distributed storage system for structured data. ACM Transactions on Computer Systems (TOCS), 26(2), 1-26. https://shorturl.at/5U7M5

  7. Corbett, J. C., Dean, J., Epstein, M., Fikes, A., Frost, C., Furman, J. J., ... & Woodford, D. (2013). Spanner: Google’s globally distributed database. ACM Transactions on Computer Systems (TOCS), 31(3), 1-22. https://dl.acm.org/doi/abs/10.1145/2491245

  8. Barroso, L. A., Hölzle, U., & Ranganathan, P. (2019). The datacenter as a computer: Designing warehouse-scale machines (p. 189). Springer Nature. Reuters. (2025, July 22). Is today’s AI boom bigger than the dotcom bubble? Reuters. https://www.reuters.com/markets/europe/is-todays-ai-boom-bigger-than-dotcom-bubble-2025-07-22/

  9. Tom’s Hardware. (2025, July 23). AI bubble is worse than the dot-com crash that erased trillions, economist warns. https://finance.yahoo.com/news/ai-bubble-worse-dot-com-123623866.html

  10. Insider. (2024, October). OpenAI Chairman says AI is in a bubble—but a productive one. https://www.businessinsider.com/openai-chairman-ai-is-in-a-bubble-2024-10

  11. Time. (2024, October 31). Steve Case: What the AI generation can learn from the dotcom bust. https://time.com/7273163/steve-case-ai-generation-learn-from-dotcom-bust/

  12. Research Affiliates. (2024). AI boom or dot-com déjà vu? Seen this before. https://www.researchaffiliates.com/publications/articles/1038-ai-boom-dot-com-bubble-seen-this-before

  13. Business Insider. (2025, July). Eric Schmidt explains why he doesn’t think AI is a bubble. https://www.businessinsider.com/eric-schmidt-ai-market-not-bubble-2025-7

  14. MarketWatch. (2025). Volatility suggests AI is not in a bubble—yet. Bank of America. https://www.marketwatch.com/story/volatility-suggests-ai-is-not-in-a-bubble-at-least-not-yet-says-bank-of-america-11254d7f

  15. Floridi, L. (2024). Why the AI hype is another tech bubble. Philosophy & Technology, 37(4), 128.The Wall Street Journal. (2025, July 23).

  16. Trump pledges moves to stimulate AI use and exports. https://www.wsj.com/tech/ai/trump-pledges-moves-to-stimulate-ai-use-and-exports-b85b0b15

  17. AP News. (2025, July 23). From tech podcasts to policy: Trump’s new AI plan leans heavily on Silicon Valley industry ideas https://apnews.com/article/3763ca207561a3fe8b35327f9ce7ca73

  18. Barron’s. (2025, July 23). White House unveils push to speed AI development. https://www.barrons.com/articles/white-house-ai-action-plan-d1b584ce

  19. Investors Business Daily. (2025, July 23). Nvidia, AI Chipmakers Buoyed By Google Capex, Trump Planhttps://www.investors.com/news/technology/nvidia-stock-buoyed-google-capex-trump-plan

  20. OpenAI. (2025, July 22). Stargate advances with 4.5 GW partnership with Oracle https://openai.com/index/stargate-advances-with-partnership-with-oracle/

 

 

 

 

 

 

 

 https://shorturl.at/5U7M5

lunedì 21 luglio 2025

Umanità, Complessità e Intelligenza Artificiale. È arrivato il BOOKCAST!

Il progetto BOOKCAST nasce come sperimentazione personale, unendo l’evoluzione delle tecnologie di intelligenza artificiale con il desiderio di divulgare riflessioni profonde sull’umano, la conoscenza e la tecnologia.

Ogni episodio del podcast è dedicato a un capitolo del libro «Umanità, Complessità e Intelligenza Artificiale. Un connubio perfetto» (Aracne Editrice), scritto da Enrico De Santis in un tempo in cui i libri si scrivevano ancora interamente “a mano”, cioè con quella cura artigianale della parola che precede ogni automatismo.

La voce che narra è generata dal sistema vocale di Google NotebookLM, utilizzato non solo come strumento, ma come segno della trasformazione in atto: l’Intelligenza Artificiale sia come oggetto del discorso, sia come soggetto enunciante, che restituisce — in modo paradossale ma coerente — parole sull’intelligenza tramite una voce che non ha mai avuto un corpo.

Questa forma ibrida tra umano e artificiale, tra scrittura meditata e lettura sintetica, dà vita a una nuova modalità di fruizione: non un semplice audiolibro, ma un esperimento cognitivo in cui contenuto e mezzo coincidono nel rappresentare la complessità.





sabato 12 luglio 2025

Forma, contenuto e necessità: il dialogo tra la logica di Russell e la dialettica severiniana

 

La figura mette a confronto visivamente il comportamento dell’implicazione materiale e di quella formale usando la rappresentazione insiemistica di due sottoinsiemi, A e B, all’interno di uno spazio universale. Nel riquadro di sinistra, relativo all’implicazione materiale, l’area colorata in rosso rappresenta tutte le situazioni in cui l’implicazione «A implica B» è logicamente vera: si tratta dell’unione tra il complemento di A e l’insieme B (Aᶜ ∪ B), mostrando così che solo la zona non colorata – cioè gli elementi che appartengono ad A ma non a B – rende falsa l’implicazione. Nel riquadro di destra, relativo all’implicazione formale, la zona nera indica l’intersezione tra A e il complemento di B (A ∩ Bᶜ), che, per la validità dell’implicazione formale, deve essere vuota: ciò equivale a richiedere che ogni elemento di A sia anche elemento di B, cioè A sia contenuto in B (A ⊆ B). In sintesi, la figura mostra come l’implicazione materiale si basi su una condizione più debole, mentre l’implicazione formale esprime un vincolo strutturale di inclusione.

1    Introduzione

Il presente scritto nasce con il proposito di avvicinare il conoscitore della logica formale classica al pensiero filosofico-dialettico di Emanuele Severino, attraverso un punto essenziale e cioè la distinzione tra le nozioni di «implicazione materiale» e «implicazione formale» introdotte da Bertrand Russell nel contesto della sistematizzazione logica della matematica. Il terreno di partenza è dunque il rapporto tra forma e contenuto nel linguaggio logico, una relazione che, per Russell, è al centro del progetto di fondazione della matematica, e che, per Severino, costituisce il fulcro stesso della struttura originaria della verità dell’essere e della differenza con quello che il filosofo bresciano riferisce come «pensiero occidentale», sebbene vedremo che l’«implicazione materiale» permetta di avvicinarsi alla logica dialettica severiniana ma non la esaurisce nella sua impostazione ontologica.

Nel panorama della filosofia contemporanea, il contributo di Bertrand Russell risulta fondamentale per il modo in cui egli ha affrontato rigorosamente le forme linguistiche della logica matematica, sollevando questioni fondamentali relative al senso e all’uso delle proposizioni logiche. Russell introduce, specialmente nei I principi della matematica (1903) e successivamente nell’Introduzione alla filosofia matematica (1919), una distinzione fondamentale tra due tipi di implicazione: quella materiale e quella formale (ho trattato l'argomento in maniera approfondita qui). Questa differenza non si limita ad una pura questione tecnica, ma investe direttamente il senso filosofico profondo del linguaggio formale, cioè il rapporto tra ciò che è logicamente necessario e ciò che è logicamente contingente.

L’implicazione materiale, come è noto, rappresenta una forma di relazione logica basata esclusivamente sui valori di verità delle proposizioni coinvolte, una relazione dunque verofunzionale, che può risultare vera anche in assenza di qualsiasi reale connessione semantica o concettuale tra antecedente e conseguente. Questo tipo di implicazione, definito formalmente come «se p allora q», risulta falso esclusivamente nel caso in cui l’antecedente p sia vero e il conseguente q sia falso. Per tutte le altre combinazioni di verità (entrambe vere, entrambe false, antecedente falso e conseguente vero), l’implicazione materiale è logicamente vera. Tuttavia, proprio questa caratteristica, apparentemente innocua, produce un insieme di paradossi ben noti alla logica, che Russell stesso ha chiaramente riconosciuto e sottolineato. Ciò conduce Russell ad affermare la necessità di un altro tipo di implicazione, ovvero l’implicazione formale, che non sia semplicemente una questione di valori di verità, bensì una relazione logica strutturale e necessaria, valida universalmente e intensionalmente significativa.

L’implicazione formale, secondo la prospettiva di Russell, esprime infatti una relazione più forte rispetto a quella materiale. Essa stabilisce, altresì, una necessità strutturale tra due proposizioni, indipendentemente dal loro valore contingente di verità. Più precisamente, quando Russell parla di implicazione formale, si riferisce a una relazione tra funzioni proposizionali quantificate universalmente, cioè a proposizioni del tipo: «per ogni x, se P(x) allora Q(x)». Questo tipo di proposizione esprime una necessità strutturale interna, un legame concettuale intrinseco tra antecedente e conseguente. L’implicazione formale è, dunque, un passaggio filosofico-epistemologico fondamentale che Russell ritiene indispensabile per la comprensione e la fondazione della matematica e della logica stessa. Non è più sufficiente garantire la coerenza logica attraverso semplici tavole di verità come per l’implicazione materiale che pertanto risulta meccanizzabile; è necessario assicurare anche una struttura concettuale interna e universale che garantisca la consistenza del linguaggio logico-matematico.

La distinzione operata da Russell risulta essenziale per comprendere pienamente il passaggio dalla logica formale alla logica filosofica e ontologica propria della dialettica di Emanuele Severino. Quest’ultimo, infatti, nonostante parta da un terreno filosofico diverso, caratterizzato dal linguaggio e dalla terminologia della tradizione metafisica occidentale, giunge a porre questioni che richiedono esattamente una chiarezza estrema nella relazione tra forma e contenuto. Severino affronta il problema della verità non più soltanto nella dimensione astratta delle forme logiche, ma nella concreta immediatezza dell’apparire degli essenti, ovvero di ciò che è concretamente posto, determinato, immediatamente (non mediato da alcunché) presente. Ciò che emerge nella filosofia severiniana è, dunque, un superamento critico dell’implicazione materiale russelliana e un uso consapevole e radicalizzato della nozione di implicazione formale. Tuttavia, Severino va ancora oltre, ponendo la necessità logico-ontologica del contenuto al centro della sua riflessione filosofica. Ma, si ritiene in questo scritto, il logico formale per avvicinarsi alla logica dialettica non può non passare per l’essenza dell’implicazione formale cui Russell ha speso molte pagine nei suoi scritti più tecnici.

Nella struttura originaria della verità dell’essere, infatti, Severino considera non soltanto la forma astratta del legame logico, ma anche il contenuto concreto e determinato di ciò che appare necessariamente. Per Severino, affermare che qualcosa sia vero significa affermare che qualcosa appare necessariamente, cioè che la negazione di questo apparire è autonegazione e quindi impossibile. Questo principio – radicale e ontologicamente forte – implica che ogni forma logica utilizzata non possa essere semplicemente «astratta» rispetto al contenuto, ma che debba necessariamente esprimere anche l’immediatezza determinata dell’apparire concreto. Pertanto, la nozione di identità originaria che emerge in Severino – (A = B) = (B = A) –, ad esempio nel celebre passaggio della «lampada accesa» (che si approfondirà più avanti), non è una semplice identità astratta o formale, ma è un’identità concreta che mette in relazione direttamente la forma logica dell’identità (x = y) = (y = x) con la sua materia semantica ovvero il contenuto determinato degli essenti.

La presente analisi procederà dunque con metodo sistematico, chiarendo in primo luogo la distinzione russelliana tra implicazione materiale e formale, per poi avvicinarsi gradualmente al linguaggio filosofico-dialettico di Severino, noto talvolta come logica dialettica. Seguirà quindi un approfondimento sul modo in cui la logica severiniana assume e supera il formalismo russelliano, integrando necessariamente forma e contenuto. Infine, attraverso l’analisi rigorosa di alcuni passaggi chiave della filosofia severiniana, sarà mostrato in che misura la distinzione operata da Russell, sebbene rigorosa e importante, non possa esaurire interamente la forza ontologica e filosofica della dialettica della necessità propria di Severino.

Questo percorso filosofico-argomentativo ha, quindi, una duplice valenza: da un lato, mira a mostrare la necessità e l’importanza della distinzione russelliana per comprendere le fondamenta stesse della logica formale e la base della sua problematicità; dall’altro, vuole evidenziare come questa distinzione possa essere superata e radicalizzata sul piano ontologico, come avviene nella filosofia dialettica severiniana. È proprio in questo delicato equilibrio tra forma logica e contenuto ontologico che risiede la rilevanza filosofica del presente saggio breve, il quale offre al lettore un percorso di approfondimento che permette di transitare da una dimensione prevalentemente formale e logico-matematica a quella più complessa e radicale della struttura originaria dell’essere e della necessità.

In ultimo, si premette che dagli scritti di Russell summenzionati la logica formale ha fatto dei passi da gigante, passi dovuti ai «crucci» dello stesso Russell che nel tentare di fondare incontrovertibilmente la matematica si è scontratato con antinomie insormontabili che Kurt Gödel ha ben sistematizzato con i suoi famosi teoremi. Si è consapevoli che gli scritti citati sono datati eppure si riconosce che le problematizzazioni di Russell sono per certi versi ancora attuali e consentono di mostrare come lo stesso Russell sia partito da considerazioni di tipo ontologico anche se gli esiti erano guidati dal fornire una fondazione solida alla matematica e alla sua filosofia.

2    La distinzione tra implicazione materiale e implicazione formale in Bertrand Russell

Nel quadro della rifondazione logica della matematica intrapresa da Bertrand Russell all'inizio del Novecento, la distinzione tra implicazione materiale e implicazione formale rappresenta un passaggio essenziale per chiarire il ruolo dei connettivi logici all'interno del linguaggio proposizionale e quantificato. Russell individua due modi profondamente diversi in cui una proposizione condizionale del tipo «se A, allora B» può essere interpretata, e tale differenza riflette due approcci teorici differenti: uno orientato alla verità funzionale e l’altro alla deduzione strutturale.

L’implicazione materiale viene definita da Russell come una relazione verofunzionale tra due proposizioni, tale per cui «A implica B» (formalmente A → B) è considerata falsa solo quando A è vera e B è falsa, e vera in ogni altro caso. Essa si fonda sulla funzione di verità che determina l’esito della proposizione complessa sulla base dei valori di verità delle componenti. L’implicazione materiale non esprime, dunque, alcun nesso necessario tra le proposizioni coinvolte, ma si limita a enunciare una correlazione che può risultare vera anche in virtù della falsità dell’antecedente. In altri termini, qualsiasi proposizione falsa implica materialmente qualsiasi altra proposizione, vera o falsa che sia. Come afferma Russell in Introduzione alla filosofia matematica, «se p è falsa, allora "p ⊃ q" è sempre vera, non importa cosa sia q» (Russell, 1919, p. 143).

In questo senso, l’implicazione materiale, pur essendo logicamente ben definita, appare debole dal punto di vista del contenuto, in quanto la sua verità può essere assicurata anche in assenza di un qualsiasi legame concettuale o inferenziale tra A e B. L’interesse per questa implicazione risiede nella sua capacità di essere manipolata con rigore all’interno dei sistemi simbolici, ma essa non garantisce alcuna connessione necessaria tra i significati delle proposizioni.

Diversamente, l’implicazione formale introduce una nozione ben più strutturata. Essa non riguarda proposizioni isolate, ma forme proposizionali, cioè generalizzazioni logiche che assumono la forma «per ogni x, se p(x) allora q(x)», ovvero ∀x (p(x) q(x)). Lenfasi si sposta quindi dal valore di verità contingente delle proposizioni particolari al carattere necessario della relazione tra le forme. L’implicazione formale implica che la relazione tra le due funzioni proposizionali è tale da valere per ogni istanza possibile (data la presenza del quantificatore universale), rendendo il legame tra antecedente e conseguente intrinsecamente strutturale e necessario.

Per penetrare la differenza tra implicazione formale e implicazione materiale, Russell fa uso del concetto di funzione proposizionale dovuto a Peano. Questa nozione permette di distinguere tra proposizioni singolari e schemi generali di proposizioni, poiché una funzione proposizionale, come «x è un uomo», non esprime ancora una proposizione vera o falsa, ma una forma che diventa proposizione solo quando si assegna un valore concreto alla variabile x. Attraverso tale distinzione, Russell può formulare l’implicazione formale come una relazione tra funzioni proposizionali: non si tratta più di collegare semplici verità di fatto, come avviene nell’implicazione materiale, ma di stabilire un vincolo universale tra interi domini di proposizioni, secondo la struttura «per ogni x, se p(x), allora q(x)». Questa formalizzazione, resa possibile dal linguaggio delle funzioni proposizionali, consente di esprimere la necessità logica propria delle deduzioni matematiche e delle inferenze rigorose, mettendo in evidenza come la verità di un’implicazione formale non dipenda dai valori di verità delle singole proposizioni, ma dalla coerenza strutturale che governa l’intero dominio considerato. Russell stesso, in I principi della Matematica, precisa (Russell, 1903, §22, p. 39):


«Possiamo spiegare (ma non definire) questa nozione nel modo seguente: φx è una funzione proposizionale se, per ogni valore di x, φx è una proposizione, determinata quando x è assegnato. Così, “x è un uomo” è una funzione proposizionale. In ogni proposizione, per quanto complicata, che non contenga variabili reali, possiamo immaginare che uno dei termini, purché non sia un verbo o un aggettivo, venga sostituito da altri termini: invece di “Socrate è un uomo” possiamo scrivere “Platone è un uomo”, “il numero 2 è un uomo”, e così via. In questo modo otteniamo proposizioni successive, tutte uguali tra loro tranne che per l’unico termine variabile. Sostituendo x al termine variabile, “x è un uomo” esprime la tipologia di tutte queste proposizioni. Una funzione proposizionale in generale sarà vera per alcuni valori della variabile e falsa per altri. I casi in cui essa risulta vera per tutti i valori della variabile, per quanto ne so, esprimono tutte implicazioni, come ad esempio “x è un uomo implica x è mortale”; ma non conosco alcuna ragione a priori per affermare che non possano esistere altre funzioni proposizionali vere per tutti i valori della variabile».


Ciò significa che l’implicazione formale è una funzione logica che riguarda la totalità degli argomenti di un certo dominio: solo quando questa struttura viene «attualizzata» su un soggetto, essa si trasforma in una proposizione suscettibile di essere vera o falsa. In assenza di soggetto determinato, essa permane nella sfera della forma pura, come condizione della possibilità stessa della deduzione.

Da ciò si deduce che l’implicazione formale possiede un carattere di necessità logica, non riducibile alla dimensione verofunzionale. Non è una condizione sufficiente per la verità, bensì una condizione strutturale per la deducibilità, per la validità universale del passaggio da p(x) a q(x). In questo contesto, l’implicazione formale diviene la forma pura del legame logico, e costituisce il fondamento su cui si innestano sia la deduzione matematica che il pensiero filosofico nella sua dimensione analitica.

Un’altra distinzione rilevante è che, mentre l’implicazione materiale è simmetrica rispetto alla verità (cioè, consente l’inferenza inversa in modo improprio, come nei casi in cui l’antecedente è falso), l’implicazione formale è direzionale e fondata su una relazione funzionale tra domini concettuali. Essa si articola come una struttura che include l’universo degli oggetti per cui p(x) vale, all’interno dell’universo per cui q(x) vale: tale inclusione sarà poi discussa in modo più tecnico nella prossima sezione.

Infine, si può osservare come questa distinzione tra le due implicazioni – la prima verofunzionale e contingente, la seconda strutturale e necessaria – assuma un’importanza decisiva per comprendere quale forma logica sottenda realmente il discorso filosofico che pretenda di essere necessario. Sarà proprio in questo passaggio – dalla mera correlazione di verità all’affermazione necessaria dell’essere – che si aprirà il dialogo con la riflessione severiniana.

Prima di procedere in un isomorfismo insiemistico che permette di comprendere la differenza sostanziale tra implicazione formale e implicazione materiale, ricordiamo cosa intende Russel per proposizione e, al contempo cosa non è una proposizione propriamente detta:

La proposizione è una espressione come «Socrate è un uomo» (ossia, «x è un uomo» quando x è sostituito da un valore concreto), e può essere vera o falsa. Mentre un’espressione come «x un uomo» con la variabile libera non è una proposizione, ma una forma schematica (una «funzione proposizionale»), perché non è né vera né falsa fintanto che x non è specificato. Nelle parole de I principi della Matematica (Russell, 1903, §13, p. 32):

«Si può dire che una proposizione è qualunque cosa sia vera oppure falsa. Un’espressione come “x è un uomo” quindi non è una proposizione, perché non è né vera né falsa. Se si assegna a x qualunque valore costante, l’espressione diventa una proposizione: si tratta dunque, per così dire, di una forma schematica che rappresenta ciascun elemento di un’intera classe di proposizioni. E quando si afferma “x è un uomo implica x è mortale per tutti i valori di x”, non si sta asserendo una singola implicazione, ma una classe di implicazioni; si ha ora una vera proposizione, nella quale, sebbene la lettera x compaia, non vi è alcuna variabile reale: la variabile è assorbita nello stesso modo in cui la x sotto il segno integrale in un integrale definito viene assorbita, così che il risultato non è più una funzione di x».

 

3    Analisi logico-insiemistica della differenza tra implicazione materiale e implicazione formale

La distinzione concettuale tra implicazione materiale e implicazione formale può essere illuminata attraverso un confronto con il linguaggio della teoria degli insiemi (Russell si sarebbe riferito alle «classi»). La trasposizione logico-insiemistica non è soltanto una metafora didattica, ma un vero e proprio strumento euristico per far emergere le diverse strutture ontologiche soggiacenti alle due forme di implicazione (si veda la figura e la sua spigazione).

Nel caso dell’implicazione formale, il legame tra antecedente e conseguente assume la struttura dell’inclusione insiemistica stretta e necessaria. Se si considerano due predicati p(x) e q(x), che definiscono rispettivamente due insiemi A = {x | p(x)} e B = {x | q(x)}, allora l’implicazione formale ∀x (p(x) q(x)) equivale allenunciato che ogni elemento dell’insieme A è anche elemento dell’insieme B, ossia A ⊆ B. Si tratta di uninclusione totale e universale, priva di eccezioni, in cui l’insieme A è interamente contenuto in B. È proprio questa totalità che conferisce alla relazione un carattere di necessità, poiché il mancato rispetto dell’inclusione in qualunque istanza ne comprometterebbe la validità.

A differenza di questa struttura ordinata e necessitante, l’implicazione materiale introduce un’articolazione più problematica. L’enunciato A → B, interpretato come implicazione materiale tra due proposizioni A e B (non più predicati), può essere rappresentato insiemisticamente solo in maniera approssimativa. Se A e B sono intesi come sottoinsiemi dell’universo degli stati del mondo o dei contesti di verità, allora la relazione A → B non richiede che A sia incluso in B, ma soltanto che non esista alcun elemento che appartenga ad A ma non a B, ossia che A ∩ (¬B) = .

Ciò significa che, in termini insiemistici, l’implicazione materiale ammette che A e B siano insiemi disgiunti (A ∩ B = ∅), oppure che A sia contenuto in B (A ⊆ B), ma anche che A sia vuoto (A = ∅), nel qual caso limplicazione risulta comunque vera per il principio dellex falso quodlibet. Lunica configurazione che rende falsa limplicazione materiale è la presenza di elementi in A che non appartengono a B, ovvero un’intersezione non vuota tra A e ¬B. Questa zona di intersezione – A ∩ (¬B) ≠ ∅ rappresenta il luogo della contingenza, dove l’antecedente risulta vero e il conseguente falso, invalidando l’implicazione.

Questa differenza si riflette nella struttura logica profonda, in quanto mentre l’implicazione formale si costituisce su un vincolo interno e costitutivo tra contenuti (tutti gli x che soddisfano p(x) soddisfano necessariamente anche q(x)), l’implicazione materiale si limita a constatare l’assenza di contraddizione tra le due proposizioni, senza esprimere alcuna connessione reale tra i loro contenuti. La prima implica un ordinamento strutturale, la seconda un mero controllo sintattico sui valori di verità.

È a questo livello che si manifesta con evidenza la divergenza tra necessità e contingenza: nell’implicazione formale, l’insieme A è necessariamente incluso in B, mentre nell’implicazione materiale si può dire che non è escluso da B in modo contraddittorio. Questo passaggio dall’inclusione strutturale all’assenza di conflitto costituisce la soglia tra il dire necessario e il dire puramente verofunzionale.

Tale distinzione ha ricadute significative quando si riflette su sistemi filosofici che pretendono di fondare il pensiero sull’identità e sulla necessità dell’essere. In questi casi, come si vedrà nel confronto con il pensiero di Emanuele Severino, l’implicazione formale offre una struttura più adatta per descrivere un ordine – del dire – che non ammette eccezioni, e in cui la relazione tra i termini coinvolti non è questione di verità occasionale, ma di costituzione ontologica.

4 Considerazioni critiche sul carattere ontologico dell’implicazione formale e sua relazione con la dialettica severiniana

L’implicazione formale, nella sua struttura più astratta, si configura come una relazione necessaria tra contenuti concettuali, espressa classicamente nella forma ∀x (p(x) q(x)). In questa forma, limplicazione non rappresenta un mero passaggio da una proposizione vera a unaltra, ma afferma una relazione strutturale e universale tra predicati. In tal senso, essa non è subordinata alla verità contingente dei suoi membri, come accade nellimplicazione materiale, ma si costituisce come vincolo necessario tra i significati che essi veicolano. Il valore di questa struttura non risiede dunque nella mera compatibilità tra antecedente e conseguente, ma nell’ordine che regola il contenuto stesso delle proposizioni.

Nel pensiero di Emanuele Severino, e in particolare ne La struttura originaria, tale ordine necessario non è soltanto un attributo formale del pensiero corretto, ma l’espressione stessa dell’essere come destino immutabile del senso. Il discorso severiniano, nella misura in cui intende muoversi all’interno dell’ambito della necessità, non può che assumere una struttura che si avvicina a quella dell’implicazione formale, benché la superi radicalmente nel suo fondamento ontologico.

Il dire che descrive la struttura originaria della verità non può tollerare che la relazione tra i termini si fondi su un meccanismo verofunzionale, come accade per l’implicazione materiale. Quest’ultima, infatti, ammette che l’implicazione sia vera anche nel caso in cui l’antecedente sia falso o il conseguente sia banalmente vero per altre ragioni, perdendo così ogni nesso necessario con la totalità del discorso. In Severino, invece, ogni affermazione dell’essere è un atto assoluto e irrevocabile, e la relazione tra i termini del discorso ha natura fondativa e non strumentale.

La dialettica severiniana, nella sua radice, implica dunque che ogni proposizione autenticamente pensata debba necessariamente contenere ciò che essa afferma, e non semplicemente riferirvisi. In questo senso, l’implicazione formale – pur nella sua astrazione – mostra una struttura analoga a quella richiesta dalla struttura originaria, poiché essa non si limita a far derivare il consequente dall’antecedente, ma esprime una coappartenenza interna, un’intima identità tra i significati che vi si annodano.

Tale coappartenenza si manifesta con chiarezza nel modo in cui Severino affronta l’identità come fondamento primo del senso. L’identità tra l’essente e il suo essere non è un principio tra gli altri, ma il luogo in cui il senso si dà come destino incontrovertibile. La struttura logica più adatta a riflettere questa necessità non è quella che dipende dal valore di verità dei suoi componenti, ma quella che, come l’implicazione formale, si radica nella struttura stessa del significato e della totalità.

Naturalmente, Severino non si limita a questa impostazione formale. La sua filosofia non si esaurisce nell’adozione di uno schema logico astratto, ma riplasma il senso stesso della logica alla luce di un’ontologia in cui il darsi dell’essente è già sempre il darsi del significato, e ogni negazione autentica (nichilistica) è impossibile. Tuttavia, proprio per questa ragione, la distanza dalla logica verofunzionale (come quella sottesa all’implicazione materiale) è ancora più netta in quanto mentre quest’ultima consente l’eventualità, la dialettica severiniana si istituisce come negazione della possibilità del divenire e dell’errore.

È in questa prospettiva che l’implicazione formale, pur nella sua povertà espressiva rispetto alla pienezza dell’ontologia severiniana espressa con la logica dialettica, si offre come schema logico affine alla struttura necessitante del dire autentico. Essa non è soltanto un modello sintattico, ma diviene, se pur trascesa, una sorta di figura preparatoria del pensare necessario, in cui la forma dell’inferenza logica si avvicina, pur senza coinciderci, alla struttura del destino dell’essere. Questo è il punto logico che dovrebbe avvicinare il logico formale – abituato a ragionare in termini di verofuzionalità – al dire severioniano.

5    La filosofia della struttura originaria di Emanuele Severino e il ruolo della necessità del dire

Nel cuore della filosofia di Emanuele Severino si trova la «nozione» di «struttura originaria» come fondamento intrascendibile del senso e non solo come fondamento ontologico. Essa non è una costruzione concettuale astratta né un postulato epistemico, ma il modo in cui il dire autentico si dà necessariamente come rivelazione dell’essere degli essenti. In questo quadro, la necessità non è una proprietà accidentale del discorso corretto. La necessità è il modo stesso in cui l’essente si mostra (appare), ed è inseparabile dall’identità che vincola ogni essente al proprio essere.

Ciò che Severino chiama «dire autentico» è la parola che non lascia fuori nulla di ciò che è e non assume la negabilità dell’essere. In questa parola, il logos non è funzione accessoria o interpretativa, ma atto attraverso cui l’essente si mostra come ciò che è, ossia come immutabile. Dire che qualcosa è, equivale, nella struttura originaria, a dire che esso è eterno, ossia non diviene mai altro da sé e non può divenire (o provenire dal) nulla. Questo vincolo si esprime in termini logici attraverso una necessità che non è modale, ma ontologica.

La necessità del dire, in questo senso, non è né soggettiva né esterna. Essa è interna al rapporto tra il logos e il senso. Il pensiero non produce il senso, ma lo rivela. E questa rivelazione è possibile solo se il senso si mostra come ciò che non può non essere, ovvero come essere assolutamente determinato e non eliminabile. La necessità non emerge dunque da una forma logica assunta per convenzione, ma è il contenuto stesso del manifestarsi del vero come struttura originaria.

A differenza dell’impostazione classica della logica formale, in cui il carattere necessario dell’implicazione si fonda sulla struttura universale della forma (∀x (p(x) q(x))), nella struttura originaria severiniana la necessità è pre-logica in quanto ontologica. Essa è ciò che permette alla logica stessa di esistere, poiché è la condizione di possibilità del senso. L’implicazione tra A e B non è solo una relazione deduttiva, ma è fondata sull’identità tra ciò che è e il suo essere: A non può che essere A, e ogni negazione di tale identità (in senso originario, vedi oltre) è autonegazione del discorso stesso.

È in questa luce che si comprende il radicale rifiuto severiniano dell’intero apparato storico del divenire: ogni divenire, inteso come passaggio dal non essere all’essere o viceversa, implica la possibilità che l’essente non sia, e quindi la «distruzione» dell’identità. Ma l’identità, per Severino, non è un principio logico tra gli altri, in quanto essa è la struttura stessa del senso, che il dire non può violare senza contraddirsi. La coerenza logica non è dunque un criterio esterno alla verità, ma il suo modo di apparire.

In questo contesto, anche l’implicazione, intesa come schema del pensiero deduttivo, perde la sua funzione derivativa e assume un carattere rivelativo: essa non costruisce la verità, ma la mostra nella sua struttura necessaria. L’implicazione autentica non collega due contenuti separati, ma dischiude l’unità interna del senso, la sua struttura di non contraddizione e di eternità.

Se l’implicazione formale, come abbiamo osservato, può fungere da schema logico affine a questo modo di dire, è però solo nella filosofia della struttura originaria che tale schema viene a mostrarsi con carattere ontologico. Il pensiero non si limita a osservare che, dato A, segue B, ma riconosce che A implica B perché entrambi sono nella verità come identità relazionali (dove la relazione è co-originaria e non sopraggiungente ai suoi termini). È in questo passaggio che la necessità assume il suo significato profondo e cioè non più necessità del calcolo o del formalismo, ma necessità dell’essere nell’identità con l’apparire (fenomenologico).

In definitiva, il pensiero severiniano non si oppone alla logica, ma ne trasforma il fondamento, radicandolo in un’ontologia del senso che non può essere contraddetta senza che si contraddica il pensiero stesso. L’implicazione non è allora semplicemente uno strumento del ragionare: è la forma attraverso cui l’essere si afferma come ciò che non può non essere, e il dire come ciò che non può non dire la verità.

6    L’identità originaria (A = B) = (B = A) e il legame con la forma logica dell’identità (x = y) = (y = x)

Uno dei passaggi più densi e significativi dell’«Introduzione» de La struttura originaria di Emanuele Severino si concentra sulla distinzione tra l’identità formale, propria del linguaggio logico-matematico, e l’identità originaria, che invece si dà come struttura costitutiva del senso stesso dell’essere. Severino, al fine di chiarire in che modo l’identità non sia un concetto vuoto o astratto, ma ciò in cui il significato stesso di ogni essente consiste, introduce un esempio dal carattere apparentemente banale: «la lampada che è accesa» è identica a «l’essere acceso che è di questa lampada». Tale esempio serve a mostrare che ogni enunciato vero è fondato sulla struttura dell’identità.

Severino pone così in relazione l’identità concreta (A  =  B) = (B  =  A) tra due determinazioni (due certi essenti), che chiama A e B, con la forma dell’identità (simmetrica) espressa logicamente – cioè formalmente – come: (x = y) = (y = x).

Questa formula, comune nelle trattazioni logico-formali, enuncia la simmetria dell’identità: se un oggetto x è identico a un oggetto y, allora y è identico a x sottolineandone il carattere relazionale in cui, di fatto, in identità sono poste delle relazioni. Tuttavia, Severino chiarisce che tale simmetria, se lasciata sul piano puramente formale, resta vuota di contenuto ontologico (e una forma astratta). Per non essere un «astratto» – ovvero un’astrazione indeterminata e priva di senso concreto – tale struttura formale deve relazionarsi all’identità originaria, dove i termini A e B non sono lettere vuote o variabili indeterminate, ma sono essenti determinati il cui essere è, quindi, determinato. Inoltre, l’identità originaria (A  =  B) = (B  =  A) che nel dire è una relazione tra soggetto A e predicato B non è qualcosa che si compone a posteriori. Soggetto e predicato non vengono prima della loro relazione essi sono contestuali alla relazione, meglio dire cooriginari. Questo è un punto essenziale e che Severino spiega bene nell’introduzione a La Struttura originaria (cfr. §2 La struttura del dire, p. 24 – vedi oltre).

È proprio in questo passaggio dalla forma all’essenza che si colloca il nodo più profondo della riflessione severiniana. L’identità logica, per quanto necessaria e universalmente valida, non è ancora la struttura che mostra ciò che un essente è. È invece nella struttura originaria dell’identità – ovvero nel riconoscere che A è B non come pura equivalenza formale, ma come affermazione di un’unità ontologica – che si realizza il significato pieno del dire.

Così, l’identità logica tra due predicati o termini (A = B) può essere interpretata sul piano formale come la condizione di verità secondo la quale ogni proprietà di A è anche proprietà di B e viceversa. Ma per Severino, l’originarietà dell’identità non si esaurisce in questa equivalenza di predicati o in una simmetria proposizionale. Essa implica che il contenuto determinato A è identico, nell’essere, al contenuto determinato B, e che tale identità non è soppressa dal divenire, dal nulla, o dal possibile venir meno. Qui emerge con forza il nesso tra identità e eternità: ogni essente è ciò che è, e non può non esserlo.

Il richiamo severiniano alla forma logica dell’identità non ha dunque lo scopo di sottolineare una struttura sintattica del linguaggio, ma quello di esigere che ogni forma abbia un contenuto e che ogni contenuto si dia come non eliminabile. Il formalismo vuoto è qui superato, ma non rigettato. Anzi, esso è riconosciuto come struttura necessaria – ma non sufficiente – del pensiero corretto. Solo se la forma si congiunge con il contenuto dell’essente – solo se x e y sono enti determinati – allora l’identità assume il significato originario e diventa struttura portante del vero.

In questo senso, la relazione tra identità originaria e identità logica non è di opposizione, ma di fondazione: la prima è la condizione per la seconda. L’identità logica assume significato solo se è radicata nella verità del senso, cioè nella impossibilità che l’essente non sia ciò che è. La simmetria formale (x = y) = (y = x), che nella logica è assunta come verità tautologica, diventa nella filosofia di Severino l’espressione di un contenuto ontologico e cioè che ogni essente è eternamente sé stesso e che questa identità non è soggetta ad alcuna condizione estrinseca o fattuale.

Severino nell’introduzione de La struttura originaria rammenta che (Severino, 1958, §2 La struttura del dire  p. 32) «[…] in questo libro si continuano a chiamare proposizioni “analitiche”, “sintetiche”, “sintetiche a priori” i diversi modi in cui si struttura l'identità originaria del dire della Necessità – dove la diversità di modo è data dal diverso tipo di equazioni identificate nell'identità originaria» e continua:

«[…] ossia è data dal fatto che queste equazioni, come concretamente distinte dall'identità originaria del dire, possono essere tali che la loro negazione, rispettivamente, è immediatamente autocontraddittoria, non è immediatamente autocontraddittoria, è mediatamente autocontraddittoria. Come concretamente distinte; ossia non come isolate, separate dall'identità originaria, ma considerate nel loro semplice differire da tale identità - quel semplice differire, ossia quel concreto distinguersi, per cui, in (x = y) = (y = x), x = y non è (x = y) = (y = x). È appunto in questo loro concreto distinguersi che esse possono valere come qualcosa la cui negazione non è immediatamente autocontraddittoria. Ché se tali equazioni sono assunte non in questo loro concreto distinguersi, ma nel loro isolamento dall'identità originaria del dire, allora, qualunque sia il loro contenuto, esse sono immediatamente autocontraddittorie. Nel loro concreto distinguersi dall'identità originaria del dire, queste equazioni non sono dunque quella κατὰ φαντασίαν [katà phantasían – trad. lett. "secondo l'immaginazione" o "secondo fantasia"] che per Aristotele non può costituirsi come parte del λόγος αὐτοφανής [lógos autophanḗs – trad. lett. "discorso che appare da sé" o "discorso autoevidente"] appunto perché la κατὰ φαντασίαν è l'equazione x = y separata dall'identità originaria (cioè, tale che in essa il soggetto è isolato dal predicato)».

In altre parole e riferito sinteticamente, Severino concepisce l’identità originaria delle determinazioni (A  =  B) = (B  =  A) non isolata dalla componente formale (x = y) = (y = x) bensì in relazione originaria ad essa. Forma è contenuto sono in una relazione inscindibile che solo in una fase analitica possono essere distinte (quindi concepite su un piano concreto dell’astratto) ma mai isolate pena incorrere in una contraddizione (dialettica).

Ne La struttura originaria è del tutto esplicito che i vari tipi di proposizioni, così come si presentano agli occhi del pensiero occidentale, sono connessioni autocontraddittorie, cioè alienazione della verità, e che il dire della Necessità ha un senso essenzialmente diverso da quello stabilito dal pensiero logico dell'Occidente.

L’identità originaria è quindi struttura dell’apparire del senso, non inferenza (men che meno meccanica o meccanizzabile) né deduzione. In essa, il logos non costruisce la verità, bensì la accoglie nella sua necessità. Non si tratta più di un’uguaglianza tra simboli, ma di una rivelazione dell’essere degli enti nella loro appartenenza al tutto concreto. È questa consapevolezza che permette di comprendere come l’intera costruzione logica della modernità, compresa l’implicazione formale, poggi su un fondamento che essa stessa non tematizza ovvero l’impossibilità che l’essente non sia, che costituisce il cuore della struttura originaria.

7    Precisazioni logiche e filosofiche sullo statuto della forma e del contenuto nel pensiero severiniano

Nel pensiero di Emanuele Severino, uno dei punti di svolta teoretici più profondi consiste nella ridefinizione radicale del rapporto tra forma e contenuto. Tale ridefinizione non avviene come semplice distinzione tra struttura e materia del discorso, bensì come consapevolezza dell’unità originaria entro cui forma e contenuto si coappartengono in modo inscindibile (non isolabile, pena il contraddirsi). Non si tratta, dunque, di attribuire alla forma un primato astratto, né di sottomettere la forma alla molteplicità dei contenuti. Piuttosto, Severino mostra come ogni forma – anche quella della logica più rigorosa – trae senso e necessità solo in quanto si radica nell’orizzonte dell’essere e delle sue determinazioni, e cioè nella struttura originaria che manifesta l’identità assoluta dell’essente con sé stesso (questo è il senso teoretico del termine «eternità»).

All’interno di questo quadro, l’idea – propria della logica classica – che la forma possa operare indipendentemente da ciò che essa «forma», è rovesciata. Non perché venga negata la potenza della forma, ma perché se ne scopre il fondamento ontologico. La forma è tale solo se è forma di un contenuto determinato, e questo contenuto, nel pensiero severiniano, non è una materia disponibile alla manipolazione o alla negazione, bensì è un essente eterno, che non può non essere ciò che è. In questa luce, la distinzione scolastica tra forma e materia viene superata da una concezione in cui il significato stesso di entrambi i termini è trasformato: la forma diventa l’atto con cui l’essere appare, mentre il contenuto è l’essente che necessariamente è (è la necessità della materia semantica).

Nel linguaggio della logica, una forma può essere pensata come uno schema. Ad esempio, l’implicazione formale ∀x (P(x) Q(x)) trattata da Russell rappresenta una regola generale che vale per ogni elemento di un dominio. Tuttavia, tale validità, nel quadro di Severino, non è ancora la verità piena. Potremmo dire che la «formalità» in ∀x (P(x) Q(x)) è una condizione necessaria ma non sufficiente da sé per dire la necessità anche se quel «∀x» è un chiaro anelito alla totalità semantica, sebbene in logica formale la totalità sia sempre soggetta ad una classe che soddisfa una qualche proprietà, quindi ad un qualcosa di restrittivo, mentre la struttura originaria importa che la totalità semantica è costante presintattica di ogni significato ovvero l’isolamento logico dalla totalità semantica implica l’indeterminatezza del significato. Ciò è legato a doppio filo con la «relazione semantica fondamentale (RSF)» così come delineata ne La dialettica della struttura originaria e cioè (Berto, 2003, p. 24):

«[…] la relazione, il nesso dialettico necessario, fra un qualunque significato a e la sua negazione infinita non-a. Chiamo non-a “negazione infinita”, poiché in essa è posto, seppure in modo in qualche misura formale, l’intero del contraddittorio di a: la totalità del suo altro. Questa relazione è una coimplicazione: la posizione (l’apparire, il concetto, l’affermazione) di a implica la posizione (l’apparire, il concetto, l’affermazione) di non-a, e viceversa (a⇔ ¬a)».


Tale relazione semantica fondamentale ha un nesso non secondario con ciò che Berto definisce, nel fornire un principio alla logica dialettica, «Principio dell’olismo semantico (OS)», per cui «Ogni significato si determina solo nella relazione con la totalità del proprio altro, cioè nella relazione dialettica con la propria negazione infinita».

Per cui «Emerge cioè che la determinatezza, o identità, o esser sé del significato, si realizza solo in quanto questo è posto come relazione alla (determinatezza della) totalità del suo altro (alla sua negazione infinita), e dunque all’intero campo semantico: secondo quanto afferma il principio (OS)».

In relazione alla dialettica severiniana Berto ci ricorda, inoltre, che (Berto, 2003, p. 31): «Nel cap. XVI di Tautòtes infatti si esamina la relazione dell’“essere insieme ad altro” (cfr. I, 1, § 5), affermando che qualunque significato “è identico […] al suo essere insieme alla totalità degli essenti”, alla “totalità assoluta dell’essente”. Porre un qualunque significato senza porlo “come un essere insieme ad altro, significa pensare un niente”, ossia contraddirsi: e questo è appunto ciò che produce l’intelletto, quando pensa la determinazione a senza pensarla nella sua relazione alla totalità del suo altro.» da cui si deduce che «Ogni significato è in relazione alla totalità del suo altro, alla propria negazione infinita».

È qui che entra in gioco la totalità semantica ed addirittura si comprende anche il senso della negazione in Severino, la quale è sempre un positivo e come egli stesso ci dice in Tautòtes nell’introdurre l’essere-insieme-a, «essere non» è un «essere con», specificatemente, nelle parole di Severino in Tautòtes (Severino, 1995, p. 151):

«Essere insieme (essere con) è essere negazione (essere non). Qualcosa può essere insieme ad altro, perché non è l’altro; qualcosa può non esser l’altro, perché è insieme all’altro. Se il qualcosa non fosse insieme all'altro – se l'altro non fosse –, il qualcosa non potrebbe esserne la negazione; se il qualcosa non fosse negazione dell'altro non potrebbe essere insieme all’altro, ma sarebbe identico ad esso. Che questa superficie sia bianca significa che, all’interno di una certa totalità finita, questa superficie è insieme a questo bianco; e questa superficie è un significare che differisce dal (ossia non è il) significare in cui consiste questo bianco. (Questa superficie è insieme anche al bianco di quest'altra superficie, ma in una totalità finita diversa da quella che include questa superficie e il suo biancheggiare).»

Ciò mostra come la totalità semantica sia sempre in vista (vi è una relazione originaria come ben già illustrato ne La struttura originaria del ‘58) finanche quando si pone la negazione di un significato. Qui c’è una debole relazione con la totalità specifica del «∀x, per ogni» nell’implicazione formale «∀x (P(x) Q(x))», che come abbiamo visto contempla funzioni proposizionali che di per sé non sono confacenti con la verofunzionalità. In ogni caso per motivi di spazio qui non si entrerà nel senso della negazione ma si rammenta che per Severino la negazione in senso ontologico è la modalità con cui l’identità si costituisce nella differenza, nella relazione all’alterità, e non equivale mai a un passaggio al nulla o all’annientamento, come invece presuppone la metafisica tradizionale del divenire. Sottolineamo, in ogni caso, che in Severino, ogni relazione (inclusa la congiunzione) tra enti non è mai una mera operazione logica, ma un apparire originario, un costituirsi dell’essere-in-relazione (come espresso in Tautòtes p. 152). Ad esempio, negare una congiunzione (A e B) equivale, in termini ontologici, a negare la totalità unitaria costituita dal loro essere insieme (la loro «coappartenenza») – ricordiamo che per Severino la congiunzione in quanto «relazione» è «relazione originaria» quindi i congiunti non sono isolabili e non sopraggiungono rispetto alla relazione di congiunzione. Non si tratta semplicemente di affermare che «non A o non B» (come nella logica classica, specificatamente nella legge di De Morgan), ma di negare che sussista quell’intero apparire in quanto tale. Anche per tale motivo il dire severiniano si discosta dal dire verofunzionale della logica classica. Nei testi severiniani, si avverte che la logica classica fornisce strumenti potenti, ma opera sempre «su» dei contenuti già dati. Severino invece interroga il senso stesso dell’operazione di negazione, mostrando che, all’interno della struttura originaria, la negazione «dei congiunti» significa rifiutare l’apparire stesso di quella totalità, non solo l’affermazione alternativa dei suoi membri. Nel dire severiniano negare qualcosa non è solo dire che non è vero, ma affermare positivamente il suo contrario.

Tornano al contenuto e alla forma, è solo nella misura in cui la «forma» manifesta una verità del contenuto determinato, ovvero una relazione tra enti determinati che non può non essere, che essa acquista uno statuto veritativo (e quindi non passibile di verofuzionalità come avviene nel «passaggio» da implicazione formale a materiale). Diversamente, resta sul piano dell’astrazione, valida sì, ma priva della necessità fenomenologica che fonda la verità (intesa assolutamente non come solo valore di un connettivo verofunzionale).

Il linguaggio formale della logica moderna è dunque, per Severino, un linguaggio potente, ma in un certo senso cieco. Esso funziona, ma non sa cosa significa veramente funzionare. Non vede che ogni funzione logica – ogni proposizione, ogni implicazione, ogni identità – è possibile solo perché vi è una struttura originaria in cui l’essente non può non essere, e ogni negazione di tale struttura è essa stessa interna all’apparire dell’essere, un apparire in cui appare anche la logica formale.

L’implicazione formale, che nella logica classica assume un valore universale (non tanto in virtù della verità dei suoi termini, quanto della forma stessa della connessione), è qui svelata nella sua dipendenza dal contenuto ontologico. Per Severino, non basta che una connessione logica sia formalmente valida; occorre che essa non contraddica il senso originario del vero, ossia l’eternità dell’essente. Ciò implica che una forma logica è fondata non solo nella sua coerenza interna, ma nel fatto che essa dica il vero, cioè l’impossibilità che ciò che è, non sia.

Questa posizione comporta una revisione radicale del concetto stesso di verità. Se nella logica tradizionale la verità è una proprietà della proposizione in relazione al mondo (nella forma della corrispondenza, della coerenza o della funzione di verità), nella filosofia severiniana (e nella logica dialettica severiniana) la verità è innanzitutto la manifestazione dell’essente nella sua identità necessaria. L’identità formale, la deduzione, l’implicazione, la funzione logica, devono perciò essere reinterpretate in funzione di questa struttura originaria e cioè non come strumenti per costruire il vero, ma come tracce che devono riportare all’atto con cui l’essere appare o testimoniare il vero.

Ne deriva che nel dire severiniano ogni forma è già carica di contenuto, e ogni contenuto non è disponibile a essere ridotto a forma, non diementicando che quel dire indica qualcosa che è oltre il linguaggio stesso. La distinzione tra i due piani, pur necessaria nell’analisi, si dissolve nell’esperienza filosofica del pensiero che ritorna alla struttura originaria. L’implicazione logica non può mai prescindere dall’identità dell’essente con sé stesso. E, in definitiva, anche il logos più puro – quello della logica formale – si trova, se portato fino in fondo, a dover riconoscere la necessità ontologica che lo fonda.

8    Sintesi dei risultati raggiunti e prospettive

Il percorso fin qui affrontato ha permesso di esplorare con metodo la relazione tra la logica formale attraverso alcuni passaggi dovuti a Bertrand Russell e la struttura dialettico‑ontologica di Emanuele Severino, con particolare attenzione alla nozione di necessità.

In primo luogo, si è evidenziato come l’implicazione materiale (A → B), nel quadro della logica proposizionale, sia una relazione verofunzionale, dipendente dai valori di verità dei singoli elementi. Essa sopporta paradossi e relazioni inconsistenti, essendo vera ogni qual volta l’antecedente sia falso o il conseguente vero, senza richiedere nessun legame concettuale tra A e B.

In contrapposizione, l’implicazione formale (∀x (p(x) q(x))) incarna una relazione necessaria, strutturale e universale. Essa presuppone che il dominio degli elementi che soddisfano la proprietà p sia interamente incluso in quello in cui vale q, costruendo così un legame forte e non casuale. Questa relazione è coerente con una forma di necessità logica, ma non ancora con la nozione di necessità ontologica di Severino, sebbene ne ricalchi la forma, la cui analisi può essere utile sul piano metodologico.

La riflessione severiniana ha permesso di spostare l’attenzione verso la struttura originaria dell’essere, nella quale forma e contenuto si incontrano: e dove il pensiero non è strumento di costruzione, ma linguaggio che raccoglie e mostra ciò che già è ed è necessariamente. In tale contesto, l’implicazione formale si presta a essere una «figura logica» che si avvicina al modello di relazione necessario, ma non basta. Ciò che conta non è solo la forma, ma che questa in relazione a un contenuto essenziale e determinato, ovvero un essente che non può non essere ciò che è.

Il passaggio sul piano dell’identità originaria ha mostrato che l’identità logica simmetrica (x = y = y = x) diviene significativa solo se riversata nel contesto ontologico (dove il logos è in identità con il fenomenologico): la simmetria dell’identità formale diventa allora la dichiarazione di un’identità concreta, ovvero il riconoscimento che l’essere di A è identico all’essere di B perché entrambi manifestano l’identità di ciò che non può essere diversamente, pena l’impossibile concretarsi del nulla.

Pertanto, le riflessioni condotte hanno manifestato un duplice movimento filosofico logico:

  • Da Russell: il passaggio dalla verità verofunzionale alla validità universale, dalla contingenza alla forma necessitante tramite l’implicazione formale.
  • Da Severino: la radice ontologica della forma, dove necessità è l’essere che non può essere diversamente, e la logica riaccoglie ma non genera ciò che mostra (apparire).

In prospettiva, questo confronto apre ad alcune linee di sviluppo:

  • Una teoria del significato che intraveda la logica come strumento dall’interno del mondo e del senso, e non più come costruzione astratta.
  • Un’ontologia dell’inferenza, in cui ogni atto inferenziale è manifestazione di un destino dell’essere (è una modalità dell’apparire).
  • Una rivalutazione del linguaggio formale nei contesti filosofici, non come astrazione sterile, ma come «portale» verso la necessità dell’essere.


Si accenna, in ultimo, che la verofunzionalità in un senso generale e ampliato è il sale della prassi scientifica e la possibilità di avere asserzioni vere e false rende possibile la falsificabilità delle teorie scientifiche stesse, permettendo a Karl Popper di stabilire un criterio di demarcazione basato sulla falsificabilità e non sulla verificabilità di una teoria scientifica. Di fatto, secondo Popper, una teoria è scientifica se e solo se è potenzialmente falsificabile, ovvero se può essere confutata da osservazioni o esperimenti. In altre parole, una teoria scientifica deve poter essere messa alla prova e potenzialmente dimostrata falsa. Qui l’implicazione formale ci è servita per mostrare come si può configurare lo schema di una deduzione necessaria e non falsificabile e come questo schema possa aiutare a compiere un passaggio metodologico nello studio del pensiero di Emanuele Severino e della sua logica dialettica.


Niente di definitivo, ma si spera utile per chi provenendo dal mondo della logica formale e degli enunciati verofunzionali voglia avvicinarsi ad un dire che è completamente differente ma che può essere saggiato passando per la comprensione dell’importanza dell’implicazione formale come descritta da Bertrand Russell ne I principi della matematica. Tale trattazione non esaurisce tutti i punti essenziali dell’argomento che rimangono una questione, comunque, di carattere aperto nella prassi di ricerca e sono in altra maniera ben trattati in numerosi altri testi dedicati al senso della logica dialettica e delle differenze con la logica formale. Si rimanda, riguardo tale argomento, a La dialettica della struttura originaria di Francesco Berto (Berto, 2003), noto filosofo conoscitore sia della logica classica e dei suoi fondamenti sia della logica dialettica.

 

Si conclude con un post scriptum.

Ci sono autori che si interrogano sulla possibilità di formalizzare la logica dialettica – in questo scritto appena accennata. Personalmente ritengo che essa sia non formalizzabile, altrimenti i libri sull’argomento sarebbero simili ai libri sulla logica formale, un coacervo di formule che identificano un sistema, il quale in linea di principio (al netto di problematiche autoreferenziali legate al noto «problema dell’arresto») è meccanizzabile. La logica dialettica vive nel linguaggio ovvero in un dire che può essere «piegato» a seguirne i dettami e che, in quanto dire, non è esente dal «contraddirsi», ma rimane il miglior «sistema formale» sufficientemente fluido dal punto di vista semantico con cui si può tentare di indicare ciò che è oltre il linguaggio. I modelli linguistici di grandi dimensioni alla base degli attuali sistemi di Intelligenza Artificiale generativa approssimano grossolanamente la produzione di un dire che appare dialettico poiché, essendo addestrati su grandi moli di dati testuali (e multimodali), risultano produttori di simboli le cui relazioni semantiche da noi riconosciute come tali appaiono sufficientemente fluide da sembrare che siano capaci di produrre significati secondo una logica di tipo dialettico.

 

Bibliografia

Russell, B. (1903). The Principles of Mathematics. London: George Allen & Unwin.
Ed. it.: Russell, B. (1970). I principi della matematica. A cura di G. Gherardi, Milano: Longanesi.

Russell, B. (1919). Introduction to Mathematical Philosophy. London: George Allen & Unwin.
Ed. it.: Russell, B. (1988). Introduzione alla filosofia matematica. A cura di G. Boni, Milano: Il Saggiatore.

Severino, E. (1958). La struttura originaria. Brescia: La Scuola.
Riedizione: Severino, E. (1981). La struttura originaria. Milano: Rizzoli BUR Filosofia.

Berto, F. (2003), La dialettica della struttura originaria, Padova: Il Poligrafo

Severino, E. (1995). Tautótes. L’identità. Milano: Adelphi.

 

 

Scelti

I Large Reasoning Models (LRM) o Reasoning Language Models (RLM) sono più che motori statistici?

source Negli ultimi anni, il dibattito sulle capacità dei grandi modelli linguistici si è spesso concentrato su un’affermazione apparentemen...