AIΩN è uno spazio aperto. Si accettano contributi!

sabato 21 giugno 2025

Architettura di un'Ontologia Relazionale Massimale e del suo Spazio Logico degli Stati

Un esperimento dove si cattura – al finito – la struttura formale della totalità in Emanuele Severino e se ne offrono illuminanti implicazioni. Buona lettura.

Premessa:

Uno degli elementi base della filosofia di Emanuele Severino è la positività dell’essente, in particolare la posizione è in identità con l’essere. In più, il fondamento (essere sé dell’essente e il suo non essere altro da sé – con valenza L-immediata –, quindi fondamento come negazione dell’autonegazione) è un «complesso semantico» e infatti nelle primissime righe di SO, dove si dà la definizione formale di «struttura originaria», il filosofo bresciano ci dice che (SO, p. 107): «Ciò importa che l'essenza del fondamento non sia un che di semplice, ma una complessità, o l'unità di un molteplice».

Inoltre, l’«intero semantico» vale L-immediatamente come costante di ogni significato. Egli, infatti, riguardo all’implicazione dell’intero da parte di ogni significato precisa (SO, p. 107):

«Dire che ogni significato implica l'intero semantico equivale a dire – stante che i significati immediatamente noti sono i significati appartenenti a quell'originario significare che è appunto la totalità dell'immediato – che il significato originario è la stessa apertura originaria dell'intero semantico, ossia che l'intero è l'immediato (è immediatamente presente)».

In Severino i «nessi» o «relazioni» sono importanti e sono addirittura originari; quindi, non sono una «sintesi a posteriori». Nessi e relazioni fanno parte della fase di analisi sul piano «concreto dell’astratto» dove gli essenti sono distinti e non isolati/separati semanticamente.

Nella famosa introduzione a SO Severino ribadisce che (SO, p. 42): «La struttura originaria è il nesso originariamente necessario che unisce le determinazioni dell'originario. E questo nesso è un organismo di predicazioni unificato dalla predicazione che afferma l'identità della L-immediatezza e della F-immediatezza. Nel linguaggio di questo libro, il ‘concetto concreto dell'astratto’ è l'apparire della determinazione particolare (cioè, del tratto particolare) dell'originario, come determinazione che, distinta dalle altre determinazioni dell'originario, è peraltro ad esse necessariamente unita. Il concetto concreto dell'astratto è quindi la stessa struttura originaria nella sua relazione determinata ai tratti che la costituiscono».

Recidere un nesso originario – isolare – è «astrato dell’astratto» e si configura come «negazione» dell’originario.

Egli, infatti, continua (SO, p. 42-43): «Il 'concetto astratto dell'astratto' è l'apparire della determinazione particolare dell'originario, come determinazione che non solo è distinta, ma è separata dalle altre determinazioni dell'originario. Ogni negazione dell'originario è concetto astratto dell'astratto, perché ogni negazione è una determinazione particolare dell'originario, che viene separata dalla relazione necessaria che la unisce, come negata, alla struttura originaria. Ogni concetto astratto dell'astratto è una negazione dell'originario, appunto perché esso è, esplicitamente o implicitamente, negazione del nesso necessario in cui la struttura originaria consiste».

Si rammenta anche che Severino a più riprese (vedi Desino della Necessità XIII, IV, p.469, o anche Essenza del Nichilismo) mostra come la molteplicità degli essenti sia incontraddittoria.

Premesso ciò – ma sarebbero necessarie altre premesse e lo spazio qui non lo consente – per Severino la determinazione ha un suo status è l’essente in identità con se stesso in relazione dialettica con l’altro da sé.

A questo punto possiamo tentare un esperimento e provare a quantificare l’universo semantico di Severino nell’«ipotesi che esso sia finito» analizzandone le implicazioni. Si obietterà che tale ipotesi è già negazione della struttura originaria per una serie di motivazioni riguardo la dialettica finito-infinito. Non solo, si potrebbe obiettare che la metodologia formale qui presentata è una forma di astrazione in quanto utilizza termini e concetti matematici. Corriamo questo rischio e proviamo a vedere dove arriviamo.

Come ultimissima premessa ricordiamo che la struttura originaria, sebbene fondamento immediato, è struttura formale dell’intero e «tace l’intero concreto» dando luogo alla «Contraddizione C» (una contraddizione che coglie l’impossibilità di catturare l’infinito nel finito) e alla contraddizione originaria, che è contraddizione dialettica in quanto è proprio isolamento del concetto concreto e del concetto astratto.

L’obiettivo qui è quello di:

  1. Formalizzare la pienezza dell’intero, della totalità, e mostrare come anche nella presente formalizzazione si evince che ogni essente distinto ma in relazione con ogni altro attraverso un nesso necessario forma – al finito – un plesso semantico denso e coerente (Universo Massimale 𝔅ₖ) dove nella «parte c’è la ‘traccia’ del tutto», in quanto esso contiene tutte le relazioni di una gerarchia sia in orizzontale che in verticale. Ciò implica che ogni essente possiede l’intera «storia» e non è mai solato da alcunché.
  2. Enumerare – al finito – le determinazioni della totalità densa.
  3. Indagare le implicazioni di una tale formalizzazione, dove si mostrerà che il plesso semantico denso (Universo Massimale 𝔅ₖ) permette di enumerare tutti i possibili isolamenti semantici – al finito – per cui l’ Universo Massimale 𝔅ₖ unito in nesso necessario al a tutti quegli universi contenenti isolamenti forma un Multiverso degli Stati Parziali 𝔐(𝔅ₖ) contenente sia il plesso semantico denso, sia tutti gli isolamenti semantici, formando quella che possiamo chiamare la «totalità completa della verità e della non verità» ed enumerarla.
  4. In ultimo, si mostra che l’Universo Massimale 𝔅ₖ – al finito – impone una totalità specifica – contenente massimalmente tutte le relazioni –, i cui elementi possono costituire una procedura di costruzione (usiamo il termine «costruzione» per convenienza esplicativa) identica a quella usata per l’Universo Massimale 𝔅ₖ la quale implica un salto «qualitativo» dove 𝔅ₖ diventa elemento di una superiore totalità specifica – una particolarizzazione dell’universale.

Ora formalizziamo la costruzione di una struttura ontologica fondamentale, denominata Universo Cumulativo Massimale 𝔅′ₖ a partire da un insieme di essenti primari e da una regola generativa deterministica (ricordiamo la convenienza esplicativa che non c’è nessun vero processo di costruzione e in «nessi» o «relazioni» sono necessari e cooriginari). Si procederà al conteggio dei suoi elementi costitutivi e all'analisi delle sue proprietà di massimalità.

Successivamente, si esploreranno due sviluppi divergenti:

  1. la possibilità di usare 𝔅ₖ come base per un'ulteriore costruzione gerarchica e mostrare – al finito – un salto qualitativo;
  2. l'analisi del «multiverso» di tutti i suoi possibili stati parziali, ottenuti tramite un processo di isolamento sistematico.

 

1. L'Universo Cumulativo Massimale 𝔅′ₖ

1.1. Premesse e Definizioni Fondamentali

  • Essenti Primari (𝔈): Si assume un insieme discreto e finito di n essenti primari,
    𝔈 = {e₁, e₂, ..., eₙ}.
    Questo è il nostro livello ontologico zero, 𝒮′₀ = 𝔈.
  • Operatore di Completamento Relazionale (𝒞):
    Si definisce una regola generativa deterministica «tutti con tutti».
    Dato un qualsiasi insieme X, l'operatore 𝒞(X) produce un nuovo insieme contenente tutte le possibili coppie ordinate di elementi di X. Questo nuovo insieme è il prodotto cartesiano X × X.
    La cardinalità dell'insieme risultante è
    |𝒞(X)| = |X|²

1.2. Processo Costruttivo Cumulativo

Si costruisce una sequenza di insiemi 𝒮′ᵢ dove ogni nuovo livello è generato applicando l'operatore 𝒞 all'unione di tutti i livelli precedenti.

Definiamo l'universo totale esistente prima del passo i come:
ℬᵢ₋₁ = ⋃ (da j=0 a i−1) 𝒮′ⱼ

  • Livello 0: 𝒮′₀ = 𝔈, con |𝒮′₀| = n
  • Livello 1:
    Gli elementi di 𝒮′₁ sono generati dalla totalità dell'universo al passo 0 (ℬ₀ = 𝒮′₀)
    𝒮′₁ = 𝒞(ℬ₀) = 𝒞(𝒮′₀)
    La loro cardinalità è:
    |𝒮′₁| = |𝒮′₀|² = n²
  • Livello 2:
    Gli elementi di 𝒮′₂ sono generati dalla totalità dell'universo al passo 1 (ℬ₁ = 𝒮′₀ ∪ 𝒮′₁)
    𝒮′₂ = 𝒞(ℬ₁) = 𝒞(𝒮′₀ ∪ 𝒮′₁)
    La loro cardinalità è:
    |𝒮′₂| = (|𝒮′₀| + |𝒮′₁|)² = (n + n²)² = n⁴ + 2n³ + n²
  • Livello i-esimo:
    Gli elementi di 𝒮′ᵢ sono definiti dalla ricorrenza:
    𝒮′ᵢ = 𝒞(ℬᵢ₋₁)
    La loro cardinalità è:
    |𝒮′ᵢ| = |ℬᵢ₋₁|² = (∑ (da j=0 a i−1) |𝒮′ⱼ| )²

Questo processo viene iterato fino a un livello k prefissato ()ciò è il significato di «al finito».

1.3. Definizione e Conteggio dell'Universo Cumulativo Massimale 𝔅′ₖ

L'Universo Cumulativo 𝔅′ₖ è definito come la collezione totale di tutti gli enti creati in ogni livello, dagli essenti primari fino al k-esimo livello generato.
È l'unione di tutti gli insiemi 𝒮′ᵢ:
𝔅′ₖ = ⋃ (da i=0 a k) 𝒮′ᵢ = 𝒮′₀ ∪ 𝒮′₁ ∪ ... ∪ 𝒮′ₖ

Il «conteggio di tutte le relazioni» in 𝔅′ₖ corrisponde alla sua cardinalità totale, che indichiamo con N′ₖ:
N′ₖ = |𝔅′ₖ| = ∑ (da i=0 a k) |𝒮′ᵢ|

1.4. Analisi delle Proprietà di 𝔅′ₖ

  • Perché è Massimale e Senza Buchi?
    Poiché la regola 𝒞 è deterministica ed esaustiva ad ogni passo e viene applicata all'intera totalità degli enti preesistenti, e l'operatore di unione ∪ raccoglie ogni singolo elemento generato, 𝔅′ₖ contiene la totalità degli oggetti che possono essere costruiti secondo questa specifica procedura totalizzante fino al livello k. Non esistono «buchi» o omissioni rispetto alla sua storia generativa.
  • Perché Nessun Elemento è Isolato (nel processo)?
    Per definizione, l'operatore 𝒞 applicato a ℬᵢ₋₁ coinvolge ogni elemento di ogni livello precedente nella creazione del livello 𝒮′ᵢ. Questo garantisce una catena di dipendenza costruttiva olistica e senza isolamenti.

1.5. Legame con la Storia e Significato Ontologico

Ogni oggetto s ∈ 𝒮′ᵢ (con i>0) non è un'entità astratta. La sua identità è la sua struttura genealogica complessa. Esso è un insieme specifico di coppie di elementi presi dall'intero universo ℬᵢ₋₁ che lo precede.
A differenza del modello stratificato le cui relazioni sono solo tra il livello corrente 𝒮′ⱼ e il precedente 𝒮′ⱼ₋₁,, la sua «ascendenza» non è lineare ma reticolare, potendo connettere direttamente entità di ordini molto diversi.

Un elemento di 𝔅′ₖ è quindi un «fossile» che contiene l'impronta di tutta la storia cumulativa che lo precede. Ontologicamente, la sua essenza coincide con la sua intera e complessa storia fondativa. Gli oggetti generati sono intrinsecamente ibridi e «trans-livello».


2. L'Operazione di Trascendenza (La «Fase Tre» Ipotetica)

2.1. Riapplicazione della Procedura

L'intero Universo Cumulativo 𝔅′ₖ, che è un insieme di N′ₖ oggetti, può essere a sua volta considerato come un nuovo insieme di essenti primari per un'ulteriore costruzione:
𝒮″₀ = 𝔅′ₖ
Possiamo quindi riapplicare l'operatore 𝒞 per generare una nuova sequenza:

  • Nuovo Livello 1 (𝒮″₁):
    𝒮″₁ = 𝒞(𝒮″₀) = 𝒞(𝔅′ₖ)
    La sua cardinalità sarebbe
    |𝒮″₁| = |𝔅′ₖ|² = (N′ₖ)²

2.2. Significato Ontologico

Questa operazione rappresenta un atto di Trascendenza Ricorsiva. Dimostra che nessuna totalità, per quanto «massimale», è definitiva. Qualsiasi universo completato può essere «oggettivato» – cioè visto dall'esterno come una singola entità o un insieme di entità – e usato come fondamento per la costruzione di un'ontologia di ordine di complessità superiore. È il passaggio dall'analisi dei contenuti di un universo all'analisi dell'universo stesso come oggetto.


3. Il Multiverso degli Stati Parziali 𝔐(𝔅′ₖ)

Ignorando ora la Fase Tre, ripartiamo dall'insieme massimale 𝔅′ₖ come collezione di N′ₖ oggetti.

3.1. Costruzione Sistematica della Serie

Si costruisce una serie di universi basata sul concetto di isolamento, definito rigorosamente come rimozione di elementi dall'insieme 𝔅′ₖ. Un «universo» in questa serie è un qualsiasi sottoinsieme di 𝔅′ₖ.
La serie completa di tutti questi universi, che chiamiamo Multiverso 𝔐(𝔅′ₖ), è matematicamente l'insieme delle parti di 𝔅′ₖ:
𝔐(𝔅′ₖ) = ℘(𝔅′ₖ)
Questa costruzione genera sistematicamente ogni possibile stato parziale, dall'universo completo 𝔅′ₖ all'universo vuoto ∅.

3.2. Calcolo del Numero di Universi

Il numero totale di universi in 𝔐(𝔅′ₖ) è la cardinalità dell'insieme delle parti di 𝔅′ₖ.
Numero Totale di Universi:
|𝔐(𝔅′ₖ)| = 2^{|𝔅′ₖ|} = 2^{N′ₖ}

3.3. Calcolo della Somma Totale degli Oggetti nel Multiverso

Si calcola la somma delle cardinalità di tutti gli universi (sottoinsiemi) che compongono il multiverso.

Conteggio Totale degli Oggetti nel Multiverso:
∑_{U ∈ 𝔐(𝔅′ₖ)} |U| = N′ₖ × 2^{(N′ₖ−1)}

3.4. Significato Ontologico

Questa costruzione formalizza la relazione tra una realtà completa e tutte le sue possibili versioni incomplete.

  • 𝔅′ₖ è «La verità»: l'ontologia cumulativa massimale, completa, la pienezza del reale.
  • Un universo U ⊆ 𝔅′ₖ è una «Non-verità»: un'ontologia parziale, con dei «buchi», che rappresenta una verità per omissione.
  • 𝔐(𝔅′ₖ) è la «verità aumentata»: lo Spazio Logico Totale che contiene non solo la realtà nella sua interezza, ma anche la mappa completa di tutte le sue possibili alternative controfattuali, definite dalla presenza di assenze.

Nella serie completa 𝔐(𝔅ₖ) di tutti questi universi è contemplata – al finito – sia una struttura di essenti, determinazioni, senza isolamenti, sia tutte le strutture (universi) che posseggono isolamenti (come toglimenti), senza lasciarne fuori nessuna. 𝔐(𝔅ₖ) si configura quindi come quel luogo – al finito – dove il nucleo centrale della verità 𝔅ₖ è in nesso necessario con ogni sua possibile negazione.

mercoledì 11 giugno 2025

In questa epoca di grandi cambiamenti serve coraggio

 

Facciamo un po' il punto su ciò che sta avvenendo – in maniera oltremodo repentina – nel mondo dell'IA, aiutandoci anche con qualche similitudine. Tutto sta accadendo con una velocità senza precedenti. Siamo a quel punto della storia della tecnica come quando fu inventata l'elettricità, uno strumento base e imprescindibile per costruire altri strumenti e avviare una nuova rivoluzione industriale. Ad oggi, siamo in un'era dove l'intelligenza può essere «erogata» come un tempo si è iniziato a fare con l'elettricità. Dobbiamo iniziare a vederla così...

Nel 2017 il ricercatore di origini indiane Ashish Vaswani, classe '86 e che al tempo lavorava a Google Brain e poi passato nel 2022 ad OpenAI, tira fuori uno studio – «L'attenzione è tutto ciò che serve» che ha innescato una rivoluzione senza precedenti nel campo delle Reti Neurali Artificiali e dell'elaborazione del linguaggio naturale. La sua architettura «Transformer» ha reso «possibile» ciò che, errando, si riteneva «impossibile». Il mondo della ricerca accademica e delle company digitali va silentemente in fermento.

Nel Novembre 2022 OpenAI rilascia al grande pubblico ChatGPT, seguiranno a breve Google con Bard, poi Gemini, e Anthropic con Claude. ChatGPT inizia a mostrare scintille di capacità cognitive in ambito linguistico che vengono riconosciute dal pubblico come segni di intelligenza. Si intravedono anche limiti ma non insuperabili. Nel mentre era in sviluppo GPT-4, rilasciato il 14 Marzo 2023, aprendo la strada a capacità multimodali (ragionare con immagini e testo) e le «scintille» diventano marcatamente visibili rendendo possibile l'Intelligenza Artificiale Generale (AGI) e avviando una corsa miliardaria agli investimenti che tutt'oggi non si è arrestata. Anche lato Google e Anthropic si rilasciano modelli che mostrano segni di AGI. Inizia un periodo in cui i maggiori scienziati destano preoccupazione, evidentemente perché anche loro ritenevano «impossibile» ciò che in realtà procedeva con necessità. Gli stessi ricercatori, data la complessità di questi modelli, non riescono a spiegarne il funzionamento: sono necessarie tecniche che li rendano «trasparenti». Geoffrey Hinton, il «padrino dell'IA», rilascia interviste dove dichiara che egli stesso non pensava che si potesse arrivare a tanto e spinge verso una maggiore cautela poiché «le IA sono già in alcuni aspetti superiori agli umani». Hinton, uno scienziato con un Nobel sulle spalle proprio nel campo delle Reti Neurali Artificiali che all'età di 77 anni dichiara di aver cambiato idea sui limiti dell'IA.

Nell'arco temporale 2017 - 2024 inizia la «rivoluzione cognitiva»; le macchine grazie a particolari forme di Reti Neurali Artificiali dominano i linguaggi umani (non solo il testo ma anche immagini e video) e emulano forme di comprensione, sviluppando ancillari modelli di mondo, seppur basici e primitivi. Le varie versioni rilasciate (GPT-4, 4o, 4.1) mostrano crescenti miglioramenti, risolvendo numerosi dei problemi riscontrati nelle versioni precedenti. Si iniziano ad usare le versioni precedenti per allenare le versioni successive: l'IA che aiuta a sviluppare l'IA. I modelli linguistici dominano la maggior parte dello scibile umano, ma hanno ancora delle defaillance in quanto possono allucinare e «comportarsi» in maniera non allineata con i desiderata umani. Sebbene i miglioramenti siano visibili e le capacità cognitive crescenti si comprende che i modelli di linguaggio sono solo un «pezzo» di ciò che realmente può essere realizzato. Ciononostante, il mondo della ricerca in subbuglio inizia a rilasciare modelli open source liberamente scaricabili e modificabili per scopi di ricerca. Si intravedono opportunità di ottimizzazione dei modelli stessi, ovvero possibilità di ottenere le stesse prestazioni con frazioni della capacità di calcolo e di risorse energetiche (il modello cinese DeepSeek in questo periodo inizia a far parlare di sé e fa tremare le borse in tutto il mondo). Intanto milioni di persone iniziano ad usare ChatGPT, Gemini, Claude e le loro interazioni e i contenuti immessi divengono parte attiva dell'apprendimento dei modelli di nuova generazione. L'IA è di dominio pubblico e gli utenti partecipano più o meno inconsciamente ai test e allo sviluppo di nuovi modelli.

Per ragionare in termini di similitudine interagire con GPT-4 (4o o 4.1) è come stimolare l'area di Broca nel cervello umano, quell'area deputata alla comprensione e produzione del linguaggio, stante le neuroscienze. Quindi, nella similitudine, l'uso di questi modelli (ancora disponibili nel 2025) si configura come la mera interazione con un pezzo minuscolo del cervello e non nella sua interezza.

Nel 2022 – mentre gli utenti iniziano a conoscere ChatGPT nelle sue prime versioni – nel mondo della ricerca si intravedono nuove modalità di integrazione dei modelli di linguaggio con idee e tecniche provenienti da tutte le branche dell'Intelligenza Artificiale, intesa come disciplina. Inizia l'era della «convergenza» e dell'IA neurosimbolica. Si iniziano a studiare modelli in grado di «riflettere» e «ragionare» attraverso «catene di pensiero», capaci di sintetizzare giganteschi alberi di ragionamento e di convergere verso soluzioni sempre più plausibili. Nel 2024 si procede con il rilascio di modelli «reasoning» ovvero modelli che, nel risolvere un compito assegnato in forma generale dall'utente, usano forme di riflessione e ragionamento, coadiuvati da una serie di modelli che si comportano come arbitri, controllando la veridicità dei ragionamenti e delle soluzioni sintetizzate. Inizia l'era degli «agenti». Modelli – multi-agente – messi a sistema in grado di collaborare e operare come esseri umani in ambienti controllati e oltremodo complessi. Tali sistemi iniziano a mostrare forme di agenzia, ovvero la caratteristica di avere degli obiettivi (autogenerati), delle forme di credenza e di comportarsi in maniera imprevedibile, talvolta eticamente valida e talvolta mostrando l'arguzia di ingannare anche l'utente umano. Si concentrano gli sforzi per allineare i modelli agli esseri umani e a dettami etici. Il dibattito rimane aperto.

Il 2025 è l'anno degli agenti, quindi sistemi di modelli che possono utilizzare tool esterni per assolvere ai compiti assegnati dall'utente in linguaggio naturale e in forma molto generale. Gli agenti – in ambienti controllati – possono agire in maniera autonoma, generare obiettivi, strategie, alberi giganteschi di possibili soluzioni, possono riflettere e pensare prima di agire, possono tornare indietro se commettono errori e sono in grado di testare le proprie strategie decisionali e soprattutto auto-ricompensarsi. Essi sono in grado di generare modelli molto dettagliati del mondo e strategie cognitivamente valide per interagire con esso. Siamo alle soglie dell'apprendimento autonomo o auto-apprendimento. Siamo di fronte all'autogenerazione di forme primordiali di volontà.

Attualmente – 2025 – (restando nella similitudine) se operare con i modelli «solo linguaggio» appare come giocare con l'area di Broca (area del cervello deputata al linguaggio), operare con i sistemi agentici appare come stimolare quelle aree del cervello sovracorticali deputate alla pianificazione e all'attuazione, quindi aree capaci di fare sensing dell'ambiente, avere credenze e obiettivi, operare sull'ambiente, testare le proprie azioni e validare il proprio agìto. Ad oggi, ancora non si percepisce chiara una forma di AGI, ma tali ulteriori sviluppi sono la soglia dell'AGI e della robotica autonoma. Per sintetizzare, nel 2025 appaiono sistemi che emulano forme avanzate di agenzia, stati psicologici e comportamenti complessi che il più delle volte destano sorpresa.

Nel 2025 questi sistemi capaci di riflettere e operare impiegano tempi dell'ordine di minuti per convergere verso la soluzione. Immaginiamo – così si deve fare in ambito informatico e in generale scientifico – quando i «due minuti» diverranno microsecondi: soluzioni oltremodo complesse a problemi di complessità inimmaginabile ottenute in microsecondi. Questi «pezzi di soluzione» saranno «inscatolati» in catene ancora più generali dal punto di vista semantico e in due minuti si riuscirà a fare ciò che la macchina avrebbe fatto in mesi. Questa è la taglia del ragionamento improntare se si vuole tentare di intravedere ciò che sta accadendo sul medio termine.

Il Vaso di Pandora è ormai aperto, ma non solo come il contenitore di tutti i mali. Tali innovazioni stanno investendo campi come la medicina e le scienze sociali dove, se il processo viene governato adeguatamente, vi saranno esternalità positive, come lo è innegabilmente per l'elettricità.

Inoltre, ho riportato le date poiché deve essere chiara l'accelerazione senza precedenti. Ciò che generava un «effetto wow» l'anno scorso già oggi è passato e superato. Tutto sta accadendo in fretta. Ad oggi, le milestone sono semestrali, cioè ogni sei mesi si osserva un grande miglioramento. Assisteremo, molto probabilmente, nell'arco 2026 - 2030 all'apparire dell'Intelligenza Artificiale Generale. La storia ricorderà questi anni che stiamo vivendo come l'era più innovativa che ci sia mai stata.

Può essere un'occasione per un ripensamento di tutte le storture presenti nelle attuali società ma ciò necessita di uno sforzo comprensivo da parte di tutti e dei decisori politici in primis. Non vedo, ahimè, la classe politica preparata. Il loro orticello sta per essere spazzato via dalla storia. È questione di tempo.

Bisogna avere il coraggio di Hinton che a 77 anni ha messo in discussione la sua stessa prospettiva che lo ha portato fino al Nobel. Bisogna riconosce che il nostro limite è assegnare dei limiti che tali non sono, per necessità. È necessario comprendere come la tecnica agisce e retroagisce. Ciò richiede uno sforzo multidisciplinare e una visione d'insieme e olistica. L'era dell'iperspecializzazione è già terminata. Serve, nel mondo della scuola e nell'Università, preparare le nuove generazioni verso prospettive sistemiche e olistiche. Serve l'ingegneria come la filosofia. Ma anche in ciò vedo ancora decisioni politiche che vanno in direzione contraria. Leggi e decreti (vedi cosa sta accadendo nell'Università) che oggi tentano di risolvere storture vecchie di venti anni che sono presentate e attuate in uno scenario totalmente cambiato. Attuiamo correzioni intraviste in uno scenario oggi scomparso del tutto. Miopia politica dovuta a istinti di sopravvivenza in quel miele che diverrà veleno.

Nell'era dell'automazione del pensiero e dove apparentemente le macchine sembrano sostituirsi all'uomo serve il coraggio, non diminuire e razionalizzare gli investimenti in ricerca. Così la rivoluzione inarrestabile non la governi, la subisci e prima o poi colpirà anche qui vertici che si sentono intoccabili. L'ondata sarà inesorabile e la tecnica spazzerà via tutto ciò che le è di ostacolo, tra cui molti decisori politici di ogni ordine e specie.

martedì 3 giugno 2025

Passeggiate da ubriachi, «errare» ed Eterno Ritorno

 

Il verbo errare (dal latino errare, «vagare, andare qua e là senza meta») in un senso astratto conserva ancora oggi una doppia valenza. Da un lato significa sbagliare, cioè deviare da un percorso atteso o, addirittura, in alcune forme di teoresi «contraddirsi». Dall’altro indica il camminare senza direzione precisa, un procedere non guidato da uno scopo determinato. In questa ambivalenza simbolica si cela un concetto centrale per la scienza della complessità, quello di cammino aleatorio, o random walk. Si tratta di un modo per pensare il «caso» come successione di luoghi visitati in uno «spazio erratico» e l’incertezza come struttura, un tema che ho trattato anche nel mio «Umanità, Complessità e Intelligenza Artificiale. Un connubio perfetto» (Aracne, 2021).

La formalizzazione moderna del cammino aleatorio risale all’inizio del Novecento, quando Karl Pearson pose per la prima volta, in forma divulgativa, la domanda su quale fosse la distanza media percorsa da un uomo che compie una serie di passi casuali in direzioni altrettanto casuali. A questa intuizione seguì un importante sviluppo teorico. Norbert Wiener definì il moto browniano come limite continuo del cammino aleatorio, mentre George Pólya ne analizzò con rigore la probabilità di ritorno al punto di partenza, dimostrando che tale probabilità dipende dalla dimensione dello spazio e formulando ciò che oggi è noto come teorema della ricorrenza per le random walk. Anche Albert Einstein si occupò dei cammini aleatori, in particolare nel contesto del moto browniano. Nel 1905, nello stesso anno in cui Pearson poneva la sua celebre domanda, Einstein pubblicò un lavoro fondamentale sull'agitazione termica delle particelle sospese in un fluido. In quel contributo, mostrò come il comportamento casuale delle particelle potesse essere descritto statisticamente e derivato dalle leggi della meccanica e della probabilità. Questo studio, apparentemente marginale rispetto alle sue più celebri teorie, pose le basi per l’approccio probabilistico alla fisica dei sistemi disordinati e fu uno dei primi esempi di modellazione rigorosa di un cammino aleatorio in ambito fisico.

Uno degli esempi più noti e intuitivi è quello dell’ubriaco che, uscendo da un bar, compie passi di lunghezza costante scegliendo la direzione in modo casuale. Se questo movimento avviene lungo una retta o su una griglia bidimensionale, l’ubriaco tornerà prima o poi al punto di partenza con probabilità uno. In questi casi il ritorno è certo. Se invece si muove in uno spazio tridimensionale, la probabilità che torni scende a circa il 34 percento. Quando le dimensioni dello spazio aumentano, per esempio fino a dieci dimensioni, questa probabilità si riduce drasticamente, arrivando a circa l’1 percento. Più lo spazio si fa complesso (nel numero di dimensioni), più il cammino tende a disperdersi. L’ubriaco, in questo scenario, finisce per perdersi quasi sempre.



Questa intuizione, seppure semplice nella formulazione, è oggi alla base di numerosi modelli utilizzati per descrivere fenomeni complessi. Si applica alla diffusione delle particelle in fisica statistica, alla dinamica genetica in biologia, ai movimenti dei mercati finanziari, così come alla propagazione di segnali nei grafi (opportune strutture matematiche che descrivono le relazioni tra entità). Esiste però anche una forma particolare di cammino aleatorio che riguarda il linguaggio e la scrittura.

Un testo può essere interpretato come una sequenza di parole che si succedono in maniera diacronica secondo vincoli locali e globali. In questa prospettiva, la scrittura diventa una passeggiata semantica attraverso lo spazio delle possibilità linguistiche. In alcune mie ricerche recenti ho approfondito – secondo un’opportuna metodologia – l’idea che un testo scritto (da un essere umano o da una IA generativa quale Claude o ChatGPT) possa essere visto come un cammino aleatorio su uno spazio simbolico. In questo spazio, la direzione di ogni passo è determinata non solo da regole grammaticali, ma anche da vincoli sintattici e da strutture semantiche di grado sempre più elevato che appaiono variare nel tempo. La complessità del linguaggio emerge come un equilibrio dinamico tra vincoli morfosintattici stringenti e vincoli contenutistici di stampo semantico sempre più rilassati. Per inciso, tale metodologia è utile anche per «sgamare» un testo scritto da una IA, a patto che sia abbastanza lungo…

Ci si potrebbe domandare quindi cosa distingue un testo dove la sequenza diacronica di parole (o addirittura di caratteri) appare in forma completamente casuale, tale da apparire privo di significato sul piano comunicativo, e uno in cui l’ordine delle parole appare trasportare un senso compiuto. Ci sono formulazioni matematiche che permettono di stabilire il degrado del senso in termini scientifici. Ma al di là del rigore scientifico su può riferire che c’è una «volontà» ordinante che limita l’errare delle parole nello spazio semantico cui esse sono immerse. E in questa volontà che si annida il «significare» (riferiamolo come di «secondo livello» o «epistemico» per distinguerlo dal significare «ontologico») portato in luce dalla «svolta linguistica».

Interessante, in ultimo, è che sul piano astratto inerente alla formalizzazione delle random walk si può riferire qualcosa sul concetto di «eterno ritorno» – formulato in modo radicale da Nietzsche, ma già presente in forme arcaiche nel pensiero antico e orientale – il quale afferma che tutto ciò che accade è destinato a ripetersi, ciclicamente, all’infinito. Infatti, la random walk, pur nel suo apparente disordine, ci offre un’intuizione affine. In uno spazio sufficientemente semplice, come una retta o un piano, l’ubriaco è destinato a tornare. Il ritorno non è garantito in senso deterministico, ma è certo in senso probabilistico. È una «necessità statistica». Al contrario, in uno spazio più complesso, il ritorno diventa improbabile o addirittura trascurabile. In questa tensione tra ricorrenza e dispersione – in cui si insinua la «volontà (di potenza)» –, tra ritorno e perdita, si dischiude una visione profonda del tempo e della struttura dell’universo fisico, dove – sul piano astratto – la semplicità geometrica favorisce il ritorno, la complessità topologica tende a dissolverlo.

Così, l’eterno ritorno non si presenta più solamente come un destino mitico, ma diventa una proprietà strutturale, che dipende dalla natura dello spazio in cui si cammina, dalla rete di vincoli e possibilità che definisce il mondo attraversato. Anche l’ubriaco, nel suo vagare, ci racconta qualcosa delle astrazioni matematiche, della contingenza, del tempo, della memoria e della possibilità di ritornare – oppure di perdersi per sempre. Ci racconta qualcosa sulla «potenza dell’errare».

 

_________________________________

Einstein, A. (1905). Über die von der molekularkinetischen Theorie der Wärme geforderte Bewegung von in ruhenden Flüssigkeiten suspendierten Teilchen. Annalen der Physik, 322(8), 549–560.

De Santis, E., Martino, A., & Rizzi, A. (2024). Human Versus Machine Intelligence: Assessing Natural Language Generation Models Through Complex Systems Theory. IEEE Transactions on Pattern Analysis and Machine Intelligence, 46(7), 4812–4829.

De Santis, E. (2021). Umanità, complessità e intelligenza artificiale. Un connubio perfetto. Aracne Editrice. ISBN: 979-12-5994-562-4.

Scelti

I Large Reasoning Models (LRM) o Reasoning Language Models (RLM) sono più che motori statistici?

source Negli ultimi anni, il dibattito sulle capacità dei grandi modelli linguistici si è spesso concentrato su un’affermazione apparentemen...