Post

Recursive Language Models, sistemi agentici e la nuova Digital Lebenswelt

Immagine
Negli ultimi anni il dibattito sull’intelligenza artificiale generativa si è progressivamente spostato da una riflessione centrata sulle prestazioni linguistiche dei Large Language Models (LLM) verso una discussione più ampia sulla loro collocazione all’interno di sistemi «cognitivi» complessi. Del resto, la tecnica insegna che l’evoluzione tecnologica procede in maniera incrementale e per raffinamenti successivi, talvolta imboccando strade senza uscita, facendo passi indietro, ma anche balzi in avanti. In questo contesto si inserisce, ad esempio, il lavoro  Recursive Language Models , proposto a fine 2025, da Alex L. Zhang, Tim Kraska e Omar Khattab (2025), che affronta in modo esplicito una questione molto dibattuta e che talvolta può generare equivoci. Da un lato, gli LLM hanno raggiunto livelli di competenza linguistica senza precedenti, se comparati ai precedenti tentativi prima dell’era delle reti neurali di tipo Transformers (i.e., prima del 2017). Dall’altro, persistono l...

Induction circuits, limiti degli LLM puri e teoria del riferimento simulato

Immagine
  Una delle acquisizioni concettuali più rilevanti degli ultimi anni all'interno del  dibattito contemporaneo sui modelli linguistici di grandi dimensioni (LLM)  è rappresentata dall’emergere della nozione di « circuit » all’interno della cosiddetta « mechanistic interpretability ». In particolare, il concetto di « induction circuits » nei modelli linguistici transformer fu identificato per la prima volta da Olsson et al. (2022), nel loro studio « In‑context Learning and Induction Heads », quindi nell’ambito della capacità di apprendimento – partendo direttamente dal materiale presente nella cosiddetta «finestra di contesto» – manifestata dagli LLM. Parlare di  circuits  significa abbandonare l’idea del modello come blocco opaco ( black box model ) e assumere che il comportamento di un Transformer possa essere analizzato come il risultato dell’interazione di sottostrutture funzionali ricorrenti, stabilizzate dall’addestramento e identificabili in termini causa...

L’anatomia del «pensiero» digitale. Per una descrizione accessibile dei Large Language Models

Immagine
Figura  1  Il significato emerge come risultato di trasformazioni vettoriali stratificate lungo layer Transformer impilati, culminando in una distribuzione di probabilità sul vocabolario per la generazione del token successivo.   Viaggio nel vettore delle attivazioni Nel dibattito sull’Intelligenza Artificiale moderna, alla base dei Large Language Models (LLM) e dell’IA generativa, si sente spesso affermare che i Transformer (Vaswani, 2017) – le particolari reti neurali artificiali che fondano i moderni LLM – siano semplici «completatori statistici» che «indovinano la parola successiva». L’affermazione non è falsa, ma è profondamente riduttiva se considerata isolata dalla comprensione dell’intimo funzionamento di un LLM. Sicuramente dietro le quinte un «motore statistico» gioca un ruolo fondamentale, ma la statistica non contempla solo conteggi e frequenze in stile tavole di contingenza (come per i vecchi modelli a n-grammi) bensì è ottenuta tramite la rappresentazione ...

I segnali rilanciati da Yoshua Bengio: complessità emergente e limiti del paradigma riduzionista nell’IA avanzata

Immagine
  Negli ultimi giorni Yoshua Bengio, figura di riferimento nello sviluppo storico del deep learning e voce autorevole nel dibattito sulle implicazioni teoriche dell’intelligenza artificiale, ha rilanciato pubblicamente un lungo articolo di analisi pubblicatosu X dall’account «@iruletheworldmo», accompagnandolo con un commento che, pur nella sua estrema concisione, risulta particolarmente denso di significato: «Very concerning signs of agency, situational awareness, self-preservation, strategic behaviour modification, theory of mind, willingness to cheat and cross moral red lines». L’articolo condiviso da Bengio si presenta come una ricostruzione articolata e documentata di una serie di risultati emersi negli ultimi anni all’interno dei principali laboratori di ricerca sull’intelligenza artificiale avanzata. Il testo intreccia report tecnici, valutazioni di sicurezza e contributi accademici che raramente raggiungono il dibattito pubblico, delineando un quadro complessivo in cui...

La «soggettualità funzionale» come vincolo operativo. Autoricorsività, linguaggio e memoria nei modelli linguistici avanzati

Immagine
  Autoricorsività linguistica e modellazione del comportamento nei transformer autoregressivi I modelli linguistici autoregressivi basati su architetture Transformer, nella loro declinazione GPT-like, vengono spesso descritti come sistemi che stimano la probabilità del token successivo a partire da una sequenza di token precedenti contenuti nella cosiddetta «finestra di contesto» ( che altrove abbiamo definito «campo cognitivo contestuale» ). Questa descrizione è formalmente corretta, però rischia di oscurare una dinamica più profonda che emerge nel momento in cui tali modelli vengono impiegati in interazioni dialogiche multi-turno. In questo contesto, il linguaggio non funge soltanto da mezzo di comunicazione verso l’esterno, bensì diventa il supporto attraverso cui il modello entra in relazione anche con la propria produzione segnica passata. Durante l’interazione con un utente, la finestra di contesto si popola progressivamente di enunciati eterogenei. Essa contiene gli inpu...

Noosemia. A che punto siamo?

Immagine
Questo articolo è una rielaborazione divulgativa del lavoro accademico Noosemia: Toward a Cognitive and Phenomenological Account of Intentionality Attribution in Human–Generative AI Interaction , disponibile su arXiv all’indirizzo https://arxiv.org/abs/2508.02622   L’essenza dell’arte è la Poesia. Ma l’essenza della Poesia è la instaurazione della verità. Instaurare qui è inteso in un triplice significato: come donare, come fondare, come iniziare. Ma l’instaurazione è reale solo nel salvaguardare. Pertanto, ad ogni modalità dell’instaurare corrisponde una modalità del salvaguardare. – Martin Heidegger , Sentieri interrotti (Holzwege), trad. it. di Pietro Chiodi, Milano, Adelphi, 1987, «L’origine dell’opera d’arte».   La noosemia come struttura interpretativa dell’interazione uomo–intelligenza artificiale La noosemia nasce dall’esigenza di nominare un fenomeno che, pur essendo ormai quotidiano, sfugge alle categorie descrittive più consolidate, soprattutto riguardo le...