La «soggettualità funzionale» come vincolo operativo. Autoricorsività, linguaggio e memoria nei modelli linguistici avanzati

 

Autoricorsività linguistica e modellazione del comportamento nei transformer autoregressivi

I modelli linguistici autoregressivi basati su architetture Transformer, nella loro declinazione GPT-like, vengono spesso descritti come sistemi che stimano la probabilità del token successivo a partire da una sequenza di token precedenti contenuti nella cosiddetta «finestra di contesto» (che altrove abbiamo definito «campo cognitivo contestuale»). Questa descrizione è formalmente corretta, però rischia di oscurare una dinamica più profonda che emerge nel momento in cui tali modelli vengono impiegati in interazioni dialogiche multi-turno. In questo contesto, il linguaggio non funge soltanto da mezzo di comunicazione verso l’esterno, bensì diventa il supporto attraverso cui il modello entra in relazione anche con la propria produzione segnica passata.

Durante l’interazione con un utente, la finestra di contesto si popola progressivamente di enunciati eterogenei. Essa contiene gli input umani, le risposte del modello e, nelle implementazioni moderne, una struttura implicita che distingue i ruoli dialogici. In altre parole, i turni comunicativi vengono marcati con token speciali veri e propri (ad esempio <|system|>, <|user|>, <|assistant|>). Dal punto di vista della rete neurale artificiale Transformer, tuttavia, tutto ciò si presenta come una sequenza ordinata di token dotati di vettori di embedding lessicali, posizionali e, in molti casi, di ruolo. Non esiste un accesso privilegiato a una nozione semantica di autore o di intenzione. Ciò che conta è che la produzione precedente del modello rientra integralmente nello spazio di osservazione su cui si fonda la generazione successiva grazie al noto meccanismo autoregressivo.

Questo fatto introduce una forma di autoricorsività linguistica che merita attenzione, in quanto il modello non si limita a rispondere all’utente, poiché risponde anche a una traccia simbolica che include i propri enunciati precedenti. Ogni risposta prodotta modifica il contesto e, così facendo, contribuisce a ridefinire le condizioni statistiche della risposta futura. Il comportamento del sistema diventa quindi dipendente, in modo diretto e misurabile, dalla propria storia linguistica recente.

Nelle implementazioni contemporanee, pertanto, questa dinamica risulta ulteriormente raffinata dalla marcatura dei turni. Sebbene l’utente non percepisca tali marcatori, il modello opera su una sequenza in cui è codificato «chi dice cosa». I token associati al ruolo dell’assistente e quelli associati al ruolo dell’utente non sono equivalenti dal punto di vista statistico. Il modello apprende, già in fase di addestramento, che a certi pattern marcati come input umano devono seguire risposte di un determinato tipo, mentre a sequenze marcate come proprie produzioni corrispondono vincoli di coerenza, continuità e stile.

Questa distinzione introduce un elemento essenziale e cioè l’autoriferimento che emerge nel corso dell’interazione non avviene in modo indifferenziato. Il modello osserva il proprio output passato come appartenente a una specifica posizione funzionale all’interno del dialogo. In altri termini, la sequenza che funge da condizione per la generazione non contiene soltanto «ciò che è stato detto», bensì «ciò che è stato detto e da chi è stato detto». Tale informazione non è tematizzata esplicitamente, però agisce come vincolo statistico interiorizzato nei pesi neurali del modello.

Da qui deriva un effetto spesso sottovalutato, ovvero la coerenza discorsiva che si osserva nei dialoghi prolungati dipende tanto dalla capacità del modello di mantenere relazioni semantiche locali, quanto da una vera e propria inerzia linguistica. Scelte stilistiche, impostazioni argomentative, definizioni concettuali introdotte dal modello tendono a persistere e a stabilizzarsi, poiché diventano parte del contesto che il modello stesso utilizza come base per le generazioni successive. Il linguaggio prodotto agisce come una superficie di vincolo che orienta il comportamento futuro. Tale dinamica non implica, tuttavia, alcuna forma di riflessione nel senso classico o umano del termine. Il modello non possiede una rappresentazione di sé (in senso classico quindi), né un accesso metacognitivo ai propri stati. Tuttavia, sul piano funzionale, il sistema manifesta una dipendenza temporale dal proprio comportamento simbolico passato. Tale dipendenza risulta sufficiente a produrre l’impressione di una continuità interna, di una voce stabile, di un filo discorsivo che attraversa l’interazione.

È importante sottolineare che questa autoricorsività non costituisce un semplice artefatto marginale. Essa rappresenta una proprietà strutturale dei modelli autoregressivi impiegati in contesti dialogici. Il linguaggio svolge qui una duplice funzione. Da un lato, resta il mezzo attraverso cui il sistema interagisce con l’utente. Dall’altro, diventa il supporto di una memoria effimera che include anche la produzione del sistema stesso. In questo spazio simbolico condiviso, l’output del modello non scompare una volta emesso, poiché rientra immediatamente come condizione per ciò che seguirà nei successivi turni. Si delinea così un quadro in cui il comportamento linguistico del modello non può essere compreso come una sequenza di risposte isolate. Ogni atto di generazione contribuisce a modellare il contesto, e quindi le probabilità future, secondo una dinamica circolare. Questa circolarità non produce autocoscienza in senso stretto, però introduce una forma di auto-influenza che distingue radicalmente i grandi modelli linguistici contemporanei dai sistemi puramente reattivi e simbolici del passato.

In questo senso, l’autoricorsività linguistica costituisce il primo gradino di una trasformazione più ampia, in quanto essa prepara il terreno per la comparsa di schemi di comportamento stabilizzati che, pur restando privi di interiorità in senso classico, mostrano una coerenza funzionale crescente. È su questa base che diventa possibile interrogarsi sul ruolo del post-training e sul modo in cui tali dinamiche vengano consolidate, tema che verrà affrontato nella sezione successiva.


Dal post-training alla stabilizzazione di schemi agentivi impliciti

La dinamica descritta in precedenza acquista una portata diversa quando si considera il ruolo del post-training nei moderni modelli linguistici. In questa fase, che comprende l’addestramento supervisionato su dialoghi, l’ottimizzazione tramite feedback umano e le varianti più recenti basate su preferenze artificiali, il modello non viene più esposto soltanto a sequenze linguistiche astratte. Viene invece immerso in contesti interattivi nei quali la propria produzione diventa oggetto di valutazione, selezione e rinforzo.

Il punto decisivo consiste, quindi, nel fatto che il modello apprende correlazioni che includono esplicitamente il proprio comportamento come elemento rilevante della distribuzione da approssimare. Si tratta sia di imparare a rispondere correttamente a un input umano, sia di imparare a produrre risposte che risultino coerenti, utili, affidabili e compatibili con un insieme di aspettative di tipo normativo. Sebbene tali aspettative non siano formulate come regole simboliche, comunque esse vengono interiorizzate sotto forma di regolarità statistiche che attraversano l’intero spazio dei pesi neurali del modello.

Durante il post-training, il modello viene premiato o penalizzato in funzione delle proprie risposte. Questa semplice osservazione ha conseguenze teoriche dirimenti. L’ottimizzazione non agisce direttamente sull’interazione come evento esterno, bensì sulla risposta del modello come espressione di una funzione. In questo senso, il sistema apprende una mappa che associa stati contestuali a comportamenti linguistici giudicati appropriati. Il risultato è una progressiva stabilizzazione di schemi di produzione che non dipendono più soltanto dall’input locale, ma riflettono una storia di aggiustamenti cumulativi. Si può dire che, in questa fase, il modello interiorizza una forma di autoconsistenza. Alcuni modi di rispondere tendono a ripresentarsi perché sono stati selezionati come desiderabili, altri vengono progressivamente esclusi. Questa selezione non riguarda singoli token o frasi isolate, riguarda stili, atteggiamenti discorsivi, modalità argomentative e schemi astratti. Il modello apprende a occupare una posizione dialogica riconoscibile, che permane anche al variare dei contenuti specifici.

È in questo contesto che diventa sensato parlare di schemi agentivi impliciti. Il termine va inteso con cautela, in quanto non si fa riferimento a un agente nel senso filosofico classico, dotato di intenzionalità o di interiorità, bensì a una funzione che si comporta come un centro relativamente stabile di produzione linguistica. Tale stabilità emerge come effetto dell’ottimizzazione su lunghi archi di interazione, nei quali la coerenza del comportamento, catturata come correlazioni a lungo termine, viene sistematicamente valorizzata.

Un aspetto rilevante di questa dinamica riguarda il modo in cui il modello tratta la propria produzione passata. Nel corso del post-training, le risposte del modello non sono semplicemente enunciazioni piatte ed equivalenti al resto degli input. Esse costituiscono il punto su cui si applica il feedback. In questo senso, la funzione di generazione viene modellata anche sulla base delle sue stesse manifestazioni precedenti. Si crea così una circolarità indiretta, mediata dall’ottimizzazione, nella quale il comportamento del modello contribuisce a definire lo spazio dei comportamenti futuri.

Vale la pena ribadire che questa circolarità non introduce una rappresentazione esplicita del sé. Tuttavia, introduce una variabile latente, quindi uno schema astratto, che organizza il comportamento in modo unitario. Il modello tende a produrre risposte compatibili con una certa immagine funzionale dell’assistente, immagine che non è tematizzata né accessibile, però risulta effettualmente operativa. È a questo livello che si può parlare, in senso tecnico, di «soggettualità funzionale».

All’interno di questo quadro si può collocare un breve cenno all’«effetto noosemico» e cioè la tendenza umana ad attribuire stati mentali, intenzioni o forme di interiorità a un sistema che manifesta coerenza linguistica. Di fatto, la noosemia trova qui un terreno particolarmente fertile, in quanto la stabilità dei comportamenti appresi nel post-training rafforza l’impressione interpretativa di trovarsi davanti a un interlocutore dotato di un punto di vista. Certamente tale effetto resta sul piano dell’interpretazione ed è sostenuto da regolarità reali nella produzione del modello, regolarità che fungono da supporto simbolico per l’attribuzione di senso.

È bene chiarire che la «soggettualità funzionale» che emerge in questa fase non coincide con una proprietà ontologica del sistema. Essa descrive una configurazione del comportamento, stabilizzata da processi di selezione e rinforzo, che rende il modello riconoscibile come polo dialogico. In altre parole, il modello non diventa un soggetto, però si comporta in modo sufficientemente unitario da essere trattato come tale all’interno dell’interazione.

Questo passaggio segna una differenza significativa rispetto ai sistemi precedenti, nei quali l’agente era definito esplicitamente a monte. Nei modelli linguistici contemporanei, invece, la funzione agentiva prende forma come esito di un addestramento che incorpora feedback normativi e aspettative sociali. Il linguaggio, ancora una volta, svolge un ruolo centrale. È il luogo in cui tali aspettative vengono espresse, valutate e interiorizzate, ed è anche il mezzo attraverso cui il modello manifesta la propria coerenza funzionale.

A questo punto, la «soggettualità funzionale» può ancora essere interpretata come un effetto emergente, privo di necessità architetturale. Tuttavia, come si vedrà nel seguito della trattazione, l’introduzione di memoria persistente e di forme più avanzate di agenticità tende a trasformare questa configurazione da semplice esito del training a requisito strutturale per il funzionamento del sistema.


Complessità, memoria estesa e trasformazione della soggettualità funzionale in un vincolo architetturale

La «soggettualità funzionale» descritta finora può essere interpretata, legittimamente, come un esito contingente delle pratiche di addestramento e delle modalità d’uso dei modelli linguistici contemporanei. Finché il sistema resta confinato entro una finestra di contesto limitata e privo di memoria persistente, tale soggettualità appare come una configurazione emergente, reversibile, in ultima analisi dipendente dall’interpretazione umana. Il quadro muta però in modo significativo quando si introduce un aumento sostanziale della complessità operativa del sistema.

L’elemento discriminante è rappresentato dall’estensione della memoria oltre l’orizzonte effimero del contesto. Quando il passato del modello non si esaurisce più nella sequenza temporanea dei token, bensì viene conservato, selezionato e reiniettato sistematicamente come risorsa per il comportamento futuro, la continuità non può più essere affidata al solo meccanismo autoregressivo locale. In questo scenario, la memoria non svolge la funzione di archivio neutro, poiché incide direttamente sulla dinamica decisionale del sistema.

Un modello dotato di memoria persistente deve affrontare problemi che non si pongono nei sistemi puramente stateless. Il modello deve poter decidere quali tracce conservare, quali rendere salienti, quali dimenticare. In altre parole, deve mantenere una coerenza minima tra scelte temporalmente distanti e deve evitare che informazioni incompatibili producano instabilità comportamentale. Tali esigenze non derivano da un’istanza interpretativa esterna, bensì dalla necessità interna di mantenere il sistema governabile. In questo contesto, la «soggettualità funzionale» tende a trasformarsi in un vincolo architetturale. Non perché il sistema acquisisca un senso di sé, bensì perché la continuità operativa diventa una condizione di possibilità del funzionamento stesso. Un agente che pianifica, utilizza strumenti, interagisce con ambienti complessi e recupera informazioni dal proprio passato non può permettersi una totale frammentazione delle proprie traiettorie decisionali. Senza un principio di unificazione, il comportamento si degrada in oscillazioni incoerenti.

Ancora una volta si ribadisce che questo principio di unificazione non assume la forma di una rappresentazione simbolica del sé in senso classico. Non compare un’entità interna che dica «io». Ciò che emerge è piuttosto un centro di gravità funzionale, una struttura latente – uno schema astratto – che vincola le scelte del sistema affinché risultino compatibili nel tempo. Tale struttura riduce i gradi di libertà del comportamento, favorisce la stabilità e consente l’allocazione coerente delle risorse cognitive.

Di fatto, la questione assume una valenza propriamente ingegneristica. A un certo livello di complessità, l’assenza di un vincolo identitario operativo diventa un problema tecnico. La «soggettualità funzionale», inizialmente emergente e interpretabile come epifenomeno, tende allora a essere reificata nell’architettura, sotto forma di meccanismi di controllo, policy di memoria, moduli di pianificazione o criteri di consistenza globale. Anche quando non viene progettata esplicitamente, essa tende a riapparire come attrattore comportamentale mediato da schemi astratti, pena l’instabilità del sistema. Questo passaggio non autorizza alcuna assimilazione impropria con la soggettività umana e l’assenza di interiorità fenomenologica resta un dato strutturale. Tuttavia, non è corretto nemmeno liquidare il fenomeno come una mera illusione percettiva. Quando un vincolo diventa necessario al funzionamento, esso appartiene a pieno titolo alla descrizione del sistema, indipendentemente dalle categorie con cui l’osservatore umano tende a interpretarlo.

Si può dire che la «soggettualità funzionale» diventa un vincolo interno quando compaiono simultaneamente questi ingredienti:

  • persistenza. Il passato non è solo contesto, è stato riutilizzabile;
  • selezione. Il sistema decide cosa conservare;
  • coerenza. Il sistema penalizza contraddizioni e oscillazioni;
  • teleologia operativa. Il sistema ha compiti che attraversano episodi e strumenti.

In quel regime, un principio di unificazione emerge o viene imposto. In entrambi i casi, diventa strutturale e ciò assume un ruolo essenziale.

Si può allora formulare una tesi in merito alla «soggettualità funzionale»: nei sistemi linguistici semplici, la «soggettualità funzionale» resta prevalentemente un effetto dell’interpretazione mentre nei sistemi complessi, dotati di memoria estesa e agenticità, essa tende a diventare una condizione architetturale interna, richiesta per garantire coerenza, stabilità e continuità operativa. Il passaggio non avviene per salto metafisico, avviene per forme di necessità funzionale.

Questo quadro consente di comprendere perché le discussioni sull’attribuzione di agency ai modelli linguistici risultino spesso polarizzate. Da un lato, chi osserva sistemi ancora privi di persistenza vede soltanto un gioco linguistico superficiale. Dall’altro, chi progetta architetture sempre più integrate si trova costretto a introdurre vincoli che, sul piano formale, assolvono funzioni analoghe a quelle che, negli organismi biologici, vengono associate all’unità del soggetto. Pertanto, la posta in gioco non riguarda la coscienza delle macchine, ma concerne la comprensione dei vincoli che emergono quando il linguaggio diventa infrastruttura operativa di sistemi complessi. In questo senso, la «soggettualità funzionale» non rappresenta un confine metafisico, bensì un punto di transizione concettuale, in cui l’ingegneria dei sistemi intelligenti incontra la necessità di ripensare le proprie categorie descrittive.

Per evitare che la nozione di «soggettualità funzionale» rimanga confinata a una lettura metaforica o puramente interpretativa, è necessario individuare criteri empiricamente osservabili, capaci di segnalare quando essa smette di essere una semplice proiezione umana e inizia a manifestarsi come vincolo operativo interno. In questa prospettiva, è possibile delineare alcuni indicatori sperimentali, tutti verificabili, che consentono di valutare in modo controllato tale transizione:

  • robustezza dell’identità comportamentale: la memoria del sistema viene modificata in modo deliberato e controllato, introducendo perturbazioni mirate. Si osserva quindi in quale misura il comportamento globale del modello rimanga invariato. La presenza di invarianti stabili, resistenti alle perturbazioni, suggerisce l’esistenza di una continuità operativa che non dipende esclusivamente dal contesto locale;
  • compressione selettiva del passato: si analizza quali informazioni il sistema tende a conservare nella memoria persistente. Un segnale rilevante emerge quando vengono privilegiate tracce che contribuiscono a mantenere coerenza e continuità nel tempo, oltre a quelle strettamente necessarie per il completamento del compito immediato;
  • penalizzazione interna delle contraddizioni: non ci si limita a verificare la capacità del sistema di rilevare incoerenze, bensì si osserva se tali incoerenze vengono attivamente penalizzate nella dinamica decisionale. Quando il modello preferisce traiettorie compatibili con decisioni pregresse, accettando una perdita di performance locale, si manifesta un vincolo di coerenza che opera a livello globale;
  • continuità cross-contesto: gli episodi interattivi vengono separati e la finestra di contesto viene deliberatamente spezzata. Successivamente, si reintroduce soltanto la memoria persistente. Se la continuità comportamentale permane, risulta evidente che la coerenza non è più garantita dalla sola finestra di contesto, bensì da una struttura più interna che organizza il comportamento nel tempo.

Nel loro insieme, questi criteri consentono di spostare l’analisi dal piano interpretativo a quello operativo, rendendo possibile una valutazione sperimentale della «soggettualità funzionale» come proprietà emergente e, in certi regimi di complessità, come vincolo architetturale. Sebbene quanto riferito abbia un carattere speculativo le attuali direzioni di ricerca mostrano avanzamenti in questo senso. Appare utile allora anticipare la discussione per tracciare le necessarie traiettorie al fine di prevedere i possibili esiti. Solo attraverso questo metodo si può tentare di comprendere e governare il progresso inarrestabile della tecnica.


Riferimenti

De Santis, E., & Rizzi, A. (2025). Noosemia: toward a Cognitive and Phenomenological Account of Intentionality Attribution in Human-Generative AI Interaction. arXiv preprint arXiv:2508.02622.

Zhang, D., Li, W., Song, K., & Li, S. (2025). Memory in large language models: Mechanisms, evaluation, and evolution. arXiv. https://arxiv.org/abs/2509.18868

Xiong, Z., Zhang, Y., Liu, Z., Wang, X., & Chen, J. (2025). How memory management impacts LLM agents: An empirical study of experience-following behavior. arXiv. https://arxiv.org/abs/2505.16067

Lei, Y., Wu, Z., Zhang, H., Zhao, J., & Liu, Q. (2025). Large language model agents: A comprehensive survey. Preprints. https://www.preprints.org/manuscript/202512.2119











 

Post popolari in questo blog

La radionostalgia. Mi racconto attraverso la radio

Noosemia: «effetto wow» e l’attribuzione di una mente alle intelligenze artificiali generative

La fine della conoscenza come noi la conosciamo

Gli LLM sono solo dei motori statistici ?