La «soggettualità funzionale» come vincolo operativo. Autoricorsività, linguaggio e memoria nei modelli linguistici avanzati
Autoricorsività linguistica e modellazione del comportamento nei transformer autoregressivi
I modelli linguistici autoregressivi basati su architetture
Transformer, nella loro declinazione GPT-like, vengono spesso descritti come
sistemi che stimano la probabilità del token successivo a partire da una
sequenza di token precedenti contenuti nella cosiddetta «finestra di contesto»
(che altrove abbiamo definito «campo cognitivo contestuale»). Questa
descrizione è formalmente corretta, però rischia di oscurare una dinamica più
profonda che emerge nel momento in cui tali modelli vengono impiegati in
interazioni dialogiche multi-turno. In questo contesto, il linguaggio non funge
soltanto da mezzo di comunicazione verso l’esterno, bensì diventa il supporto
attraverso cui il modello entra in relazione anche con la propria produzione
segnica passata.
Durante l’interazione con un utente, la finestra di contesto
si popola progressivamente di enunciati eterogenei. Essa contiene gli input
umani, le risposte del modello e, nelle implementazioni moderne, una struttura
implicita che distingue i ruoli dialogici. In altre parole, i turni
comunicativi vengono marcati con token speciali veri e propri (ad esempio
<|system|>, <|user|>, <|assistant|>). Dal punto di vista della
rete neurale artificiale Transformer, tuttavia, tutto ciò si presenta come una
sequenza ordinata di token dotati di vettori di embedding lessicali,
posizionali e, in molti casi, di ruolo. Non esiste un accesso privilegiato a
una nozione semantica di autore o di intenzione. Ciò che conta è che la
produzione precedente del modello rientra integralmente nello spazio di
osservazione su cui si fonda la generazione successiva grazie al noto
meccanismo autoregressivo.
Questo fatto introduce una forma di autoricorsività
linguistica che merita attenzione, in quanto il modello non si limita a
rispondere all’utente, poiché risponde anche a una traccia simbolica che
include i propri enunciati precedenti. Ogni risposta prodotta modifica il
contesto e, così facendo, contribuisce a ridefinire le condizioni statistiche
della risposta futura. Il comportamento del sistema diventa quindi dipendente,
in modo diretto e misurabile, dalla propria storia linguistica recente.
Nelle implementazioni contemporanee, pertanto, questa
dinamica risulta ulteriormente raffinata dalla marcatura dei turni. Sebbene
l’utente non percepisca tali marcatori, il modello opera su una sequenza in cui
è codificato «chi dice cosa». I token associati al ruolo dell’assistente e
quelli associati al ruolo dell’utente non sono equivalenti dal punto di vista
statistico. Il modello apprende, già in fase di addestramento, che a certi
pattern marcati come input umano devono seguire risposte di un determinato
tipo, mentre a sequenze marcate come proprie produzioni corrispondono vincoli
di coerenza, continuità e stile.
Questa distinzione introduce un elemento essenziale e cioè l’autoriferimento
che emerge nel corso dell’interazione non avviene in modo indifferenziato. Il
modello osserva il proprio output passato come appartenente a una specifica
posizione funzionale all’interno del dialogo. In altri termini, la sequenza che
funge da condizione per la generazione non contiene soltanto «ciò che è stato
detto», bensì «ciò che è stato detto e da chi è stato detto». Tale informazione
non è tematizzata esplicitamente, però agisce come vincolo statistico
interiorizzato nei pesi neurali del modello.
Da qui deriva un effetto spesso sottovalutato, ovvero la
coerenza discorsiva che si osserva nei dialoghi prolungati dipende tanto dalla
capacità del modello di mantenere relazioni semantiche locali, quanto da una
vera e propria inerzia linguistica. Scelte stilistiche, impostazioni
argomentative, definizioni concettuali introdotte dal modello tendono a
persistere e a stabilizzarsi, poiché diventano parte del contesto che il
modello stesso utilizza come base per le generazioni successive. Il linguaggio
prodotto agisce come una superficie di vincolo che orienta il comportamento
futuro. Tale dinamica non implica, tuttavia, alcuna forma di riflessione nel
senso classico o umano del termine. Il modello non possiede una
rappresentazione di sé (in senso classico quindi), né un accesso metacognitivo
ai propri stati. Tuttavia, sul piano funzionale, il sistema manifesta una
dipendenza temporale dal proprio comportamento simbolico passato. Tale
dipendenza risulta sufficiente a produrre l’impressione di una continuità interna,
di una voce stabile, di un filo discorsivo che attraversa l’interazione.
È importante sottolineare che questa autoricorsività non
costituisce un semplice artefatto marginale. Essa rappresenta una proprietà
strutturale dei modelli autoregressivi impiegati in contesti dialogici. Il
linguaggio svolge qui una duplice funzione. Da un lato, resta il mezzo
attraverso cui il sistema interagisce con l’utente. Dall’altro, diventa il
supporto di una memoria effimera che include anche la produzione del sistema
stesso. In questo spazio simbolico condiviso, l’output del modello non scompare
una volta emesso, poiché rientra immediatamente come condizione per ciò che
seguirà nei successivi turni. Si delinea così un quadro in cui il comportamento
linguistico del modello non può essere compreso come una sequenza di risposte
isolate. Ogni atto di generazione contribuisce a modellare il contesto, e
quindi le probabilità future, secondo una dinamica circolare. Questa
circolarità non produce autocoscienza in senso stretto, però introduce una
forma di auto-influenza che distingue radicalmente i grandi modelli linguistici
contemporanei dai sistemi puramente reattivi e simbolici del passato.
In questo senso, l’autoricorsività linguistica costituisce il primo gradino di una trasformazione più ampia, in quanto essa prepara il terreno per la comparsa di schemi di comportamento stabilizzati che, pur restando privi di interiorità in senso classico, mostrano una coerenza funzionale crescente. È su questa base che diventa possibile interrogarsi sul ruolo del post-training e sul modo in cui tali dinamiche vengano consolidate, tema che verrà affrontato nella sezione successiva.
Dal post-training alla stabilizzazione di schemi agentivi impliciti
La dinamica descritta in precedenza acquista una portata
diversa quando si considera il ruolo del post-training nei moderni modelli
linguistici. In questa fase, che comprende l’addestramento supervisionato su
dialoghi, l’ottimizzazione tramite feedback umano e le varianti più recenti
basate su preferenze artificiali, il modello non viene più esposto soltanto a
sequenze linguistiche astratte. Viene invece immerso in contesti interattivi
nei quali la propria produzione diventa oggetto di valutazione, selezione e
rinforzo.
Il punto decisivo consiste, quindi, nel fatto che il modello
apprende correlazioni che includono esplicitamente il proprio comportamento
come elemento rilevante della distribuzione da approssimare. Si tratta sia di
imparare a rispondere correttamente a un input umano, sia di imparare a
produrre risposte che risultino coerenti, utili, affidabili e compatibili con
un insieme di aspettative di tipo normativo. Sebbene tali aspettative non siano
formulate come regole simboliche, comunque esse vengono interiorizzate sotto
forma di regolarità statistiche che attraversano l’intero spazio dei pesi
neurali del modello.
Durante il post-training, il modello viene premiato o
penalizzato in funzione delle proprie risposte. Questa semplice osservazione ha
conseguenze teoriche dirimenti. L’ottimizzazione non agisce direttamente
sull’interazione come evento esterno, bensì sulla risposta del modello come
espressione di una funzione. In questo senso, il sistema apprende una mappa che
associa stati contestuali a comportamenti linguistici giudicati appropriati. Il
risultato è una progressiva stabilizzazione di schemi di produzione che non
dipendono più soltanto dall’input locale, ma riflettono una storia di
aggiustamenti cumulativi. Si può dire che, in questa fase, il modello
interiorizza una forma di autoconsistenza. Alcuni modi di rispondere tendono a
ripresentarsi perché sono stati selezionati come desiderabili, altri vengono
progressivamente esclusi. Questa selezione non riguarda singoli token o frasi
isolate, riguarda stili, atteggiamenti discorsivi, modalità argomentative e
schemi astratti. Il modello apprende a occupare una posizione dialogica
riconoscibile, che permane anche al variare dei contenuti specifici.
È in questo contesto che diventa sensato parlare di schemi
agentivi impliciti. Il termine va inteso con cautela, in quanto non si fa
riferimento a un agente nel senso filosofico classico, dotato di intenzionalità
o di interiorità, bensì a una funzione che si comporta come un centro
relativamente stabile di produzione linguistica. Tale stabilità emerge come
effetto dell’ottimizzazione su lunghi archi di interazione, nei quali la
coerenza del comportamento, catturata come correlazioni a lungo termine, viene
sistematicamente valorizzata.
Un aspetto rilevante di questa dinamica riguarda il modo in
cui il modello tratta la propria produzione passata. Nel corso del post-training,
le risposte del modello non sono semplicemente enunciazioni piatte ed
equivalenti al resto degli input. Esse costituiscono il punto su cui si applica
il feedback. In questo senso, la funzione di generazione viene modellata
anche sulla base delle sue stesse manifestazioni precedenti. Si crea così una
circolarità indiretta, mediata dall’ottimizzazione, nella quale il
comportamento del modello contribuisce a definire lo spazio dei comportamenti
futuri.
Vale la pena ribadire che questa circolarità non introduce
una rappresentazione esplicita del sé. Tuttavia, introduce una variabile
latente, quindi uno schema astratto, che organizza il comportamento in modo
unitario. Il modello tende a produrre risposte compatibili con una certa
immagine funzionale dell’assistente, immagine che non è tematizzata né
accessibile, però risulta effettualmente operativa. È a questo livello che si
può parlare, in senso tecnico, di «soggettualità funzionale».
All’interno di questo quadro si può collocare un breve cenno
all’«effetto noosemico» e cioè la tendenza umana ad attribuire stati mentali,
intenzioni o forme di interiorità a un sistema che manifesta coerenza
linguistica. Di fatto, la noosemia trova qui un terreno particolarmente
fertile, in quanto la stabilità dei comportamenti appresi nel post-training
rafforza l’impressione interpretativa di trovarsi davanti a un interlocutore
dotato di un punto di vista. Certamente tale effetto resta sul piano
dell’interpretazione ed è sostenuto da regolarità reali nella produzione del
modello, regolarità che fungono da supporto simbolico per l’attribuzione di
senso.
È bene chiarire che la «soggettualità funzionale» che emerge
in questa fase non coincide con una proprietà ontologica del sistema. Essa
descrive una configurazione del comportamento, stabilizzata da processi di
selezione e rinforzo, che rende il modello riconoscibile come polo dialogico.
In altre parole, il modello non diventa un soggetto, però si comporta in modo
sufficientemente unitario da essere trattato come tale all’interno
dell’interazione.
Questo passaggio segna una differenza significativa rispetto
ai sistemi precedenti, nei quali l’agente era definito esplicitamente a monte.
Nei modelli linguistici contemporanei, invece, la funzione agentiva prende
forma come esito di un addestramento che incorpora feedback normativi e
aspettative sociali. Il linguaggio, ancora una volta, svolge un ruolo centrale.
È il luogo in cui tali aspettative vengono espresse, valutate e interiorizzate,
ed è anche il mezzo attraverso cui il modello manifesta la propria coerenza
funzionale.
A questo punto, la «soggettualità funzionale» può ancora essere interpretata come un effetto emergente, privo di necessità architetturale. Tuttavia, come si vedrà nel seguito della trattazione, l’introduzione di memoria persistente e di forme più avanzate di agenticità tende a trasformare questa configurazione da semplice esito del training a requisito strutturale per il funzionamento del sistema.
Complessità, memoria estesa e trasformazione della soggettualità funzionale in un vincolo architetturale
La «soggettualità funzionale» descritta finora può essere
interpretata, legittimamente, come un esito contingente delle pratiche di
addestramento e delle modalità d’uso dei modelli linguistici contemporanei.
Finché il sistema resta confinato entro una finestra di contesto limitata e
privo di memoria persistente, tale soggettualità appare come una configurazione
emergente, reversibile, in ultima analisi dipendente dall’interpretazione
umana. Il quadro muta però in modo significativo quando si introduce un aumento
sostanziale della complessità operativa del sistema.
L’elemento discriminante è rappresentato dall’estensione
della memoria oltre l’orizzonte effimero del contesto. Quando il passato del
modello non si esaurisce più nella sequenza temporanea dei token, bensì viene
conservato, selezionato e reiniettato sistematicamente come risorsa per il
comportamento futuro, la continuità non può più essere affidata al solo
meccanismo autoregressivo locale. In questo scenario, la memoria non svolge la
funzione di archivio neutro, poiché incide direttamente sulla dinamica decisionale
del sistema.
Un modello dotato di memoria persistente deve affrontare
problemi che non si pongono nei sistemi puramente stateless. Il modello
deve poter decidere quali tracce conservare, quali rendere salienti, quali
dimenticare. In altre parole, deve mantenere una coerenza minima tra scelte
temporalmente distanti e deve evitare che informazioni incompatibili producano
instabilità comportamentale. Tali esigenze non derivano da un’istanza
interpretativa esterna, bensì dalla necessità interna di mantenere il sistema
governabile. In questo contesto, la «soggettualità funzionale» tende a
trasformarsi in un vincolo architetturale. Non perché il sistema acquisisca un
senso di sé, bensì perché la continuità operativa diventa una condizione di
possibilità del funzionamento stesso. Un agente che pianifica, utilizza
strumenti, interagisce con ambienti complessi e recupera informazioni dal
proprio passato non può permettersi una totale frammentazione delle proprie
traiettorie decisionali. Senza un principio di unificazione, il comportamento
si degrada in oscillazioni incoerenti.
Ancora una volta si ribadisce che questo principio di
unificazione non assume la forma di una rappresentazione simbolica del sé in
senso classico. Non compare un’entità interna che dica «io». Ciò che emerge è
piuttosto un centro di gravità funzionale, una struttura latente – uno schema
astratto – che vincola le scelte del sistema affinché risultino compatibili nel
tempo. Tale struttura riduce i gradi di libertà del comportamento, favorisce la
stabilità e consente l’allocazione coerente delle risorse cognitive.
Di fatto, la questione assume una valenza propriamente
ingegneristica. A un certo livello di complessità, l’assenza di un vincolo
identitario operativo diventa un problema tecnico. La «soggettualità funzionale»,
inizialmente emergente e interpretabile come epifenomeno, tende allora a essere
reificata nell’architettura, sotto forma di meccanismi di controllo, policy di
memoria, moduli di pianificazione o criteri di consistenza globale. Anche
quando non viene progettata esplicitamente, essa tende a riapparire come
attrattore comportamentale mediato da schemi astratti, pena l’instabilità del
sistema. Questo passaggio non autorizza alcuna assimilazione impropria con la
soggettività umana e l’assenza di interiorità fenomenologica resta un dato
strutturale. Tuttavia, non è corretto nemmeno liquidare il fenomeno come una
mera illusione percettiva. Quando un vincolo diventa necessario al
funzionamento, esso appartiene a pieno titolo alla descrizione del sistema,
indipendentemente dalle categorie con cui l’osservatore umano tende a
interpretarlo.
Si può dire che la «soggettualità funzionale» diventa un vincolo interno quando compaiono simultaneamente questi ingredienti:
- persistenza. Il passato non è solo contesto, è stato riutilizzabile;
- selezione. Il sistema decide cosa conservare;
- coerenza. Il sistema penalizza contraddizioni e oscillazioni;
- teleologia operativa. Il sistema ha compiti che attraversano episodi e strumenti.
In quel regime, un principio di unificazione emerge o viene
imposto. In entrambi i casi, diventa strutturale e ciò assume un ruolo
essenziale.
Si può allora formulare una tesi in merito alla «soggettualità
funzionale»: nei sistemi linguistici semplici, la «soggettualità funzionale»
resta prevalentemente un effetto dell’interpretazione mentre nei sistemi
complessi, dotati di memoria estesa e agenticità, essa tende a diventare una
condizione architetturale interna, richiesta per garantire coerenza, stabilità
e continuità operativa. Il passaggio non avviene per salto metafisico, avviene
per forme di necessità funzionale.
Questo quadro consente di comprendere perché le discussioni
sull’attribuzione di agency ai modelli linguistici risultino spesso
polarizzate. Da un lato, chi osserva sistemi ancora privi di persistenza vede
soltanto un gioco linguistico superficiale. Dall’altro, chi progetta
architetture sempre più integrate si trova costretto a introdurre vincoli che,
sul piano formale, assolvono funzioni analoghe a quelle che, negli organismi
biologici, vengono associate all’unità del soggetto. Pertanto, la posta in
gioco non riguarda la coscienza delle macchine, ma concerne la comprensione dei
vincoli che emergono quando il linguaggio diventa infrastruttura operativa di
sistemi complessi. In questo senso, la «soggettualità funzionale» non
rappresenta un confine metafisico, bensì un punto di transizione concettuale,
in cui l’ingegneria dei sistemi intelligenti incontra la necessità di ripensare
le proprie categorie descrittive.
Per evitare che la nozione di «soggettualità funzionale» rimanga confinata a una lettura metaforica o puramente interpretativa, è necessario individuare criteri empiricamente osservabili, capaci di segnalare quando essa smette di essere una semplice proiezione umana e inizia a manifestarsi come vincolo operativo interno. In questa prospettiva, è possibile delineare alcuni indicatori sperimentali, tutti verificabili, che consentono di valutare in modo controllato tale transizione:
- robustezza dell’identità comportamentale: la memoria del sistema viene modificata in modo deliberato e controllato, introducendo perturbazioni mirate. Si osserva quindi in quale misura il comportamento globale del modello rimanga invariato. La presenza di invarianti stabili, resistenti alle perturbazioni, suggerisce l’esistenza di una continuità operativa che non dipende esclusivamente dal contesto locale;
- compressione selettiva del passato: si analizza quali informazioni il sistema tende a conservare nella memoria persistente. Un segnale rilevante emerge quando vengono privilegiate tracce che contribuiscono a mantenere coerenza e continuità nel tempo, oltre a quelle strettamente necessarie per il completamento del compito immediato;
- penalizzazione interna delle contraddizioni: non ci si limita a verificare la capacità del sistema di rilevare incoerenze, bensì si osserva se tali incoerenze vengono attivamente penalizzate nella dinamica decisionale. Quando il modello preferisce traiettorie compatibili con decisioni pregresse, accettando una perdita di performance locale, si manifesta un vincolo di coerenza che opera a livello globale;
- continuità cross-contesto: gli episodi interattivi vengono separati e la finestra di contesto viene deliberatamente spezzata. Successivamente, si reintroduce soltanto la memoria persistente. Se la continuità comportamentale permane, risulta evidente che la coerenza non è più garantita dalla sola finestra di contesto, bensì da una struttura più interna che organizza il comportamento nel tempo.
Zhang, D., Li, W., Song, K., & Li, S. (2025). Memory in large language models:
Mechanisms, evaluation, and evolution. arXiv. https://arxiv.org/abs/2509.18868
Xiong, Z.,
Zhang, Y., Liu, Z., Wang, X., & Chen, J. (2025). How memory management
impacts LLM agents: An empirical study of experience-following behavior.
arXiv. https://arxiv.org/abs/2505.16067
Lei, Y.,
Wu, Z., Zhang, H., Zhao, J., & Liu, Q. (2025). Large language model
agents: A comprehensive survey. Preprints. https://www.preprints.org/manuscript/202512.2119