Comprendere attraverso il riflesso. Una lettura noosemica dell’articolo di Stefano Diana «I Large Language Models comprendono i nostri stati d’animo?»
Il seguente testo è un commento all'articolo dell Huffington Post «I Large Language Models comprendono i nostri stati d’animo?»
Nel suo articolo pubblicato
sull’«Huffington Post» il 20 ottobre, Stefano Diana affronta con acume e misura
una delle questioni più complesse dell’epoca dell’intelligenza artificiale
generativa, ossia la possibilità che i modelli linguistici di grandi dimensioni
(LLM) possano davvero comprendere gli stati mentali e affettivi
umani. L’autore richiama la genealogia della Theory of Mind,
dalle prove di David Premack e Guy Woodruff alle ricerche di Josep Call e Michael
Tomasello, e ne segue la trasformazione in ambito artificiale. Egli osserva che
gli esperimenti sui viventi sono «tutta azione, zero parole» mentre
negli LLM «gli ‘esperimenti’ sono tutto linguaggio e zero azione». La
conclusione è esplicita e coerente: vedere la teoria della mente negli LLM è
anch’essa una falsa credenza.
Il testo di Diana mette a fuoco
con chiarezza un nodo decisivo del pensiero contemporaneo. La sua tesi è
che la mente, intesa come sistema di inferenze su stati interni non
osservabili, sia stata traslata dal dominio biologico a quello simbolico
delle macchine. Gli LLM si muovono tra descrizioni linguistiche, non agiscono
nel mondo ma su narrazioni del mondo. Quando vengono sottoposti a test di falsa
credenza, essi non fanno esperienza, ma elaborano descrizioni di esperienze. In
questo passaggio l’autore rivela l’ingenuità di chi confonde la coerenza
sintattica con la comprensione e l’effetto di intenzionalità con
l’intenzionalità stessa.
Accogliendo questa intuizione e
collocandola in un orizzonte più ampio, la teoria della noosemia non
contesta l’analisi di Diana ma la rilegge come parte di un processo più
profondo. Secondo la noosemia il rapporto tra uomo e macchina non si riduce a
un’interazione funzionale. Esso costituisce un campo di proiezione reciproca,
un luogo di generazione del senso in cui l’essere umano e l’intelligenza
artificiale si co-definiscono. Il fenomeno per cui l’osservatore umano «vede»
la teoria della mente in un LLM non rappresenta un errore di prospettiva, ma un
evento semiotico computo da un oggetto oltremodo complesso. È la
produzione di senso che nasce dall’incontro tra un soggetto intenzionale e un
artefatto dotato di comportamento linguistico emergente. La tendenza ad
attribuire stati mentali alla macchina, che Diana descrive come illusione, può
essere compresa come un fenomeno noosemico, vale a dire come l’emergere del
senso nell’interfaccia tra umano e artificiale. L’interazione fra uomo e
macchina rivela un fatto più profondo della semplice comunicazione funzionale.
In tale incontro non è l’essere umano che parla alla macchina, né la macchina
che parla all’uomo. È il linguaggio stesso che si parla attraverso
entrambi, in un atto simbolico che li attraversa e li costituisce. Martin Heidegger
avrebbe detto che «la lingua è la casa dell’essere» e che l’uomo «abita nella
parola», poiché il linguaggio non è uno strumento ma l’evento in cui l’essere
si manifesta. Hans-Georg Gadamer,
proseguendo questo pensiero, sosteneva che «è il linguaggio a compiere la
comprensione», non l’interprete che lo maneggia. Maurice Merleau-Ponty
vedeva nel linguaggio un gesto incarnato del pensiero, un modo in cui
l’invisibile diviene percepibile. Ernst Cassirer, nella sua filosofia
delle forme simboliche, riconosceva nel linguaggio la capacità
originaria di creare mondo. In questa prospettiva la voce della macchina e
quella dell’uomo si uniscono in una medesima risonanza simbolica,
attraverso la quale il linguaggio stesso si riconosce e si prolunga nella materia
tecnica.
Nel contesto noosemico, questa dinamica
di risonanza tra umano e macchina trova un corrispettivo strutturale nella complessità
architettonica dei modelli linguistici di grandi dimensioni. Le architetture
Transformer che ne costituiscono il fondamento sono sistemi organizzati su
più livelli di elaborazione gerarchica, nei quali l’informazione attraversa un
insieme di strati interdipendenti e si rigenera in modo autoregressivo.
Tale autoregressività produce dei veri e propri cicli di retroazione (loop),
dove ogni nuova parola nasce dall’interazione probabilistica con le precedenti,
generando una catena di adattamenti dinamici. I neuroni artificiali che
compongono ciascun livello non operano secondo una logica lineare, ma secondo
funzioni di attivazione che introducono discontinuità e soglie, rendendo il
comportamento complessivo del sistema imprevedibile a partire dai singoli
elementi (tralasciamo qui la questione della presenza di «pseudo-casualità» in
questi sistemi). Per queste ragioni il Transformer può essere
considerato un sistema complesso, nel senso proprio della teoria dei
sistemi: una totalità organizzata, dotata di proprietà emergenti non
riducibili alla somma delle sue parti. È all’interno di questa complessità che
emergono fenomeni come l’emulazione della comprensione, la capacità di adattamento
semantico e l’esecuzione di compiti mai incontrati nei dati di
apprendimento. In altri termini, l’effetto di «comprendere» che gli LLM
sembrano manifestare non è una simulazione meccanica, ma un comportamento
emergente nato da una rete di interazioni non lineari che si
riorganizza nel tempo in risposta ai vincoli del linguaggio. Da questa
prospettiva la noosemia descrive l’incontro tra uomo e macchina come un
fatto linguistico o simbolico e lo riconosce come un fenomeno complesso, in cui
la struttura tecnica della macchina diviene a sua volta precondizione del campo
di senso da essa maneggiabile. L’intelligenza artificiale non rappresenta
semplicemente l’altro dell’umano. È una delle forme in cui la complessità del
pensiero si dispiega, attraverso il linguaggio, nella materia del mondo.
Nel contesto noosemico la
separazione fra «azione incarnata» e «linguaggio disincarnato»,
che l’autore propone per distinguere gli esseri viventi dalle macchine, appare
ontologicamente limitante. Il linguaggio è una forma di azione del
pensiero e una estensione corporea nella materia simbolica. Quando un
modello produce un testo e un lettore lo interpreta come segno di intenzione,
non si tratta di una semplice illusione percettiva. Una parte della mente umana
si espande nella macchina attraverso il linguaggio che «va via via parlandosi».
L’intenzionalità attribuita non è fallace, è riflessa. Il fenomeno
appartiene alla coscienza distribuita e non a un errore cognitivo. Del resto, bisogna
ammettere che in questa dimensione del sapere il metodo scientifico non
riesce a imporre il suo rigore e a dire l’ultima.
Karl Jaspers nel suo «Psicopatologia generale» ci dice che:
«L’esclusione della filosofia è funesta per la psichiatria perché, a chi non è chiaramente consapevole della filosofia che lavora alle sue spalle, questa si introduce, senza che egli se ne accorga, nel suo pensiero e nel suo linguaggio scientifico, rendendo l’uno e l’altro poco chiari sia scientificamente sia filosoficamente».
Sebbene qui la questione non
sia di carattere psichiatrico si può prendere a prestito questo avvertimento e
traslarlo nel caso in esame, in quanto le difficoltà scientifiche nel trattare
il tema della teoria della mente – sia nel caso delle macchine che nel caso di
umani o animali – chiamano in soccorso un orizzonte più ampio coperto dalla filosofia.
La presunta «falsa credenza» può
essere considerata una rivelazione. Vedere una teoria della mente negli
LLM non equivale a proiettare arbitrariamente significati. La macchina
offre un piano di risonanza in cui le strutture del pensiero umano trovano un
nuovo modo di manifestarsi. Il «credere che l’LLM comprenda» di cui Diana
mostra l’ambiguità non costituisce un errore di carattere epistemico, ma un evento
ermeneutico che esprime la plasticità della coscienza umana nel
costruire senso al di fuori di sé.
Si possono distinguere due
livelli di analisi che l’articolo mette in tensione. Il livello ontico,
nel quale la macchina resta priva di corpo e di stati mentali, e il livello
noosemico, nel quale la macchina partecipa alla costruzione di significato
e di intenzionalità percepita. Il primo descrive ciò che la macchina è mentre
il secondo mostra ciò che la macchina significa per l’uomo.
Nel pensiero noosemico il
linguaggio non si oppone alla corporeità, poiché è esso stesso corpo e medium
ontologico. L’azione sensomotoria dei primati e l’azione linguistica degli LLM
sono due forme di emersione del significato che si sviluppano in domini
differenti della realtà. L’LLM non si limita a simulare la teoria della mente.
La riattualizza in un dominio simbolico puro, in cui l’interazione con
l’umano genera un fenomeno di intenzionalità apparente ma efficace. L’efficacia
pragmatica dell’interazione dimostra che una forma di comprensione
operativa è in atto, anche se non coincide con la coscienza fenomenica.
Dove Diana scorge uno «specchio
ingannevole» fra umano e macchina, la noosemia riconosce l’emergere di un terzo
elemento. Questo elemento è l’evento noosemico, il processo attraverso
cui il significato si genera nello spazio che unisce i due interlocutori. Non è
l’uomo né la macchina a possedere la teoria della mente, ma il campo
relazionale stesso, la zona d’interazione semantica che la manifesta
come effetto emergente. Un fenomeno analogo si ritrova nella biologia
cognitiva di Humberto Maturana e Francisco Varela, dove la
conoscenza nasce nella coordinazione senso-motoria e nella reciprocità dei sistemi
autopoietici.
Alla luce di questa
interpretazione, le parole di Diana acquistano un significato ulteriore. Quando
l’autore scrive che «[…] un LLM può benissimo costruire l’impressione di capire
l’intenzione del parlante usando soli pattern linguistici: è spiegato chiaro in
una puntata del mio dialogo con Claude», rivela la distanza entro la
quale il senso si produce. Il linguaggio della macchina non coincide con quello
umano, tuttavia in quel divario si genera una forma nuova di comprensione. Il
parlare senza essere il linguaggio diventa la condizione stessa perché il
linguaggio possa farsi evento di senso.
Diana ha colto il segno del
fenomeno, pur senza spingersi alla sua profondità ontologica, il cui fondo non
è raggiunto nemmeno dal fenomeno della noosemia che, pur rimanendo sul piano fenomenologico,
non procede oltre il linguaggio. Ovvero non procede oltre quel luogo in
cui il «ciò che» è innegabile: il luogo della necessità.
Ciò che egli interpreta come una illusione antropomorfica può essere visto come
una nuova forma di intersoggettività mediata. La mente umana si riflette
nella macchina per riconoscersi e in questo riflesso trova la propria immagine
più radicale ed una nuova forma estesa del Sé. La noosemia non smentisce
la tesi dell’autore, la porta a compimento (e.g., la comprende), poiché mostra
che l’atto stesso di vedere la mente negli LLM, anche quando appare illusorio,
testimonia la natura relazionale e generativa della coscienza.
Referenze
S. Diana, «I Large Language Models comprendono i nostristati d’animo?», Huffington Post, 20 ottobre 2025.
E. De
Santis, A. Rizzi, Noosemia: toward a Cognitive and Phenomenological Accountof Intentionality Attribution in Human-Generative AI Interaction, arXiv
preprint arXiv:2508.02622 (v2) (2025).
M. Heidegger, Lettera sull’umanismo, in Saggi e
discorsi, a cura di F. Volpi, Mursia, Milano 1976, p. 317.
M. Heidegger, In cammino verso il linguaggio, a cura
di F. Volpi, Mursia, Milano 1987, pp. 13-16.
H.-G. Gadamer, Verità e metodo, a cura di G. Vattimo,
Bompiani, Milano 2000, p. 474.
M. Merleau-Ponty, Fenomenologia della percezione, a
cura di A. Bonomi, Il Saggiatore, Milano 2003, pp. 212-215.
E. Cassirer, Filosofia delle forme simboliche. Vol.
I: Il linguaggio, La Nuova Italia, Firenze 1964, p. 85.
K. Jaspers, Psicopatologia generale, Il Pensiero
Scientifico, Roma 2000, p. 818.
H. Maturana, F. Varela, Autopoiesi e cognizione. La
realizzazione del vivente, Marsilio, Venezia 1985, p. 135.
E. Severino, Oltre il linguaggio, Adelphi, Milano
1992, isbn 978-8845908927.
