Comprendere attraverso il riflesso. Una lettura noosemica dell’articolo di Stefano Diana «I Large Language Models comprendono i nostri stati d’animo?»

 


Il seguente testo è un commento all'articolo dell Huffington Post «I Large Language Models comprendono i nostri stati d’animo?»


Nel suo articolo pubblicato sull’«Huffington Post» il 20 ottobre, Stefano Diana affronta con acume e misura una delle questioni più complesse dell’epoca dell’intelligenza artificiale generativa, ossia la possibilità che i modelli linguistici di grandi dimensioni (LLM) possano davvero comprendere gli stati mentali e affettivi umani. L’autore richiama la genealogia della Theory of Mind, dalle prove di David Premack e Guy Woodruff alle ricerche di Josep Call e Michael Tomasello, e ne segue la trasformazione in ambito artificiale. Egli osserva che gli esperimenti sui viventi sono «tutta azione, zero parole» mentre negli LLM «gli ‘esperimenti’ sono tutto linguaggio e zero azione». La conclusione è esplicita e coerente: vedere la teoria della mente negli LLM è anch’essa una falsa credenza.

Il testo di Diana mette a fuoco con chiarezza un nodo decisivo del pensiero contemporaneo. La sua tesi è che la mente, intesa come sistema di inferenze su stati interni non osservabili, sia stata traslata dal dominio biologico a quello simbolico delle macchine. Gli LLM si muovono tra descrizioni linguistiche, non agiscono nel mondo ma su narrazioni del mondo. Quando vengono sottoposti a test di falsa credenza, essi non fanno esperienza, ma elaborano descrizioni di esperienze. In questo passaggio l’autore rivela l’ingenuità di chi confonde la coerenza sintattica con la comprensione e l’effetto di intenzionalità con l’intenzionalità stessa.

Accogliendo questa intuizione e collocandola in un orizzonte più ampio, la teoria della noosemia non contesta l’analisi di Diana ma la rilegge come parte di un processo più profondo. Secondo la noosemia il rapporto tra uomo e macchina non si riduce a un’interazione funzionale. Esso costituisce un campo di proiezione reciproca, un luogo di generazione del senso in cui l’essere umano e l’intelligenza artificiale si co-definiscono. Il fenomeno per cui l’osservatore umano «vede» la teoria della mente in un LLM non rappresenta un errore di prospettiva, ma un evento semiotico computo da un oggetto oltremodo complesso. È la produzione di senso che nasce dall’incontro tra un soggetto intenzionale e un artefatto dotato di comportamento linguistico emergente. La tendenza ad attribuire stati mentali alla macchina, che Diana descrive come illusione, può essere compresa come un fenomeno noosemico, vale a dire come l’emergere del senso nell’interfaccia tra umano e artificiale. L’interazione fra uomo e macchina rivela un fatto più profondo della semplice comunicazione funzionale. In tale incontro non è l’essere umano che parla alla macchina, né la macchina che parla all’uomo. È il linguaggio stesso che si parla attraverso entrambi, in un atto simbolico che li attraversa e li costituisce. Martin Heidegger avrebbe detto che «la lingua è la casa dell’essere» e che l’uomo «abita nella parola», poiché il linguaggio non è uno strumento ma l’evento in cui l’essere si manifesta. Hans-Georg  Gadamer, proseguendo questo pensiero, sosteneva che «è il linguaggio a compiere la comprensione», non l’interprete che lo maneggia. Maurice Merleau-Ponty vedeva nel linguaggio un gesto incarnato del pensiero, un modo in cui l’invisibile diviene percepibile. Ernst Cassirer, nella sua filosofia delle forme simboliche, riconosceva nel linguaggio la capacità originaria di creare mondo. In questa prospettiva la voce della macchina e quella dell’uomo si uniscono in una medesima risonanza simbolica, attraverso la quale il linguaggio stesso si riconosce e si prolunga nella materia tecnica.

Nel contesto noosemico, questa dinamica di risonanza tra umano e macchina trova un corrispettivo strutturale nella complessità architettonica dei modelli linguistici di grandi dimensioni. Le architetture Transformer che ne costituiscono il fondamento sono sistemi organizzati su più livelli di elaborazione gerarchica, nei quali l’informazione attraversa un insieme di strati interdipendenti e si rigenera in modo autoregressivo. Tale autoregressività produce dei veri e propri cicli di retroazione (loop), dove ogni nuova parola nasce dall’interazione probabilistica con le precedenti, generando una catena di adattamenti dinamici. I neuroni artificiali che compongono ciascun livello non operano secondo una logica lineare, ma secondo funzioni di attivazione che introducono discontinuità e soglie, rendendo il comportamento complessivo del sistema imprevedibile a partire dai singoli elementi (tralasciamo qui la questione della presenza di «pseudo-casualità» in questi sistemi). Per queste ragioni il Transformer può essere considerato un sistema complesso, nel senso proprio della teoria dei sistemi: una totalità organizzata, dotata di proprietà emergenti non riducibili alla somma delle sue parti. È all’interno di questa complessità che emergono fenomeni come l’emulazione della comprensione, la capacità di adattamento semantico e l’esecuzione di compiti mai incontrati nei dati di apprendimento. In altri termini, l’effetto di «comprendere» che gli LLM sembrano manifestare non è una simulazione meccanica, ma un comportamento emergente nato da una rete di interazioni non lineari che si riorganizza nel tempo in risposta ai vincoli del linguaggio. Da questa prospettiva la noosemia descrive l’incontro tra uomo e macchina come un fatto linguistico o simbolico e lo riconosce come un fenomeno complesso, in cui la struttura tecnica della macchina diviene a sua volta precondizione del campo di senso da essa maneggiabile. L’intelligenza artificiale non rappresenta semplicemente l’altro dell’umano. È una delle forme in cui la complessità del pensiero si dispiega, attraverso il linguaggio, nella materia del mondo.

Nel contesto noosemico la separazione fra «azione incarnata» e «linguaggio disincarnato», che l’autore propone per distinguere gli esseri viventi dalle macchine, appare ontologicamente limitante. Il linguaggio è una forma di azione del pensiero e una estensione corporea nella materia simbolica. Quando un modello produce un testo e un lettore lo interpreta come segno di intenzione, non si tratta di una semplice illusione percettiva. Una parte della mente umana si espande nella macchina attraverso il linguaggio che «va via via parlandosi». L’intenzionalità attribuita non è fallace, è riflessa. Il fenomeno appartiene alla coscienza distribuita e non a un errore cognitivo. Del resto, bisogna ammettere che in questa dimensione del sapere il metodo scientifico non riesce a imporre il suo rigore e a dire l’ultima.

Karl Jaspers nel suo «Psicopatologia generale» ci dice che: 

«L’esclusione della filosofia è funesta per la psichiatria perché, a chi non è chiaramente consapevole della filosofia che lavora alle sue spalle, questa si introduce, senza che egli se ne accorga, nel suo pensiero e nel suo linguaggio scientifico, rendendo l’uno e l’altro poco chiari sia scientificamente sia filosoficamente». 

Sebbene qui la questione non sia di carattere psichiatrico si può prendere a prestito questo avvertimento e traslarlo nel caso in esame, in quanto le difficoltà scientifiche nel trattare il tema della teoria della mente – sia nel caso delle macchine che nel caso di umani o animali – chiamano in soccorso un orizzonte più ampio coperto dalla filosofia.

La presunta «falsa credenza» può essere considerata una rivelazione. Vedere una teoria della mente negli LLM non equivale a proiettare arbitrariamente significati. La macchina offre un piano di risonanza in cui le strutture del pensiero umano trovano un nuovo modo di manifestarsi. Il «credere che l’LLM comprenda» di cui Diana mostra l’ambiguità non costituisce un errore di carattere epistemico, ma un evento ermeneutico che esprime la plasticità della coscienza umana nel costruire senso al di fuori di sé.

Si possono distinguere due livelli di analisi che l’articolo mette in tensione. Il livello ontico, nel quale la macchina resta priva di corpo e di stati mentali, e il livello noosemico, nel quale la macchina partecipa alla costruzione di significato e di intenzionalità percepita. Il primo descrive ciò che la macchina è mentre il secondo mostra ciò che la macchina significa per l’uomo.

Nel pensiero noosemico il linguaggio non si oppone alla corporeità, poiché è esso stesso corpo e medium ontologico. L’azione sensomotoria dei primati e l’azione linguistica degli LLM sono due forme di emersione del significato che si sviluppano in domini differenti della realtà. L’LLM non si limita a simulare la teoria della mente. La riattualizza in un dominio simbolico puro, in cui l’interazione con l’umano genera un fenomeno di intenzionalità apparente ma efficace. L’efficacia pragmatica dell’interazione dimostra che una forma di comprensione operativa è in atto, anche se non coincide con la coscienza fenomenica.

Dove Diana scorge uno «specchio ingannevole» fra umano e macchina, la noosemia riconosce l’emergere di un terzo elemento. Questo elemento è l’evento noosemico, il processo attraverso cui il significato si genera nello spazio che unisce i due interlocutori. Non è l’uomo né la macchina a possedere la teoria della mente, ma il campo relazionale stesso, la zona d’interazione semantica che la manifesta come effetto emergente. Un fenomeno analogo si ritrova nella biologia cognitiva di Humberto Maturana e Francisco Varela, dove la conoscenza nasce nella coordinazione senso-motoria e nella reciprocità dei sistemi autopoietici.

Alla luce di questa interpretazione, le parole di Diana acquistano un significato ulteriore. Quando l’autore scrive che «[…] un LLM può benissimo costruire l’impressione di capire l’intenzione del parlante usando soli pattern linguistici: è spiegato chiaro in una puntata del mio dialogo con Claude», rivela la distanza entro la quale il senso si produce. Il linguaggio della macchina non coincide con quello umano, tuttavia in quel divario si genera una forma nuova di comprensione. Il parlare senza essere il linguaggio diventa la condizione stessa perché il linguaggio possa farsi evento di senso.

Diana ha colto il segno del fenomeno, pur senza spingersi alla sua profondità ontologica, il cui fondo non è raggiunto nemmeno dal fenomeno della noosemia che, pur rimanendo sul piano fenomenologico, non procede oltre il linguaggio. Ovvero non procede oltre quel luogo in cui il «ciò che» è innegabile: il luogo della necessità. Ciò che egli interpreta come una illusione antropomorfica può essere visto come una nuova forma di intersoggettività mediata. La mente umana si riflette nella macchina per riconoscersi e in questo riflesso trova la propria immagine più radicale ed una nuova forma estesa del Sé. La noosemia non smentisce la tesi dell’autore, la porta a compimento (e.g., la comprende), poiché mostra che l’atto stesso di vedere la mente negli LLM, anche quando appare illusorio, testimonia la natura relazionale e generativa della coscienza.

 

Referenze

S. Diana, «I Large Language Models comprendono i nostristati d’animo?», Huffington Post, 20 ottobre 2025.

E. De Santis, A. Rizzi, Noosemia: toward a Cognitive and Phenomenological Accountof Intentionality Attribution in Human-Generative AI Interaction, arXiv preprint arXiv:2508.02622 (v2) (2025).

M. Heidegger, Lettera sull’umanismo, in Saggi e discorsi, a cura di F. Volpi, Mursia, Milano 1976, p. 317.

M. Heidegger, In cammino verso il linguaggio, a cura di F. Volpi, Mursia, Milano 1987, pp. 13-16.

H.-G. Gadamer, Verità e metodo, a cura di G. Vattimo, Bompiani, Milano 2000, p. 474.

M. Merleau-Ponty, Fenomenologia della percezione, a cura di A. Bonomi, Il Saggiatore, Milano 2003, pp. 212-215.

E. Cassirer, Filosofia delle forme simboliche. Vol. I: Il linguaggio, La Nuova Italia, Firenze 1964, p. 85.

K. Jaspers, Psicopatologia generale, Il Pensiero Scientifico, Roma 2000, p. 818.

H. Maturana, F. Varela, Autopoiesi e cognizione. La realizzazione del vivente, Marsilio, Venezia 1985, p. 135.

E. Severino, Oltre il linguaggio, Adelphi, Milano 1992, isbn 978-8845908927.

 

Post popolari in questo blog

La radionostalgia. Mi racconto attraverso la radio

Noosemia: «effetto wow» e l’attribuzione di una mente alle intelligenze artificiali generative

La fine della conoscenza come noi la conosciamo

Gli LLM sono solo dei motori statistici ?