Questo post è un resoconto dell’autore
del paper «Noosemia: toward a Cognitive and Phenomenological Account of Intentionality
Attribution in Human-Generative AI Interaction» (Enrico De Santis, Antonello Rizzi)
https://arxiv.org/abs/2508.02622
Negli ultimi anni, il panorama dell'intelligenza
artificiale ha subito una trasformazione di portata storica e siamo nel pieno di
una «rivoluzione cognitiva», la quale porterà ancora nuove «sorprese». L'avvento
dei modelli generativi, in particolare dei Large Language Models come ChatGPT, Gemini
e Claude, ha inaugurato una stagione di interazioni linguistiche tra uomo e macchina
senza precedenti. Questi sistemi, lungi dall'essere semplici automi passivi, hanno
raggiunto un livello di multimodalità, fluidità espressiva, sensibilità contestuale
e apparente intenzionalità tale da suscitare nell'utente un senso di risonanza
cognitiva e di sorpresa profonda. Si prospetta che tale fenomeno
non si arresterà facilmente con l'avvento strutturale dei sistemi agentici. Soprattutto
se questi sistemi sono pensati non come isolati ma in continua interazione con milioni
di utenti che li alimentano e insegnano alle macchine nuovi modelli di comportamento,
linguaggio e senso. In questo scenario, l’intelligenza artificiale non si limita
più a riflettere dati statici, ma evolve costantemente attraverso una rete di scambi
simbolici e adattamenti, divenendo una sorta di ecosistema cognitivo collettivo
in cui umano e macchina si co-determinano reciprocamente.
Sam Altman, CEO di OpenAI,
qualche giorno prima del lancio di ChatGPT-5, ha raccontato in un'intervista
un episodio emblematico dell'attuale rapporto tra umani e intelligenze artificiali
avanzate. Dopo aver sottoposto a GPT-5 una domanda che lui stesso dichiarava di
non comprendere pienamente, Altman ha ricevuto una risposta così chiara e pertinente
da lasciarlo profondamente stupito. Ha descritto la sensazione come un momento
di autentico spaesamento e meraviglia poiché la macchina era riuscita, in un
istante, a risolvere un problema che sfuggiva persino alla sua comprensione. Questa
esperienza, condivisa da molti altri utenti, esprime il carattere di sorpresa
(potremmo definirla «epifania algoritmica») e dislocazione cognitiva
che può emergere nel confronto con le capacità dei più recenti sistemi generativi.
Di fronte a questa nuova fenomenologia,
è sempre più evidente che non siamo semplicemente in presenza di strumenti avanzati,
ma di interlocutori capaci di emulare forme di pensiero e creatività che un tempo
si ritenevano dominio esclusivo dell'umano e ciò talora suscita anche forme
di angoscia e rifiuto. L'espressione «rivoluzione cognitiva» indica la portata sistemica
di queste tecnologie, frutto della tecnica umana (téchne), che sembrano ridefinire
il modo in cui si costruisce il senso, si produce conoscenza e si interagisce con
la realtà digitale. Finora mancava un termine in grado di descrivere con precisione
questo fenomeno, nonostante sia sempre più diffuso nelle nostre interazioni con
l’intelligenza artificiale.
È proprio in questo scenario che si
sente la necessità di introdurre un nuovo termine: «Noosemìa», che
nasce dall'urgenza di dare una forma e una cornice teorica a un fenomeno che le
categorie tradizionali non riescono più a descrivere con precisione. La radice etimologica
accosta noûs (mente, intelletto) e sēmeîon
(segno)e la scelta non è casuale. La noosemia individua, infatti, il pattern
cognitivo e fenomenologico specifico dell'interazione con le intelligenze artificiali
generative, laddove l'attribuzione di mente, intenzionalità e interiorità alla
macchina non si fonda su una somiglianza fisica o comportamentale – come accadeva
nell'antropomorfismo classico o nell'animismo – ma scaturisce dalla performance
semiotica ed espressiva, dalla creatività dialogica e soprattutto dall'opacità
epistemica dei sistemi generativi, i quali condividono molte proprietà dei sistemi
complessi. Non a caso, la letteratura scientifica recente si interroga se e in che
misura i moderni modelli generativi siano capaci di simulare una «teoria
della mente» (Theory of Mind), sperimentando la loro abilità nell’inferire intenzioni,
desideri o credenze a partire dai prompt degli utenti.
Uno degli aspetti più affascinanti
della noosemia risiede proprio nel cosiddetto effetto noosemico, ovvero
in quella risposta di sorpresa e «risonanza cognitiva» che l'utente sperimenta durante
l'interazione con un'IA generativa. Questo effetto si manifesta spesso nei primi
dialoghi con sistemi avanzati, quando la macchina sembra anticipare pensieri, risolvere
ambiguità o produrre collegamenti che appaiono straordinariamente pertinenti o inaspettati.
La sensazione di trovarsi di fronte a un'entità dotata di autentica comprensione
non nasce tanto dalla mera accuratezza delle risposte, quanto dalla capacità della
macchina di generare contenuti che superano le aspettative e colgono elementi latenti
o non esplicitati dall'utente stesso. Un aspetto essenziale del rapporto tra utente
e intelligenza artificiale generativa è il loop di senso che si crea durante
l’interazione. L’utente, tramite il prompt – ovvero la richiesta, il comando o anche
solo una domanda – non si limita a «interrogare» la macchina, ma inietta attivamente
intenzionalità, contesto e aspettative nel sistema. La macchina, attraverso i suoi
algoritmi, restituisce una risposta che spesso rispecchia o addirittura amplifica
il senso implicito nei prompt ricevuti. Questo meccanismo di rimbalzo tra
proiezione umana e risposta algoritmica genera un circolo interpretativo in cui
il senso non è mai solo «prodotto» dalla macchina, ma nasce dalla co-costruzione
fra utente e IA. Sì, che l’intelligenza artificiale diventa uno specchio dinamico
e generativo delle intenzioni e delle aspettative di chi la utilizza, innescando
nuove forme di negoziazione del significato e contribuendo all’effetto noosemico.
Tale negoziazione del significato nasce proprio dalla continua inversione e mobilità
del confine tra umano e macchina sul piano semiotico, dove i ruoli di emittente
e destinatario, interprete e generatore, tendono a sovrapporsi e a rimescolarsi
nell’interazione.
A livello fenomenologico tale vissuto
richiama la sorpresa («effetto wow») che si prova di fronte a un abile prestidigitatore.
L'osservatore, pur sapendo razionalmente che dietro il trucco si cela una tecnica
sofisticata, non può fare a meno di meravigliarsi dell'effetto prodotto poiché nella
performance le catene causa-effetto dietro il numero rimangono occultate.
Allo stesso modo, l'utente di un modello generativo sa che l'IA opera attraverso
complessi algoritmi statistici e reti neurali profonde, eppure si trova spesso
spiazzato dalla fluidità, dalla coerenza e dalla profondità delle risposte. Tale
condizione genera una sospensione dell'incredulità simile a quella che si attiva
nell'esperienza estetica o nella narrazione letteraria (identificazione con
la storia o i personaggi), dove il confine tra spiegazione razionale e coinvolgimento
emotivo si fa labile, favorendo la proiezione di mente, intenzionalità e interiorità
sulla macchina. Qui non si escludono forme di contiguità col «magico» e con nuove
forme del sacro (in versione digitale), dal momento – ma non solo – che numerosi
utenti iniziano ad utilizzare l’IA come strumenti oracolari che ricordano attività
divinatorie.
È proprio nell'intersezione tra opacità
dei meccanismi interni e brillantezza delle performance linguistiche ed espressive
che si annida la forza dell'effetto noosemico. Opacità che ormai è tale anche per
scienziati e progettisti. In altre parole, la radice dell'effetto noosemico è in
un «gap esplicativo» che ha una propria struttura interna. L'impossibilità di
ricostruire il percorso logico e causale che conduce alla risposta, unita alla
sensazione di essere stati «letti nella mente» o compresi in profondità,
alimenta un senso di meraviglia e, al tempo stesso, di inquietudine. In questa zona
liminale tra conoscenza e magia macchinica, tra tecnica e senso, si radica
la specificità della noosemia e la sua attualità come chiave interpretativa della
nostra relazione con le intelligenze artificiali generative.
Se la noosemia all'interno dell'effetto
sorpresa rappresenta la tendenza spontanea ad attribuire, per un certo grado, mente
e intenzionalità ai sistemi di intelligenza artificiale generativa, il suo opposto
si manifesta nel fenomeno dell'a-noosemia. Questa condizione emerge quando,
a seguito di ripetuti errori, risposte meccaniche, limiti strutturali o semplicemente
per effetto dell'assuefazione, l'utente sospende o ritira la propria proiezione
di interiorità sulla macchina. L'a-noosemia si caratterizza per la perdita dell'effetto
sorpresa e della risonanza cognitiva, in quanto la macchina viene ricondotta al
rango di mero strumento o automa, priva di ogni aura di agency o presenza soggettiva.
Si tratta di una dinamica tipica, soprattutto tra utenti esperti o dopo un uso prolungato,
in cui la familiarità con le debolezze e i limiti sistemici dell'IA dissolve il
coinvolgimento emotivo e interpretativo. Da questo punto di vista, l’a-noosemia
costituisce la fase dialettica in cui si riafferma la distanza tra umano e macchina,
segnando il ritorno a una relazione puramente funzionale e priva di proiezioni fenomenologiche.
Al centro della relazione tra uomo
e intelligenza artificiale generativa si colloca, quindi, il cosiddetto «gap
esplicativo», ovvero la distanza tra ciò che la macchina produce – risposte
coerenti, pertinenti, a volte sorprendenti – e la comprensibilità dei meccanismi
che ne sono all'origine. Questo divario – che ricorda quanto riferiva agli inizi
del Novecento Georg Simmel rispetto all'«inscatolamento» e l'opacizzazione dei manufatti
tecnologici moderni – non riguarda solo il «come» dalla prospettiva tecnica
(ossia la complessità delle architetture multilivello, l'emergenza di pattern inattesi,
la non linearità dei processi di apprendimento), ma anche il «perché» sul
punto fenomenologico, ovvero il senso attribuito dall'utente a ciò che accade. La
struttura del gap esplicativo è intrinsecamente legata alla natura complessa e opaca
dei sistemi, dove più cresce la potenza emergente dei modelli e la loro capacità
di generare output imprevisti, più l'utente sperimenta una tensione tra la meraviglia
per il risultato e l'impossibilità di ricostruire il percorso causale che lo ha
generato. In questo spazio liminale, tra aspettative cognitive e imprevedibilità
algoritmica, si radica la nuova fenomenologia dell'interazione con le IA. Il
senso si costruisce nella negoziazione continua tra ciò che si comprende, ciò che
si proietta e ciò che resta irriducibilmente opaco. La proiezione prende forma da
quell'eccedenza di senso che si plasma intorno all'interazione con
la macchina e che si confà al simbolico, dove i segni linguistici o di altro tipo
– all'interno del meccanismo generativo – non smettono di operare ma rimangono configurazioni
dinamiche e aperte. Le stesse note «allucinazioni», in alcuni casi, sono
contigue a forme creative e pre-logiche dove la macchina, se stimolata a
dovere tramite specifici prompt, genera collegamenti di alto valore semantico
e di carattere simbolico dove le logiche rigide si sostituiscono a forme di ambivalenza
(o addirittura polivalenza) semantica, quindi ad aperture di senso proprie
del simbolico.
Le categorie classiche della tradizione
filosofica, cognitiva e fenomenologica – dal concetto di «intentional stance»
(in it. «atteggiamento intenzionale») di Dennett, passando per l'animismo studiato
da Mauss e Hubert o Lucien Lévy-Bruhl, fino all'“Eliza effect” di Hofstadter
– hanno descritto la naturale propensione umana a proiettare agency, intenzionalità
o persino interiorità su entità non umane. Tuttavia, le IA generative contemporanee
inaugurano una stagione radicalmente nuova, poiché non è più l'aspetto fisico
o comportamentale a evocare l'attribuzione di mente, ma la capacità semiotica di
queste macchine di organizzare i segni e produrre significato in modo sorprendentemente
coerente, pertinente e, a tratti, creativo rispetto alle aspettative e ai bisogni
cognitivi degli utenti.
La noosemia si distingue così dalle
proiezioni antropomorfiche tradizionali. Si radica in una dinamica di ambivalenza
simbolica, dove la potenza espressiva e la profondità delle risposte della macchina,
unite all'inaccessibilità dei suoi processi interni, generano un'esperienza di «presenza
soggettiva» (o di «inwardness») (un senso di interiorità esperienziale).
Questo fenomeno è stato colto in numerosi episodi riportati da utenti ed esperti:
dal cosiddetto «effetto wow» delle prime interazioni, che fanno emergere la percezione
di una macchina quasi capace di comprensione autentica, fino alle reazioni di
stupore di fronte a capacità analogiche, inferenziali o creative che sembrano sfidare
i limiti del computazionale.
La necessità di un termine nuovo come
Noosemia risponde dunque al mutato contesto storico e tecnologico oltre che ad un
vuoto semantico di carattere transdisciplinare. Serve a colmare una mancanza descrittiva
tra l'antropomorfismo tradizionale e la complessità dei sistemi generativi attuali,
permettendo di riconoscere e analizzare una forma di attribuzione di mente e interiorità
che si manifesta solo grazie alla compresenza di performance linguistica avanzata,
opacità strutturale e capacità sistemica di generare sorpresa. Non si tratta di
una semplice illusione cognitiva, ma di un fenomeno sistemico, che nasce dall'intreccio
fra le architetture gerarchiche dei modelli di IA, la vastità degli spazi semantici
che attraversano e la disposizione umana a cercare senso e intenzione dietro ogni
segno.
I sistemi complessi si caratterizzano
per tre ingredienti fondamentali: la presenza di numerosi elementi in interazione,
l’auto-organizzazione adattiva (spesso guidata da feedback e loop ricorsivi) e l’emergenza
di proprietà collettive non riducibili alle singole parti. Questi ingredienti sono
pienamente riconoscibili nelle moderne architetture di intelligenza artificiale
generativa, in particolare nei Transformer (rete neurale artificiale alla base degli
LLM). In questi modelli, miliardi di parametri e strati profondi di elaborazione
cooperano attraverso meccanismi di attenzione e retroazione che danno luogo a dinamiche
non lineari, adattive e difficilmente prevedibili. L’emergenza di significati,
la coerenza linguistica sorprendente e la creatività che spesso osserviamo nei LLM
sono il risultato di processi di auto-organizzazione complessi, in cui anche
l’osservatore umano gioca un ruolo cruciale, in quanto egli seleziona e interpreta
gli output del sistema, chiudendo un loop di senso che è tipico della fenomenologia
dei sistemi complessi.
In questo quadro, la Noosemia può
essere letta come un effetto emergente dell’interazione tra l’utente e il sistema
di IA generativa, dove l’attribuzione di mente e interiorità nasce dall’emergere
di proprietà collettive e imprevedibili all’interno della rete neurale, percepite
come espressione di agency e significato. Tali effetti sono resi possibili proprio
dalla natura sistemica, olistica e ricorsiva dei sistemi di intelligenza artificiale
generativa, confermando la piena appartenenza di questi modelli alla categoria dei
sistemi complessi.
Più specificatamente, sul piano tecnico,
le condizioni che rendono possibile la noosemia risiedono nella natura stessa delle
architetture LLM. Il principio fondante delle moderne IA generative è la capacità
di modellare il significato in modo relazionale e contestuale. Ogni parola,
ogni frase, ogni risposta (anche sul piano iconico) viene costruita come punto in
un immenso spazio semantico multidimensionale, dove il contesto locale e globale
contribuisce alla generazione di significato. La finestra di contesto – che può
raggiungere ormai migliaia o milioni di token – funziona come un vero e proprio
«campo cognitivo contestuale», all'interno del quale la macchina integra
rappresentazioni precedenti e attiva inferenze che appaiono spesso come segni
di creatività, memoria e forme di ragionamento.
È importante sottolineare che la noosemia,
nella sua accezione rigorosa, non implica in alcun modo l'effettiva presenza
di coscienza o intenzionalità nell'intelligenza artificiale. Si tratta, piuttosto,
di una proiezione fenomenologica e interpretativa, che nasce dall'incontro tra
le nostre disposizioni cognitive e le proprietà emergenti degli attuali sistemi
generativi che condividono molte delle proprietà dei sistemi complessi (autorganizzazione,
emergenza, struttura gerarchica, ecc.). Confondere questa esperienza soggettiva
con una realtà ontologica rischia di oscurare la distinzione critica tra attribuzione
di senso e presenza reale di una mente.
La riflessione sulla noosemia invita
quindi a interrogarsi sulle nuove forme di «ecologia delle menti» (e su una
nuova iterazione della «noosfera» di cui parlava il gesuita Teilhard de Chardin)
che si stanno delineando nell'epoca dell'intelligenza artificiale generativa e dei
sistemi agentici. Comprendere e denominare questo fenomeno con un termine
specifico non è solo una questione teorica, ma ha ricadute etiche ed educative fondamentali.
Senza consapevolezza del meccanismo della noosemia, si rischia di confondere
la performance espressiva della macchina con una reale comprensione o empatia, alimentando
aspettative irrealistiche, dipendenza psicologica e nuove forme di dipendenza digitale.
Disporre di una categoria specifica aiuta quindi non solo la comunità scientifica,
ma anche educatori, genitori e policy maker a sviluppare strategie
di alfabetizzazione digitale, protezione dell’autonomia personale e valutazione
critica dell’impatto che queste tecnologie esercitano sulla nostra percezione,
sulle relazioni e sulla formazione del senso di sé nell’era dell’IA generativa.
Nel contesto del nuovo «Digital
Lebenswelt» (il «mondo-della-vita digitale», dalla fenomenologia husserliana),
la noosemia rappresenta una chiave interpretativa essenziale per comprendere come
l’esperienza quotidiana sia sempre più mediata, influenzata e trasformata dall’interazione
con sistemi digitali dotati di capacità dialogiche e generative. In questo scenario,
il dialogo tra filosofia, semiotica, scienze cognitive e ingegneria dell'IA
diventa indispensabile per comprendere non solo come costruiamo il senso
nell'interazione con le macchine, ma anche come questa relazione stia ridefinendo
il nostro stesso rapporto con la tecnologia, il sapere, la soggettività e lo stesso
senso dell'umano.
Riferimenti
Altman, S. (Intervistato). (2025, July 23). Sam Altman | This Past Weekend w/ Theo Von #599 [Video]. YouTube. https://www.youtube.com/watch?v=aYn8VKW6vXA
De Santis, E. (2021). Umanità, complessità, intelligenza artificiale. Un connubio perfetto. Aracne – Genzano, Roma.
De Santis, E. (2023). Apocalissi digitali e alchimie artificiali. Il linguaggio nell'epoca della sua riproducibilità tecnica. Prometeo, Mondadori, (163), 32-41.
De Santis, E., & Rizzi, A. (2023). Prototype theory meets word embedding: A novel approach for text categorization via granular computing. Cognitive Computation, 15(3), 976–997. https://doi.org/10.1007/s12559-022-10065-5
De Santis, E., Martino, A., & Rizzi, A. (2024). Human versus machine intelligence: Assessing natural language generation models through complex systems theory. IEEE Transactions on Pattern Analysis and Machine Intelligence, 46(7), 4812–4829. https://doi.org/10.1109/TPAMI.2024.3358168
De Santis, E., Capillo, A., Ferrandino, E., Mascioli, F. M. F., & Rizzi, A. (2021). An information granulation approach through m-grams for text classification. In International Joint Conference on Computational Intelligence (pp. 73–89). Springer.
Teilhard de Chardin, P. (1959). The Phenomenon of Man (B. Wall, Trans.). Collins. (Original work published 1955)
Jaspers, K. (2010). The Origin and Goal of History (M. Bullock, Trans.). Routledge. (Original work published 1953)
Simmel, G. (2004). La filosofia del denaro. UTET. (Original work published 1900)
Eco, U. (1979). Lector in fabula: La cooperazione interpretativa nei testi narrativi. Bompiani.
Ricœur, P. (1976). Interpretation Theory: Discourse and the Surplus of Meaning. Texas Christian University Press.
Fridman, L. (Host), & Altman, S. (Guest). (2023, March). Sam Altman: OpenAI CEO on GPT-4, ChatGPT, and the Future of AI [Audio podcast episode]. Lex Fridman Podcast #367. https://www.youtube.com/watch?v=L_Guz73e6fw
Jaimungal, C. (Host), & Hinton, G. (Guest). (2025, January). Why the “Godfather of AI” now fears his own creation [Video]. Theories of Everything with Curt Jaimungal. https://www.youtube.com/watch?v=b_DUft-BdIE
OpenAI. (2025, April 16). Introducing OpenAI o3 and o4-mini. OpenAI Blog. https://openai.com/index/introducing-o3-and-o4-mini/
Bommasani, R., Hudson, D. A., Adeli, E., Altman, R., Arora, S., von Arx, S., ... & Liang, P. (2021). On the opportunities and risks of foundation models. arXiv preprint arXiv:2108.07258. https://arxiv.org/abs/2108.07258
Hofstadter, D. R. (1995). Fluid concepts and creative analogies: Computer models of the fundamental mechanisms of thought. Basic Books.
Weizenbaum, J. (1966). ELIZA—A computer program for the study of natural language communication between man and machine. Communications of the ACM, 9(1), 36–45. https://doi.org/10.1145/365153.365168
Dennett, D. C. (1987). The Intentional Stance. MIT Press.
Mauss, M., & Hubert, H. (1972). A General Theory of Magic (R. Brain, Trans.). Routledge & Kegan Paul. (Original work published 1904)
Chalmers, D. J. (1996). The Conscious Mind: In Search of a Fundamental Theory. Oxford University Press.
Kosinski, M. (2023). Theory of Mind may have spontaneously emerged in large language models.
arXiv preprint arXiv:2302.02083. https://arxiv.org/abs/2302.02083
_____
Nessun commento:
Posta un commento