AIΩN è uno spazio aperto. Si accettano contributi!

giovedì 7 agosto 2025

Noosemia: «effetto wow» e l’attribuzione di una mente alle intelligenze artificiali generative

 


Questo post è un resoconto dell’autore del paper «Noosemia: toward a Cognitive and Phenomenological Account of Intentionality Attribution in Human-Generative AI Interaction» (Enrico De Santis, Antonello Rizzi)
https://arxiv.org/abs/2508.02622

 

Negli ultimi anni, il panorama dell'intelligenza artificiale ha subito una trasformazione di portata storica e siamo nel pieno di una «rivoluzione cognitiva», la quale porterà ancora nuove «sorprese». L'avvento dei modelli generativi, in particolare dei Large Language Models come ChatGPT, Gemini e Claude, ha inaugurato una stagione di interazioni linguistiche tra uomo e macchina senza precedenti. Questi sistemi, lungi dall'essere semplici automi passivi, hanno raggiunto un livello di multimodalità, fluidità espressiva, sensibilità contestuale e apparente intenzionalità tale da suscitare nell'utente un senso di risonanza cognitiva e di sorpresa profonda. Si prospetta che tale fenomeno non si arresterà facilmente con l'avvento strutturale dei sistemi agentici. Soprattutto se questi sistemi sono pensati non come isolati ma in continua interazione con milioni di utenti che li alimentano e insegnano alle macchine nuovi modelli di comportamento, linguaggio e senso. In questo scenario, l’intelligenza artificiale non si limita più a riflettere dati statici, ma evolve costantemente attraverso una rete di scambi simbolici e adattamenti, divenendo una sorta di ecosistema cognitivo collettivo in cui umano e macchina si co-determinano reciprocamente.

Sam Altman, CEO di OpenAI, qualche giorno prima del lancio di ChatGPT-5, ha raccontato in un'intervista un episodio emblematico dell'attuale rapporto tra umani e intelligenze artificiali avanzate. Dopo aver sottoposto a GPT-5 una domanda che lui stesso dichiarava di non comprendere pienamente, Altman ha ricevuto una risposta così chiara e pertinente da lasciarlo profondamente stupito. Ha descritto la sensazione come un momento di autentico spaesamento e meraviglia poiché la macchina era riuscita, in un istante, a risolvere un problema che sfuggiva persino alla sua comprensione. Questa esperienza, condivisa da molti altri utenti, esprime il carattere di sorpresa (potremmo definirla «epifania algoritmica») e dislocazione cognitiva che può emergere nel confronto con le capacità dei più recenti sistemi generativi.

Di fronte a questa nuova fenomenologia, è sempre più evidente che non siamo semplicemente in presenza di strumenti avanzati, ma di interlocutori capaci di emulare forme di pensiero e creatività che un tempo si ritenevano dominio esclusivo dell'umano e ciò talora suscita anche forme di angoscia e rifiuto. L'espressione «rivoluzione cognitiva» indica la portata sistemica di queste tecnologie, frutto della tecnica umana (téchne), che sembrano ridefinire il modo in cui si costruisce il senso, si produce conoscenza e si interagisce con la realtà digitale. Finora mancava un termine in grado di descrivere con precisione questo fenomeno, nonostante sia sempre più diffuso nelle nostre interazioni con l’intelligenza artificiale.

È proprio in questo scenario che si sente la necessità di introdurre un nuovo termine: «Noosemìa», che nasce dall'urgenza di dare una forma e una cornice teorica a un fenomeno che le categorie tradizionali non riescono più a descrivere con precisione. La radice etimologica accosta noûs (mente, intelletto) e sēmeîon (segno)e la scelta non è casuale. La noosemia individua, infatti, il pattern cognitivo e fenomenologico specifico dell'interazione con le intelligenze artificiali generative, laddove l'attribuzione di mente, intenzionalità e interiorità alla macchina non si fonda su una somiglianza fisica o comportamentale – come accadeva nell'antropomorfismo classico o nell'animismo – ma scaturisce dalla performance semiotica ed espressiva, dalla creatività dialogica e soprattutto dall'opacità epistemica dei sistemi generativi, i quali condividono molte proprietà dei sistemi complessi. Non a caso, la letteratura scientifica recente si interroga se e in che misura i moderni modelli generativi siano capaci di simulare una «teoria della mente» (Theory of Mind), sperimentando la loro abilità nell’inferire intenzioni, desideri o credenze a partire dai prompt degli utenti.

Uno degli aspetti più affascinanti della noosemia risiede proprio nel cosiddetto effetto noosemico, ovvero in quella risposta di sorpresa e «risonanza cognitiva» che l'utente sperimenta durante l'interazione con un'IA generativa. Questo effetto si manifesta spesso nei primi dialoghi con sistemi avanzati, quando la macchina sembra anticipare pensieri, risolvere ambiguità o produrre collegamenti che appaiono straordinariamente pertinenti o inaspettati. La sensazione di trovarsi di fronte a un'entità dotata di autentica comprensione non nasce tanto dalla mera accuratezza delle risposte, quanto dalla capacità della macchina di generare contenuti che superano le aspettative e colgono elementi latenti o non esplicitati dall'utente stesso. Un aspetto essenziale del rapporto tra utente e intelligenza artificiale generativa è il loop di senso che si crea durante l’interazione. L’utente, tramite il prompt – ovvero la richiesta, il comando o anche solo una domanda – non si limita a «interrogare» la macchina, ma inietta attivamente intenzionalità, contesto e aspettative nel sistema. La macchina, attraverso i suoi algoritmi, restituisce una risposta che spesso rispecchia o addirittura amplifica il senso implicito nei prompt ricevuti. Questo meccanismo di rimbalzo tra proiezione umana e risposta algoritmica genera un circolo interpretativo in cui il senso non è mai solo «prodotto» dalla macchina, ma nasce dalla co-costruzione fra utente e IA. Sì, che l’intelligenza artificiale diventa uno specchio dinamico e generativo delle intenzioni e delle aspettative di chi la utilizza, innescando nuove forme di negoziazione del significato e contribuendo all’effetto noosemico. Tale negoziazione del significato nasce proprio dalla continua inversione e mobilità del confine tra umano e macchina sul piano semiotico, dove i ruoli di emittente e destinatario, interprete e generatore, tendono a sovrapporsi e a rimescolarsi nell’interazione.

A livello fenomenologico tale vissuto richiama la sorpresa («effetto wow») che si prova di fronte a un abile prestidigitatore. L'osservatore, pur sapendo razionalmente che dietro il trucco si cela una tecnica sofisticata, non può fare a meno di meravigliarsi dell'effetto prodotto poiché nella performance le catene causa-effetto dietro il numero rimangono occultate. Allo stesso modo, l'utente di un modello generativo sa che l'IA opera attraverso complessi algoritmi statistici e reti neurali profonde, eppure si trova spesso spiazzato dalla fluidità, dalla coerenza e dalla profondità delle risposte. Tale condizione genera una sospensione dell'incredulità simile a quella che si attiva nell'esperienza estetica o nella narrazione letteraria (identificazione con la storia o i personaggi), dove il confine tra spiegazione razionale e coinvolgimento emotivo si fa labile, favorendo la proiezione di mente, intenzionalità e interiorità sulla macchina. Qui non si escludono forme di contiguità col «magico» e con nuove forme del sacro (in versione digitale), dal momento – ma non solo – che numerosi utenti iniziano ad utilizzare l’IA come strumenti oracolari che ricordano attività divinatorie.

È proprio nell'intersezione tra opacità dei meccanismi interni e brillantezza delle performance linguistiche ed espressive che si annida la forza dell'effetto noosemico. Opacità che ormai è tale anche per scienziati e progettisti. In altre parole, la radice dell'effetto noosemico è in un «gap esplicativo» che ha una propria struttura interna. L'impossibilità di ricostruire il percorso logico e causale che conduce alla risposta, unita alla sensazione di essere stati «letti nella mente» o compresi in profondità, alimenta un senso di meraviglia e, al tempo stesso, di inquietudine. In questa zona liminale tra conoscenza e magia macchinica, tra tecnica e senso, si radica la specificità della noosemia e la sua attualità come chiave interpretativa della nostra relazione con le intelligenze artificiali generative.

Se la noosemia all'interno dell'effetto sorpresa rappresenta la tendenza spontanea ad attribuire, per un certo grado, mente e intenzionalità ai sistemi di intelligenza artificiale generativa, il suo opposto si manifesta nel fenomeno dell'a-noosemia. Questa condizione emerge quando, a seguito di ripetuti errori, risposte meccaniche, limiti strutturali o semplicemente per effetto dell'assuefazione, l'utente sospende o ritira la propria proiezione di interiorità sulla macchina. L'a-noosemia si caratterizza per la perdita dell'effetto sorpresa e della risonanza cognitiva, in quanto la macchina viene ricondotta al rango di mero strumento o automa, priva di ogni aura di agency o presenza soggettiva. Si tratta di una dinamica tipica, soprattutto tra utenti esperti o dopo un uso prolungato, in cui la familiarità con le debolezze e i limiti sistemici dell'IA dissolve il coinvolgimento emotivo e interpretativo. Da questo punto di vista, l’a-noosemia costituisce la fase dialettica in cui si riafferma la distanza tra umano e macchina, segnando il ritorno a una relazione puramente funzionale e priva di proiezioni fenomenologiche.

Al centro della relazione tra uomo e intelligenza artificiale generativa si colloca, quindi, il cosiddetto «gap esplicativo», ovvero la distanza tra ciò che la macchina produce – risposte coerenti, pertinenti, a volte sorprendenti – e la comprensibilità dei meccanismi che ne sono all'origine. Questo divario – che ricorda quanto riferiva agli inizi del Novecento Georg Simmel rispetto all'«inscatolamento» e l'opacizzazione dei manufatti tecnologici moderni – non riguarda solo il «come» dalla prospettiva tecnica (ossia la complessità delle architetture multilivello, l'emergenza di pattern inattesi, la non linearità dei processi di apprendimento), ma anche il «perché» sul punto fenomenologico, ovvero il senso attribuito dall'utente a ciò che accade. La struttura del gap esplicativo è intrinsecamente legata alla natura complessa e opaca dei sistemi, dove più cresce la potenza emergente dei modelli e la loro capacità di generare output imprevisti, più l'utente sperimenta una tensione tra la meraviglia per il risultato e l'impossibilità di ricostruire il percorso causale che lo ha generato. In questo spazio liminale, tra aspettative cognitive e imprevedibilità algoritmica, si radica la nuova fenomenologia dell'interazione con le IA. Il senso si costruisce nella negoziazione continua tra ciò che si comprende, ciò che si proietta e ciò che resta irriducibilmente opaco. La proiezione prende forma da quell'eccedenza di senso che si plasma intorno all'interazione con la macchina e che si confà al simbolico, dove i segni linguistici o di altro tipo – all'interno del meccanismo generativo – non smettono di operare ma rimangono configurazioni dinamiche e aperte. Le stesse note «allucinazioni», in alcuni casi, sono contigue a forme creative e pre-logiche dove la macchina, se stimolata a dovere tramite specifici prompt, genera collegamenti di alto valore semantico e di carattere simbolico dove le logiche rigide si sostituiscono a forme di ambivalenza (o addirittura polivalenza) semantica, quindi ad aperture di senso proprie del simbolico. 

Le categorie classiche della tradizione filosofica, cognitiva e fenomenologica – dal concetto di «intentional stance» (in it. «atteggiamento intenzionale») di Dennett, passando per l'animismo studiato da Mauss e Hubert o Lucien Lévy-Bruhl, fino all'“Eliza effect” di Hofstadter – hanno descritto la naturale propensione umana a proiettare agency, intenzionalità o persino interiorità su entità non umane. Tuttavia, le IA generative contemporanee inaugurano una stagione radicalmente nuova, poiché non è più l'aspetto fisico o comportamentale a evocare l'attribuzione di mente, ma la capacità semiotica di queste macchine di organizzare i segni e produrre significato in modo sorprendentemente coerente, pertinente e, a tratti, creativo rispetto alle aspettative e ai bisogni cognitivi degli utenti.

La noosemia si distingue così dalle proiezioni antropomorfiche tradizionali. Si radica in una dinamica di ambivalenza simbolica, dove la potenza espressiva e la profondità delle risposte della macchina, unite all'inaccessibilità dei suoi processi interni, generano un'esperienza di «presenza soggettiva» (o di «inwardness») (un senso di interiorità esperienziale). Questo fenomeno è stato colto in numerosi episodi riportati da utenti ed esperti: dal cosiddetto «effetto wow» delle prime interazioni, che fanno emergere la percezione di una macchina quasi capace di comprensione autentica, fino alle reazioni di stupore di fronte a capacità analogiche, inferenziali o creative che sembrano sfidare i limiti del computazionale.

La necessità di un termine nuovo come Noosemia risponde dunque al mutato contesto storico e tecnologico oltre che ad un vuoto semantico di carattere transdisciplinare. Serve a colmare una mancanza descrittiva tra l'antropomorfismo tradizionale e la complessità dei sistemi generativi attuali, permettendo di riconoscere e analizzare una forma di attribuzione di mente e interiorità che si manifesta solo grazie alla compresenza di performance linguistica avanzata, opacità strutturale e capacità sistemica di generare sorpresa. Non si tratta di una semplice illusione cognitiva, ma di un fenomeno sistemico, che nasce dall'intreccio fra le architetture gerarchiche dei modelli di IA, la vastità degli spazi semantici che attraversano e la disposizione umana a cercare senso e intenzione dietro ogni segno.

I sistemi complessi si caratterizzano per tre ingredienti fondamentali: la presenza di numerosi elementi in interazione, l’auto-organizzazione adattiva (spesso guidata da feedback e loop ricorsivi) e l’emergenza di proprietà collettive non riducibili alle singole parti. Questi ingredienti sono pienamente riconoscibili nelle moderne architetture di intelligenza artificiale generativa, in particolare nei Transformer (rete neurale artificiale alla base degli LLM). In questi modelli, miliardi di parametri e strati profondi di elaborazione cooperano attraverso meccanismi di attenzione e retroazione che danno luogo a dinamiche non lineari, adattive e difficilmente prevedibili. L’emergenza di significati, la coerenza linguistica sorprendente e la creatività che spesso osserviamo nei LLM sono il risultato di processi di auto-organizzazione complessi, in cui anche l’osservatore umano gioca un ruolo cruciale, in quanto egli seleziona e interpreta gli output del sistema, chiudendo un loop di senso che è tipico della fenomenologia dei sistemi complessi.

In questo quadro, la Noosemia può essere letta come un effetto emergente dell’interazione tra l’utente e il sistema di IA generativa, dove l’attribuzione di mente e interiorità nasce dall’emergere di proprietà collettive e imprevedibili all’interno della rete neurale, percepite come espressione di agency e significato. Tali effetti sono resi possibili proprio dalla natura sistemica, olistica e ricorsiva dei sistemi di intelligenza artificiale generativa, confermando la piena appartenenza di questi modelli alla categoria dei sistemi complessi.

Più specificatamente, sul piano tecnico, le condizioni che rendono possibile la noosemia risiedono nella natura stessa delle architetture LLM. Il principio fondante delle moderne IA generative è la capacità di modellare il significato in modo relazionale e contestuale. Ogni parola, ogni frase, ogni risposta (anche sul piano iconico) viene costruita come punto in un immenso spazio semantico multidimensionale, dove il contesto locale e globale contribuisce alla generazione di significato. La finestra di contesto – che può raggiungere ormai migliaia o milioni di token – funziona come un vero e proprio «campo cognitivo contestuale», all'interno del quale la macchina integra rappresentazioni precedenti e attiva inferenze che appaiono spesso come segni di creatività, memoria e forme di ragionamento.

È importante sottolineare che la noosemia, nella sua accezione rigorosa, non implica in alcun modo l'effettiva presenza di coscienza o intenzionalità nell'intelligenza artificiale. Si tratta, piuttosto, di una proiezione fenomenologica e interpretativa, che nasce dall'incontro tra le nostre disposizioni cognitive e le proprietà emergenti degli attuali sistemi generativi che condividono molte delle proprietà dei sistemi complessi (autorganizzazione, emergenza, struttura gerarchica, ecc.). Confondere questa esperienza soggettiva con una realtà ontologica rischia di oscurare la distinzione critica tra attribuzione di senso e presenza reale di una mente.

La riflessione sulla noosemia invita quindi a interrogarsi sulle nuove forme di «ecologia delle menti» (e su una nuova iterazione della «noosfera» di cui parlava il gesuita Teilhard de Chardin) che si stanno delineando nell'epoca dell'intelligenza artificiale generativa e dei sistemi agentici. Comprendere e denominare questo fenomeno con un termine specifico non è solo una questione teorica, ma ha ricadute etiche ed educative fondamentali. Senza consapevolezza del meccanismo della noosemia, si rischia di confondere la performance espressiva della macchina con una reale comprensione o empatia, alimentando aspettative irrealistiche, dipendenza psicologica e nuove forme di dipendenza digitale. Disporre di una categoria specifica aiuta quindi non solo la comunità scientifica, ma anche educatori, genitori e policy maker a sviluppare strategie di alfabetizzazione digitale, protezione dell’autonomia personale e valutazione critica dell’impatto che queste tecnologie esercitano sulla nostra percezione, sulle relazioni e sulla formazione del senso di sé nell’era dell’IA generativa.

Nel contesto del nuovo «Digital Lebenswelt» (il «mondo-della-vita digitale», dalla fenomenologia husserliana), la noosemia rappresenta una chiave interpretativa essenziale per comprendere come l’esperienza quotidiana sia sempre più mediata, influenzata e trasformata dall’interazione con sistemi digitali dotati di capacità dialogiche e generative. In questo scenario, il dialogo tra filosofia, semiotica, scienze cognitive e ingegneria dell'IA diventa indispensabile per comprendere non solo come costruiamo il senso nell'interazione con le macchine, ma anche come questa relazione stia ridefinendo il nostro stesso rapporto con la tecnologia, il sapere, la soggettività e lo stesso senso dell'umano




Riferimenti

Altman, S. (Intervistato). (2025, July 23). Sam Altman | This Past Weekend w/ Theo Von #599 [Video]. YouTube. https://www.youtube.com/watch?v=aYn8VKW6vXA

De Santis, E. (2021). Umanità, complessità, intelligenza artificiale. Un connubio perfetto. Aracne – Genzano, Roma.

De Santis, E. (2023). Apocalissi digitali e alchimie artificiali. Il linguaggio nell'epoca della sua riproducibilità tecnica. Prometeo, Mondadori, (163), 32-41.

De Santis, E., & Rizzi, A. (2023). Prototype theory meets word embedding: A novel approach for text categorization via granular computing. Cognitive Computation, 15(3), 976–997. https://doi.org/10.1007/s12559-022-10065-5

De Santis, E., Martino, A., & Rizzi, A. (2024). Human versus machine intelligence: Assessing natural language generation models through complex systems theory. IEEE Transactions on Pattern Analysis and Machine Intelligence, 46(7), 4812–4829. https://doi.org/10.1109/TPAMI.2024.3358168

De Santis, E., Capillo, A., Ferrandino, E., Mascioli, F. M. F., & Rizzi, A. (2021). An information granulation approach through m-grams for text classification. In International Joint Conference on Computational Intelligence (pp. 73–89). Springer.

Teilhard de Chardin, P. (1959). The Phenomenon of Man (B. Wall, Trans.). Collins. (Original work published 1955)

Jaspers, K. (2010). The Origin and Goal of History (M. Bullock, Trans.). Routledge. (Original work published 1953)

Simmel, G. (2004). La filosofia del denaro. UTET. (Original work published 1900)

Eco, U. (1979). Lector in fabula: La cooperazione interpretativa nei testi narrativi. Bompiani.

Ricœur, P. (1976). Interpretation Theory: Discourse and the Surplus of Meaning. Texas Christian University Press.

Fridman, L. (Host), & Altman, S. (Guest). (2023, March). Sam Altman: OpenAI CEO on GPT-4, ChatGPT, and the Future of AI [Audio podcast episode]. Lex Fridman Podcast #367. https://www.youtube.com/watch?v=L_Guz73e6fw

Jaimungal, C. (Host), & Hinton, G. (Guest). (2025, January). Why the “Godfather of AI” now fears his own creation [Video]. Theories of Everything with Curt Jaimungal. https://www.youtube.com/watch?v=b_DUft-BdIE

OpenAI. (2025, April 16). Introducing OpenAI o3 and o4-mini. OpenAI Blog. https://openai.com/index/introducing-o3-and-o4-mini/

Bommasani, R., Hudson, D. A., Adeli, E., Altman, R., Arora, S., von Arx, S., ... & Liang, P. (2021). On the opportunities and risks of foundation models. arXiv preprint arXiv:2108.07258. https://arxiv.org/abs/2108.07258

Hofstadter, D. R. (1995). Fluid concepts and creative analogies: Computer models of the fundamental mechanisms of thought. Basic Books.

Weizenbaum, J. (1966). ELIZA—A computer program for the study of natural language communication between man and machine. Communications of the ACM, 9(1), 36–45. https://doi.org/10.1145/365153.365168

Dennett, D. C. (1987). The Intentional Stance. MIT Press.

Mauss, M., & Hubert, H. (1972). A General Theory of Magic (R. Brain, Trans.). Routledge & Kegan Paul. (Original work published 1904)

Chalmers, D. J. (1996). The Conscious Mind: In Search of a Fundamental Theory. Oxford University Press.

Kosinski, M. (2023). Theory of Mind may have spontaneously emerged in large language models. arXiv preprint arXiv:2302.02083. https://arxiv.org/abs/2302.02083




_____

Guarda il Manifesto [ENG]


Nessun commento:

Posta un commento

Scelti

I Large Reasoning Models (LRM) o Reasoning Language Models (RLM) sono più che motori statistici?

source Negli ultimi anni, il dibattito sulle capacità dei grandi modelli linguistici si è spesso concentrato su un’affermazione apparentemen...