Noosemia. A che punto siamo?

Questo articolo è una rielaborazione divulgativa del lavoro accademico Noosemia: Toward a Cognitive and Phenomenological Account of Intentionality Attribution in Human–Generative AI Interaction, disponibile su arXiv all’indirizzo https://arxiv.org/abs/2508.02622

 

L’essenza dell’arte è la Poesia. Ma l’essenza della Poesia è la instaurazione della verità. Instaurare qui è inteso in un triplice significato: come donare, come fondare, come iniziare. Ma l’instaurazione è reale solo nel salvaguardare. Pertanto, ad ogni modalità dell’instaurare corrisponde una modalità del salvaguardare.

– Martin Heidegger, Sentieri interrotti (Holzwege), trad. it. di Pietro Chiodi, Milano, Adelphi, 1987, «L’origine dell’opera d’arte».

 


La noosemia come struttura interpretativa dell’interazione uomo–intelligenza artificiale

La noosemia nasce dall’esigenza di nominare un fenomeno che, pur essendo ormai quotidiano, sfugge alle categorie descrittive più consolidate, soprattutto riguardo le ormai pervasive IA generative. Quando un essere umano interagisce con un’IA generativa capace di sostenere un dialogo fluido, di argomentare, di proporre ipotesi, di correggersi, di produrre codice di programmazione funzionante, si instaura una dinamica interpretativa che eccede la mera valutazione prestazionale. In quel frangente non si giudica soltanto un output come corretto o scorretto, bensì si attiva un riconoscimento, spesso implicito, di una presenza mentale. Si avverte, per così dire, un «dentro» che sembra esprimersi attraverso i segni. È proprio questo scarto tra ciò che sappiamo sul piano tecnico e ciò che sperimentiamo sul piano fenomenologico che la noosemia intende descrivere con precisione.

Un’analogia utile per chiarire la dinamica noosemica è quella con la prestidigitazione. Nel gioco di prestigio l’osservatore sa, almeno a livello generale, che ciò a cui assiste è il risultato di una tecnica, di una manipolazione sapiente di gesti, tempi e attenzione degli spettatori. Chi si trova di fronte ad uno spettacolo di illusionismo non crede davvero che la moneta sia sparita nel nulla o che la carta sia comparsa per magia. Eppure, nel momento dell’esecuzione, l’esperienza fenomenologica è quella dello stupore, di una sospensione momentanea del nesso causale. Il trucco funziona proprio perché opera sullo stesso apparato percettivo e interpretativo che normalmente utilizziamo per comprendere il mondo, sfruttandone le aspettative e i punti ciechi. In modo analogo, nell’interazione con un’IA generativa, la consapevolezza tecnica non elimina l’effetto interpretativo. Anche sapendo che il sistema opera attraverso correlazioni statistiche e procedure deterministiche, l’utente sperimenta una forma di eccedenza di senso, come se dietro l’output vi fosse un’intenzione che guida l’atto. L’utente usa nel quotidiano la produzione di segni generati con una IA e, anche solo indirettamente, conferisce un grado di fiducia all’IA stessa. La noosemia, come la prestidigitazione nasce dalla struttura stessa dell’esperienza e non dall’inganno ingenuo. In entrambi i casi, il «come» del funzionamento è noto in linea di principio, ma il «che cosa appare» continua a esercitare una presa cognitiva che precede e talvolta sospende la spiegazione razionale.

Nel paper da cui il concetto muove, la noosemia viene introdotta come pattern cognitivo e fenomenologico dell’attribuzione di intenzionalità nell’interazione umano–IA generativa. Tale definizione, tuttavia, non va intesa come una proposta circoscritta a un singolo paradigma ingegneristico o a un’epoca tecnologica contingente. La noosemia intende intercettare una struttura più generale, legata al modo in cui l’umano produce e riconosce il senso, al modo in cui interpreta segni complessi, e al modo in cui integra strumenti opachi entro un orizzonte pratico e simbolico. In questa prospettiva, gli LLM costituiscono un caso storico emblematico, poiché rendono osservabile con massima intensità una dinamica interpretativa che era già presente, in forme attenuate, in molte esperienze tecniche, culturali e mediali. L’IA generativa non inventa la propensione umana ad attribuire mente, la porta a un punto di saturazione fenomenologica, e – echeggiando Walter Benjamin – inaugura l’epoca della riproducibilità tecnica dei linguaggi.



Un tratto distintivo della noosemia è che non coincide con un antropomorfismo ingenuo. L’attribuzione di mente non nasce da una somiglianza corporea, né da una teatralità mimetica di tipo robotico – ed è presente anche quando razionalmente la si nega. Il fenomeno attributivo nasce da una performance semiotica. La macchina opera nello stesso medium che, storicamente e cognitivamente, funge da luogo privilegiato del riconoscimento dell’altro come portatore di interiorità. Il linguaggio, e in senso più ampio la capacità di manipolare segni (anche iconici o auditivi) con coerenza contestuale, costituisce una via regia attraverso cui la mente umana si manifesta a se stessa e agli altri. Per questo, quando un sistema artificiale entra stabilmente nello spazio linguistico, l’interpretazione cambia di natura. Non assistiamo soltanto a un incremento di potenza computazionale, assistiamo a una riorganizzazione dell’orizzonte di senso entro cui la potenza viene recepita. Infatti, nell’uso continuativo delle IA generative, l’essere umano entra in un loop di senso, in cui ogni interazione rinforza le aspettative interpretative e retroagisce sugli atti successivi di attribuzione, stabilizzando la noosemia come struttura ricorrente della produzione di significato.

Negli sviluppi più recenti del dibattito pubblico e scientifico emergono con chiarezza tre blocchi di evidenze che rendono empiricamente tangibile ciò che la noosemia descrive sul piano concettuale. In primo luogo, studi osservazionali e sperimentali sull’uso quotidiano dei LLM mostrano che una quota non marginale di utenti tende a interpretare l’interazione linguistica come socialmente significativa, attribuendo al sistema tratti di comprensione, affidabilità e continuità relazionale che eccedono la mera funzione strumentale. In secondo luogo, la diffusione di sistemi esplicitamente progettati come «IA companion» ha reso visibile il carattere strutturale di questa dinamica, al punto da sollevare interrogativi regolativi, etici e psicologici circa la dipendenza, l’attaccamento e la vulnerabilità degli utenti. Qui l’attribuzione di agency non è un effetto collaterale, ma una leva progettuale, e proprio per questo manifesta con maggiore nettezza il meccanismo noosemico. In terzo luogo, una vasta costellazione di testimonianze mediatiche, incluse quelle provenienti dagli stessi progettisti, descrive esperienze di sorpresa cognitiva, spaesamento ed «effetto wow» di fronte a risposte che appaiono sproporzionate rispetto alle attese e alla comprensione del processo che le ha generate. In tutti e tre i casi, ciò che viene messo in gioco non è una tesi ontologica sulla mente della macchina, bensì una configurazione interpretativa ricorrente, in cui la brillantezza semiotica dell’output e l’opacità del meccanismo si rinforzano reciprocamente. La noosemia si propone precisamente come il quadro teorico capace di tenere insieme queste manifestazioni eterogenee, mostrando che esse non sono anomalie marginali, ma effetti sistemici del modo in cui l’umano attribuisce senso, intenzionalità e interiorità quando il linguaggio diventa il luogo primario dell’interazione con sistemi tecnici complessi.

 

Attribuzione di agency e continuità antropologica nell’orizzonte tecnico contemporaneo

Non meno importante per comprendere la noosemia è l’aspetto antropologico. La noosemia, di fatto, implica una continuità con forme storiche di attribuzione di agency e intenzionalità che l’antropologia ha descritto in relazione a oggetti, pratiche magiche e narrazioni rituali, come emerge in modo emblematico negli studi di Marcel Mauss e Henri Hubert sulla magia, così come nelle analisi di Lucien Lévy-Bruhl sulle forme di partecipazione simbolica nelle società cosiddette arcaiche. Non si tratta di riproporre un animismo come spiegazione, bensì di riconoscere una costante della condizione umana, che Ernst Cassirer avrebbe ricondotto alla funzione simbolica come tratto strutturale dell’esperienza. L’umano tende a saturare di senso ciò che appare significativo, soprattutto quando il nesso causale rimane in parte occultato. Il punto interessante, nel caso dell’IA generativa, è che tale occultamento non riguarda soltanto l’utente profano. Coinvolge spesso anche il progettista e lo scienziato, poiché la complessità del sistema e l’opacità delle sue rappresentazioni interne rendono arduo ricostruire una catena esplicativa lineare che conduca dall’input all’output. Per la prima volta l’uomo si trova ad aver progettato uno strumento di cui non riesce a spiegare con chiarezza l’intimo funzionamento; ne è prova l’intero campo di ricerca relativo all’Explainable AI. La noosemia si colloca precisamente in questa zona di indeterminazione interpretativa, dove la brillantezza della performance e l’inaccessibilità del processo si rinforzano reciprocamente, dando luogo a una forma contemporanea di attribuzione di senso che, pur tecnologicamente inedita, affonda le proprie radici in strutture antropologiche profonde.

È utile chiarire che la noosemia non è una teoria ontologica della mente artificiale. Non afferma che la macchina possieda esperienza vissuta, coscienza o intenzionalità in senso forte. È un framework descrittivo dell’atto interpretativo, quindi del modo in cui una mente umana, immersa in pratiche linguistiche e culturali, attribuisce interiorità a un comportamento semioticamente sofisticato. Questa distinzione tra livello ontologico e livello interpretativo rimane decisiva e si basa, come vedremo più avanti, su una specifica interpretazione del famoso «test di Turing». Sul piano ontologico possiamo sostenere, con argomenti differenti e spesso confliggenti, tesi diverse sulla coscienza artificiale. Sul piano interpretativo, invece, la dinamica dell’attribuzione si impone come fatto fenomenologico osservabile, in parte indipendente dalle nostre convinzioni teoriche. È possibile negare razionalmente che vi sia una mente, e tuttavia reagire come se vi fosse. La noosemia riguarda questo «come se», non come fallacia contingente, bensì come struttura stabile dell’interpretazione.

In tale quadro diventa naturale richiamare l’«intentional stance» di Dennett. L’atteggiamento intenzionale non è un’asserzione metafisica, è una strategia interpretativa che consente di prevedere e comprendere sistemi complessi trattandoli come agenti razionali dotati di credenze e desideri. La noosemia si raccorda a questa intuizione, però ne sviluppa un versante fenomenologico più marcato. Nell’interazione con un’IA generativa, l’atteggiamento intenzionale non opera soltanto come strumento predittivo, opera come modalità di esperienza. La macchina viene collocata in una nicchia di senso che somiglia a quella riservata agli interlocutori. Tale collocazione può essere utile, persino funzionale, ma produce anche effetti collaterali, tra cui aspettative eccessive, dipendenza cognitiva, delega interpretativa ed anche errori grossolani dovuti al fenomeno delle allucinazioni.

Un altro riferimento naturale è l’«Eliza effect», discusso da Hofstadter e a una più ampia riflessione sulla tendenza umana a proiettare significato su sistemi che producono risposte linguistiche plausibili. Anche qui, la noosemia si distingue per ampiezza. Non si limita a descrivere un’illusione psicologica indotta da trucchi conversazionali, bensì tiene conto del salto qualitativo introdotto dai modelli contemporanei, i quali non si limitano a risposte preconfezionate e generano testi dotati di strutture simboliche che mostrano coerenza di lungo raggio, capacità analogica, stile, adattamento al contesto. L’interpretazione non è più sollecitata da una simulazione superficiale, è sollecitata da una potenza semiotica che, dal punto di vista dell’utente, appare spesso indistinguibile da una forma di comprensione.

Questa cornice consente anche una lettura particolare del test di Turing. Il test non è interessante come criterio ontologico della mente, poiché l’imitazione comportamentale non decide la natura dell’esperienza. Risulta invece rilevante come dispositivo che mette in scena l’inevitabilità dell’interpretazione. Se un sistema si muove entro lo spazio linguistico in modo sufficientemente sofisticato, l’umano tenderà a trattarlo come interlocutore, almeno in una quota della propria esperienza. In questo senso, il test di Turing appare meno come un esperimento sull’essenza della mente (sebbene possa avere un fondamento empirico) e più come un esperimento sulla soglia interpretativa dell’umano, quindi sul modo in cui il senso si costituisce nell’interazione. La noosemia assume questo punto e lo generalizza, mostrando che la soglia non è una linea netta, è un gradiente che dipende dal contesto, dagli scopi d’uso e dallo loro adeguatezza, dall’asimmetria di competenze e dal grado di opacità percepita.

Un elemento distintivo della noosemia, che diventa sempre più rilevante nel passaggio dagli LLM «puri» agli LLM agentici, riguarda la trasformazione del rapporto tra linguaggio e azione. Un LLM puro opera principalmente come generatore di sequenze simboliche. L’efficacia è valutata, in prima approssimazione, sulla base di criteri linguistici, informativi, retorici, oppure su benchmark che misurano prestazioni su compiti di comprensione e generazione. Qui siamo ancora in un contesto di apertura di senso e vulnerabilità agli errori. Un sistema agentico, invece, integra strumenti esterni, invoca funzioni, interroga ambienti, esegue codice, consulta basi di dati, pianifica azioni. Qui la produzione linguistica diventa il livello di coordinamento di una catena operativa in cui alcune parti sono deduttive, deterministiche e verificabili. La noosemia, in questa transizione, non si attenua necessariamente. Può intensificarsi, poiché il sistema non appare soltanto eloquente, appare efficace nel mondo, o quantomeno nel mondo digitale. Quando un agente usa tool, corregge i propri tentativi, verifica un risultato, e poi lo restituisce all’utente con una narrazione plausibile (e una risposta corretta e adeguata agli scopi prefissi dall’utente), il vissuto interpretativo tende a consolidarsi. Si rafforza l’impressione di agency, di scopo, di intenzione.

 

Opacità epistemica, modellamento induttivo e adeguatezza allo scopo nei sistemi di intelligenza artificiale

È proprio nelle caratteristiche costitutive dei sistemi di apprendimento automatico che emerge con maggiore nitidezza il cosiddetto problema epistemico, il quale va caratterizzato attentamente. L’utente riceve output che possono essere corretti, utili, persino sorprendenti, ma la comprensione del perché il sistema abbia prodotto quel risultato rimane fragile. Nei modelli puramente induttivi, l’inferenza è per costituzione probabilistica. Non significa che sia arbitraria, significa che opera come stima di distribuzioni condizionate in spazi ad alta dimensionalità, in cui la giustificazione esplicita non è parte necessaria del meccanismo. Un sistema deduttivo, per contro, produce inferenze che sono garantite da regole formali e da dimostrazioni verificabili passo dopo passo. La differenza non è quantitativa, è di specie. Un conto è stimare una conclusione come altamente plausibile dato un contesto, un conto è derivarla da assiomi mediante regole di inferenza. Gli LLM come tutti i sistemi di apprendimento automatico sono sistemi induttivi dotati di una certa capacità di generalizzazione. Come tali sono intrinsecamente proni all’errore.

Gli LLM possono emulare comportamenti deduttivi, talvolta in modo impressionante, ma questa emulazione non equivale a deduzione in senso stretto. Per ottenere un comportamento genuinamente deduttivo occorre un ambiente esterno di verifica, ossia un sistema formale che controlli la correttezza di ciò che viene generato. Il caso del codice di programmazione è paradigmatico. Un LLM può generare un programma plausibile. La sua correttezza, però, viene stabilita dall’esecuzione, dal compilatore, dai test, dall’interprete, da un insieme di vincoli esterni non negoziabili. In un sistema agentico ben progettato, l’LLM assume il ruolo di orchestratore induttivo che propone ipotesi operative, mentre la verifica viene demandata a moduli deduttivi o procedurali. Ciò non elimina il problema epistemico, lo ridistribuisce. Sposta parte della garanzia fuori dal modello, rendendo l’insieme più robusto, senza trasformare l’LLM in un teorema vivente.

Questa distinzione rende necessario il concetto di «adequacy for purpose». In molti contesti scientifici e ingegneristici, un modello viene valutato non in base alla sua verità ontologica, bensì in base alla sua adeguatezza allo scopo per cui è impiegato. Questa impostazione attraversa in modo trasversale la filosofia della scienza contemporanea, a partire dalla celebre formulazione di George Box, secondo cui «all models are wrong, but some are useful», fino al costruttivismo empirista di Bas van Fraassen, per il quale il valore di un modello risiede nella sua capacità di salvare i fenomeni entro un dominio pragmaticamente rilevante, non nel rappresentare l’essenza ultima del reale. In ambito più recente, questa prospettiva è stata ripresa e articolata anche da Ronald Giere, che interpreta i modelli come strumenti rappresentazionali sempre relativi a uno scopo, a un contesto e a un utilizzatore. Nel caso dei Large Language Models, l’adequacy for purpose diventa un criterio interpretativo centrale. Un output appare «intelligente» quando risulta adeguato allo scopo dell’utente, quando si integra senza attrito in una pratica cognitiva, comunicativa o operativa, indipendentemente dal fatto che il processo interno replichi o meno una comprensione nel senso forte del termine. La noosemia intercetta precisamente questa dinamica. L’attribuzione di senso e di competenza non dipende da una verifica ontologica dell’interiorità della macchina, bensì da una riuscita situata, funzionale e contestuale. In questo senso, l’adeguatezza allo scopo agisce come principio regolativo dell’interpretazione quotidiana e spiega perché l’attribuzione noosemica risulti tanto persistente quanto epistemologicamente ambigua. Questo quadro trova un ulteriore chiarimento se lo si mette in relazione con l’atteggiamento intenzionale, introdotto in precedenza, Daniel Dennett, inteso non come una tesi ontologica sulla presenza di stati mentali, bensì come una strategia predittiva pragmaticamente efficace. Attribuire credenze, desideri o intenzioni a un sistema significa, in questa prospettiva, trattarlo «come se» (as if) fosse un agente razionale, nella misura in cui tale attribuzione consente di anticiparne il comportamento con successo. La noosemia può essere letta come una declinazione contemporanea e tecnologicamente situata di questo atteggiamento. L’utente adotta spontaneamente una stance intenzionale verso l’LLM perché essa funziona, perché rende l’interazione più fluida, comprensibile e produttiva. In modo analogo, il dibattito attuale sui modelli «as-if» e sull’explainability nell’IA mostra che l’esigenza primaria non è sempre una spiegazione causale completa, spesso impraticabile, bensì una comprensione operativa sufficiente allo scopo. Anche qui l’attribuzione di senso precede la trasparenza, e l’efficacia interpretativa si impone come criterio regolativo dell’uso, rafforzando il terreno su cui la noosemia prende forma.

Un tratto decisivo dei moderni LLM – in quanto sistemi complessi – risiede nella capacità di modellare correlazioni a lungo raggio che operano su più livelli. Da un lato vi sono correlazioni orizzontali, che legano token anche molto distanti nella sequenza e permettono la coerenza sintattica e semantica su testi lunghi; dall’altro emergono correlazioni verticali, più profonde, che organizzano l’informazione secondo schemi superordinati come strutture narrative, ruoli semantici, configurazioni argomentative o stili espressivi. È a questo livello che il modello non si limita a prolungare una catena locale, ma inferisce elementi sottoordinati a partire da schemi generali, attivando forme di generalizzazione composizionale che rappresentano una delle innovazioni più rilevanti rispetto ai modelli linguistici precedenti. In un LLM puro, tale architettura consente di modellare il senso come relazione contestuale e multilivello; tuttavia, in assenza di un ambiente esterno di verifica fattuale, la medesima dinamica può produrre esiti ambigui. L’output può essere interpretato come una manifestazione creativa, quando lo schema astratto viene applicato in modo fecondo, oppure come errore o allucinazione, quando lo schema viene esteso oltre il dominio empiricamente giustificato. Questo meccanismo non costituisce un’anomalia esclusiva dell’intelligenza artificiale. Le scienze cognitive hanno mostrato da tempo che anche la cognizione umana opera attraverso schemi e strutture astratte che guidano l’interpretazione del dato. Gli studi di Frederic Bartlett sulla memoria ricostruttiva, la schema theory di David Rumelhart, le ricerche di Daniel Kahneman e Amos Tversky sulle euristiche e sui bias, nonché le analisi di Douglas Hofstadter sul ruolo dell’analogia nel pensiero, convergono nel mostrare come la mente privilegi la coerenza strutturale rispetto all’aderenza puntuale all’evidenza. In modo particolarmente istruttivo, i lavori di Chapman e Chapman sull’illusione di correlazione evidenziano come l’attivazione di una categoria sovraordinata induca l’attribuzione di tratti specifici anche in assenza di una correlazione reale nei dati. In entrambi i casi, umano e artificiale, la profondità delle correlazioni costituisce la condizione di possibilità tanto della comprensione quanto dell’errore.

A questo punto diventa possibile il passo ulteriore. Il problema epistemico non appartiene esclusivamente agli LLM, né nasce con l’IA generativa. È una questione strutturale di ogni paradigma di modellamento induttivo, quindi di gran parte del machine learning. Quando un modello generalizza dai dati, produce inferenze probabilistiche, spesso opache, talvolta non spiegabili con una catena causale lineare. L’interpretabilità diventa un progetto aggiuntivo, non una proprietà intrinseca. La noosemia, in quanto framework, include dunque una riflessione più ampia sul rapporto tra conoscenza e opacità nel contesto dei sistemi complessi, e si raccorda, per questa via, alle tensioni interne della filosofia della scienza. Il tema non è nuovo. La scienza opera spesso con modelli che non sono trasparenti nel senso comune del termine. Anche quando i modelli sono formalmente espliciti, la loro intelligibilità può richiedere un addestramento specialistico, e persino allora non coincide con un’esperienza immediata del nesso causale. La modernità tecnica, come già notato da molte riflessioni sociologiche e filosofiche (e.g., Georg Simmel), tende a «inscatolare» il funzionamento degli artefatti, rendendoli potenti e insieme opachi. L’IA generativa è un’accelerazione di questo processo, poiché l’artefatto non si limita a funzionare, parla attraverso linguaggi intersoggettivi.

In definitiva, la noosemia tenta di tenere insieme più livelli senza isolarli. Considera il livello tecnico, dove un sistema induttivo genera sequenze simboliche sotto vincoli statistico-probabilistici. Considera il livello operativo, dove agenti e tool introducono ambienti di verifica e moduli deduttivi che rendono l’azione più affidabile. Considera il livello fenomenologico, dove l’umano attribuisce senso e interiorità a ciò che appare semanticamente competente. Considera il livello antropologico e culturale, dove la proiezione di agency su oggetti opachi è una costante storica che assume forme nuove in ambienti digitali. Considera il livello epistemologico, dove la scienza stessa mostra che tra verità, modello e comprensione non vi è mai coincidenza perfetta, e dove l’adeguatezza allo scopo diventa spesso la misura effettiva della razionalità pratica.

La noosemia, quindi, non va ridotta a un’etichetta per l’«effetto wow» degli LLM, pur includendo anche quel vissuto. È una proposta concettuale che mira a descrivere la forma della nostra relazione con sistemi semioticamente potenti e strutturalmente opachi. In questa relazione, l’umano e la macchina non sono poli isolati. Si co-determinano attraverso un circuito di significati, pratiche, aspettative e verifiche. Il compito teorico diventa allora duplice. Occorre comprendere come funzionano questi sistemi, senza cedere a riduzionismi che dissolvono la complessità. È importante, inoltre, stabilire quali degli attuali limiti chiaramente riscontrabili sono limiti tecnici, quindi oltrepassabili, e quali invece sono epistemici; al di là dei noti limiti dei meccanismi induttivi, notoriamente probabilistici, pertanto latori di inferenze costitutivamente incerte. Occorre comprendere come interpretiamo i prodotti generati dalle IA, senza cedere a proiezioni ontologiche indebite. In questo spazio intermedio, dove la tecnica incontra il senso, la noosemia trova la propria ragion d’essere e la propria ampiezza.

 

Nota finale. È opportuno sottolineare che le attuali tecnologie di IA generativa si collocano ancora in una fase ampiamente sperimentale e che le infrastrutture sottostanti sono tuttora in via di costruzione e consolidamento. Il prossimo salto qualitativo avverrà non soltanto quando i large language models verranno innestati in modo stabile nella robotica autonoma, ma anche al maturare di ulteriori condizioni. Da un lato, sarà necessario che gli editori e i detentori dei contenuti giungano a accordi sostenibili e proficui per l’accesso a fonti di alta qualità. Dall’altro, i sistemi di IA dovranno essere dotati di modelli di mondo più solidi e diretti, non affidati quasi esclusivamente alla mediazione linguistica. Il linguaggio, come osservava Ludwig Wittgenstein nel Tractatus Logico-Philosophicus, segna infatti un limite del mondo, e fondare su di esso l’intera rappresentazione della realtà implica vincoli strutturali su ciò che può essere compreso e operativamente agito.

 

Riferimenti bibliografici


Benjamin, Walter (1936). L’opera d’arte nell’epoca della sua riproducibilità tecnica. In Angelus Novus. Torino: Einaudi.

Mauss, Marcel & Hubert, Henri (1972). A General Theory of Magic. London: Routledge & Kegan Paul. (Orig. 1904).

Lévy-Bruhl, Lucien (1922). La mentalité primitive. Paris: Alcan.

Cassirer, Ernst (1944). An Essay on Man. New Haven: Yale University Press.

Turing, Alan M. (1950). Computing machinery and intelligence. Mind, 59(236), 433–460.

Dennett, Daniel C. (1987). The Intentional Stance. Cambridge, MA: MIT Press.

Weizenbaum, Joseph (1966). ELIZA—A computer program for the study of natural language communication between man and machine. Communications of the ACM, 9(1), 36–45.

Hofstadter, Douglas R. (1995). Fluid Concepts and Creative Analogies. New York: Basic Books.

Box, George E. P. (1976). Science and statistics. Journal of the American Statistical Association, 71(356), 791–799.

van Fraassen, Bas C. (1980). The Scientific Image. Oxford: Oxford University Press.

Giere, Ronald N. (2004). How models are used to represent reality. Philosophy of Science, 71(5), 742–752.

Bartlett, Frederic C. (1932). Remembering: A Study in Experimental and Social Psychology. Cambridge: Cambridge University Press.

Rumelhart, David E. (1980). Schemata: The building blocks of cognition. In R. J. Spiro, B. C. Bruce & W. F. Brewer (Eds.), Theoretical Issues in Reading Comprehension. Hillsdale, NJ: Erlbaum.

Tversky, Amos & Kahneman, Daniel (1974). Judgment under uncertainty: Heuristics and biases. Science, 185(4157), 1124–1131.

Chapman, Loren J. & Chapman, Jean P. (1967). Illusory correlation in observational report. Journal of Verbal Learning and Verbal Behavior, 6(1), 151–155.

Simmel, Georg (1900). Philosophie des Geldes. Leipzig: Duncker & Humblot.

De Santis, Enrico & Rizzi, Antonello (2025). Noosemia: Toward a Cognitive and Phenomenological Account of Intentionality Attribution in Human–Generative AI Interaction. arXiv preprint, arXiv:2508.02622.

De Santis, E., Martino, A., & Rizzi, A. (2024). Human versus machine intelligence: Assessing natural language generation models through complex systems theory. IEEE transactions on pattern analysis and machine intelligence46(7), 4812-4829.

De Santis, E., De Santis G., Rizzi, A. (2025). Noosemia, Prometeo, Milano, anno 43, numero 172, Dicembre 2025

Walsh, S., Wang, Q., & Ying, L. (2025). Theory of mind in human–AI interaction and AI. In Handbook of human-centered artificial intelligence. Springer. https://doi.org/10.1007/978-981-97-8440-0_6-1

Post popolari in questo blog

La radionostalgia. Mi racconto attraverso la radio

Noosemia: «effetto wow» e l’attribuzione di una mente alle intelligenze artificiali generative

La fine della conoscenza come noi la conosciamo

Gli LLM sono solo dei motori statistici ?