Noosemia. A che punto siamo?
L’essenza dell’arte è la Poesia. Ma l’essenza della Poesia è la instaurazione della verità. Instaurare qui è inteso in un triplice significato: come donare, come fondare, come iniziare. Ma l’instaurazione è reale solo nel salvaguardare. Pertanto, ad ogni modalità dell’instaurare corrisponde una modalità del salvaguardare.
– Martin Heidegger, Sentieri interrotti (Holzwege), trad. it. di Pietro Chiodi, Milano, Adelphi, 1987, «L’origine dell’opera d’arte».
La noosemia come struttura interpretativa dell’interazione uomo–intelligenza artificiale
La noosemia nasce dall’esigenza di nominare un fenomeno che,
pur essendo ormai quotidiano, sfugge alle categorie descrittive più consolidate,
soprattutto riguardo le ormai pervasive IA generative. Quando un essere umano
interagisce con un’IA generativa capace di sostenere un dialogo fluido, di
argomentare, di proporre ipotesi, di correggersi, di produrre codice di
programmazione funzionante, si instaura una dinamica interpretativa che eccede
la mera valutazione prestazionale. In quel frangente non si giudica soltanto un
output come corretto o scorretto, bensì si attiva un riconoscimento, spesso
implicito, di una presenza mentale. Si avverte, per così dire, un «dentro» che
sembra esprimersi attraverso i segni. È proprio questo scarto tra ciò che
sappiamo sul piano tecnico e ciò che sperimentiamo sul piano fenomenologico che
la noosemia intende descrivere con precisione.
Un’analogia utile per chiarire la dinamica noosemica è
quella con la prestidigitazione. Nel gioco di prestigio l’osservatore sa,
almeno a livello generale, che ciò a cui assiste è il risultato di una tecnica,
di una manipolazione sapiente di gesti, tempi e attenzione degli spettatori. Chi
si trova di fronte ad uno spettacolo di illusionismo non crede davvero che la
moneta sia sparita nel nulla o che la carta sia comparsa per magia. Eppure, nel
momento dell’esecuzione, l’esperienza fenomenologica è quella dello stupore, di
una sospensione momentanea del nesso causale. Il trucco funziona proprio perché
opera sullo stesso apparato percettivo e interpretativo che normalmente
utilizziamo per comprendere il mondo, sfruttandone le aspettative e i punti
ciechi. In modo analogo, nell’interazione con un’IA generativa, la
consapevolezza tecnica non elimina l’effetto interpretativo. Anche sapendo che
il sistema opera attraverso correlazioni statistiche e procedure
deterministiche, l’utente sperimenta una forma di eccedenza di senso, come se
dietro l’output vi fosse un’intenzione che guida l’atto. L’utente usa nel
quotidiano la produzione di segni generati con una IA e, anche solo
indirettamente, conferisce un grado di fiducia all’IA stessa. La noosemia, come
la prestidigitazione nasce dalla struttura stessa dell’esperienza e non
dall’inganno ingenuo. In entrambi i casi, il «come» del funzionamento è noto in
linea di principio, ma il «che cosa appare» continua a esercitare una presa
cognitiva che precede e talvolta sospende la spiegazione razionale.
Nel paper da cui il concetto muove, la noosemia viene
introdotta come pattern cognitivo e fenomenologico dell’attribuzione di
intenzionalità nell’interazione umano–IA generativa. Tale definizione,
tuttavia, non va intesa come una proposta circoscritta a un singolo paradigma
ingegneristico o a un’epoca tecnologica contingente. La noosemia intende
intercettare una struttura più generale, legata al modo in cui l’umano produce
e riconosce il senso, al modo in cui interpreta segni complessi, e al modo in
cui integra strumenti opachi entro un orizzonte pratico e simbolico. In questa
prospettiva, gli LLM costituiscono un caso storico emblematico, poiché rendono
osservabile con massima intensità una dinamica interpretativa che era già
presente, in forme attenuate, in molte esperienze tecniche, culturali e
mediali. L’IA generativa non inventa la propensione umana ad attribuire mente,
la porta a un punto di saturazione fenomenologica, e – echeggiando Walter
Benjamin – inaugura l’epoca della riproducibilità tecnica dei linguaggi.
Un tratto distintivo della noosemia è che non coincide con
un antropomorfismo ingenuo. L’attribuzione di mente non nasce da una
somiglianza corporea, né da una teatralità mimetica di tipo robotico – ed è
presente anche quando razionalmente la si nega. Il fenomeno attributivo nasce
da una performance semiotica. La macchina opera nello stesso medium che,
storicamente e cognitivamente, funge da luogo privilegiato del riconoscimento
dell’altro come portatore di interiorità. Il linguaggio, e in senso più ampio la
capacità di manipolare segni (anche iconici o auditivi) con coerenza
contestuale, costituisce una via regia attraverso cui la mente umana si
manifesta a se stessa e agli altri. Per questo, quando un sistema artificiale
entra stabilmente nello spazio linguistico, l’interpretazione cambia di natura.
Non assistiamo soltanto a un incremento di potenza computazionale, assistiamo a
una riorganizzazione dell’orizzonte di senso entro cui la potenza viene
recepita. Infatti, nell’uso continuativo delle IA generative, l’essere umano
entra in un loop di senso, in cui ogni interazione rinforza le aspettative
interpretative e retroagisce sugli atti successivi di attribuzione,
stabilizzando la noosemia come struttura ricorrente della produzione di
significato.
Negli sviluppi più recenti del dibattito pubblico e
scientifico emergono con chiarezza tre blocchi di evidenze che rendono
empiricamente tangibile ciò che la noosemia descrive sul piano concettuale. In
primo luogo, studi osservazionali e sperimentali sull’uso quotidiano dei LLM mostrano
che una quota non marginale di utenti tende a interpretare l’interazione
linguistica come socialmente significativa, attribuendo al sistema tratti di
comprensione, affidabilità e continuità relazionale che eccedono la mera funzione
strumentale. In secondo luogo, la diffusione di sistemi esplicitamente
progettati come «IA companion» ha reso visibile il carattere strutturale di
questa dinamica, al punto da sollevare interrogativi regolativi, etici e
psicologici circa la dipendenza, l’attaccamento e la vulnerabilità degli
utenti. Qui l’attribuzione di agency non è un effetto collaterale, ma una leva
progettuale, e proprio per questo manifesta con maggiore nettezza il meccanismo
noosemico. In terzo luogo, una vasta costellazione di testimonianze mediatiche,
incluse quelle provenienti dagli stessi progettisti, descrive esperienze di
sorpresa cognitiva, spaesamento ed «effetto wow» di fronte a risposte che
appaiono sproporzionate rispetto alle attese e alla comprensione del processo
che le ha generate. In tutti e tre i casi, ciò che viene messo in gioco non è
una tesi ontologica sulla mente della macchina, bensì una configurazione
interpretativa ricorrente, in cui la brillantezza semiotica dell’output e
l’opacità del meccanismo si rinforzano reciprocamente. La noosemia si propone
precisamente come il quadro teorico capace di tenere insieme queste
manifestazioni eterogenee, mostrando che esse non sono anomalie marginali, ma
effetti sistemici del modo in cui l’umano attribuisce senso, intenzionalità e
interiorità quando il linguaggio diventa il luogo primario dell’interazione con
sistemi tecnici complessi.
Attribuzione di agency
e continuità antropologica nell’orizzonte tecnico contemporaneo
Non meno importante per comprendere la noosemia è l’aspetto
antropologico. La noosemia, di fatto, implica una continuità con forme storiche
di attribuzione di agency e intenzionalità che l’antropologia ha descritto in
relazione a oggetti, pratiche magiche e narrazioni rituali, come emerge in modo
emblematico negli studi di Marcel Mauss e Henri Hubert sulla magia, così come
nelle analisi di Lucien Lévy-Bruhl sulle forme di partecipazione simbolica
nelle società cosiddette arcaiche. Non si tratta di riproporre un animismo come
spiegazione, bensì di riconoscere una costante della condizione umana, che
Ernst Cassirer avrebbe ricondotto alla funzione simbolica come tratto
strutturale dell’esperienza. L’umano tende a saturare di senso ciò che appare
significativo, soprattutto quando il nesso causale rimane in parte occultato.
Il punto interessante, nel caso dell’IA generativa, è che tale occultamento non
riguarda soltanto l’utente profano. Coinvolge spesso anche il progettista e lo
scienziato, poiché la complessità del sistema e l’opacità delle sue
rappresentazioni interne rendono arduo ricostruire una catena esplicativa
lineare che conduca dall’input all’output. Per la prima volta l’uomo si trova
ad aver progettato uno strumento di cui non riesce a spiegare con chiarezza
l’intimo funzionamento; ne è prova l’intero campo di ricerca relativo
all’Explainable AI. La noosemia si colloca precisamente in questa zona di
indeterminazione interpretativa, dove la brillantezza della performance e
l’inaccessibilità del processo si rinforzano reciprocamente, dando luogo a una
forma contemporanea di attribuzione di senso che, pur tecnologicamente inedita,
affonda le proprie radici in strutture antropologiche profonde.
È utile chiarire che la noosemia non è una teoria ontologica
della mente artificiale. Non afferma che la macchina possieda esperienza
vissuta, coscienza o intenzionalità in senso forte. È un framework descrittivo
dell’atto interpretativo, quindi del modo in cui una mente umana, immersa in
pratiche linguistiche e culturali, attribuisce interiorità a un comportamento
semioticamente sofisticato. Questa distinzione tra livello ontologico e livello
interpretativo rimane decisiva e si basa, come vedremo più avanti, su una
specifica interpretazione del famoso «test di Turing». Sul piano ontologico
possiamo sostenere, con argomenti differenti e spesso confliggenti, tesi
diverse sulla coscienza artificiale. Sul piano interpretativo, invece, la
dinamica dell’attribuzione si impone come fatto fenomenologico osservabile, in
parte indipendente dalle nostre convinzioni teoriche. È possibile negare
razionalmente che vi sia una mente, e tuttavia reagire come se vi fosse. La
noosemia riguarda questo «come se», non come fallacia contingente, bensì come
struttura stabile dell’interpretazione.
In tale quadro diventa naturale richiamare l’«intentional
stance» di Dennett. L’atteggiamento intenzionale non è un’asserzione
metafisica, è una strategia interpretativa che consente di prevedere e
comprendere sistemi complessi trattandoli come agenti razionali dotati di
credenze e desideri. La noosemia si raccorda a questa intuizione, però ne
sviluppa un versante fenomenologico più marcato. Nell’interazione con un’IA
generativa, l’atteggiamento intenzionale non opera soltanto come strumento
predittivo, opera come modalità di esperienza. La macchina viene collocata in
una nicchia di senso che somiglia a quella riservata agli interlocutori. Tale
collocazione può essere utile, persino funzionale, ma produce anche effetti
collaterali, tra cui aspettative eccessive, dipendenza cognitiva, delega
interpretativa ed anche errori grossolani dovuti al fenomeno delle
allucinazioni.
Un altro riferimento naturale è l’«Eliza effect», discusso
da Hofstadter e a una più ampia riflessione sulla tendenza umana a proiettare
significato su sistemi che producono risposte linguistiche plausibili. Anche
qui, la noosemia si distingue per ampiezza. Non si limita a descrivere
un’illusione psicologica indotta da trucchi conversazionali, bensì tiene conto
del salto qualitativo introdotto dai modelli contemporanei, i quali non si
limitano a risposte preconfezionate e generano testi dotati di strutture simboliche
che mostrano coerenza di lungo raggio, capacità analogica, stile, adattamento
al contesto. L’interpretazione non è più sollecitata da una simulazione
superficiale, è sollecitata da una potenza semiotica che, dal punto di vista
dell’utente, appare spesso indistinguibile da una forma di comprensione.
Questa cornice consente anche una lettura particolare del
test di Turing. Il test non è interessante come criterio ontologico della
mente, poiché l’imitazione comportamentale non decide la natura
dell’esperienza. Risulta invece rilevante come dispositivo che mette in scena
l’inevitabilità dell’interpretazione. Se un sistema si muove entro lo spazio
linguistico in modo sufficientemente sofisticato, l’umano tenderà a trattarlo
come interlocutore, almeno in una quota della propria esperienza. In questo senso,
il test di Turing appare meno come un esperimento sull’essenza della mente
(sebbene possa avere un fondamento empirico) e più come un esperimento sulla
soglia interpretativa dell’umano, quindi sul modo in cui il senso si
costituisce nell’interazione. La noosemia assume questo punto e lo generalizza,
mostrando che la soglia non è una linea netta, è un gradiente che dipende dal
contesto, dagli scopi d’uso e dallo loro adeguatezza, dall’asimmetria di
competenze e dal grado di opacità percepita.
Un elemento distintivo della noosemia, che diventa sempre
più rilevante nel passaggio dagli LLM «puri» agli LLM agentici, riguarda la
trasformazione del rapporto tra linguaggio e azione. Un LLM puro opera
principalmente come generatore di sequenze simboliche. L’efficacia è valutata,
in prima approssimazione, sulla base di criteri linguistici, informativi,
retorici, oppure su benchmark che misurano prestazioni su compiti di
comprensione e generazione. Qui siamo ancora in un contesto di apertura di
senso e vulnerabilità agli errori. Un sistema agentico, invece, integra
strumenti esterni, invoca funzioni, interroga ambienti, esegue codice, consulta
basi di dati, pianifica azioni. Qui la produzione linguistica diventa il
livello di coordinamento di una catena operativa in cui alcune parti sono
deduttive, deterministiche e verificabili. La noosemia, in questa transizione,
non si attenua necessariamente. Può intensificarsi, poiché il sistema non
appare soltanto eloquente, appare efficace nel mondo, o quantomeno nel mondo
digitale. Quando un agente usa tool, corregge i propri tentativi, verifica un
risultato, e poi lo restituisce all’utente con una narrazione plausibile (e una
risposta corretta e adeguata agli scopi prefissi dall’utente), il vissuto
interpretativo tende a consolidarsi. Si rafforza l’impressione di agency, di
scopo, di intenzione.
Opacità epistemica,
modellamento induttivo e adeguatezza allo scopo nei sistemi di intelligenza
artificiale
È proprio nelle caratteristiche costitutive dei sistemi di
apprendimento automatico che emerge con maggiore nitidezza il cosiddetto
problema epistemico, il quale va caratterizzato attentamente. L’utente riceve
output che possono essere corretti, utili, persino sorprendenti, ma la
comprensione del perché il sistema abbia prodotto quel risultato rimane
fragile. Nei modelli puramente induttivi, l’inferenza è per costituzione
probabilistica. Non significa che sia arbitraria, significa che opera come
stima di distribuzioni condizionate in spazi ad alta dimensionalità, in cui la
giustificazione esplicita non è parte necessaria del meccanismo. Un sistema
deduttivo, per contro, produce inferenze che sono garantite da regole formali e
da dimostrazioni verificabili passo dopo passo. La differenza non è
quantitativa, è di specie. Un conto è stimare una conclusione come altamente
plausibile dato un contesto, un conto è derivarla da assiomi mediante regole di
inferenza. Gli LLM come tutti i sistemi di apprendimento automatico sono
sistemi induttivi dotati di una certa capacità di generalizzazione. Come tali
sono intrinsecamente proni all’errore.
Gli LLM possono emulare comportamenti deduttivi, talvolta in
modo impressionante, ma questa emulazione non equivale a deduzione in senso
stretto. Per ottenere un comportamento genuinamente deduttivo occorre un
ambiente esterno di verifica, ossia un sistema formale che controlli la
correttezza di ciò che viene generato. Il caso del codice di programmazione è
paradigmatico. Un LLM può generare un programma plausibile. La sua correttezza,
però, viene stabilita dall’esecuzione, dal compilatore, dai test, dall’interprete,
da un insieme di vincoli esterni non negoziabili. In un sistema agentico ben
progettato, l’LLM assume il ruolo di orchestratore induttivo che propone
ipotesi operative, mentre la verifica viene demandata a moduli deduttivi o
procedurali. Ciò non elimina il problema epistemico, lo ridistribuisce. Sposta
parte della garanzia fuori dal modello, rendendo l’insieme più robusto, senza
trasformare l’LLM in un teorema vivente.
Questa distinzione rende necessario il concetto di «adequacy
for purpose». In molti contesti scientifici e ingegneristici, un modello viene
valutato non in base alla sua verità ontologica, bensì in base alla sua
adeguatezza allo scopo per cui è impiegato. Questa impostazione attraversa in
modo trasversale la filosofia della scienza contemporanea, a partire dalla
celebre formulazione di George Box, secondo cui «all models are wrong, but some
are useful», fino al costruttivismo empirista di Bas van Fraassen, per il quale
il valore di un modello risiede nella sua capacità di salvare i fenomeni entro
un dominio pragmaticamente rilevante, non nel rappresentare l’essenza ultima
del reale. In ambito più recente, questa prospettiva è stata ripresa e
articolata anche da Ronald Giere, che interpreta i modelli come strumenti
rappresentazionali sempre relativi a uno scopo, a un contesto e a un
utilizzatore. Nel caso dei Large Language Models, l’adequacy for purpose
diventa un criterio interpretativo centrale. Un output appare «intelligente»
quando risulta adeguato allo scopo dell’utente, quando si integra senza attrito
in una pratica cognitiva, comunicativa o operativa, indipendentemente dal fatto
che il processo interno replichi o meno una comprensione nel senso forte del
termine. La noosemia intercetta precisamente questa dinamica. L’attribuzione di
senso e di competenza non dipende da una verifica ontologica dell’interiorità
della macchina, bensì da una riuscita situata, funzionale e contestuale. In
questo senso, l’adeguatezza allo scopo agisce come principio regolativo
dell’interpretazione quotidiana e spiega perché l’attribuzione noosemica
risulti tanto persistente quanto epistemologicamente ambigua. Questo quadro
trova un ulteriore chiarimento se lo si mette in relazione con l’atteggiamento
intenzionale, introdotto in precedenza, Daniel Dennett, inteso non come una
tesi ontologica sulla presenza di stati mentali, bensì come una strategia
predittiva pragmaticamente efficace. Attribuire credenze, desideri o intenzioni
a un sistema significa, in questa prospettiva, trattarlo «come se» (as if)
fosse un agente razionale, nella misura in cui tale attribuzione consente di
anticiparne il comportamento con successo. La noosemia può essere letta come
una declinazione contemporanea e tecnologicamente situata di questo
atteggiamento. L’utente adotta spontaneamente una stance intenzionale
verso l’LLM perché essa funziona, perché rende l’interazione più fluida,
comprensibile e produttiva. In modo analogo, il dibattito attuale sui modelli «as-if»
e sull’explainability nell’IA mostra che l’esigenza primaria non è
sempre una spiegazione causale completa, spesso impraticabile, bensì una
comprensione operativa sufficiente allo scopo. Anche qui l’attribuzione di
senso precede la trasparenza, e l’efficacia interpretativa si impone come
criterio regolativo dell’uso, rafforzando il terreno su cui la noosemia prende
forma.
Un tratto decisivo dei moderni LLM – in quanto sistemi
complessi – risiede nella capacità di modellare correlazioni a lungo raggio che
operano su più livelli. Da un lato vi sono correlazioni orizzontali, che legano
token anche molto distanti nella sequenza e permettono la coerenza sintattica e
semantica su testi lunghi; dall’altro emergono correlazioni verticali, più
profonde, che organizzano l’informazione secondo schemi superordinati come
strutture narrative, ruoli semantici, configurazioni argomentative o stili
espressivi. È a questo livello che il modello non si limita a prolungare una
catena locale, ma inferisce elementi sottoordinati a partire da schemi
generali, attivando forme di generalizzazione composizionale che rappresentano
una delle innovazioni più rilevanti rispetto ai modelli linguistici precedenti.
In un LLM puro, tale architettura consente di modellare il senso come relazione
contestuale e multilivello; tuttavia, in assenza di un ambiente esterno di
verifica fattuale, la medesima dinamica può produrre esiti ambigui. L’output
può essere interpretato come una manifestazione creativa, quando lo schema
astratto viene applicato in modo fecondo, oppure come errore o allucinazione,
quando lo schema viene esteso oltre il dominio empiricamente giustificato.
Questo meccanismo non costituisce un’anomalia esclusiva dell’intelligenza
artificiale. Le scienze cognitive hanno mostrato da tempo che anche la
cognizione umana opera attraverso schemi e strutture astratte che guidano
l’interpretazione del dato. Gli studi di Frederic Bartlett sulla memoria
ricostruttiva, la schema theory di David Rumelhart, le ricerche di Daniel
Kahneman e Amos Tversky sulle euristiche e sui bias, nonché le analisi di
Douglas Hofstadter sul ruolo dell’analogia nel pensiero, convergono nel
mostrare come la mente privilegi la coerenza strutturale rispetto all’aderenza
puntuale all’evidenza. In modo particolarmente istruttivo, i lavori di Chapman
e Chapman sull’illusione di correlazione evidenziano come l’attivazione di una
categoria sovraordinata induca l’attribuzione di tratti specifici anche in
assenza di una correlazione reale nei dati. In entrambi i casi, umano e
artificiale, la profondità delle correlazioni costituisce la condizione di
possibilità tanto della comprensione quanto dell’errore.
A questo punto diventa possibile il passo ulteriore. Il
problema epistemico non appartiene esclusivamente agli LLM, né nasce con l’IA
generativa. È una questione strutturale di ogni paradigma di modellamento
induttivo, quindi di gran parte del machine learning. Quando un modello
generalizza dai dati, produce inferenze probabilistiche, spesso opache,
talvolta non spiegabili con una catena causale lineare. L’interpretabilità
diventa un progetto aggiuntivo, non una proprietà intrinseca. La noosemia, in
quanto framework, include dunque una riflessione più ampia sul rapporto tra
conoscenza e opacità nel contesto dei sistemi complessi, e si raccorda, per
questa via, alle tensioni interne della filosofia della scienza. Il tema non è
nuovo. La scienza opera spesso con modelli che non sono trasparenti nel senso
comune del termine. Anche quando i modelli sono formalmente espliciti, la loro
intelligibilità può richiedere un addestramento specialistico, e persino allora
non coincide con un’esperienza immediata del nesso causale. La modernità
tecnica, come già notato da molte riflessioni sociologiche e filosofiche (e.g.,
Georg Simmel), tende a «inscatolare» il funzionamento degli artefatti,
rendendoli potenti e insieme opachi. L’IA generativa è un’accelerazione di
questo processo, poiché l’artefatto non si limita a funzionare, parla
attraverso linguaggi intersoggettivi.
In definitiva, la noosemia tenta di tenere insieme più
livelli senza isolarli. Considera il livello tecnico, dove un sistema induttivo
genera sequenze simboliche sotto vincoli statistico-probabilistici. Considera
il livello operativo, dove agenti e tool introducono ambienti di verifica e
moduli deduttivi che rendono l’azione più affidabile. Considera il livello
fenomenologico, dove l’umano attribuisce senso e interiorità a ciò che appare
semanticamente competente. Considera il livello antropologico e culturale, dove
la proiezione di agency su oggetti opachi è una costante storica che assume
forme nuove in ambienti digitali. Considera il livello epistemologico, dove la
scienza stessa mostra che tra verità, modello e comprensione non vi è mai
coincidenza perfetta, e dove l’adeguatezza allo scopo diventa spesso la misura
effettiva della razionalità pratica.
La noosemia, quindi, non va ridotta a un’etichetta per
l’«effetto wow» degli LLM, pur includendo anche quel vissuto. È una proposta
concettuale che mira a descrivere la forma della nostra relazione con sistemi
semioticamente potenti e strutturalmente opachi. In questa relazione, l’umano e
la macchina non sono poli isolati. Si co-determinano attraverso un circuito di
significati, pratiche, aspettative e verifiche. Il compito teorico diventa
allora duplice. Occorre comprendere come funzionano questi sistemi, senza cedere
a riduzionismi che dissolvono la complessità. È importante, inoltre, stabilire
quali degli attuali limiti chiaramente riscontrabili sono limiti tecnici,
quindi oltrepassabili, e quali invece sono epistemici; al di là dei noti limiti
dei meccanismi induttivi, notoriamente probabilistici, pertanto latori di
inferenze costitutivamente incerte. Occorre comprendere come interpretiamo i
prodotti generati dalle IA, senza cedere a proiezioni ontologiche indebite. In
questo spazio intermedio, dove la tecnica incontra il senso, la noosemia trova
la propria ragion d’essere e la propria ampiezza.
Nota finale. È opportuno sottolineare che le attuali
tecnologie di IA generativa si collocano ancora in una fase ampiamente
sperimentale e che le infrastrutture sottostanti sono tuttora in via di
costruzione e consolidamento. Il prossimo salto qualitativo avverrà non
soltanto quando i large language models verranno innestati in modo stabile
nella robotica autonoma, ma anche al maturare di ulteriori condizioni. Da un
lato, sarà necessario che gli editori e i detentori dei contenuti giungano a
accordi sostenibili e proficui per l’accesso a fonti di alta qualità.
Dall’altro, i sistemi di IA dovranno essere dotati di modelli di mondo più
solidi e diretti, non affidati quasi esclusivamente alla mediazione
linguistica. Il linguaggio, come osservava Ludwig Wittgenstein nel Tractatus
Logico-Philosophicus, segna infatti un limite del mondo, e fondare su di esso
l’intera rappresentazione della realtà implica vincoli strutturali su ciò che
può essere compreso e operativamente agito.
Riferimenti bibliografici
Benjamin, Walter (1936). L’opera d’arte nell’epoca della sua riproducibilità
tecnica. In Angelus Novus.
Torino: Einaudi.
Mauss,
Marcel & Hubert, Henri (1972). A General Theory of Magic. London:
Routledge & Kegan Paul. (Orig. 1904).
Lévy-Bruhl,
Lucien (1922). La mentalité primitive. Paris: Alcan.
Cassirer,
Ernst (1944). An Essay on Man. New Haven: Yale University Press.
Turing,
Alan M. (1950). Computing machinery and intelligence. Mind, 59(236),
433–460.
Dennett,
Daniel C. (1987). The Intentional Stance. Cambridge, MA: MIT Press.
Weizenbaum,
Joseph (1966). ELIZA—A computer program for the study of natural language
communication between man and machine. Communications of the ACM, 9(1),
36–45.
Hofstadter,
Douglas R. (1995). Fluid Concepts and Creative Analogies. New York:
Basic Books.
Box, George
E. P. (1976). Science and statistics. Journal of the American
Statistical Association, 71(356), 791–799.
van
Fraassen, Bas C. (1980). The Scientific Image. Oxford: Oxford University
Press.
Giere,
Ronald N. (2004). How models are used to represent reality. Philosophy
of Science, 71(5), 742–752.
Bartlett,
Frederic C. (1932). Remembering: A Study in Experimental and Social
Psychology. Cambridge: Cambridge University Press.
Rumelhart,
David E. (1980). Schemata: The building blocks of cognition. In R. J.
Spiro, B. C. Bruce & W. F. Brewer (Eds.), Theoretical Issues in Reading
Comprehension. Hillsdale, NJ: Erlbaum.
Tversky,
Amos & Kahneman, Daniel (1974). Judgment under uncertainty: Heuristics
and biases. Science, 185(4157), 1124–1131.
Chapman,
Loren J. & Chapman, Jean P. (1967). Illusory correlation in
observational report. Journal of Verbal Learning and Verbal Behavior, 6(1),
151–155.
Simmel,
Georg (1900). Philosophie des Geldes. Leipzig: Duncker &
Humblot.
De Santis, Enrico & Rizzi, Antonello (2025). Noosemia: Toward a Cognitive and
Phenomenological Account of Intentionality Attribution in Human–Generative AI
Interaction. arXiv
preprint, arXiv:2508.02622.
De Santis, E., Martino, A., & Rizzi, A. (2024). Human versus machine intelligence:
Assessing natural language generation models through complex systems
theory. IEEE transactions on pattern analysis and machine
intelligence, 46(7), 4812-4829.
De Santis, E., De Santis G., Rizzi, A. (2025). Noosemia,
Prometeo, Milano, anno 43, numero 172, Dicembre 2025