Cognizione artificiale, mente e attribuzione di senso nell’epoca dei sistemi generativi
Da quando i modelli generativi e i grandi modelli linguistici hanno mostrato una sorprendente capacità di produrre linguaggio coerente, di risolvere problemi complessi e di coordinare azioni in ambienti digitali, il termine «cognizione» è tornato al centro della discussione. La sua ricomparsa non è un fatto marginale. Quando si dice che una macchina «ragiona», «apprende», «ricorda», «pianifica» oppure «comprende», non si sta semplicemente scegliendo un lessico suggestivo. Si sta toccando uno dei nodi più delicati della cultura contemporanea, vale a dire il modo in cui interpretiamo il rapporto tra mente, informazione, tecnica e comportamento intelligente.
Una parte della comunità scientifica ritiene legittimo usare il lessico
cognitivo per descrivere i sistemi artificiali. Un’altra parte invita alla
prudenza, osservando che parole come «comprensione», «intelligenza» o
«cognizione» rischiano di importare nelle macchine contenuti semantici e
ontologici che appartengono originariamente all’esperienza umana. In realtà,
questa tensione non nasce oggi. Essa accompagna fin dalle sue origini la storia
delle scienze cognitive e della stessa intelligenza artificiale. Per questo
motivo, se si vuole affrontare seriamente la questione, occorre anzitutto
distinguere i diversi livelli implicati nell’uso del termine. Vi è un livello
funzionale, nel quale la cognizione designa i processi attraverso cui un
sistema acquisisce informazioni, le trasforma, le conserva e le usa per
orientare il comportamento. Vi è poi un livello ontologico e fenomenologico,
nel quale la cognizione viene associata alla coscienza, all’intenzionalità,
alla soggettività, all’esperienza vissuta. Molta confusione contemporanea
deriva proprio dal passaggio implicito tra questi piani.
Dal punto di vista storico, il termine «cognizione» entra in senso
scientifico nel cuore della psicologia cognitiva del Novecento. Ulric Neisser,
in un’opera divenuta classica, definiva la cognizione come l’insieme dei
processi mediante i quali l’input sensoriale viene trasformato, ridotto,
elaborato, immagazzinato, recuperato e utilizzato (Neisser, 1967). In questa
formulazione, la cognizione non coincide con la coscienza in senso forte. Essa
indica, piuttosto, una serie di operazioni funzionali che rendono possibile il
comportamento intelligente. La mente, in questa nuova prospettiva, cessa di
essere una scatola opaca sottratta alla scienza e diventa un sistema
teoricamente descrivibile attraverso modelli di elaborazione dell’informazione.
La cosiddetta «rivoluzione cognitiva» prende forma proprio su questo
sfondo. Howard Gardner ha mostrato con chiarezza che non si trattò di un evento
confinato alla psicologia, bensì di una convergenza più ampia tra linguistica,
filosofia, informatica, neuroscienze e teoria dei sistemi (Gardner, 1985).
L’idea che la mente potesse essere studiata come processo di rappresentazione,
trasformazione e uso dell’informazione aprì lo spazio epistemologico entro cui
si sarebbe sviluppata anche l’intelligenza artificiale. La questione, dunque,
non riguarda un’impropria invasione del vocabolario della mente da parte
dell’ingegneria contemporanea. Riguarda, piuttosto, una storia comune, nella
quale la scienza della mente e la costruzione di sistemi artificiali si sono formate
in un dialogo profondo e spesso costitutivo.
Già nel secondo dopoguerra, infatti, la teoria dell’informazione e la
cibernetica avevano introdotto un linguaggio condiviso per descrivere organismi
e macchine. Claude Shannon mostrò che l’informazione poteva essere trattata
come grandezza misurabile e formalizzata matematicamente, mediante il concetto
di entropia informativa (Shannon, 1948). Norbert Wiener, quasi negli stessi
anni, propose di studiare con categorie comuni i processi di controllo e
comunicazione negli animali e nelle macchine, ponendo al centro il ruolo del
feedback e dell’autoregolazione (Wiener, 1948). Alan Turing diede a questa
trasformazione una direzione ulteriore, spostando l’attenzione dalla domanda
metafisica «le macchine pensano?» a una formulazione operativa fondata
sull’osservazione del comportamento linguistico e sulla sua indistinguibilità
da quello umano (Turing, 1950). In queste traiettorie già si profila l’idea
destinata a segnare l’intero dibattito successivo, secondo cui un sistema può
essere descritto cognitivamente in ragione di ciò che sa fare, della struttura
dei suoi processi e delle forme della sua organizzazione, senza che ciò
implichi automaticamente una presa di posizione definitiva sul suo statuto
ontologico.
La prima grande stagione dell’intelligenza artificiale sviluppò questa
impostazione soprattutto nella forma del paradigma simbolico. Newell e Simon
sostennero che l’azione intelligente potesse essere studiata come manipolazione
di strutture simboliche entro procedure formalizzate, e arrivarono a formulare
la nota ipotesi del «physical symbol system» (Newell & Simon, 1976). In
questo quadro, un sistema intelligente è tale in quanto rappresenta stati del
mondo, scopi, passaggi intermedi, vincoli e strategie di ricerca, operando su
tali rappresentazioni in modo organizzato. Programmi come il General Problem
Solver non furono soltanto prototipi ingegneristici. Furono anche modelli
teorici mediante cui esplorare la possibilità di una descrizione scientifica
unificata della cognizione. Allen Newell avrebbe poi ribadito che una teoria
adeguata della mente deve spiegare un ampio spettro di comportamenti
intelligenti entro un quadro coerente di meccanismi (Newell, 1990).
Da qui nascono le cosiddette architetture cognitive, come SOAR e ACT-R, che
cercano di integrare memoria, apprendimento, ragionamento, percezione e
controllo dell’azione in una struttura computazionale relativamente generale
(Anderson, 1996; Laird et al., 2017). In questa tradizione, il lessico
cognitivo non ha un carattere ornamentale. È un lessico tecnico, impiegato per
descrivere l’organizzazione funzionale di sistemi capaci di perseguire
obiettivi, utilizzare conoscenza e adattarsi a situazioni variabili. Questo
dato storico è importante, perché mostra che parlare di «cognizione» in
relazione ai sistemi artificiali non equivale, di per sé, a umanizzarli
ingenuamente. Significa, anzitutto, collocarli entro una lunga linea di ricerca
in cui la cognizione viene trattata come insieme di processi informazionali
organizzati.
Accanto alla tradizione simbolica, si è sviluppata quella connessionista,
fondata sull’idea che l’intelligenza possa emergere dall’interazione di molte
unità semplici interconnesse. Dai modelli pionieristici di McCulloch e Pitts
fino al perceptron di Rosenblatt, il tema centrale diventa l’apprendimento
distribuito e la possibilità che comportamenti complessi emergano da reti
adattive (McCulloch & Pitts, 1943; Rosenblatt, 1958). Dopo una fase di
rallentamento, dovuta anche alle note critiche di Minsky e Papert ai limiti dei
perceptron a singolo strato (Minsky & Papert, 1969), il paradigma neurale
conosce una rinascita con il connessionismo degli anni Ottanta. Rumelhart,
McClelland e il gruppo PDP insistono su tre idee decisive, vale a dire
l’elaborazione parallela, la rappresentazione distribuita e l’apprendimento
graduale attraverso l’esperienza (Rumelhart et al., 1986). Geoffrey Hinton, in
particolare, mostra come le rappresentazioni distribuite consentano di
catturare relazioni complesse tra concetti e di generalizzare con notevole
flessibilità (Hinton, 1986).
Con il deep learning, questa linea assume una scala e una potenza nuove. Le
reti profonde apprendono gerarchie di rappresentazioni, nelle quali gli strati
iniziali colgono regolarità semplici, mentre quelli successivi costruiscono
configurazioni sempre più astratte. LeCun, Bengio e Hinton hanno descritto
questa trasformazione come una svolta capace di ridefinire l’intero panorama
dell’intelligenza artificiale contemporanea (LeCun et al., 2015). In tale
contesto, il lessico cognitivo riemerge con forza. Si parla di
rappresentazioni, di concetti appresi, di conoscenza latente, di modelli del
mondo. Questa terminologia riflette un fatto teoricamente rilevante.
L’intelligenza artificiale moderna non si limita più a eseguire regole
programmate dall’esterno. Costruisce strutture interne, apprende regolarità,
comprime la complessità dell’esperienza statistica e organizza l’informazione
in forme progressivamente più pertinenti ai compiti.
Il punto diventa ancora più evidente con l’avvento dei Transformer e dei
Large Language Models. L’architettura introdotta da Vaswani e colleghi ha reso
possibile la costruzione di modelli capaci di apprendere dipendenze lunghe e
strutture complesse all’interno di grandi corpora linguistici (Vaswani et al.,
2017). Le scaling laws hanno poi mostrato che l’aumento coordinato di
parametri, dati e potenza computazionale produce miglioramenti regolari e
prevedibili nelle prestazioni (Kaplan et al., 2020). Quando tali modelli
superano determinate soglie dimensionali, compaiono capacità che, a scala
minore, non erano evidenti. È quanto alcuni autori hanno descritto come
«emergent abilities» (Wei et al., 2022). Il linguaggio generato non appare più
come semplice collage statistico. Mostra continuità argomentativa, adattamento
contestuale, capacità di seguire istruzioni, di scomporre problemi, di fornire
catene inferenziali intermedie.
È comprensibile, allora, che il lessico della cognizione sia tornato a
occupare una posizione centrale. Eppure, proprio qui occorre la maggiore
attenzione teorica. Bender e Koller hanno osservato che i modelli linguistici
operano primariamente sulla forma statistica del linguaggio e che tale
operatività non coincide automaticamente con la comprensione del significato
(Bender & Koller, 2020). La loro critica è preziosa, perché ricorda che la
coerenza linguistica e la capacità di manipolare strutture discorsive non
bastano, da sole, a risolvere il problema semantico. In una linea differente,
ma convergente nell’esito problematico, Searle aveva già sostenuto che la
manipolazione formale di simboli non implica comprensione, come illustra il
celebre argomento della «Chinese Room» (Searle, 1980). Harnad, da parte sua, ha
formulato il problema del grounding simbolico, mostrando che un sistema
puramente simbolico rischia di restare privo di ancoraggio diretto al mondo cui
i simboli si riferiscono (Harnad, 1990).
Queste obiezioni non annullano il valore del lessico cognitivo. Lo
obbligano, però, a una delimitazione più rigorosa. Se si parla di cognizione in
senso funzionale, allora si descrivono processi di acquisizione,
organizzazione, trasformazione e uso dell’informazione per guidare il
comportamento. Se, invece, si intende la cognizione come esperienza cosciente,
intenzionalità intrinseca o comprensione nel senso forte, il problema cambia
radicalmente natura. Roger Penrose, in una linea ampiamente discussa, ha insistito
sul fatto che intelligenza e comprensione non si lasciano ridurre integralmente
all’esecuzione di regole computabili, mentre Emanuele Severino ha spostato la
critica a un livello ancora più radicale, contestando la stessa grammatica
ontologica della «produzione» quando venga applicata all’intelligenza o alla
coscienza, come ricostruito in Scardigli (2022). Qui non è in gioco un semplice
dissenso terminologico. È in gioco il quadro teoretico entro cui pensiamo il
rapporto tra ente, tecnica, apparire e soggettività.
Vi è, inoltre, una famiglia di critiche che invita a ripensare la
cognizione a partire dal corpo e dall’ambiente. Nelle prospettive embodied ed
enattive, la cognizione emerge dall’interazione dinamica tra organismo,
capacità sensorimotorie e mondo circostante. Varela, Thompson e Rosch hanno
mostrato che conoscere non equivale semplicemente a elaborare simboli
internamente, perché il senso prende forma nella relazione tra azione,
percezione e contesto (Varela et al., 1991). Questa impostazione, che per molto
tempo è parsa difficilmente conciliabile con i sistemi artificiali, riacquista
oggi interesse proprio alla luce dei sistemi multimodali, dei world models e
delle architetture agentiche. Quando un sistema integra linguaggio, immagini,
memoria esterna, strumenti digitali e procedure di interazione con ambienti
strutturati, il tema della cognizione non riguarda più soltanto la predizione
di sequenze, ma la costruzione di un orizzonte operativo in cui
rappresentazione, azione e conseguenze attese entrano in rapporto.
In questo senso, la recente ricerca sui world models è particolarmente
significativa. L’idea che i sistemi artificiali debbano apprendere modelli
predittivi della dinamica del mondo, e non soltanto generare output plausibili,
segna un passaggio teorico importante. LeCun ha sostenuto la necessità di
superare una visione interamente centrata sui modelli autoregressivi del
linguaggio per orientarsi verso architetture capaci di apprendere strutture
latenti del mondo e delle sue regolarità (LeCun, 2022). Lavori più recenti
mostrano che tali modelli possono effettivamente costruire rappresentazioni
predittive utilizzabili per il controllo, la pianificazione e l’interazione con
ambienti dinamici (Garrido et al., 2024; Bruce et al., 2024). Da qui emerge una
tesi che merita di essere presa sul serio. Il problema del grounding non
coincide più esclusivamente con il rapporto a un mondo fisico immediato. Può
essere ripensato anche come rapporto a mondi tecnico-digitali dotati di
vincoli, regolarità, risorse e possibilità d’azione.
È precisamente in questo quadro che diventa feconda la nozione di «New
Digital Lebenswelt», intesa come nuovo orizzonte digitale di mediazione, azione
e organizzazione del senso entro cui i sistemi agentici operano mediante
strumenti, memoria, accesso a risorse e concatenazioni di compiti orientate a
uno scopo. La questione cognitiva, allora, non si esaurisce più nel singolo
modello. Si sposta verso il sistema di relazioni nel quale esso agisce. Un
agente artificiale contemporaneo può utilizzare strumenti, conservare tracce
delle interazioni precedenti, costruire rappresentazioni operative del
contesto, pianificare sequenze d’azione e correggere il proprio comportamento
in funzione dei risultati. Descrivere questi processi in termini cognitivi, a
livello funzionale, non appare improprio. Appare anzi necessario, purché si
mantenga chiara la distinzione tra organizzazione operativa del comportamento e
attribuzione di interiorità.
Qui entra in gioco un ulteriore concetto che, a mio avviso, diventerà
sempre più rilevante nel futuro prossimo, quello di «Noosemia» (De Santis &
Rizzi, 2025). Con questo termine si può indicare la dinamica di attribuzione di
significato e intenzionalità che si produce nell’interazione tra esseri umani e
sistemi generativi o agentici avanzati. Un modello può esibire coerenza
linguistica, pianificazione, uso di strumenti, adattamento contestuale. Tutto
questo giustifica, a livello funzionale, l’impiego di un lessico cognitivo.
Eppure l’impressione che esso «capisca» nel senso forte, che «voglia» qualcosa,
che possieda una forma di interiorità, prende forma nell’orizzonte
interpretativo umano. La fenomenologia dell’interazione eccede sempre, almeno
in parte, la mera descrizione tecnica del sistema. Proprio questo scarto va
tematizzato. Non per negarlo, bensì per comprenderlo.
Da questa prospettiva, la distinzione tra livello funzionale e livello
ontologico smette di apparire una precauzione scolastica. Diventa una necessità
teorica confermata dall’esperienza stessa dell’interazione uomo-macchina.
Quanto più un sistema produce linguaggio plausibile, memoria situata,
adattamento ai contesti, capacità di azione coordinata, tanto più l’essere
umano tende a vedere in esso una quasi-interiorità. La questione decisiva,
allora, riguarda insieme ciò che il sistema fa e ciò che l’interazione induce a
vedere in esso. Qui si annoda uno dei problemi più profondi dell’epoca
presente. L’intelligenza artificiale non sta semplicemente moltiplicando
strumenti. Sta ridisegnando il campo entro cui pensiamo la mente, la tecnica,
il senso e l’umano.
Alla luce di tutto ciò, il concetto di «cognizione» conserva piena
legittimità, purché venga usato con precisione. Una definizione operativa
plausibile potrebbe essere la seguente. La cognizione è l’insieme dei processi
attraverso cui un sistema acquisisce, organizza, trasforma e utilizza
informazioni per costruire rappresentazioni del mondo e orientare il proprio
comportamento. Questa definizione consente di descrivere rigorosamente molte
capacità dei sistemi artificiali contemporanei, senza per questo attribuire
loro coscienza o soggettività. Al tempo stesso, essa invita a riconoscere che
la questione non si esaurisce nella descrizione funzionale. L’interazione con i
sistemi generativi e agentici apre uno spazio nuovo, nel quale architettura,
comportamento, interpretazione e produzione di senso si intrecciano in modi
sempre più complessi.
Per questa ragione, la vera novità del nostro tempo non consiste soltanto
nell’avere costruito macchine più potenti. Consiste nel fatto che stiamo
entrando in un ambiente tecnico nel quale l’essere umano diventa
progressivamente cogeneratore di significati insieme a sistemi che organizzano
informazione, simulano forme di agency e abitano nuovi spazi operativi
digitali. La cognizione artificiale, intesa in senso funzionale, è ormai un
fatto scientificamente descrivibile. La sua lettura ontologica resta aperta,
controversa e teoreticamente esigente. Fra questi due poli si apre il campo più
interessante per la riflessione futura. Un campo in cui sarà sempre meno
sufficiente chiedersi se le macchine «pensino» e diventerà sempre più
necessario comprendere come, attraverso di esse, stiano mutando le forme stesse
della nostra esperienza del pensiero, dell’azione e del mondo.
Riferimenti
bibliografici
Anderson, J. R.
(1996). ACT. A simple theory of complex cognition. American
Psychologist, 51(4), 355–365.
Bender, E. M., & Koller, A. (2020). Climbing towards
NLU. On meaning, form, and understanding in the age of data. In Proceedings
of the 58th Annual Meeting of the Association for Computational Linguistics
(pp. 5185–5198). Association for Computational Linguistics.
Bruce, J., Dennis, M. D., Edwards, A., et al. (2024). Genie.
Generative interactive environments. arXiv. https://arxiv.org/abs/2402.15391
De Santis, E.,
& Rizzi, A. (2025). Noosemia. Toward a cognitive and
phenomenological account of intentionality attribution in human-generative AI
interaction. arXiv. https://arxiv.org/abs/2508.02622
Gardner, H. (1985). The mind’s new science. A history of
the cognitive revolution. Basic Books.
Garrido, Q., Assran, M., Ballas, N., Bardes, A., Najman, L.,
& LeCun, Y. (2024). Learning and leveraging world models in visual
representation learning. arXiv. https://arxiv.org/abs/2403.00504
Harnad, S. (1990). The symbol grounding problem. Physica
D. Nonlinear Phenomena, 42, 335–346.
Hinton, G. E. (1986). Learning distributed representations
of concepts. In Proceedings of the Eighth Annual Conference of the Cognitive
Science Society.
Kaplan, J., McCandlish, S., Henighan, T., Brown, T. B.,
Chess, B., Child, R., Gray, S., Radford, A., Wu, J., & Amodei, D. (2020). Scaling
laws for neural language models. arXiv. https://arxiv.org/abs/2001.08361
Laird, J. E., Lebiere, C., & Rosenbloom, P. S. (2017). A
standard model of the mind. Toward a common computational framework across
artificial intelligence, cognitive science, neuroscience, and robotics. AI
Magazine, 38(4), 13–26.
LeCun, Y. (2022). A path towards autonomous machine
intelligence. OpenReview.
LeCun, Y.,
Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553),
436–444.
McCulloch, W. S., & Pitts, W. (1943). A logical calculus
of the ideas immanent in nervous activity. The Bulletin of Mathematical
Biophysics, 5, 115–133.
Minsky, M., & Papert, S. (1969). Perceptrons. MIT
Press.
Neisser, U. (1967). Cognitive psychology.
Appleton-Century-Crofts.
Newell, A. (1990). Unified theories of cognition.
Harvard University Press.
Newell, A., & Simon, H. A. (1976). Computer science as
empirical inquiry. Symbols and search. Communications of the ACM, 19(3),
113–126.
Rosenblatt, F. (1958). The perceptron. A probabilistic model
for information storage and organization in the brain. Psychological Review,
65(6), 386–408.
Rumelhart, D. E., McClelland, J. L., & PDP Research
Group. (1986). Parallel distributed processing. Explorations in the
microstructure of cognition. MIT Press.
Scardigli, F. (Ed.). (2022). Artificial intelligence
versus natural intelligence. Springer. https://doi.org/10.1007/978-3-030-85480-5
Searle, J. R. (1980). Minds, brains, and programs. Behavioral
and Brain Sciences, 3(3), 417–424.
Shannon, C. E. (1948). A mathematical theory of
communication. Bell System Technical Journal, 27, 379–423, 623–656.
Turing, A. M. (1950). Computing machinery and intelligence. Mind,
59(236), 433–460.
Varela, F. J., Thompson, E., & Rosch, E. (1991). The
embodied mind. Cognitive science and human experience. MIT Press.
Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones,
L., Gomez, A. N., Kaiser, Ł., & Polosukhin, I. (2017). Attention is all you
need. In Advances in Neural Information Processing Systems 30 (pp.
5998–6008).
Wei, J., Tay, Y., Bommasani, R., Raffel, C., Zoph, B.,
Borgeaud, S., Yogatama, D., Bosma, M., Zhou, D., Metzler, D., Chi, E. H.,
Hashimoto, T., Vinyals, O., Liang, P., Dean, J., & Fedus, W. (2022).
Emergent abilities of large language models. Transactions on Machine
Learning Research.
Wiener, N. (1948). Cybernetics. Or control and
communication in the animal and the machine. MIT Press.
Yao, S., Zhao, J., Yu, D., Du, N., Shafran, I., Narasimhan,
K. R., & Cao, Y. (2023). ReAct. Synergizing reasoning and acting in
language models. In The Eleventh International Conference on Learning
Representations.