Cognizione artificiale, mente e attribuzione di senso nell’epoca dei sistemi generativi


 Da quando i modelli generativi e i grandi modelli linguistici hanno mostrato una sorprendente capacità di produrre linguaggio coerente, di risolvere problemi complessi e di coordinare azioni in ambienti digitali, il termine «cognizione» è tornato al centro della discussione. La sua ricomparsa non è un fatto marginale. Quando si dice che una macchina «ragiona», «apprende», «ricorda», «pianifica» oppure «comprende», non si sta semplicemente scegliendo un lessico suggestivo. Si sta toccando uno dei nodi più delicati della cultura contemporanea, vale a dire il modo in cui interpretiamo il rapporto tra mente, informazione, tecnica e comportamento intelligente.

Una parte della comunità scientifica ritiene legittimo usare il lessico cognitivo per descrivere i sistemi artificiali. Un’altra parte invita alla prudenza, osservando che parole come «comprensione», «intelligenza» o «cognizione» rischiano di importare nelle macchine contenuti semantici e ontologici che appartengono originariamente all’esperienza umana. In realtà, questa tensione non nasce oggi. Essa accompagna fin dalle sue origini la storia delle scienze cognitive e della stessa intelligenza artificiale. Per questo motivo, se si vuole affrontare seriamente la questione, occorre anzitutto distinguere i diversi livelli implicati nell’uso del termine. Vi è un livello funzionale, nel quale la cognizione designa i processi attraverso cui un sistema acquisisce informazioni, le trasforma, le conserva e le usa per orientare il comportamento. Vi è poi un livello ontologico e fenomenologico, nel quale la cognizione viene associata alla coscienza, all’intenzionalità, alla soggettività, all’esperienza vissuta. Molta confusione contemporanea deriva proprio dal passaggio implicito tra questi piani.

Dal punto di vista storico, il termine «cognizione» entra in senso scientifico nel cuore della psicologia cognitiva del Novecento. Ulric Neisser, in un’opera divenuta classica, definiva la cognizione come l’insieme dei processi mediante i quali l’input sensoriale viene trasformato, ridotto, elaborato, immagazzinato, recuperato e utilizzato (Neisser, 1967). In questa formulazione, la cognizione non coincide con la coscienza in senso forte. Essa indica, piuttosto, una serie di operazioni funzionali che rendono possibile il comportamento intelligente. La mente, in questa nuova prospettiva, cessa di essere una scatola opaca sottratta alla scienza e diventa un sistema teoricamente descrivibile attraverso modelli di elaborazione dell’informazione.

La cosiddetta «rivoluzione cognitiva» prende forma proprio su questo sfondo. Howard Gardner ha mostrato con chiarezza che non si trattò di un evento confinato alla psicologia, bensì di una convergenza più ampia tra linguistica, filosofia, informatica, neuroscienze e teoria dei sistemi (Gardner, 1985). L’idea che la mente potesse essere studiata come processo di rappresentazione, trasformazione e uso dell’informazione aprì lo spazio epistemologico entro cui si sarebbe sviluppata anche l’intelligenza artificiale. La questione, dunque, non riguarda un’impropria invasione del vocabolario della mente da parte dell’ingegneria contemporanea. Riguarda, piuttosto, una storia comune, nella quale la scienza della mente e la costruzione di sistemi artificiali si sono formate in un dialogo profondo e spesso costitutivo.

Già nel secondo dopoguerra, infatti, la teoria dell’informazione e la cibernetica avevano introdotto un linguaggio condiviso per descrivere organismi e macchine. Claude Shannon mostrò che l’informazione poteva essere trattata come grandezza misurabile e formalizzata matematicamente, mediante il concetto di entropia informativa (Shannon, 1948). Norbert Wiener, quasi negli stessi anni, propose di studiare con categorie comuni i processi di controllo e comunicazione negli animali e nelle macchine, ponendo al centro il ruolo del feedback e dell’autoregolazione (Wiener, 1948). Alan Turing diede a questa trasformazione una direzione ulteriore, spostando l’attenzione dalla domanda metafisica «le macchine pensano?» a una formulazione operativa fondata sull’osservazione del comportamento linguistico e sulla sua indistinguibilità da quello umano (Turing, 1950). In queste traiettorie già si profila l’idea destinata a segnare l’intero dibattito successivo, secondo cui un sistema può essere descritto cognitivamente in ragione di ciò che sa fare, della struttura dei suoi processi e delle forme della sua organizzazione, senza che ciò implichi automaticamente una presa di posizione definitiva sul suo statuto ontologico.

La prima grande stagione dell’intelligenza artificiale sviluppò questa impostazione soprattutto nella forma del paradigma simbolico. Newell e Simon sostennero che l’azione intelligente potesse essere studiata come manipolazione di strutture simboliche entro procedure formalizzate, e arrivarono a formulare la nota ipotesi del «physical symbol system» (Newell & Simon, 1976). In questo quadro, un sistema intelligente è tale in quanto rappresenta stati del mondo, scopi, passaggi intermedi, vincoli e strategie di ricerca, operando su tali rappresentazioni in modo organizzato. Programmi come il General Problem Solver non furono soltanto prototipi ingegneristici. Furono anche modelli teorici mediante cui esplorare la possibilità di una descrizione scientifica unificata della cognizione. Allen Newell avrebbe poi ribadito che una teoria adeguata della mente deve spiegare un ampio spettro di comportamenti intelligenti entro un quadro coerente di meccanismi (Newell, 1990).

Da qui nascono le cosiddette architetture cognitive, come SOAR e ACT-R, che cercano di integrare memoria, apprendimento, ragionamento, percezione e controllo dell’azione in una struttura computazionale relativamente generale (Anderson, 1996; Laird et al., 2017). In questa tradizione, il lessico cognitivo non ha un carattere ornamentale. È un lessico tecnico, impiegato per descrivere l’organizzazione funzionale di sistemi capaci di perseguire obiettivi, utilizzare conoscenza e adattarsi a situazioni variabili. Questo dato storico è importante, perché mostra che parlare di «cognizione» in relazione ai sistemi artificiali non equivale, di per sé, a umanizzarli ingenuamente. Significa, anzitutto, collocarli entro una lunga linea di ricerca in cui la cognizione viene trattata come insieme di processi informazionali organizzati.

Accanto alla tradizione simbolica, si è sviluppata quella connessionista, fondata sull’idea che l’intelligenza possa emergere dall’interazione di molte unità semplici interconnesse. Dai modelli pionieristici di McCulloch e Pitts fino al perceptron di Rosenblatt, il tema centrale diventa l’apprendimento distribuito e la possibilità che comportamenti complessi emergano da reti adattive (McCulloch & Pitts, 1943; Rosenblatt, 1958). Dopo una fase di rallentamento, dovuta anche alle note critiche di Minsky e Papert ai limiti dei perceptron a singolo strato (Minsky & Papert, 1969), il paradigma neurale conosce una rinascita con il connessionismo degli anni Ottanta. Rumelhart, McClelland e il gruppo PDP insistono su tre idee decisive, vale a dire l’elaborazione parallela, la rappresentazione distribuita e l’apprendimento graduale attraverso l’esperienza (Rumelhart et al., 1986). Geoffrey Hinton, in particolare, mostra come le rappresentazioni distribuite consentano di catturare relazioni complesse tra concetti e di generalizzare con notevole flessibilità (Hinton, 1986).

Con il deep learning, questa linea assume una scala e una potenza nuove. Le reti profonde apprendono gerarchie di rappresentazioni, nelle quali gli strati iniziali colgono regolarità semplici, mentre quelli successivi costruiscono configurazioni sempre più astratte. LeCun, Bengio e Hinton hanno descritto questa trasformazione come una svolta capace di ridefinire l’intero panorama dell’intelligenza artificiale contemporanea (LeCun et al., 2015). In tale contesto, il lessico cognitivo riemerge con forza. Si parla di rappresentazioni, di concetti appresi, di conoscenza latente, di modelli del mondo. Questa terminologia riflette un fatto teoricamente rilevante. L’intelligenza artificiale moderna non si limita più a eseguire regole programmate dall’esterno. Costruisce strutture interne, apprende regolarità, comprime la complessità dell’esperienza statistica e organizza l’informazione in forme progressivamente più pertinenti ai compiti.

Il punto diventa ancora più evidente con l’avvento dei Transformer e dei Large Language Models. L’architettura introdotta da Vaswani e colleghi ha reso possibile la costruzione di modelli capaci di apprendere dipendenze lunghe e strutture complesse all’interno di grandi corpora linguistici (Vaswani et al., 2017). Le scaling laws hanno poi mostrato che l’aumento coordinato di parametri, dati e potenza computazionale produce miglioramenti regolari e prevedibili nelle prestazioni (Kaplan et al., 2020). Quando tali modelli superano determinate soglie dimensionali, compaiono capacità che, a scala minore, non erano evidenti. È quanto alcuni autori hanno descritto come «emergent abilities» (Wei et al., 2022). Il linguaggio generato non appare più come semplice collage statistico. Mostra continuità argomentativa, adattamento contestuale, capacità di seguire istruzioni, di scomporre problemi, di fornire catene inferenziali intermedie.

È comprensibile, allora, che il lessico della cognizione sia tornato a occupare una posizione centrale. Eppure, proprio qui occorre la maggiore attenzione teorica. Bender e Koller hanno osservato che i modelli linguistici operano primariamente sulla forma statistica del linguaggio e che tale operatività non coincide automaticamente con la comprensione del significato (Bender & Koller, 2020). La loro critica è preziosa, perché ricorda che la coerenza linguistica e la capacità di manipolare strutture discorsive non bastano, da sole, a risolvere il problema semantico. In una linea differente, ma convergente nell’esito problematico, Searle aveva già sostenuto che la manipolazione formale di simboli non implica comprensione, come illustra il celebre argomento della «Chinese Room» (Searle, 1980). Harnad, da parte sua, ha formulato il problema del grounding simbolico, mostrando che un sistema puramente simbolico rischia di restare privo di ancoraggio diretto al mondo cui i simboli si riferiscono (Harnad, 1990).

Queste obiezioni non annullano il valore del lessico cognitivo. Lo obbligano, però, a una delimitazione più rigorosa. Se si parla di cognizione in senso funzionale, allora si descrivono processi di acquisizione, organizzazione, trasformazione e uso dell’informazione per guidare il comportamento. Se, invece, si intende la cognizione come esperienza cosciente, intenzionalità intrinseca o comprensione nel senso forte, il problema cambia radicalmente natura. Roger Penrose, in una linea ampiamente discussa, ha insistito sul fatto che intelligenza e comprensione non si lasciano ridurre integralmente all’esecuzione di regole computabili, mentre Emanuele Severino ha spostato la critica a un livello ancora più radicale, contestando la stessa grammatica ontologica della «produzione» quando venga applicata all’intelligenza o alla coscienza, come ricostruito in Scardigli (2022). Qui non è in gioco un semplice dissenso terminologico. È in gioco il quadro teoretico entro cui pensiamo il rapporto tra ente, tecnica, apparire e soggettività.

Vi è, inoltre, una famiglia di critiche che invita a ripensare la cognizione a partire dal corpo e dall’ambiente. Nelle prospettive embodied ed enattive, la cognizione emerge dall’interazione dinamica tra organismo, capacità sensorimotorie e mondo circostante. Varela, Thompson e Rosch hanno mostrato che conoscere non equivale semplicemente a elaborare simboli internamente, perché il senso prende forma nella relazione tra azione, percezione e contesto (Varela et al., 1991). Questa impostazione, che per molto tempo è parsa difficilmente conciliabile con i sistemi artificiali, riacquista oggi interesse proprio alla luce dei sistemi multimodali, dei world models e delle architetture agentiche. Quando un sistema integra linguaggio, immagini, memoria esterna, strumenti digitali e procedure di interazione con ambienti strutturati, il tema della cognizione non riguarda più soltanto la predizione di sequenze, ma la costruzione di un orizzonte operativo in cui rappresentazione, azione e conseguenze attese entrano in rapporto.

In questo senso, la recente ricerca sui world models è particolarmente significativa. L’idea che i sistemi artificiali debbano apprendere modelli predittivi della dinamica del mondo, e non soltanto generare output plausibili, segna un passaggio teorico importante. LeCun ha sostenuto la necessità di superare una visione interamente centrata sui modelli autoregressivi del linguaggio per orientarsi verso architetture capaci di apprendere strutture latenti del mondo e delle sue regolarità (LeCun, 2022). Lavori più recenti mostrano che tali modelli possono effettivamente costruire rappresentazioni predittive utilizzabili per il controllo, la pianificazione e l’interazione con ambienti dinamici (Garrido et al., 2024; Bruce et al., 2024). Da qui emerge una tesi che merita di essere presa sul serio. Il problema del grounding non coincide più esclusivamente con il rapporto a un mondo fisico immediato. Può essere ripensato anche come rapporto a mondi tecnico-digitali dotati di vincoli, regolarità, risorse e possibilità d’azione.

È precisamente in questo quadro che diventa feconda la nozione di «New Digital Lebenswelt», intesa come nuovo orizzonte digitale di mediazione, azione e organizzazione del senso entro cui i sistemi agentici operano mediante strumenti, memoria, accesso a risorse e concatenazioni di compiti orientate a uno scopo. La questione cognitiva, allora, non si esaurisce più nel singolo modello. Si sposta verso il sistema di relazioni nel quale esso agisce. Un agente artificiale contemporaneo può utilizzare strumenti, conservare tracce delle interazioni precedenti, costruire rappresentazioni operative del contesto, pianificare sequenze d’azione e correggere il proprio comportamento in funzione dei risultati. Descrivere questi processi in termini cognitivi, a livello funzionale, non appare improprio. Appare anzi necessario, purché si mantenga chiara la distinzione tra organizzazione operativa del comportamento e attribuzione di interiorità.

Qui entra in gioco un ulteriore concetto che, a mio avviso, diventerà sempre più rilevante nel futuro prossimo, quello di «Noosemia» (De Santis & Rizzi, 2025). Con questo termine si può indicare la dinamica di attribuzione di significato e intenzionalità che si produce nell’interazione tra esseri umani e sistemi generativi o agentici avanzati. Un modello può esibire coerenza linguistica, pianificazione, uso di strumenti, adattamento contestuale. Tutto questo giustifica, a livello funzionale, l’impiego di un lessico cognitivo. Eppure l’impressione che esso «capisca» nel senso forte, che «voglia» qualcosa, che possieda una forma di interiorità, prende forma nell’orizzonte interpretativo umano. La fenomenologia dell’interazione eccede sempre, almeno in parte, la mera descrizione tecnica del sistema. Proprio questo scarto va tematizzato. Non per negarlo, bensì per comprenderlo.

Da questa prospettiva, la distinzione tra livello funzionale e livello ontologico smette di apparire una precauzione scolastica. Diventa una necessità teorica confermata dall’esperienza stessa dell’interazione uomo-macchina. Quanto più un sistema produce linguaggio plausibile, memoria situata, adattamento ai contesti, capacità di azione coordinata, tanto più l’essere umano tende a vedere in esso una quasi-interiorità. La questione decisiva, allora, riguarda insieme ciò che il sistema fa e ciò che l’interazione induce a vedere in esso. Qui si annoda uno dei problemi più profondi dell’epoca presente. L’intelligenza artificiale non sta semplicemente moltiplicando strumenti. Sta ridisegnando il campo entro cui pensiamo la mente, la tecnica, il senso e l’umano.

Alla luce di tutto ciò, il concetto di «cognizione» conserva piena legittimità, purché venga usato con precisione. Una definizione operativa plausibile potrebbe essere la seguente. La cognizione è l’insieme dei processi attraverso cui un sistema acquisisce, organizza, trasforma e utilizza informazioni per costruire rappresentazioni del mondo e orientare il proprio comportamento. Questa definizione consente di descrivere rigorosamente molte capacità dei sistemi artificiali contemporanei, senza per questo attribuire loro coscienza o soggettività. Al tempo stesso, essa invita a riconoscere che la questione non si esaurisce nella descrizione funzionale. L’interazione con i sistemi generativi e agentici apre uno spazio nuovo, nel quale architettura, comportamento, interpretazione e produzione di senso si intrecciano in modi sempre più complessi.

Per questa ragione, la vera novità del nostro tempo non consiste soltanto nell’avere costruito macchine più potenti. Consiste nel fatto che stiamo entrando in un ambiente tecnico nel quale l’essere umano diventa progressivamente cogeneratore di significati insieme a sistemi che organizzano informazione, simulano forme di agency e abitano nuovi spazi operativi digitali. La cognizione artificiale, intesa in senso funzionale, è ormai un fatto scientificamente descrivibile. La sua lettura ontologica resta aperta, controversa e teoreticamente esigente. Fra questi due poli si apre il campo più interessante per la riflessione futura. Un campo in cui sarà sempre meno sufficiente chiedersi se le macchine «pensino» e diventerà sempre più necessario comprendere come, attraverso di esse, stiano mutando le forme stesse della nostra esperienza del pensiero, dell’azione e del mondo.

Riferimenti bibliografici

Anderson, J. R. (1996). ACT. A simple theory of complex cognition. American Psychologist, 51(4), 355–365.

Bender, E. M., & Koller, A. (2020). Climbing towards NLU. On meaning, form, and understanding in the age of data. In Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics (pp. 5185–5198). Association for Computational Linguistics.

Bruce, J., Dennis, M. D., Edwards, A., et al. (2024). Genie. Generative interactive environments. arXiv. https://arxiv.org/abs/2402.15391

De Santis, E., & Rizzi, A. (2025). Noosemia. Toward a cognitive and phenomenological account of intentionality attribution in human-generative AI interaction. arXiv. https://arxiv.org/abs/2508.02622

Gardner, H. (1985). The mind’s new science. A history of the cognitive revolution. Basic Books.

Garrido, Q., Assran, M., Ballas, N., Bardes, A., Najman, L., & LeCun, Y. (2024). Learning and leveraging world models in visual representation learning. arXiv. https://arxiv.org/abs/2403.00504

Harnad, S. (1990). The symbol grounding problem. Physica D. Nonlinear Phenomena, 42, 335–346.

Hinton, G. E. (1986). Learning distributed representations of concepts. In Proceedings of the Eighth Annual Conference of the Cognitive Science Society.

Kaplan, J., McCandlish, S., Henighan, T., Brown, T. B., Chess, B., Child, R., Gray, S., Radford, A., Wu, J., & Amodei, D. (2020). Scaling laws for neural language models. arXiv. https://arxiv.org/abs/2001.08361

Laird, J. E., Lebiere, C., & Rosenbloom, P. S. (2017). A standard model of the mind. Toward a common computational framework across artificial intelligence, cognitive science, neuroscience, and robotics. AI Magazine, 38(4), 13–26.

LeCun, Y. (2022). A path towards autonomous machine intelligence. OpenReview.

LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. Nature, 521(7553), 436–444.

McCulloch, W. S., & Pitts, W. (1943). A logical calculus of the ideas immanent in nervous activity. The Bulletin of Mathematical Biophysics, 5, 115–133.

Minsky, M., & Papert, S. (1969). Perceptrons. MIT Press.

Neisser, U. (1967). Cognitive psychology. Appleton-Century-Crofts.

Newell, A. (1990). Unified theories of cognition. Harvard University Press.

Newell, A., & Simon, H. A. (1976). Computer science as empirical inquiry. Symbols and search. Communications of the ACM, 19(3), 113–126.

Rosenblatt, F. (1958). The perceptron. A probabilistic model for information storage and organization in the brain. Psychological Review, 65(6), 386–408.

Rumelhart, D. E., McClelland, J. L., & PDP Research Group. (1986). Parallel distributed processing. Explorations in the microstructure of cognition. MIT Press.

Scardigli, F. (Ed.). (2022). Artificial intelligence versus natural intelligence. Springer. https://doi.org/10.1007/978-3-030-85480-5

Searle, J. R. (1980). Minds, brains, and programs. Behavioral and Brain Sciences, 3(3), 417–424.

Shannon, C. E. (1948). A mathematical theory of communication. Bell System Technical Journal, 27, 379–423, 623–656.

Turing, A. M. (1950). Computing machinery and intelligence. Mind, 59(236), 433–460.

Varela, F. J., Thompson, E., & Rosch, E. (1991). The embodied mind. Cognitive science and human experience. MIT Press.

Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., & Polosukhin, I. (2017). Attention is all you need. In Advances in Neural Information Processing Systems 30 (pp. 5998–6008).

Wei, J., Tay, Y., Bommasani, R., Raffel, C., Zoph, B., Borgeaud, S., Yogatama, D., Bosma, M., Zhou, D., Metzler, D., Chi, E. H., Hashimoto, T., Vinyals, O., Liang, P., Dean, J., & Fedus, W. (2022). Emergent abilities of large language models. Transactions on Machine Learning Research.

Wiener, N. (1948). Cybernetics. Or control and communication in the animal and the machine. MIT Press.

Yao, S., Zhao, J., Yu, D., Du, N., Shafran, I., Narasimhan, K. R., & Cao, Y. (2023). ReAct. Synergizing reasoning and acting in language models. In The Eleventh International Conference on Learning Representations.


Post popolari in questo blog

Noosemia: «effetto wow» e l’attribuzione di una mente alle intelligenze artificiali generative

La radionostalgia. Mi racconto attraverso la radio

La fine della conoscenza come noi la conosciamo

Gli LLM sono solo dei motori statistici ?