Post

Noosemia: «effetto wow» e l’attribuzione di una mente alle intelligenze artificiali generative

Immagine
  Questo post è un resoconto dell’autore del paper «Noosemia: toward a Cognitive and Phenomenological Account of Intentionality Attribution in Human-Generative AI Interaction» (Enrico De Santis, Antonello Rizzi) https://arxiv.org/abs/2508.02622   Negli ultimi anni, il panorama dell'intelligenza artificiale ha subito una trasformazione di portata storica e siamo nel pieno di una « rivoluzione cognitiva », la quale porterà ancora nuove «sorprese». L'avvento dei modelli generativi, in particolare dei Large Language Models come ChatGPT, Gemini e Claude, ha inaugurato una stagione di interazioni linguistiche tra uomo e macchina senza precedenti. Questi sistemi, lungi dall'essere semplici automi passivi, hanno raggiunto un livello di multimodalità , fluidità espressiva, sensibilità contestuale e apparente intenzionalità tale da suscitare nell'utente un senso di risonanza cognitiva e di sorpresa profonda . Si prospetta che tale fenomeno non si arresterà facilmente con...

La nuova era della convergenza: intelligenza artificiale, complessità, umanità

Immagine
Qui i confini si dissolvono e le discipline si intrecciano. In questo spazio, gli antichi miti riecheggiano nei circuiti di silicio, e la saggezza del pensiero sistemico incontra la logica accelerata dell’intelligenza artificiale. Cosa significa essere umani, quando il significato stesso è in costante divenire, plasmato da reti—biologiche e artificiali—che sono più della semplice somma delle loro parti? Ogni episodio è un viaggio attraverso filosofia, scienza e tecnologia. Esploreremo come simboli, linguaggio e creatività si ridefiniscano nell’era dei sistemi complessi e delle macchine intelligenti. Ci chiederemo: l’IA potrà mai davvero generare significato, o stiamo assistendo a una nuova forma di magia digitale—capace di confondere i confini tra razionalità e sacro, calcolo e creatività, emergenza e controllo? Qui non ci accontentiamo di risposte facili. Ti invitiamo a pensare, a mettere in discussione, a riscoprire lo stupore di fronte alla convergenza tra umano e tecnologia. Perc...

La barriera tra sintassi e semantica e la scienza cognitiva classica: cosa ne pensa GPT-4.1?

Immagine
È noto che il cognitivismo classico adotta il «computer» come strumento per spiegare la mente. Tuttavia, è necessario tenere presente che negli anni ’40 o ’50, e in realtà fino a qualche anno fa, l’unica forma di computer esistente era appunto un calcolatore la cui unica funzione era quella di fare calcoli e manipolare simboli. Anche oggi (2025) un computer classico è composto da circuiti logico digitali che essenzialmente calcolano ed eseguono programmi, basati su algoritmi che in ultima analisi sono sequenze finite di istruzioni. Oggi i computer moderni sono apparecchiature molto sofisticate capaci di eseguire programmi altrettanto sofisticati e la forte stratificazione che separa le operazioni logico digitali da ciò che appare sull’interfaccia utente ne fa uno strumento estremamente versatile. In questo momento sto usando un word processor per scrivere e osservo comparire una dopo l’altra le lettere di queste parole. Ciò che osservo, quindi, ha una natura prettamente differente da c...

Perché i Large Language Models hanno rappresentazioni significative di elementi lingustici rari

Immagine
  L’idea, largamente diffusa in certa divulgazione, secondo cui i grandi modelli di linguaggio sarebbero soltanto «motori statistici che indovinano il simbolo più probabile da emettere» rappresenta una semplificazione riduttiva che non coglie né la complessità architetturale dei transformer né le effettive capacità di generalizzazione che questi modelli hanno mostrato in campi sorprendentemente lontani dai dati direttamente osservati in addestramento. Certamente una componente del loro funzionamento è campionare il token successivo e tale campionamento è regolato da una legge di probabilità appresa durante la fase di training. Nonostante ciò, il fatto che tali sistemi possano produrre testi coerenti in lingue marginalmente rappresentate, come l’egiziano medio, o che riescano a mantenere consistenza sintattica e semantica anche in domini specialistici scarsamente presenti nei corpora, mostra che il loro funzionamento non può essere compreso attraverso la sola nozione di frequenza l...

L’IA tra meraviglia, provvisorietà e spinte geopolitiche. Un parallelo tecnologico per comprenderne la portata

Immagine
Mentre Donald Trump porta avanti l’ «America’s AI Action Plan» e ora che l’IA generativa è alla portata di tutti, giornali e media vari si stanno affollando di esperti, o sedicenti tali, che con sicumera si lanciano in affermazioni sulla differenza tra «umano» e «macchina» mostrando, a titolo di prova, come gli attuali sistemi incorrano in banali errori, imprecisioni, «allucinazioni», polarizzazioni, etc. Anche eminenti accademici si accingono a convincerci che l’« IA scrive ma non capisce », che abbiamo a che fare con un «pappagallo stocastico» o che le macchine non hanno «comprensione» e «non saranno mai come noi». Questi sistemi certamente compiono errori, ma non solo perché sono «sistemi statistici» bensì perché il lasso di tempo tra la sperimentazione e la commercializzazione ubiqua è quasi nullo . In tutti gli ambiti della tecnologia ormai è così: acquistiamo prodotti che continuano ad essere migliorati, corretti o aggiornati quando già ne siamo in possesso. L'IA è diffe...