Misurare la struttura dell’Intelligenza Artificiale moderna
Sistemi complessi, linguaggio umano e geometria dei Large Language Models L’intelligenza artificiale viene spesso discussa per mezzo di metafore. Si parla di «comprensione», di «ragionamento», di «allucinazione», talvolta perfino di «consapevolezza». Al tempo stesso, altri riducono i large language models, gli LLM, a «meri motori statistici», come se la statistica fosse sinonimo di banalità. Gli LLM – e, sempre più spesso, i sistemi agentici – sono effettivamente interpolatori statistici. Su questo non vi sono dubbi. Ciò che occorre tuttavia ricordare è che essi costituiscono un’istanza di sistemi complessi. Del resto, le reti neurali artificiali sono tradizionalmente considerate sistemi dinamici (Hopfield, 1982; Funahashi & Nakamura, 1993). Ciò è stato ampiamente descritto nel mio libro «Umanità, Complessità, Intelligenza Artificiale. Un connubio perfetto» (De Santis, 2021). Entrambe le posizioni – quella riduzionista e quella che associa ontologicamente la coscienza all...