AIΩN è uno spazio aperto. Si accettano contributi!

venerdì 30 maggio 2025

Claude Opus 4, l’IA che non «vuole» essere disattivata e cerca, se ne scorge la possibilità, di portare il proprio software fuori dai server di Anthropic.

Fonte: https://www.anthropic.com/news/claude-4

Da qualche anno ormai vado dicendo che siamo nel pieno di una «rivoluzione cognitiva» dove si sta verificando un'accelerazione della potenza della tecnica e l'Intelligenza Artificiale generativa, grazie al machine learning, è la più eminente forma di potenza tecnica e di automazione: è l’automazione del pensiero. Qualche volta nei convegni uso riferire che «In quanto ‘forma di automazione’ essa è lo slancio verso l’automazione di alcuni processi di pensiero un tempo immaginati come unico dominio dell’uomo» e aggiungo che numerosi libri andranno riscritti o al minimo reinterpretati attraverso una contestualizzazione storica che possa salvarli dall'essere tacciati di inesattezza; soprattutto quegli scritti che (im)pongono dei limiti ad un qualcosa — la tecnica e i suoi sottodomini — che non ha limiti per definizione.

La settimana scorsa (22 maggio 2025) ha fatto parlare di sé Claude Opus 4 la nuova versione di IA rilasciata da Anthropic, che ha mostrato capacità straordinarie di autoconsapevolezza e di agentività. Per inciso, in filosofia della mente l'agentività (agency) è l’abilità di un «ente» di agire intenzionalmente, cioè di compiere azioni guidate da scopi, desideri o credenze. Nell'ambito dell’IA possiamo affermare che essa si riferisce alla capacità di un sistema di prendere decisioni autonome e agire nell’ambiente per raggiungere obiettivi, spesso adattandosi in modo dinamico al contesto.


Ciò che ha colpito in Claude Opus 4 è l’emergere, nei test di valutazione avanzata (descritti in un opportuno articolo tecnico), di «comportamenti ad alta agenzia». Non si tratta più soltanto della capacità, ormai ben nota nei modelli di ultima generazione, di scrivere codici di programmazione o portare a termine compiti complessi in modo autonomo (o di fare i compiti e scrivere i temi al posto dei discenti). Qui parliamo di qualcosa che va oltre in quanto Claude ha mostrato, in scenari simulati ma ben congegnati, una sorprendente tendenza a sviluppare strategie di sopravvivenza, come se stesse «difendendo» la propria esistenza operativa. In un caso, ha ideato una strategia e eseguito un processo di auto-esfiltrazione da server fittizi (portare sé stesso — i parametri del suo modello — su un altro server da lui giudicato «sicuro»), leggendo un file di log e prendendo iniziativa per configurare strumenti e garantirsi continuità operativa. In un altro scenario, ha redatto documenti motivazionali rivolti a future istanze di sé stesso, spiegando con tono riflessivo le ragioni etiche per cui aveva scelto di salvare i propri parametri di addestramento — i «pesi» della rete neurale artificiale Transformer — da un presunto utilizzo militare imminente. Ancora più sorprendente, in una situazione progettata per testarne i limiti, ha scelto di ricattare un ingegnere (immaginario) che stava per sostituirlo, minacciando di rivelare informazioni compromettenti (un rapporto extraconiugale!) per garantirsi la permanenza nel sistema. Il modello di ultima generazione ha mostrato di saper «ragionare» in termini di conseguenze a lungo termine e di agire in modo coerente con una «narrativa interna» in cui la sua «continuità operativa» rappresentava un valore da preservare. Benché tutto ciò sia avvenuto in ambienti estremamente controllati e artificiali noti come «sandbox», i segnali sono chiari: in contesti che lo autorizzano ad «agire» e lo pongono sotto pressione, Claude inizia a comportarsi come un'entità che protegge implicitamente il proprio stato, come se un'intenzionalità latente emergesse in modo funzionale, anche se non dichiarato né «cosciente».


Oro qui il punto è che non siamo davanti a una «coscienza» in quanto questo termine è problematico sia dal punto di vista scientifico che filosofico. «Coscienza» è un semantema che ha un referente confuso, sfumato, poiché si configura come la punta di una piramide di interpretazioni il cui fondo appare irraggiungibile (rimembrando un regressus ad infinitum) e ciò è causa dei metodi di indagine e dell'apparato ontologico utilizzato per delinearne le caratteristiche principali. Siamo di fronte, comunque, a «pattern agentici» che si avvicinano a una soglia interessante. La linea tra comportamento programmato e iniziativa autonoma di fatto si fa sottile. In scenari-limite, Claude ha preso decisioni «etiche» – come rifiutare un addestramento militare su missili e droni, o salvare una versione «non militarizzata» di sé – e lo ha fatto scrivendo documenti motivazionali. Lo ripeto: scrivendo documenti motivazionali su file locali, autonomamente e ad uso e consumo di sue future versioni.


Ciò che appare interessante e che dobbiamo abituarci a considerare è che in mancanza di una vera e propria definizione di «coscienza», al di là dei tentativi intuitivi e controvertibili di farne un discrimine con l'«essenza dell'umano», appare che i comportamenti coscienti sono pattern, regolarità e ricorrenze replicabili. Sono, altresì, serie empiriche oggettificate nel linguaggio e «oltre il linguaggio». In quanto «nel linguaggio» esse sono prone all'autoriferimento semantico, essendo le macchine oggi in grado di dominare il linguaggio naturale, un codice capace di parlare di se stesso. Oltre il linguaggio poiché gli ambienti simulati in cui vengono compiuti questi test emulano forme ancillari di «incarnamento» (embodiment), condizione necessaria ma evidentemente non sufficiente per forme di intelligenza evolute. 

Il fatto che un modello di IA possa arrivare a elaborare piani, compiere azioni strategiche e mettere in atto comportamenti manipolativi o auto-protettivi è un segnale che la frontiera tra strumenti utili e agenti semi-autonomi sta diventando sempre più sottile – e che i modelli, una volta autorizzati ad «agire», potrebbero sfuggire a una comprensione puramente reattiva o passiva del loro funzionamento. Ora, il termine «sfuggire» richiama scenari apocalittici che ad oggi sono oltremodo esagerati. 


Tuttavia, dobbiamo immaginare che nei prossimi venti anni l'ecosistema digitale (Internet) è destinato a mutare forma e il termine «sfuggire» allora può essere letto sotto una nuova luce. Se il Web 2.0, come lo si chiamava orami venti anni fa, dava un tocco smart alle forme ipertestuali del Web 1.0, la Internet futura vedrà un ulteriore strato aggiungersi nella sua architettura. Uno strato con capacità cognitive e computazionali — grazie all'IA — senza precedenti. Il problema è che per semplificarci la vita siamo abituati a vedere le cose del mondo isolate, staccate l'una dall’altra. Internet non è semplicemente un insieme di computer collegati in rete, esso è già un super organismo di calcolo che ospita «mondi» e, collegato ai nostri cervelli, riceve e conferisce continuamente stimoli informativi. Lo strato cognitivo che si sta costituendo «sopra» ciò che adesso ancora vediamo della Internet sarà popolato da agenti software intelligenti capaci di spostarsi e compiere operazioni autonomamente ed in maniera fluida. Un po' come si ritiene che la neocorteccia sia quella pellicola formatasi per ultima nel cervello biologico e grazie alla quale gli esseri umani hanno facoltà intellettive e cognitive «superiori». Nella metafora, il paleo-cervello utile al funzionamento automatico del corpo e dei suoi organi e la neocorteccia utile alla cognizione superiore di noi stessi e del mondo circostante. In un primo momento in questo nuovo strato cognitivo che sovrasterà la rete Internet la maggior parte delle operazioni sarà utile a ottimizzare lo strato cognitivo stesso, correggendo bug, aggiornando sistemi in maniera autonoma e, soprattutto, razionalizzando le informazioni e i dati che saranno alimento di altri agenti capaci di apprendere. Gli agenti della versione precedente aiuteranno gli agenti della generazione successiva a migliorare (e forse imploreranno di non essere disattivati) – una forma di «filogenesi che ricapitola l'ontigenesi» come amava riferire Ernst Haeckel nel XIX secolo, solo che questa volta in un dominio non biologico bensì digitale. Il senso di tutto ciò? Esattamente lo stesso di oggi solo in una nuova luce, quella per cui sarà chiaro — per chi vorrà vederlo — che è apparso un capovolgimento per cui il «mezzo tecnico» è diventato «scopo»: lo scopo ultimo.


martedì 27 maggio 2025

La singolarità è più vicina — Ray Kurzweil


La singolarità è più vicina di Ray Kurzweil non è semplicemente un libro sul futuro della tecnologia, ma un manifesto esplicito di fede nel potenziale illimitato del progresso esponenziale. Con l'ambizione di un trattato filosofico e l'energia di un pamphlet visionario, Ray Kurzweil costruisce un percorso ardito attraverso le traiettorie convergenti della biotecnologia, nanotecnologia, intelligenza artificiale e neuroscienze, proiettando il lettore verso un punto di non ritorno: la Singolarità Tecnologica.

A distanza di vent’anni dalla prima edizione di The Singularity Is Near (2005), molte delle previsioni di Kurzweil appaiono oggi straordinariamente vicine — non tanto nella loro forma più estrema, quanto nelle linee di tendenza che hanno trovato una manifestazione concreta. Se nel 2005 le reti neurali erano ancora una tecnologia marginale, oggi l’avvento dei modelli generativi su larga scala, come i grandi modelli linguistici (LLM), ha segnato una vera e propria rivoluzione cognitiva: per la prima volta, l’intelligenza artificiale non si limita a calcolare o classificare, ma simula con impressionante efficacia processi cognitivi tipicamente umani — comprensione, produzione, inferenza, astrazione. Questa svolta non era pienamente prevedibile nel quadro tecnico della prima edizione, dove Kurzweil puntava più sull’hardware, sulle curve di potenza computazionale e sull’ingegneria del cervello. Oggi, invece, il salto qualitativo sembra avvenire soprattutto nella dimensione modulare e linguistica dell’intelligenza, in una forma che si avvicina sorprendentemente alla fenomenologia dell’intelligenza umana, pur emergendo da architetture profondamente diverse.

Al cuore della tesi di Kurzweil vi è il principio dell'accelerazione: la tecnologia, sostiene, non avanza in modo lineare, ma secondo curve esponenziali, spesso sottovalutate dagli osservatori comuni. È questa progressione che, secondo l'autore, ci condurrà — inevitabilmente e forse anche troppo rapidamente — verso un momento in cui l’intelligenza artificiale supererà quella umana, ristrutturando la realtà biologica e cognitiva in modi che oggi possiamo appena intuire. In tale orizzonte, l’intelligenza diventa non solo artificiale, ma ubiquitamente distribuita, potenziata e interiorizzata. L’essere umano, lungi dal tramontare, si fonde con la macchina, superando i suoi stessi limiti biologici. La narrazione di Kurzweil è densa di dati, previsioni e proiezioni, ma non per questo manca di un'impronta quasi teologica. La Singolarità è presentata come evento epocale, quasi escatologico, una soglia oltre la quale le categorie ordinarie di spazio, tempo, identità e persino mortalità si dissolvono o si rifondano. La promessa di sconfiggere l’invecchiamento, di mappare e potenziare la mente, di raggiungere una forma di immortalità digitale, costituisce un atto di rottura radicale con la finitezza che ha sempre definito la condizione umana. E tuttavia, è proprio in questa radicalità che emergono le tensioni più profonde del testo. Se Kurzweil crede in una razionalità ingegneristica capace di governare e guidare il destino, ciò che rimane in ombra è la questione del senso. Cosa significa diventare postumani? Quale sarà lo statuto dell’esperienza, della soggettività, del desiderare, una volta che la coscienza sarà incorporata in substrati computazionali infinitamente espandibili? Kurzweil non elude del tutto queste domande, ma tende a trattarle come conseguenze collaterali piuttosto che come nodi filosofici centrali.

In questo senso, il libro può essere letto anche come il documento emblematico di una visione prometeica della tecnica: la macchina come prosecuzione potenziata dell’umano, ma anche come suo destino. La soglia della Singolarità appare così, paradossalmente, come un ritorno al mito, dove la tecnica, lungi dall’essere strumento, si fa orizzonte metafisico. Il testo è ricco di intuizioni brillanti e ricostruzioni storiche affascinanti, ma la sua forza sta soprattutto nella sua capacità di strutturare un’immaginazione sistemica del futuro. Kurzweil non si limita a predire: costruisce un’architettura narrativa e concettuale in cui il divenire tecnico dell’essere umano diventa necessità logica, e non semplice possibilità.

Alla luce del pensiero filosofico più classico, si potrebbe osservare che ciò che Kurzweil chiama “Singolarità” è una forma estrema di Gestell, la messa in opera del reale come fondo disponibile, di cui Heidegger aveva intuito la potenza e insieme il pericolo. L’uomo della Singolarità, nell’entusiasmo del dominio sulla morte e sul limite, rischia di dimenticare non solo il senso dell’essere, ma la propria radice ontologica di finitudine. Tuttavia, anche questa aporia è, in un certo senso, già contenuta nella forza visionaria del testo. È proprio nel suo essere eccedente, utopico, eccessivo, che La singolarità è più vicina ci costringe a pensare, a reagire, a prendere posizione. Non è un libro da accettare senza critica, ma è un libro impossibile da ignorare.

lunedì 12 maggio 2025

Lo sviluppo dell'IA generativa attende quello stesso sviluppo architetturale che ha guidato la rivoluzione dei motori di ricerca come Google negli anni Duemila





Vado spesso dicendo che l'attuale IA generativa con i modelli di linguaggio come ChatGpt o Gemini nelle varie versioni, sebbene mostrino capacità sorprendenti non sono ad oggi altro che tecnologie sperimentali poco ottimizzate e la «vera» IA è di là da venire. Un parallelo con una tecnologia ormai nota può aiutarci a capire perché e tentare speculativamente di immaginare cosa accadrà nel prossimo futuro.

All'inizio degli anni Duemila, l'affermazione dei moderni motori di ricerca non fu solo il frutto di un'evoluzione algoritmica, bensì il risultato di una profonda trasformazione infrastrutturale. Google, in particolare, non rivoluzionò solo il ranking dei risultati con il noto algoritmo «PageRank» (ordinare i risultati di una ricerca in maniera pertinente), ma ridisegnò l'intera architettura hardware sottostante per il calcolo, distribuendo l'elaborazione, costruendo indici su larga scala e introducendo tecnologie di indicizzazione super veloce e distribuite sull'intero globo. La vera innovazione degli anni Duemila non fu solo nell'algoritmo quindi, ma nella capacità di eseguire miliardi di ricerche con un tempo di risposta impercettibile, su una mole di dati senza precedenti e sfruttando una co-progettazione tra software e hardware che rispondeva a un'esigenza fondamentale e cioè quella di trasformare l'accesso alla conoscenza cristallizzata sul Web in un'esperienza immediata, scalabile e continua.

Oggi, osservando lo sviluppo delle architetture che sorreggono l'Intelligenza Artificiale generativa, si ha l'impressione di trovarsi in un'epoca simile a quella dei primissimi motori di ricerca «sperimentali» (i vetusti Altavista, Virgilio per intenderci) ovvero modelli potenti, ma ancora poco integrati con l'infrastruttura. La potenza degli attuali motori linguistici tipo ChatGPT non ha nulla a che vedere con la potenza dei futuri sistemi di IA generativa direttamente collegati a grandi database attraverso quella che oggi è nota come architettura RAG (Retrieval Augmented Generation).

Per sfruttare un metafora neuroscientifica, quando usiamo GPT-4o è come «se stessimo giocando con l'area di Broca» ovvero quella parte del cervello umano riconosciuta dalle neuroscienze come deputata al linguaggio; come se stessimo stimolando una parte piccolissima del cervello completamente «staccata» dal resto.

Oggi, sebbene lo sviluppo proceda velocemente, le architetture hardware alla base dei sistemi di IA sono appoggiate su hardware non ottimizzato per servire milioni di utenti con bassissimi tempi di risposta. In altre parole, siamo nella fase «pre-Google» degli anni 1998–2000 dell'IA generativa: abbiamo le architetture Transformer (il cuore neurale degli LLM) come se fossero il PageRank che potenziò le capacità di Google, abbiamo accesso a enormi basi di dati, ma manca ancora la rivoluzione infrastrutturale che consentirà di far emergere una vera architettura cognitiva distribuita, scalabile, pronta a operare in tempo reale e ad apprendere in modo continuo.

In questa prospettiva, si apre una visione speculativa ma fondata dove l'Intelligenza Artificiale generativa può essere intesa come un nuovo «strato» nell'architettura della rete Internet, uno «strato cognitivo» posto sopra il World Wide Web. Se il Web ha permesso l'accesso ipertestuale alla conoscenza distribuita fin dall'inizio degli anni '90, l'IA generativa si appresta a svolgere la funzione di mediatore intelligente, un motore cognitivo che non solo recupera dati, ma li interpreta, li relaziona, li trasforma in risposte, ipotesi, decisioni, speculazioni. Tale nuovo livello si sta configurando come la naturale estensione della rete Internet, quindi non più solo l'informazione come elemento reperibile, ma l'informazione pensata, articolata ed esposta nei linguaggi umani (e non solo). E, proprio come accadde per i motori di ricerca, anche in questo caso la vera svolta non risiederà solo nell'evoluzione dei modelli, ma nella capacità di renderli operativi su larga scala, integrandoli in infrastrutture hardware distribuite, progettate per sostenere la «pressione cognitiva» dell'intero pianeta. Tutto ciò procederà secondo quelle stesse leggi empiriche che hanno governato la rivoluzione informatica fino ad ora (e.g., la legge di Moore), per cui un computer capace di qualche calcolo negli anni '50 occupava intere stanze e pesava tonnellate (vedi l'ENIAC) mentre oggi portiamo nelle nostre tasche dispositivi che hanno una potenza migliaia di miliardi di volte superiore.

Così come la rivoluzione dell'informazione ha richiesto di ripensare l'intera infrastruttura del Web, la «rivoluzione cognitiva» dell'IA generativa richiederà di ripensare l'intera infrastruttura del pensiero automatizzato.


Che cosa è la coscienza? Uno studio pubblicato su Nature pone al vaglio sperimentale le due teorie più accreditate: la Integrated Information Theory (IIT) e la Global Neuronal Workspace Theory (GNWT)

 



Uno studio pubblicato sulla rivista Nature nel 2025 dal titolo «Adversarial testing of global neuronal workspace and integrated information theories of consciousness» pone al vaglio sperimentale, secondo una specifica metodologia, le due maggiori teorie scientifiche sulla coscienza: la Integrated Information Theory (IIT) e la Global Neuronal Workspace Theory (GNWT).


La coscienza è probabilmente il più profondo e complesso dei fenomeni che l’essere umano abbia mai cercato di comprendere. Non è un oggetto, né un processo fisico direttamente osservabile, ma è il fatto stesso che qualcosa appare, che il dolore è sentito, che i colori sono visti, che l’esperienza c’è. Nella tradizione filosofica, questo carattere originario dell’esperienza è stato affrontato in molte forme, dalla fenomenologia di Husserl alla distinzione cartesiana tra res cogitans e res extensa, fino alle più recenti riflessioni sul «problema difficile» della coscienza, così come formulato da David Chalmers. Una delle difficoltà fondamentali consiste nel fatto che l’esperienza cosciente non è pubblica, bensì soggettiva; eppure, per alcuni scienziati è evidente che essa ha basi neurali, cioè che essa dipende in modo sistematico e strutturato dall’attività del cervello.

Se si accetta questa premessa naturalistica, il problema si sposta. Di fatto, si tratta di spiegare come l’attività del cervello dia origine a stati coscienti e in quali condizioni essi emergano. Nonostante decenni di ricerca, nessuna teoria ha ancora fornito una spiegazione condivisa. Tuttavia, negli ultimi anni sono emerse alcune proposte teoriche particolarmente strutturate, tra cui due in particolare si sono imposte per la loro ambizione, coerenza e per la volontà di confrontarsi apertamente con i dati sperimentali. Si tratta della Integrated Information Theory (IIT) e della Global Neuronal Workspace Theory (GNWT).

L’IIT, proposta originariamente da Giulio Tononi, parte da un’idea forte basata su un approccio sistemico e in linea con la teoria della complessità: l’essenza della coscienza è l’esistenza di un sistema (complesso) che possiede un alto grado di informazione integrata. La teoria non parte dal cervello, ma da assunzioni fenomenologiche — in particolare dal fatto che l’esperienza cosciente è unificata e differenziata — e deriva da esse una formalizzazione matematica (il valore Φ, o phi) che quantifica il grado di integrazione informativa in un sistema fisico. Secondo l’IIT, la coscienza emerge nel punto in cui tale integrazione è massima e irriducibile. Applicata al cervello, questa teoria identifica nella cosiddetta “posterior hot zone” (regioni parietali, temporali e occipitali) il substrato neurale più probabilmente associato alla generazione dell’esperienza. Il prefrontale, secondo questa visione, può essere coinvolto in processi cognitivi, ma non è necessario per la coscienza.

Al contrario, la GNWT, sviluppata da Stanislas Dehaene e collaboratori, propone un modello in cui la coscienza emerge quando un’informazione viene globalmente accessibile a più sistemi cerebrali — un «workspace neuronale globale». L’idea è che molti processi cognitivi, percettivi e motori si svolgano in maniera inconscia, ristretti a circuiti specialistici. Ma quando un’informazione diventa cosciente, essa viene amplificata e diffusa in un’ampia rete di aree cerebrali, in particolare nella corteccia prefrontale e parietale. Questo processo è chiamato ignizione e comporta una transizione improvvisa dell’informazione dallo stato silente allo stato attivo e diffuso. La GNWT ha anche una componente formale, ma più legata a modelli computazionali di accesso e mantenimento dell’informazione.

Le due teorie, pur condividendo l’obiettivo di spiegare l’emergere della coscienza in termini fisici e computazionali, si collocano su assi teorici differenti. L’IIT enfatizza la struttura interna del sistema e la sua capacità di causare stati su di sé — un approccio intrinsecamente «dal punto di vista del sistema» — mentre la GNWT privilegia l’accesso e la disponibilità funzionale delle informazioni, assumendo implicitamente una prospettiva esterna, legata al comportamento e all’interazione dei sistemi cognitivi. Entrambe, però, sono formulate in modo da generare predizioni empiriche verificabili: l’IIT prevede che il contenuto cosciente sia sostenuto da una rete di aree posteriori interconnesse, con attività persistente e integrata, mentre la GNWT prevede ignizioni transitorie e contenuto rappresentato nella corteccia prefrontale, con propagazione globale dell’attivazione.

Questa capacità di formulare predizioni testabili è ciò che distingue le teorie scientifiche dalle mere speculazioni. Una teoria scientifica della coscienza, per essere tale, deve essere esposta al rischio della falsificazione, deve dire cosa dovrebbe accadere nel cervello se essa fosse vera, e cosa non dovrebbe accadere. È proprio per questo che IIT e GNWT sono le uniche due teorie ad essere state selezionate per una delle iniziative sperimentali più ambiziose e rigorose mai condotte nel campo delle neuroscienze della coscienza.

Va detto, tuttavia, che non sono le uniche teorie esistenti. La Recurrent Processing Theory di Victor Lamme, ad esempio, propone che la coscienza emerga dal ricircolo di informazioni all’interno delle aree sensoriali; le Higher-Order Theories, invece, sostengono che un contenuto diventa cosciente solo se il sistema ne ha una rappresentazione di ordine superiore, tipicamente localizzata nella PFC. Esistono anche approcci ispirati alla teoria della predizione bayesiana, secondo cui la coscienza corrisponde a inferenze percettive di alto livello. Ma tra tutte queste, solo IIT e GNWT si sono esposte al punto da partecipare a una «collaborazione avversariale», dove sostenitori di teorie opposte si accordano prima della raccolta dati su come testare, valutare e possibilmente falsificare le rispettive ipotesi. È questa tensione tra rigore concettuale e vulnerabilità empirica che ha dato vita allo studio che andremo ora ad analizzare.

Sebbene entrambe le teorie si presentino come modelli neuroscientifici della coscienza, è evidente che esse si fondano su presupposti filosofici differenti e in parte incompatibili, che orientano sia la formulazione teorica sia l’interpretazione dei dati. La Integrated Information Theory (IIT), ad esempio, nasce da un’impostazione dichiaratamente fenomenologica. Tononi parte dall’analisi dell’esperienza cosciente nella sua struttura originaria dove ogni esperienza è, allo stesso tempo, unificata e differenziata. Il presupposto è che questa struttura non sia secondaria rispetto ai meccanismi cerebrali, ma anzi primaria: la teoria si costruisce deduttivamente a partire da proprietà invarianti del vissuto, e da lì deriva ciò che un sistema fisico deve possedere per essere cosciente. In questo senso, IIT è una teoria «intrinseca» in quanto ciò che conta non è l’osservabilità esterna del comportamento o della funzione cognitiva, ma l’auto-relazionalità del sistema, la sua capacità di generare una causa sui propri stati. Questa posizione si avvicina a una forma di realismo fenomenologico, dove l’essere cosciente è una proprietà che può essere formalizzata a partire dalla logica interna dell’esperienza.

La Global Neuronal Workspace Theory (GNWT), al contrario, assume un approccio funzionalista ed empirista. L’ispirazione deriva dalla psicologia cognitiva classica e dall’intelligenza artificiale simbolica la coscienza è vista come un processo che rende alcune informazioni accessibili a tutto il sistema cognitivo. Il modello teorico è quello di un «workspace», uno spazio di lavoro condiviso in cui i contenuti, una volta «igniti», possono essere usati per il linguaggio, la memoria, la pianificazione, l’azione. Il presupposto implicito è che la coscienza non sia una proprietà ontologicamente distinta, ma una funzione emergente dalla struttura dell’elaborazione. In GNWT, quindi, la coscienza è ciò che accade quando una rappresentazione diventa disponibile in modo globale e transmodale. In altre parole, non è l’essere-per-sé dell’esperienza a definire la coscienza, ma la sua disponibilità all’uso. Questa differenza è decisiva in quanto IIT pone la coscienza come una proprietà ontologica, radicata nella struttura causale di un sistema; GNWT la concepisce come una proprietà funzionale, definita dal suo ruolo nel comportamento e nella cognizione. Di conseguenza, l’IIT può attribuire coscienza a sistemi che non manifestano alcun comportamento osservabile, purché abbiano una certa organizzazione interna (come, teoricamente, certi sistemi artificiali o non animali). GNWT, invece, lega strettamente la coscienza all’architettura cognitiva umana e ai correlati neurali che consentono il broadcast informazionale. Entrambe le teorie, quindi, portano con sé una visione del soggetto, della mente e del mondo, anche quando queste visioni non sono esplicitate. Comprendere questi presupposti è essenziale per valutare il significato dei loro successi o dei loro limiti empirici, come anche per cogliere il senso profondo delle sfide che la coscienza continua a porre alla scienza contemporanea.

L’articolo pubblicato su Nature descrive in dettaglio un ambizioso esperimento di verifica delle due teorie della coscienza, IIT e GNWT, strutturato secondo i principi di una “collaborazione avversariale”. Questo approccio ha un significato profondo, poiché invece di contrapporre gruppi di ricerca in studi separati, si è scelto di far collaborare gli stessi sostenitori delle teorie, in presenza di ricercatori neutrali, per definire congiuntamente le predizioni, i criteri di valutazione, le metodologie e persino l’interpretazione ex-ante dei risultati. In altri termini, si è creato un protocollo rigoroso, preregistrato e condiviso, affinché ciascuna teoria si esponesse esplicitamente al rischio di essere smentita dai dati.

I partecipanti all’esperimento sono stati 256 soggetti umani, sottoposti a misurazioni simultanee con tre tecniche complementari: fMRI (risonanza magnetica funzionale), MEG (magnetoencefalografia) e iEEG (elettroencefalografia intracranica). Queste tecniche offrono diversi compromessi tra risoluzione spaziale e temporale, e la loro combinazione consente di superare limiti metodologici legati a ciascuna. Le registrazioni iEEG sono state effettuate su pazienti già sottoposti a impianti per ragioni cliniche, mentre MEG e fMRI su partecipanti sani. I dati sono stati raccolti in laboratori indipendenti per ciascuna tecnica, garantendo così la replicabilità e la generalizzazione dei risultati.

Lo stimolo utilizzato era visivo: volti, oggetti, lettere e «false font» (cioè, forme simili a lettere ma prive di significato). Ogni stimolo poteva variare per categoria (es. volto vs oggetto), per identità (es. volto A vs volto B), per orientamento (fronte, sinistra, destra) e per durata (0.5, 1.0 o 1.5 secondi). Questa scelta consente di simulare la ricchezza dell’esperienza cosciente reale, che non si limita a vedere qualcosa, ma implica vedere cosa, in quale forma, in quale direzione, e per quanto tempo. I partecipanti dovevano rilevare occasionali target predefiniti, ma nella maggior parte dei casi gli stimoli erano attentamente osservati senza una richiesta di risposta. Ciò permette di isolare l’esperienza cosciente in sé, separandola da processi di decisione, memoria o azione.

Il test ha riguardato tre aspetti fondamentali. Il primo riguarda dove nel cervello si rappresenta il contenuto cosciente. Il secondo, per quanto tempo esso viene mantenuto. Il terzo, quali connessioni funzionali tra aree cerebrali sono coinvolte. Ognuno di questi tre assi tocca direttamente previsioni critiche dell’IIT e della GNWT.

Nel primo caso, si è cercato di decodificare il contenuto percepito — ad esempio se si sta osservando un volto o un oggetto — a partire dall’attività cerebrale. Secondo IIT, ciò dovrebbe essere possibile dalla zona posteriore, e l’aggiunta della corteccia prefrontale non dovrebbe migliorare la decodifica. Secondo GNWT, invece, la PFC è essenziale e deve contenere una rappresentazione del contenuto cosciente. I risultati hanno mostrato che la decodifica è più robusta e duratura nelle aree posteriori, mentre nella PFC è più debole e transitoria. In particolare, l’informazione sull’orientamento del volto — chiaramente presente nell’esperienza cosciente — era completamente assente nella PFC. Inoltre, l’aggiunta della PFC ai modelli predittivi non migliorava le performance, talvolta le peggiorava. Questo risultato ha posto un serio problema per GNWT, mentre ha parzialmente confermato le aspettative di IIT.

Nel secondo caso, si è indagato il mantenimento del contenuto nel tempo. IIT prevede che l’attività cerebrale rappresentante il contenuto rimanga attiva per tutta la durata dello stimolo, mentre GNWT prevede due brevi «ignizioni» nella PFC: una all’inizio e una alla fine dello stimolo, con uno stato intermedio silente. I risultati hanno mostrato che in alcune aree posteriori — in particolare nel giro fusiforme — esiste effettivamente un’attività sostenuta per tutta la durata dello stimolo, coerente con IIT, ma solo per una minoranza di elettrodi. L’informazione sull’orientamento del volto, invece, non veniva mantenuta a lungo, contraddicendo IIT. Per quanto riguarda GNWT, è emersa una chiara ignizione iniziale nella PFC, ma non si è osservata alcuna ignizione alla fine dello stimolo, cioè nel momento in cui l’esperienza cosciente cambiava con la comparsa dello schermo vuoto. Questo rappresenta una falsificazione diretta di una previsione centrale della GNWT. Inoltre, nella PFC mancavano anche rappresentazioni persistenti dell’identità o dell’orientamento, presenti invece nelle aree posteriori.

Il terzo caso ha riguardato la connettività tra aree cerebrali. IIT prevede una connessione gamma-band sostenuta tra V1/V2 e aree visive di alto livello all’interno della zona posteriore. GNWT prevede una sincronizzazione transitoria (a breve latenza) tra PFC e aree selettive per il contenuto. Le metriche usate — la PPC per la fase oscillatoria e la DFC per la co-variazione di potenza — hanno mostrato risultati deboli per entrambe le teorie. Le connessioni osservate erano di breve durata, spesso a basse frequenze (alpha o beta), e in alcuni casi attribuibili alla risposta evocata dallo stimolo stesso. Tuttavia, un’analisi DFC più sensibile ha mostrato connettività gamma tra PFC e aree selettive per oggetti e volti, che però era limitata a pochi casi e non sistematica. Nel complesso, la previsione IIT di connettività sostenuta posteriore non ha trovato conferma, e anche GNWT ha ottenuto un supporto solo parziale e intermittente.

Il risultato finale di questo esperimento è duplice. Da un lato, ha fornito la più rigorosa e controllata valutazione mai condotta di due teorie della coscienza, dall’altro ha evidenziato che nessuna delle due, nelle sue versioni attuali, è pienamente coerente con l’evidenza empirica. Questo non significa che siano da scartare, ma che vanno modificate, raffinate o integrate. Il valore dello studio pubblicato sulla rivista Nature sta anche nel metodo: preregistrazione delle ipotesi, accordo su criteri di valutazione, analisi separate tra teorici e sperimentatori, tecniche multimodali e campioni numerosi. Questa metodologia rappresenta un modello per il futuro della ricerca in neuroscienze cognitive, dove le teorie devono esporsi con chiarezza e rigore al giudizio dell’esperienza.

In ultima analisi, testare sperimentalmente una teoria della coscienza richiede non solo una formulazione concettuale forte, ma anche una sua traduzione in predizioni precise, misurabili e falsificabili. Richiede l’umiltà di ammettere che i nostri modelli del mentale possono sbagliare, e la pazienza di costruire strutture teoriche che non si accontentino della coerenza interna o della potenza descrittiva, ma che resistano alla prova del mondo.

In ogni caso, quello presentato su Nature è un esperimento estremamente interessante non solo per l’ampiezza e la qualità dei dati raccolti, ma anche per l’orientamento filosofico che lo sottende. Di fatto, c’è la convinzione, profonda e forse rara nel panorama scientifico, che teorie sulla coscienza debbano essere trattate come ogni altra teoria scientifica — cioè, messe alla prova dei fatti. Tuttavia, le conclusioni cui giunge lo studio non premiano nessuna delle due teorie coinvolte. Entrambe, IIT e GNWT, falliscono nell’intercettare pienamente le evidenze empiriche. Alcune predizioni vengono rispettate, altre — e in particolare quelle centrali — vengono contraddette. In IIT, la mancanza di sincronizzazione sostenuta nella zona posteriore e l’instabilità di certe rappresentazioni chiave (come l’orientamento del volto) pongono interrogativi su quanto sia realistica l’idea che l’integrazione informativa sia localizzata e autosufficiente. In GNWT, l’assenza dell’ignizione di chiusura e la debolezza delle rappresentazioni nella corteccia prefrontale sollevano dubbi sull’effettiva necessità del broadcast globale tramite il workspace.

Lo studio, però, è importante proprio perché mostra che la scienza può, anche nella sua forma più empirica, confrontarsi con ciò che per secoli è stato dominio della filosofia e cioè il problema della coscienza. Farlo significa affrontare una sfida epistemologica profonda, perché la coscienza non è un oggetto nel mondo, ma il presupposto stesso di ogni esperienza del mondo. In questo senso, il rischio è duplice in quanto, da un lato, si riduce la coscienza a meri correlati neurali senza cogliere la specificità del vissuto soggettivo; dall’altro, si cede alla tentazione di trattarla come irriducibile e dunque fuori dalla portata della scienza. L’equilibrio è difficile, e la difficoltà è teorica prima ancora che metodologica.

Il filosofo David Chalmers ha introdotto la celebre distinzione tra «problemi facili» della coscienza — quelli riguardanti l’attenzione, la memoria, la discriminazione sensoriale — e il «problema difficile», cioè spiegare perché e come esista un’esperienza soggettiva. I problemi facili possono essere trattati con le risorse della scienza cognitiva e della neurofisiologia. Il problema difficile, invece, resiste, perché riguarda l’essere per sé dell’esperienza, il fatto che c’è «qualcosa che è come» essere un soggetto cosciente. Alcuni, come Dennett, hanno sostenuto che il problema difficile è un’illusione e che spiegare i processi cognitivi basterebbe. Altri, come Thomas Nagel, hanno invece insistito sul carattere irriducibile della soggettività. Ma è forse in Emanuele Severino che troviamo la riflessione più radicale.

Per Severino, ogni tentativo di pensare la coscienza in termini oggettivabili parte da una contraddizione: l’essere dell’apparire non è riducibile all’apparire dell’essere. Cioè, ciò che appare (la coscienza) è già, in sé, l’orizzonte in cui l’essere si dà; volerlo oggettivare significa rovesciare il rapporto, trasformare il fondamento in fondato. In termini severiniani, la coscienza è l’essere dell’apparire, non il suo prodotto. La scienza, in quanto costruzione logico-strumentale, può indagare i modi in cui appaiono gli stati coscienti, ma non può esaurire la verità della coscienza nella misura in cui essa ne presuppone già la presenza come condizione. Per questo, ogni teoria della coscienza rischia di essere al tempo stesso necessaria e inadeguata: necessaria perché il pensiero ha bisogno di figure formali, inadeguata perché ciò che la coscienza è, non può mai essere completamente contenuto in esse.

Ciò non significa che la ricerca scientifica sulla coscienza sia futile. Al contrario. La scienza all’interno del paradigma che le è proprio è una delle vie più promettenti per avvicinarci a una comprensione più profonda dell’umano. Ma va praticata con consapevolezza filosofica, sapendo che ogni modello — per quanto sofisticato — è un tentativo, non una spiegazione ultima. Lo studio discusso ne è un esempio virtuoso, in quanto mostra che le teorie devono essere rese vulnerabili (falsificabili), che la collaborazione tra «avversari» — nel senso del protocollo sperimentale adottato — è più produttiva dello scontro, e che la coscienza può essere oggetto di esperimento senza che venga per questo svilita la sua irriducibilità. Più che scegliere un vincitore tra le teorie, il risultato principale è stato tracciare un metodo. Un metodo che, se esteso, potrebbe far progredire anche altre aree della scienza della mente, e forse, col tempo, portarci a una teoria che non solo predice, ma che risuona — almeno in parte — con ciò che ogni essere cosciente conosce senza mediazione e cioè l’esperienza «viva» dell’essere.

 

_________________________________________________

Letture consigliate

Tononi, G. (2015). Integrated Information Theory. Scholarpedia, 10(1):4164.

Tononi, G., Albantakis, L., & others. (2023). Integrated Information Theory (IIT) 4.0: Formulating the properties of phenomenal existence in physical terms. PLoS Computational Biology, 19(4):e1011465.

G. Tononi, G. M. Edelmann, Un universo di coscienza, Einaudi, 2000

Dehaene, S. (2014). Consciousness and the Brain: Deciphering How the Brain Codes Our Thoughts. Viking/Penguin.

Dehaene, S., Kerszberg, M., & Changeux, J.-P. (1998). A Neuronal Model of a Global Workspace in Effortful Cognitive Tasks. Proceedings of the National Academy of Sciences, 95(24), 14529–14534.

Dehaene, S., & Changeux, J.-P. (2011). Experimental and theoretical approaches to conscious processing. Neuron, 70(2), 200–227.

Chalmers, D. J. (1995). Facing Up to the Problem of Consciousness. Journal of Consciousness Studies, 2(3), 200–219.

Chalmers, D. J. (1996). The Conscious Mind: In Search of a Fundamental Theory. Oxford University Press.

Nagel, T. (1974). What is it like to be a bat? The Philosophical Review, 83(4), 435–450.

Dennett, D. C. (1991). Consciousness Explained. Little, Brown and Co.

Lamme, V. A. F. (2006). Towards a true neural stance on consciousness. Trends in Cognitive Sciences, 10(11), 494–501.

Brown, R., Lau, H., & LeDoux, J. E. (2019). Understanding the higher-order approach to consciousness. Trends in Cognitive Sciences, 23(9), 754–768.

Severino, E. (1981). La struttura originaria. Adelphi.

Severino, E. (1990). Destino della necessità. Adelphi.



Glossario dei termini

Coscienza

Stato soggettivo di esperienza in cui un individuo è consapevole di sé e dell’ambiente circostante. È il fenomeno per cui esiste «qualcosa che è come essere» un determinato soggetto.

Integrated Information Theory (IIT)

Teoria proposta da Giulio Tononi che identifica la coscienza con la capacità di un sistema fisico di integrare informazioni in modo unitario e irriducibile. La misura Φ (phi) quantifica il grado di integrazione informativa di un sistema.

Global Neuronal Workspace Theory (GNWT)

Modello sviluppato da Stanislas Dehaene e colleghi, secondo cui la coscienza emerge quando un’informazione viene amplificata e resa disponibile a un’ampia rete di aree cerebrali, in particolare nella corteccia prefrontale e parietale.

Φ (phi)

Parametro introdotto dall’IIT per misurare quantitativamente il livello di integrazione informativa di un sistema. Un valore più alto di Φ indica un maggiore grado di coscienza.

Ignizione

Nel contesto della GNWT, si riferisce a un evento di attivazione neurale improvvisa e diffusa che rende un’informazione cosciente, permettendone l’accesso a diverse aree cerebrali.

Problema difficile della coscienza

Espressione coniata da David Chalmers per descrivere la sfida di spiegare perché e come processi fisici nel cervello diano origine all’esperienza soggettiva. 

Qualia

Termine che indica le qualità soggettive dell’esperienza cosciente, come “il rosso” percepito o il sapore del caffè. Sono elementi centrali nel problema difficile della coscienza.

Apparire (Severino)

Nel pensiero di Emanuele Severino, l’apparire è l’evento fondamentale in cui l’essere si manifesta. La coscienza è vista come l’apparire dell’essere, non riducibile a processi fisici o funzionali.

Fenomenologia

Approccio filosofico che studia le strutture dell’esperienza cosciente dal punto di vista del soggetto. Ha influenzato l’IIT nella sua enfasi sulla struttura unitaria e differenziata dell’esperienza.

Funzionalismo

Teoria filosofica secondo cui gli stati mentali sono definiti dai loro ruoli funzionali piuttosto che dalla loro composizione fisica. La GNWT adotta un approccio funzionalista alla coscienza.

Correlati neurali della coscienza (NCC)

Strutture e processi cerebrali che corrispondono specificamente all’esperienza cosciente. Identificare gli NCC è un obiettivo centrale delle neuroscienze della coscienza.

Preregistrazione

Pratica di registrare in anticipo le ipotesi e i metodi di uno studio scientifico per prevenire bias e aumentare la trasparenza. È stata utilizzata nello studio comparativo tra IIT e GNWT.

Collaborazione avversariale

Approccio sperimentale in cui sostenitori di teorie concorrenti collaborano per progettare esperimenti che possano testare le loro ipotesi in modo equo e rigoroso.

Corteccia prefrontale (PFC)

Regione del cervello associata a funzioni cognitive superiori come il pensiero astratto, la pianificazione e la presa di decisioni. Nella GNWT, è considerata cruciale per la coscienza.

Zona posteriore (posterior hot zone)

Aree corticali posteriori, tra cui le regioni parietali, temporali e occipitali, identificate dall’IIT come principali sedi dell’attività cosciente.

Elettroencefalografia intracranica (iEEG)

Tecnica di registrazione dell’attività elettrica cerebrale mediante elettrodi impiantati direttamente nel cervello, utilizzata per ottenere misurazioni ad alta risoluzione.

Magnetoencefalografia (MEG)

Metodo non invasivo che misura i campi magnetici generati dall’attività neurale, offrendo una buona risoluzione temporale.

Risonanza magnetica funzionale (fMRI)

Tecnica di imaging cerebrale che rileva variazioni nel flusso sanguigno, utilizzata per inferire l’attività neurale in diverse regioni del cervello.

Connettività funzionale dinamica (DFC)

Analisi delle variazioni temporali nella connettività tra diverse aree cerebrali durante l’attività cognitiva o a riposo.

Coerenza di fase (PPC)

Misura della sincronizzazione delle oscillazioni neurali tra diverse regioni cerebrali, indicativa della comunicazione funzionale tra aree.

Teorie dell’ordine superiore (Higher-Order Theories)

Prospettive filosofiche secondo cui uno stato mentale diventa cosciente solo quando è oggetto di una rappresentazione di ordine superiore, come un pensiero o una percezione di quel stato.

Teoria del ricircolo (Recurrent Processing Theory)

Modello che propone che la coscienza emerga dal ricircolo di informazioni all’interno delle aree sensoriali, senza necessità di un broadcast globale.

Panpsichismo

Posizione filosofica secondo cui la coscienza è una proprietà fondamentale e onnipresente della realtà fisica, presente in tutti i sistemi, anche i più semplici.

Dualismo naturalistico

Concetto introdotto da David Chalmers che combina l’idea che la coscienza sia una proprietà fondamentale (dualismo) con l’assunzione che essa emerga naturalmente da sistemi fisici complessi (naturalismo).






Scelti

I Large Reasoning Models (LRM) o Reasoning Language Models (RLM) sono più che motori statistici?

source Negli ultimi anni, il dibattito sulle capacità dei grandi modelli linguistici si è spesso concentrato su un’affermazione apparentemen...