Uno studio pubblicato sulla rivista Nature nel 2025 dal titolo «Adversarial testing of global neuronal workspace and integrated information theories of consciousness» pone al vaglio sperimentale, secondo una specifica metodologia, le due maggiori teorie scientifiche sulla coscienza: la Integrated Information Theory (IIT) e la Global Neuronal Workspace Theory (GNWT).
La coscienza è probabilmente il
più profondo e complesso dei fenomeni che l’essere umano abbia mai cercato di
comprendere. Non è un oggetto, né un processo fisico direttamente osservabile,
ma è il fatto stesso che qualcosa appare, che il dolore è sentito, che i colori
sono visti, che l’esperienza c’è. Nella tradizione filosofica, questo carattere
originario dell’esperienza è stato affrontato in molte forme, dalla
fenomenologia di Husserl alla distinzione cartesiana tra res cogitans e res
extensa, fino alle più recenti riflessioni sul «problema difficile» della
coscienza, così come formulato da David Chalmers. Una delle difficoltà
fondamentali consiste nel fatto che l’esperienza cosciente non è pubblica, bensì
soggettiva; eppure, per alcuni scienziati è evidente che essa ha basi neurali,
cioè che essa dipende in modo sistematico e strutturato dall’attività del
cervello.
Se si accetta questa premessa
naturalistica, il problema si sposta. Di fatto, si tratta di spiegare come
l’attività del cervello dia origine a stati coscienti e in quali condizioni
essi emergano. Nonostante decenni di ricerca, nessuna teoria ha ancora fornito
una spiegazione condivisa. Tuttavia, negli ultimi anni sono emerse alcune
proposte teoriche particolarmente strutturate, tra cui due in particolare si
sono imposte per la loro ambizione, coerenza e per la volontà di confrontarsi
apertamente con i dati sperimentali. Si tratta della Integrated Information
Theory (IIT) e della Global Neuronal Workspace Theory (GNWT).
L’IIT, proposta originariamente
da Giulio Tononi, parte da un’idea forte basata su un approccio sistemico e in
linea con la teoria della complessità: l’essenza della coscienza è l’esistenza
di un sistema (complesso) che possiede un alto grado di informazione integrata.
La teoria non parte dal cervello, ma da assunzioni fenomenologiche — in
particolare dal fatto che l’esperienza cosciente è unificata e differenziata —
e deriva da esse una formalizzazione matematica (il valore Φ, o phi) che
quantifica il grado di integrazione informativa in un sistema fisico. Secondo
l’IIT, la coscienza emerge nel punto in cui tale integrazione è massima e
irriducibile. Applicata al cervello, questa teoria identifica nella cosiddetta
“posterior hot zone” (regioni parietali, temporali e occipitali) il substrato
neurale più probabilmente associato alla generazione dell’esperienza. Il
prefrontale, secondo questa visione, può essere coinvolto in processi
cognitivi, ma non è necessario per la coscienza.
Al contrario, la GNWT, sviluppata
da Stanislas Dehaene e collaboratori, propone un modello in cui la coscienza
emerge quando un’informazione viene globalmente accessibile a più sistemi
cerebrali — un «workspace neuronale globale». L’idea è che molti processi
cognitivi, percettivi e motori si svolgano in maniera inconscia, ristretti a
circuiti specialistici. Ma quando un’informazione diventa cosciente, essa viene
amplificata e diffusa in un’ampia rete di aree cerebrali, in particolare nella
corteccia prefrontale e parietale. Questo processo è chiamato ignizione
e comporta una transizione improvvisa dell’informazione dallo stato silente
allo stato attivo e diffuso. La GNWT ha anche una componente formale, ma più
legata a modelli computazionali di accesso e mantenimento dell’informazione.
Le due teorie, pur condividendo
l’obiettivo di spiegare l’emergere della coscienza in termini fisici e
computazionali, si collocano su assi teorici differenti. L’IIT enfatizza la
struttura interna del sistema e la sua capacità di causare stati su di sé — un
approccio intrinsecamente «dal punto di vista del sistema» — mentre la GNWT
privilegia l’accesso e la disponibilità funzionale delle informazioni,
assumendo implicitamente una prospettiva esterna, legata al comportamento e
all’interazione dei sistemi cognitivi. Entrambe, però, sono formulate in modo
da generare predizioni empiriche verificabili: l’IIT prevede che il contenuto
cosciente sia sostenuto da una rete di aree posteriori interconnesse, con
attività persistente e integrata, mentre la GNWT prevede ignizioni transitorie
e contenuto rappresentato nella corteccia prefrontale, con propagazione globale
dell’attivazione.
Questa capacità di formulare
predizioni testabili è ciò che distingue le teorie scientifiche dalle mere
speculazioni. Una teoria scientifica della coscienza, per essere tale, deve
essere esposta al rischio della falsificazione, deve dire cosa dovrebbe
accadere nel cervello se essa fosse vera, e cosa non dovrebbe accadere. È
proprio per questo che IIT e GNWT sono le uniche due teorie ad essere state
selezionate per una delle iniziative sperimentali più ambiziose e rigorose mai condotte
nel campo delle neuroscienze della coscienza.
Va detto, tuttavia, che non sono
le uniche teorie esistenti. La Recurrent Processing Theory di Victor
Lamme, ad esempio, propone che la coscienza emerga dal ricircolo di
informazioni all’interno delle aree sensoriali; le Higher-Order Theories,
invece, sostengono che un contenuto diventa cosciente solo se il sistema ne ha
una rappresentazione di ordine superiore, tipicamente localizzata nella PFC.
Esistono anche approcci ispirati alla teoria della predizione bayesiana,
secondo cui la coscienza corrisponde a inferenze percettive di alto livello. Ma
tra tutte queste, solo IIT e GNWT si sono esposte al punto da partecipare a una
«collaborazione avversariale», dove sostenitori di teorie opposte si accordano prima
della raccolta dati su come testare, valutare e possibilmente falsificare le
rispettive ipotesi. È questa tensione tra rigore concettuale e vulnerabilità
empirica che ha dato vita allo studio che andremo ora ad analizzare.
Sebbene entrambe le teorie si
presentino come modelli neuroscientifici della coscienza, è evidente che esse
si fondano su presupposti filosofici differenti e in parte incompatibili, che
orientano sia la formulazione teorica sia l’interpretazione dei dati. La Integrated
Information Theory (IIT), ad esempio, nasce da un’impostazione dichiaratamente
fenomenologica. Tononi parte dall’analisi dell’esperienza cosciente nella sua
struttura originaria dove ogni esperienza è, allo stesso tempo, unificata e
differenziata. Il presupposto è che questa struttura non sia secondaria
rispetto ai meccanismi cerebrali, ma anzi primaria: la teoria si
costruisce deduttivamente a partire da proprietà invarianti del vissuto, e da
lì deriva ciò che un sistema fisico deve possedere per essere cosciente.
In questo senso, IIT è una teoria «intrinseca» in quanto ciò che conta non è
l’osservabilità esterna del comportamento o della funzione cognitiva, ma l’auto-relazionalità
del sistema, la sua capacità di generare una causa sui propri stati. Questa
posizione si avvicina a una forma di realismo fenomenologico, dove l’essere
cosciente è una proprietà che può essere formalizzata a partire dalla logica
interna dell’esperienza.
La Global Neuronal Workspace
Theory (GNWT), al contrario, assume un approccio funzionalista ed empirista.
L’ispirazione deriva dalla psicologia cognitiva classica e dall’intelligenza
artificiale simbolica la coscienza è vista come un processo che rende alcune
informazioni accessibili a tutto il sistema cognitivo. Il modello teorico è
quello di un «workspace», uno spazio di lavoro condiviso in cui i contenuti,
una volta «igniti», possono essere usati per il linguaggio, la memoria, la
pianificazione, l’azione. Il presupposto implicito è che la coscienza non sia
una proprietà ontologicamente distinta, ma una funzione emergente dalla
struttura dell’elaborazione. In GNWT, quindi, la coscienza è ciò che accade
quando una rappresentazione diventa disponibile in modo globale e transmodale.
In altre parole, non è l’essere-per-sé dell’esperienza a definire la coscienza,
ma la sua disponibilità all’uso. Questa differenza è decisiva in
quanto IIT pone la coscienza come una proprietà ontologica, radicata
nella struttura causale di un sistema; GNWT la concepisce come una proprietà funzionale,
definita dal suo ruolo nel comportamento e nella cognizione. Di conseguenza,
l’IIT può attribuire coscienza a sistemi che non manifestano alcun
comportamento osservabile, purché abbiano una certa organizzazione interna
(come, teoricamente, certi sistemi artificiali o non animali). GNWT, invece,
lega strettamente la coscienza all’architettura cognitiva umana e ai correlati
neurali che consentono il broadcast informazionale. Entrambe le teorie,
quindi, portano con sé una visione del soggetto, della mente e del mondo, anche
quando queste visioni non sono esplicitate. Comprendere questi presupposti è
essenziale per valutare il significato dei loro successi o dei loro limiti
empirici, come anche per cogliere il senso profondo delle sfide che la
coscienza continua a porre alla scienza contemporanea.
L’articolo pubblicato su Nature
descrive in dettaglio un ambizioso esperimento di verifica delle due teorie
della coscienza, IIT e GNWT, strutturato secondo i principi di una
“collaborazione avversariale”. Questo approccio ha un significato profondo,
poiché invece di contrapporre gruppi di ricerca in studi separati, si è scelto
di far collaborare gli stessi sostenitori delle teorie, in presenza di
ricercatori neutrali, per definire congiuntamente le predizioni, i criteri di
valutazione, le metodologie e persino l’interpretazione ex-ante dei risultati.
In altri termini, si è creato un protocollo rigoroso, preregistrato e
condiviso, affinché ciascuna teoria si esponesse esplicitamente al rischio di
essere smentita dai dati.
I partecipanti all’esperimento
sono stati 256 soggetti umani, sottoposti a misurazioni simultanee con tre
tecniche complementari: fMRI (risonanza magnetica funzionale), MEG
(magnetoencefalografia) e iEEG (elettroencefalografia intracranica). Queste
tecniche offrono diversi compromessi tra risoluzione spaziale e temporale, e la
loro combinazione consente di superare limiti metodologici legati a ciascuna.
Le registrazioni iEEG sono state effettuate su pazienti già sottoposti a
impianti per ragioni cliniche, mentre MEG e fMRI su partecipanti sani. I dati
sono stati raccolti in laboratori indipendenti per ciascuna tecnica, garantendo
così la replicabilità e la generalizzazione dei risultati.
Lo stimolo utilizzato era visivo:
volti, oggetti, lettere e «false font» (cioè, forme simili a lettere ma prive
di significato). Ogni stimolo poteva variare per categoria (es. volto vs
oggetto), per identità (es. volto A vs volto B), per orientamento (fronte,
sinistra, destra) e per durata (0.5, 1.0 o 1.5 secondi). Questa scelta consente
di simulare la ricchezza dell’esperienza cosciente reale, che non si limita a
vedere qualcosa, ma implica vedere cosa, in quale forma, in
quale direzione, e per quanto tempo. I partecipanti dovevano
rilevare occasionali target predefiniti, ma nella maggior parte dei casi gli
stimoli erano attentamente osservati senza una richiesta di risposta. Ciò
permette di isolare l’esperienza cosciente in sé, separandola da processi di
decisione, memoria o azione.
Il test ha riguardato tre aspetti
fondamentali. Il primo riguarda dove nel cervello si rappresenta il
contenuto cosciente. Il secondo, per quanto tempo esso viene mantenuto.
Il terzo, quali connessioni funzionali tra aree cerebrali sono
coinvolte. Ognuno di questi tre assi tocca direttamente previsioni critiche
dell’IIT e della GNWT.
Nel primo caso, si è cercato di
decodificare il contenuto percepito — ad esempio se si sta osservando un volto
o un oggetto — a partire dall’attività cerebrale. Secondo IIT, ciò dovrebbe
essere possibile dalla zona posteriore, e l’aggiunta della corteccia
prefrontale non dovrebbe migliorare la decodifica. Secondo GNWT, invece, la PFC
è essenziale e deve contenere una rappresentazione del contenuto cosciente. I
risultati hanno mostrato che la decodifica è più robusta e duratura nelle aree
posteriori, mentre nella PFC è più debole e transitoria. In particolare,
l’informazione sull’orientamento del volto — chiaramente presente
nell’esperienza cosciente — era completamente assente nella PFC. Inoltre,
l’aggiunta della PFC ai modelli predittivi non migliorava le performance,
talvolta le peggiorava. Questo risultato ha posto un serio problema per GNWT,
mentre ha parzialmente confermato le aspettative di IIT.
Nel secondo caso, si è indagato
il mantenimento del contenuto nel tempo. IIT prevede che l’attività cerebrale
rappresentante il contenuto rimanga attiva per tutta la durata dello stimolo,
mentre GNWT prevede due brevi «ignizioni» nella PFC: una all’inizio e una alla
fine dello stimolo, con uno stato intermedio silente. I risultati hanno
mostrato che in alcune aree posteriori — in particolare nel giro fusiforme —
esiste effettivamente un’attività sostenuta per tutta la durata dello stimolo,
coerente con IIT, ma solo per una minoranza di elettrodi. L’informazione
sull’orientamento del volto, invece, non veniva mantenuta a lungo,
contraddicendo IIT. Per quanto riguarda GNWT, è emersa una chiara ignizione
iniziale nella PFC, ma non si è osservata alcuna ignizione alla fine dello
stimolo, cioè nel momento in cui l’esperienza cosciente cambiava con la
comparsa dello schermo vuoto. Questo rappresenta una falsificazione diretta di
una previsione centrale della GNWT. Inoltre, nella PFC mancavano anche
rappresentazioni persistenti dell’identità o dell’orientamento, presenti invece
nelle aree posteriori.
Il terzo caso ha riguardato la
connettività tra aree cerebrali. IIT prevede una connessione gamma-band
sostenuta tra V1/V2 e aree visive di alto livello all’interno della zona
posteriore. GNWT prevede una sincronizzazione transitoria (a breve latenza) tra
PFC e aree selettive per il contenuto. Le metriche usate — la PPC per la fase
oscillatoria e la DFC per la co-variazione di potenza — hanno mostrato
risultati deboli per entrambe le teorie. Le connessioni osservate erano di
breve durata, spesso a basse frequenze (alpha o beta), e in alcuni casi
attribuibili alla risposta evocata dallo stimolo stesso. Tuttavia, un’analisi
DFC più sensibile ha mostrato connettività gamma tra PFC e aree selettive per
oggetti e volti, che però era limitata a pochi casi e non sistematica. Nel
complesso, la previsione IIT di connettività sostenuta posteriore non ha
trovato conferma, e anche GNWT ha ottenuto un supporto solo parziale e
intermittente.
Il risultato finale di questo
esperimento è duplice. Da un lato, ha fornito la più rigorosa e controllata
valutazione mai condotta di due teorie della coscienza, dall’altro ha
evidenziato che nessuna delle due, nelle sue versioni attuali, è pienamente
coerente con l’evidenza empirica. Questo non significa che siano da scartare,
ma che vanno modificate, raffinate o integrate. Il valore dello studio
pubblicato sulla rivista Nature sta anche nel metodo: preregistrazione
delle ipotesi, accordo su criteri di valutazione, analisi separate tra teorici
e sperimentatori, tecniche multimodali e campioni numerosi. Questa metodologia
rappresenta un modello per il futuro della ricerca in neuroscienze cognitive,
dove le teorie devono esporsi con chiarezza e rigore al giudizio
dell’esperienza.
In ultima analisi, testare
sperimentalmente una teoria della coscienza richiede non solo una formulazione
concettuale forte, ma anche una sua traduzione in predizioni precise,
misurabili e falsificabili. Richiede l’umiltà di ammettere che i nostri modelli
del mentale possono sbagliare, e la pazienza di costruire strutture teoriche
che non si accontentino della coerenza interna o della potenza descrittiva, ma
che resistano alla prova del mondo.
In ogni caso, quello presentato su
Nature è un esperimento estremamente interessante non solo per l’ampiezza e la
qualità dei dati raccolti, ma anche per l’orientamento filosofico che lo
sottende. Di fatto, c’è la convinzione, profonda e forse rara nel panorama
scientifico, che teorie sulla coscienza debbano essere trattate come ogni altra
teoria scientifica — cioè, messe alla prova dei fatti. Tuttavia, le conclusioni
cui giunge lo studio non premiano nessuna delle due teorie coinvolte. Entrambe,
IIT e GNWT, falliscono nell’intercettare pienamente le evidenze empiriche.
Alcune predizioni vengono rispettate, altre — e in particolare quelle centrali
— vengono contraddette. In IIT, la mancanza di sincronizzazione sostenuta nella
zona posteriore e l’instabilità di certe rappresentazioni chiave (come
l’orientamento del volto) pongono interrogativi su quanto sia realistica l’idea
che l’integrazione informativa sia localizzata e autosufficiente. In GNWT,
l’assenza dell’ignizione di chiusura e la debolezza delle rappresentazioni
nella corteccia prefrontale sollevano dubbi sull’effettiva necessità del
broadcast globale tramite il workspace.
Lo studio, però, è importante
proprio perché mostra che la scienza può, anche nella sua forma più empirica,
confrontarsi con ciò che per secoli è stato dominio della filosofia e cioè il
problema della coscienza. Farlo significa affrontare una sfida epistemologica
profonda, perché la coscienza non è un oggetto nel mondo, ma il presupposto
stesso di ogni esperienza del mondo. In questo senso, il rischio è duplice in
quanto, da un lato, si riduce la coscienza a meri correlati neurali senza
cogliere la specificità del vissuto soggettivo; dall’altro, si cede alla
tentazione di trattarla come irriducibile e dunque fuori dalla portata della
scienza. L’equilibrio è difficile, e la difficoltà è teorica prima ancora che
metodologica.
Il filosofo David Chalmers ha
introdotto la celebre distinzione tra «problemi facili» della coscienza —
quelli riguardanti l’attenzione, la memoria, la discriminazione sensoriale — e
il «problema difficile», cioè spiegare perché e come esista un’esperienza
soggettiva. I problemi facili possono essere trattati con le risorse della
scienza cognitiva e della neurofisiologia. Il problema difficile, invece,
resiste, perché riguarda l’essere per sé dell’esperienza, il fatto che
c’è «qualcosa che è come» essere un soggetto cosciente. Alcuni, come Dennett,
hanno sostenuto che il problema difficile è un’illusione e che spiegare i
processi cognitivi basterebbe. Altri, come Thomas Nagel, hanno invece insistito
sul carattere irriducibile della soggettività. Ma è forse in Emanuele Severino
che troviamo la riflessione più radicale.
Per Severino, ogni tentativo di
pensare la coscienza in termini oggettivabili parte da una contraddizione:
l’essere dell’apparire non è riducibile all’apparire dell’essere. Cioè, ciò che
appare (la coscienza) è già, in sé, l’orizzonte in cui l’essere si dà; volerlo
oggettivare significa rovesciare il rapporto, trasformare il fondamento in
fondato. In termini severiniani, la coscienza è l’essere dell’apparire,
non il suo prodotto. La scienza, in quanto costruzione logico-strumentale, può
indagare i modi in cui appaiono gli stati coscienti, ma non può esaurire
la verità della coscienza nella misura in cui essa ne presuppone già la
presenza come condizione. Per questo, ogni teoria della coscienza rischia di
essere al tempo stesso necessaria e inadeguata: necessaria perché il pensiero
ha bisogno di figure formali, inadeguata perché ciò che la coscienza è, non può
mai essere completamente contenuto in esse.
Ciò non significa che la ricerca
scientifica sulla coscienza sia futile. Al contrario. La scienza all’interno
del paradigma che le è proprio è una delle vie più promettenti per avvicinarci
a una comprensione più profonda dell’umano. Ma va praticata con consapevolezza
filosofica, sapendo che ogni modello — per quanto sofisticato — è un tentativo,
non una spiegazione ultima. Lo studio discusso ne è un esempio virtuoso, in
quanto mostra che le teorie devono essere rese vulnerabili (falsificabili), che
la collaborazione tra «avversari» — nel senso del protocollo sperimentale adottato
— è più produttiva dello scontro, e che la coscienza può essere oggetto di
esperimento senza che venga per questo svilita la sua irriducibilità. Più che
scegliere un vincitore tra le teorie, il risultato principale è stato tracciare
un metodo. Un metodo che, se esteso, potrebbe far progredire anche altre aree
della scienza della mente, e forse, col tempo, portarci a una teoria che non
solo predice, ma che risuona — almeno in parte — con ciò che ogni essere
cosciente conosce senza mediazione e cioè l’esperienza «viva» dell’essere.
_________________________________________________
Letture consigliate
Tononi, G. (2015). Integrated Information Theory. Scholarpedia, 10(1):4164.
Tononi, G., Albantakis, L., & others. (2023). Integrated Information Theory (IIT) 4.0: Formulating the properties of phenomenal existence in physical terms. PLoS Computational Biology, 19(4):e1011465.
G. Tononi, G. M. Edelmann, Un universo di coscienza, Einaudi, 2000
Dehaene, S. (2014). Consciousness and the Brain: Deciphering How the Brain Codes Our Thoughts. Viking/Penguin.
Dehaene, S., Kerszberg, M., & Changeux, J.-P. (1998). A Neuronal Model of a Global Workspace in Effortful Cognitive Tasks. Proceedings of the National Academy of Sciences, 95(24), 14529–14534.
Dehaene, S., & Changeux, J.-P. (2011). Experimental and theoretical approaches to conscious processing. Neuron, 70(2), 200–227.
Chalmers, D. J. (1995). Facing Up to the Problem of Consciousness. Journal of Consciousness Studies, 2(3), 200–219.
Chalmers, D. J. (1996). The Conscious Mind: In Search of a Fundamental Theory. Oxford University Press.
Nagel, T. (1974). What is it like to be a bat? The Philosophical Review, 83(4), 435–450.
Dennett, D. C. (1991). Consciousness Explained. Little, Brown and Co.
Lamme, V. A. F. (2006). Towards a true neural stance on consciousness. Trends in Cognitive Sciences, 10(11), 494–501.
Brown, R., Lau, H., & LeDoux, J. E. (2019). Understanding the higher-order approach to consciousness. Trends in Cognitive Sciences, 23(9), 754–768.
Severino, E. (1981). La struttura originaria. Adelphi.
Severino, E. (1990). Destino della necessità. Adelphi.
Glossario dei termini
Coscienza
Stato soggettivo di esperienza in cui un individuo è consapevole di sé e dell’ambiente circostante. È il fenomeno per cui esiste «qualcosa che è come essere» un determinato soggetto.
Integrated Information Theory (IIT)
Teoria proposta da Giulio Tononi che identifica la coscienza con la capacità di un sistema fisico di integrare informazioni in modo unitario e irriducibile. La misura Φ (phi) quantifica il grado di integrazione informativa di un sistema.
Global Neuronal Workspace Theory (GNWT)
Modello sviluppato da Stanislas Dehaene e colleghi, secondo cui la coscienza emerge quando un’informazione viene amplificata e resa disponibile a un’ampia rete di aree cerebrali, in particolare nella corteccia prefrontale e parietale.
Φ (phi)
Parametro introdotto dall’IIT per misurare quantitativamente il livello di integrazione informativa di un sistema. Un valore più alto di Φ indica un maggiore grado di coscienza.
Ignizione
Nel contesto della GNWT, si riferisce a un evento di attivazione neurale improvvisa e diffusa che rende un’informazione cosciente, permettendone l’accesso a diverse aree cerebrali.
Problema difficile della coscienza
Espressione coniata da David Chalmers per descrivere la sfida di spiegare perché e come processi fisici nel cervello diano origine all’esperienza soggettiva.
Qualia
Termine che indica le qualità soggettive dell’esperienza cosciente, come “il rosso” percepito o il sapore del caffè. Sono elementi centrali nel problema difficile della coscienza.
Apparire (Severino)
Nel pensiero di Emanuele Severino, l’apparire è l’evento fondamentale in cui l’essere si manifesta. La coscienza è vista come l’apparire dell’essere, non riducibile a processi fisici o funzionali.
Fenomenologia
Approccio filosofico che studia le strutture dell’esperienza cosciente dal punto di vista del soggetto. Ha influenzato l’IIT nella sua enfasi sulla struttura unitaria e differenziata dell’esperienza.
Funzionalismo
Teoria filosofica secondo cui gli stati mentali sono definiti dai loro ruoli funzionali piuttosto che dalla loro composizione fisica. La GNWT adotta un approccio funzionalista alla coscienza.
Correlati neurali della coscienza (NCC)
Strutture e processi cerebrali che corrispondono specificamente all’esperienza cosciente. Identificare gli NCC è un obiettivo centrale delle neuroscienze della coscienza.
Preregistrazione
Pratica di registrare in anticipo le ipotesi e i metodi di uno studio scientifico per prevenire bias e aumentare la trasparenza. È stata utilizzata nello studio comparativo tra IIT e GNWT.
Collaborazione avversariale
Approccio sperimentale in cui sostenitori di teorie concorrenti collaborano per progettare esperimenti che possano testare le loro ipotesi in modo equo e rigoroso.
Corteccia prefrontale (PFC)
Regione del cervello associata a funzioni cognitive superiori come il pensiero astratto, la pianificazione e la presa di decisioni. Nella GNWT, è considerata cruciale per la coscienza.
Zona posteriore (posterior hot zone)
Aree corticali posteriori, tra cui le regioni parietali, temporali e occipitali, identificate dall’IIT come principali sedi dell’attività cosciente.
Elettroencefalografia intracranica (iEEG)
Tecnica di registrazione dell’attività elettrica cerebrale mediante elettrodi impiantati direttamente nel cervello, utilizzata per ottenere misurazioni ad alta risoluzione.
Magnetoencefalografia (MEG)
Metodo non invasivo che misura i campi magnetici generati dall’attività neurale, offrendo una buona risoluzione temporale.
Risonanza magnetica funzionale (fMRI)
Tecnica di imaging cerebrale che rileva variazioni nel flusso sanguigno, utilizzata per inferire l’attività neurale in diverse regioni del cervello.
Connettività funzionale dinamica (DFC)
Analisi delle variazioni temporali nella connettività tra diverse aree cerebrali durante l’attività cognitiva o a riposo.
Coerenza di fase (PPC)
Misura della sincronizzazione delle oscillazioni neurali tra diverse regioni cerebrali, indicativa della comunicazione funzionale tra aree.
Teorie dell’ordine superiore (Higher-Order Theories)
Prospettive filosofiche secondo cui uno stato mentale diventa cosciente solo quando è oggetto di una rappresentazione di ordine superiore, come un pensiero o una percezione di quel stato.
Teoria del ricircolo (Recurrent Processing Theory)
Modello che propone che la coscienza emerga dal ricircolo di informazioni all’interno delle aree sensoriali, senza necessità di un broadcast globale.
Panpsichismo
Posizione filosofica secondo cui la coscienza è una proprietà fondamentale e onnipresente della realtà fisica, presente in tutti i sistemi, anche i più semplici.
Dualismo naturalistico
Concetto introdotto da David Chalmers che combina l’idea che la coscienza sia una proprietà fondamentale (dualismo) con l’assunzione che essa emerga naturalmente da sistemi fisici complessi (naturalismo).