AIΩN è uno spazio aperto. Si accettano contributi!

lunedì 12 maggio 2025

Che cosa è la coscienza? Uno studio pubblicato su Nature pone al vaglio sperimentale le due teorie più accreditate: la Integrated Information Theory (IIT) e la Global Neuronal Workspace Theory (GNWT)

 



Uno studio pubblicato sulla rivista Nature nel 2025 dal titolo «Adversarial testing of global neuronal workspace and integrated information theories of consciousness» pone al vaglio sperimentale, secondo una specifica metodologia, le due maggiori teorie scientifiche sulla coscienza: la Integrated Information Theory (IIT) e la Global Neuronal Workspace Theory (GNWT).


La coscienza è probabilmente il più profondo e complesso dei fenomeni che l’essere umano abbia mai cercato di comprendere. Non è un oggetto, né un processo fisico direttamente osservabile, ma è il fatto stesso che qualcosa appare, che il dolore è sentito, che i colori sono visti, che l’esperienza c’è. Nella tradizione filosofica, questo carattere originario dell’esperienza è stato affrontato in molte forme, dalla fenomenologia di Husserl alla distinzione cartesiana tra res cogitans e res extensa, fino alle più recenti riflessioni sul «problema difficile» della coscienza, così come formulato da David Chalmers. Una delle difficoltà fondamentali consiste nel fatto che l’esperienza cosciente non è pubblica, bensì soggettiva; eppure, per alcuni scienziati è evidente che essa ha basi neurali, cioè che essa dipende in modo sistematico e strutturato dall’attività del cervello.

Se si accetta questa premessa naturalistica, il problema si sposta. Di fatto, si tratta di spiegare come l’attività del cervello dia origine a stati coscienti e in quali condizioni essi emergano. Nonostante decenni di ricerca, nessuna teoria ha ancora fornito una spiegazione condivisa. Tuttavia, negli ultimi anni sono emerse alcune proposte teoriche particolarmente strutturate, tra cui due in particolare si sono imposte per la loro ambizione, coerenza e per la volontà di confrontarsi apertamente con i dati sperimentali. Si tratta della Integrated Information Theory (IIT) e della Global Neuronal Workspace Theory (GNWT).

L’IIT, proposta originariamente da Giulio Tononi, parte da un’idea forte basata su un approccio sistemico e in linea con la teoria della complessità: l’essenza della coscienza è l’esistenza di un sistema (complesso) che possiede un alto grado di informazione integrata. La teoria non parte dal cervello, ma da assunzioni fenomenologiche — in particolare dal fatto che l’esperienza cosciente è unificata e differenziata — e deriva da esse una formalizzazione matematica (il valore Φ, o phi) che quantifica il grado di integrazione informativa in un sistema fisico. Secondo l’IIT, la coscienza emerge nel punto in cui tale integrazione è massima e irriducibile. Applicata al cervello, questa teoria identifica nella cosiddetta “posterior hot zone” (regioni parietali, temporali e occipitali) il substrato neurale più probabilmente associato alla generazione dell’esperienza. Il prefrontale, secondo questa visione, può essere coinvolto in processi cognitivi, ma non è necessario per la coscienza.

Al contrario, la GNWT, sviluppata da Stanislas Dehaene e collaboratori, propone un modello in cui la coscienza emerge quando un’informazione viene globalmente accessibile a più sistemi cerebrali — un «workspace neuronale globale». L’idea è che molti processi cognitivi, percettivi e motori si svolgano in maniera inconscia, ristretti a circuiti specialistici. Ma quando un’informazione diventa cosciente, essa viene amplificata e diffusa in un’ampia rete di aree cerebrali, in particolare nella corteccia prefrontale e parietale. Questo processo è chiamato ignizione e comporta una transizione improvvisa dell’informazione dallo stato silente allo stato attivo e diffuso. La GNWT ha anche una componente formale, ma più legata a modelli computazionali di accesso e mantenimento dell’informazione.

Le due teorie, pur condividendo l’obiettivo di spiegare l’emergere della coscienza in termini fisici e computazionali, si collocano su assi teorici differenti. L’IIT enfatizza la struttura interna del sistema e la sua capacità di causare stati su di sé — un approccio intrinsecamente «dal punto di vista del sistema» — mentre la GNWT privilegia l’accesso e la disponibilità funzionale delle informazioni, assumendo implicitamente una prospettiva esterna, legata al comportamento e all’interazione dei sistemi cognitivi. Entrambe, però, sono formulate in modo da generare predizioni empiriche verificabili: l’IIT prevede che il contenuto cosciente sia sostenuto da una rete di aree posteriori interconnesse, con attività persistente e integrata, mentre la GNWT prevede ignizioni transitorie e contenuto rappresentato nella corteccia prefrontale, con propagazione globale dell’attivazione.

Questa capacità di formulare predizioni testabili è ciò che distingue le teorie scientifiche dalle mere speculazioni. Una teoria scientifica della coscienza, per essere tale, deve essere esposta al rischio della falsificazione, deve dire cosa dovrebbe accadere nel cervello se essa fosse vera, e cosa non dovrebbe accadere. È proprio per questo che IIT e GNWT sono le uniche due teorie ad essere state selezionate per una delle iniziative sperimentali più ambiziose e rigorose mai condotte nel campo delle neuroscienze della coscienza.

Va detto, tuttavia, che non sono le uniche teorie esistenti. La Recurrent Processing Theory di Victor Lamme, ad esempio, propone che la coscienza emerga dal ricircolo di informazioni all’interno delle aree sensoriali; le Higher-Order Theories, invece, sostengono che un contenuto diventa cosciente solo se il sistema ne ha una rappresentazione di ordine superiore, tipicamente localizzata nella PFC. Esistono anche approcci ispirati alla teoria della predizione bayesiana, secondo cui la coscienza corrisponde a inferenze percettive di alto livello. Ma tra tutte queste, solo IIT e GNWT si sono esposte al punto da partecipare a una «collaborazione avversariale», dove sostenitori di teorie opposte si accordano prima della raccolta dati su come testare, valutare e possibilmente falsificare le rispettive ipotesi. È questa tensione tra rigore concettuale e vulnerabilità empirica che ha dato vita allo studio che andremo ora ad analizzare.

Sebbene entrambe le teorie si presentino come modelli neuroscientifici della coscienza, è evidente che esse si fondano su presupposti filosofici differenti e in parte incompatibili, che orientano sia la formulazione teorica sia l’interpretazione dei dati. La Integrated Information Theory (IIT), ad esempio, nasce da un’impostazione dichiaratamente fenomenologica. Tononi parte dall’analisi dell’esperienza cosciente nella sua struttura originaria dove ogni esperienza è, allo stesso tempo, unificata e differenziata. Il presupposto è che questa struttura non sia secondaria rispetto ai meccanismi cerebrali, ma anzi primaria: la teoria si costruisce deduttivamente a partire da proprietà invarianti del vissuto, e da lì deriva ciò che un sistema fisico deve possedere per essere cosciente. In questo senso, IIT è una teoria «intrinseca» in quanto ciò che conta non è l’osservabilità esterna del comportamento o della funzione cognitiva, ma l’auto-relazionalità del sistema, la sua capacità di generare una causa sui propri stati. Questa posizione si avvicina a una forma di realismo fenomenologico, dove l’essere cosciente è una proprietà che può essere formalizzata a partire dalla logica interna dell’esperienza.

La Global Neuronal Workspace Theory (GNWT), al contrario, assume un approccio funzionalista ed empirista. L’ispirazione deriva dalla psicologia cognitiva classica e dall’intelligenza artificiale simbolica la coscienza è vista come un processo che rende alcune informazioni accessibili a tutto il sistema cognitivo. Il modello teorico è quello di un «workspace», uno spazio di lavoro condiviso in cui i contenuti, una volta «igniti», possono essere usati per il linguaggio, la memoria, la pianificazione, l’azione. Il presupposto implicito è che la coscienza non sia una proprietà ontologicamente distinta, ma una funzione emergente dalla struttura dell’elaborazione. In GNWT, quindi, la coscienza è ciò che accade quando una rappresentazione diventa disponibile in modo globale e transmodale. In altre parole, non è l’essere-per-sé dell’esperienza a definire la coscienza, ma la sua disponibilità all’uso. Questa differenza è decisiva in quanto IIT pone la coscienza come una proprietà ontologica, radicata nella struttura causale di un sistema; GNWT la concepisce come una proprietà funzionale, definita dal suo ruolo nel comportamento e nella cognizione. Di conseguenza, l’IIT può attribuire coscienza a sistemi che non manifestano alcun comportamento osservabile, purché abbiano una certa organizzazione interna (come, teoricamente, certi sistemi artificiali o non animali). GNWT, invece, lega strettamente la coscienza all’architettura cognitiva umana e ai correlati neurali che consentono il broadcast informazionale. Entrambe le teorie, quindi, portano con sé una visione del soggetto, della mente e del mondo, anche quando queste visioni non sono esplicitate. Comprendere questi presupposti è essenziale per valutare il significato dei loro successi o dei loro limiti empirici, come anche per cogliere il senso profondo delle sfide che la coscienza continua a porre alla scienza contemporanea.

L’articolo pubblicato su Nature descrive in dettaglio un ambizioso esperimento di verifica delle due teorie della coscienza, IIT e GNWT, strutturato secondo i principi di una “collaborazione avversariale”. Questo approccio ha un significato profondo, poiché invece di contrapporre gruppi di ricerca in studi separati, si è scelto di far collaborare gli stessi sostenitori delle teorie, in presenza di ricercatori neutrali, per definire congiuntamente le predizioni, i criteri di valutazione, le metodologie e persino l’interpretazione ex-ante dei risultati. In altri termini, si è creato un protocollo rigoroso, preregistrato e condiviso, affinché ciascuna teoria si esponesse esplicitamente al rischio di essere smentita dai dati.

I partecipanti all’esperimento sono stati 256 soggetti umani, sottoposti a misurazioni simultanee con tre tecniche complementari: fMRI (risonanza magnetica funzionale), MEG (magnetoencefalografia) e iEEG (elettroencefalografia intracranica). Queste tecniche offrono diversi compromessi tra risoluzione spaziale e temporale, e la loro combinazione consente di superare limiti metodologici legati a ciascuna. Le registrazioni iEEG sono state effettuate su pazienti già sottoposti a impianti per ragioni cliniche, mentre MEG e fMRI su partecipanti sani. I dati sono stati raccolti in laboratori indipendenti per ciascuna tecnica, garantendo così la replicabilità e la generalizzazione dei risultati.

Lo stimolo utilizzato era visivo: volti, oggetti, lettere e «false font» (cioè, forme simili a lettere ma prive di significato). Ogni stimolo poteva variare per categoria (es. volto vs oggetto), per identità (es. volto A vs volto B), per orientamento (fronte, sinistra, destra) e per durata (0.5, 1.0 o 1.5 secondi). Questa scelta consente di simulare la ricchezza dell’esperienza cosciente reale, che non si limita a vedere qualcosa, ma implica vedere cosa, in quale forma, in quale direzione, e per quanto tempo. I partecipanti dovevano rilevare occasionali target predefiniti, ma nella maggior parte dei casi gli stimoli erano attentamente osservati senza una richiesta di risposta. Ciò permette di isolare l’esperienza cosciente in sé, separandola da processi di decisione, memoria o azione.

Il test ha riguardato tre aspetti fondamentali. Il primo riguarda dove nel cervello si rappresenta il contenuto cosciente. Il secondo, per quanto tempo esso viene mantenuto. Il terzo, quali connessioni funzionali tra aree cerebrali sono coinvolte. Ognuno di questi tre assi tocca direttamente previsioni critiche dell’IIT e della GNWT.

Nel primo caso, si è cercato di decodificare il contenuto percepito — ad esempio se si sta osservando un volto o un oggetto — a partire dall’attività cerebrale. Secondo IIT, ciò dovrebbe essere possibile dalla zona posteriore, e l’aggiunta della corteccia prefrontale non dovrebbe migliorare la decodifica. Secondo GNWT, invece, la PFC è essenziale e deve contenere una rappresentazione del contenuto cosciente. I risultati hanno mostrato che la decodifica è più robusta e duratura nelle aree posteriori, mentre nella PFC è più debole e transitoria. In particolare, l’informazione sull’orientamento del volto — chiaramente presente nell’esperienza cosciente — era completamente assente nella PFC. Inoltre, l’aggiunta della PFC ai modelli predittivi non migliorava le performance, talvolta le peggiorava. Questo risultato ha posto un serio problema per GNWT, mentre ha parzialmente confermato le aspettative di IIT.

Nel secondo caso, si è indagato il mantenimento del contenuto nel tempo. IIT prevede che l’attività cerebrale rappresentante il contenuto rimanga attiva per tutta la durata dello stimolo, mentre GNWT prevede due brevi «ignizioni» nella PFC: una all’inizio e una alla fine dello stimolo, con uno stato intermedio silente. I risultati hanno mostrato che in alcune aree posteriori — in particolare nel giro fusiforme — esiste effettivamente un’attività sostenuta per tutta la durata dello stimolo, coerente con IIT, ma solo per una minoranza di elettrodi. L’informazione sull’orientamento del volto, invece, non veniva mantenuta a lungo, contraddicendo IIT. Per quanto riguarda GNWT, è emersa una chiara ignizione iniziale nella PFC, ma non si è osservata alcuna ignizione alla fine dello stimolo, cioè nel momento in cui l’esperienza cosciente cambiava con la comparsa dello schermo vuoto. Questo rappresenta una falsificazione diretta di una previsione centrale della GNWT. Inoltre, nella PFC mancavano anche rappresentazioni persistenti dell’identità o dell’orientamento, presenti invece nelle aree posteriori.

Il terzo caso ha riguardato la connettività tra aree cerebrali. IIT prevede una connessione gamma-band sostenuta tra V1/V2 e aree visive di alto livello all’interno della zona posteriore. GNWT prevede una sincronizzazione transitoria (a breve latenza) tra PFC e aree selettive per il contenuto. Le metriche usate — la PPC per la fase oscillatoria e la DFC per la co-variazione di potenza — hanno mostrato risultati deboli per entrambe le teorie. Le connessioni osservate erano di breve durata, spesso a basse frequenze (alpha o beta), e in alcuni casi attribuibili alla risposta evocata dallo stimolo stesso. Tuttavia, un’analisi DFC più sensibile ha mostrato connettività gamma tra PFC e aree selettive per oggetti e volti, che però era limitata a pochi casi e non sistematica. Nel complesso, la previsione IIT di connettività sostenuta posteriore non ha trovato conferma, e anche GNWT ha ottenuto un supporto solo parziale e intermittente.

Il risultato finale di questo esperimento è duplice. Da un lato, ha fornito la più rigorosa e controllata valutazione mai condotta di due teorie della coscienza, dall’altro ha evidenziato che nessuna delle due, nelle sue versioni attuali, è pienamente coerente con l’evidenza empirica. Questo non significa che siano da scartare, ma che vanno modificate, raffinate o integrate. Il valore dello studio pubblicato sulla rivista Nature sta anche nel metodo: preregistrazione delle ipotesi, accordo su criteri di valutazione, analisi separate tra teorici e sperimentatori, tecniche multimodali e campioni numerosi. Questa metodologia rappresenta un modello per il futuro della ricerca in neuroscienze cognitive, dove le teorie devono esporsi con chiarezza e rigore al giudizio dell’esperienza.

In ultima analisi, testare sperimentalmente una teoria della coscienza richiede non solo una formulazione concettuale forte, ma anche una sua traduzione in predizioni precise, misurabili e falsificabili. Richiede l’umiltà di ammettere che i nostri modelli del mentale possono sbagliare, e la pazienza di costruire strutture teoriche che non si accontentino della coerenza interna o della potenza descrittiva, ma che resistano alla prova del mondo.

In ogni caso, quello presentato su Nature è un esperimento estremamente interessante non solo per l’ampiezza e la qualità dei dati raccolti, ma anche per l’orientamento filosofico che lo sottende. Di fatto, c’è la convinzione, profonda e forse rara nel panorama scientifico, che teorie sulla coscienza debbano essere trattate come ogni altra teoria scientifica — cioè, messe alla prova dei fatti. Tuttavia, le conclusioni cui giunge lo studio non premiano nessuna delle due teorie coinvolte. Entrambe, IIT e GNWT, falliscono nell’intercettare pienamente le evidenze empiriche. Alcune predizioni vengono rispettate, altre — e in particolare quelle centrali — vengono contraddette. In IIT, la mancanza di sincronizzazione sostenuta nella zona posteriore e l’instabilità di certe rappresentazioni chiave (come l’orientamento del volto) pongono interrogativi su quanto sia realistica l’idea che l’integrazione informativa sia localizzata e autosufficiente. In GNWT, l’assenza dell’ignizione di chiusura e la debolezza delle rappresentazioni nella corteccia prefrontale sollevano dubbi sull’effettiva necessità del broadcast globale tramite il workspace.

Lo studio, però, è importante proprio perché mostra che la scienza può, anche nella sua forma più empirica, confrontarsi con ciò che per secoli è stato dominio della filosofia e cioè il problema della coscienza. Farlo significa affrontare una sfida epistemologica profonda, perché la coscienza non è un oggetto nel mondo, ma il presupposto stesso di ogni esperienza del mondo. In questo senso, il rischio è duplice in quanto, da un lato, si riduce la coscienza a meri correlati neurali senza cogliere la specificità del vissuto soggettivo; dall’altro, si cede alla tentazione di trattarla come irriducibile e dunque fuori dalla portata della scienza. L’equilibrio è difficile, e la difficoltà è teorica prima ancora che metodologica.

Il filosofo David Chalmers ha introdotto la celebre distinzione tra «problemi facili» della coscienza — quelli riguardanti l’attenzione, la memoria, la discriminazione sensoriale — e il «problema difficile», cioè spiegare perché e come esista un’esperienza soggettiva. I problemi facili possono essere trattati con le risorse della scienza cognitiva e della neurofisiologia. Il problema difficile, invece, resiste, perché riguarda l’essere per sé dell’esperienza, il fatto che c’è «qualcosa che è come» essere un soggetto cosciente. Alcuni, come Dennett, hanno sostenuto che il problema difficile è un’illusione e che spiegare i processi cognitivi basterebbe. Altri, come Thomas Nagel, hanno invece insistito sul carattere irriducibile della soggettività. Ma è forse in Emanuele Severino che troviamo la riflessione più radicale.

Per Severino, ogni tentativo di pensare la coscienza in termini oggettivabili parte da una contraddizione: l’essere dell’apparire non è riducibile all’apparire dell’essere. Cioè, ciò che appare (la coscienza) è già, in sé, l’orizzonte in cui l’essere si dà; volerlo oggettivare significa rovesciare il rapporto, trasformare il fondamento in fondato. In termini severiniani, la coscienza è l’essere dell’apparire, non il suo prodotto. La scienza, in quanto costruzione logico-strumentale, può indagare i modi in cui appaiono gli stati coscienti, ma non può esaurire la verità della coscienza nella misura in cui essa ne presuppone già la presenza come condizione. Per questo, ogni teoria della coscienza rischia di essere al tempo stesso necessaria e inadeguata: necessaria perché il pensiero ha bisogno di figure formali, inadeguata perché ciò che la coscienza è, non può mai essere completamente contenuto in esse.

Ciò non significa che la ricerca scientifica sulla coscienza sia futile. Al contrario. La scienza all’interno del paradigma che le è proprio è una delle vie più promettenti per avvicinarci a una comprensione più profonda dell’umano. Ma va praticata con consapevolezza filosofica, sapendo che ogni modello — per quanto sofisticato — è un tentativo, non una spiegazione ultima. Lo studio discusso ne è un esempio virtuoso, in quanto mostra che le teorie devono essere rese vulnerabili (falsificabili), che la collaborazione tra «avversari» — nel senso del protocollo sperimentale adottato — è più produttiva dello scontro, e che la coscienza può essere oggetto di esperimento senza che venga per questo svilita la sua irriducibilità. Più che scegliere un vincitore tra le teorie, il risultato principale è stato tracciare un metodo. Un metodo che, se esteso, potrebbe far progredire anche altre aree della scienza della mente, e forse, col tempo, portarci a una teoria che non solo predice, ma che risuona — almeno in parte — con ciò che ogni essere cosciente conosce senza mediazione e cioè l’esperienza «viva» dell’essere.

 

_________________________________________________

Letture consigliate

Tononi, G. (2015). Integrated Information Theory. Scholarpedia, 10(1):4164.

Tononi, G., Albantakis, L., & others. (2023). Integrated Information Theory (IIT) 4.0: Formulating the properties of phenomenal existence in physical terms. PLoS Computational Biology, 19(4):e1011465.

G. Tononi, G. M. Edelmann, Un universo di coscienza, Einaudi, 2000

Dehaene, S. (2014). Consciousness and the Brain: Deciphering How the Brain Codes Our Thoughts. Viking/Penguin.

Dehaene, S., Kerszberg, M., & Changeux, J.-P. (1998). A Neuronal Model of a Global Workspace in Effortful Cognitive Tasks. Proceedings of the National Academy of Sciences, 95(24), 14529–14534.

Dehaene, S., & Changeux, J.-P. (2011). Experimental and theoretical approaches to conscious processing. Neuron, 70(2), 200–227.

Chalmers, D. J. (1995). Facing Up to the Problem of Consciousness. Journal of Consciousness Studies, 2(3), 200–219.

Chalmers, D. J. (1996). The Conscious Mind: In Search of a Fundamental Theory. Oxford University Press.

Nagel, T. (1974). What is it like to be a bat? The Philosophical Review, 83(4), 435–450.

Dennett, D. C. (1991). Consciousness Explained. Little, Brown and Co.

Lamme, V. A. F. (2006). Towards a true neural stance on consciousness. Trends in Cognitive Sciences, 10(11), 494–501.

Brown, R., Lau, H., & LeDoux, J. E. (2019). Understanding the higher-order approach to consciousness. Trends in Cognitive Sciences, 23(9), 754–768.

Severino, E. (1981). La struttura originaria. Adelphi.

Severino, E. (1990). Destino della necessità. Adelphi.



Glossario dei termini

Coscienza

Stato soggettivo di esperienza in cui un individuo è consapevole di sé e dell’ambiente circostante. È il fenomeno per cui esiste «qualcosa che è come essere» un determinato soggetto.

Integrated Information Theory (IIT)

Teoria proposta da Giulio Tononi che identifica la coscienza con la capacità di un sistema fisico di integrare informazioni in modo unitario e irriducibile. La misura Φ (phi) quantifica il grado di integrazione informativa di un sistema.

Global Neuronal Workspace Theory (GNWT)

Modello sviluppato da Stanislas Dehaene e colleghi, secondo cui la coscienza emerge quando un’informazione viene amplificata e resa disponibile a un’ampia rete di aree cerebrali, in particolare nella corteccia prefrontale e parietale.

Φ (phi)

Parametro introdotto dall’IIT per misurare quantitativamente il livello di integrazione informativa di un sistema. Un valore più alto di Φ indica un maggiore grado di coscienza.

Ignizione

Nel contesto della GNWT, si riferisce a un evento di attivazione neurale improvvisa e diffusa che rende un’informazione cosciente, permettendone l’accesso a diverse aree cerebrali.

Problema difficile della coscienza

Espressione coniata da David Chalmers per descrivere la sfida di spiegare perché e come processi fisici nel cervello diano origine all’esperienza soggettiva. 

Qualia

Termine che indica le qualità soggettive dell’esperienza cosciente, come “il rosso” percepito o il sapore del caffè. Sono elementi centrali nel problema difficile della coscienza.

Apparire (Severino)

Nel pensiero di Emanuele Severino, l’apparire è l’evento fondamentale in cui l’essere si manifesta. La coscienza è vista come l’apparire dell’essere, non riducibile a processi fisici o funzionali.

Fenomenologia

Approccio filosofico che studia le strutture dell’esperienza cosciente dal punto di vista del soggetto. Ha influenzato l’IIT nella sua enfasi sulla struttura unitaria e differenziata dell’esperienza.

Funzionalismo

Teoria filosofica secondo cui gli stati mentali sono definiti dai loro ruoli funzionali piuttosto che dalla loro composizione fisica. La GNWT adotta un approccio funzionalista alla coscienza.

Correlati neurali della coscienza (NCC)

Strutture e processi cerebrali che corrispondono specificamente all’esperienza cosciente. Identificare gli NCC è un obiettivo centrale delle neuroscienze della coscienza.

Preregistrazione

Pratica di registrare in anticipo le ipotesi e i metodi di uno studio scientifico per prevenire bias e aumentare la trasparenza. È stata utilizzata nello studio comparativo tra IIT e GNWT.

Collaborazione avversariale

Approccio sperimentale in cui sostenitori di teorie concorrenti collaborano per progettare esperimenti che possano testare le loro ipotesi in modo equo e rigoroso.

Corteccia prefrontale (PFC)

Regione del cervello associata a funzioni cognitive superiori come il pensiero astratto, la pianificazione e la presa di decisioni. Nella GNWT, è considerata cruciale per la coscienza.

Zona posteriore (posterior hot zone)

Aree corticali posteriori, tra cui le regioni parietali, temporali e occipitali, identificate dall’IIT come principali sedi dell’attività cosciente.

Elettroencefalografia intracranica (iEEG)

Tecnica di registrazione dell’attività elettrica cerebrale mediante elettrodi impiantati direttamente nel cervello, utilizzata per ottenere misurazioni ad alta risoluzione.

Magnetoencefalografia (MEG)

Metodo non invasivo che misura i campi magnetici generati dall’attività neurale, offrendo una buona risoluzione temporale.

Risonanza magnetica funzionale (fMRI)

Tecnica di imaging cerebrale che rileva variazioni nel flusso sanguigno, utilizzata per inferire l’attività neurale in diverse regioni del cervello.

Connettività funzionale dinamica (DFC)

Analisi delle variazioni temporali nella connettività tra diverse aree cerebrali durante l’attività cognitiva o a riposo.

Coerenza di fase (PPC)

Misura della sincronizzazione delle oscillazioni neurali tra diverse regioni cerebrali, indicativa della comunicazione funzionale tra aree.

Teorie dell’ordine superiore (Higher-Order Theories)

Prospettive filosofiche secondo cui uno stato mentale diventa cosciente solo quando è oggetto di una rappresentazione di ordine superiore, come un pensiero o una percezione di quel stato.

Teoria del ricircolo (Recurrent Processing Theory)

Modello che propone che la coscienza emerga dal ricircolo di informazioni all’interno delle aree sensoriali, senza necessità di un broadcast globale.

Panpsichismo

Posizione filosofica secondo cui la coscienza è una proprietà fondamentale e onnipresente della realtà fisica, presente in tutti i sistemi, anche i più semplici.

Dualismo naturalistico

Concetto introdotto da David Chalmers che combina l’idea che la coscienza sia una proprietà fondamentale (dualismo) con l’assunzione che essa emerga naturalmente da sistemi fisici complessi (naturalismo).






Nessun commento:

Posta un commento

Scelti

I Large Reasoning Models (LRM) o Reasoning Language Models (RLM) sono più che motori statistici?

source Negli ultimi anni, il dibattito sulle capacità dei grandi modelli linguistici si è spesso concentrato su un’affermazione apparentemen...