AIΩN è uno spazio aperto. Si accettano contributi!

domenica 31 agosto 2025

Tragiche conseguenze della noosemia


Notizia di questi giorni (agosto 2025) – si legge di una causa legale intentata dai genitori di un adolescente di 16 anni, Adam Raine, contro OpenAI, l'azienda che ha sviluppato ChatGPT, poiché il modello di linguaggio avrebbe istigato al suicidio il giovane Adam.

Il tema del suicidio è molto delicato e chi ha vissuto direttamente o solo lambito indirettamente una tale tragedia ne sa qualcosa. Dire o commentare in merito è estremamente complesso e pericoloso. Ne sono consapevole. Non voglio entrare nella dinamica del fatto – ripresa e raccontata da numerose testate –, né giudicare nel merito gli attori – umani o artificiali – coinvolti nella tragedia. Voglio invece cogliere l'occasione per discutere pacatamente come ChatGPT sia solo la punta di un iceberg di un fenomeno molto più esteso e quali caratteristiche peculiari ChatGPT e compagnia appaiono possedere in relazione a tale fenomeno – che definiremo «effetto noosemico».

Innanzitutto, sembra esistere il cosiddetto «Werther effect», termine coniato dal sociologo David Phillips con riferimento a «I dolori del giovane Werther» (1774), a seguito di un’ondata di suicidi accomunati dalla lettura del romanzo di Goethe. Suicidi che appaiono essere aumentati anche successivamente in quei paesi dove l'opera è stata tradotta. Se si intende approfondire, c'è una vastissima letteratura che tratta l'argomento prendendo ad esempio altre opere, non solo romanzi, che non coprono solo il passato ma arrivano ai nostri giorni. Qui ci si limita a tre considerazioni preliminari.

La prima riguarda il fatto che, se si intende mettere in dubbio l'effetto Werther in sé (e.g., è fenomeno inventato, scarse prove, correlazioni prese come causazione, etc.), rimane indubbio invece che le statistiche sui suicidi sono fornite con estrema riluttanza dalle autorità per paura di un effetto emulazione, quasi che si volesse tacere un fenomeno purtroppo presente e dovuto in larga parte a forme di sofferenza mentale.

Poi c'è il tema generale della morte e delle uccisioni e l'ampio sapere enciclopedico divulgato da film, serie TV, documentari, videogames – e non solo romanzi. Per sapere come uccidere e come uccidersi c'è un’ampia scelta di generi e fonti. Basta guardare un qualche filmetto dove protagonisti o personaggi secondari vengono giù come pere secche per lasciare vuoto quello spazio morale che alcune menti fragili non hanno mai riempito per cause strutturali/patologiche con insegnamenti familiari, religiosi o di altra natura. Certamente la morte è parte della vita ma la sua spettacolarizzazione non è solo sublimazione anestetizzante – per i più forse lo è – ma è anche emulazione, coazione a ripetere, legittimazione a rimetterla in scena, di modo che possa continuare a circolare.

E qui veniamo alla terza considerazione più generale. È nella nostra «natura» (o meglio, in quel sottosuolo del sapere dove si fondano tutti i significati con cui interpretiamo la realtà quotidianità) dare «vita ai segni». Ci si innamora del personaggio di un romanzo come se avesse la stessa modalità di esistenza del nostro prossimo. Si vivono le stesse peripezie che vive il protagonista della nostra serie TV preferita. Ci si emoziona di fronte ad un film dalla storia avvincente o struggente. Ci si indigna per una notizia verosimile ma completamente inventata. Si provano sentimenti di rabbia nei confronti di un personaggio dispettoso in un videogame.

In poche parole, noi esseri umani siamo inclini a stabilire relazioni affettive di un qualche tipo non solo nei confronti del nostro prossimo «in carne ed ossa», ma anche verso «cose» che hanno modalità di esistenza differenti e che solo con un ulteriore sforzo raziocinante le riconosciamo «differenti» dal prossimo. Siamo portati a percepire una «mente nei segni», e questo era chiaro già a Daniel Dennett negli anni '80 con il fenomeno dell'«intentional stance» da lui proposto.

Citando Julian James (vedi «La mente bicamerale è l'origine della coscienza»), già nei primordi dei fenomeni religiosi l'uomo si è trovato a convivere nell'illusione che segni e simboli fossero capaci di «parlare» ingenerando delle vere e proprie allucinazioni – che lo psicologo associa ai fenomeni allucinatori moderni a carattere psichiatrico. Jaynes, tra i numerosi esempi, cita il rapporto delle popolazioni antiche con la morte dei propri cari e l'evoluzione dei riti di sepoltura. Gli antichi egizi imbalsamavano e conservavano i propri cari continuando a fornire loro doni preziosi e cibo per lungo tempo, fin quando il carattere allucinatorio – Jaynes ipotizza che il caro defunto continuasse a causare allucinazioni visive e auditive, ad esempio, in forma di insegnamenti o ammonimenti – non fosse svanito. Un po' come gli insegnamenti ricevuti da bambini che, a volte, ritornano attraverso la voce ammonitoria dei genitori. Per Jaynes il fenomeno allucinatorio e ammonitorio ha dato vita alle prime strutture gerarchiche sociali, dove la presenza del capo – o del faraone – non doveva essere fisica per fare sì che il comando fosse eseguito dai sudditi. Bastavano effigie, segni e simboli del capo, del sacerdote, del giudice etc. Qui non c'è spazio per approfondire ulteriormente le ipotesi di Jaynes, ma possiamo prenderne il succo: i segni sono funtori di modalità di realtà che con un ulteriore passo raziocinante non riconosciamo essere della stessa modalità di quella che comunemente definiamo realtà materiale («in carne ed ossa»). Da qui anche il fenomeno dell'iconodulia, cioè il culto delle immagini sacre vivo in numerosi fenomeni religiosi (o avversato).

Ecco – per chi ha avuto la pazienza di giungere fin qui – che ChatGPT ha la sua peculiarità.

Per inciso, si ribadisce che l'Intelligenza Artificiale è qualcosa di abissalmente più grande di ChatGPT che ne è una istanza strumentale. Però ChatGPT si basa su una particolare configurazione complessa di una Rete Neurale Artificiale che ha una grande capacità di (auto-)apprendimento. È tale configurazione – sviluppata in forma matura nel 2017 – non serve solo a rispondere a domande, ma viene usata in maniera differente anche per scopi medici, o di carattere ingegneristico e progettuale (non in forma di mero chatbot).

Questa configurazione, addestrata su immani quantità di fonti (libri, web, film, documentari) acquisisce delle proprietà emergenti per cui riesce a emulare la generazione di segni mediatori di significati da noi attribuiti che ci appaiono verosimili. Citando Pessoa, altrove scrivevo che «se "il poeta è un fingitore" ChatGpt è il re dei fingitori». Le capacità di manipolazione simbolica raggiunte dalle IA generative che agganciano l'utente spingendolo verso una coproduzione del significato hanno raggiunto vette fino a pochi anni fa impensabili. Sempre altrove, si è scritto di «dominio, per un certo grado, sul linguaggio», ma ad oggi possiamo estendere tale locuzione a «[...] domino sulle forme espressive umane».

Su tale terreno si fonda la necessità di un termine il cui campo semantico richiami questi fatti e che consenta di instaurare una discussione comprensiva sul fenomeno in atto. Questo termine è: «noosemia» (dal greco noûs – mente, intelletto, s¯emeîon – segno), che sta per: «percepire la mente nei segni» al tempo dell'IA generativa. Le cause di tale pattern fenomenologico sono molteplici ed intrecciate e si fondano sulla struttura costitutiva di queste particolari Reti Neurali Artificiali – che mostrano proprietà emergenti caratteristiche dei sistemi complessi – e la nostra struttura cognitiva, la quale non è cambiata poi molto nell'arco della storia. Ecco che l'«effetto noosemico» – che nasce da un effetto sorpresa nell'interagire con una IA che appare comprendere e leggerci nella mente – può portare a forme di attribuzione di intenzionalità e di una vera e propria mente nella «machina». Di qui anche i pericoli annessi riguardo al suicidio o, più banalmente, le lamentele recenti degli utenti che non si «sentono capiti» da GPT-5 – la nuova iterazione di ChatGPT resa più formale – spingendo Altman a restaurare il più «empatico» GPT-4o. C'è un «gap esplicativo» tra la complessità degli strumenti tecnici che utilizziamo e l'ergonomia cognitiva con cui essi si relazionano a noi – già Georg Simmel agli inizi del Novecento ne parlava in seno ai manufatti tecnici. All'interno di questo gap, che le IA generative portano all’estremo, prende forma quella «epifania algoritmica» che chiamo noosemia.


Riferimenti

De Santis, E., & Rizzi, A. (2025). Noosemìa: toward a cognitive and phenomenological account of intentionality attribution in human–generative AI interaction. arXiv preprint arXiv:2508.02622.

_____

Guarda il Manifesto [ENG]

Nessun commento:

Posta un commento

Scelti

I Large Reasoning Models (LRM) o Reasoning Language Models (RLM) sono più che motori statistici?

source Negli ultimi anni, il dibattito sulle capacità dei grandi modelli linguistici si è spesso concentrato su un’affermazione apparentemen...