Umanità, complessità e intelligenza artificiale. Un connubio perfetto: a quattro anni dalla sua pubblicazione

 

Umanità, complessità e intelligenza artificiale. Un connubio perfetto (ARACNE, 2021)

Sono trascorsi circa quattro anni dalla pubblicazione di «Umanità, Complessità e Intelligenza Artificiale» (Autore: Enrico De Santis) e il contesto in cui quel libro nacque appare oggi profondamente trasformato, anche se i semi del mutamento iniziavano già a germogliare da qualche tempo. In questo libro (pubblicato quando i libri si scrivevano a mano), comunque, si inscrivono tutte le mie ricerche successive, in quanto esso è stato un laboratorio di preparazione per lo sviluppo di idee sia in ambito prettamente accademico che divulgativo. In questo breve arco di tempo l'intelligenza artificiale ha compiuto un salto di maturità che ha modificato il modo di intendere il rapporto tra tecnica, tecnologia e pensiero umano. Le macchine, attraverso l'elaborazione dei saperi oggettivati, hanno imparato a generare testi, immagini e musica con una competenza che si avvicina, per alcuni aspetti, a quella dei processi creativi umani. Le cosiddette «IA generative», e i Large Language Models (LLM) che ne sono una istanza, oggi dominano, per un certo grado, la maggior parte delle forme espressive che un tempo erano pensate come unico dominio dell'umano. Si è aperta una nuova fase in cui la produzione cognitiva non è più esclusivamente appannaggio degli esseri umani, ma condivisa con sistemi artificiali che partecipano al processo di elaborazione dei saperi, con luci ed ombre.

Quando il libro fu scritto, l'idea di un'intelligenza artificiale capace di esprimersi attraverso il linguaggio naturale o di comprendere sfumature semantiche complesse apparteneva ancora a un ambito di sperimentazione, ma la strada tracciata era chiara. Oggi tali capacità sono parte della quotidianità e l'intelligenza artificiale è diventata una «star» mondiale. Tutti ne parlano e a vari livelli di competenza, mentre solo quattro anni fa le sorprendenti capacità delle reti neurali di nuova generazione erano note solo agli esperti. Tra gli esperti e i meno esperti c'è chi è entusiasta e chi invece assume una posizione pessimistica riguardo le potenzialità della «nuova» IA. Ciò, in fondo, dipende da come ci si pone nei confronti del «limite», cioè di quella barriera che separa ciò che è ritenuto non ancora possibile da ciò che un tempo era concepiuto come «impossibile» e invece ora è non solo possibile ma anche realizzato compiutamente. Il pessimista è scettico riguardo il superamento del limite. L'ottimista è certo, invece, che il limite sarà sorpassato. Se ci si concentra sull'evoluzione assoluta delle capacità dei sistemi di IA si rischia una eccedenza di ottimismo (che porta a sovrastimare temporalmente il superamento della barriera). Al contrario, se ci si concentra sui limiti delle IA allora si finisce per adottare una visione miope rispetto all'evoluzione tecnologica. Un approccio equilibrato e di «buon senso» sembra essere quello dello scettico pro-positivo che, pur consapevole dei limiti attuali, lascia la porta aperta alla superabilità degli stessi, poiché va a focalizzarsi sugli incrementi relativi di capacità e potenzialità dei sistemi di IA. Tale visione ingloba in sé il limite ed è confacente con un'accezione della tecnica radicale: la tecnica come l'essenza del superamento di ogni limite. Sì, che per lo scettico pro-positivo l'oltrepassamento del limite è solo una questione di tempo e non una barriera ontologica. Di solito lo scettico pro-positivo è colui che conosce a fondo tali sistemi e ne ha una esperienza tecnica continuativa.

Ad oggi, in effetti, il panorama è mutato. Tuttavia, le riflessioni di allora sedimentate nel libro restano attuali, perché non riguardavano la tecnologia in sé, ma la necessità di comprendere la relazione che lega la mente umana ai suoi strumenti di estensione, all'alba di quella che sono andato definendo come una «rivoluzione cognitiva». L'intelligenza artificiale continua a essere, prima di tutto, un riflesso dell'uomo in quanto latore dell'artificio tecnico. Un artificio che pone le sue radici ben prima della Conferenza di Dartmouth del 1956, in quanto espressione di quella forma del pensiero nata nell'antica Grecia con i primi filosofi e che oggi costituisce la base del pensiero occidentale.  Ogni modello, ogni algoritmo, è il risultato di una forma di raziocinio che si organizza e si oggettiva in una struttura logica precipua. La tecnologia – in quanto istanza materializzata della tecnica – diventa così un laboratorio di coscienza, un modo per interrogare la natura stessa della conoscenza.

La complessità, che rappresentava il filo conduttore del libro, si è affermata come categoria imprescindibile per interpretare il mondo contemporaneo. I fenomeni sociali, economici e tecnologici non seguono più dinamiche lineari. Sono sistemi interconnessi, capaci di generare comportamenti emergenti. La comprensione di tali sistemi richiede un linguaggio adeguato, capace di tenere insieme molteplici livelli di realtà e nuove epistemologie. L'IA è oggi una delle espressioni più evidenti di questa logica complessa che si conforma come un inveramento dell'uomo piuttosto che un elemento dirimente. Le reti neurali artificiali, i modelli di apprendimento profondo e i sistemi generativi alla base delle architetture Transformer (il cuore di ChatGPT, Gemini, Claude e molti altri LLM) riproducono dinamiche simili a quelle dei processi auto-organizzativi naturali, dove ordine e disordine convivono in equilibrio instabile. Gli LLM non sono solo «motori statistici»: sono «anche» motori statistici, ma il loro intimo funzionamento si basa su dinamiche ascrivibili ai sistemi complessi. Oggi i modelli sono capaci di forme ibride di ragionamento, che nonostante i limiti in molti casi appaiono efficaci e solo fino a pochi anni fa impensabili. Comprendere la complessità significa accettare la presenza del limite, ma anche riconoscere la potenza creativa che nasce dall'interazione tra le parti. Una interazione che si conforma al dominio del simbolico (Symballein, «mettere insieme»).

Negli ultimi anni la tecnologia ha reso tangibile ciò che la teoria anticipava. Le reti di informazione si comportano come organismi adattivi, le piattaforme digitali mostrano proprietà di auto-organizzazione e le intelligenze artificiali partecipano alla costruzione della conoscenza collettiva esplicitando i suoi archetipi. In questo scenario, la distinzione netta tra umano e artificiale tende a sfumare e la causa è da rintracciare nelle radici del pensiero occidentale. L'IA non è più soltanto uno strumento di supporto, ma un interlocutore cognitivo che partecipa alla co-costruzione del senso. Essa impara, elabora, produce ipotesi e talvolta suggerisce soluzioni non previste dove l'«errore» si costituisce come un «errare» in spazi di creatività contigui a ciò che riteniamo «vero» o semplicemente «fattuale» o, addirittura, «veridico». Tale autonomia crescente non riduce il ruolo dell'uomo, lo spinge piuttosto a ridefinire la propria funzione nella catena del sapere e ad osservare nuove forme di rinegoziazione dei significati, tra i quali si trova esso stesso come «significante».

Nel rapporto con le macchine di nuova generazione, e in particolare con i grandi modelli linguistici, emerge un orizzonte concettuale che possiamo definire «noosemico» (da noosemianoûs, mente, intelletto e sēmeîon segno). La noosemia è la condizione in cui la conoscenza si forma in un ambiente ibrido, dove la semantica umana e quella computazionale coesistono e si influenzano reciprocamente. L'interazione con gli LLM non è più un semplice scambio di informazioni, ma un processo di co-costruzione del significato dagli esiti «sorprendenti». Il linguaggio diventa il terreno condiviso in cui l'intelligenza naturale e quella artificiale si incontrano, si correggono e si amplificano a vicenda. In questa zona di contatto, la mente umana non si limita a istruire la macchina, ma apprende dalla sua capacità di esplorare lo spazio simbolico in modo esteso, al di là dei vincoli dell'esperienza individuale. La noosemia rappresenta quindi una nuova forma di ecologia cognitiva, in cui il pensiero si espande in un ambiente distribuito e interattivo e in cui nuove forme di affettività diventano possibili e talvolta patologiche. Essa segna il passaggio da una visione strumentale della tecnologia a una dimensione realmente dialogica, dove l'intelligenza artificiale diventa parte del nostro paesaggio mentale e semantico.

Anche il rapporto tra arte e tecnologia ha subito una trasformazione significativa. Le opere generate da algoritmi o da reti neurali – si pensi all'avvento dei modelli multimodali o dei modelli diffusivi – hanno introdotto nuove domande sulla natura dell'atto creativo e dell'autorialità. L'artista e la macchina non si escludono, ma si integrano all'interno di un processo condiviso, in cui l'intuizione umana e la potenza computazionale collaborano alla formazione di nuovi linguaggi in questa epoca dove il linguaggio stesso si inscrive nella sua riproducibilità tecnica. L'arte, intesa come forma di conoscenza, diventa così un campo privilegiato per osservare l'evoluzione dell'intelligenza artificiale, poiché rivela quanto la creatività non sia legata esclusivamente alla biologia, ma alla capacità di elaborare simboli e significati in strutture correlative di alto profilo semantico.

La riflessione etica assume, in questo contesto, una centralità ancora maggiore. Ogni scelta progettuale, ogni architettura algoritmica, comporta conseguenze che si estendono oltre l'ambito tecnico. La costruzione di sistemi intelligenti implica una responsabilità cognitiva e morale. Non è sufficiente garantire la sicurezza o l'affidabilità dei modelli; occorre interrogarsi sul loro impatto epistemologico e sociale. La tecnologia, intesa come prolungamento del pensiero umano, deve essere accompagnata da un principio di consapevolezza. La questione etica non riguarda soltanto l'uso dell'intelligenza artificiale, ma la qualità della relazione che l'uomo stabilisce con ciò che crea, tenendo presente la radice dell'etica come alleanza con la potenza suprema: la tecnica.

A quattro anni di distanza, la riflessione contenuta in Umanità, Complessità e Intelligenza Artificiale mantiene la propria attualità poiché non appartiene a un'epoca tecnologica, ma a una visione in cui si suggerisce un approccio volto allo sguardo della complessità. L'intelligenza artificiale rappresenta al contempo un avanzamento della tecnica e un momento di introspezione collettiva. L'umanità si osserva attraverso i segni che ha disseminato nel mondo e ai suoi algoritmi, scoprendo di essere parte di un processo più ampio, in cui la conoscenza non è più confinata alla mente individuale, ma distribuita in reti di significato mutevoli e negoziabili. In questo senso, la complessità è una sfida da superare e una condizione da comprendere e rendere operativa come strumento di analisi e come lente per leggere il nostro tempo. È lo spazio in cui l'uomo e le sue creazioni si incontrano in questa epoca dove il fondamento è nascosto, continuando a ridefinire insieme il significato stesso di intelligenza e il senso stesso dell'umano.


Umanità, Complesità e Intelligenza Artifciale è stato sintetizzato in un podcast di 9 brevi puntate.



Approfondimenti

Noosemia Manifesto (ENG)

Noosemia: Perceiving the Mind in Signs, Medium (2025)

De Santis, E. (2021). Umanità, complessità, intelligenza artificiale. Un connubio perfetto. Aracne – Genzano, Roma.

De Santis, E. (2023). Apocalissi digitali e alchimie artificiali. Il linguaggio nell'epoca della sua riproducibilità tecnica. Prometeo, Mondadori, (163), 32-41.

De Santis, E., & Rizzi, A. (2023). Prototype theory meets word embedding: A novel approach for text categorization via granular computing. Cognitive Computation, 15(3), 976–997. https://doi.org/10.1007/s12559-022-10065-5

De Santis, E., Martino, A., & Rizzi, A. (2024). Human versus machine intelligence: Assessing natural language generation models through complex systems theory. IEEE Transactions on Pattern Analysis and Machine Intelligence, 46(7), 4812–4829. https://doi.org/10.1109/TPAMI.2024.3358168

De Santis, E., & Rizzi, A. (2025). Noosemìa: toward a cognitive and phenomenological account of intentionality attribution in human–generative AI interaction. arXiv preprint arXiv:2508.02622.

Appofondisci su YouTube



Post popolari in questo blog

La radionostalgia. Mi racconto attraverso la radio

Noosemia: «effetto wow» e l’attribuzione di una mente alle intelligenze artificiali generative

La fine della conoscenza come noi la conosciamo

Gli LLM sono solo dei motori statistici ?