Tecnica, linguaggio e percezione delle macchine nell’epoca dell’intelligenza artificiale – Rielaborazione del discorso per il convegno tenutosi al Club Nautico di Gaeta il giorno 11 ottobre 2025 – https://youtu.be/bz5nfHLRBJo
Introduzione
Ogni epoca ha la propria immagine dei saperi e della conoscenza. Il
sottosuolo della nostra è costituita da circuiti, reti e modelli che apprendono
in maniera automatica, un sapere che non solo si accumula, ma si replica e si
trasforma. Quando oggi parliamo di intelligenza artificiale pensiamo al futuro,
eppure ciò che chiamiamo rivoluzione tecnologica (o meglio: «rivoluzione cognitiva») affonda le radici in una
sapienza antica. C’è un filo invisibile che lega la stra-ordinaria tecnologia
alla base dell’IA e gli albori del pensiero occidentale. La filosofia, la
matematica e la poesia custodivano già le domande che oggi l’ingegneria e la
scienza dei dati provano a tradurre in circuiti, codice e modelli.
L’immagine simbolica di un filosofo greco che porge un libro a un robot
non è casuale. È il gesto attraverso il quale il pensiero trasmette la propria
eredità alla tecnica. In questa scena si racchiude la continuità di un dialogo
dove il sapere umano, che ha cercato per secoli di comprendere il mondo
attraverso le categorizzazioni e, quindi, le differenze, oggi consegna
alla macchina il compito di riflettere su di esso.
L’Intelligenza Artificiale come disciplina nasce sì nel 1956 con il progetto
di ricerca estiva di Dartmouth cui parteciparono scienziati del calibro di Marvin
Minsky, Dr. Julian Bigelow, D.M. Mackay, Ray Solomonoff, John Holland, John
McCarthy (che coniò il termine «intelligenza artificiale»), Claude Shannon, Mr.
Nathaniel Rochester, Oliver Selfridge, Allen Newell, Herbert Simon; tuttavia le
sue radici affondano in quel sapere antico che tutt’ora caratterizza il
pensiero dell’Occidente.
Emanuele Severino, in un passo straordinario di «Filosofia futura» (1989), scriveva che «[…] anche su questo versante, dunque, non si presentano ostacoli che in linea di principio rendano “impossibile” alla scienza la costruzione di oggetti non solo indistinguibili da ciò che chiamiamo “il nostro prossimo” ma anche con prestazioni enormemente superiori. Non è “impossibile” che la scienza riesca a costruire oggetti con fattezze umane che vivano, scrivano poesie, preghino Dio e facciano filosofia come e meglio degli uomini. Per sapere che cosa è “impossibile” è infatti indispensabile sapere che cosa è “necessario”. E la nostra cultura ha dato un grande addio alla necessità». In queste parole si apre la prospettiva per cui un giorno la scienza possa costruire oggetti capaci non solo di agire come gli uomini, ma di superarli nelle loro prestazioni intellettuali, tenendo fermo il fondamento del pensiero scaturito dalle menti dei primi filosofi della Grecia antica.
Emanuele Severino, filosofo e non tecnico, tuttavia profondo conoscitore delle matematiche e della scienza, intuiva che l’essenza della tecnica non consiste nel semplice potenziamento degli strumenti, bensì nella tensione inesausta al superamento di ogni limite. La tecnica, nella sua forma più radicale, non è un utensile ma una forma della volontà di potenza. In origine, nella cultura greca più antica, la tékhnē (Τέχνη) era considerata una prerogativa divina. Prometeo, che ruba il fuoco a Zeus per donarlo agli uomini, rappresenta questa potenza divina resa umana, la volontà di dominio sulla natura, la capacità di oltrepassare la soglia del possibile. Ma al tempo Eschilo nel «Prometeo incatenato» riferisce: «O arte (tékhnē), quanto più debole sei del destino (ananke)»; le forze della natura erano intese ancora come supreme e insormontabili e la tecnica umana un che di debole loro innanzi.
Martin Heidegger, nel saggio «La questione della tecnica» (1953),
ricordava che l’«essenza della tecnica non è essa stessa tecnica», poiché la
tecnica è un modo di svelare il mondo, una modalità attraverso la quale
l’essere si manifesta. In questo senso, parlare di tecnologia significa parlare
del destino stesso dell’uomo, della sua capacità di produrre mondi e, al tempo
stesso, di rimanerne prigioniero. L’Intelligenza Artificiale è la forma suprema tra le tecniche di automazione: è l’automazione del pensiero. In quanto «forma di automazione» essa è lo slancio verso l’automazione di alcuni processi di pensiero un tempo immaginati come unico dominio dell’uomo.
Intelligenza e imitazione
La domanda che s’impone, allora, è che cosa intendiamo per intelligenza.
Non esiste una definizione univoca, né in filosofia né nelle scienze cognitive.
In modo operativo, possiamo o optare per un approccio intuitivo o dire che
l’intelligenza artificiale è la disciplina che progetta sistemi capaci di
imitare comportamenti intelligenti di esseri viventi. Tuttavia, la definizione
nasconde una difficoltà più profonda, e cioè imitare significa anche comprendere,
e comprendere implica possedere una forma di coscienza o, quanto meno, una
rappresentazione del mondo.
Daniel Kahneman, premio Nobel per l’economia, descrisse due modalità del pensare (umano): i) il pensiero veloce, intuitivo e associativo, e ii) il pensiero lento, analitico e deliberato. Le macchine, per decenni, hanno abitato il secondo dominio, eccellendo nel calcolo e fallendo nell’analogia. Ma qualcosa è cambiato. Dal 2017, con l’avvento delle reti neurali profonde e delle architetture Transformer alla base dei Large Language Models, le macchine hanno acquisito anche la capacità di associare, riconoscere, correlare e persino creare. Esse iniziano ad essere efficaci anche nell’emulare forme di pensiero analogico.
Oggi l’intelligenza artificiale coniuga entrambi i pensieri, quello lento e quello veloce. Essa può risolvere problemi matematici complicati e, al contempo, scrivere un testo poetico o interpretare un’immagine o un testo dai contenuti e dalla sintassi complesse. È una forma inedita di pensiero ibrido e automatizzato, dove la logica e l’intuizione si intrecciano in un’unica trama. Perdipiù, con l’avvento dei sistemi agentici, coadiuvati dalla convergenza dell’IA simbolica e neurale, nonché procedure di ragionamento combinatorio, l’intelligenza artificiale è destinata ad aumentare la propria rappresentazione del mondo e le capacità di operare su di esso con strumenti eterogenei.
La grammatica invisibile della macchina
Per comprendere l’intelligenza artificiale bisogna fare un passo
ulteriore, verso la filosofia del linguaggio e il suo grande sviluppo avutosi
nel Novecento. Negli anni Cinquanta Noam Chomsky cercava la grammatica
universale, l’insieme di regole profonde comuni a tutte le lingue. Il suo
maestro, il linguista americano Zellig Harris, propose invece una visione
diversa, di tipo distribuzionale: «le parole che ricorrono negli stessi
contesti tendono ad avere significati simili».
Questa intuizione, apparentemente di stampo meramente linguistico, ha fondato la semantica moderna utilizzata nelle macchine. I modelli contemporanei, come ChatGPT e definiti «contestuali», rappresentano le parole come punti in uno spazio matematico a molte dimensioni. La distanza tra i punti misura la somiglianza semantica, e le regole algebriche diventano un modo per muoversi in questo spazio del significato. In tal modo, l’algoritmo non si limita a calcolare, ma comincia a «comprendere» attraverso la forma delle relazioni che possono essere, ormai, anche di livello molto astratto. Tuttavia, parlare di «algoritmo» appare riduttivo, soprattutto se si ignora che i moderni modelli di linguaggio artificiali sono sintetizzati tramite sofisticate architetture neurali (i Transformer) che hanno una struttura gerarchica. Ogni livello di elaborazione apprende dai dati (ormai con i modelli multimodali non più solo testo ma anche audio, video, immagini ed altri dati strutturati) e genera spazi semantici sempre più astratti, con cui la macchina costruisce rappresentazioni raffinate ed è in grado di catturare le cosiddette correlazioni a lungo termine (long-range correlation). L’architettura sostanzialmente gerarchica e la ricorsività intrinseca nell’auto-regressività dei modelli Generative Pretrained Transformer (GPT) alla base di ChatGPT rende questi modelli dei veri e propri sistemi dinamici complessi e la loro natura contestuale apre a forme di «olismo semantico». La complessità, pertanto, gioca un ruolo fondamentale nelle prestazioni di tali modelli. Complessità non solo intesa come numero (comunque enorme) di parametri, bensì inerente all’organizzazione interna dell’architettura.
Quando interagiamo con ChatGPT o con altri modelli linguistici come Gemini o Claude, ci sorprendiamo della loro capacità di anticipare il senso delle nostre domande. Non c’è magia, tuttavia spesso c’è stupore. Il modello non consulta un archivio di risposte come quando interroghiamo un motore di ricerca (anche se un database può potenziare l’efficacia delle risposte come nei sistemi Retrieval Augmented Generation, RAG), bensì ricostruisce probabilisticamente la continuazione più coerente di una frase, come se ogni parola fosse un passo in una mappa semantica che l’umanità ha tracciato attraverso i secoli grazie all’oggettificazione dei saperi. Quindi gli LLM sono sì modelli statistico-probabilistici, ma è necessario non fermarsi a questa caratterizzazione esterna se si vuole provare ad intuire la loro intima natura. Internamente gli LLM durante la fase di apprendimento si auto-organizzano come un vero e proprio sistema complesso e l’auto-organizzazione fa sì che emergano rappresentazioni ricche e sempre più astratte. Non è possibile non tenere in considerazione quei loop che si generano durante la fase auto-ricorsiva da cui originano genuine caratteristiche emergenti. Da qui le sorprendenti capacità creative e la necessità di usare un approccio olistico nello studio di tali sistemi di IA.
L’opacità del pensiero artificiale
Un fatto straordinario accompagna questa «rivoluzione cognitiva». Sappiamo costruire
i modelli, ma non comprendiamo appieno come funzionino. I loro spazi di configurazione
interna sono divenuti così complessi da risultare opachi anche agli stessi
progettisti. Un intero campo di ricerca prova a rendere l’IA spiegabile. Per la
prima volta nella storia della tecnica, l’uomo ha creato un oggetto che sfugge
alla sua piena intelligibilità. È un rovesciamento del mito di Prometeo, in
quanto non solo rubiamo il fuoco, ma lo guardiamo ardere senza sapere come
arde. La scienza della complessità troverà il giusto utilizzo nella
comprensione e spiegazione dei modelli.
Da qui nasce la fascinazione, ma anche la paura. L’IA non è più soltanto
uno strumento. È un interlocutore, un mediatore, una presenza capace di
apprendere da noi esseri umani (e da altri modelli di linguaggio). Milioni di
persone, in questo stesso momento, la usano, la interrogano, la nutrono di
testi, immagini, suoni, contenuti e schemi di ragionamento. E il sistema, a sua volta, rielabora tutto ciò che riceve, restituendo nuove forme di linguaggio e nuove forme espressive. L’intelligenza artificiale, in senso stretto, non esiste isolata, bensì vive
nell’interazione, dentro l’intreccio continuo tra la dimensione umana e tecnica.
Dalla semantica al sentimento
Il confine tra linguaggio ed emozione si è fatto poroso. Non è raro che alcuni utenti dichiarino di provare sentimenti autentici nei confronti di un assistente virtuale. Spesso l’interazione è sorprendente. Il fenomeno può sembrare marginale, ma rivela un aspetto profondo del nostro rapporto con i segni e con nuove forme di rinegoziazione dei significati. Quando le parole e i gesti di una macchina imitano con sufficiente coerenza quelli di una mente, l’essere umano tende a riconoscere in essi una mente reale. Iniziamo a percepire una mente nei segni, data la loro dinamicità senza precedenti.
È un meccanismo antico, lo stesso che regge l’arte teatrale o la magia.
Sospendiamo il giudizio come durante uno spettacolo di prestigiazione per
lasciarci incantare. Finché non conosciamo il trucco, la meraviglia resta
intatta. L’intelligenza artificiale funziona in modo simile. Di fatto, la sua
opacità genera un’illusione di interiorità. Nel mio lavoro ho definito questo
fenomeno «noosemia», ovvero la percezione di una mente nei segni. Non vediamo
la realtà ontologica di una mente, ma la interpretiamo nei segni che la
evocano. Siamo nella dimensione dell’interpretato, eppure non ce ne rendiamo
conto. Del resto, ciò vale per tutte le forme di sapere oggettivato che sono un
modello del mondo e non il mondo.
Ci si potrebbe domandare perché l’intelligenza artificiale proprio in questo frangente storico. «È un tempio la Natura ove viventi / pilastri a volte confuse parole / mandano fuori; la attraversa l'uomo / tra foreste di simboli dagli occhi familiari» scriveva Charles Baudelaire ne «I fiori del male» (1857), riferendosi all’indecifrabilità della natura. Da quando l’uomo ha iniziato a disseminare di «segni» e «simboli» il suo ambiente ha ingenerato una semiosi illimitata oggi di una complessità senza precedenti. L’Intelligenza Artificiale (e oggi i modelli di linguaggio di grandi dimensioni) nascono primariamente per districarsi in e governare tale complessità.
L’etica come alleanza
La potenza dell’IA, la nostra stessa volontà di potenza in quanto umani,
porta a introdurre nel discorso l’etica. Tuttavia, per discutere di etica
dell’intelligenza artificiale è oltremodo necessario tornare alla radice stessa
dell’etica (nonché della tecnica, come abbiamo visto). Non si può cominciare nessun dire se non si parte dall’origine. Emanuele
Severino la definiva come l’alleanza dell’uomo con la potenza suprema. Per i
Greci questa potenza era divina; per noi, dopo la «morte di Dio» di nicciana memoria ucciso dallo
stesso uomo, l’etica è l’alleanza con la tecnica quale potenza suprema. Ogni
epoca si allea con ciò che riconosce come più forte di sé.
Oggi quella forza è la capacità di calcolo, la rete di macchine che
amplifica il nostro pensiero. Heidegger ammoniva che il pericolo della tecnica
non risiede nella tecnica stessa, ma nel modo in cui l’uomo dimentica di
interrogarsi sul suo senso. Se l’etica moderna vuole essere all’altezza della
sfida, deve dunque riscoprire questa interrogazione, non limitarsi a regolare i
comportamenti, ma comprendere le condizioni ontologiche della nostra alleanza
con la macchina.
Nell’intervista fatta dalla rivista Der Spiegel con il titolo «Ormai
solo un Dio ci può salvare» (1966, pubblicata postuma nel 1976), Heidegger
afferma che la filosofia, intesa nel senso tradizionale, «si dissolve nelle
scienze particolari: la psicologia, la logica, la politologia». Alla domanda
dei giornalisti dello Spiegel: «E ora chi prende il posto della
filosofia?» Heidegger risponde: «La cibernetica». Tale risposta, apparentemente
lapidaria, è carica di significato ontologico. Non si tratta di un giudizio
tecnico sulla cibernetica di Norbert Wiener o William R. Ashby, ma di un
giudizio epocale, per cui la cibernetica rappresenta il compimento dell’essenza
della tecnica moderna.
Nel saggio «La questione della Tecnica» (1954), Heidegger definisce il Gestell
come il modo in cui l’essere si disvela nell’età moderna. Non è una macchina,
né un insieme di strumenti, ma la modalità ontologica attraverso cui «tutto ciò
che è» viene posto come fondo disponibile (Bestand), come riserva
calcolabile e manipolabile. Il Gestell è dunque una forma di disvelamento (Entbergen)
che riduce l’ente a risorsa e la verità a calcolo. In questa epoca
dell’essere, l’uomo stesso diviene Bestand – risorsa, funzione, nodo
nel sistema tecnico. L’uomo non domina la tecnica, ma ne è parte, come
operatore del disvelamento tecnico stesso. La cibernetica (kybernētikḗ –
tékhnē, «arte del pilota»), la quale si intreccia con l’intelligenza
artificiale, è, nella prospettiva heideggeriana, l’autocomprensione del Gestell
attraverso il linguaggio del calcolo e del controllo. Essa non è una scienza
tra le altre, ma la scienza generale dell’organizzazione e del controllo dei
sistemi, cioè del modo stesso in cui l’essere si fa calcolo e autoregolazione.
Nel linguaggio di Heidegger, la cibernetica rappresenta la riduzione
totale dell’essere a informazione e retroazione (Rückkopplung), dove anche il
pensiero è pensato come processo funzionale e misurabile. È la metafisica
compiuta della tecnica, ovvero non più metafisica nel senso classico, ma nel
senso che compie il destino metafisico dell’Occidente, chiudendolo nel cerchio
dell’efficienza e dell’autoregolazione. In altre parole, la cibernetica è il
volto epistemico del Gestell, attraverso la sua formalizzazione
logico-matematica. Mentre il Gestell è l’essenza ontologica del
disvelamento tecnico, la cibernetica ne è la manifestazione teoretica e
operativa: il pensiero che riflette e realizza l’impianto tecnico come sistema
di controllo totale. Per questo Heidegger, nell’intervista, dopo aver detto che
«la cibernetica» prende il posto della filosofia, aggiunge che esiste un’altra
forma di pensiero – das andere Denken – che non è filosofia, né scienza,
ma ascolto dell’essere. Tale altro pensiero è l’unica via d’uscita dal dominio
del Gestell: non un rifiuto tecnico, ma un ripensamento dell’essere
capace di sottrarsi al paradigma del calcolo e del controllo. In tal senso, la
frase «Ormai solo un Dio ci può salvare» (p.149) non è una fuga mistica, ma un
riconoscimento del fatto che l’uomo, da solo, non può più invertire l’essenza
della tecnica. L’uomo può solo aprirsi a un diverso modo di disvelamento, non
fondato sul calcolo ma sull’evento dell’essere (Ereignis).
In termini contemporanei, potremmo dire che l’informatica, l’IA e le reti
neurali artificiali (anche alla base dei Transformers) rappresentano la
concretizzazione storica del destino che Heidegger chiamava «cibernetico». Ogni
sistema di intelligenza artificiale è una forma del Gestell che
organizza e calcola l’essente come informazione manipolabile, continuando la
logica che Heidegger aveva già colto negli anni Sessanta.
Un’occasione italiana mancata
Tornando alle radici italiane, non è inutile ricordare che l’Italia – culla del Rinascimento – avrebbe
potuto giocare un ruolo diverso nella storia dei sistemi elettronici, dell’informatica
e dell’intelligenza artificiale. L’ingegnere Adriano Olivetti, negli anni
Cinquanta, aveva intuito che la fabbrica poteva diventare un luogo in cui
l’ingegneria e l’umanesimo si incontrano. Sognava di trasformare le macchine da
scrivere in strumenti di calcolo personale, vero e propri «computer da
scrivania» molto prima della rivoluzione dei PC negli anni Ottanta avvenuta poi oltralpe. Dopo la sua morte, quell’intuizione venne abbandonata, e con essa una
parte del futuro. È in quelle scelte – dettate da politiche pubbliche e private
miopi – che si consuma il divario tecnologico che ancora oggi ci separa dai
grandi poli internazionali.
Conclusione
L’intelligenza artificiale è, sostanzialmente, lo specchio della nostra stessa
intelligenza, che non conosciamo fino in fondo. È un modo in cui l’uomo
continua a interrogarsi su se stesso, a riprodurre la propria immagine nella
materia e nel linguaggio. «Dopo l’azione esercitata con la tecnica sulla
natura», scriveva il più grande psicopatologo del Novecento Karl Jaspers, «l’uomo si trova a dover subire la reazione del procedimento
tecnico sulla propria essenza, che viene inevitabilmente modificata». È qui che
si gioca la posta del futuro.
È necessario riportare d’innanzi ai propri occhi il pensiero sviluppatosi
nel Novecento intorno alla tecnica e alla sua essenza se si vuole impostare un
discorso serio sull’intelligenza artificiale e tentare di scrutare il futuro
che altrimenti apparirà sempre più immerso nella nebbia.
Del resto, non si tratta di opporsi alla macchina, ma di comprendere la
natura del legame che la unisce a noi umani e come essa ci modifica, all’interno
di una dinamica coevolutiva che non può più essere glissata. Se la tecnica è
l’estensione della mente, allora l’etica è la forma che diamo a quella
estensione. La sfida del nostro tempo consiste nel custodire la misura
dell’umano in un mondo che tende a superarla, riconoscendo che la macchina,
come ogni opera della mente, ci restituisce l’immagine di ciò che siamo (i.e.,
della nostra volontà di potenza) e di ciò che potremmo diventare,
Bibliografia
Emanuele Severino, Filosofia futura. Oltre il dominio del divenire,
Rizzoli, Milano, 1989.
Martin Heidegger, La questione della tecnica, in Saggi e discorsi,
Mursia, Milano, 1976 (ed. orig. 1954).
Daniel Kahneman, Pensieri lenti e veloci, Mondadori, Milano, 2012
(ed. orig. Thinking, Fast
and Slow, 2011).
Noam Chomsky, Saggi linguistici, Laterza, Bari, 1970.
Zellig S. Harris, Methods in
Structural Linguistics, University of Chicago Press, Chicago, 1951.
Heidegger, Martin (a cura di Alfredo Marini), Ormai solo un dio ci può
salvare: intervista con lo "Spiegel"", 1987.
Karl Jaspers, Origine e senso della storia, Mimesis, 2019 (ed.
orig. Vom Ursprung und Ziel der Geschichte, 1949).
Umberto Galimberti, Psiche e techne. L’uomo nell’età della tecnica,
Feltrinelli, Milano, 1999.
Enrico De Santis e Antonello Rizzi,
Noosemìa: toward a cognitive and phenomenological account of
intentionality attribution in human–generative AI interaction. arXiv
preprint arXiv:2508.02622.