All'inizio degli anni Duemila, l'affermazione dei moderni motori di ricerca non fu solo il frutto di un'evoluzione algoritmica, bensì il risultato di una profonda trasformazione infrastrutturale. Google, in particolare, non rivoluzionò solo il ranking dei risultati con il noto algoritmo «PageRank» (ordinare i risultati di una ricerca in maniera pertinente), ma ridisegnò l'intera architettura hardware sottostante per il calcolo, distribuendo l'elaborazione, costruendo indici su larga scala e introducendo tecnologie di indicizzazione super veloce e distribuite sull'intero globo. La vera innovazione degli anni Duemila non fu solo nell'algoritmo quindi, ma nella capacità di eseguire miliardi di ricerche con un tempo di risposta impercettibile, su una mole di dati senza precedenti e sfruttando una co-progettazione tra software e hardware che rispondeva a un'esigenza fondamentale e cioè quella di trasformare l'accesso alla conoscenza cristallizzata sul Web in un'esperienza immediata, scalabile e continua.
Oggi, osservando lo sviluppo delle architetture che sorreggono l'Intelligenza Artificiale generativa, si ha l'impressione di trovarsi in un'epoca simile a quella dei primissimi motori di ricerca «sperimentali» (i vetusti Altavista, Virgilio per intenderci) ovvero modelli potenti, ma ancora poco integrati con l'infrastruttura. La potenza degli attuali motori linguistici tipo ChatGPT non ha nulla a che vedere con la potenza dei futuri sistemi di IA generativa direttamente collegati a grandi database attraverso quella che oggi è nota come architettura RAG (Retrieval Augmented Generation).
Per sfruttare un metafora neuroscientifica, quando usiamo GPT-4o è come «se stessimo giocando con l'area di Broca» ovvero quella parte del cervello umano riconosciuta dalle neuroscienze come deputata al linguaggio; come se stessimo stimolando una parte piccolissima del cervello completamente «staccata» dal resto.
Oggi, sebbene lo sviluppo proceda velocemente, le architetture hardware alla base dei sistemi di IA sono appoggiate su hardware non ottimizzato per servire milioni di utenti con bassissimi tempi di risposta. In altre parole, siamo nella fase «pre-Google» degli anni 1998–2000 dell'IA generativa: abbiamo le architetture Transformer (il cuore neurale degli LLM) come se fossero il PageRank che potenziò le capacità di Google, abbiamo accesso a enormi basi di dati, ma manca ancora la rivoluzione infrastrutturale che consentirà di far emergere una vera architettura cognitiva distribuita, scalabile, pronta a operare in tempo reale e ad apprendere in modo continuo.
In questa prospettiva, si apre una visione speculativa ma fondata dove l'Intelligenza Artificiale generativa può essere intesa come un nuovo «strato» nell'architettura della rete Internet, uno «strato cognitivo» posto sopra il World Wide Web. Se il Web ha permesso l'accesso ipertestuale alla conoscenza distribuita fin dall'inizio degli anni '90, l'IA generativa si appresta a svolgere la funzione di mediatore intelligente, un motore cognitivo che non solo recupera dati, ma li interpreta, li relaziona, li trasforma in risposte, ipotesi, decisioni, speculazioni. Tale nuovo livello si sta configurando come la naturale estensione della rete Internet, quindi non più solo l'informazione come elemento reperibile, ma l'informazione pensata, articolata ed esposta nei linguaggi umani (e non solo). E, proprio come accadde per i motori di ricerca, anche in questo caso la vera svolta non risiederà solo nell'evoluzione dei modelli, ma nella capacità di renderli operativi su larga scala, integrandoli in infrastrutture hardware distribuite, progettate per sostenere la «pressione cognitiva» dell'intero pianeta. Tutto ciò procederà secondo quelle stesse leggi empiriche che hanno governato la rivoluzione informatica fino ad ora (e.g., la legge di Moore), per cui un computer capace di qualche calcolo negli anni '50 occupava intere stanze e pesava tonnellate (vedi l'ENIAC) mentre oggi portiamo nelle nostre tasche dispositivi che hanno una potenza migliaia di miliardi di volte superiore.
Così come la rivoluzione dell'informazione ha richiesto di ripensare l'intera infrastruttura del Web, la «rivoluzione cognitiva» dell'IA generativa richiederà di ripensare l'intera infrastruttura del pensiero automatizzato.
Nessun commento:
Posta un commento