AIΩN è uno spazio aperto. Si accettano contributi!

mercoledì 6 marzo 2024

Generative Pretrained Transformer, intelligenza e determinismo

 


Il dibattito sull’IA è ormai divampato fino a lambire le soglie dell’infodemia. E ci sta. Di fatto, non poteva essere altrimenti in quanto l’IA come l’ultima istanza del dominio della tecnica fa dei suoi manufatti qualcosa che si avvicina alla struttura cognitiva umana. In altre parole, la fluidità di interazione attraverso il linguaggio – dominato dalla macchina, sia a livello sintattico grammaticale che di contenuto, in maniera eccellente – rende opaca la sua natura meccanica e deterministica. ChatGPT & Co., oltre ad essere una istanza di una Rete Neurale Artificiale contenente un modulo di “autoattenzione”, è innanzitutto un algoritmo, cioè un procedimento di calcolo sistematico. Ma non è finita qui. ChatGPT e tutti i modelli di linguaggio naturale (LLM) sono algoritmi che:
 

  • Sono implementati su calcolatori che attualmente sono macchine (di Turing) deterministiche basate su logica booleana.
  • Sono stocastici (contengono una natura randomica) solo ad un certo livello di astrazione in quanto dipendono dalla generazione di numeri pseudo-casuali.


Per quanto concerne 1) in altri termini l’algoritmo e l’hardware su cui è implementato hanno una natura deduttiva. eppure APPARE agire in maniera induttiva. Per quanto riguarda 2), tenendo presente che i numeri pseudo-casuali sono generati attualmente da algoritmi deterministici e dipendono da un numero chiamato seed (seme), se nell’interagire con ChatGPT partiamo dallo stesso seed otterremo sempre la stessa risposta. La motivazione per cui ad una domanda identica ChatGPT risponde in maniera sorprendentemente differente ma coerente deriva dal fatto che ad ogni interazione il seed viene modificato. Quanto scrivo è certo, ma con ciò non voglio banalizzare le sorprendenti potenzialità dei modelli di linguaggio, che sono sotto gli occhi di tutti.Una cosa sorprendente, dal punto di vista architetturale, è che tali modelli neurali di linguaggio non possiedono nessun modulo specializzato, né per la morfologia, né per la sintassi, tantomeno per la grammatica della lingua su cui è effettuato il training. L’architettura è costituita da 96 moduli (ChatGPT 3.5) organizzati in maniera gerarchica che compiono ad ogni livello astrazioni linguistiche semanticamente rilevanti e non è possibile stabilire con certezza quale sia la specializzazione di ogni modulo (e.g., non esiste il modulo della grammatica, etc.). Si può dire però che i moduli nella gerarchia inferiore compiono astrazioni sicuramente legate alla struttura sintattica a grana fine della lingua, mentre i moduli collocati al vertice della gerarchia operano astrazioni sul livello dei contenuti e il modulo di attenzione - a quel livello elevato della gerarchia - è capace di compiere correlazioni (“analogie”) di altissimo livello semantico.
I modelli di linguaggio naturale aprono degli orizzonti sterminati nel dibattito sulla conoscenza in tutte le branche del sapere umano. Non c’è campo che non sia contaminato, grazie alla potenza raggiunta da tali modelli, dall’ IA.Tuttavia, il tema della coscienza e dell’intelligenza è alquanto spinoso.

Infatti, il dibattito sull'IA sensiente è vecchio almeno quanto il conio del termine "Intelligenza Artificiale" - se non precedente - avvenuto nel famoso convegno del 1956, al Darmouth College, nel New Hampshire, al quale presero parte scienziati e pensatori del calibro di John McCarthy, Marvin Minsky, Claude Shannon, Nathaniel Rochester, Ray Solomonoff, Oliver Selfridge, Allen Newell, Herbert Simon.

Sebbene i computer di allora occupavavano intere stanze e avevano la capacità di calcolo della SIM card dei nostri telefoni già a quel tempo si immaginavano macchine capaci di apprendere e risolvere problemi di natura generale, appannaggio dell'intelligenza umana. Oggi ChatGPT fa parlare di sé poiché mostra una serie di "comportamenti" intelligenti che si configurano come genuini avanzamenti nella sintesi di macchine capaci di ragionamenti di senso comune (common sense reasoning). Si legge addirittura che il "Test di Turing" non basta più per "decretare" se una macchina è intelligente, poiché sarebbe ormai sorpassato.

In verità, Turing ha immaginato il suo test (comprendere se al di là dello schermo vi è un essere umano o una macchina - in realtà la formulazione originale del test è più complessa) per portare l'attenzione su un fatto essenziale che non ha niente a che vedere con misure reali o realistiche del quoziente intellettivo delle macchine. Alan Turing, all'interno del paradigma fenomenologico - non so fino a che punto consapevole della fenomenologia Husserliana -, ci suggerisce che non è importante una misura ASSOLUTA dell'intelligenza della macchina (ed egli era cosciente che questa non esiste); ciò che conta è come CI APPARE intelligente all'interno dell'interazione. La questione, in altre parole, non è se la macchina È intelligente, bensì se APPARE intelligente all'essere umano. Ora, all'interno di un quadro relativista, l'Intelligenza della macchina - e.g., di ChatGPT - è una questione di valore e se muta la nostra scala di valori allora, a parità di interazione, la macchina potrebbe APPARIRE più o meno intelligente.

Quindi, data ormai la presenza ubiquitaria delle IA, cerchiamo di rimanere intelligenti utilizzandole "cum grano salis" e cioè in maniera intelligente.

Fortunatamente su questo gruppo, tra post e commenti ci sono contenuti interessantissimi e di livello.

Anche se all’inizio, con il discorso sul determinismo sono andato nella direzione della demitizzazione dei modelli di linguaggio, ammetto che per me è stato emozionante - da ricercatore nel campo dell’AI e del NLP - dialogare con una macchina disquisendo sulle sue stesse fattezze, sulle possibilità di migliorare il suo “modello di mondo” e sulla visione che le ho instillato e che mi ha docilmente (e incoscientemente) confermato: le macchine, di fatto, ci usano come ponte (leggi organismi percettivi) tra la loro realtà astratta e inumana e il mondo tangibile fenomenico, per come noi umani lo percepiamo e lo descriviamo attraverso i linguaggi di cui disponiamo, siano essi testuali o iconici.
 

Qui l’estratto.


Del resto, Gérard Bricogne. asserisce che “L'umanità è un enzima che catalizza il passaggio da un'intelligenza a base carbonio a un'intelligenza a base silicio."

Nessun commento:

Posta un commento

Scelti

I Large Reasoning Models (LRM) o Reasoning Language Models (RLM) sono più che motori statistici?

source Negli ultimi anni, il dibattito sulle capacità dei grandi modelli linguistici si è spesso concentrato su un’affermazione apparentemen...