AIΩN è uno spazio aperto. Si accettano contributi!

mercoledì 6 marzo 2024

Noam Chomsky e ChatGPT

Una risposta a Noam Chomsky.

Chomsky dice:

"La mente umana non è, come ChatGPT e i suoi simili, una goffa macchina statistica per il riconoscimento di strutture, che ingurgita centinaia di terabyte di dati ed estrapola la risposta più plausibile per una conversazione o la più probabile per una domanda scientifica.
Al contrario... la mente umana è un sistema sorprendentemente efficiente ed elegante che opera con una quantità limitata di informazioni. Essa non cerca di inferire correlazioni brute da dati ma cerca di creare spiegazioni. [...]
Smettiamo di presentarla come "Intelligenza Artificiale" e chiamiamolo per quello che è: "software per il plagio". Non crea alcunché, copia lavori esistenti da artisti esistenti e cambia a sufficienza per sfuggire alle leggi del copyright.
È il più grande furto di proprietà mai avvenuto dopo le terre dei nativi americani da parte dei coloni europei.
"
Noam Chomsky, sul New York Times - 8 marzo 2023

Quam multa fieri non posse, priusquam sint facta, judicantur!
[Quante cose si pensava che non si potessero fare, finché qualcuno non le ha fatte]
Plinio Il Vecchio, 70 AD

A volte anche i più grandi scienziati possono rimanere abbagliati dalle proprie congetture e teorie fino ad assumere un atteggiamento antiscientifico come il diventare dogmatici. Il giudizio così sprezzante mostra non un discorso di merito ma una presa di posizione a priori e scarsa apertura mentale. Sarà l'età avanzata, la popolarità o forse la volontà nascosta di non fare largo al divenire di nuovi pensieri, nuovi metodi o nuove prassi. Chomsky è troppo intelligente per non considerare che non è questo il punto distintivo tra alcune capacità cognitive dei modelli di linguaggio artificiali e esseri umani. Anche gli umani mandano i figli a scuola, studiano sui libri, leggono e ogni giorno apprendono qualcosa esperendo i "dati" del mondo. Gli scrittori, gli artisti, i fisici, i matematici, i filosofi, i commercialisti, i ghost writers, non creano nulla di sana pianta ma rielaborano in gran parte il materiale che hanno appreso in modalità multimodale - spesso copiano. È non per questo sono dei plagiatori. Andiamo a scuola, all'università, frequentiamo i corsi di formazione per apprendere (si spera) oltre ai puri contenuti anche schemi di alto livello semantico da replicare e riempire di contenuto. Tali schemi poi ci permettono di rielaborare e "generare". Nel sottofondo vi è una prassi emulativa. Non esiste artista che non abbia guardato ed introiettato un’opera. Scrittore che non abbia letto un libro. Il ragionamento statistico di cui parla il maestro non è altro che un modello di ragionamento analogico. Una modalità che mima strettamente le modalità di ragionamento umane. Si è sempre ribadito che gli umani non ragionano come macchine ma quelle macchine che si avevano in mente "ragionavano" seguendo una logica Booleana con regole fisse proprio come i sistemi formali novecenteschi delle Grammatiche generative di Chomsky. Ed è per questo che erano brave a fare calcoli ma nulla di più. I modelli stile ChatGPT commettono errori, e tali errori sono molto più simili agli errori degli esseri umani. Si dice che sbagliano a fare i calcoli. Si rifletta, sbagliano proprio come noi: se ci si chiede di fare una moltiplicazione con numeri gradi e ci costringono a rispondere è probabile che la risposta sia errata. Se ci chiedono una tabellina al contrario è facile che la risposta sia corretta semplicemente perché abbiamo imparato a memoria e incontrato le tabelline molte volte nel nostro percorso. È un fatto statistico. Le Reti Neurali Artificiali moderne alla base dei modelli generativi aggiungono un altro livello semantico nella capacità di elaborazione delle informazioni che mima la modalità con cui gli esseri umani (e non solo) apprendono. La differenza tra Chomsky e le sue pur fruttuose teorie è la stessa tra teorie descrittive e prescrittive. Le teorie di Chomsky seppur appaiono come un buono strumento per comprendere la struttura di una lingua non hanno permesso di costruire sistemi di traduzione automatica perché metodologicamente rigide, poiché alla base avevano un rigido formalismo di tipo deduttivo. Per tale motivo le teorie di Chomsky non possono uscire fuori dal perimetro analitico-descrittivo. ChatGPT è tutt'altro, apprende la struttura di una lingua in una modalità completamente differente e si comporta come un sistema induttivo con capacità di generalizzazione (capacità assente nelle macchine deduttive come quelle con cui ha scritto gli articoli scientifici Chomsky - i classici computer). Solo che il modello neurale alla base è di difficile interpretazione, problema noto per tutte le reti neurali artificiali. Per tale motivo i modelli generativi sono modelli prescrittivi utili a costruire agenti con capacità cognitive di tipo linguistico. La sintesi di modelli generativi e modelli basati su logica formale è la strada che si è intrapresa (oltre alla multimodalità), ciò potenzierà enormemente le macchine poiché non solo saranno brave a fare i calcoli, ma anche a proporre schemi di ragionamento analogico basati sul senso comune. Dal senso comune, ahimè nemmeno noi esseri umani sfuggiamo. La verità è che Chomsky dovrebbe ammettere, ma data la caratura non può, che l'approccio composizionale al linguaggio e al significato ha avuto la sua rivincita. Wittgenstein lo aveva previsto. Altrimenti dovremmo criticare le teorie Chomskiane come un mero dipanarsi di segni linguistico-formali stampigliati su carta. Ma noi apprezziamo il suo sforzo intellettuale e questo non lo pensiamo.


Nessun commento:

Posta un commento

Scelti

I Large Reasoning Models (LRM) o Reasoning Language Models (RLM) sono più che motori statistici?

source Negli ultimi anni, il dibattito sulle capacità dei grandi modelli linguistici si è spesso concentrato su un’affermazione apparentemen...