Post

Noosemia. A che punto siamo?

Immagine
Questo articolo è una rielaborazione divulgativa del lavoro accademico Noosemia: Toward a Cognitive and Phenomenological Account of Intentionality Attribution in Human–Generative AI Interaction , disponibile su arXiv all’indirizzo https://arxiv.org/abs/2508.02622   L’essenza dell’arte è la Poesia. Ma l’essenza della Poesia è la instaurazione della verità. Instaurare qui è inteso in un triplice significato: come donare, come fondare, come iniziare. Ma l’instaurazione è reale solo nel salvaguardare. Pertanto, ad ogni modalità dell’instaurare corrisponde una modalità del salvaguardare. – Martin Heidegger , Sentieri interrotti (Holzwege), trad. it. di Pietro Chiodi, Milano, Adelphi, 1987, «L’origine dell’opera d’arte».   La noosemia come struttura interpretativa dell’interazione uomo–intelligenza artificiale La noosemia nasce dall’esigenza di nominare un fenomeno che, pur essendo ormai quotidiano, sfugge alle categorie descrittive più consolidate, soprattutto riguardo le...

Large Language Models, generalizzazione e interpretazione. Il ruolo del linguaggio nell'hype dell'IA e nella genesi della noosemia

Immagine
  Il recente avanzamento dell’intelligenza artificiale, e in particolare dei modelli basati su architetture Transformer, può essere compreso adeguatamente solo se si riconosce il ruolo metodologico che il linguaggio ha svolto come banco di prova privilegiato. Non nel senso ingenuo secondo cui il mondo coinciderebbe con il linguaggio – sappiamo bene che ne è un «limite» come Ludwig Wittgenstein (1889-1951) asserisce nel Tractatus Logico-Philosophicus –, ipotesi che rimane filosoficamente e scientificamente insostenibile, bensì nel senso più sottile per cui il linguaggio scritto rappresenta una sedimentazione storica di esperienza, concetti, norme, descrizioni e modelli impliciti del mondo. Il linguaggio scritto nella sua forma generale è una traccia . Inoltre, il testo umano costituisce una forma di compressione culturale ad altissima densità, frutto di secoli di elaborazione collettiva, e proprio per questo offre un terreno sperimentale senza precedenti per sistemi di apprendimento...

Quando lo scopo è chiaro c'è ancora «plausibilità linguistica» nei Large Language Models?

Immagine
  Negli ultimi anni i Large Language Models (LLM) hanno raggiunto un livello di modellamento del linguaggio naturale che copre in modo convincente sia i sistemi alfabetici sia quelli ideografici, nonché capacità generative in ambito iconico e acustico. A ciò si affianca una capacità ormai consolidata di produrre codice di programmazione in numerosi linguaggi – i quali sono da riconoscersi come istanze di linguaggi formali – spesso all’interno di un unico modello fondazionale multilingue o addirittura multimodale. Questo dato empirico solleva una questione teorica non banale, soprattutto se osservato alla luce della tradizione linguistica e filosofica che ha messo in evidenza la complessità strutturale del linguaggio naturale rispetto ai linguaggi formali. A partire dagli studi fondativi di Noam Chomsky (1934) sulla struttura sintattica, e lungo una traiettoria distinta che conduce ad un approccio distribuzionale al significato, il linguaggio naturale viene descritto come un siste...

Le origini analogiche delle reti neurali artificiali – Una ricostruzione storica tra elettrotecnica, biologia e computazione

Immagine
Il circuito del Perceptron – Fonte: https://www.nutsvolts.com/magazine/article/the_perceptron_circuit Nel dibattito contemporaneo sull’intelligenza artificiale, dominato dal successo dei modelli neurali profondi e generativi, tende talvolta a perdersi la memoria storica delle condizioni tecniche, concettuali e disciplinari entro cui le reti neurali artificiali sono nate. Una ricostruzione storicamente attenta mostra che le prime formulazioni teoriche e, soprattutto, le prime realizzazioni pratiche di reti neurali artificiali si collocano pienamente nell’alveo dell’elettrotecnica, dell’elettronica analogica e del calcolo fisico, ben prima che l’informatica digitale ne assumesse la formalizzazione dominante. Se non altro perché le astrazioni del calcolo digitale sono necessariamente successive ai primi esperimenti condotti con macchine di calcolo elettromeccaniche e valvolari apparse nel periodo della Seconda guerra mondiale. È inoltre necessario ricordare che, tra gli anni Quaranta e ...