Oltre il prompt. Dai Large Language Models all’IA agentica nella professione dell’ingegnere

 

Quando si parla oggi di intelligenza artificiale, il rischio più frequente consiste nel ridurre un campo vastissimo a una singola esperienza d’uso, quella della conversazione con un sistema linguistico tramite interfaccia web. È comprensibile che ciò accada. Milioni di persone hanno incontrato l’IA anzitutto in questa forma, ponendo domande, ottenendo risposte, chiedendo sintesi, immagini, codice, spiegazioni. Eppure, se vogliamo comprendere con lucidità la fase storica che stiamo attraversando, dobbiamo ampliare lo sguardo. Dobbiamo cioè distinguere tra il modello linguistico usato come interlocutore e l’orizzonte più ampio entro cui esso oggi si colloca, quello dei sistemi agentici, dei workflow cognitivi automatizzati, della delega parziale di compiti complessi e della progressiva integrazione tra linguaggio, strumenti, memoria, pianificazione e azione.

Per entrare correttamente nel tema, conviene partire da alcune definizioni storiche dell’intelligenza artificiale. Marvin Minsky, in una formulazione divenuta celebre, indicava l’IA come la scienza che si occupa di far fare alle macchine cose che richiederebbero intelligenza se fossero eseguite dagli esseri umani. In questa prospettiva, l’accento cade sul comportamento osservabile e sull’analogia con la prestazione umana. Un’altra linea, resa particolarmente influente da Russell e Norvig, definisce invece l’IA come lo studio di agenti che ricevono percezioni dall’ambiente e agiscono. Tale impostazione modifica sensibilmente il baricentro teorico della disciplina. L’attenzione non si concentra più esclusivamente sull’imitazione di una facoltà umana astrattamente intesa, bensì su un soggetto artificiale che è immerso in un contesto, riceve segnali, elabora informazioni e produce effetti nel mondo. Anche John McCarthy, che del termine «intelligenza artificiale» fu tra i principali artefici, insisteva sull’idea di costruire macchine intelligenti, mentre Nils Nilsson sottolineava la capacità di un’entità di operare in modo appropriato e previdente nel proprio ambiente. In tutte queste definizioni si scorge già una tensione feconda che oggi riemerge con forza. Da una parte vi è la macchina che simula o emula prestazioni intelligenti, dall’altra vi è l’agente che percepisce, valuta e agisce entro una situazione operativa.

Su questo sfondo, la distinzione tra IA classica e IA moderna conserva piena utilità. La prima è legata ai sistemi formali, alle rappresentazioni simboliche esplicite, alla logica, ai sistemi esperti, alle regole formulate a priori. In essa il comportamento intelligente dipende da un insieme di istruzioni strutturate e da procedure inferenziali di tipo deduttivo. La seconda, che si afferma soprattutto con il machine learning e con le reti neurali artificiali, si fonda sull’apprendimento da dati e sulla capacità di estrarre regolarità da grandi moli di esempi. Ciò significa che la macchina non opera soltanto applicando regole fissate esternamente, ma modifica i propri parametri interni in funzione dell’esperienza statistica accumulata. Una differenza di questo tipo non è marginale, poiché riguarda il modo stesso in cui la macchina costruisce il proprio rapporto con il mondo.

Se vogliamo esprimere la questione con un’immagine molto semplice, la logica classica procede secondo inferenze del tipo «Socrate è un uomo», «tutti gli uomini sono mortali», dunque «Socrate è mortale». Qui il ragionamento si muove dal generale al particolare, secondo un tracciato formalmente definito. L’apprendimento automatico lavora invece, in misura significativa, attraverso generalizzazioni tratte da osservazioni particolari. Si vedono molti esempi, si individuano regolarità, si ricavano pattern, si formulano previsioni probabilistiche. La macchina non «sa» nel senso tradizionale del termine che una certa regola universale debba valere sempre e comunque. Essa apprende distribuzioni, correlazioni, configurazioni ricorrenti. Per questa ragione l’IA moderna è intimamente connessa a un’idea di intelligenza come adattamento, approssimazione, stima, aggiornamento continuo.

Uno dei punti di svolta storici di questa traiettoria risale al 1957, quando Frank Rosenblatt sviluppò il perceptron. Quel modello, pur estremamente semplice rispetto agli standard odierni, segnava un passaggio decisivo. Per la prima volta prendeva forma un meccanismo capace di autoregolare i propri pesi durante l’addestramento e di apprendere una funzione di classificazione elementare. Si trattava di un momento di grande importanza, perché l’idea di una macchina che modifica il proprio comportamento sulla base dei dati interrompeva il monopolio dei sistemi puramente simbolici e apriva un percorso nuovo. È interessante osservare che fin da allora l’immaginario pubblico si mostrò incline a proiettare sulle macchine aspettative vastissime, persino eccessive. Già nell’epoca del perceptron emergeva dunque quell’intreccio tra scoperta scientifica, entusiasmo tecnologico e anticipazione visionaria che accompagna ancora oggi ogni fase di accelerazione dell’IA.

Il secondo grande passaggio, ben più vicino a noi, è il 2017, anno della pubblicazione del lavoro sui transformer. Da quel momento il panorama cambia profondamente. Non cambia soltanto la qualità delle prestazioni, cambia il rapporto tra linguaggio e calcolo. Il meccanismo di attenzione consente infatti di trattare le sequenze in modo nuovo, valorizzando le dipendenze contestuali tra gli elementi e rendendo possibile una modellazione del linguaggio di scala molto più ampia ed efficace. Da qui nasce la stagione che ha condotto ai grandi modelli linguistici contemporanei. Quando oggi parliamo di una «rivoluzione cognitiva» in ambito tecnologico, ci riferiamo precisamente a questo. Le macchine diventano capaci di operare sul linguaggio naturale con una competenza statistica, semantica e contestuale che fino a pochi anni fa appariva largamente fuori portata.

Per comprendere la portata di questo mutamento, bisogna soffermarsi sul problema della rappresentazione. Una parola, una frase, un concetto, un’immagine, in un sistema di apprendimento moderno, non vengono trattati come semplici etichette discrete. Essi vengono proiettati in spazi numerici densi entro i quali la vicinanza non ha un significato puramente geometrico, bensì relazionale e semantico. Quando diciamo che termini affini tendono a collocarsi in regioni vicine dello spazio di rappresentazione, stiamo affermando che la macchina ha appreso, in forma distribuita, una struttura di relazioni significative. Questo aspetto possiede una rilevanza teorica notevole, poiché avvicina l’IA contemporanea a questioni proprie delle scienze cognitive, della linguistica e della filosofia della mente. Il linguaggio non appare più come una mera sequenza di simboli da manipolare, bensì come una rete di connessioni apprese che rende possibile una forma sofisticata di trattamento del significato.

Ciò non implica, tuttavia, che l’IA classica venga archiviata come un relitto del passato. Al contrario, una delle tendenze più interessanti dell’attuale sviluppo è la sua integrazione entro architetture più ampie. Oggi osserviamo con crescente interesse l’incontro tra livelli sub-simbolici e strutture simboliche, tra capacità associative e meccanismi logici, tra generazione e controllo, tra pattern emergenti e vincoli formali. La cosiddetta IA neuro-simbolica si muove esattamente in questa direzione. Essa mostra che la storia dell’intelligenza artificiale non procede per cancellazioni nette, bensì per incorporazioni successive, per ricombinazioni, per stratificazioni architetturali di ordine superiore. È un punto essenziale anche per il mondo dell’ingegneria, che raramente lavora su sistemi puri e isolati, mentre si misura quasi sempre con integrazioni, interfacce, livelli, vincoli e compromessi.

È su questo terreno che la svolta agentica acquista il suo significato pieno. Un sistema linguistico usato come interfaccia conversazionale risponde a una richiesta. Elabora un prompt, restituisce un output, attende il turno successivo. Anche quando produce testi di grande qualità o suggerimenti notevoli, il suo ruolo resta, in senso stretto, quello di un assistente reattivo. Un sistema agentico, invece, può ricevere un obiettivo operativo, scomporlo in passi, pianificare una sequenza di azioni, utilizzare strumenti, interrogare fonti, mantenere uno stato interno del problema, confrontare risultati intermedi, correggere il proprio percorso, produrre un artefatto verificabile e, se necessario, richiedere una validazione umana prima di procedere oltre. Qui l’output non coincide più semplicemente con una risposta testuale. Può diventare ricerca documentale, esecuzione di codice, produzione di report, compilazione di checklist, analisi di evidenze, costruzione di un flusso di lavoro.

È precisamente in questo passaggio che si colloca il cuore della trasformazione contemporanea. Geoffrey Hinton, nel suo discorso per il Nobel del 2024, ha evocato l’idea di assistenti altamente intelligenti e competenti in grado di aumentare la produttività in quasi tutti i settori. Il punto, però, merita di essere formulato con la dovuta precisione. L’incremento di produttività non dipende soltanto dalla capacità di generare testo o rispondere bene a una domanda. Dipende dalla possibilità di inserire il modello entro una catena operativa strutturata. Finché l’IA rimane confinata alla conversazione, il valore principale è quello dell’assistenza cognitiva immediata. Quando entra nel dominio agentico, il valore si sposta verso la delega controllata di sotto-attività, verso l’orchestrazione di processi, verso la riduzione del tempo speso in operazioni ripetitive o ad alta frizione cognitiva.

Per questa ragione, distinguere tra LLM usato via interfaccia web e IA agentica è oggi fondamentale. Nel primo caso, l’interazione resta centrata sulla richiesta dell’utente, la sessione è tendenzialmente breve e il comportamento del sistema si mantiene prevalentemente reattivo. Nel secondo caso, il compito viene trasformato in un obiettivo operativo esplicito, scomposto in passi e gestito lungo un ciclo più esteso di pianificazione, esecuzione e revisione. Nel primo caso, l’output consiste soprattutto in testo, codice o contenuti mediali. Nel secondo, esso tende a tradursi nel completamento di un workflow o nella produzione di un esito verificabile. Nel primo caso, l’uso di strumenti può essere assente o implicito. Nel secondo, l’accesso a file, web, API, simulatori, basi documentali e ambienti aziendali diventa parte integrante del comportamento del sistema. Va però aggiunto, con onestà intellettuale, che le migliori interfacce web di oggi incorporano già funzioni agentiche. Ci troviamo infatti in una fase di transizione, nella quale il confine tra semplice chat avanzata e architettura agentica comincia progressivamente a sfumare.

Se volessimo descrivere l’anatomia minima di un sistema agentico, dovremmo menzionare almeno cinque elementi. In primo luogo il contesto, cioè l’insieme di input, vincoli, dati e obiettivi. In secondo luogo il piano, vale a dire la scomposizione del compito e la definizione delle priorità. In terzo luogo la memoria, intesa come stato di lavoro, storico, preferenze, risultati intermedi. In quarto luogo gli strumenti, ossia tutto ciò che consente al sistema di agire oltre la mera generazione linguistica, dalla ricerca documentale all’esecuzione di codice, dall’accesso a file all’interrogazione di API. Infine la verifica, che comprende controllo, confronto, revisione e, quando necessario, escalation verso l’operatore umano. Quando questi componenti sono realmente presenti e ben coordinati, il modello smette di essere un semplice interlocutore e diventa parte operativa di un processo.

Le ricadute sull’ingegneria sono già oggi rilevanti. Nella progettazione e nella documentazione tecnica, sistemi di questo tipo possono supportare la redazione di capitolati, specifiche, verbali, analisi dei requisiti, sintesi normative, versioning delle decisioni. Nell’analisi dei dati, nel codice e nella simulazione, possono contribuire alla costruzione di workflow di data analysis, alla prototipazione software, alla generazione di test, all’automazione di script, alla produzione di casi d’uso e all’interrogazione di modelli. Nel dominio dell’energia, degli impianti e della manutenzione, possono assistere il monitoraggio, la diagnostica, la rilevazione di anomalie, il recupero di conoscenza distribuita in manuali e documentazione tecnica, il supporto a digital twin e sistemi di asset management. Sul versante del coordinamento e della compliance, possono agevolare il confronto tra fonti, la preparazione di checklist, il recupero documentale, la tracciabilità delle decisioni. In tutti questi scenari, il valore professionale tende a spostarsi verso la formulazione corretta del problema, la qualità delle evidenze, la valutazione del rischio e la responsabilità dell’ultima decisione. Si profila dunque un mutamento significativo del lavoro ingegneristico, che viene sempre meno definito dalla mera esecuzione di compiti standardizzati e sempre più dalla capacità di impostare, presidiare, verificare e governare processi complessi.

Naturalmente, a questa crescita di potenza corrispondono fragilità che non possono essere sottovalutate. Le allucinazioni, le inferenze infondate e l’eccesso di sicurezza restano fattori di rischio reali. Lo stesso vale per l’uso improprio di dati sensibili, per l’esposizione di segreti industriali, per la perdita di controllo sulle azioni eseguite, per gli attacchi di prompt injection, per la contaminazione delle fonti, per la dipendenza cognitiva che può progressivamente erodere la competenza di supervisione dell’operatore umano. Per questa ragione, prestazioni elevate non equivalgono automaticamente ad affidabilità operativa. L’adozione professionale richiede metodi, limiti, ruoli e responsabilità chiaramente definiti. Occorre prevedere human in the loop per decisioni rilevanti, separare i livelli di esplorazione, esecuzione e approvazione, mantenere audit trail, logging e versionamento delle fonti, valutare la qualità dei sistemi su compiti reali e in scenari avversari, definire policy robuste su dati, ruoli e confini d’uso. In altre parole, il tema dell’IA agentica non riguarda soltanto l’automazione. Riguarda la progettazione di condizioni di affidabilità.

Guardando oltre il presente immediato, una delle direzioni di ricerca più interessanti è quella dei world models. Oggi la piattaforma industriale dominante è costituita dall’integrazione tra LLM, strumenti, memoria e pianificazione. Essa consente una forma avanzata di automazione cognitiva entro ambienti digitali e, in misura crescente, entro sistemi connessi al mondo fisico. Il passo successivo riguarda modelli capaci di rappresentare in modo più profondo stati del mondo, dinamiche, conseguenze delle azioni e scenari alternativi. Yann LeCun ha insistito molto su questa prospettiva, osservando che un agente dotato di world model può immaginare corsi di azione e prevederne gli effetti. L’idea è di grande rilievo. Significa passare da sistemi eccellenti nel trattamento del linguaggio e nella manipolazione di strumenti a sistemi più forti nella simulazione delle conseguenze, nella pianificazione robusta, nell’interazione con ambienti complessi, nella costruzione di veri e propri «gemelli cognitivi» di processi fisici e organizzativi. È però importante comprendere che la traiettoria tecnologica è cumulativa. I world models non renderanno improvvisamente irrilevante la fase LLM-agentica. Ne costituiranno piuttosto un’estensione, una maturazione, un approfondimento.

Per la professione ingegneristica, tutto questo implica almeno tre esigenze. La prima riguarda l’alfabetizzazione agentica. Non basta sapere usare una chat avanzata. Occorre comprendere la differenza tra sistema conversazionale, tool use, automazione documentale, agenti e sistemi multi-agente. La seconda riguarda il ripensamento dei processi. Bisogna individuare con lucidità le attività ripetitive, quelle ad alta frizione, quelle documentali, quelle di raccordo tra competenze e strumenti, progettando accuratamente punti di verifica, soglie di escalation e metriche di valore. La terza riguarda la governance. Qualità delle fonti, responsabilità, confini d’uso, criteri di affidabilità, diritto di approvazione finale e tracciabilità dell’intero percorso decisionale diventeranno elementi sempre più rilevanti. Come ricorda il rapporto internazionale sulla sicurezza dell’IA del 2025, il futuro di queste tecnologie dipende dalle scelte compiute dagli esseri umani. Tale osservazione ha una portata assai concreta. L’IA non si impone come un destino cieco. Assume la forma che gli attori sociali, professionali, istituzionali e industriali le conferiscono.

Esiste poi un aspetto ulteriore, che merita di essere almeno evocato davanti a una platea di ingegneri. L’IA moderna si sta dimostrando particolarmente adatta alla modellazione di sistemi complessi, anche quando questi esibiscono dinamiche difficili da catturare con formalismi lineari o rigidamente deterministici. In un sistema complesso, infatti, contano gli elementi, ma contano in misura decisiva anche le relazioni tra gli elementi, i loop di retroazione, le interazioni tra livelli di astrazione differenti, le proprietà emergenti che si rendono manifeste su scala macroscopica pur risultando difficilmente prevedibili a partire dall’analisi isolata delle singole componenti. Questa sensibilità verso la struttura relazionale e verso le configurazioni emergenti rende l’IA contemporanea particolarmente promettente in molti contesti ingegneristici, dai sistemi energetici ai processi industriali, dalle reti ai sistemi adattivi ad alta interdipendenza.

Un ulteriore orizzonte, ancora più prospettico, riguarda il possibile incontro tra IA e quantum computing. Sul breve termine, gli impatti più realistici riguardano l’uso dell’IA per il quantum computing stesso, ad esempio per calibrazione, controllo e mitigazione degli errori. Sul medio termine si possono immaginare applicazioni nell’ottimizzazione quantistica, nel trattamento di quantum data e in segmenti specialistici di scientific machine learning. Sul lungo termine, qualora la fault tolerance mantenesse le promesse oggi discusse, gli effetti potrebbero toccare campi più profondi, come l’algebra lineare ad alta complessità, il sampling e, in modo indiretto ma potenzialmente molto significativo, l’apprendimento automatico su larga scala. Se colleghiamo questo scenario ai sistemi agentici, comprendiamo bene la posta in gioco. Ridurre drasticamente il costo computazionale di sotto-task numerosi e coordinati significherebbe accrescere in modo impressionante la capacità di esecuzione, simulazione e pianificazione di agenti artificiali distribuiti.

Giunti a questo punto, appare utile distinguere tra tecnica e tecnologia. La tecnologia è ciò che normalmente percepiamo come insieme di strumenti, dispositivi, piattaforme, macchine, interfacce, oggetti prodotti dall’attività umana. La tecnica, invece, è qualcosa di più profondo. È un atteggiamento progettuale, una forma dell’agire, una struttura della volontà orientata a realizzare scopi, a intervenire sul mondo, a trasformare condizioni date in condizioni nuove. La tecnologia rende visibile la tecnica, ma non la esaurisce. Questa distinzione possiede una notevole importanza culturale, perché impedisce di trattare l’IA come un semplice assortimento di prodotti. Essa ci ricorda che stiamo assistendo all’espressione di una più ampia tendenza storica dell’umano, quella che cerca incessantemente di superare limiti, vincoli, attriti, tempi morti, soglie di complessità.

Da questa prospettiva, il limite appare come uno dei motori storici fondamentali dell’innovazione. L’uomo inventa perché incontra ostacoli, progetta perché avverte insufficienze, estende i propri mezzi perché il mondo resiste. L’IA si inscrive pienamente in questo movimento di oltrepassamento. Essa promette di ampliare capacità cognitive, velocità di analisi, possibilità di simulazione, continuità operativa, gestione di complessità documentali e decisionali. In questo senso, la questione non riguarda soltanto che cosa la macchina sappia fare. Riguarda quale immagine dell’uomo e del lavoro emerga nel momento in cui alcuni processi cognitivi, almeno in parte, diventano delegabili. Le osservazioni di Heidegger sull’essenza della tecnica e quelle di Jaspers sulla reazione del procedimento tecnico sull’uomo acquistano qui una nuova attualità. Dopo aver agito tecnicamente sulla natura, l’uomo si trova a subire la reazione della propria tecnica sulla propria essenza storica, professionale e culturale. Ogni trasformazione degli strumenti ridisegna, almeno in parte, il profilo di chi li usa.

È per questo che il tema dell’IA agentica interessa in modo diretto la professione dell’ingegnere. Non si tratta soltanto di adottare una nuova famiglia di strumenti. Si tratta di comprendere un mutamento più ampio nel rapporto tra conoscenza, progetto, azione e responsabilità. La moderna IA agentica segna il passaggio da macchine che rispondono a macchine che possono partecipare a processi finalizzati. Essa rende possibile una nuova economia della cognizione tecnica, nella quale tempo, attenzione, documentazione, verifica, simulazione e coordinamento vengono redistribuiti in modo inedito. In tale scenario, l’ingegnere non perde centralità. La centralità, semmai, cambia forma. Diventa sempre più capacità di impostare il problema giusto, di definire i vincoli pertinenti, di governare strumenti potenti senza abdicarvi, di valutare il rischio, di riconoscere il limite, di rispondere della decisione finale. In una parola, diventa capacità di stare all’altezza di una tecnica che, mentre amplia le possibilità dell’agire umano, chiede all’uomo una consapevolezza ancora più alta del proprio compito.

 

Post popolari in questo blog

Noosemia: «effetto wow» e l’attribuzione di una mente alle intelligenze artificiali generative

La radionostalgia. Mi racconto attraverso la radio

La fine della conoscenza come noi la conosciamo

Gli LLM sono solo dei motori statistici ?