Oltre il prompt. Dai Large Language Models all’IA agentica nella professione dell’ingegnere
Quando si parla oggi di intelligenza artificiale, il rischio più frequente consiste nel ridurre un campo vastissimo a una singola esperienza d’uso, quella della conversazione con un sistema linguistico tramite interfaccia web. È comprensibile che ciò accada. Milioni di persone hanno incontrato l’IA anzitutto in questa forma, ponendo domande, ottenendo risposte, chiedendo sintesi, immagini, codice, spiegazioni. Eppure, se vogliamo comprendere con lucidità la fase storica che stiamo attraversando, dobbiamo ampliare lo sguardo. Dobbiamo cioè distinguere tra il modello linguistico usato come interlocutore e l’orizzonte più ampio entro cui esso oggi si colloca, quello dei sistemi agentici, dei workflow cognitivi automatizzati, della delega parziale di compiti complessi e della progressiva integrazione tra linguaggio, strumenti, memoria, pianificazione e azione.
Per entrare correttamente nel tema, conviene partire da
alcune definizioni storiche dell’intelligenza artificiale. Marvin Minsky, in
una formulazione divenuta celebre, indicava l’IA come la scienza che si occupa
di far fare alle macchine cose che richiederebbero intelligenza se fossero
eseguite dagli esseri umani. In questa prospettiva, l’accento cade sul
comportamento osservabile e sull’analogia con la prestazione umana. Un’altra
linea, resa particolarmente influente da Russell e Norvig, definisce invece l’IA
come lo studio di agenti che ricevono percezioni dall’ambiente e agiscono. Tale
impostazione modifica sensibilmente il baricentro teorico della disciplina.
L’attenzione non si concentra più esclusivamente sull’imitazione di una facoltà
umana astrattamente intesa, bensì su un soggetto artificiale che è immerso in
un contesto, riceve segnali, elabora informazioni e produce effetti nel mondo.
Anche John McCarthy, che del termine «intelligenza artificiale» fu tra i
principali artefici, insisteva sull’idea di costruire macchine intelligenti,
mentre Nils Nilsson sottolineava la capacità di un’entità di operare in modo
appropriato e previdente nel proprio ambiente. In tutte queste definizioni si
scorge già una tensione feconda che oggi riemerge con forza. Da una parte vi è
la macchina che simula o emula prestazioni intelligenti, dall’altra vi è
l’agente che percepisce, valuta e agisce entro una situazione operativa.
Su questo sfondo, la distinzione tra IA classica e IA
moderna conserva piena utilità. La prima è legata ai sistemi formali, alle
rappresentazioni simboliche esplicite, alla logica, ai sistemi esperti, alle
regole formulate a priori. In essa il comportamento intelligente dipende da un
insieme di istruzioni strutturate e da procedure inferenziali di tipo
deduttivo. La seconda, che si afferma soprattutto con il machine learning e con
le reti neurali artificiali, si fonda sull’apprendimento da dati e sulla capacità
di estrarre regolarità da grandi moli di esempi. Ciò significa che la macchina
non opera soltanto applicando regole fissate esternamente, ma modifica i propri
parametri interni in funzione dell’esperienza statistica accumulata. Una
differenza di questo tipo non è marginale, poiché riguarda il modo stesso in
cui la macchina costruisce il proprio rapporto con il mondo.
Se vogliamo esprimere la questione con un’immagine molto
semplice, la logica classica procede secondo inferenze del tipo «Socrate è un
uomo», «tutti gli uomini sono mortali», dunque «Socrate è mortale». Qui il
ragionamento si muove dal generale al particolare, secondo un tracciato
formalmente definito. L’apprendimento automatico lavora invece, in misura
significativa, attraverso generalizzazioni tratte da osservazioni particolari.
Si vedono molti esempi, si individuano regolarità, si ricavano pattern, si formulano
previsioni probabilistiche. La macchina non «sa» nel senso tradizionale del
termine che una certa regola universale debba valere sempre e comunque. Essa
apprende distribuzioni, correlazioni, configurazioni ricorrenti. Per questa
ragione l’IA moderna è intimamente connessa a un’idea di intelligenza come
adattamento, approssimazione, stima, aggiornamento continuo.
Uno dei punti di svolta storici di questa traiettoria risale
al 1957, quando Frank Rosenblatt sviluppò il perceptron. Quel modello, pur
estremamente semplice rispetto agli standard odierni, segnava un passaggio
decisivo. Per la prima volta prendeva forma un meccanismo capace di
autoregolare i propri pesi durante l’addestramento e di apprendere una funzione
di classificazione elementare. Si trattava di un momento di grande importanza,
perché l’idea di una macchina che modifica il proprio comportamento sulla base
dei dati interrompeva il monopolio dei sistemi puramente simbolici e apriva un
percorso nuovo. È interessante osservare che fin da allora l’immaginario
pubblico si mostrò incline a proiettare sulle macchine aspettative vastissime,
persino eccessive. Già nell’epoca del perceptron emergeva dunque
quell’intreccio tra scoperta scientifica, entusiasmo tecnologico e
anticipazione visionaria che accompagna ancora oggi ogni fase di accelerazione
dell’IA.
Il secondo grande passaggio, ben più vicino a noi, è il
2017, anno della pubblicazione del lavoro sui transformer. Da quel momento il
panorama cambia profondamente. Non cambia soltanto la qualità delle
prestazioni, cambia il rapporto tra linguaggio e calcolo. Il meccanismo di
attenzione consente infatti di trattare le sequenze in modo nuovo, valorizzando
le dipendenze contestuali tra gli elementi e rendendo possibile una
modellazione del linguaggio di scala molto più ampia ed efficace. Da qui nasce
la stagione che ha condotto ai grandi modelli linguistici contemporanei. Quando
oggi parliamo di una «rivoluzione cognitiva» in ambito tecnologico, ci
riferiamo precisamente a questo. Le macchine diventano capaci di operare sul
linguaggio naturale con una competenza statistica, semantica e contestuale che
fino a pochi anni fa appariva largamente fuori portata.
Per comprendere la portata di questo mutamento, bisogna
soffermarsi sul problema della rappresentazione. Una parola, una frase, un
concetto, un’immagine, in un sistema di apprendimento moderno, non vengono
trattati come semplici etichette discrete. Essi vengono proiettati in spazi
numerici densi entro i quali la vicinanza non ha un significato puramente
geometrico, bensì relazionale e semantico. Quando diciamo che termini affini
tendono a collocarsi in regioni vicine dello spazio di rappresentazione, stiamo
affermando che la macchina ha appreso, in forma distribuita, una struttura di
relazioni significative. Questo aspetto possiede una rilevanza teorica
notevole, poiché avvicina l’IA contemporanea a questioni proprie delle scienze
cognitive, della linguistica e della filosofia della mente. Il linguaggio non
appare più come una mera sequenza di simboli da manipolare, bensì come una rete
di connessioni apprese che rende possibile una forma sofisticata di trattamento
del significato.
Ciò non implica, tuttavia, che l’IA classica venga
archiviata come un relitto del passato. Al contrario, una delle tendenze più
interessanti dell’attuale sviluppo è la sua integrazione entro architetture più
ampie. Oggi osserviamo con crescente interesse l’incontro tra livelli
sub-simbolici e strutture simboliche, tra capacità associative e meccanismi
logici, tra generazione e controllo, tra pattern emergenti e vincoli formali.
La cosiddetta IA neuro-simbolica si muove esattamente in questa direzione. Essa
mostra che la storia dell’intelligenza artificiale non procede per
cancellazioni nette, bensì per incorporazioni successive, per ricombinazioni,
per stratificazioni architetturali di ordine superiore. È un punto essenziale
anche per il mondo dell’ingegneria, che raramente lavora su sistemi puri e
isolati, mentre si misura quasi sempre con integrazioni, interfacce, livelli,
vincoli e compromessi.
È su questo terreno che la svolta agentica acquista il suo
significato pieno. Un sistema linguistico usato come interfaccia
conversazionale risponde a una richiesta. Elabora un prompt, restituisce un
output, attende il turno successivo. Anche quando produce testi di grande
qualità o suggerimenti notevoli, il suo ruolo resta, in senso stretto, quello
di un assistente reattivo. Un sistema agentico, invece, può ricevere un
obiettivo operativo, scomporlo in passi, pianificare una sequenza di azioni,
utilizzare strumenti, interrogare fonti, mantenere uno stato interno del
problema, confrontare risultati intermedi, correggere il proprio percorso,
produrre un artefatto verificabile e, se necessario, richiedere una validazione
umana prima di procedere oltre. Qui l’output non coincide più semplicemente con
una risposta testuale. Può diventare ricerca documentale, esecuzione di codice,
produzione di report, compilazione di checklist, analisi di evidenze,
costruzione di un flusso di lavoro.
È precisamente in questo passaggio che si colloca il cuore
della trasformazione contemporanea. Geoffrey Hinton, nel suo discorso per il
Nobel del 2024, ha evocato l’idea di assistenti altamente intelligenti e
competenti in grado di aumentare la produttività in quasi tutti i settori. Il
punto, però, merita di essere formulato con la dovuta precisione. L’incremento
di produttività non dipende soltanto dalla capacità di generare testo o
rispondere bene a una domanda. Dipende dalla possibilità di inserire il modello
entro una catena operativa strutturata. Finché l’IA rimane confinata alla
conversazione, il valore principale è quello dell’assistenza cognitiva
immediata. Quando entra nel dominio agentico, il valore si sposta verso la
delega controllata di sotto-attività, verso l’orchestrazione di processi, verso
la riduzione del tempo speso in operazioni ripetitive o ad alta frizione
cognitiva.
Per questa ragione, distinguere tra LLM usato via
interfaccia web e IA agentica è oggi fondamentale. Nel primo caso,
l’interazione resta centrata sulla richiesta dell’utente, la sessione è
tendenzialmente breve e il comportamento del sistema si mantiene prevalentemente
reattivo. Nel secondo caso, il compito viene trasformato in un obiettivo
operativo esplicito, scomposto in passi e gestito lungo un ciclo più esteso di
pianificazione, esecuzione e revisione. Nel primo caso, l’output consiste
soprattutto in testo, codice o contenuti mediali. Nel secondo, esso tende a
tradursi nel completamento di un workflow o nella produzione di un esito
verificabile. Nel primo caso, l’uso di strumenti può essere assente o
implicito. Nel secondo, l’accesso a file, web, API, simulatori, basi
documentali e ambienti aziendali diventa parte integrante del comportamento del
sistema. Va però aggiunto, con onestà intellettuale, che le migliori interfacce
web di oggi incorporano già funzioni agentiche. Ci troviamo infatti in una fase
di transizione, nella quale il confine tra semplice chat avanzata e
architettura agentica comincia progressivamente a sfumare.
Se volessimo descrivere l’anatomia minima di un sistema
agentico, dovremmo menzionare almeno cinque elementi. In primo luogo il
contesto, cioè l’insieme di input, vincoli, dati e obiettivi. In secondo luogo
il piano, vale a dire la scomposizione del compito e la definizione delle
priorità. In terzo luogo la memoria, intesa come stato di lavoro, storico,
preferenze, risultati intermedi. In quarto luogo gli strumenti, ossia tutto ciò
che consente al sistema di agire oltre la mera generazione linguistica, dalla
ricerca documentale all’esecuzione di codice, dall’accesso a file
all’interrogazione di API. Infine la verifica, che comprende controllo,
confronto, revisione e, quando necessario, escalation verso l’operatore umano.
Quando questi componenti sono realmente presenti e ben coordinati, il modello
smette di essere un semplice interlocutore e diventa parte operativa di un
processo.
Le ricadute sull’ingegneria sono già oggi rilevanti. Nella
progettazione e nella documentazione tecnica, sistemi di questo tipo possono
supportare la redazione di capitolati, specifiche, verbali, analisi dei
requisiti, sintesi normative, versioning delle decisioni. Nell’analisi dei
dati, nel codice e nella simulazione, possono contribuire alla costruzione di
workflow di data analysis, alla prototipazione software, alla generazione di
test, all’automazione di script, alla produzione di casi d’uso e all’interrogazione
di modelli. Nel dominio dell’energia, degli impianti e della manutenzione,
possono assistere il monitoraggio, la diagnostica, la rilevazione di anomalie,
il recupero di conoscenza distribuita in manuali e documentazione tecnica, il
supporto a digital twin e sistemi di asset management. Sul versante del
coordinamento e della compliance, possono agevolare il confronto tra fonti, la
preparazione di checklist, il recupero documentale, la tracciabilità delle
decisioni. In tutti questi scenari, il valore professionale tende a spostarsi
verso la formulazione corretta del problema, la qualità delle evidenze, la
valutazione del rischio e la responsabilità dell’ultima decisione. Si profila
dunque un mutamento significativo del lavoro ingegneristico, che viene sempre
meno definito dalla mera esecuzione di compiti standardizzati e sempre più
dalla capacità di impostare, presidiare, verificare e governare processi
complessi.
Naturalmente, a questa crescita di potenza corrispondono
fragilità che non possono essere sottovalutate. Le allucinazioni, le inferenze
infondate e l’eccesso di sicurezza restano fattori di rischio reali. Lo stesso
vale per l’uso improprio di dati sensibili, per l’esposizione di segreti
industriali, per la perdita di controllo sulle azioni eseguite, per gli
attacchi di prompt injection, per la contaminazione delle fonti, per la
dipendenza cognitiva che può progressivamente erodere la competenza di supervisione
dell’operatore umano. Per questa ragione, prestazioni elevate non equivalgono
automaticamente ad affidabilità operativa. L’adozione professionale richiede
metodi, limiti, ruoli e responsabilità chiaramente definiti. Occorre prevedere
human in the loop per decisioni rilevanti, separare i livelli di esplorazione,
esecuzione e approvazione, mantenere audit trail, logging e versionamento delle
fonti, valutare la qualità dei sistemi su compiti reali e in scenari avversari,
definire policy robuste su dati, ruoli e confini d’uso. In altre parole, il
tema dell’IA agentica non riguarda soltanto l’automazione. Riguarda la
progettazione di condizioni di affidabilità.
Guardando oltre il presente immediato, una delle direzioni
di ricerca più interessanti è quella dei world models. Oggi la piattaforma
industriale dominante è costituita dall’integrazione tra LLM, strumenti,
memoria e pianificazione. Essa consente una forma avanzata di automazione
cognitiva entro ambienti digitali e, in misura crescente, entro sistemi
connessi al mondo fisico. Il passo successivo riguarda modelli capaci di
rappresentare in modo più profondo stati del mondo, dinamiche, conseguenze
delle azioni e scenari alternativi. Yann LeCun ha insistito molto su questa
prospettiva, osservando che un agente dotato di world model può immaginare
corsi di azione e prevederne gli effetti. L’idea è di grande rilievo. Significa
passare da sistemi eccellenti nel trattamento del linguaggio e nella
manipolazione di strumenti a sistemi più forti nella simulazione delle
conseguenze, nella pianificazione robusta, nell’interazione con ambienti
complessi, nella costruzione di veri e propri «gemelli cognitivi» di processi fisici
e organizzativi. È però importante comprendere che la traiettoria tecnologica è
cumulativa. I world models non renderanno improvvisamente irrilevante la fase
LLM-agentica. Ne costituiranno piuttosto un’estensione, una maturazione, un
approfondimento.
Per la professione ingegneristica, tutto questo implica
almeno tre esigenze. La prima riguarda l’alfabetizzazione agentica. Non basta
sapere usare una chat avanzata. Occorre comprendere la differenza tra sistema
conversazionale, tool use, automazione documentale, agenti e sistemi
multi-agente. La seconda riguarda il ripensamento dei processi. Bisogna
individuare con lucidità le attività ripetitive, quelle ad alta frizione,
quelle documentali, quelle di raccordo tra competenze e strumenti, progettando
accuratamente punti di verifica, soglie di escalation e metriche di valore. La
terza riguarda la governance. Qualità delle fonti, responsabilità, confini
d’uso, criteri di affidabilità, diritto di approvazione finale e tracciabilità
dell’intero percorso decisionale diventeranno elementi sempre più rilevanti.
Come ricorda il rapporto internazionale sulla sicurezza dell’IA del 2025, il
futuro di queste tecnologie dipende dalle scelte compiute dagli esseri umani.
Tale osservazione ha una portata assai concreta. L’IA non si impone come un
destino cieco. Assume la forma che gli attori sociali, professionali,
istituzionali e industriali le conferiscono.
Esiste poi un aspetto ulteriore, che merita di essere almeno
evocato davanti a una platea di ingegneri. L’IA moderna si sta dimostrando
particolarmente adatta alla modellazione di sistemi complessi, anche quando
questi esibiscono dinamiche difficili da catturare con formalismi lineari o
rigidamente deterministici. In un sistema complesso, infatti, contano gli
elementi, ma contano in misura decisiva anche le relazioni tra gli elementi, i
loop di retroazione, le interazioni tra livelli di astrazione differenti, le
proprietà emergenti che si rendono manifeste su scala macroscopica pur
risultando difficilmente prevedibili a partire dall’analisi isolata delle
singole componenti. Questa sensibilità verso la struttura relazionale e verso
le configurazioni emergenti rende l’IA contemporanea particolarmente
promettente in molti contesti ingegneristici, dai sistemi energetici ai
processi industriali, dalle reti ai sistemi adattivi ad alta interdipendenza.
Un ulteriore orizzonte, ancora più prospettico, riguarda il
possibile incontro tra IA e quantum computing. Sul breve termine, gli impatti
più realistici riguardano l’uso dell’IA per il quantum computing stesso, ad
esempio per calibrazione, controllo e mitigazione degli errori. Sul medio
termine si possono immaginare applicazioni nell’ottimizzazione quantistica, nel
trattamento di quantum data e in segmenti specialistici di scientific machine
learning. Sul lungo termine, qualora la fault tolerance mantenesse le promesse
oggi discusse, gli effetti potrebbero toccare campi più profondi, come
l’algebra lineare ad alta complessità, il sampling e, in modo indiretto ma
potenzialmente molto significativo, l’apprendimento automatico su larga scala.
Se colleghiamo questo scenario ai sistemi agentici, comprendiamo bene la posta
in gioco. Ridurre drasticamente il costo computazionale di sotto-task numerosi
e coordinati significherebbe accrescere in modo impressionante la capacità di
esecuzione, simulazione e pianificazione di agenti artificiali distribuiti.
Giunti a questo punto, appare utile distinguere tra tecnica
e tecnologia. La tecnologia è ciò che normalmente percepiamo come insieme di
strumenti, dispositivi, piattaforme, macchine, interfacce, oggetti prodotti
dall’attività umana. La tecnica, invece, è qualcosa di più profondo. È un
atteggiamento progettuale, una forma dell’agire, una struttura della volontà
orientata a realizzare scopi, a intervenire sul mondo, a trasformare condizioni
date in condizioni nuove. La tecnologia rende visibile la tecnica, ma non la
esaurisce. Questa distinzione possiede una notevole importanza culturale,
perché impedisce di trattare l’IA come un semplice assortimento di prodotti.
Essa ci ricorda che stiamo assistendo all’espressione di una più ampia tendenza
storica dell’umano, quella che cerca incessantemente di superare limiti,
vincoli, attriti, tempi morti, soglie di complessità.
Da questa prospettiva, il limite appare come uno dei motori
storici fondamentali dell’innovazione. L’uomo inventa perché incontra ostacoli,
progetta perché avverte insufficienze, estende i propri mezzi perché il mondo
resiste. L’IA si inscrive pienamente in questo movimento di oltrepassamento.
Essa promette di ampliare capacità cognitive, velocità di analisi, possibilità
di simulazione, continuità operativa, gestione di complessità documentali e
decisionali. In questo senso, la questione non riguarda soltanto che cosa la
macchina sappia fare. Riguarda quale immagine dell’uomo e del lavoro emerga nel
momento in cui alcuni processi cognitivi, almeno in parte, diventano
delegabili. Le osservazioni di Heidegger sull’essenza della tecnica e quelle di
Jaspers sulla reazione del procedimento tecnico sull’uomo acquistano qui una
nuova attualità. Dopo aver agito tecnicamente sulla natura, l’uomo si trova a
subire la reazione della propria tecnica sulla propria essenza storica,
professionale e culturale. Ogni trasformazione degli strumenti ridisegna,
almeno in parte, il profilo di chi li usa.
È per questo che il tema dell’IA agentica interessa in modo
diretto la professione dell’ingegnere. Non si tratta soltanto di adottare una
nuova famiglia di strumenti. Si tratta di comprendere un mutamento più ampio
nel rapporto tra conoscenza, progetto, azione e responsabilità. La moderna IA
agentica segna il passaggio da macchine che rispondono a macchine che possono
partecipare a processi finalizzati. Essa rende possibile una nuova economia
della cognizione tecnica, nella quale tempo, attenzione, documentazione,
verifica, simulazione e coordinamento vengono redistribuiti in modo inedito. In
tale scenario, l’ingegnere non perde centralità. La centralità, semmai, cambia
forma. Diventa sempre più capacità di impostare il problema giusto, di definire
i vincoli pertinenti, di governare strumenti potenti senza abdicarvi, di
valutare il rischio, di riconoscere il limite, di rispondere della decisione
finale. In una parola, diventa capacità di stare all’altezza di una tecnica
che, mentre amplia le possibilità dell’agire umano, chiede all’uomo una
consapevolezza ancora più alta del proprio compito.