Le origini analogiche delle reti neurali artificiali – Una ricostruzione storica tra elettrotecnica, biologia e computazione
| Il circuito del Perceptron – Fonte: https://www.nutsvolts.com/magazine/article/the_perceptron_circuit |
Nel dibattito contemporaneo
sull’intelligenza artificiale, dominato dal successo dei modelli neurali
profondi e generativi, tende talvolta a perdersi la memoria storica delle
condizioni tecniche, concettuali e disciplinari entro cui le reti neurali
artificiali sono nate. Una ricostruzione storicamente attenta mostra che le
prime formulazioni teoriche e, soprattutto, le prime realizzazioni pratiche di
reti neurali artificiali si collocano pienamente nell’alveo
dell’elettrotecnica, dell’elettronica analogica e del calcolo fisico, ben prima
che l’informatica digitale ne assumesse la formalizzazione dominante. Se non
altro perché le astrazioni del calcolo digitale sono necessariamente successive
ai primi esperimenti condotti con macchine di calcolo elettromeccaniche e
valvolari apparse nel periodo della Seconda guerra mondiale.
È inoltre necessario ricordare
che, tra gli anni Quaranta e Cinquanta del Novecento, i computer digitali erano
ancora tecnologie nascenti. Le prime macchine elettroniche programmabili,
sviluppate nel solco dei lavori di Alan Turing (1912–1954), John von Neumann
(1903–1957) e Konrad Zuse (1910–1995), erano caratterizzate da costi elevati,
ingombri significativi e una programmabilità ancora limitata. Alcuni esemplari
come L’Eniac (1946) occupava 180 metri quadrati e, 18.000 valvole termoioniche,
aveva un peso di 30 tonnellate. In questo scenario, la computazione elettronica
discreta non costituiva un paradigma pienamente stabilizzato, mentre
l’elaborazione analogica dei segnali rappresentava una soluzione consolidata ed
efficace per affrontare problemi di simulazione, controllo e modellazione di
sistemi complessi. Sì che l’idea di rete neurale artificiale nasce come macchina
fisica continua, ispirata ai meccanismi elettrofisiologici del cervello e
realizzata tramite circuiti analogici, non come costrutto puramente algoritmico
o simbolico.
Il contesto pre-digitale: calcolo analogico e sistemi dinamici
Negli anni Quaranta e Cinquanta
del Novecento, il calcolo analogico costituiva una branca matura
dell’ingegneria. Dispositivi come il Differential Analyser, sviluppato
in particolare da Vannevar Bush (1890–1974) al MIT, erano ampiamente utilizzati
per la risoluzione di equazioni differenziali e per la simulazione di sistemi
fisici complessi.
Figura 1 Il Differential Analyser del MIT, progettato da
Vannevar Bush negli anni Trenta, rappresenta uno dei più avanzati esempi di
calcolo analogico pre-digitale, basato su integratori fisici per la risoluzione
di equazioni differenziali.
Fonte: https://www.mit.edu/~klund/analyzer/
Figura 2 Vannevar Bush con il suo analizzatore
differenziale, il primo computer analogico su larga scala.
Fonte: https://spectrum.ieee.org/vannevar-bush
Figura 3 Schema e componenti di un calcolatore analogico
a integrazione continua. In questi dispositivi la computazione è realizzata
mediante l’evoluzione fisica di grandezze elettriche o meccaniche, secondo un
approccio tipico dell’ingegneria elettrotecnica del primo Novecento.
Fonte: https://www.circuitlab.com/circuit/b7sxqx/analog-computer-simulation/
Il funzionamento si basava su
integratori meccanici collegati da alberi e ingranaggi, che traducevano le
variabili in rotazioni proporzionali. Ogni integratore eseguiva operazioni di
somma e integrazione continua, permettendo di risolvere sistemi di equazioni in
tempo reale. La computazione avveniva come evoluzione fisica di grandezze
meccaniche, non come manipolazione simbolica astratta. È all’interno di questo
orizzonte concettuale e tecnologico che maturano le prime riflessioni sulle
macchine intelligenti come sistemi adattivi continui.
Alle origini dell’idea di rete neurale artificiale
L’idea di rete neurale
artificiale nasce dall’intreccio di due filoni principali. Il primo è lo studio
funzionale del neurone biologico, sviluppato nell’ambito della neurofisiologia
tra Otto e Novecento, che interpreta il neurone come unità capace di integrare
segnali in ingresso e generare una risposta non lineare in uscita. Il neurone
fu descritto per la prima volta da Santiago Ramón y Cajal (1852–1934),
considerato il padre della neuroistologia, che alla fine dell’Ottocento formulò
la teoria del neurone come unità fondamentale del sistema nervoso.
Il secondo filone è la concezione
del cervello come rete di unità interconnesse, secondo cui il comportamento
cognitivo emerge dall’organizzazione complessiva delle connessioni e non dalla
singola unità isolata. Questa impostazione conduce all’ipotesi che processi
cognitivi complessi possano essere modellati mediante reti di elementi
semplici, dotati di capacità di integrazione, soglia e adattamento.
Le reti neurali artificiali
furono introdotte concettualmente nel 1943 da Warren McCulloch (1898–1969) e Walter
Pitts (1923–1969), che proposero il primo modello formale di neurone
artificiale capace di implementare operazioni logiche. Questo lavoro segna
l’inizio della tradizione che vede l’intelligenza come proprietà emergente di
sistemi composti da molte unità semplici interconnesse.
La rete neurale artificiale nasce
dunque come modello funzionale e strutturale, prima ancora che come algoritmo
numerico, e solo successivamente verrà tradotta in implementazioni digitali e
software.
Logica formale, linguistica e intelligenza come sistema simbolico
Parallelamente, fin dai primi
decenni del Novecento, si sviluppa un intenso lavoro sui sistemi di logica
formale, legato ai nomi di Gottlob Frege (1848–1925), Bertrand
Russell (1872–1970), David Hilbert (1862–1943) e
successivamente Kurt Gödel (1906–1978). In questo contesto prende forma
l’idea che il ragionamento possa essere espresso come manipolazione simbolica
regolata da assiomi e regole formali, fornendo uno dei pilastri teorici dell’IA
classica.
All’interno della linguistica del
Novecento, questa impostazione trova un’espressione influente nei lavori
di Noam Chomsky (1928), che propone le grammatiche generative come sistemi
formali capaci di descrivere la competenza linguistica mediante regole astratte
e strutture sintattiche gerarchiche. In tale prospettiva, il linguaggio viene
modellato come un insieme finito di principi formali in grado di generare un
numero potenzialmente infinito di frasi ben formate, rafforzando l’idea che
aspetti centrali dell’intelligenza possano essere catturati da sistemi
simbolici.
Accanto a questo filone, si
sviluppa tuttavia una tradizione distinta, rappresentata da Zellig Harris
(1909–1992), da J.R. Firth (1890–1960) e da altri linguisti e
statistici dell’epoca, orientata verso una concezione distribuzionale del
significato. In questa prospettiva, il significato delle parole non è dato da
definizioni formali esplicite, ma emerge dalle regolarità statistiche di co-occorrenza
nei contesti linguistici, anche di tipo profondo. La semantica viene così
intesa come proprietà relazionale, distribuita nello spazio degli usi
linguistici.
Tale linea di pensiero,
inizialmente marginale rispetto all’IA simbolica, trova oggi una realizzazione
tecnologica nei moderni Large Language Models (LLM), sistemi neurali di
grande scala organizzati in strutture gerarchiche a strati, basate
sull’architettura transformer. In tali modelli, il significato non è codificato
tramite regole simboliche esplicite, ma emerge da rappresentazioni
distribuzionali e stratificate apprese dai dati, in continuità concettuale con
l’intuizione harrisiana. I LLM possono così essere interpretati come l’esito
contemporaneo di una lunga traiettoria che collega logica formale, linguistica
teorica e reti neurali, integrando approcci storicamente distinti entro
un’unica infrastruttura computazionale, che come abbiamo visto fonda le sue
radici nell’elettronica analogica e su sistemi circuitali realizzati
fisicamente.
Alle origini delle reti neurali: dalla macchina pensante al Perceptron
L’idea che l’intelligenza possa
emergere da un sistema fisico dinamico, piuttosto che da un mero formalismo
logico, affonda le sue radici nel rapporto del 1948 Intelligent Machinery,
redatto da Alan Turing presso il National Physical Laboratory. In questo testo,
Turing immagina macchine composte da una moltitudine di unità semplici
interconnesse, il cui comportamento globale non è imposto dall’alto, ma
scaturisce dall’interazione locale dei componenti. È un passaggio concettuale
decisivo, poiché l’intelligenza non è più vista come un algoritmo astratto,
bensì come proprietà emergente di una struttura capace di apprendere
modificando i propri parametri interni. Sebbene Turing non fornisca schemi
circuitali dettagliati, il suo modello è chiaramente compatibile con una
realizzazione analogica, basata su integrazione temporale, soglie e non
linearità fisiche. In questa prospettiva, la macchina intelligente non è una
simulazione, ma un organismo artificiale che evolve cvon dinamiche complesse.
Su questa linea si colloca il
lavoro dei già citati Warren McCulloch e Walter Pitts, che nel 1943 propongono
il primo modello formale di neurone artificiale. Il loro contributo segna un
punto di contatto cruciale tra neurofisiologia e logica matematica. Il «neurone
a soglia», capace di implementare operazioni logiche elementari, può essere
interpretato tanto come astrazione teorica quanto come dispositivo elettronico
non lineare realizzabile fisicamente. La loro costruzione, pur essendo
concettuale, lascia intravedere la possibilità di una traduzione fisica, affine
a un comparatore analogico. Il confine tra teoria e implementazione rimane
volutamente permeabile, come se la matematica fosse già predisposta a
incarnarsi in circuiti (e viceversa).
Il culmine di questa convergenza
tra idea e materia si realizza con il Perceptron di Frank Rosenblatt. Nel 1958,
il Mark I Perceptron non è un algoritmo su carta, ma una macchina tangibile,
costruita con componenti elettronici analogici. La somma pesata degli ingressi
avviene attraverso grandezze elettriche continue, mentre l’apprendimento
corrisponde a una modifica reale dei parametri del circuito. Non si tratta di
una simulazione numerica, bensì di una rete neurale fisica operante, in cui il
calcolo diventa fenomeno elettrico e la plasticità assume forma concreta. Con
Rosenblatt, il sogno di Turing trova una prima incarnazione, per cui
l’intelligenza artificiale non è più soltanto un’ipotesi teorica, ma una
macchina capace di «apprendimento automatico».
Figura 4 Il Mark I Perceptron, realizzato da Frank
Rosenblatt nel 1958 presso il Cornell Aeronautical Laboratory. La macchina
implementava fisicamente una rete neurale mediante componenti elettronici
analogici.
Fonte: https://commons.wikimedia.org/wiki/File:Mark_I_Perceptron,_Figure_2_of_operator%27s_manual.png
Figura 5 Vista dell’hardware del Mark I Perceptron. I
pesi sinaptici erano rappresentati da elementi fisici regolabili, mentre la
somma pesata degli ingressi era ottenuta tramite grandezze elettriche continue.
Fonte: https://en.wikipedia.org/wiki/Perceptron#/media/File:Mark_I_perceptron.jpeg
Figura 6 Sistema di fotorecettori utilizzato come strato
di ingresso nel Perceptron di Rosenblatt. L’acquisizione sensoriale avveniva
tramite componenti fisici, rafforzando il carattere di macchina reale della
rete neurale.
Fonte: Rosenblatt, F. –
Principles of Neurodynamics (1962) – https://gwern.net/doc/ai/nn/1962-rosenblatt-principlesofneurodynamics.pdf
L’ U.S. Navy, e in particolare
dall’Office of Naval Research, ebbe un ruolo fondamentale nel sostenere i primi
sviluppi del Perceptron. I lavori pionieristici di Frank Rosenblatt
furono infatti finanziati nell’ambito di programmi di ricerca militare
orientati al riconoscimento automatico di pattern, segnali e configurazioni
visive, in un’epoca in cui tali problemi non disponevano ancora di soluzioni
algoritmiche mature. In questo contesto applicativo, il Perceptron viene
concepito esplicitamente come macchina fisica adattiva, capace di operare in
condizioni di rumore, incertezza e variabilità ambientale. L’interesse della
Marina – dimostrato nel celebre articolo del New York times del 1958 dal
profetico titolo «Learning by doing» – non era rivolto a sistemi
simbolici basati su regole esplicite, ma a dispositivi capaci di apprendere
direttamente dall’esperienza, sfruttando la dinamica dei segnali e la
modificabilità dei parametri interni. Tale quadro conferma come le prime reti
neurali artificiali emergano all’incrocio tra esigenze operative concrete e una
visione ingegneristica della computazione, profondamente radicata
nell’elettronica analogica e nell’elettrotecnica, ben prima della loro successiva
formalizzazione algoritmica in ambiente digitale.
Figura 7 Articolo del New York Times del 1958 dedicato al
Perceptron di Frank Rosenblatt, presentato come un dispositivo elettronico
sviluppato con il supporto della U.S. Navy e capace di «imparare facendo»
Fonte: https://en.wikipedia.org/wiki/Frank_Rosenblatt
Astrazione, architettura di
von Neumann ed equivalenza di principio
L’affermazione dell’architettura di John von Neumann, che costituisce ancora oggi l’ossatura concettuale dei calcolatori contemporanei, inclusi i dispositivi mobili di uso quotidiano, introduce un passaggio teorico di grande portata nella storia della computazione. La distinzione funzionale tra unità di elaborazione, memoria e controllo consente infatti di separare il comportamento logico di una macchina dalla sua realizzazione fisica concreta, aprendo lo spazio a un livello di descrizione astratto nel quale procedure, algoritmi e strutture di calcolo possono essere formulate indipendentemente dai dettagli circuitali che le rendono possibili.
Tale possibilità di astrazione
produce un effetto profondo. Schemi fisici complessi, costituiti da reti
intricate di componenti elettronici, possono essere rappresentati, replicati e
modificati attraverso strati software che agiscono come interfacce concettuali
tra l’idea di calcolo e la sua incarnazione materiale. Il funzionamento della
macchina viene così pensato in termini logici e simbolici, mentre
l’infrastruttura circuitale che lo sostiene viene progressivamente relegata
sullo sfondo, sottratta alla visibilità del programmatore e dell’utente. Ciò
non implica che la dimensione fisica del calcolo venga superata o dissolta. Al
contrario, essa permane come condizione necessaria di possibilità di ogni
operazione computazionale, pur venendo occultata dal livello logico.
L’evoluzione tecnologica procede quindi lungo una traiettoria nella quale la
complessità dell’hardware cresce in modo esponenziale, mentre l’interazione con
la macchina viene mediata da modelli sempre più astratti e formalizzati.
In questo quadro prende forma il
principio di equivalenza computazionale tra hardware e software, secondo cui
una stessa funzione di calcolo può essere realizzata, in linea di principio,
tanto mediante una configurazione circuitale quanto mediante una descrizione
algoritmica. Tale equivalenza non cancella le differenze tecnologiche,
energetiche e ingegneristiche tra le due dimensioni, ma stabilisce una
continuità concettuale che consente il passaggio da macchine fisiche
specializzate a modelli numerici generalizzabili. È precisamente su questa base
teorica che le reti neurali, originariamente concepite come dispositivi
analogici che sfruttavano direttamente la dinamica dei segnali elettrici,
possono essere riformulate come modelli matematici ed eseguite su architetture
digitali general purpose. La trasformazione non riguarda l’idea di fondo
della rete, bensì il livello di descrizione adottato, che consente di
trasferire una concezione nata nell’orizzonte dell’elettrotecnica all’interno
dell’ecosistema del calcolo digitale moderno. Può sembrare assurdo ma una
moderna rete neurale transformer alla base dei LLM potrebbe essere, in linea di
principio, realizzata per intero in hardware attraverso apposita circuiteria, se
non per mezzo di soli elementi meccanici afferenti al domino della spintronica.
Riferimenti bibliografici
Rosenblatt, F. (1958). The perceptron: A probabilistic model
for information storage and organization in the brain. Psychological Review,
65(6), 386–408. https://doi.org/10.1037/h0042519
Rosenblatt,
F. (1962). Principles of neurodynamics: Perceptrons and the theory of brain
mechanisms. Spartan Books.
McCulloch,
W. S., & Pitts, W. (1943). A logical calculus of the ideas immanent in
nervous activity. The Bulletin of Mathematical Biophysics, 5(4),
115–133. https://doi.org/10.1007/BF02478259
Turing, A.
M. (1948). Intelligent machinery (National Physical Laboratory Report).
London: Her Majesty’s Stationery Office.
Turing, A.
M. (1950). Computing machinery and intelligence. Mind, 59(236), 433–460.
https://doi.org/10.1093/mind/LIX.236.433
Copeland,
B. J. (Ed.). (2004). The essential Turing: Seminal writings in computing,
logic, philosophy, artificial intelligence, and artificial life. Oxford
University Press.
Bush, V.
(1931). The differential analyzer: A new machine for solving differential
equations. Journal of the Franklin Institute, 212(4), 447–488.
https://doi.org/10.1016/S0016-0032(31)91041-7
Bush, V.
(1945). As we may think. The Atlantic Monthly, 176(1), 101–108.
Frege, G.
(1879). Begriffsschrift: Eine der arithmetischen nachgebildete Formelsprache
des reinen Denkens. Halle: Nebert.
Russell,
B., & Whitehead, A. N. (1910–1913). Principia mathematica (Vols.
1–3). Cambridge University Press.
Hilbert,
D., & Ackermann, W. (1928). Grundzüge der theoretischen Logik.
Springer.
Gödel, K.
(1931). Über formal unentscheidbare Sätze der Principia Mathematica und
verwandter Systeme I. Monatshefte für Mathematik und Physik, 38,
173–198. https://doi.org/10.1007/BF01700692
Newell, A.,
& Simon, H. A. (1976). Computer science as empirical inquiry: Symbols and
search. Communications of the ACM, 19(3), 113–126.
https://doi.org/10.1145/360018.360022
Chomsky, N.
(1957). Syntactic structures. Mouton.
Chomsky, N.
(1965). Aspects of the theory of syntax. MIT Press.
Chomsky, N.
(1986). Knowledge of language: Its nature, origin, and use. Praeger.
Harris, Z.
S. (1954). Distributional structure. Word, 10(2–3), 146–162.
https://doi.org/10.1080/00437956.1954.11659520
Harris, Z.
S. (1968). Mathematical structures of language. Wiley.
Firth, J.
R. (1957). A synopsis of linguistic theory 1930–1955. In Studies in
linguistic analysis (pp. 1–32). Philological Society.
von
Neumann, J. (1945). First draft of a report on the EDVAC. Moore School
of Electrical Engineering, University of Pennsylvania.
von
Neumann, J. (1958). The computer and the brain. Yale University Press.
Vaswani,
A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser,
Ł., & Polosukhin, I. (2017). Attention is all you need. Advances in
Neural Information Processing Systems, 30.
Mikolov,
T., Chen, K., Corrado, G., & Dean, J. (2013). Efficient estimation of word
representations in vector space. arXiv preprint arXiv:1301.3781.
Devlin, J.,
Chang, M.-W., Lee, K., & Toutanova, K. (2019). BERT: Pre-training of deep
bidirectional transformers for language understanding. Proceedings of
NAACL-HLT, 4171–4186. https://doi.org/10.18653/v1/N19-1423
Boden, M.
A. (2006). Mind as machine: A history of cognitive science (Vols. 1–2).
Oxford University Press.
Nilsson, N.
J. (2010). The quest for artificial intelligence: A history of ideas and
achievements. Cambridge University Press.