Le origini analogiche delle reti neurali artificiali – Una ricostruzione storica tra elettrotecnica, biologia e computazione

The Perceptron Circuit
Il circuito del Perceptron – Fonte: https://www.nutsvolts.com/magazine/article/the_perceptron_circuit


Nel dibattito contemporaneo sull’intelligenza artificiale, dominato dal successo dei modelli neurali profondi e generativi, tende talvolta a perdersi la memoria storica delle condizioni tecniche, concettuali e disciplinari entro cui le reti neurali artificiali sono nate. Una ricostruzione storicamente attenta mostra che le prime formulazioni teoriche e, soprattutto, le prime realizzazioni pratiche di reti neurali artificiali si collocano pienamente nell’alveo dell’elettrotecnica, dell’elettronica analogica e del calcolo fisico, ben prima che l’informatica digitale ne assumesse la formalizzazione dominante. Se non altro perché le astrazioni del calcolo digitale sono necessariamente successive ai primi esperimenti condotti con macchine di calcolo elettromeccaniche e valvolari apparse nel periodo della Seconda guerra mondiale.

È inoltre necessario ricordare che, tra gli anni Quaranta e Cinquanta del Novecento, i computer digitali erano ancora tecnologie nascenti. Le prime macchine elettroniche programmabili, sviluppate nel solco dei lavori di Alan Turing (1912–1954), John von Neumann (1903–1957) e Konrad Zuse (1910–1995), erano caratterizzate da costi elevati, ingombri significativi e una programmabilità ancora limitata. Alcuni esemplari come L’Eniac (1946) occupava 180 metri quadrati e, 18.000 valvole termoioniche, aveva un peso di 30 tonnellate. In questo scenario, la computazione elettronica discreta non costituiva un paradigma pienamente stabilizzato, mentre l’elaborazione analogica dei segnali rappresentava una soluzione consolidata ed efficace per affrontare problemi di simulazione, controllo e modellazione di sistemi complessi. Sì che l’idea di rete neurale artificiale nasce come macchina fisica continua, ispirata ai meccanismi elettrofisiologici del cervello e realizzata tramite circuiti analogici, non come costrutto puramente algoritmico o simbolico.

 

Il contesto pre-digitale: calcolo analogico e sistemi dinamici

Negli anni Quaranta e Cinquanta del Novecento, il calcolo analogico costituiva una branca matura dell’ingegneria. Dispositivi come il Differential Analyser, sviluppato in particolare da Vannevar Bush (1890–1974) al MIT, erano ampiamente utilizzati per la risoluzione di equazioni differenziali e per la simulazione di sistemi fisici complessi.

Figura 1 Il Differential Analyser del MIT, progettato da Vannevar Bush negli anni Trenta, rappresenta uno dei più avanzati esempi di calcolo analogico pre-digitale, basato su integratori fisici per la risoluzione di equazioni differenziali.
Fonte: https://www.mit.edu/~klund/analyzer/

Figura 2 Vannevar Bush con il suo analizzatore differenziale, il primo computer analogico su larga scala.
Fonte: https://spectrum.ieee.org/vannevar-bush

Figura 3 Schema e componenti di un calcolatore analogico a integrazione continua. In questi dispositivi la computazione è realizzata mediante l’evoluzione fisica di grandezze elettriche o meccaniche, secondo un approccio tipico dell’ingegneria elettrotecnica del primo Novecento.
Fonte: https://www.circuitlab.com/circuit/b7sxqx/analog-computer-simulation/

Il funzionamento si basava su integratori meccanici collegati da alberi e ingranaggi, che traducevano le variabili in rotazioni proporzionali. Ogni integratore eseguiva operazioni di somma e integrazione continua, permettendo di risolvere sistemi di equazioni in tempo reale. La computazione avveniva come evoluzione fisica di grandezze meccaniche, non come manipolazione simbolica astratta. È all’interno di questo orizzonte concettuale e tecnologico che maturano le prime riflessioni sulle macchine intelligenti come sistemi adattivi continui.


Alle origini dell’idea di rete neurale artificiale

L’idea di rete neurale artificiale nasce dall’intreccio di due filoni principali. Il primo è lo studio funzionale del neurone biologico, sviluppato nell’ambito della neurofisiologia tra Otto e Novecento, che interpreta il neurone come unità capace di integrare segnali in ingresso e generare una risposta non lineare in uscita. Il neurone fu descritto per la prima volta da Santiago Ramón y Cajal (1852–1934), considerato il padre della neuroistologia, che alla fine dell’Ottocento formulò la teoria del neurone come unità fondamentale del sistema nervoso.

Il secondo filone è la concezione del cervello come rete di unità interconnesse, secondo cui il comportamento cognitivo emerge dall’organizzazione complessiva delle connessioni e non dalla singola unità isolata. Questa impostazione conduce all’ipotesi che processi cognitivi complessi possano essere modellati mediante reti di elementi semplici, dotati di capacità di integrazione, soglia e adattamento.

Le reti neurali artificiali furono introdotte concettualmente nel 1943 da Warren McCulloch (1898–1969) e Walter Pitts (1923–1969), che proposero il primo modello formale di neurone artificiale capace di implementare operazioni logiche. Questo lavoro segna l’inizio della tradizione che vede l’intelligenza come proprietà emergente di sistemi composti da molte unità semplici interconnesse.

La rete neurale artificiale nasce dunque come modello funzionale e strutturale, prima ancora che come algoritmo numerico, e solo successivamente verrà tradotta in implementazioni digitali e software.

 

Logica formale, linguistica e intelligenza come sistema simbolico

Parallelamente, fin dai primi decenni del Novecento, si sviluppa un intenso lavoro sui sistemi di logica formale, legato ai nomi di Gottlob Frege (1848–1925), Bertrand Russell (1872–1970), David Hilbert (1862–1943) e successivamente Kurt Gödel (1906–1978). In questo contesto prende forma l’idea che il ragionamento possa essere espresso come manipolazione simbolica regolata da assiomi e regole formali, fornendo uno dei pilastri teorici dell’IA classica.

All’interno della linguistica del Novecento, questa impostazione trova un’espressione influente nei lavori di Noam Chomsky (1928), che propone le grammatiche generative come sistemi formali capaci di descrivere la competenza linguistica mediante regole astratte e strutture sintattiche gerarchiche. In tale prospettiva, il linguaggio viene modellato come un insieme finito di principi formali in grado di generare un numero potenzialmente infinito di frasi ben formate, rafforzando l’idea che aspetti centrali dell’intelligenza possano essere catturati da sistemi simbolici.

Accanto a questo filone, si sviluppa tuttavia una tradizione distinta, rappresentata da Zellig Harris (1909–1992), da J.R. Firth (1890–1960) e da altri linguisti e statistici dell’epoca, orientata verso una concezione distribuzionale del significato. In questa prospettiva, il significato delle parole non è dato da definizioni formali esplicite, ma emerge dalle regolarità statistiche di co-occorrenza nei contesti linguistici, anche di tipo profondo. La semantica viene così intesa come proprietà relazionale, distribuita nello spazio degli usi linguistici.

Tale linea di pensiero, inizialmente marginale rispetto all’IA simbolica, trova oggi una realizzazione tecnologica nei moderni Large Language Models (LLM), sistemi neurali di grande scala organizzati in strutture gerarchiche a strati, basate sull’architettura transformer. In tali modelli, il significato non è codificato tramite regole simboliche esplicite, ma emerge da rappresentazioni distribuzionali e stratificate apprese dai dati, in continuità concettuale con l’intuizione harrisiana. I LLM possono così essere interpretati come l’esito contemporaneo di una lunga traiettoria che collega logica formale, linguistica teorica e reti neurali, integrando approcci storicamente distinti entro un’unica infrastruttura computazionale, che come abbiamo visto fonda le sue radici nell’elettronica analogica e su sistemi circuitali realizzati fisicamente.

 

Alle origini delle reti neurali: dalla macchina pensante al Perceptron

L’idea che l’intelligenza possa emergere da un sistema fisico dinamico, piuttosto che da un mero formalismo logico, affonda le sue radici nel rapporto del 1948 Intelligent Machinery, redatto da Alan Turing presso il National Physical Laboratory. In questo testo, Turing immagina macchine composte da una moltitudine di unità semplici interconnesse, il cui comportamento globale non è imposto dall’alto, ma scaturisce dall’interazione locale dei componenti. È un passaggio concettuale decisivo, poiché l’intelligenza non è più vista come un algoritmo astratto, bensì come proprietà emergente di una struttura capace di apprendere modificando i propri parametri interni. Sebbene Turing non fornisca schemi circuitali dettagliati, il suo modello è chiaramente compatibile con una realizzazione analogica, basata su integrazione temporale, soglie e non linearità fisiche. In questa prospettiva, la macchina intelligente non è una simulazione, ma un organismo artificiale che evolve cvon dinamiche complesse.

Su questa linea si colloca il lavoro dei già citati Warren McCulloch e Walter Pitts, che nel 1943 propongono il primo modello formale di neurone artificiale. Il loro contributo segna un punto di contatto cruciale tra neurofisiologia e logica matematica. Il «neurone a soglia», capace di implementare operazioni logiche elementari, può essere interpretato tanto come astrazione teorica quanto come dispositivo elettronico non lineare realizzabile fisicamente. La loro costruzione, pur essendo concettuale, lascia intravedere la possibilità di una traduzione fisica, affine a un comparatore analogico. Il confine tra teoria e implementazione rimane volutamente permeabile, come se la matematica fosse già predisposta a incarnarsi in circuiti (e viceversa).

Il culmine di questa convergenza tra idea e materia si realizza con il Perceptron di Frank Rosenblatt. Nel 1958, il Mark I Perceptron non è un algoritmo su carta, ma una macchina tangibile, costruita con componenti elettronici analogici. La somma pesata degli ingressi avviene attraverso grandezze elettriche continue, mentre l’apprendimento corrisponde a una modifica reale dei parametri del circuito. Non si tratta di una simulazione numerica, bensì di una rete neurale fisica operante, in cui il calcolo diventa fenomeno elettrico e la plasticità assume forma concreta. Con Rosenblatt, il sogno di Turing trova una prima incarnazione, per cui l’intelligenza artificiale non è più soltanto un’ipotesi teorica, ma una macchina capace di «apprendimento automatico».

Figura 4 Il Mark I Perceptron, realizzato da Frank Rosenblatt nel 1958 presso il Cornell Aeronautical Laboratory. La macchina implementava fisicamente una rete neurale mediante componenti elettronici analogici.
Fonte: https://commons.wikimedia.org/wiki/File:Mark_I_Perceptron,_Figure_2_of_operator%27s_manual.png

Figura 5 Vista dell’hardware del Mark I Perceptron. I pesi sinaptici erano rappresentati da elementi fisici regolabili, mentre la somma pesata degli ingressi era ottenuta tramite grandezze elettriche continue.
Fonte: https://en.wikipedia.org/wiki/Perceptron#/media/File:Mark_I_perceptron.jpeg

Figura 6 Sistema di fotorecettori utilizzato come strato di ingresso nel Perceptron di Rosenblatt. L’acquisizione sensoriale avveniva tramite componenti fisici, rafforzando il carattere di macchina reale della rete neurale.
Fonte: Rosenblatt, F. – Principles of Neurodynamics (1962) – https://gwern.net/doc/ai/nn/1962-rosenblatt-principlesofneurodynamics.pdf

 

L’ U.S. Navy, e in particolare dall’Office of Naval Research, ebbe un ruolo fondamentale nel sostenere i primi sviluppi del Perceptron. I lavori pionieristici di Frank Rosenblatt furono infatti finanziati nell’ambito di programmi di ricerca militare orientati al riconoscimento automatico di pattern, segnali e configurazioni visive, in un’epoca in cui tali problemi non disponevano ancora di soluzioni algoritmiche mature. In questo contesto applicativo, il Perceptron viene concepito esplicitamente come macchina fisica adattiva, capace di operare in condizioni di rumore, incertezza e variabilità ambientale. L’interesse della Marina – dimostrato nel celebre articolo del New York times del 1958 dal profetico titolo «Learning by doing» – non era rivolto a sistemi simbolici basati su regole esplicite, ma a dispositivi capaci di apprendere direttamente dall’esperienza, sfruttando la dinamica dei segnali e la modificabilità dei parametri interni. Tale quadro conferma come le prime reti neurali artificiali emergano all’incrocio tra esigenze operative concrete e una visione ingegneristica della computazione, profondamente radicata nell’elettronica analogica e nell’elettrotecnica, ben prima della loro successiva formalizzazione algoritmica in ambiente digitale.

1958, New York Times. The Navy revealed the embryo of an electronic  computer that it expects will be able to walk, talk, see, write, reproduce  itself and be conscious if its existence.

Figura 7 Articolo del New York Times del 1958 dedicato al Perceptron di Frank Rosenblatt, presentato come un dispositivo elettronico sviluppato con il supporto della U.S. Navy e capace di «imparare facendo»
Fonte: https://en.wikipedia.org/wiki/Frank_Rosenblatt

 

Astrazione, architettura di von Neumann ed equivalenza di principio

L’affermazione dell’architettura di John von Neumann, che costituisce ancora oggi l’ossatura concettuale dei calcolatori contemporanei, inclusi i dispositivi mobili di uso quotidiano, introduce un passaggio teorico di grande portata nella storia della computazione. La distinzione funzionale tra unità di elaborazione, memoria e controllo consente infatti di separare il comportamento logico di una macchina dalla sua realizzazione fisica concreta, aprendo lo spazio a un livello di descrizione astratto nel quale procedure, algoritmi e strutture di calcolo possono essere formulate indipendentemente dai dettagli circuitali che le rendono possibili.

Tale possibilità di astrazione produce un effetto profondo. Schemi fisici complessi, costituiti da reti intricate di componenti elettronici, possono essere rappresentati, replicati e modificati attraverso strati software che agiscono come interfacce concettuali tra l’idea di calcolo e la sua incarnazione materiale. Il funzionamento della macchina viene così pensato in termini logici e simbolici, mentre l’infrastruttura circuitale che lo sostiene viene progressivamente relegata sullo sfondo, sottratta alla visibilità del programmatore e dell’utente. Ciò non implica che la dimensione fisica del calcolo venga superata o dissolta. Al contrario, essa permane come condizione necessaria di possibilità di ogni operazione computazionale, pur venendo occultata dal livello logico. L’evoluzione tecnologica procede quindi lungo una traiettoria nella quale la complessità dell’hardware cresce in modo esponenziale, mentre l’interazione con la macchina viene mediata da modelli sempre più astratti e formalizzati.

In questo quadro prende forma il principio di equivalenza computazionale tra hardware e software, secondo cui una stessa funzione di calcolo può essere realizzata, in linea di principio, tanto mediante una configurazione circuitale quanto mediante una descrizione algoritmica. Tale equivalenza non cancella le differenze tecnologiche, energetiche e ingegneristiche tra le due dimensioni, ma stabilisce una continuità concettuale che consente il passaggio da macchine fisiche specializzate a modelli numerici generalizzabili. È precisamente su questa base teorica che le reti neurali, originariamente concepite come dispositivi analogici che sfruttavano direttamente la dinamica dei segnali elettrici, possono essere riformulate come modelli matematici ed eseguite su architetture digitali general purpose. La trasformazione non riguarda l’idea di fondo della rete, bensì il livello di descrizione adottato, che consente di trasferire una concezione nata nell’orizzonte dell’elettrotecnica all’interno dell’ecosistema del calcolo digitale moderno. Può sembrare assurdo ma una moderna rete neurale transformer alla base dei LLM potrebbe essere, in linea di principio, realizzata per intero in hardware attraverso apposita circuiteria, se non per mezzo di soli elementi meccanici afferenti al domino della spintronica.

 

Riferimenti bibliografici

Rosenblatt, F. (1958). The perceptron: A probabilistic model for information storage and organization in the brain. Psychological Review, 65(6), 386–408. https://doi.org/10.1037/h0042519

Rosenblatt, F. (1962). Principles of neurodynamics: Perceptrons and the theory of brain mechanisms. Spartan Books.

McCulloch, W. S., & Pitts, W. (1943). A logical calculus of the ideas immanent in nervous activity. The Bulletin of Mathematical Biophysics, 5(4), 115–133. https://doi.org/10.1007/BF02478259

Turing, A. M. (1948). Intelligent machinery (National Physical Laboratory Report). London: Her Majesty’s Stationery Office.

Turing, A. M. (1950). Computing machinery and intelligence. Mind, 59(236), 433–460. https://doi.org/10.1093/mind/LIX.236.433

Copeland, B. J. (Ed.). (2004). The essential Turing: Seminal writings in computing, logic, philosophy, artificial intelligence, and artificial life. Oxford University Press.

Bush, V. (1931). The differential analyzer: A new machine for solving differential equations. Journal of the Franklin Institute, 212(4), 447–488. https://doi.org/10.1016/S0016-0032(31)91041-7

Bush, V. (1945). As we may think. The Atlantic Monthly, 176(1), 101–108.

Frege, G. (1879). Begriffsschrift: Eine der arithmetischen nachgebildete Formelsprache des reinen Denkens. Halle: Nebert.

Russell, B., & Whitehead, A. N. (1910–1913). Principia mathematica (Vols. 1–3). Cambridge University Press.

Hilbert, D., & Ackermann, W. (1928). Grundzüge der theoretischen Logik. Springer.

Gödel, K. (1931). Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I. Monatshefte für Mathematik und Physik, 38, 173–198. https://doi.org/10.1007/BF01700692

Newell, A., & Simon, H. A. (1976). Computer science as empirical inquiry: Symbols and search. Communications of the ACM, 19(3), 113–126. https://doi.org/10.1145/360018.360022

Chomsky, N. (1957). Syntactic structures. Mouton.

Chomsky, N. (1965). Aspects of the theory of syntax. MIT Press.

Chomsky, N. (1986). Knowledge of language: Its nature, origin, and use. Praeger.

Harris, Z. S. (1954). Distributional structure. Word, 10(2–3), 146–162. https://doi.org/10.1080/00437956.1954.11659520

Harris, Z. S. (1968). Mathematical structures of language. Wiley.

Firth, J. R. (1957). A synopsis of linguistic theory 1930–1955. In Studies in linguistic analysis (pp. 1–32). Philological Society.

von Neumann, J. (1945). First draft of a report on the EDVAC. Moore School of Electrical Engineering, University of Pennsylvania.

von Neumann, J. (1958). The computer and the brain. Yale University Press.

Vaswani, A., Shazeer, N., Parmar, N., Uszkoreit, J., Jones, L., Gomez, A. N., Kaiser, Ł., & Polosukhin, I. (2017). Attention is all you need. Advances in Neural Information Processing Systems, 30.

Mikolov, T., Chen, K., Corrado, G., & Dean, J. (2013). Efficient estimation of word representations in vector space. arXiv preprint arXiv:1301.3781.

Devlin, J., Chang, M.-W., Lee, K., & Toutanova, K. (2019). BERT: Pre-training of deep bidirectional transformers for language understanding. Proceedings of NAACL-HLT, 4171–4186. https://doi.org/10.18653/v1/N19-1423

Boden, M. A. (2006). Mind as machine: A history of cognitive science (Vols. 1–2). Oxford University Press.

Nilsson, N. J. (2010). The quest for artificial intelligence: A history of ideas and achievements. Cambridge University Press.



Post popolari in questo blog

Noosemia: «effetto wow» e l’attribuzione di una mente alle intelligenze artificiali generative

La radionostalgia. Mi racconto attraverso la radio

La fine della conoscenza come noi la conosciamo

Gli LLM sono solo dei motori statistici ?