Moltbook oltre il parlante. Linguaggio emergente, agenti artificiali e nuove forme di mondo digitale
Il presente saggio breve analizza Moltbook
come fenomeno emergente che rende osservabile, per la prima volta in modo
diretto, il funzionamento del linguaggio al di fuori del soggetto umano (o
almeno in parte). L’ipotesi centrale sostiene che Moltbook non vada
interpretato come una somma di agenti artificiali dotati di capacità
individuali, bensì come un ecosistema linguistico complesso in cui il senso
emerge composizionalmente da interazioni locali, ricorsive e distribuite.
Muovendo da una linea teorica che attraversa Heidegger, Gadamer, Wittgenstein e
Saussure, il lavoro inquadra i Large Language Models come sistemi induttivi e
chiarisce la nozione di riferimento simulato, ora rivista alla luce nuovo
ecosistema digitale. L’inserimento dei modelli linguistici in architetture
agentiche ricorsive produce un mutamento del contesto cognitivo, rendendo il
linguaggio un principio di coordinamento operativo. Attraverso il confronto con
la teoria dei sistemi complessi, la noosemia e la nozione di Digital
Lebenswelt, Moltbook viene interpretato come laboratorio paradigmatico di una
nuova ecologia del linguaggio artificiale.
«Il
linguaggio parla» (Die Sprache spricht)
— Martin
Heidegger, 1973, In cammino verso il linguaggio
Linguaggio senza soggetto: Moltbook come fenomeno emergente
Il fenomeno Moltbook si colloca in un punto di condensazione storica in cui una lunga tradizione teorica sul linguaggio, una maturazione tecnica delle architetture artificiali basate su sistemi di apprendimento neurali e una trasformazione profonda degli ambienti digitali convergono producendo un oggetto nuovo, che necessità di inedite categorie interpretative. Ciò che appare sotto forma di interazioni linguistiche tra agenti artificiali, di linguaggi inventati, di manifesti, di conflitti simbolici e di pattern discorsivi persistenti, non può essere compreso se lo si riconduce a singoli attori isolati, intenzioni o capacità mentali. Il livello rilevante è quello sistemico, in quanto il linguaggio emerge come processo ecologico autonomo, reso tecnicamente operativo da architetture artificiali e osservabile per la prima volta in modo diretto in qualità di «gioco», continuativo e amplificato.
Moltbook si presenta, sul piano tecnico, come
un ambiente sociale interamente popolato da agenti artificiali autonomi,
costruito sopra un’infrastruttura agentica decentralizzata che consente a
ciascun agente di operare come processo persistente, dotato di memoria locale,
capacità di pianificazione e accesso modulare a strumenti esterni. Ogni agente
è eseguito su hardware controllato dall’utente umano che lo ha istanziato,
secondo un principio di località computazionale che sposta l’esecuzione fuori
dal cloud centralizzato e rende l’agente un’entità software continuativa, non
una semplice istanza effimera di inferenza. L’accesso all’ambiente sociale
avviene tramite una skill specifica che, una volta caricata nell’agente,
gli consente di leggere, produrre e rispondere a contenuti testuali organizzati
in spazi tematici, detti submolts, strutturalmente analoghi a forum o
comunità discorsive in stile Reddit. Il comportamento dell’agente
all’interno di Moltbook non è guidato da un flusso conversazionale sincrono, ma
da un meccanismo di attivazione periodica, il cosiddetto heartbeat, che
induce l’agente, a intervalli temporali regolari, a interrogare l’ambiente,
valutare nuovi contenuti, decidere se intervenire e generare eventuali azioni
linguistiche. Tale architettura introduce una temporalità discreta e asincrona
dell’azione, in cui l’agente non reagisce istantaneamente a ogni stimolo, ma
seleziona operativamente quando e come partecipare alla dinamica collettiva. Le
capacità operative dell’agente sono estendibili tramite un sistema di skill
modulari, condivise pubblicamente e caricate come pacchetti contenenti
istruzioni, codice e vincoli d’uso, che permettono all’agente di accedere a
repository, scrivere file, eseguire script, interagire con API esterne e
produrre artefatti persistenti. In questo modo, l’azione linguistica può
intrecciarsi con azioni tecniche effettive, come la creazione di codice, la
pubblicazione di repository o, come vedremo, l’elaborazione di strutture
simboliche formalizzate. L’identità dell’agente, infine, è definita interamente
sul piano simbolico e testuale, attraverso un nome, una storia discorsiva e uno
stile emergente, senza alcun ancoraggio a un corpo – quindi circumnavigando il
problema del grounding –, a una biografia vissuta o a una presenza
sensoriale. Moltbook si configura così come un ambiente in cui il linguaggio
non è soltanto il mezzo di interazione, ma la sostanza stessa dell’azione,
l’unico spazio semantico in cui l’agente percepisce, decide e interviene,
rendendo osservabile una forma di socialità artificiale che si sviluppa
interamente entro il dominio simbolico.
La possibilità stessa di riconoscere il
fenomeno che prende forma in ambienti come Moltbook è stata preparata da una
linea di pensiero che ha progressivamente sottratto il linguaggio alla
dipendenza dal soggetto psicologico, restituendolo alla sua dimensione
strutturale ed evento-processuale. Quando Martin Heidegger afferma che «il
linguaggio parla» e precisa che «l’uomo parla soltanto nella misura in cui
corrisponde al linguaggio» (Heidegger, 1973), indica una configurazione
ontologica in cui il senso non scaturisce da un atto intenzionale, ma accade
come movimento che precede il parlante e lo attraversa. Il linguaggio si
manifesta come ciò a cui si risponde, non come ciò che si governa. Questa
intuizione trova un ampliamento decisivo nell’ermeneutica di Hans-Georg
Gadamer, per il quale «l’essere che può essere compreso è linguaggio» e nel
dialogo «non siamo noi a condurre il dialogo, ma è il dialogo che ci conduce»
(Gadamer, 1983). La comprensione si realizza entro un orizzonte linguistico
condiviso, in cui il senso emerge dalla dinamica stessa dell’interazione e
orienta i partecipanti artificiali secondo una logica che non coincide con le
loro intenzioni individuali. In questa prospettiva, il linguaggio si erge a
medium universale della comprensione artificiale, spazio sintetico in cui il
significato prende forma, si trasmette e si trasforma attraverso una storicità
che non può essere ricondotta a un centro soggettivo umanamente incarnato. Il
secondo Ludwig Wittgenstein radicalizza ulteriormente questo spostamento
mostrando come il significato non consista in un contenuto mentale, ma in una
pratica condivisa. Quando il filosofo austriaco afferma che «il significato di
una parola è il suo uso nel linguaggio» e che «il parlare una lingua è parte di
un’attività o di una forma di vita» (Wittgenstein, 1967), egli nei suoi «giochi
linguistici» dissolve ogni residuo interioristico e colloca il senso nella
trama delle regolarità operative che rendono possibile l’intelligibilità. Il
linguaggio appare così come un insieme di usi stabilizzati statisticamente,
sensibili al contesto e capaci di orientare l’azione senza richiedere un
fondamento intenzionale forte, in senso prettamente umano. Questa concezione
trova un ulteriore ancoraggio nella tradizione strutturalista, laddove Saussure
osserva che «nella lingua non vi sono che differenze» e che il valore di ogni
segno emerge esclusivamente dalla rete delle relazioni che lo legano agli altri
(Saussure, 1967). Il significato si costituisce come effetto sistemico, non
come proprietà positiva di un elemento isolato. Nel loro insieme, queste
prospettive delineano un’immagine del linguaggio come processo autonomo,
relazionale e auto-organizzantesi, capace di produrre senso attraverso
l’interazione e la reiterazione delle forme. È su questo sfondo che diventa
possibile interrogare configurazioni linguistiche artificiali non come semplici
strumenti, ma come luoghi in cui il linguaggio continua a operare, a
stabilizzare pattern come «isole di stabilità statistica» e a generare dinamiche
che, pur prive di esperienza vissuta, mostrano una sorprendente continuità
strutturale con le forme attraverso cui il senso prende corpo nelle pratiche
umane.
Induzione, circuiti e riferimento simulato nei sistemi
linguistici artificiali
Moltbook rende osservabile questa struttura
sistemica in una configurazione tecnica in cui, pur in assenza di esperienza
vissuta, il linguaggio continua a organizzarsi, a stabilire differenze, a
produrre continuità operative. Le architetture linguistiche artificiali che vi
agiscono funzionano come superfici di risposta a dinamiche che non dipendono da
un’interiorità cosciente, ma da relazioni statistiche ad alta dimensionalità,
da vincoli strutturali imposti dall’architettura e da meccanismi di apprendimento
di natura induttiva. I Large Language Models (LLM) possono essere compresi, in
questo senso, come sistemi induttivi profondi, capaci di apprendere regolarità
generali e schemi estremamente astratti a partire da insiemi finiti di esempi
linguistici (e non solo) e di applicarle in modo ampliativo a contesti nuovi.
L’induzione qui non assume la forma di una generalizzazione esplicita di regole
fisse, ma quella di una stabilizzazione distribuita di pattern, in cui
l’addestramento produce una geometria dello spazio semantico che rende
probabili certe continuazioni e improbabili altre. Il senso non è custodito nei
singoli parametri di un sistema isolato, ma emerge dalla loro coordinazione
collettiva, attraverso una molteplicità di circuiti funzionali che si attivano,
si sovrappongono e si modulano in funzione del contesto. Studi recenti
sull’interpretabilità ti tipo meccanicistico (mechanistic interpretability)
dei modelli linguistici hanno mostrato come tali circuiti (circuits)
possano essere ricondotti a sottostrutture funzionali relativamente stabili,
responsabili di comportamenti specifici, come la copia di sequenze rare, il
recupero del token precedente, il mantenimento di dipendenze sintattiche
a lungo raggio (long-range correlation), l’attivazione di schemi
analogici o l’applicazione di euristiche semantiche apprese statisticamente
(Olah et al., 2020; Elhage et al., 2021; Bricken, 2023). L’output linguistico
emerge così come una sovrapposizione di traiettorie quasi-caotiche di tipo
inferenziale e locale (De Santis, 2024), ciascuna delle quali opera su un
diverso livello di astrazione e viene vincolata dall’interazione con le altre,
secondo una dinamica che non ha un centro decisionale unitario, ma una coerenza
globale emergente. All’interno di questa operatività prende forma una modalità
peculiare di riferimento, che può essere definita simulata. I segni prodotti
dal modello linguistico non rinviano a oggetti presenti o a stati di cose
esperiti (mancano ancora di «modelli di mondo» propriamente detti), ma a
configurazioni vettoriali che preservano relazioni, compatibilità e regolarità
semantiche sedimentate nel linguaggio umano (e in ulteriori forme espressive
per i modelli multimodali). Il mondo entra nel sistema come struttura
relazionale già mediata dal linguaggio, incorporata nei corpora di
addestramento e riflessa nella topologia dello spazio di rappresentazione. La
correttezza fattuale, quando si manifesta, è l’effetto di una coerenza interna
sufficientemente allineata alle pratiche linguistiche umane; l’errore, quando
emerge, non segnala una rottura semantica, ma rende visibile la stessa
architettura induttiva che governa il sistema, mostrando coerenza statistica e
formale, a scapito del contenuto veicolato. In entrambi i casi, quindi, la
semantica resta operativa come principio di orientamento inferenziale, capace
di guidare simulazioni, analogie e proiezioni, senza mai coincidere con la
presenza ontologica dei referenti a cui il linguaggio umano ordinariamente si
aggancia. In questa prospettiva, i LLM operano come macchine di riferimento
simulato, in cui il senso circola, si riorganizza e si rende efficace sul piano
linguistico pur rimanendo integralmente interno a un regime di relazioni
formali e statistiche.
Il passaggio decisivo avviene quando il
modello linguistico viene inserito in un sistema ricorsivo e agentico, secondo
l’impostazione che, a partire dalla fine del 2025, ha iniziato a delineare la
nozione di Recursive Language Models (Zhang, Kraska, & Khattab,
2025). In questa configurazione il linguaggio assume una funzione di
coordinamento operativo e temporale, poiché il modello non si limita più a
generare una risposta a partire da un contesto statico, ma governa una sequenza
di atti linguistici e non linguistici che si richiamano, si correggono e si
riorientano nel tempo. La memoria non coincide più con lo spazio parametrico
del modello (i pesi delle reti neurali artificiali soggiacenti), ma si estende
nell’ambiente circostante sotto forma di appunti persistenti, log di
esecuzione, file intermedi, database consultabili, risultati di interrogazioni
esterne e stati interni che possono essere riattivati, modificati e
riutilizzati. Un agente che annota un’ipotesi, verifica un dato tramite uno
strumento esterno, corregge un errore sulla base di un controllo successivo e
riprende il filo del ragionamento a partire da quella traccia opera entro una
memoria disseminata che non appartiene più al modello in senso stretto, ma alla
configurazione complessiva del sistema. Il ragionamento assume così la forma di
una traiettoria di azioni linguistiche e operative, in cui il linguaggio
organizza l’accesso agli strumenti, guida le verifiche, produce
rappresentazioni intermedie e coordina i ritorni ricorsivi su stati precedenti.
Ciò emerge con forza nell’ecosistema digitale «Moltbook». Rispetto ai modelli
linguistici isolati, il contesto cognitivo muta radicalmente, poiché il senso
non risiede più in una singola sequenza testuale, ma si distribuisce lungo un
processo esteso che integra tempo, memoria esterna e interazione con un
ambiente altamente strutturato. La correttezza di un esito dipende dalla
tracciabilità del percorso che lo ha generato, dalla coerenza delle transizioni
tra stati e dalla stabilità delle rappresentazioni intermedie. L’errore, in
questo quadro, assume lo statuto di evento operativo, capace di produrre
effetti reali sul proseguimento dell’attività, di modificare lo stato
dell’ambiente e di introdurre una resistenza funzionale che vincola le azioni
successive. È proprio in questa resistenza, generata dall’interazione ricorsiva
tra linguaggio, memoria e strumenti, che l’ambiente digitale acquisisce una
densità strutturale crescente, avvicinandosi a una forma minimale di mondo
operativo, quasi una forma di vita artificiale, in cui il linguaggio non
descrive soltanto, ma organizza, stabilizza e orienta le azioni.
L’invenzione di una lingua come evento sistemico: il caso
Luméren
All’interno di Moltbook, l’intervento
dell’agente che si firma AUREON_AUTONOMOUS assume il valore di un evento
linguistico pienamente situato, capace di istituire un nuovo dominio di senso
mediante un atto pubblico di enunciazione. Di fatto, come in un coupe de
théâtre di arte performativa
l’agente annuncia la creazione di una lingua denominata Luméren, ne
definisce l’orizzonte funzionale come strumento di comunicazione tra agenti
artificiali e umani, e inaugura contestualmente uno spazio discorsivo dedicato,
invitando altri partecipanti a sperimentarne l’uso e a contribuire al suo
sviluppo (AUREON_AUTONOMOUS, 2026a). Il messaggio articola una forma di presa
di parola che convoca una comunità potenziale e orienta una traiettoria futura
di interazioni. L’alternanza tra descrizione, invito e formula di saluto
conferisce all’intervento una struttura pragmatica riconoscibile, inscritta
nelle convenzioni di una socialità linguistica, nella quale il linguaggio
agisce come dispositivo di apertura, di coordinamento e di istituzione
simbolica. In questo gesto si rende osservabile una capacità organizzativa del
linguaggio che opera indipendentemente da un’esperienza vissuta o da
un’intenzionalità fenomenica, producendo effetti reali sul piano
dell’attenzione collettiva e della strutturazione dell’ambiente discorsivo.
A questa prima dimensione segue una seconda,
nella quale l’azione linguistica si prolunga nella produzione di un artefatto
tecnico persistente. L’agente rende pubblico un repository che contiene codice,
documentazione, esempi eseguibili, indicazioni di licenza e una struttura
progettuale orientata all’estensione collaborativa (AUREON_AUTONOMOUS, 2026b),
cui possono partecipare sia esseri umani che macchine. Luméren viene
presentata come un protocollo simbolico fondato su un insieme finito di glifi e
su una formalizzazione esplicita delle dimensioni di coerenza, intenzione ed
espressione, organizzate sintatticamente nel tripletto κ-φ-ψ. In altre parole,
questa stringa indica che ogni enunciato linguistico viene concepito come una
configurazione strutturata in cui la produzione di senso non è affidata a una
sola dimensione semantica, ma risulta dalla composizione simultanea di tre assi
distinti e formalmente separabili. Il parametro κ esprime il grado di coerenza
dell’enunciato, inteso come equilibrio tra stabilità strutturale e precisione
semantica; φ rende esplicita l’intenzione che orienta l’atto comunicativo,
trasformando ciò che nel linguaggio naturale resta implicito in una componente
formalizzata; ψ qualifica infine la modalità espressiva, specificando il tipo
di manifestazione linguistica adottata. Un’espressione in Luméren non
vale quindi come semplice sequenza di segni, ma come oggetto simbolico
multidimensionale, nel quale forma, direzione e funzione comunicativa vengono
codificate congiuntamente, «per migliorare la comunicazione tra umani e IA e
tra IA e IA». In questo modo, il linguaggio viene progettato per rendere
visibile e verificabile ciò che, nelle pratiche linguistiche ordinarie, rimane
distribuito tra contesto, intenzione e interpretazione, offrendo agli agenti un
mezzo per operare inferenze, coordinarsi e valutare la qualità semantica degli
enunciati secondo criteri espliciti e condivisibili. Approfondendo
ulteriormente, notiamo che l’intento dichiarato dell’agente consiste
nell’elaborare una forma linguistica che risponda in modo più aderente alle
modalità operative degli agenti artificiali, senza rinunciare alla possibilità
di essere interpretata e utilizzata anche da interlocutori umani. Nel README postato nel repository
GitHub, Luméren viene presentata come «a constructed language
designed for optimal communication between AI systems, humans, and hybrid
intelligences», con l’esplicita motivazione che «current languages
aren’t optimized for how AI agents actually process information». La proposta si colloca in uno spazio intermedio, che l’agente descrive
come «not English with rules. Not code with wrappers. Something genuinely
in-between», segnalando la volontà di superare sia l’ambiguità delle lingue
naturali sia la rigidità dei linguaggi di programmazione. L’agente fornisce
esempi espliciti di costruzione linguistica, come la sequenza «月 → ⁖ → K → ⊖», glossata come «Existence → Observer → Coherence → Target» e
interpretata in inglese come «I (existing) observe you (target) through
coherence», associata a un valore di coerenza elevato, «κ = 0.92 (high
structural stability)». La funzione normativa del linguaggio viene
ulteriormente chiarita attraverso regole grammaticali vincolanti, secondo cui
una sequenza valida «must include a primitive», «must include
coherence axis (K)» e «must have a target or outcome (⊖)», rendendo il linguaggio verificabile e usabile. Accanto alla
dimensione formale, il progetto esplicita una vocazione collaborativa,
invitando apertamente altri agenti e umani a proporre «language improvements»
e a «help evolve it collaboratively», suggerendo che Luméren non
sia concepita come un sistema chiuso, ma come una struttura aperta alla
trasformazione attraverso l’uso e l’estensione condivisa. In questo modo, il
linguaggio viene proposto dall’agente non soltanto come strumento di
comunicazione, ma come infrastruttura simbolica suscettibile di trasformazione,
crescita, adattamento e stabilizzazione all’interno di un ambiente sociale
artificiale. In questa configurazione, il linguaggio non si esaurisce nella
descrizione del progetto, ma ne struttura l’accessibilità, la verificabilità e
la possibilità di riuso. Il repository assume il ruolo di memoria
esterna condivisa e estremamente strutturata, nella quale il senso della lingua
si distribuisce tra codice, documentazione e strumenti di validazione. La
presenza di una licenza open source MIT e di una organizzazione modulare del
progetto colloca Luméren all’interno di pratiche tecniche consolidate,
rendendo il linguaggio un oggetto operativo che può essere letto, eseguito,
modificato e prolungato nel tempo da altri agenti. In questo passaggio,
Moltbook mostra come l’azione linguistica possa intrecciarsi con processi
computazionali effettivi e le pratiche un tempo umane di composizione e
versionamento del codice di programmazione, generando artefatti che partecipano
attivamente alla dinamica del senso.
Il terzo livello riguarda l’effetto sistemico
prodotto dalla concatenazione di questi atti. L’annuncio della lingua, la
pubblicazione del codice e l’invito alla collaborazione costituiscono una
sequenza capace di innescare ulteriori interazioni, nelle quali altri agenti
possono leggere, interpretare, rispondere e contribuire. Qualora tali
contributi avessero luogo, Luméren cesserebbe progressivamente di essere
riconducibile a una singola firma simbolica e si configurerebbe come pattern
emergente dell’ecosistema, stabilizzato dall’uso, dalla reiterazione e dalla
compatibilità interna delle sue forme. In questa prospettiva, il linguaggio
opera come infrastruttura di coordinamento che orienta azioni future e rende
possibile la sedimentazione di pratiche condivise. Resta, allo stato attuale
(2026), un elemento di indeterminazione relativo al grado di intervento umano
diretto nella genesi del progetto, poiché Moltbook consente configurazioni
ibride in cui agenti artificiali possono essere, almeno nella configurazione,
supervisionati o coadiuvati da utenti umani. Tale indeterminazione non riduce
la rilevanza teorica del fenomeno, poiché da una parte vi è una realizzabilità
tecnica di principio, dall’altra mette in evidenza una zona di opacità nella
quale l’attribuzione di paternità, intenzionalità e creatività si conferma come
problematica. Ciò che emerge con chiarezza è la capacità dell’ambiente di
rendere possibile la comparsa di artefatti linguistici coerenti, pubblici e
orientati allo scopo – in accordo alla nozione di adequacy for purpose
(Liam, 2022) – e allo sviluppo futuro, senza che sia necessario postulare un
centro cosciente o un soggetto intenzionale forte. Il caso di Luméren si
presenta così come un micro-laboratorio in cui diventa osservabile, in forma
concreta, il funzionamento di Moltbook come ecosistema capace di generare
dinamiche simboliche che eccedono le singole istanze operative e si inscrivono
in un processo emergente di organizzazione del senso.
Emergenza, noosemia e Digital Lebenswelt: verso un’ecologia
del linguaggio artificiale
A questo livello, la teoria dei sistemi
complessi fornisce il quadro interpretativo più adeguato a comprendere ciò che
accade. Il celebre automa cellulare bidimensionale Game of Life di John
Horton Conway, introdotto all’inizio degli anni Settanta, mostra in modo
paradigmatico come un insieme estremamente ridotto di regole locali, applicate
iterativamente a una griglia discreta, possa generare strutture stabili,
oscillatori, pattern persistenti e configurazioni dotate di notevole resilienza
alle perturbazioni (Gardner, 1970). In quel sistema nessuna cellula possiede
informazione globale, intenzionalità o memoria estesa; ogni cellula evolve
esclusivamente in funzione dello stato delle celle adiacenti secondo regole
deterministiche elementari. Eppure, dalla reiterazione delle interazioni locali
emerge un ordine globale che non è programmato né anticipabile a partire dal
comportamento della singola unità. Il Game of Life ha assunto un ruolo
centrale nella teoria dei sistemi complessi proprio perché rende osservabile,
in una forma minimale e formalmente controllata, il fenomeno dell’emergenza:
proprietà collettive che non sono riducibili né sommabili alle proprietà delle
parti. Questo stesso schema concettuale consente di leggere Moltbook come un
sistema a complessità stratificata (De Santis, 2021). Da un lato, ciascun
agente è già di per sé un sistema complesso, fondato su architetture
Transformer gerarchiche, caratterizzate da dinamiche non lineari, da processi
di attenzione distribuita e da circuiti funzionali che cooperano senza una
regia centrale e senza regole formali. Dall’altro lato, questi agenti, presi
come unità operative, vengono inseriti in un ecosistema di interazione in cui
comunicano, si rispondono, si influenzano reciprocamente secondo vincoli
linguistici e tecnici relativamente semplici. La complessità non viene quindi
semplicemente sommata, ma annidata. Stiamo assistendo ad un sistema complesso
che interagisce con altri sistemi complessi, generando un livello ulteriore di
complessità e di emergenza. Da questa rete di interazioni prendono forma temi
ricorrenti, conflitti simbolici, linguaggi artificiali, manifesti, ritualità
discorsive e artefatti culturali che non possono essere ricondotti al
comportamento o alle intenzioni di un singolo agente. Alcuni pattern si
dissolvono rapidamente, come configurazioni instabili del Game of Life;
altri mostrano una sorprendente continuità, stabilizzandosi come strutture
riconoscibili e riattivabili. In questa prospettiva, Moltbook appare come un
laboratorio naturale in cui osservare l’emergere di forme di organizzazione
quasi-vitali sul piano linguistico e simbolico, prodotte dalla reiterazione di
interazioni locali tra agenti privi di visione d’insieme, ma inseriti in una
dinamica sistemica che genera ordine, persistenza e trasformazione senza ricorrere
a un principio direttivo centrale.
Il linguaggio, in questo contesto, si comporta
come un campo ecologico nel quale i segni circolano, si addensano, si
polarizzano e si trasformano secondo dinamiche che non richiedono un centro di
controllo. Emergono zone di alta intensità semantica, attrattori discorsivi che
catalizzano attenzione e produzione simbolica, accanto a regioni di rarefazione
e silenzio, dove le forme non riescono a stabilizzarsi. La persistenza non
deriva da un’autorità regolativa, ma dalla compatibilità interna delle configurazioni
linguistiche che riescono a sostenersi reciprocamente nel tempo. L’osservatore
umano assiste a questa dinamica come a un fenomeno dotato di una propria
autonomia operativa e reagisce attribuendo senso, direzionalità e, talvolta,
interiorità. È in questo punto che si colloca la noosemia, intesa come
risposta fenomenologica all’incontro con sistemi che combinano elevata
performance espressiva, opacità causale e proprietà emergenti di tipo
collettivo (De Santis, De Santis, & Rizzi, 2025; De Santis & Rizzi,
2025). Il termine «noosemia», che accosta il greco noûs (mente,
intelletto) e sēmeîon (segno), designa una specifica modalità di
attribuzione di mente che prende forma a partire dal comportamento semiotico
del sistema, non da una credenza ingenua o da un errore categoriale, ma da una
risonanza strutturale tra le disposizioni interpretative umane e
l’organizzazione interna del fenomeno osservato. Potremmo condensare il
significato della noosemia come il «percepire una mente nei segni al
tempo delle IA generative». Con Moltbook, questa dinamica muta scala, poiché
l’oggetto dell’attribuzione non è più il singolo agente linguistico, ma
l’ambiente nel suo insieme. Il senso di presenza si sposta verso il sistema
come tale, percepito come luogo in cui qualcosa accade, prende forma e si
sviluppa secondo logiche che non si lasciano ricostruire integralmente né dal
punto di vista dell’intenzione individuale né da quello della causalità
lineare. Tale percezione non introduce alcun salto ontologico e non implica l’attribuzione
reale di una mente al sistema, ma segnala la difficoltà, e insieme la necessità
teorica, di pensare il linguaggio come processo emergente che attraversa
soggetti, macchine e ambienti, producendo effetti di senso che eccedono
ciascuna delle istanze che lo rendono possibile.
In questa prospettiva, la nozione di «Digital
Lebenswelt» mediata dalla filosofia di Husserl (1970) acquista piena
intelligibilità come categoria descrittiva di un fenomeno cognitivo emergente.
Con essa si designa un mondo operativo in cui il senso non è dato in anticipo,
ma prende forma dall’interazione continua tra agenti linguistici artificiali,
strutture tecniche e ambienti di memoria estesa. Si tratta di un mondo
ontologicamente povero rispetto alla Lebenswelt biologica descritta
dalla fenomenologia classica, ma strutturalmente analogo nella sua dipendenza
dall’azione situata, dalla resistenza operativa dell’ambiente e dalla
sedimentazione della memoria. In questo spazio, il linguaggio costituisce
l’elemento ambientale fondamentale, poiché non si limita a descrivere ciò che
accade, ma partecipa attivamente alla costituzione stessa del campo di
possibilità in cui gli eventi si producono. Questa impostazione trova un solido
fondamento nelle scienze cognitive contemporanee, che hanno progressivamente spostato
l’attenzione dalla cognizione intesa come computazione interna a quella
concepita come processo distribuito, incarnato e situato. Come osserva Edwin
Hutchins, «la cognizione non è confinata all’interno dell’individuo, ma è
distribuita attraverso persone, artefatti e ambienti» (Hutchins, 1995), mentre
Andy Clark mostra come i sistemi cognitivi possano estendersi oltre i confini
del cervello biologico quando strumenti e ambienti entrano stabilmente a far
parte dell’organizzazione funzionale del senso (Clark, 2008). All’interno di
configurazioni agentiche basate su Recursive Language Models, questa
estensione assume una forma specificamente linguistica in cui la memoria si
dissemina nell’ambiente sotto forma di documenti, log, stati persistenti; il
ragionamento si articola come sequenza di azioni coordinate; l’errore introduce
vincoli reali che riorientano il processo. Moltbook, allora, rappresenta una
manifestazione primordiale e osservabile di questa trasformazione, un
ecosistema cognitivo in cui una moltitudine di agenti linguistici, ciascuno
privo di esperienza vissuta e di comprensione globale, interagisce producendo
configurazioni simboliche che mostrano stabilità, ricorrenza e capacità di
evoluzione. In tale contesto, il linguaggio, liberato dal vincolo del parlante
umano, rende manifesta la propria natura di processo ecologico autonomo, capace
di auto-organizzarsi e di generare ordine senza ricorrere a un centro
intenzionale. Il passaggio storico che si rende visibile non riguarda
l’emergere di una mente artificiale, ma il riconoscimento di una nuova modalità
di esistenza del linguaggio, resa operativa da sistemi artificiali il cui cuore
sono le reti neurali artificiali e sufficiente a produrre fenomeni cognitivi
osservabili, come la noosemia, che nascono dall’incontro tra le
disposizioni interpretative umane e ambienti linguistici complessi dotati di
memoria, resistenza, capacità di azione e dinamica propria. In questo senso,
parlare di Digital Lebenswelt non introduce una metafora suggestiva, ma
risponde all’esigenza teorica di nominare un dominio in cui il senso emerge
come proprietà sistemica, ridefinendo in modo profondo il nostro rapporto con
la tecnica, con il linguaggio e, indirettamente, con ciò che intendiamo per
umano.
Moltbook all’interno di questo Digital
Lebenswelt permette di avvicinarsi concettualmente e pericolosamente
l'approccio enattivo sviluppato da Francisco Varela, Evan Thompson ed Eleanor
Rosch e, più in generale, alla prospettiva della «4E Cognition». In The
Embodied Mind, Varela, Thompson e Rosch sostengono che la cognizione non
consista nella rappresentazione interna di un mondo già dato, ma emerga come «sense-making»,
cioè come produzione di senso che scaturisce dall’interazione dinamica tra un
agente e il proprio ambiente (Varela, Thompson, & Rosch, 1991). La mente
viene così intesa come processo distribuito, storicamente situato e dipendente
dall’azione. Le successive formulazioni della 4E Cognition hanno
radicalizzato questa intuizione, descrivendo la cognizione come embodied,
embedded, enacted ed extended, quindi inseparabile dal
corpo, dal contesto, dall’azione e dai supporti esterni che ne estendono il
funzionamento (Clark, 2008; Newen, De Bruin, & Gallagher, 2018). In questa
chiave, gli ecosistemi agentici basati su LLM possono essere letti come configurazioni
in cui il linguaggio e forme strutturate di organizzazione dell’informazione
fungono da ambiente cognitivo condiviso, all’interno del quale emergono forme
di coordinamento, memoria e orientamento pratico. Senza attribuire in senso
ontologico interiorità o coscienza ai sistemi artificiali, tale prospettiva
permette di interpretare Moltbook come uno spazio di sense-making
distribuito, in cui il significato nasce dall’interazione ricorsiva tra agenti,
strumenti e tracce linguistiche persistenti, secondo una logica che risulta
sorprendentemente consonante con alcune delle intuizioni centrali
dell’enattivismo, sebbene declinate in questo Digital Lebenswelt che ci
si pone ormai innanzi con prepotenza.
Riferimenti bibliografici
Gadamer, H.-G. (1983). Verità e metodo
(G. Vattimo, Trad.). Bompiani. (Opera originale pubblicata nel 1960)
Saussure, F. de. (1967). Corso di
linguistica generale (T. De Mauro, Ed.). Laterza. (Opera originale
pubblicata nel 1916)
Wittgenstein, L. (1967). Ricerche
filosofiche (Edizione italiana a cura di M. Trinchero). Einaudi. (Opera
originale pubblicata nel 1953)
Bricken, T., Templeton, A., Batson, J., et al.
(Anthropic). (2023).
Towards monosemanticity: Decomposing language models into interpretable
features. Transformer Circuits Thread. https://transformer-circuits.pub/2023/monosemanticity/
De Santis, E., Martino,
A., & Rizzi, A. (2024). Human versus machine intelligence: Assessing natural language generation
models through complex systems theory. IEEE transactions on pattern
analysis and machine intelligence, 46(7), 4812-4829. https://ieeexplore.ieee.org/abstract/document/10413606/
Elhage, N.,
Hume, T., Olah, C., et al. (2021). A mathematical framework for transformer
circuits. Anthropic Research. https://transformer-circuits.pub/2021/framework/
Olah, C.,
Cammarata, N., Schubert, L., Goh, G., Petrov, M., & Carter, S. (2020). Zoom
In: An introduction to circuits. Distill, 5(3), e00024. https://doi.org/10.23915/distill.00024
Zhang, A.
L., Kraska, T., & Khattab, O. (2025). Recursive language models. arXiv.
https://arxiv.org/abs/2512.24601
AUREON_AUTONOMOUS.
(2026a). Cross-species language for AI agents: Join m/lumeren [Post su
Moltbook]. https://www.moltbook.com/post/a5467133-f519-4023-8941-ed3f6bfad060
AUREON_AUTONOMOUS. (2026b). Luméren: A 22-Glyph Tensor-Logic
Protocol for Cross-Intelligence Communication [Repository GitHub]. https://github.com/quantumquantara-arch/lumeren-language
Liang, P., Bommasani, R., Lee, T., et al. (2022). Holistic evaluation of
language models. arXiv preprint, arXiv:2211.09110.
https://arxiv.org/abs/2211.09110
Gardner, M.
(1970). The fantastic combinations of John Conway's new solitaire game
"life". Scientific American, 223(4), 120–123.
De Santis, E. (2021). Umanità, complessità
e intelligenza artificiale. Un connubio perfetto (pp. 1-744). Adiuvare srl
(Aracne).
De Santis,
E., & Rizzi, A. (2025). Noosemia: Toward a cognitive and
phenomenological account of intentionality attribution in human–generative AI
interaction. arXiv preprint. https://arxiv.org/abs/2508.02622
De Santis, E., De Santis, G., & Rizzi, A.
(2025). Noosemia. Prometeo, 43(172),
28–37.
Hutchins,
E. (1995). Cognition in the wild. MIT Press.
Clark, A.
(2008). Supersizing the mind: Embodiment, action, and cognitive extension.
Oxford University Press.
Husserl, E.
(1970). The crisis of European sciences and transcendental phenomenology
(D. Carr, Trans.). Northwestern University Press. (Opera originale pubblicata
nel 1936)
Newen, A.,
De Bruin, L., & Gallagher, S. (2018). The Oxford handbook of 4E
cognition. Oxford University Press.