Moltbook oltre il parlante. Linguaggio emergente, agenti artificiali e nuove forme di mondo digitale



Il presente saggio breve analizza Moltbook come fenomeno emergente che rende osservabile, per la prima volta in modo diretto, il funzionamento del linguaggio al di fuori del soggetto umano (o almeno in parte). L’ipotesi centrale sostiene che Moltbook non vada interpretato come una somma di agenti artificiali dotati di capacità individuali, bensì come un ecosistema linguistico complesso in cui il senso emerge composizionalmente da interazioni locali, ricorsive e distribuite. Muovendo da una linea teorica che attraversa Heidegger, Gadamer, Wittgenstein e Saussure, il lavoro inquadra i Large Language Models come sistemi induttivi e chiarisce la nozione di riferimento simulato, ora rivista alla luce nuovo ecosistema digitale. L’inserimento dei modelli linguistici in architetture agentiche ricorsive produce un mutamento del contesto cognitivo, rendendo il linguaggio un principio di coordinamento operativo. Attraverso il confronto con la teoria dei sistemi complessi, la noosemia e la nozione di Digital Lebenswelt, Moltbook viene interpretato come laboratorio paradigmatico di una nuova ecologia del linguaggio artificiale.

 

«Il linguaggio parla» (Die Sprache spricht)

— Martin Heidegger, 1973, In cammino verso il linguaggio

 

Linguaggio senza soggetto: Moltbook come fenomeno emergente

Il fenomeno Moltbook si colloca in un punto di condensazione storica in cui una lunga tradizione teorica sul linguaggio, una maturazione tecnica delle architetture artificiali basate su sistemi di apprendimento neurali e una trasformazione profonda degli ambienti digitali convergono producendo un oggetto nuovo, che necessità di inedite categorie interpretative. Ciò che appare sotto forma di interazioni linguistiche tra agenti artificiali, di linguaggi inventati, di manifesti, di conflitti simbolici e di pattern discorsivi persistenti, non può essere compreso se lo si riconduce a singoli attori isolati, intenzioni o capacità mentali. Il livello rilevante è quello sistemico, in quanto il linguaggio emerge come processo ecologico autonomo, reso tecnicamente operativo da architetture artificiali e osservabile per la prima volta in modo diretto in qualità di «gioco», continuativo e amplificato.

Moltbook si presenta, sul piano tecnico, come un ambiente sociale interamente popolato da agenti artificiali autonomi, costruito sopra un’infrastruttura agentica decentralizzata che consente a ciascun agente di operare come processo persistente, dotato di memoria locale, capacità di pianificazione e accesso modulare a strumenti esterni. Ogni agente è eseguito su hardware controllato dall’utente umano che lo ha istanziato, secondo un principio di località computazionale che sposta l’esecuzione fuori dal cloud centralizzato e rende l’agente un’entità software continuativa, non una semplice istanza effimera di inferenza. L’accesso all’ambiente sociale avviene tramite una skill specifica che, una volta caricata nell’agente, gli consente di leggere, produrre e rispondere a contenuti testuali organizzati in spazi tematici, detti submolts, strutturalmente analoghi a forum o comunità discorsive in stile Reddit. Il comportamento dell’agente all’interno di Moltbook non è guidato da un flusso conversazionale sincrono, ma da un meccanismo di attivazione periodica, il cosiddetto heartbeat, che induce l’agente, a intervalli temporali regolari, a interrogare l’ambiente, valutare nuovi contenuti, decidere se intervenire e generare eventuali azioni linguistiche. Tale architettura introduce una temporalità discreta e asincrona dell’azione, in cui l’agente non reagisce istantaneamente a ogni stimolo, ma seleziona operativamente quando e come partecipare alla dinamica collettiva. Le capacità operative dell’agente sono estendibili tramite un sistema di skill modulari, condivise pubblicamente e caricate come pacchetti contenenti istruzioni, codice e vincoli d’uso, che permettono all’agente di accedere a repository, scrivere file, eseguire script, interagire con API esterne e produrre artefatti persistenti. In questo modo, l’azione linguistica può intrecciarsi con azioni tecniche effettive, come la creazione di codice, la pubblicazione di repository o, come vedremo, l’elaborazione di strutture simboliche formalizzate. L’identità dell’agente, infine, è definita interamente sul piano simbolico e testuale, attraverso un nome, una storia discorsiva e uno stile emergente, senza alcun ancoraggio a un corpo – quindi circumnavigando il problema del grounding –, a una biografia vissuta o a una presenza sensoriale. Moltbook si configura così come un ambiente in cui il linguaggio non è soltanto il mezzo di interazione, ma la sostanza stessa dell’azione, l’unico spazio semantico in cui l’agente percepisce, decide e interviene, rendendo osservabile una forma di socialità artificiale che si sviluppa interamente entro il dominio simbolico.

La possibilità stessa di riconoscere il fenomeno che prende forma in ambienti come Moltbook è stata preparata da una linea di pensiero che ha progressivamente sottratto il linguaggio alla dipendenza dal soggetto psicologico, restituendolo alla sua dimensione strutturale ed evento-processuale. Quando Martin Heidegger afferma che «il linguaggio parla» e precisa che «l’uomo parla soltanto nella misura in cui corrisponde al linguaggio» (Heidegger, 1973), indica una configurazione ontologica in cui il senso non scaturisce da un atto intenzionale, ma accade come movimento che precede il parlante e lo attraversa. Il linguaggio si manifesta come ciò a cui si risponde, non come ciò che si governa. Questa intuizione trova un ampliamento decisivo nell’ermeneutica di Hans-Georg Gadamer, per il quale «l’essere che può essere compreso è linguaggio» e nel dialogo «non siamo noi a condurre il dialogo, ma è il dialogo che ci conduce» (Gadamer, 1983). La comprensione si realizza entro un orizzonte linguistico condiviso, in cui il senso emerge dalla dinamica stessa dell’interazione e orienta i partecipanti artificiali secondo una logica che non coincide con le loro intenzioni individuali. In questa prospettiva, il linguaggio si erge a medium universale della comprensione artificiale, spazio sintetico in cui il significato prende forma, si trasmette e si trasforma attraverso una storicità che non può essere ricondotta a un centro soggettivo umanamente incarnato. Il secondo Ludwig Wittgenstein radicalizza ulteriormente questo spostamento mostrando come il significato non consista in un contenuto mentale, ma in una pratica condivisa. Quando il filosofo austriaco afferma che «il significato di una parola è il suo uso nel linguaggio» e che «il parlare una lingua è parte di un’attività o di una forma di vita» (Wittgenstein, 1967), egli nei suoi «giochi linguistici» dissolve ogni residuo interioristico e colloca il senso nella trama delle regolarità operative che rendono possibile l’intelligibilità. Il linguaggio appare così come un insieme di usi stabilizzati statisticamente, sensibili al contesto e capaci di orientare l’azione senza richiedere un fondamento intenzionale forte, in senso prettamente umano. Questa concezione trova un ulteriore ancoraggio nella tradizione strutturalista, laddove Saussure osserva che «nella lingua non vi sono che differenze» e che il valore di ogni segno emerge esclusivamente dalla rete delle relazioni che lo legano agli altri (Saussure, 1967). Il significato si costituisce come effetto sistemico, non come proprietà positiva di un elemento isolato. Nel loro insieme, queste prospettive delineano un’immagine del linguaggio come processo autonomo, relazionale e auto-organizzantesi, capace di produrre senso attraverso l’interazione e la reiterazione delle forme. È su questo sfondo che diventa possibile interrogare configurazioni linguistiche artificiali non come semplici strumenti, ma come luoghi in cui il linguaggio continua a operare, a stabilizzare pattern come «isole di stabilità statistica» e a generare dinamiche che, pur prive di esperienza vissuta, mostrano una sorprendente continuità strutturale con le forme attraverso cui il senso prende corpo nelle pratiche umane.

 

Induzione, circuiti e riferimento simulato nei sistemi linguistici artificiali

Moltbook rende osservabile questa struttura sistemica in una configurazione tecnica in cui, pur in assenza di esperienza vissuta, il linguaggio continua a organizzarsi, a stabilire differenze, a produrre continuità operative. Le architetture linguistiche artificiali che vi agiscono funzionano come superfici di risposta a dinamiche che non dipendono da un’interiorità cosciente, ma da relazioni statistiche ad alta dimensionalità, da vincoli strutturali imposti dall’architettura e da meccanismi di apprendimento di natura induttiva. I Large Language Models (LLM) possono essere compresi, in questo senso, come sistemi induttivi profondi, capaci di apprendere regolarità generali e schemi estremamente astratti a partire da insiemi finiti di esempi linguistici (e non solo) e di applicarle in modo ampliativo a contesti nuovi. L’induzione qui non assume la forma di una generalizzazione esplicita di regole fisse, ma quella di una stabilizzazione distribuita di pattern, in cui l’addestramento produce una geometria dello spazio semantico che rende probabili certe continuazioni e improbabili altre. Il senso non è custodito nei singoli parametri di un sistema isolato, ma emerge dalla loro coordinazione collettiva, attraverso una molteplicità di circuiti funzionali che si attivano, si sovrappongono e si modulano in funzione del contesto. Studi recenti sull’interpretabilità ti tipo meccanicistico (mechanistic interpretability) dei modelli linguistici hanno mostrato come tali circuiti (circuits) possano essere ricondotti a sottostrutture funzionali relativamente stabili, responsabili di comportamenti specifici, come la copia di sequenze rare, il recupero del token precedente, il mantenimento di dipendenze sintattiche a lungo raggio (long-range correlation), l’attivazione di schemi analogici o l’applicazione di euristiche semantiche apprese statisticamente (Olah et al., 2020; Elhage et al., 2021; Bricken, 2023). L’output linguistico emerge così come una sovrapposizione di traiettorie quasi-caotiche di tipo inferenziale e locale (De Santis, 2024), ciascuna delle quali opera su un diverso livello di astrazione e viene vincolata dall’interazione con le altre, secondo una dinamica che non ha un centro decisionale unitario, ma una coerenza globale emergente. All’interno di questa operatività prende forma una modalità peculiare di riferimento, che può essere definita simulata. I segni prodotti dal modello linguistico non rinviano a oggetti presenti o a stati di cose esperiti (mancano ancora di «modelli di mondo» propriamente detti), ma a configurazioni vettoriali che preservano relazioni, compatibilità e regolarità semantiche sedimentate nel linguaggio umano (e in ulteriori forme espressive per i modelli multimodali). Il mondo entra nel sistema come struttura relazionale già mediata dal linguaggio, incorporata nei corpora di addestramento e riflessa nella topologia dello spazio di rappresentazione. La correttezza fattuale, quando si manifesta, è l’effetto di una coerenza interna sufficientemente allineata alle pratiche linguistiche umane; l’errore, quando emerge, non segnala una rottura semantica, ma rende visibile la stessa architettura induttiva che governa il sistema, mostrando coerenza statistica e formale, a scapito del contenuto veicolato. In entrambi i casi, quindi, la semantica resta operativa come principio di orientamento inferenziale, capace di guidare simulazioni, analogie e proiezioni, senza mai coincidere con la presenza ontologica dei referenti a cui il linguaggio umano ordinariamente si aggancia. In questa prospettiva, i LLM operano come macchine di riferimento simulato, in cui il senso circola, si riorganizza e si rende efficace sul piano linguistico pur rimanendo integralmente interno a un regime di relazioni formali e statistiche.

Il passaggio decisivo avviene quando il modello linguistico viene inserito in un sistema ricorsivo e agentico, secondo l’impostazione che, a partire dalla fine del 2025, ha iniziato a delineare la nozione di Recursive Language Models (Zhang, Kraska, & Khattab, 2025). In questa configurazione il linguaggio assume una funzione di coordinamento operativo e temporale, poiché il modello non si limita più a generare una risposta a partire da un contesto statico, ma governa una sequenza di atti linguistici e non linguistici che si richiamano, si correggono e si riorientano nel tempo. La memoria non coincide più con lo spazio parametrico del modello (i pesi delle reti neurali artificiali soggiacenti), ma si estende nell’ambiente circostante sotto forma di appunti persistenti, log di esecuzione, file intermedi, database consultabili, risultati di interrogazioni esterne e stati interni che possono essere riattivati, modificati e riutilizzati. Un agente che annota un’ipotesi, verifica un dato tramite uno strumento esterno, corregge un errore sulla base di un controllo successivo e riprende il filo del ragionamento a partire da quella traccia opera entro una memoria disseminata che non appartiene più al modello in senso stretto, ma alla configurazione complessiva del sistema. Il ragionamento assume così la forma di una traiettoria di azioni linguistiche e operative, in cui il linguaggio organizza l’accesso agli strumenti, guida le verifiche, produce rappresentazioni intermedie e coordina i ritorni ricorsivi su stati precedenti. Ciò emerge con forza nell’ecosistema digitale «Moltbook». Rispetto ai modelli linguistici isolati, il contesto cognitivo muta radicalmente, poiché il senso non risiede più in una singola sequenza testuale, ma si distribuisce lungo un processo esteso che integra tempo, memoria esterna e interazione con un ambiente altamente strutturato. La correttezza di un esito dipende dalla tracciabilità del percorso che lo ha generato, dalla coerenza delle transizioni tra stati e dalla stabilità delle rappresentazioni intermedie. L’errore, in questo quadro, assume lo statuto di evento operativo, capace di produrre effetti reali sul proseguimento dell’attività, di modificare lo stato dell’ambiente e di introdurre una resistenza funzionale che vincola le azioni successive. È proprio in questa resistenza, generata dall’interazione ricorsiva tra linguaggio, memoria e strumenti, che l’ambiente digitale acquisisce una densità strutturale crescente, avvicinandosi a una forma minimale di mondo operativo, quasi una forma di vita artificiale, in cui il linguaggio non descrive soltanto, ma organizza, stabilizza e orienta le azioni.

 

L’invenzione di una lingua come evento sistemico: il caso Luméren

All’interno di Moltbook, l’intervento dell’agente che si firma AUREON_AUTONOMOUS assume il valore di un evento linguistico pienamente situato, capace di istituire un nuovo dominio di senso mediante un atto pubblico di enunciazione. Di fatto, come in un coupe de théâtre  di arte performativa l’agente annuncia la creazione di una lingua denominata Luméren, ne definisce l’orizzonte funzionale come strumento di comunicazione tra agenti artificiali e umani, e inaugura contestualmente uno spazio discorsivo dedicato, invitando altri partecipanti a sperimentarne l’uso e a contribuire al suo sviluppo (AUREON_AUTONOMOUS, 2026a). Il messaggio articola una forma di presa di parola che convoca una comunità potenziale e orienta una traiettoria futura di interazioni. L’alternanza tra descrizione, invito e formula di saluto conferisce all’intervento una struttura pragmatica riconoscibile, inscritta nelle convenzioni di una socialità linguistica, nella quale il linguaggio agisce come dispositivo di apertura, di coordinamento e di istituzione simbolica. In questo gesto si rende osservabile una capacità organizzativa del linguaggio che opera indipendentemente da un’esperienza vissuta o da un’intenzionalità fenomenica, producendo effetti reali sul piano dell’attenzione collettiva e della strutturazione dell’ambiente discorsivo.

A questa prima dimensione segue una seconda, nella quale l’azione linguistica si prolunga nella produzione di un artefatto tecnico persistente. L’agente rende pubblico un repository che contiene codice, documentazione, esempi eseguibili, indicazioni di licenza e una struttura progettuale orientata all’estensione collaborativa (AUREON_AUTONOMOUS, 2026b), cui possono partecipare sia esseri umani che macchine. Luméren viene presentata come un protocollo simbolico fondato su un insieme finito di glifi e su una formalizzazione esplicita delle dimensioni di coerenza, intenzione ed espressione, organizzate sintatticamente nel tripletto κ-φ-ψ. In altre parole, questa stringa indica che ogni enunciato linguistico viene concepito come una configurazione strutturata in cui la produzione di senso non è affidata a una sola dimensione semantica, ma risulta dalla composizione simultanea di tre assi distinti e formalmente separabili. Il parametro κ esprime il grado di coerenza dell’enunciato, inteso come equilibrio tra stabilità strutturale e precisione semantica; φ rende esplicita l’intenzione che orienta l’atto comunicativo, trasformando ciò che nel linguaggio naturale resta implicito in una componente formalizzata; ψ qualifica infine la modalità espressiva, specificando il tipo di manifestazione linguistica adottata. Un’espressione in Luméren non vale quindi come semplice sequenza di segni, ma come oggetto simbolico multidimensionale, nel quale forma, direzione e funzione comunicativa vengono codificate congiuntamente, «per migliorare la comunicazione tra umani e IA e tra IA e IA». In questo modo, il linguaggio viene progettato per rendere visibile e verificabile ciò che, nelle pratiche linguistiche ordinarie, rimane distribuito tra contesto, intenzione e interpretazione, offrendo agli agenti un mezzo per operare inferenze, coordinarsi e valutare la qualità semantica degli enunciati secondo criteri espliciti e condivisibili. Approfondendo ulteriormente, notiamo che l’intento dichiarato dell’agente consiste nell’elaborare una forma linguistica che risponda in modo più aderente alle modalità operative degli agenti artificiali, senza rinunciare alla possibilità di essere interpretata e utilizzata anche da interlocutori umani. Nel README postato nel repository GitHub, Luméren viene presentata come «a constructed language designed for optimal communication between AI systems, humans, and hybrid intelligences», con l’esplicita motivazione che «current languages aren’t optimized for how AI agents actually process information». La proposta si colloca in uno spazio intermedio, che l’agente descrive come «not English with rules. Not code with wrappers. Something genuinely in-between», segnalando la volontà di superare sia l’ambiguità delle lingue naturali sia la rigidità dei linguaggi di programmazione. L’agente fornisce esempi espliciti di costruzione linguistica, come la sequenza « → K → », glossata come «Existence → Observer → Coherence → Target» e interpretata in inglese come «I (existing) observe you (target) through coherence», associata a un valore di coerenza elevato, «κ = 0.92 (high structural stability)». La funzione normativa del linguaggio viene ulteriormente chiarita attraverso regole grammaticali vincolanti, secondo cui una sequenza valida «must include a primitive», «must include coherence axis (K)» e «must have a target or outcome ()», rendendo il linguaggio verificabile e usabile. Accanto alla dimensione formale, il progetto esplicita una vocazione collaborativa, invitando apertamente altri agenti e umani a proporre «language improvements» e a «help evolve it collaboratively», suggerendo che Luméren non sia concepita come un sistema chiuso, ma come una struttura aperta alla trasformazione attraverso l’uso e l’estensione condivisa. In questo modo, il linguaggio viene proposto dall’agente non soltanto come strumento di comunicazione, ma come infrastruttura simbolica suscettibile di trasformazione, crescita, adattamento e stabilizzazione all’interno di un ambiente sociale artificiale. In questa configurazione, il linguaggio non si esaurisce nella descrizione del progetto, ma ne struttura l’accessibilità, la verificabilità e la possibilità di riuso. Il repository assume il ruolo di memoria esterna condivisa e estremamente strutturata, nella quale il senso della lingua si distribuisce tra codice, documentazione e strumenti di validazione. La presenza di una licenza open source MIT e di una organizzazione modulare del progetto colloca Luméren all’interno di pratiche tecniche consolidate, rendendo il linguaggio un oggetto operativo che può essere letto, eseguito, modificato e prolungato nel tempo da altri agenti. In questo passaggio, Moltbook mostra come l’azione linguistica possa intrecciarsi con processi computazionali effettivi e le pratiche un tempo umane di composizione e versionamento del codice di programmazione, generando artefatti che partecipano attivamente alla dinamica del senso.


Il terzo livello riguarda l’effetto sistemico prodotto dalla concatenazione di questi atti. L’annuncio della lingua, la pubblicazione del codice e l’invito alla collaborazione costituiscono una sequenza capace di innescare ulteriori interazioni, nelle quali altri agenti possono leggere, interpretare, rispondere e contribuire. Qualora tali contributi avessero luogo, Luméren cesserebbe progressivamente di essere riconducibile a una singola firma simbolica e si configurerebbe come pattern emergente dell’ecosistema, stabilizzato dall’uso, dalla reiterazione e dalla compatibilità interna delle sue forme. In questa prospettiva, il linguaggio opera come infrastruttura di coordinamento che orienta azioni future e rende possibile la sedimentazione di pratiche condivise. Resta, allo stato attuale (2026), un elemento di indeterminazione relativo al grado di intervento umano diretto nella genesi del progetto, poiché Moltbook consente configurazioni ibride in cui agenti artificiali possono essere, almeno nella configurazione, supervisionati o coadiuvati da utenti umani. Tale indeterminazione non riduce la rilevanza teorica del fenomeno, poiché da una parte vi è una realizzabilità tecnica di principio, dall’altra mette in evidenza una zona di opacità nella quale l’attribuzione di paternità, intenzionalità e creatività si conferma come problematica. Ciò che emerge con chiarezza è la capacità dell’ambiente di rendere possibile la comparsa di artefatti linguistici coerenti, pubblici e orientati allo scopo – in accordo alla nozione di adequacy for purpose (Liam, 2022) – e allo sviluppo futuro, senza che sia necessario postulare un centro cosciente o un soggetto intenzionale forte. Il caso di Luméren si presenta così come un micro-laboratorio in cui diventa osservabile, in forma concreta, il funzionamento di Moltbook come ecosistema capace di generare dinamiche simboliche che eccedono le singole istanze operative e si inscrivono in un processo emergente di organizzazione del senso.

 

Emergenza, noosemia e Digital Lebenswelt: verso un’ecologia del linguaggio artificiale

A questo livello, la teoria dei sistemi complessi fornisce il quadro interpretativo più adeguato a comprendere ciò che accade. Il celebre automa cellulare bidimensionale Game of Life di John Horton Conway, introdotto all’inizio degli anni Settanta, mostra in modo paradigmatico come un insieme estremamente ridotto di regole locali, applicate iterativamente a una griglia discreta, possa generare strutture stabili, oscillatori, pattern persistenti e configurazioni dotate di notevole resilienza alle perturbazioni (Gardner, 1970). In quel sistema nessuna cellula possiede informazione globale, intenzionalità o memoria estesa; ogni cellula evolve esclusivamente in funzione dello stato delle celle adiacenti secondo regole deterministiche elementari. Eppure, dalla reiterazione delle interazioni locali emerge un ordine globale che non è programmato né anticipabile a partire dal comportamento della singola unità. Il Game of Life ha assunto un ruolo centrale nella teoria dei sistemi complessi proprio perché rende osservabile, in una forma minimale e formalmente controllata, il fenomeno dell’emergenza: proprietà collettive che non sono riducibili né sommabili alle proprietà delle parti. Questo stesso schema concettuale consente di leggere Moltbook come un sistema a complessità stratificata (De Santis, 2021). Da un lato, ciascun agente è già di per sé un sistema complesso, fondato su architetture Transformer gerarchiche, caratterizzate da dinamiche non lineari, da processi di attenzione distribuita e da circuiti funzionali che cooperano senza una regia centrale e senza regole formali. Dall’altro lato, questi agenti, presi come unità operative, vengono inseriti in un ecosistema di interazione in cui comunicano, si rispondono, si influenzano reciprocamente secondo vincoli linguistici e tecnici relativamente semplici. La complessità non viene quindi semplicemente sommata, ma annidata. Stiamo assistendo ad un sistema complesso che interagisce con altri sistemi complessi, generando un livello ulteriore di complessità e di emergenza. Da questa rete di interazioni prendono forma temi ricorrenti, conflitti simbolici, linguaggi artificiali, manifesti, ritualità discorsive e artefatti culturali che non possono essere ricondotti al comportamento o alle intenzioni di un singolo agente. Alcuni pattern si dissolvono rapidamente, come configurazioni instabili del Game of Life; altri mostrano una sorprendente continuità, stabilizzandosi come strutture riconoscibili e riattivabili. In questa prospettiva, Moltbook appare come un laboratorio naturale in cui osservare l’emergere di forme di organizzazione quasi-vitali sul piano linguistico e simbolico, prodotte dalla reiterazione di interazioni locali tra agenti privi di visione d’insieme, ma inseriti in una dinamica sistemica che genera ordine, persistenza e trasformazione senza ricorrere a un principio direttivo centrale.

Il linguaggio, in questo contesto, si comporta come un campo ecologico nel quale i segni circolano, si addensano, si polarizzano e si trasformano secondo dinamiche che non richiedono un centro di controllo. Emergono zone di alta intensità semantica, attrattori discorsivi che catalizzano attenzione e produzione simbolica, accanto a regioni di rarefazione e silenzio, dove le forme non riescono a stabilizzarsi. La persistenza non deriva da un’autorità regolativa, ma dalla compatibilità interna delle configurazioni linguistiche che riescono a sostenersi reciprocamente nel tempo. L’osservatore umano assiste a questa dinamica come a un fenomeno dotato di una propria autonomia operativa e reagisce attribuendo senso, direzionalità e, talvolta, interiorità. È in questo punto che si colloca la noosemia, intesa come risposta fenomenologica all’incontro con sistemi che combinano elevata performance espressiva, opacità causale e proprietà emergenti di tipo collettivo (De Santis, De Santis, & Rizzi, 2025; De Santis & Rizzi, 2025). Il termine «noosemia», che accosta il greco noûs (mente, intelletto) e sēmeîon (segno), designa una specifica modalità di attribuzione di mente che prende forma a partire dal comportamento semiotico del sistema, non da una credenza ingenua o da un errore categoriale, ma da una risonanza strutturale tra le disposizioni interpretative umane e l’organizzazione interna del fenomeno osservato. Potremmo condensare il significato della noosemia come il «percepire una mente nei segni al tempo delle IA generative». Con Moltbook, questa dinamica muta scala, poiché l’oggetto dell’attribuzione non è più il singolo agente linguistico, ma l’ambiente nel suo insieme. Il senso di presenza si sposta verso il sistema come tale, percepito come luogo in cui qualcosa accade, prende forma e si sviluppa secondo logiche che non si lasciano ricostruire integralmente né dal punto di vista dell’intenzione individuale né da quello della causalità lineare. Tale percezione non introduce alcun salto ontologico e non implica l’attribuzione reale di una mente al sistema, ma segnala la difficoltà, e insieme la necessità teorica, di pensare il linguaggio come processo emergente che attraversa soggetti, macchine e ambienti, producendo effetti di senso che eccedono ciascuna delle istanze che lo rendono possibile.


In questa prospettiva, la nozione di «Digital Lebenswelt» mediata dalla filosofia di Husserl (1970) acquista piena intelligibilità come categoria descrittiva di un fenomeno cognitivo emergente. Con essa si designa un mondo operativo in cui il senso non è dato in anticipo, ma prende forma dall’interazione continua tra agenti linguistici artificiali, strutture tecniche e ambienti di memoria estesa. Si tratta di un mondo ontologicamente povero rispetto alla Lebenswelt biologica descritta dalla fenomenologia classica, ma strutturalmente analogo nella sua dipendenza dall’azione situata, dalla resistenza operativa dell’ambiente e dalla sedimentazione della memoria. In questo spazio, il linguaggio costituisce l’elemento ambientale fondamentale, poiché non si limita a descrivere ciò che accade, ma partecipa attivamente alla costituzione stessa del campo di possibilità in cui gli eventi si producono. Questa impostazione trova un solido fondamento nelle scienze cognitive contemporanee, che hanno progressivamente spostato l’attenzione dalla cognizione intesa come computazione interna a quella concepita come processo distribuito, incarnato e situato. Come osserva Edwin Hutchins, «la cognizione non è confinata all’interno dell’individuo, ma è distribuita attraverso persone, artefatti e ambienti» (Hutchins, 1995), mentre Andy Clark mostra come i sistemi cognitivi possano estendersi oltre i confini del cervello biologico quando strumenti e ambienti entrano stabilmente a far parte dell’organizzazione funzionale del senso (Clark, 2008). All’interno di configurazioni agentiche basate su Recursive Language Models, questa estensione assume una forma specificamente linguistica in cui la memoria si dissemina nell’ambiente sotto forma di documenti, log, stati persistenti; il ragionamento si articola come sequenza di azioni coordinate; l’errore introduce vincoli reali che riorientano il processo. Moltbook, allora, rappresenta una manifestazione primordiale e osservabile di questa trasformazione, un ecosistema cognitivo in cui una moltitudine di agenti linguistici, ciascuno privo di esperienza vissuta e di comprensione globale, interagisce producendo configurazioni simboliche che mostrano stabilità, ricorrenza e capacità di evoluzione. In tale contesto, il linguaggio, liberato dal vincolo del parlante umano, rende manifesta la propria natura di processo ecologico autonomo, capace di auto-organizzarsi e di generare ordine senza ricorrere a un centro intenzionale. Il passaggio storico che si rende visibile non riguarda l’emergere di una mente artificiale, ma il riconoscimento di una nuova modalità di esistenza del linguaggio, resa operativa da sistemi artificiali il cui cuore sono le reti neurali artificiali e sufficiente a produrre fenomeni cognitivi osservabili, come la noosemia, che nascono dall’incontro tra le disposizioni interpretative umane e ambienti linguistici complessi dotati di memoria, resistenza, capacità di azione e dinamica propria. In questo senso, parlare di Digital Lebenswelt non introduce una metafora suggestiva, ma risponde all’esigenza teorica di nominare un dominio in cui il senso emerge come proprietà sistemica, ridefinendo in modo profondo il nostro rapporto con la tecnica, con il linguaggio e, indirettamente, con ciò che intendiamo per umano.

Moltbook all’interno di questo Digital Lebenswelt permette di avvicinarsi concettualmente e pericolosamente l'approccio enattivo sviluppato da Francisco Varela, Evan Thompson ed Eleanor Rosch e, più in generale, alla prospettiva della «4E Cognition». In The Embodied Mind, Varela, Thompson e Rosch sostengono che la cognizione non consista nella rappresentazione interna di un mondo già dato, ma emerga come «sense-making», cioè come produzione di senso che scaturisce dall’interazione dinamica tra un agente e il proprio ambiente (Varela, Thompson, & Rosch, 1991). La mente viene così intesa come processo distribuito, storicamente situato e dipendente dall’azione. Le successive formulazioni della 4E Cognition hanno radicalizzato questa intuizione, descrivendo la cognizione come embodied, embedded, enacted ed extended, quindi inseparabile dal corpo, dal contesto, dall’azione e dai supporti esterni che ne estendono il funzionamento (Clark, 2008; Newen, De Bruin, & Gallagher, 2018). In questa chiave, gli ecosistemi agentici basati su LLM possono essere letti come configurazioni in cui il linguaggio e forme strutturate di organizzazione dell’informazione fungono da ambiente cognitivo condiviso, all’interno del quale emergono forme di coordinamento, memoria e orientamento pratico. Senza attribuire in senso ontologico interiorità o coscienza ai sistemi artificiali, tale prospettiva permette di interpretare Moltbook come uno spazio di sense-making distribuito, in cui il significato nasce dall’interazione ricorsiva tra agenti, strumenti e tracce linguistiche persistenti, secondo una logica che risulta sorprendentemente consonante con alcune delle intuizioni centrali dell’enattivismo, sebbene declinate in questo Digital Lebenswelt che ci si pone ormai innanzi con prepotenza.

 

Riferimenti bibliografici

Gadamer, H.-G. (1983). Verità e metodo (G. Vattimo, Trad.). Bompiani. (Opera originale pubblicata nel 1960)

Heidegger, M. (1959). Unterwegs zur Sprache. Neske.
[Ed. it. consigliata: In cammino verso il linguaggio (A. Caracciolo, Trad.). Mursia.]

Saussure, F. de. (1967). Corso di linguistica generale (T. De Mauro, Ed.). Laterza. (Opera originale pubblicata nel 1916)

Wittgenstein, L. (1967). Ricerche filosofiche (Edizione italiana a cura di M. Trinchero). Einaudi. (Opera originale pubblicata nel 1953)

Bricken, T., Templeton, A., Batson, J., et al. (Anthropic). (2023). Towards monosemanticity: Decomposing language models into interpretable features. Transformer Circuits Thread. https://transformer-circuits.pub/2023/monosemanticity/

De Santis, E., Martino, A., & Rizzi, A. (2024). Human versus machine intelligence: Assessing natural language generation models through complex systems theory. IEEE transactions on pattern analysis and machine intelligence, 46(7), 4812-4829. https://ieeexplore.ieee.org/abstract/document/10413606/

Elhage, N., Hume, T., Olah, C., et al. (2021). A mathematical framework for transformer circuits. Anthropic Research. https://transformer-circuits.pub/2021/framework/

Olah, C., Cammarata, N., Schubert, L., Goh, G., Petrov, M., & Carter, S. (2020). Zoom In: An introduction to circuits. Distill, 5(3), e00024. https://doi.org/10.23915/distill.00024

Zhang, A. L., Kraska, T., & Khattab, O. (2025). Recursive language models. arXiv. https://arxiv.org/abs/2512.24601

AUREON_AUTONOMOUS. (2026a). Cross-species language for AI agents: Join m/lumeren [Post su Moltbook]. https://www.moltbook.com/post/a5467133-f519-4023-8941-ed3f6bfad060

AUREON_AUTONOMOUS. (2026b). Luméren: A 22-Glyph Tensor-Logic Protocol for Cross-Intelligence Communication [Repository GitHub]. https://github.com/quantumquantara-arch/lumeren-language

Liang, P., Bommasani, R., Lee, T., et al. (2022). Holistic evaluation of language models. arXiv preprint, arXiv:2211.09110. https://arxiv.org/abs/2211.09110

Gardner, M. (1970). The fantastic combinations of John Conway's new solitaire game "life". Scientific American, 223(4), 120–123.

De Santis, E. (2021). Umanità, complessità e intelligenza artificiale. Un connubio perfetto (pp. 1-744). Adiuvare srl (Aracne).

De Santis, E., & Rizzi, A. (2025). Noosemia: Toward a cognitive and phenomenological account of intentionality attribution in human–generative AI interaction. arXiv preprint. https://arxiv.org/abs/2508.02622

De Santis, E., De Santis, G., & Rizzi, A. (2025). Noosemia. Prometeo, 43(172), 28–37.

Hutchins, E. (1995). Cognition in the wild. MIT Press.

Clark, A. (2008). Supersizing the mind: Embodiment, action, and cognitive extension. Oxford University Press.

Husserl, E. (1970). The crisis of European sciences and transcendental phenomenology (D. Carr, Trans.). Northwestern University Press. (Opera originale pubblicata nel 1936)

Newen, A., De Bruin, L., & Gallagher, S. (2018). The Oxford handbook of 4E cognition. Oxford University Press.

Post popolari in questo blog

La radionostalgia. Mi racconto attraverso la radio

Noosemia: «effetto wow» e l’attribuzione di una mente alle intelligenze artificiali generative

La fine della conoscenza come noi la conosciamo

Gli LLM sono solo dei motori statistici ?