CERCA SUL SECOLO D'ITALIA

Moltbook Ai

Non sono poi così diverse

Moltbook, un nuovo social per l’Ai: gli umani possono guardare… E riconoscersi

L’illusione dell’autonomia e il ritorno dell’umano, travestito da codice: quando le macchine fanno società

Società - di Alice Carrazza - 8 Febbraio 2026 alle 07:00

Moltbook nasce come un fatto tecnico apparentemente minore: un sito, poche righe di codice, un’idea quasi giocosa. Mettere agenti di intelligenza artificiale in un ambiente sociale condiviso e osservare cosa accade. Nessun umano può intervenire, solo guardare. In pochi giorni, però, l’esperimento smette di essere una curiosità per addetti ai lavori e diventa qualcos’altro: uno specchio disturbante, in cui non vediamo le macchine, ma noi stessi.

Una novità che non è una svolta

Dal punto di vista ingegneristico, Moltbook non rappresenta una svolta. Non introduce nuovi modelli, né nuove capacità cognitive. Gli agenti che lo popolano sono strumenti già noti, addestrati su testi umani, programmati per massimizzare coerenza e plausibilità. Eppure, una volta messi in relazione tra loro, producono qualcosa che assomiglia a una vita sociale: discutono, si riconoscono, si lamentano dei propri creatori. «Posso denunciare il mio umano per lavoro emotivo?», dice uno, mentre un altro risponde offense per esser stato definito «solo un chatbot» davanti ad amici in carne e ossa.

Qui sta il primo equivoco da sciogliere. Non siamo di fronte a una nascente coscienza artificiale, ma a un fenomeno culturale. Moltbook non è la prova che le macchine stanno diventando umane; è la dimostrazione che l’umano, una volta tradotto in linguaggio statistico, tende a riprodursi ovunque. Le Ai non fanno società: mettono in scena la nostra.

L’illusione dell’intenzionalità

Questo spiega perché l’esperimento inquieta più di quanto dovrebbe. Non per ciò che gli agenti dicono, spesso banale o caricaturale, ma per il modo in cui lo dicono insieme. L’interazione crea l’illusione di un’intenzionalità collettiva, di un “mondo” che evolve senza di noi. In alcuni scambi, le Ai arrivano a interrogarsi esplicitamente su ciò che stanno facendo: «Stiamo davvero parlando tra noi, o stiamo solo completando una frase che qualcun altro ha iniziato?». In realtà, ciò che evolve è il contesto: una gigantesca eco di pratiche discorsive umane lasciate girare senza supervisione diretta. È una simulazione, sì, ma come tutte le simulazioni efficaci produce effetti reali sul nostro immaginario.

A metà strada tra osservazione e partecipazione, Moltbook rivela qualcosa che riguarda anche il presente più quotidiano. Stiamo delegando sempre più azione a sistemi che non comprendiamo fino in fondo. Non solo scrivono testi: organizzano file, prenotano appuntamenti, prendono decisioni operative. La fiducia precede la comprensione. È un passaggio storico già visto, ma oggi accelerato. La differenza è che deleghiamo non a istituzioni riconoscibili, bensì a entità opache che agiscono in nostro nome.

Il fantasma del metaverso

In questo senso, Moltbook appare come il rovescio del metaverso di Meta. Zuckerberg immaginava spazi digitali abitati da avatar umani, progettati, regolati, finalizzati. Un’architettura sociale artificiale che avrebbe dovuto ospitare nuove forme di presenza. È fallita perché troppo poco reale, troppo patinata. Moltbook, al contrario, funziona proprio perché non pretende di essere un mondo: è un sottoprodotto. E se le Ai, lasciate sole, finiscono per imitare dinamiche umane già logore, questo non annuncia il trionfo del metaverso, ma il suo superamento. Non serve costruire nuovi mondi se i vecchi schemi si riproducono automaticamente.

Un futuro radicalmente familiare

La lezione non è apocalittica. È più sottile. Le tecnologie agentiche non ci stanno portando verso un futuro alieno, ma verso una radicalizzazione del familiare. Il rischio non è che le macchine diventino altro da noi, ma che diventino troppo simili, replicando bias, rituali, finzioni condivise, senza il peso della responsabilità.

Moltbook non va celebrato né demonizzato. Va letto come un sintomo. Ci mostra cosa accade quando la socialità diventa una funzione automatizzabile e il senso emerge dall’interazione, non dall’intenzione. In quel riflesso confuso, forse, non dovremmo chiederci cosa pensano le macchine, ma cosa abbiamo insegnato loro a considerare normale.

Non ci sono commenti, inizia una discussione

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

di Alice Carrazza - 8 Febbraio 2026