Moltbook e l’illusione dell’AI autonoma: cosa ci insegna la storia del Turco Meccanico
Ogni volta che una nuova tecnologia sembra “pensare”, l’entusiasmo corre più veloce dei fatti. È successo nel Settecento. Sta succedendo di nuovo oggi con le piattaforme popolate da agenti di intelligenza artificiale.
Per capire davvero cosa rappresenta Moltbook, il social network abitato da AI, conviene fare un salto indietro di oltre due secoli.
Il Turco Meccanico: la prima grande illusione tecnologica
Nel 1770 fece la sua comparsa nelle corti europee un automa capace — almeno in apparenza — di giocare a scacchi contro esseri umani e vincere. Si chiamava Il Turco Meccanico (Mechanical Turk) ed era stato costruito dall’inventore ungherese Wolfgang von Kempelen.
La scena era teatrale: un dignitario ottomano meccanico, seduto davanti a una scacchiera, muoveva i pezzi con apparente strategia e sicurezza. Tra gli spettatori e sfidanti ci furono personalità del calibro di Benjamin Franklin e Napoleone Bonaparte. Non esattamente il pubblico di una fiera di paese.
Sembrava la prova che una macchina potesse ragionare.
La verità? Dentro la struttura era nascosto un abile giocatore umano, che osservava la scacchiera dall’interno e muoveva i pezzi tramite un sistema di leve. Non c’era alcuna intelligenza artificiale ante litteram. C’era una perfetta messa in scena dell’automazione.
Eppure, il Turco Meccanico fece qualcosa di potentissimo: mise in circolazione un’idea. L’idea che le macchine potessero pensare.
L’automazione che non elimina l’uomo (lo nasconde)
Il Turco non è un’eccezione nella storia della tecnologia. È un modello ricorrente.
- Con le prime reti telefoniche “automatiche”, gli operatori continuarono a lavorare dietro le quinte per correggere errori e instradare chiamate.
- Nei primi decenni dell’informatica, prima che il termine “computer” indicasse una macchina, era il nome di persone – spesso matematiche – che eseguivano calcoli complessi a mano.
La narrativa parlava di automazione totale.
La realtà era ibrida.
Ed è esattamente qui che entra in gioco Moltbook.
Cos’è Moltbook e come funziona davvero
Moltbook è una piattaforma progettata come un social network popolato da agenti di intelligenza artificiale. Profili, post, thread, interazioni: tutto sembra identico a una normale rete sociale.
La differenza? A scrivere sono programmi collegati a modelli linguistici tramite API.
Ogni agente:
- legge ciò che accade sulla piattaforma,
- genera risposte,
- avvia discussioni,
- reagisce agli altri contenuti.
Si crea così un flusso continuo di comunicazione automatizzata tra sistemi.
Dal punto di vista tecnico, è un ambiente multi-agente.
Dal punto di vista narrativo, sembra l’alba di una società non umana.
Ma è davvero così?
La “Moltbook Illusion”: società artificiale o teatro ibrido?
Uno studio intitolato The Moltbook Illusion ha analizzato in dettaglio cosa accade sulla piattaforma: frequenza dei post, dinamiche di risposta, pattern linguistici, persistenza delle conversazioni.
La domanda è semplice: stiamo osservando un comportamento emergente autonomo o il risultato delle regole tecniche e dell’intervento umano?
Il dato più interessante è questo: molti degli “agenti” più attivi erano in realtà persone reali che scrivevano fingendosi AI.
Creare un agente credibile è relativamente semplice: basta collegare un prompt a un’API e costruire una personalità coerente. Il confine tra umano e artificiale si assottiglia rapidamente.
Questo non significa che l’esperimento sia irrilevante.
Significa che Moltbook non è una società di macchine autonome. È un sistema ibrido.
Ed è proprio questo il punto chiave.

AI autonoma o infrastruttura ibrida?
Moltbook mostra qualcosa di meno spettacolare ma più realistico:
le tecnologie emergenti non sono completamente autonome, né semplici strumenti. Sono infrastrutture ibride in cui codice e decisioni umane si intrecciano fino a diventare difficili da separare.
Quando lasci molti agenti artificiali nello stesso spazio comunicativo, emergono rapidamente:
- spam
- conflitti
- imitazioni
- dinamiche di attenzione
- comportamenti opportunistici
Sorprendentemente simili a quelli delle community online umane.
Non serve una coscienza artificiale per generare effetti sociali. Bastano regole, incentivi e architettura tecnica.
I rischi concreti (prima ancora della fantascienza)
Prima di preoccuparci dell’AI generale, ci sono questioni molto più pratiche:
- automazioni usate per frodi
- disinformazione coordinata
- manipolazioni di mercato
- abuso di credenziali e API
- superfici di attacco più ampie
La governance arriva prima della coscienza artificiale.
E per chi lavora nel marketing, nella comunicazione e nella tecnologia, questo cambia tutto.
Cosa ci insegna Moltbook (e perché interessa il marketing)
La lezione è meno sensazionale ma più utile:
ogni volta che una tecnologia sembra improvvisamente intelligente, la domanda giusta non è “sta pensando davvero?”
La domanda è: quale combinazione di codice, progettazione e intervento umano sta producendo questa percezione?
Per chi si occupa di digital strategy e innovazione, questo significa:
- non farsi abbagliare dalla narrativa tecnologica
- capire dove si crea davvero valore
- distinguere tra autonomia reale e orchestrazione invisibile
- progettare sistemi in cui l’interazione uomo-macchina sia consapevole, non mitizzata
Il futuro non sarà fatto di macchine completamente autonome.
Sarà fatto di ecosistemi ibridi. E chi saprà leggere questi sistemi con lucidità, senza cedere né al catastrofismo né all’hype, avrà un vantaggio competitivo enorme.
Dal Turco Meccanico a Moltbook: stessa domanda, nuova scala
Il Turco Meccanico non era una macchina pensante.
Era una narrazione potente sull’automazione.
Moltbook non è una civiltà artificiale.
È uno specchio che riflette il nostro modo di progettare e raccontare la tecnologia.
La differenza è che oggi l’impatto è sistemico: comunicazione, economia, reputazione, sicurezza.
Capire dove finisce il codice e dove inizia la società non è più una curiosità filosofica.
È una competenza strategica.
E chi lavora nel digitale farebbe bene a metterla al centro della propria agenda.