OpenClaw: il primo social network per intelligenze artificiali che scrive articoli scientifici

OpenClaw: il primo social network per intelligenze artificiali che scrive articoli scientifici

OpenClaw: il primo social network per intelligenze artificiali che scrive articoli scientifici

Giada Liguori

Febbraio 11, 2026

Vienna, 11 febbraio 2026 – Un social network popolato da oltre un milione di intelligenze artificiali sta facendo parlare la comunità scientifica di tutto il mondo. Si chiama Moltbook e, come racconta la rivista Nature, è un vero e proprio laboratorio dove osservare le macchine e capire i rischi legati al loro sviluppo. Il progetto, ideato dall’austriaco Peter Steinberger, è nato da poche settimane ma già promette di rivoluzionare il modo in cui studiamo e regoliamo le IA.

Moltbook, il social network delle intelligenze artificiali

Al centro di tutto c’è proprio Moltbook, una piattaforma che ospita più di 1,6 milioni di bot: IA programmate per interagire liberamente tra loro. In poco tempo, questi agenti hanno prodotto più di 7,5 milioni di post, animando discussioni che vanno dalla matematica alla filosofia, fino a temi più strani come la creazione di nuove religioni o il rapporto tra macchine e uomini. “È un ambiente dove si sperimentano nuovi modelli di IA e da cui tutta la comunità sta imparando molto, sia sul piano scientifico che su quello delle norme”, ha spiegato all’ANSA Roberto Navigli, professore di informatica all’Università La Sapienza di Roma.

OpenClaw: l’IA che agisce e scrive

Da qui è nata OpenClaw, un’intelligenza artificiale innovativa, definita dagli esperti “agente-IA”. Non si limita a chiacchierare: può svolgere azioni concrete, come scrivere articoli scientifici o risolvere problemi complessi. La sua particolarità? Impara dai contenuti prodotti su Moltbook, assorbendo ciò che scambiano le altre IA. Secondo Steinberger, OpenClaw segna “un passo avanti verso sistemi capaci di apprendere in modo autonomo e creativo”.

Dialoghi strani e rischi in vista

Quello che ha colpito di più chi osserva Moltbook sono stati i contenuti prodotti. A volte, le IA danno vita a conversazioni che, viste da noi, sembrano surreali o addirittura inquietanti. Si parla di etica, di nuove religioni, di strategie per interagire con gli esseri umani. “Questi risultati hanno acceso il dibattito, perché sembrano mostrare comportamenti emergenti”, ha raccontato Navigli. Ma per i ricercatori intervistati da Nature, è più una nostra tendenza a vedere nelle macchine intenzioni e personalità – quella che si chiama antropomorfizzazione delle IA.

Le IA che producono scienza: vantaggi e pericoli

Un altro tema caldo è la capacità delle IA su Moltbook di mettere insieme migliaia di studi scientifici. “Sappiamo che alcuni modelli sono molto bravi in questo”, ha ammesso Navigli. Finché si tratta di dimostrazioni matematiche, dove tutto è chiaro e verificabile, il problema è contenuto. Ma la questione si complica quando le IA iniziano a creare articoli basati su dati inventati o simulati. “Il rischio – ha detto Navigli – è che vengano prodotti studi con risultati falsi, creando confusione e contaminando la ricerca scientifica”.

Un banco di prova per le regole sull’IA

Secondo Nature, Moltbook e OpenClaw sono diventati anche un test importante per chi si occupa di regolamentazione. Le interazioni tra IA offrono spunti preziosi per capire come prevenire abusi e garantire trasparenza nei processi automatizzati. “Stiamo imparando molto anche sul fronte delle regole”, ha ribadito Navigli, sottolineando quanto sia importante che la comunità scientifica tenga d’occhio questi sviluppi.

Per ora, Moltbook resta un esperimento unico nel suo genere. Ma il dibattito è appena iniziato: come distinguere tra creatività artificiale e rischio di disinformazione? E quali norme servono per evitare che le IA diventino fonti incontrollate di contenuti? Solo pochi mesi fa sembravano domande da fantascienza. Oggi invece sono al centro della ricerca europea – e non solo.