Cambridge (Massachusetts), 30 dicembre 2025 – Un robot con intelligenza artificiale generativa è nato dalla collaborazione tra il Massachusetts Institute of Technology e Google DeepMind. Questa macchina è in grado di costruire oggetti concreti partendo da semplici comandi scritti. Basta digitare “fai una sedia” e il robot capisce cosa fare, sceglie i pezzi prefabbricati giusti e li assembla seguendo le istruzioni dell’utente. Un salto in avanti che, dicono i ricercatori, potrebbe rendere la creazione di oggetti alla portata di tutti, anche di chi non ha esperienza tecnica.
Come funziona il robot che capisce testo e immagini
Il motore di tutto è un modello visivo-linguistico (Vlm), un’intelligenza artificiale allenata a leggere sia immagini sia parole. Il sistema riconosce due tipi di pezzi prefabbricati: componenti strutturali e pannelli. Sa come combinarli per ottenere un oggetto ben fatto. “Ci sono tanti modi per mettere insieme i pannelli su un oggetto fisico, ma il robot deve ‘vedere’ la forma e ragionare su di essa per decidere come fare”, spiega Alex Kyaw, primo autore dello studio. Il Vlm fa da “occhi” e da “cervello” del robot, traducendo le richieste in azioni concrete.
L’utente resta sempre al centro del processo: può modificare il progetto mentre il robot lavora, aggiungendo dettagli o correggendo errori. “Per esempio, si può chiedere di mettere i pannelli solo sullo schienale della sedia, non sulla seduta”, aggiunge Kyaw. Il sistema capisce e aggiorna la costruzione al volo.
Mobili su misura e meno sprechi: i primi test
I primi esperimenti sono stati fatti nei laboratori del MIT. Il robot ha costruito diversi mobili — sedie, scaffali — usando solo i due tipi di pezzi prefabbricati previsti dal modello. Questi elementi si possono smontare e rimontare più volte, così si riduce la quantità di scarti. Un vantaggio che, secondo gli scienziati, potrebbe avere un peso importante anche per l’ambiente.
La possibilità di intervenire in ogni fase permette di adattare l’oggetto alle esigenze dell’utente senza perdere tempo. “Il sistema è pensato per essere flessibile: si può cambiare idea anche a metà del lavoro”, spiega uno degli ingegneri. Per ora si tratta di una dimostrazione, ma gli sviluppatori credono che questo metodo possa essere applicato anche a oggetti più complessi.
Dalla prototipazione veloce alla casa di tutti i giorni
Il gruppo MIT-Google DeepMind punta a utilizzare il sistema soprattutto per la prototipazione rapida di oggetti complicati, come parti per l’aerospazio o elementi architettonici, dove servono precisione e velocità. Ma guardano anche oltre: immaginano un futuro in cui si potrà costruire un mobile su misura direttamente in casa, senza aspettare spedizioni da lontano.
I ricercatori stanno già lavorando per ampliare le capacità del robot. L’idea è di farlo gestire richieste più complesse — come un tavolo di vetro e metallo — e inserire nuovi tipi di pezzi prefabbricati, come ingranaggi o cerniere. Così gli oggetti potranno avere funzioni più avanzate e rispondere a bisogni sempre più specifici.
Un salto verso la progettazione per tutti
Per ora il sistema è fermo nei laboratori del MIT, ma l’entusiasmo è forte. “Vogliamo abbattere le barriere tra chi disegna e chi costruisce”, racconta uno dei ricercatori senior. La possibilità di trasformare una semplice descrizione scritta in un oggetto reale potrebbe cambiare tutto e avvicinare tante persone al mondo della progettazione.
Non mancano le sfide: gestire materiali diversi, garantire la sicurezza nell’assemblaggio automatico e adattare il sistema all’uso domestico sono solo alcune delle difficoltà da superare. Ma, dicono gli sviluppatori, la strada è tracciata. Quando la tecnologia sarà pronta, potremo davvero parlare di una nuova era per la fabbricazione su misura.
