Varsavia, 13 novembre 2025 – Il cervello umano rimane una delle sfide più affascinanti per la scienza. È anche la fonte d’ispirazione e il campo di studio privilegiato per l’intelligenza artificiale. Questo è emerso chiaramente ieri a Varsavia, durante la conferenza Google Research@Poland. Qui, Lizzie Dorfman, Group Product Manager di Google Research, ha raccontato come le nuove tecnologie stiano rivoluzionando il modo in cui scienziati e informatici cercano di capire la complessità della mente.
Cervello e intelligenza artificiale: un rapporto che si fa sempre più stretto
“Il nostro obiettivo è semplice: descrivere il cervello nel modo più preciso possibile e poi mettere tutto a disposizione della comunità scientifica”, ha detto Dorfman a margine dell’evento. Un progetto ambizioso, che passa attraverso la raccolta e l’analisi di un’enorme quantità di dati neuroscientifici. Oggi, grazie all’IA, si riesce a mappare la fitta rete di connessioni neuronali — la cosiddetta connettomica — e a scoprire strutture mai viste prima.
Solo pochi mesi fa, un gruppo della Johns Hopkins University ha pubblicato su Science uno studio che, usando dati generati dall’intelligenza artificiale, ha trovato nel cervello umano strutture simili a nanotubi. “Potrebbero essere la base di un nuovo tipo di comunicazione cellulare, oltre alle sinapsi”, ha spiegato Dorfman. Se fosse confermato, sarebbe una svolta nella nostra comprensione dei meccanismi cerebrali.
Cervello vs supercomputer: la sfida dell’efficienza energetica
Il confronto tra cervello umano e supercomputer resta uno dei temi chiave. “Ci sono cose che il cervello fa e che i supercomputer non riescono a fare”, ha sottolineato Dorfman. Un esempio? Il consumo di energia. “Il cervello umano consuma più o meno come una lampadina spenta, eppure è capace di calcoli incredibili”. Questo fatto, noto da tempo ai neuroscienziati, spinge a cercare soluzioni più efficienti per l’apprendimento automatico e l’intelligenza artificiale.
Non si tratta solo di potenza di calcolo. La neurobiologia continua a guidare lo sviluppo delle reti neurali artificiali. “Le prime reti neurali sono nate proprio grazie alla nostra conoscenza dei neuroni”, ha ricordato Dorfman. Oggi, il dialogo tra neuroscienze e informatica è ancora più stretto. “Uno dei motivi per cui è entusiasmante fare ricerca neuroscientifica in Google è che a pochi passi ci sono colleghi che lavorano sulle frontiere dell’intelligenza artificiale”.
L’IA generativa cambia la scienza
Per Dorfman, la vera rivoluzione portata dall’IA generativa riguarda gli strumenti a disposizione degli scienziati. “Quello che sta succedendo ora con l’intelligenza artificiale generativa sta trasformando il modo di fare scienza”, ha spiegato. Ma alcune cose non cambiano: “Il modo in cui scegliamo i problemi da affrontare, le sfide importanti, i quesiti difficili che, se risolti, potrebbero avere un grande impatto sulla società”.
Costruire la mappa completa del cervello resta una delle sfide più grandi. Un traguardo che richiede non solo dati e algoritmi potenti, ma soprattutto la capacità di fare le domande giuste. “La vera rivoluzione è mettere insieme le competenze di tanti scienziati”, ha aggiunto Dorfman.
Il futuro della ricerca tra creatività e rigore scientifico
Secondo la manager di Google Research, l’intelligenza artificiale potrebbe liberare tempo prezioso per gli scienziati, lasciando loro più spazio per la parte creativa del lavoro. “L’IA può aiutare gli scienziati a dedicare più tempo alla creatività”, ha confidato Dorfman. E così valorizzare “il metodo scientifico, probabilmente la più grande invenzione dell’umanità”.
In questo scenario che cambia rapidamente, il cervello umano resta un modello ma anche un enigma. E la collaborazione tra intelligenza naturale e artificiale promette di aprire nuove strade alla conoscenza.
