Londra, 19 novembre 2025 – AlphaProof, il modello di intelligenza artificiale nato da Google DeepMind, ha mantenuto la promessa fatta lo scorso luglio. Durante le Olimpiadi Internazionali di Matematica 2024 all’Università di Bath, nel Regno Unito, il sistema ha raggiunto un risultato mai visto prima per una macchina: un punteggio pari a quello di una medaglia d’argento. La notizia, ora pubblicata sulla rivista scientifica Nature, porta la firma di Thomas Hubert, uno dei principali artefici del progetto.
AlphaProof: la macchina che risolve i problemi più duri delle Olimpiadi
Gli stessi autori dello studio raccontano che il sistema ha risolto tre dei cinque problemi non geometrici della gara, incluso quello più difficile di tutta l’edizione. “Il nostro modello ha lavorato per giorni, arrivando a un punteggio da medaglia d’argento”, spiegano i ricercatori. Un traguardo senza precedenti, perché è la prima volta che un’intelligenza artificiale si comporta così bene in una competizione matematica internazionale.
La performance di AlphaProof ha fatto parlare gli esperti. “Abbiamo dimostrato che imparare su larga scala, basandosi su esempi concreti, può portare a sistemi capaci di ragionamenti matematici molto complessi”, scrivono nel loro articolo su Nature. Ora il team di DeepMind punta a mettere questi strumenti a disposizione della comunità scientifica, per aiutare a velocizzare la ricerca e risolvere problemi matematici difficili.
Da un apprendimento approssimativo al rigore del software Lean
Fino a poco tempo fa, uno dei problemi nello sviluppare modelli di IA per la matematica era proprio l’addestramento: i sistemi imparavano quasi solo da testi informali, scritti in linguaggio naturale, e faticavano a gestire la precisione richiesta dalle dimostrazioni. La svolta è arrivata grazie al software Lean, un ambiente di matematica formale che permette di rappresentare teoremi e dimostrazioni in modo rigoroso.
AlphaProof è stato addestrato su un enorme archivio: circa 80 milioni di enunciati matematici, spiegano gli autori. Questo gli ha permesso non solo di risolvere i problemi delle Olimpiadi, ma anche di affrontare teorie complesse, trovando dimostrazioni che finora sembravano fuori dalla portata delle macchine.
“Abbiamo aperto la strada a uno strumento affidabile per risolvere automaticamente problemi matematici”, dice Thomas Hubert, primo autore dell’articolo. Ma, come spesso succede, la strada è ancora lunga e piena di ostacoli.
I limiti di AlphaProof e le sfide che restano
Nonostante il successo, AlphaProof ha ancora dei limiti. In particolare, fatica con alcuni problemi che richiedono intuizione o creatività, capacità difficili da tradurre in regole precise. “La prossima sfida sarà superare queste difficoltà”, ammettono i ricercatori di DeepMind. Solo allora AlphaProof potrà davvero diventare uno strumento prezioso per la comunità matematica internazionale.
Il dibattito tra matematici e informatici resta acceso. C’è chi vede in questi risultati una vera svolta per la ricerca: “Strumenti come AlphaProof possono accelerare la scoperta e la verifica delle teorie”, dice un docente dell’Università di Bath presente alla gara. Ma non mancano i più cauti: “L’intelligenza artificiale è ancora lontana dal sostituire l’intuizione umana”, sottolinea un membro della giuria.
Un alleato nuovo per la scienza
La pubblicazione su Nature segna un momento importante: per la prima volta, una IA si avvicina al livello dei migliori studenti del mondo nelle gare di matematica. Resta da vedere come crescerà AlphaProof nei prossimi anni e che effetto avrà sulla ricerca e sull’insegnamento.
Intanto, il risultato ottenuto nel luglio 2024 a Bath manda un messaggio chiaro: in certi campi specialistici, l’intelligenza artificiale può già affiancare – e a volte superare – l’uomo nella risoluzione dei problemi più complicati.
