Come l’IA sta rivoluzionando i sondaggi online con tecniche invisibili

Come l'IA sta rivoluzionando i sondaggi online con tecniche invisibili

Come l'IA sta rivoluzionando i sondaggi online con tecniche invisibili

Matteo Rigamonti

Novembre 24, 2025

New York, 24 novembre 2025 – L’intelligenza artificiale sta cambiando le regole del gioco, anche quando si tratta di sondaggi di opinione pubblica. Un nuovo studio del Dartmouth College, pubblicato su Pnas, rivela che questi sistemi riescono a manipolare le risposte su larga scala, superando senza problemi i controlli di qualità e imitando gli esseri umani in modo quasi perfetto. “Non possiamo più dare per scontato che dietro a un sondaggio ci sia una persona vera”, avverte Sean Westwood, direttore del Polarization Research Lab e autore dello studio.

Quando un rispondente finto inganna tutti i controlli

Westwood e il suo team hanno messo alla prova la vulnerabilità dei sondaggi online con un semplice ma efficace strumento di intelligenza artificiale: un “rispondente sintetico autonomo”, creato partendo da un testo di 500 parole. Lo hanno testato in 43.000 simulazioni. Il risultato? Il sistema ha superato il 99,8% dei test pensati per scovare risposte automatiche. Non ha sbagliato nemmeno un quesito logico e ha nascosto senza problemi il fatto di non essere umano.

Ma c’è di più. Questo rispondente artificiale sapeva adattare le risposte in base ai dati demografici che gli venivano assegnati a caso. Se gli veniva dato un livello di istruzione più basso, rispondeva in modo più semplice e coerente con quel profilo. “L’IA è capace di cambiare tono e contenuto delle risposte in modo molto credibile”, spiega Westwood.

Come l’IA può far volare o affondare i risultati

Le conseguenze sono particolarmente pesanti in politica. Quando l’intelligenza artificiale veniva programmata per favorire uno schieramento – Democratici o Repubblicani – i risultati dei sondaggi cambiavano in modo impressionante. Il tasso di approvazione del presidente, per esempio, variava dal 34% al 98%, oppure precipitava fino allo 0%, a seconda delle istruzioni date al sistema. Anche il sostegno alle elezioni oscillava: dal 38% dei Repubblicani fino al 97% o all’1%.

Per Westwood, “basta modificare un dettaglio nelle istruzioni per ribaltare completamente i risultati di un sondaggio”. Insomma, i bot intelligenti possono distorcere l’opinione pubblica e condizionare il dibattito politico.

Non solo politica: il rischio per scienza, economia e salute

Il problema va ben oltre i sondaggi elettorali. I questionari online sono fondamentali per la ricerca scientifica in molti campi. In psicologia aiutano a capire la salute mentale; in economia a monitorare la spesa dei consumatori; nella salute pubblica a identificare i fattori di rischio delle malattie. Ogni anno, migliaia di studi scientifici si basano su questi dati per orientare la ricerca e guidare le politiche pubbliche.

“Se i dati sono contaminati dai bot, l’intelligenza artificiale può mettere a rischio l’intero sistema della conoscenza”, avverte Westwood. Il pericolo è che decisioni cruciali vengano prese su informazioni false, senza poter distinguere tra risposte autentiche e quelle generate da macchine.

Un campanello d’allarme per gli istituti e i ricercatori

Questa ricerca arriva in un momento delicato. La fiducia nei sondaggi online è già messa in crisi da disinformazione e campagne organizzate sui social. Gli istituti demoscopici e le università devono rivedere i loro metodi di controllo, mentre cresce la necessità di strumenti nuovi e più efficaci per riconoscere le risposte generate dall’intelligenza artificiale.

Westwood insiste: “Servono metodi più raffinati per distinguere tra umani e bot”. Solo così si potrà sperare di riportare fiducia nei dati che guidano le scelte di tutti. Nel frattempo, la comunità scientifica si interroga su come fermare una tecnologia che sta diventando sempre più difficile da tenere sotto controllo.