Roma, 22 gennaio 2026 – L’Intelligenza artificiale sta trasformando il modo in cui le aziende italiane scelgono i loro collaboratori. Ma il rischio di rafforzare le discriminazioni di genere è ancora molto alto. A dirlo è lo studio “Intelligenza artificiale e bias di genere nel reclutamento del personale”, presentato oggi a Roma durante un convegno promosso da Federmanager, insieme alla Fondazione Magna Grecia e al Gruppo Ferrovie dello Stato Italiane. In sala, manager, imprenditori e accademici hanno discusso delle opportunità ma anche delle insidie etiche legate all’uso degli algoritmi nella selezione del personale.
Intelligenza artificiale e selezione: tra vantaggi e insidie
La ricerca, firmata dall’Università della Calabria e dal Politecnico di Bari con il professor Salvatore Ammirato al timone, definisce l’IA come una vera e propria “infrastruttura civile” che può influenzare il rapporto di fiducia tra cittadini e istituzioni. Ammirato ha spiegato chiaramente: “L’Intelligenza artificiale non è un giudice imparziale. Riflette sempre le scelte di chi la costruisce e la usa”. Se non la si gestisce con attenzione, l’IA rischia di amplificare i pregiudizi già presenti, invece di attenuarli.
Nel dibattito è emersa con forza la questione della trasparenza e della responsabilità. “Non è solo un salto tecnologico – ha detto Valter Quercioli, presidente di Federmanager – ma un’occasione concreta per migliorare come selezioniamo le persone e rendere le aziende più mature”. Quercioli ha sottolineato quanto sia importante che i manager accompagnino questa innovazione con competenza e lungimiranza, integrando l’IA senza mai perdere di vista il controllo umano.
Bias di genere: la consapevolezza resta bassa
Un dato che ha colpito tutti è la bassa consapevolezza sull’uso reale dell’IA nei processi di selezione. Solo il 13% degli intervistati, secondo il sondaggio allegato allo studio, ammette di usare strumenti di IA in modo concreto. Eppure, molti software per le risorse umane includono già algoritmi che influenzano le scelte. “C’è un vero e proprio ‘bias blind spot’ – ha spiegato Pierpaolo Pontrandolfo, docente al Politecnico di Bari – cioè la tendenza a vedere i pregiudizi negli altri, ma non nelle proprie decisioni”.
Il rapporto mostra come dettagli apparentemente secondari – l’aspetto fisico, il tono di voce, le rigidità nei curricula – continuino a pesare nelle scelte di assunzione, spesso senza che chi seleziona se ne renda conto. Per Valeria Rizzo, responsabile learning & integration office del Gruppo Ferrovie dello Stato Italiane, “l’IA può rendere tutto più efficace solo se c’è una gestione solida e una forte responsabilità da parte delle aziende”.
Leadership inclusiva: la sfida della trasparenza e del controllo
Il convegno romano fa parte del “Privacy Tour”, un percorso nazionale che coinvolge istituzioni, imprese e centri di ricerca. L’obiettivo è sviluppare tecnologie più sicure, chiare e inclusive, rispettando le leggi italiane ed europee. “L’innovazione deve essere adottata perché controllabile, e controllata perché governata”, ha ricordato Nino Foti, presidente della Fondazione Magna Grecia. Foti ha sottolineato l’importanza di fissare criteri minimi di trasparenza e di mettere in campo controlli che permettano alle aziende di usare questi strumenti senza scaricare i rischi sulle persone.
In questo quadro, la formazione continua e le politiche inclusive diventano strumenti fondamentali per combattere i bias di genere. Le aziende che investono in inclusione ottengono risultati migliori, sia in termini economici sia di capacità di innovare. La vera sfida, però, sarà fare in modo che l’IA diventi uno strumento di equità, supportando la leadership umana senza mai sostituirla nelle scelte che riguardano la dignità e il talento.
Un futuro di selezioni più giuste
Durante la giornata, i relatori hanno ribadito che la fiducia nella tecnologia non può essere cieca. “Non si può credere ciecamente che la tecnologia sia neutrale”, ha avvertito Foti, “serve invece costruire regole chiare di trasparenza”. Solo così – hanno concordato gli esperti – l’Intelligenza artificiale potrà davvero contribuire a un mercato del lavoro più giusto e inclusivo.
Il percorso è segnato: tra innovazione e responsabilità, il futuro della selezione del personale dipenderà dalla capacità delle aziende italiane di gestire gli algoritmi con attenzione, rispetto dei diritti e cura delle persone.
