Roma, 22 gennaio 2026 – L’Intelligenza artificiale sta ridefinendo in modo sempre più strutturale i confini dei processi della selezione del personale, introducendo nuove opportunità di efficienza e innovazione ma anche sollevando interrogativi rilevanti sul piano della trasparenza, dell’equità e della responsabilità. Se non adeguatamente governata, l’IA rischia di rafforzare e amplificare discriminazioni già presenti, in particolare quelle di genere. Non si tratta solo di un’evoluzione tecnologica: l’IA può essere considerata una vera e propria “infrastruttura civile” in grado di influire sul capitale di fiducia del patto sociale. In un contesto in cui il lavoro resta la soglia decisiva della cittadinanza, l’ingresso degli algoritmi nei processi di selezione può consolidare asimmetrie esistenti o, al contrario, contribuire ad abbattere barriere storiche.
È quanto emerge dallo studio “Intelligenza artificiale e bias di genere nel reclutamento del personale”, curato dall’Università della Calabria e dal Politecnico di Bari, con il coordinamento del professore Salvatore Ammirato, e promosso dalla Fondazione Magna Grecia. I risultati sono stati presentati oggi a Roma durante il convegno “IA nella selezione del personale. La nuova sfida della leadership inclusiva”, organizzato da Federmanager in collaborazione con la stessa Fondazione e con il Gruppo Ferrovie dello Stato Italiane, che ha visto manager Hr (Risorse umane), imprenditori e accademici discutere delle implicazioni etiche e operative dell’uso dell’IA nei processi di recruitment.
Il rapporto costituisce una delle tappe del progetto nazionale “Privacy Tour”, promosso da un ampio partenariato che coinvolge istituzioni, imprese e centri di ricerca. E rimanda istantanee significative dimostrando che l’IA applicata alla selezione del personale rischia, se non ben governata, di riprodurre e amplificare i pregiudizi (bias) già presenti nei dataset e nei processi organizzativi. Spiega Salvatore Ammirato, responsabile scientifico della ricerca: “l’Intelligenza Artificiale non è un decisore neutrale, ma uno strumento che riflette le scelte di chi lo progetta e lo utilizza. Non è l’IA a decidere al posto delle persone – aggiunge Ammirato – ma sono le persone a decidere come l’IA prende decisioni”. Da qui l’importanza di una leadership consapevole e inclusiva, capace di governare gli algoritmi affinché diventino un’opportunità di equità e non un fattore di nuove discriminazioni.
Ecco perché per Pierpaolo Pontrandolfo, professore presso il Politecnico di Bari e attuale presidente dell’Associazione italiana di Ingegneria Gestionale, “è necessario che qualunque innovazione tecnologica sia principalmente finalizzata a migliorare il benessere delle persone e della società. A tal fine occorre grande responsabilità e consapevolezza da parte di chi la usa. Questo è particolarmente vero per l’IA perché, da un lato è un’innovazione radicale e pervasiva, quindi estremamente impattante, dall’altro è connotata da una grande semplicità di utilizzo, che aumenta il rischio di un uso improprio”.
Un dato particolarmente significativo dello studio riguarda il livello di consapevolezza sull’uso dell’Intelligenza artificiale: solo il 13% dei partecipanti al sondaggio infatti, dichiara di utilizzare concretamente strumenti di IA nei processi di selezione, dimostrando la scarsa percezione della presenza di algoritmi già oggi integrati nei software Hr. Non stupisce allora che la ricerca evidenzi ancora un altro aspetto interessante da tenere in considerazione nelle decisioni future e che viene chiamato “bias blind spot”: ovvero la tendenza, da parte dei selezionatori, a riconoscere l’esistenza di pregiudizi nei processi di valutazione, senza però individuarli nelle proprie scelte. Se da un lato si ammette dunque l’esistenza di discriminazioni di genere, dall’altro risulta più difficile riconoscere come elementi quali l’aspetto fisico, tono di voce o rigidità biografiche continuino a influenzare, anche in modo indiretto, le decisioni di selezione. Lo studio propone infine un percorso metodologico volto allo sviluppo di tecnologie più sicure, trasparenti e inclusive, in linea con il quadro normativo italiano ed europeo.
“È quantomai necessario immaginare percorsi di governance e trasparenza, puntando a modelli che consentano ai professionisti di comprendere le motivazioni dietro ogni decisione automatizzata, mantenendo però sempre una supervisione umana”, dichiara Nino Foti, presidente della Fondazione Magna Grecia. “L’innovazione”, continua, “per essere davvero tale, deve essere adottabile perché verificabile, e verificabile perché governata. Non si tratta di nutrire una fiducia acritica nella presunta neutralità della tecnologia, ma di contribuire alla costruzione di criteri minimi di trasparenza e pratiche di controllo che permettano a imprese e istituzioni di usare questi strumenti senza scaricare i rischi sulle persone. In questo equilibrio tra tecnologia e responsabilità si gioca il futuro del lavoro.”
“L’Intelligenza artificiale rappresenta un’opportunità concreta per migliorare la qualità dei processi di selezione e rendere le organizzazioni più evolute”, dice Valter Quercioli, Presidente di Federmanager. “Perché questo potenziale si realizzi pienamente, è fondamentale che i manager guidino l’innovazione, integrando responsabilmente queste tecnologie nei processi decisionali con competenze e visione. Attraverso il lavoro della Commissione Intelligenza Artificiale e del Gruppo Federmanager Minerva, Federmanager è impegnata a rafforzare la cultura manageriale e ad accompagnare le organizzazioni verso un utilizzo dell’IA capace di generare valore, inclusione e sviluppo per il lavoro e per il sistema produttivo”.
“Per il Gruppo Ferrovie dello Stato Italiane l’Intelligenza artificiale rappresenta una leva strategica di trasformazione, che può contribuire a rendere i processi di selezione più efficaci solo se accompagnata da una solida governance, da competenze adeguate e da una forte responsabilità organizzativa. In FS siamo impegnati a promuovere modelli di utilizzo dell’IA fondati su trasparenza, supervisione umana e inclusione, affinché l’innovazione tecnologica diventi uno strumento di equità e valorizzazione dei talenti”, aggiunge Valeria Rizzo, Group Learning & Integration Office del Gruppo Ferrovie dello Stato Italiane.
Il convegno si è concluso con un richiamo all’importanza della formazione continua e dell’adozione di politiche inclusive. Contrastare i bias di genere non è solo un imperativo etico, ma una strategia vincente per la crescita delle imprese: le aziende inclusive registrano migliori performance finanziarie e maggiore capacità di innovazione. La sfida futura, in linea con l’AI Act europeo, è garantire che l’Intelligenza artificiale diventi una leva di equità, supportando la leadership umana senza mai sostituirla integralmente nelle decisioni che riguardano dignità e talento delle persone.
Roma, 16 gennaio 2026 - La crescente emigrazione dei giovani laureati italiani non può essere…
Al primo posto Stefano Bison, di Humanitas Medical Care Roma, 10 dicembre 2025 – A…
Roma, 4 dicembre 2025 – I numeri diffusi dall’Arma dei Carabinieri rivelano un’emergenza che non…
La Federazione è la prima organizzazione di rappresentanza nazionale di lavoratrici e lavoratori a ottenere…
Roma, 19 novembre 2025 – Federmanager conferma il proprio sostegno al Governo nel percorso di…
Roma, 12 novembre 2025 – È necessaria una strategia industriale di sistema, non una contrapposizione…