Nella sua costante ascesa l’Intelligenza Artificiale sta rivoluzionando anche il mondo delle Risorse Umane.
In Italia questa trasformazione è già in atto: secondo il report Future of Work 2025 (HRC Community e Luiss Business School), il 61% dei direttori HR italiani utilizza tecnologie di AI nei processi HR, contro appena il 19% di due anni prima. La ricerca dell’Osservatorio del Politecnico sottolinea come nonostante la padronanza dell’Intelligenza Artificiale diventi una priorità crescente, la sua adozione è quanto mai frammentata e priva di visione prospettica.
Nel suddetto quadro, si delinea la figura di Digital HR specialist.

L'HR Specialist

Player come Factorial o Adecco descrivono tale posizione come una figura ibrida, che supporta le classiche mansioni HR con competenze tecnico – digitali, utilizzando piattaforme integrate, dataset e moduli intelligenti. Factorial sottolinea come sia precisa responsabilità in capo a questa figura, quella di formare il personale al rinnovamento digitale amministrativo.
In ottica “data-driven”, la risorsa HR maneggia ed analizza i dati su assenze, performance, turnover sviluppando KPI e report dinamici per evidenziare tendenze utili al management per assumere decisioni informate.

L’AI viene spesso introdotta nelle fasi di sourcing, screening e ranking dei candidati: ATS con moduli di machine learning filtrano CV, chatbot raccolgono informazioni preliminari, sistemi di analytics tracciano tempi di risposta e conversioni. La letteratura accademica più recente sul tema conferma che l’AI è particolarmente adatta a queste fasi  (sourcing, pre-screening, candidate engagement) mentre c’è molta più cautela nell’utilizzarla per la pianificazione del processo e per le interviste vere e proprie. 

Efficienza e rischi algoritmici

Qui una figura HR AI-ready ha un compito ambivalente:

  • da un lato sfruttare la capacità dell’AI di ridurre rischi “classici” dell’HR, come la lentezza dei processi, la dispersione dei CV, l’incoerenza dei criteri di valutazione tra selezionatori diversi;
  • dall’altro evitare che questi stessi sistemi introducano rischi nuovi, meno visibili ma molto più profondi, come discriminazioni algoritmiche o esclusione di categorie intere di candidati.

Trailer Box Title

I am Trailer Box Description Text. You can change me anytime from settings.

Il caso Amazon è diventato paradigmatico proprio perché mostra come queste ambivalenze non siano teoria. Tra il 2014 e il 2017 l’azienda ha sperimentato un sistema di recruiting basato sul machine learning che assegnava ai candidati un punteggio da una a cinque stelle, con l’obiettivo dichiarato di automatizzare la ricerca dei profili migliori. Dopo alcuni anni il team di data science ha scoperto che il modello penalizzava sistematicamente i CV femminili: sminuiva i curricula che contenevano la parola “women’s” (per esempio “women’s chess club”) e penalizzava laureate di college femminili, perché era stato addestrato su dati storici di selezione fortemente sbilanciati verso uomini nel settore tech.

Il regolamento sull’AI (EU AI Act) considera l’uso di sistemi di AI per il recruiting e la gestione del personale come “alto rischio” e prevede sanzioni significative, per aziende che usino strumenti addestrati su dati non verificati o privi di adeguate valutazioni d’impatto e documentazione. In pratica, se prima un errore algoritmico in HR era soprattutto un problema reputazionale, oggi rischia di diventare anche un problema legale molto concreto.
È qui che l’HR AI-ready mostra la sua funzione strategica. Non è solo l’utente avanzato dell’ATS o dell’LMS, è chi si occupa di definire come e dove usare l’AI nei processi HR, quali sistemi selezionare, con quali criteri, sotto quali condizioni di trasparenza. Nella pratica quotidiana significa, ad esempio, chiedere ai vendor spiegazioni non solo sulle funzionalità, ma sui dati su cui i modelli sono stati addestrati, sulla possibilità di effettuare audit periodici, sulle opzioni di disattivazione o di override umano. 

Conclusione

Il regolamento sull’AI (EU AI Act) considera l’uso di sistemi di AI per il recruiting e la gestione del personale come “alto rischio” e prevede sanzioni significative, per aziende che usino strumenti addestrati su dati non verificati o privi di adeguate valutazioni d’impatto e documentazione. In pratica, se prima un errore algoritmico in HR era soprattutto un problema reputazionale, oggi rischia di diventare anche un problema legale molto concreto.

È qui che l’HR AI-ready mostra la sua funzione strategica. Non è solo l’utente avanzato dell’ATS o dell’LMS, è chi si occupa di definire come e dove usare l’AI nei processi HR, quali sistemi selezionare, con quali criteri, sotto quali condizioni di trasparenza. Nella pratica quotidiana significa, ad esempio, chiedere ai vendor spiegazioni non solo sulle funzionalità, ma sui dati su cui i modelli sono stati addestrati, sulla possibilità di effettuare audit periodici, sulle opzioni di disattivazione o di override umano. 

Il rischio che ne emerge è quello di una “zona grigia” organizzativa: l’AI viene usata per accelerare processi, ma senza un disegno esplicito su cosa questo significhi per le persone, per le competenze e per i diritti sul lavoro.

In questo scenario, la figura HR diventa “pivot” decidendo quale AI ha senso introdurre, per che cosa e a quali condizioni di trasparenza e tutela per le persone. Se questo spazio viene lasciato solo a IT e fornitori, l’AI rischia di diventare un acceleratore di modelli di lavoro già in crisi; se invece viene occupato da una funzione HR competente e consapevole, la tecnologia può diventare l’occasione per ridisegnare processi più equi e sostenibili.

Manuel Giannetti HR Consultant 

Subscribe
Notificami
guest
0 Commenti
Oldest
Newest Most Voted
Inline Feedbacks
View all comments
0
Would love your thoughts, please comment.x