L’automazione nel reclutamento
Sempre più aziende italiane stanno affidando all’intelligenza artificiale una parte cruciale dei processi di selezione del personale. Secondo i dati del Politecnico di Milano, il 32% delle imprese ha già introdotto strumenti di IA nel reclutamento, mentre il 40% dei professionisti HR ha investito in tecnologie dedicate. L’obiettivo dichiarato è ridurre i tempi di valutazione dei curricula, ma emergono dubbi crescenti sugli effetti collaterali di questo approccio.
Una scrematura rapida ma non neutrale
I sistemi di natural language processing analizzano automaticamente i curricula, scartando i profili ritenuti meno adatti. Il problema nasce quando l’algoritmo riflette i bias presenti nei dati di addestramento, con conseguenti discriminazioni. Ad esempio, candidati over 40, donne o persone prive di una forte presenza digitale rischiano di essere penalizzati. La velocità delle macchine non lascia spazio a un controllo umano preventivo, trasformando potenziali opportunità in esclusioni sistematiche.
Il precedente di Amazon
Un caso emblematico risale al 2015, quando Amazon sperimentò un sistema interno di reclutamento automatizzato. L’algoritmo, addestrato su curricula raccolti in dieci anni, finì per favorire i profili maschili nelle posizioni tecniche, penalizzando le candidate donne. Il motivo era legato alla storica prevalenza maschile nel settore, che aveva orientato i parametri di valutazione. L’esperimento fu abbandonato, ma dimostrò come l’IA possa consolidare stereotipi preesistenti anziché superarli.
Il caso Mobley vs Workday
Il 12 luglio 2024, un tribunale federale della California ha emesso una sentenza destinata a fare scuola: i fornitori di software di selezione basati su IA possono essere ritenuti direttamente responsabili per discriminazioni. L’azione legale era stata intentata da Derek Mobley, un candidato afroamericano di oltre 40 anni affetto da disturbi d’ansia e depressione, che denunciava di essere stato escluso da oltre 100 posizioni nonostante i requisiti fossero soddisfatti. Questo verdetto ha acceso un dibattito globale sulla trasparenza e la responsabilità nei processi automatizzati.
Opacità e supervisione necessaria
Uno dei problemi centrali è la cosiddetta opacità algoritmica. Molti sistemi, basati su reti neurali, funzionano come “scatole nere”, rendendo difficile spiegare le ragioni di una decisione. Inoltre, per motivi legali ed economici, le aziende raramente divulgano i dettagli tecnici dei loro algoritmi. Studi come quello di PwC sottolineano l’importanza di mantenere un controllo umano costante per evitare abusi e verificare periodicamente la correttezza dei risultati.
L’impronta digitale come discriminante
Un ulteriore elemento critico è la crescente dipendenza dai profili social. Le piattaforme di recruiting digitale integrano dati provenienti da fonti pubbliche, premiando chi ha una forte visibilità online. Di conseguenza, candidati privi di presenza digitale strutturata, ad esempio su LinkedIn, risultano svantaggiati rispetto a chi ha una rete di contatti e attività regolari. Questo scenario rende la visibilità online quasi imprescindibile per mantenere concrete possibilità di essere selezionati.