Vai al contenuto

Amazon e l’AI: discriminazioni di genere per reperire curricula

Amazon e l’AI: discriminazioni di genere per reperire curricula

La società di Bezos ha infatti provato a costruire uno strumento di intelligenza artificiale per aiutare a reperire candidati, ma purtroppo ha mostrato di avere un pregiudizio nei confronti delle donne.

Secondo quanto riferito, gli ingegneri hanno scoperto che l’intelligenza artificiale era sfavorevole nei confronti delle candidate donne perché si era spogliata dei curriculum maschili per acquisire dati.

Amazon ha riferito di aver abbandonato il progetto già dall’inizio del 2017, ma non sappiamo se ciò corrisponda a verità. La società ha infatti lavorato alla creazione di uno strumento di intelligenza artificiale per supportare le assunzioni, ma i piani sono falliti quando la società ha scoperto il sistema discriminatorio contro le donne, stando a quanto riferisce un portavoce dell’agenzia di stampa Reuters.

Automatizzare i processi

Citando ben cinque fonti, la Reuters ha affermato che Amazon ha istituito un team di ingegneri a Edimburgo, in Scozia, nel 2014 proprio per trovare un nuovo modo per automatizzare il reperimento di dipendenti.

La società ha creato 500 modelli di computer per sfogliare i curriculum dei candidati passati e raccogliere circa 50.000 termini chiave. Il sistema dovrebbe eseguire una specie di scansione del Web per consigliare quali candidati prendere.

“Hanno letteralmente voluto che fosse un motore con l’intenzione di fornire 100 curriculum, di sputare i primi cinque e di assumere questi candidati”, ha detto una fonte a Reuters.
Un anno dopo l’esperimento, tuttavia, gli ingegneri notarono qualcosa di preoccupante per il loro motore: non piacevano le donne. Ciò è dovuto al fatto che l’intelligenza artificiale è passata attraverso i curriculum prevalentemente maschili sottoposti ad Amazon, in un periodo di 10 anni, per accumulare dati su chi assumere.

Di conseguenza, l’IA che procede tramite apprendimento automatico, concluse che gli uomini erano preferibili. Secondo quanto riferito, i curriculum che sono stati declassati contenevano la parola “donne” e hanno filtrato candidati che avevano frequentato due college femminili.

Amazon e il futuro

Gli ingegneri di Amazon, almeno apparentemente, hanno perfezionato il sistema per porre rimedio a queste particolari forme di pregiudizio, ma non potevano essere sicuri che l’intelligenza artificiale non avrebbe trovato nuovi modi per discriminare ingiustamente i candidati.

Il pregiudizio di genere non inoltre era l’unico problema, dicono le fonti di Reuters. Anche i programmi per computer sputavano candidati che non erano qualificati per la posizione.

Rimediare al bias dell’algoritmo è un problema spinoso, poiché gli algoritmi possono captare il pregiudizio umano subconscio. Nel 2016, ProPublica ha scoperto che il software di valutazione del rischio utilizzato per prevedere quali criminali erano più propensi a recidivare pregiudizi razziali esposti contro le persone di colore. L’eccessiva dipendenza dall’IA per cose come il reclutamento, la valutazione del merito di credito e i giudizi di libertà vigilata hanno anche creato problemi in passato.

Amazon ha riferito di aver abbandonato il progetto di reclutamento AI all’inizio dell’anno scorso dopo che i dirigenti hanno perso fiducia in esso. Le fonti di Reuters hanno detto che i reclutatori di Amazon hanno esaminato le raccomandazioni generate dall’IA, ma non hanno mai fatto affidamento unicamente sul proprio giudizio.

Un portavoce di Amazon ha dichiarato a Business Insider americano che in realtà: “Questo programma non è mai stato utilizzato dai reclutatori di Amazon per valutare i candidati”. Restiamo in attesa di sviluppi.