blogtecaolivelli

I pregiudizi di genere e di razza dell'intelligenza artificiale


Fonte:Internet18 aprile 2017Gli algoritmi che permettono a un sistema diintelligenza artificiale di apprendere una linguada una serie di testi, trasmettono al sistemaanche i pregiudizi razziali o di genere che vipossono essere celati. Dunque, la valutazioneper esempio di un curriculum da parte di unsistema di IA non sarebbe affatto più imparzialedi quella fatta da un essere umano(red)computer sciencesocietàQuando un sistema diintelligenza artificiale (IA) "apprende" una linguada dei testi, finisce per assimilare anche i pregiudizirazziali e di genere degli esseri umani.A mostrarlo è stato un gruppo di ricercatori dellaPrinceton University che firmano un articolo pubblicato su "Science".Il risultato è importante non solo perché offre unostrumento per lo studio degli atteggiamenti e deicomportamenti potenzialmente pregiudizievoli negliesseri umani, ma anche perché evidenzia quantouna lingua sia strettamente intrecciata con pregiudizistoricamente sedimentati e con stereotipi culturali,di cui un soggetto umano può anche non essereconsapevole.
Science Photo Library/AGFIl metodo standard pervalutare l'esistenza di simili pregiudizi impliciti nellepersone è costituito dal cosiddetto test di associa-zione implicita. In questo test ai soggetti è chiestodi indicare, premendo un tasto, se considerano affinio diversi i concetti di una serie di coppie di parole viavia sottoposte. I tempi di risposta possono variarenotevolmente, indicando quanto una persona considerai due concetti collegati tra loro.Le persone, per esempio, sono solitamente propensead associare rapidamente "fiore" a "piacevole",e "insetti" a "sgradevole".Questa tecnica, però, non può evidentementeessere applicata a un sistema di intelligenzaartificiale.Aylin Caliskan e colleghi hanno così sviluppatoun corrispettivo adatto a valutare questo tipo dipregiudizi nei sistemi di IA che acquisiscono illinguaggio da testi umani.Invece di misurare il tempo di ritardo, in questotest viene eseguita una valutazione statisticadel numero di associazioni tra le parole acquisitedal sistema.L'applicazione di questo metodo - chiamato Word-Embedding Association Test (WEAT) - ha mostratoche, insieme al linguaggio, i sistemi di intelligenzaartificiale assorbono anche i pregiudizi impliciti.Per esempio, gli studi sul comportamento umanoeffettuati negli Stati Uniti mostrano che uno stessoidentico curriculum apre le porte a un colloquio dilavoro molto più facilmente se  è il nome del candidatoè di origine europea e non afroamericana.E lo stesso accadrebbe se la scelta dovesse esserefatta da un sistema di IA, poiché questo sistemanel corso del suo apprendimento della lingua haregistrato una più frequente associazione dei nomiamericani di origine europea con termini "positivi",per esempio "regalo" o "felice". E analogamente, il sistema di IA associa le parole legate al sessofemminile (come "donna" e "ragazza") a parole chehanno a che fare con le arti, e molto meno con la matematica.