Tecnologia razzista: i software per il riconoscimento facciale

Dalla parte di chi lotta per essere riconosciuto, dell'essere umano e dei suoi diritti.
Contribuisci a preservare la libera informazione.

DONA

Il caso

A fine novembre, a New Orleans (Lousiana) avvenne un furto ai danni di alcuni negozi di lusso, quali Chanel e Louis Vuitton. La polizia locale sfruttò la tecnologia del riconoscimento facciale per risalire al colpevole: Randall Reid, residente nello stato della Georgia. Nulla di eclatante in questa storia, tranne il fatto che la polizia mise in carcere la persona sbagliata. Secondo un quotidiano locale, il New Orleans Advocate, la polizia si sarebbe fidata della risposta data dal software, senza procedere con i necessari accertamenti. Il presunto colpevole, infatti, non solo mostrava una differenza di peso di quasi 20 chili rispetto all’uomo ripreso dalle telecamere, ma non risulta essere nemmeno mai stato in Louisiana. Reid è quindi stato in carcere per quasi una settimana, nonostante la sua comprovata innocenza.

La denuncia di AJ+

La segnalazione dell’ennesimo arresto ai danni di una persona di colore da parte di un  software di riconoscimento facciale arriva da AJ+. L’account Instagram è di proprietà di Al Jazeera, rete televisiva satellitare che riscuote notevole successo tra i paesi di lingua araba, grazie alla diffusione di notizie non censurate. Secondo la piattaforma, questi software sono “affetti” da importanti bias etnici, tali da compromettere il loro scopo: riconoscere volti. Il problema sta spesso nell’algoritmo utilizzato: questo presenta problemi notevoli sia nell’identificazione di donne che di persone di colore. Ciò significa che è soggetta ad errore tutta quella fascia di popolazione che non è maschio e non è bianca. La gran parte degli errori interessano quindi gruppi sociali per definizione vulnerabili e/o emarginati, dal momento che i software non sono tarati sulla loro fisionomia. A questo va aggiunto la variabile umana: abusi, errori, “leggerezze” da parte delle forze dell’ordine che decidono di fidarsi ciecamente dell’output della macchina.

Perché si registrano bias nei software per il riconoscimento facciale?

Questi bias – termine che significa “pregiudizio” – hanno origine primariamente dal modo in cui i dati vengono inseriti nel sistema. Questi errori finiranno quindi per favorire o meno alcuni gruppi. Per avere un’idea più definita, l’errore nel riconoscimento facciale di un uomo bianco sfiora lo zero, mentre quello di una donna di colore può arrivare al 30%. Questa distorsione può avvenire in diversi modi.

In primis, i dati inseriti nel sistema non sono rappresentativi della popolazione reale: l’intelligenza artificiale è infatti più performativa quando si tratta di uomini bianchi.

Può capitare poi l’inserimento di dati errati nel sistema. Il software può giungere a conclusioni errate rispetto a quali gruppi di persone hanno più probabilità di commettere un certo crimine. L’algoritmo tenderà quindi indicare con più frequenza membri di un certo gruppo.

Un terzo caso riguarda l’algoritmo stesso. I sistemi di intelligenza artificiale sono infatti in grado di apprendere autonomamente a partire dall’input (algoritmo) che viene fornito loro. Nel momento in cui l’algoritmo inserito contiene un bias, la macchina finirà necessariamente per produrre risposte falsate.

Un ultimo macro gruppo di errori è quello definito dagli errori umani. Chi inserisce i dati e gli algoritmi può infatti essere guidato a sua volta da pregiudizi o valutazioni personali. Questo non vuol dire che inserirà volontariamente dati errati, ma verrà spinto, dai propri bias, a scegliere un certo algoritmo – magari discriminante – rispetto ad un altro – che magari non lo è.

“Errori” simili sono (quasi) all’ordine del giorno

Uno dei Paesi in cui gli arresti determinati da risultati (sbagliati) dei software sono più frequenti è l’America. Una storia simile a quella di Randall Reid è accaduta a Nijeer Parks, un giovane americano di colore. Nel febbraio del 2019 è stato accusato di furto ai danni di un negozio di Woodbrige. Il software per il riconoscimento facciale aveva decretato una “comparazione di alto profilo”, per cui le autorità proseguirono con l’arresto. Dopo aver ricevuto accuse (infondate) di responsabilità della rapina, Parks ha dovuto attendere il dicembre 2019 affinché queste cadessero definitivamente.

Un altro Paese che si serve massivamente di questi strumenti è certamente la Cina, ma in questo caso le proteste che richiedono – almeno – un uso moderato del mezzo sembrano rimanere inascoltate. Al contrario, il governo cinese starebbe utilizzando proprio il riconoscimento facciale per individuare i e le partecipanti alle proteste contro la stratega “zero Covid”.

Perché si deve richiamare George Floyd

Un altro caso, forse più celebre, legato alla tendenza razzista nei sistemi di riconoscimento facciale è stato sicuramente quello di George Floyd. In seguito alla sua uccisione, sono scoppiate – in particolare a New York – le proteste del movimento “Black lives matter”. Nonostante i sistemi di sorveglianza non siano direttamente imputabili alla sua morte, il movimento ha puntato il dito contro i software. Le proteste, come nel caso di Reid, erano rivolte in particolare all’uso che la polizia americana fece (e fa) di questi mezzi. A riconferma della tendenza razzista dei software, società come IBM, Microsoft e Amazon, annunciarono il ritiro delle forniture per il riconoscimento facciale.

La campagna “Ban the scan”

La sorveglianza di massa e l’uso smodato di questi software spesso sembrano qualcosa di lontano dal nostro quotidiano. C’è il rischio che si concepisca come elemento problematico solo in qualche remoto caso, e non come un fatto che ci tocca da vicino. Amnesty International, nel febbraio 2022, ha pubblicato i risultati relativi all’indagine condotta nella città di New York, dal nome “Ban the scan”. Dal 2021 si è infatti studiata la relazione tra la frequenza delle perquisizioni in certi quartieri e la loro esposizione alla tecnologia di sorveglianza. In quartieri come il Bronx, Brooklyn e il Queens, dove la popolazione non bianca è in maggioranza, è maggiore anche la presenza di telecamere a circuito chiuso per il riconoscimento facciale. L’utilizzo massivo di questi strumenti viola il diritto alla riservatezza, mettendo a rischio, ad esempio, la libertà di manifestazione. I volontari che hanno partecipato al progetto hanno mappato le telecamere della città: sarebbero 25.500. Dall’indagine è anche nato un sito interattivo, che permette di scoprire da quante telecamere si viene ripresi durante un certo percorso tra le vie di NY.

La richiesta conclusiva di Amnesty, assolutamente condivisibile, è quella di vietare completamente l’uso, lo sviluppo, la vendita e l’importazione di tecnologie per il riconoscimento facciale. L’uso massivo che viene fatto, come a New York, si avvicina alle distopie cinematografiche sulla sorveglianza di massa, che – visti i fatti – sono già attuali.

Alice Migliavacca

Stampa questo articolo