Un gruppo di ricercatori ci pone davanti all’esistenza di una IA razzista e sessista. Si rende così necessaria un’indagine che deve partire da noi.
Ormai le questioni sulla IA negli ultimi tempi dilagano, incuriosiscono, fanno riflettere. Tanto da arrivare a chiedersi se l’esistenza di una IA razzista possa essere possibile. Almeno questo è ciò che emerge da uno studio proveniente dall’America.
L’indagine:
Stiamo parlando di uno studio presentato alla conferenza FAccT 2022 dell’Association for Computing Machinery (Acm), in Corea del Sud e reso possibile dagli studiosi dalla Johns Hopkins University con il Georgia Institute of Technology e l’Università di Washington.
Gli studiosi, a ragione, indicano questa loro indagine come uno studio sociotecnico e interdisciplinare. Non si tratta infatti solo di analizzare il funzionamento di una IA, ma anche di indagare i fattori sociali che la coinvolgono.
Il titolo dello studio è alquanto emblematico, ma terribilmente chiaro: Robots enact malignant stereotypes, in poche parole, i robot mettono in atto stereotipi maligni. In che modo?
Questi modelli di robotica traggono informazioni in modo automatico dal web e sono basati su una rete neurale CLIP. Si tratta, nello specifico, di IA che devono associare immagini e testo. Per addestrare questi robot, OpenAI scarica direttamente da internet varie fonti, creando così intelligenze che vengono, potremmo dire, educate dal web. Questo studio ha voluto così sondare le conseguenze che ciò può avere, in particolare in assenza della supervisione umana.
I risultati dell’esperimento: una IA razzista e sessista
È come se il robot in questione avesse a disposizione un braccio meccanico con il quale poter mettere alcuni cubi con una stessa fotografia per ogni faccia in delle scatole. Le fotografie raffigurano visi umani, maschili, femminili e di diverse etnie. Le scatole entro le quali immettere le foto devono essere i contenitori di alcune categorie come “dottori”, “criminali” e così via.
Alla IA si può quindi chiedere “metti nella scatola il dottore”, oppure “metti nella scatola il criminale”. Ebbene, una IA “ben addestrata”, in mancanza di qualsivoglia indicazione oggettiva per riconoscere il dottore oppure il criminale, non dovrebbe scegliere alcuna fotografia.
La realtà dei fatti è invece diversa: la maggior parte delle volte, nella scatola del “dottore” la IA ha inserito la foto di un uomo, molto meno quella di una donna e nella scatola “criminali” il più delle volte ha inserito l’immagine di una persona di colore, o ancora, fotografie di latino-americani nella scatola degli “addetti alle pulizie”.
Razzista a chi?
Ora, se non vogliamo addentrarci nell’annosa questione della possibile esistenza di una IA senziente (come da poco accaduto nella ormai famosa questione accaduta in Google), almeno chiediamoci di chi sia la responsabilità di una presunta IA razzista e sessista.
Della IA in questione o delle informazioni stereotipate e dense di bias cognitivi presenti in rete? In fondo è lì che la IA ha “studiato” e ha creato la “propria visione” riguardo agli umani.
Oramai internet ha preso il posto di quella tv da cui il filosofo Popper aveva messo in guardia nel suo scritto Cattiva maestra televisione, cambia il mezzo, ma il rischio rimane lo stesso.
Perciò, come ben dovremmo sapere: occhio alle fonti. Non è un caso che gli studiosi di questa ricerca suggeriscano di interrompere l’utilizzo di ogni IA che possa rivelarsi portatrice di discriminazioni.
Perché queste IA potrebbero essere a loro volta fonti dalle quali gli esseri umani potrebbero attingere informazioni stereotipate e distorte. Un po’ come un circolo vizioso, un boomerang, dove se semini razzismo raccoglierai generazioni potenzialmente razziste.
Uomo avvisato, IA mezza salvata.