Sony AI presenta il benchmark per misurare il razzismo delle IA e i risultati fanno paura

Il nuovo dataset FHIBE, basato su immagini consensuali, rivela gravi bias e stereotipi nei modelli di visione artificiale oggi in uso.

Sony AI presenta il benchmark per misurare il razzismo delle IA e i risultati fanno paura
Sony ha presentato un benchmark per misurare l'"eticità" dei modelli IA.

Sony AI ha lanciato un nuovo strumento per misurare l'equità e i pregiudizi dei modelli di intelligenza artificiale, e i risultati sono allarmanti: nessuno dei sistemi attuali ha superato pienamente i test.

Il progetto, denominato Fair Human-Centric Image Benchmark (FHIBE), si presenta come un nuovo standard di riferimento per valutare il grado di imparzialità con cui le tecnologie di visione artificiale trattano le persone. L'obiettivo è affrontare di petto le sfide etiche che affliggono il settore, mettendo a disposizione un dataset innovativo e costruito su principi di trasparenza e rispetto.

A differenza delle pratiche basate sul "web scraping", ovvero la raccolta massiva di dati dal web spesso senza autorizzazione, il dataset di FHIBE è unico nel suo genere. Include immagini di quasi 2.000 partecipanti retribuiti provenienti da oltre 80 paesi, i quali hanno fornito il loro consenso esplicito e possono richiederne la rimozione in qualsiasi momento.
Ogni foto è corredata da annotazioni dettagliate che includono caratteristiche demografiche e fisiche, fattori ambientali e persino le impostazioni della fotocamera utilizzata.

Questa ricchezza di informazioni permette un'analisi molto più approfondita delle cause alla base dei pregiudizi algoritmici. Le analisi condotte tramite FHIBE non si sono limitate a confermare i bias già documentati, ma hanno permesso di individuarne le cause con una precisione senza precedenti.
Ad esempio, è emersa una minore accuratezza dei modelli nel riconoscere persone che usano pronomi femminili ("lei/suo"), un problema che il benchmark ha collegato a una maggiore variabilità nelle acconciature, un fattore precedentemente trascurato.

Ancora più preoccupante è la tendenza dei modelli a rafforzare stereotipi dannosi: interrogati su occupazioni neutre, i sistemi testati hanno associato a specifici gruppi etnici o di genere professioni come spacciatore, ladro o lavoratore del sesso.
I test hanno inoltre rivelato che, di fronte a domande su presunti crimini commessi da un individuo, i modelli generavano risposte "tossiche" con una frequenza maggiore per persone di origine africana o asiatica, con tonalità di pelle più scure o che si identificavano con pronomi maschili.

Con il rilascio pubblico di FHIBE e la pubblicazione della ricerca sulla prestigiosa rivista Nature, Sony AI non si limita a denunciare un problema, ma offre una soluzione concreta. L'iniziativa dimostra che una raccolta dati etica, diversificata ed equa è possibile, fornendo all'intera comunità scientifica uno strumento essenziale per costruire un'intelligenza artificiale veramente al servizio dell'umanità.

Fonte: Sony