MONDE
L’initiative a conduit à la suppression des étiquettes offensantes utilisées par le système de classification de la plateforme.
ImageNet, l’une des plus importantes banques d’images en ligne, a annoncé le 17 septembre qu’elle allait retirer 1 500 catégories utilisées par son intelligence artificielle (IA) pour classer les personnes. Cette décision intervient à la suite de la mise en œuvre d’un projet artistique, présenté sous la forme d’une application Internet, qui a publiquement révélé les biais stéréotypés qu’emprunte l’IA d’ImageNet pour trier ses photos d’humains.
Intitulée « ImageNet Roulette », cette application – projet artistique est disponible sur le web et présentée dans le cadre de l’exposition « Training Humans », ouverte le 12 septembre à la Fondation Prada de Milan. Cet outil délibérément provocateur, conçu par la chercheuse en intelligence artificielle Kate Crawford et l’artiste américain Trevor Paglen alerte sur « la manière dont les humains peuvent être classés par les machines dotées de système d’apprentissage ».
Devenu virale ce mois-ci, ImageNet Roulette propose à toute personne de soumettre un portait photo afin que celui-ci soit classé selon l’une des 2 800 catégories utilisées par ImageNet. Si le résultat peut amuser pour les personnes blanches, qualifiées de « fumeur de pipe » ou de « pilote d’avion », celui des personnes de couleur est plus problématique. En effet, ces utilisateurs ont signalé l’occurrence de termes racistes tels que « negro» et de plusieurs formules insultantes.
« Pour mettre en lumière les dérives des catégories d’ImageNet, il nous fallait les reproduire fidèlement, avec toutes les offenses qu’elles véhiculent », ont indiqué les créateurs de l’application avant d’ajouter : « Nous espérions susciter chez d’autres l’indignation qui fût la nôtre lorsque nous avons étudié ImageNet et d’autres bases de données au cours des deux dernières années ».
Le problème est d’autant plus préoccupant qu’ImageNet est l’une des plateformes les plus utilisées pour entraîner, grâce à l’intelligence artificielle, des programmes de reconnaissance faciale, potentiellement vendus à des agences de recrutement ou des services de police.
Si la plateforme d’images a été développée par des chercheurs de l’Université de Stanford et de Princeton en 2009, la base lexicale qu’elle emploie date des années 80. Son vocabulaire a été importé à partir des données d’anciens « travailleurs du clic » qui étaient payés pour décrire des personnes en fonction de leur sexe, âge et origine.
« Lors de la mise en place d’ImageNet, nos équipes ont cherché à retirer tous les termes péjoratifs intégrés, mais notre filtrage était imparfait et certains contenus offensants sont restés », a reconnu ImageNet dans un communiqué, puis précisé que parmi ses 2 800 qualificatifs de personnes « 430 ont été identifiés comme “impropre” et 1 100 “sensibles” ».
En réponse à l’annonce de leur suppression, les responsables d’ImageNet Roulette ont indiqué que l’application serait désactivée le 27 septembre et déclaré : « L’outil a atteint son objectif, il a inspiré un débat public […] et nous espérons qu’il sensibilisera les développeurs d’intelligences artificielles sur les dangers de la classification ».
L’accès à la totalité de l’article est réservé à nos abonné(e)s
Un projet artistique dénonce les biais racistes d’une importante base d’images
Déjà abonné(e) ?
Se connecterPas encore abonné(e) ?
Avec notre offre sans engagement,
• Accédez à tous les contenus du site
• Soutenez une rédaction indépendante
• Recevez la newsletter quotidienne
Abonnez-vous dès 1 €