Les biais racistes de la reconnaissance faciale sont encore pointés du doigt

[ad_1]

C’est l’une des critiques les plus fréquentes adressée aux technologies de reconnaissance faciale. Ces dernières seraient soumises à des biais racistes. Une étude du MIT publiée par plusieurs années a permis de démontrer ce phénomène et elle concluait que l’IA avait parfois du mal à reconnaître les personnes noires.

Quelques années plus tard, le problème reste entier et rien ne semble avoir véritablement changé. C’est en tout cas ce que laisse suggérer les résultats d’un concours organisé récemment dans le cadre de la Conférence européenne sur la vision par ordinateur qui s’est tenu en septembre dernier. L’idée des organisateurs était d’évaluer les biais raciaux de ces systèmes et de voir ce qui pourrait permettre d’y remédier.

Vers une meilleure régulation de cette technologie ?

Concrètement, les 151 participants utilisaient une base de données qui comprenait 152 917 photos de 6139 hommes et femmes âgés de 34 à 65 ans. Toutes étaient étiquetés en fonction de l’âge, la couleur de peau et de divers autres attributs. Les participants avaient plusieurs mois pour plancher sur leurs IA mais leurs efforts n’ont rien changé aux constats antérieurs. Les femmes noires avaient toujours 45,5 % d’être victimes d’erreurs de la part des systèmes, tandis que ce taux tombait à 12,6 % chez les hommes blancs.

Le concours n’en a pas moins été riche en enseignements pour l’avenir. Cité par VentureBeat, les organisateurs précisent : « L’analyse post-défi a montré que les solutions les plus gagnantes appliquaient une combinaison de différentes stratégies pour atténuer les biais, telles que le prétraitement du visage, l’homogénéisation des distributions de données, l’utilisation de fonctions de perte tenant compte des biais et des modèles d’ensemble. »

Des efforts restent donc à faire et la défiance reste en tout cas de mise. Les appels se font de plus en plus nombreux pour demander une régulation de ces technologies. Vous pouvez retrouver l’analyse que nous faisions à ce sujet en juin dernier.

[ad_2]

Source link

Facebooktwitterredditpinterestlinkedinmail

Soyez le premier à commenter

Poster un Commentaire

Votre adresse de messagerie ne sera pas publiée.


*


Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.