Alexandria Ocasio-Cortez affirme que les algorithmes peuvent être racistes. Voici pourquoi elle a raison.

  • Gyles Lewis
  • 1
  • 3075
  • 590

La semaine dernière, la nouvelle représentante américaine Alexandria Ocasio-Cortez a fait la une des journaux lorsqu'elle a déclaré, dans le cadre du quatrième événement annuel MLK Now, que les technologies et les algorithmes de reconnaissance faciale "ont toujours ces inégalités raciales qui se traduisent, car les algorithmes sont toujours créés. par les êtres humains, et ces algorithmes sont toujours liés à des hypothèses humaines de base. Ils sont simplement automatisés. Et des hypothèses automatisées - si vous ne corrigez pas le biais, alors vous automatisez simplement le biais. "

Cela signifie-t-il que les algorithmes, qui sont théoriquement basés sur les vérités objectives des mathématiques, peuvent être «racistes»? Et si oui, que peut-on faire pour éliminer ce biais? [Les 11 plus belles équations mathématiques]

Il s'avère que la sortie des algorithmes peut effectivement produire des résultats biaisés. Les scientifiques des données affirment que les programmes informatiques, les réseaux neuronaux, les algorithmes d'apprentissage automatique et l'intelligence artificielle (IA) fonctionnent parce qu'ils apprennent à se comporter à partir des données qui leur sont fournies. Le logiciel est écrit par des humains, qui ont des préjugés, et les données d'entraînement sont également générées par des humains qui ont des préjugés.

Les deux étapes de l'apprentissage automatique montrent comment ce biais peut se glisser dans un processus apparemment automatisé. Dans la première étape, la phase d'apprentissage, un algorithme apprend en fonction d'un ensemble de données ou de certaines règles ou restrictions. La deuxième étape est la phase d'inférence, dans laquelle un algorithme applique ce qu'il a appris dans la pratique. Cette deuxième étape révèle les biais d'un algorithme. Par exemple, si un algorithme est formé avec des images de femmes uniquement aux cheveux longs, il pensera que toute personne aux cheveux courts est un homme..

Google a tristement été critiqué en 2015 lorsque Google Photos a qualifié les Noirs de gorilles, probablement parce qu'il s'agissait des seuls êtres à la peau sombre de l'ensemble d'entraînement..

Et les préjugés peuvent s'infiltrer par de nombreuses voies. "Une erreur courante consiste à entraîner un algorithme pour qu'il fasse des prédictions basées sur des décisions passées d'humains biaisés", a déclaré Sophie Searcy, une scientifique senior des données au bootcamp de formation en science des données Metis. "Si je crée un algorithme pour automatiser les décisions précédemment prises par un groupe d'agents de crédit, je pourrais prendre la voie facile et former l'algorithme sur les décisions passées de ces agents de crédit. Mais alors, bien sûr, si ces agents de crédit étaient biaisés, alors l'algorithme que je construis continuera ces biais. "

Searcy a cité l'exemple de COMPAS, un outil prédictif utilisé dans le système de justice pénale américain pour la détermination de la peine, qui tente de prédire où le crime se produira. ProPublica a effectué une analyse sur COMPAS et a constaté qu'après avoir contrôlé d'autres explications statistiques, l'outil surestimait le risque de récidive pour les accusés noirs et sous-estimait systématiquement le risque pour les accusés blancs..

Pour aider à lutter contre les biais algorithmiques, a déclaré Searcy, les ingénieurs et les scientifiques des données devraient créer des ensembles de données plus diversifiés pour de nouveaux problèmes, ainsi que tenter de comprendre et d'atténuer le biais intégré aux ensembles de données existants..

D'abord et avant tout, a déclaré Ira Cohen, un scientifique des données à la société d'analyse prédictive Anodot, les ingénieurs devraient avoir un ensemble de formation avec une représentation relativement uniforme de tous les types de population s'ils forment un algorithme pour identifier les attributs ethniques ou de genre. "Il est important de représenter suffisamment d'exemples de chaque groupe de population, même s'ils sont une minorité dans la population globale examinée", a déclaré Cohen. Enfin, Cohen recommande de vérifier les biais sur un ensemble de test qui inclut des personnes de tous ces groupes. "Si, pour une certaine race, la précision est statistiquement significativement inférieure à celle des autres catégories, l'algorithme peut avoir un biais, et j'évaluerais les données d'entraînement qui ont été utilisées pour cela", a déclaré Cohen à LiveScience. Par exemple, si l'algorithme peut identifier correctement 900 visages blancs sur 1000, mais ne détecte correctement que 600 visages asiatiques sur 1000, alors l'algorithme peut avoir un biais "contre" les Asiatiques, a ajouté Cohen.

Supprimer les biais peut être incroyablement difficile pour l'IA.

Même Google, considéré comme un précurseur de l'IA commerciale, n'a apparemment pas pu trouver une solution complète à son problème de gorille à partir de 2015. Wired a constaté qu'au lieu de trouver un moyen pour ses algorithmes de distinguer les personnes de couleur et les gorilles, Google a simplement bloqué ses algorithmes de reconnaissance d'image pour identifier les gorilles du tout.

L'exemple de Google est un bon rappel que la formation d'un logiciel d'IA peut être un exercice difficile, en particulier lorsque le logiciel n'est pas testé ou formé par un groupe de personnes représentatif et diversifié..

  • Intelligence artificielle: amicale ou effrayante?
  • Machines super-intelligentes: 7 futurs robotiques
  • 10 nouvelles compétences folles que les robots ont acquises en 2018

Publié à l'origine le .




06.03.24 05:12
order lipitor pills <a href="https://lipiws.top/">atorvastatin 20mg brand</a> atorvastatin for sale online
Les articles les plus intéressants sur les secrets et les découvertes. Beaucoup utiles sur tout
Articles sur la science, la technologie, la santé, la culture. Expliquer des milliers de sujets pour savoir comment tout fonctionne