IA & racisme

En 2021, la RTBF publiait un article révélant que les algorithmes de Facebook avaient confondu des personnes noires avec des singes ! Traiter des personnes noires de singes n’est malheureusement pas un phénomène rare. Ce qui surprend sans doute ici, c’est qu’il s’agit d’un algorithme. Des programmes reproduisent, « par erreur » des comportements racistes humains. Le titre « un algorithme confond (…) », même s’il est lexicalement juste, « anthropomorphise » légèrement l’intelligence artificielle. On imagine un petit robot faire « glups ! » en se rendant compte de sa bêtise et se faire taper sur les doigts par ses concepteurices. Or, nous le rappelons, les IA n’ont rien d’humain : pas de jugement de valeur, pas de morale, pas d’empathie, pas de scrupule. Erreur de calcul, erreur de programmation ou mauvais « machine learning » oui, mais point de racisme délibéré ici ! Par contre, les biais racistes de notre société ont en effet bel et bien été intégrés dans les intelligences artificielles. Et si les concepteurices n’ont pas programmé à escient les algos à confondre des personnes noires avec des singes, le fait de les avoir entrainés surtout sur des personnes (masculines) blanches amènent à ce genre de biais, par manque de modèles.

 

 

DOSSIER péda

Explorez notre dossier pédagogique pour comprendre et déconstruire les mécanismes du racisme dans les médias.

animations

Testez nos activités créatives pour aborder les enjeux du racisme et déconstruire les stéréotypes.

podcast

Focus sur le racisme, l’IA et les réseaux sociaux avec les jeunes de l’AMO l’Oranger et le Kiosque de Molenbeek.