
Aujourd’hui, les intelligences artificielles sont partout, de la reconnaissance faciale des smartphones dernier cri à l’assistance vocale de Google Home, en passant par Netflix et son algorithme de recommandation. Elles ont peu à peu envahi notre quotidien, nous remplacent parfois et pourraient même un jour nous devancer, selon certain.e.s analystes. Mais pour le moment, la machine n'est pas plus conscientisée que l’être humain, au contraire.
Une étude d'avril 2019, intitulée "Discriminating Systems" et menée par l’AI NOW Institute de l’Université de New York, met en évidence les biais racistes et sexistes des intelligences artificielles. Logique, quand on sait que leurs concepteurs sont majoritairement des hommes blancs... Selon les chiffres révélés par l’étude, seulement 15% de femmes travaillent dans la recherche sur l’intelligence artificielle chez Facebook et 10% chez Google. Quant aux personnes racisées, elles sont sous-représentées voire absentes dans ce domaine. En effet, chez Facebook et Microsoft, seulement 4% de l'effectif est composé de chercheur.se.s noir.e.s et chez Google, cette proportion dégringole à 2,5%.
Google Photos, y'all fucked up. My friend's not a gorilla. pic.twitter.com/SMkMCsNVX4
— jackyalciné (@jackyalcine) 29 juin 2015
Les intelligences articielles étant à l'image de leurs créateurs, de nombreux tests révèlent les conséquences de la sous-représentation des femmes et des personnes racisées côté conception. En 2015 déjà, l’application de photos Google identifiait deux personnes noires comme étant des gorilles, renvoyant à un horrible stéréotype raciste. En 2016, Microsoft testait @TayTweets sur Twitter, un chatbot (robot conversationnel) qui devait s’enrichir de conversations avec la communauté pour développer son sens de la répartie. Tay était capable d'échanger avec les twitto.as, sans l’aide de qui que ce soit, mais a rapidement été mise hors ligne. Après avoir été confrontée à des internautes tenant des propos haineux, Tay n’a fait que reproduire par mimétisme ce qui lui avait été écrit, déblatérant par la suite des tweets choquants. Cette fois-ci, les concepteurs ne sont pas directement fautifs, mais cet exemple démontre l'impact négatif que l'être humain a sur la machine : si Tay a tenu des propos racistes, sexistes et antisémites, c'est bien que quelqu'un les lui a enseignés...
En 24h, l'#IA de #Microsoft pète les plombs et devient raciste... Apparemment elle apprend d'elle même. #TayTweetspic.twitter.com/Kd3XVUcYTO
— Mathilde Taurinya (@ma_taurinya) 26 mars 2016
Quant à Amazon, le géant souhaitait l'an dernier automatiser sa procédure de recrutement en la confiant à une intelligence artificelle, or, cette tâche était auparavant réalisée majoritairement par des hommes. En se fondant sur les données RH des dix dernières années, l’intelligence artificelle s'est mise à pénaliser les candidatures de femmes… Preuve que les IA absorbent les mauvais mécanismes de l’être humain et qu'une meilleure représentation des femmes et personnes racisées est nécessaire, afin de créer des machines universelles aux comportements impartiaux.