Fin juin, une série d’échanges sur Twitter entre le « M. Intelligence artificielle » français qui travaille chez Facebook, Yann LeCun, et une chercheuse américaine engagée, co-fondatrice du collectif anti-racisme Black in AI, Timnit Gebru, a enflammé le réseau au sujet du nouveau modèle de photo récréative Pulse AI de l’Université Duke, aux États-Unis – et de fait, relancé le débat sur les biais inhérents à ces technologies.
« Écoutez-nous »
Pour résumé, Yann LeCun a défendu le désormais traditionnel, la technologie n’est pas biaisée en soi. En revanche, son application peut le devenir dès lors que les bases de données, par lesquelles l’intelligence artificielle (IA) a appris, le sont. Si les visages dans ces ensembles de données sont tous blancs, le taux d’erreurs sur les visages non-blancs sera élevé puisque le système ne les connaît et, donc, ne les reconnaîtra pas.
À l’inverse, a-t-il tweeté, si on apprend à un système « un ensemble de données issues du Sénégal, tout le monde aura l’air africain ».
Une réaction à laquelle, la militante Timnit Gebru a répondu : « J’en ai marre de ce cadrage. Fatiguée. Beaucoup de gens ont essayé d’expliquer, beaucoup d’universitaires. Écoutez-nous. Vous ne pouvez pas simplement réduire les préjudices causés par le Machine Learning à ceux présents dans la base de données. »
En clair, les biais ne sont pas seulement inclus dans les bases de données, mais dans la conception même de l’algorithme. Autrement dit, elle remet en cause à la fois le fondement de l’apprentissage de l’IA mais aussi la façon dont le développeur lui a appris à apprendre. Les biais sont partout.
I’m sick of this framing. Tired of it. Many people have tried to explain, many scholars. Listen to us. You can’t just reduce harms caused by ML to dataset bias. https://t.co/HU0xgzg5Rt
— Timnit Gebru (@timnitGebru) June 21, 2020
Les échanges se sont progressivement multipliés, le ton est devenu de plus en plus tranchant, et les commentaires des haters se sont accumulés. Résultat : Yann LeCun a décidé de quitter Twitter.
Au delà de son départ anecdotique, cet échange est symptomatique des débats qui infusent le monde scientifique autour de la question fatidique : les technologies peuvent-elles être neutres ?
L’IA « objectivise » les biais sociaux
« La discrimination algorithmique est effectivement le reflet des discriminations sociales, mais elle est surtout bien pire », nous explique Céline Castets-Renard, professeure de droit et double-titulaire des chairs de l’IA responsable à l’échelle mondiale à Ottawa (Canada) et de l’Artificial and Natural Intelligence Toulouse Institute.
« Les biais intégrés aux IA renforcent ceux présents dans la société sous couvert d’une fausse objectivité. » Autrement dit, puisque ce sont des indicateurs objectifs, les résultats sont légitimés de facto. Or, derrière cette objectivité se cache une suite de choix subjectifs. Plus grave encore, insiste la juriste, « les IA diffusent ces discriminations à très grande échelle ». C’est là, « le plus grand danger ».
Les conséquences peuvent être gravissimes. Aux États-Unis, la chercheuse Cathy O’Neil a démontré dans son livre Algorithmes, la bombe à retardement que les IA assistant les juges américains alimentaient les préjugés racistes selon lesquels les délinquants avaient plutôt la peau sombre.
Résultat : l’algorithme chargeait plus lourdement les peines infligées aux Afro-américains. Une discrimination induite à la fois par la base de données par laquelle l’IA a appris, dans laquelle les Noirs étaient sur-représentés mais aussi par les choix humains connexes : les choix de quartiers où les policiers patrouillent ou encore ceux de lutte contre telle ou telle criminalité.
Ainsi, si on choisissait de contrôler des quartiers plus riches et plus blancs, et de lutter contre l’évasion fiscale en priorité, les statistiques de la police changeraient du tout au tout.
« Les pièges se trouvent à toutes les étapes »
Les biais sociaux, racistes ou sexistes peuvent se glisser à toutes les étapes de la conception d’une IA. De la base de données choisie pour l’apprentissage au déploiement de l’IA et à son évolution, en passant par les lignes de code en elles-mêmes, « les pièges se trouvent à toutes les étapes », résume la chercheuse Céline Castets-Renard. « Il faut les assumer pour les corriger. »
Éclaboussés par plusieurs scandales liés à ses IA, Facebook et son labo dédié à l’IA baptisé « FAIR » (Facebook Artificial Intelligence Research) tentent de rectifier le tir.
En juin 2019, la firme a utilisé une nouvelle IA, Fairness flow, pour épauler les modérateurs humains lors des élections générales indiennes. Une double-vérification cruciale dans un pays multiculturel au contexte électoral tendu. Autre exemple : dans sa gamme de tablette intelligentes Portal, la fonction de détection de mouvements « ne fonctionnait pas aussi bien pour certains sexes et teints de peau », reconnaît l’entreprise.
Elle a ainsi développé « des directives d’IA inclusive qui expliquent comment construire des ensembles de données de test représentatifs pour différents sexes et teints de peau ».
« Ethical washing »
Mais, pour la chercheuse Céline Castets-Renard, comme pour Timnit Gebru, c’est bien, mais ce n’est pas suffisant. Les GAFA font, selon la première, de « l’Ethical washing ». « Par l’élaboration de charte de bonne conduite et de bonnes pratiques, ils s’auto-régulent et écartent, de fait, le législateur. »
Le risque, démontre la spécialiste, réside dans le fait que ces principes-là ne sont pas optionnels et dépendants du bon vouloir de ces géants de la tech, mais bien des droits fondamentaux. Aux États-Unis, comme en France, l’égalité entre tous les citoyens est garantie par la constitution.
La responsabilité des développeurs est donc immense. « Mais ils ne peuvent pas être les seuls responsables », ajoute Céline Castets-Renard. « Il faut mettre en place un système de contraintes extérieures spécifiques à leur domaine d’activité pour qu’ils puissent vérifier tout au long du processus de création, s’ils sont bien dans les clous. »
« C’est un débat passionnant qui ne fait que s’ouvrir »
« On veut tous qu’il n’y ait pas de de racisme dans les IA, mais comment on fait ? Derrière il y a des enjeux techniques et juridiques. On ne doit plus avoir peur de s’y confronter », poursuit-elle.
Côté technique, ce sont les principes de fairness, robustesse, de loyauté et transparence des algorithmes qui se sont imposés comme les garde-fous des IA. Du jargon de développeur qui signifie que chaque calcul (et son résultat) doit pouvoir être expliqué à chaque utilisateur potentiel.
Sur le volet juridique, la rédaction et de l’adoption d’un Livre blanc par la Commission européenne autour de « l’IA centrée sur l’humain » en 2019 est un signal fort. Larguée au niveau technologique, l’Europe entend jouer de nouveau un rôle de législateur à l’instar de la protection des données personnelles avec le RGPD.
Mais, la route est encore longue, les réactions encore très vives – en témoigne les tweets sulfureux entre Timnit Gebru et Yann LeCun, qui représentent réciproquement deux générations de scientifiques. En tout cas, « c’est un débat passionnant qui ne fait que s’ouvrir », résume la spécialiste Céline Castets-Renard. « La technologie nous permet de voir ce qu’on a pas voulu voir pendant des années. C’est politique d’en faire un levier pour changer les choses, ou au contraire, pour continuer à reproduire les discriminations révélées. »
🔴 Pour ne manquer aucune actualité de 01net, suivez-nous sur Google Actualités et WhatsApp.