Au sommet de l’Intelligence artificielle (IA) à Paris, une question reste dans un angle mort : telle qu’elle est conçue et financée, l’IA ne peut qu’amplifier la propagation du sexisme.
Alors que le « sommet sur l’action de l’IA » à Paris ressemble à un concours de zizi demandant comment l’Europe pourrait ne pas être à la traîne des Etats-Unis ou de la Chine, plusieurs questions se posent pour la démocratie et pour l’égalité femmes hommes : qui nourrit l’information produite par l’IA ? Qui paie pour propager quelles informations et quelles idées ? Comment les algorithmes décident-ils de s’approprier telle information ? Comment contrer la croisade d’armées de trolls complotistes qui gavent les robots de l’information ? Comment faire en sorte que l’IA propage un regard plus féministe sur le monde ?
Nous avons demandé à ChatGPT qui nourrit l’IA. Et voici la fin de la réponse : « En résumé, l’IA est alimentée par des données, des algorithmes et l’expertise humaine qui guide son développement ! »
IA alimentée par des médias sexistes
L’IA va donc se nourrir du contenu de médias existants, ce qui pose des problèmes de droits d’auteurs (voir plus bas) et des problèmes de propagation du sexisme.
Nous l’avons mainte fois écrit, de nombreuses études l’attestent : les médias sont un miroir grossissant du sexisme. Hiérarchie de l’information indexée sur des valeurs viriles, sur représentation des hommes dans les médias, disqualification des points de vues féministes… derrière le récit de l’information, les journaux dessinent plus ou moins consciemment une société de domination masculine. Les médias puissants, visibles et influents ressemblent à ceux qui les financent et les dirigent. Nourrie aux biais sexistes de l’information, l’IA ne peut que produire du sexisme. Et, au delà de l’information, plusieurs études montrent que le sexisme se tapit dans tous les recoins de l’IA.
Lire Réinventer l’IA, loin des biais sexistes, c’est possible !
Mais ce n’est pas tout ! Les réseaux sociaux (RS) puissants deviennent des outils de désinformation. Si, à leurs débuts, ces RS ont offert une fenêtre permettant à des idées féministes de s’exprimer sans être filtrées par les vieux médias, cette parenthèse est en train de se refermer. Les voix féministes sont noyées par les algorithmes nourris par des trolls d’extrême droite.
Aux Etats-Unis, la « broligarchie » finance les médias et réseaux sociaux qui déversent des tsunamis de messages antiféministes.
Lire : « Énergie masculine » : les faiseurs d’opinion prennent le virage trumpiste à pleine vitesse
En France, un certain Pierre-Edouard Sterin investit 150 millions d’euros pour gagner la « bataille culturelle » de l’extrême droite, forcément antiféministe, dans les médias et sur les RS grâce à de puissantes armées de trolls.
Nourrir sainement l’IA
Que faire pour nourrir sainement l’IA ? Et sans biais sexistes ? Face aux médias riches et puissants qui produisent une information pleine de biais sexistes, c’est le pot de terre contre le pot de fer. Si rien ne change, ce sont les journaux sérieux qui vont devoir produire une information de qualité, à leurs frais, pour nourrir sainement une IA qui mettra cette information à disposition du public. (-Au passage, nous vous encourageons à soutenir LesNouvellesNews.fr et à y investir afin de déployer plus largement un autre genre d’info.-)
Pour continuer à produire de l’information à « valeur publique » rebelle au « féodalisme numérique » selon l’expression de l’économiste Mariana Mazzucato, il va falloir règlementer l’IA.
Règlementer la relation IA / Fournisseurs de contenus
« La fiabilité et la richesse de l’IA générative ne peuvent se construire sans les médias, dont le pluralisme, inscrit dans la constitution, est l’un des socles de la démocratie » rappellent Le Syndicat de la presse indépendante d’information en ligne (Spiil) auquel LesNouvellesNews.fr adhèrent,l’Alliance de la presse d’information générale, la Fédération nationale de la presse d’information spécialisée (FNPS) et le Groupement des éditeurs de contenus et services en ligne (Geste).
Ces syndicats lancent un appel : « Nous appelons donc les pouvoirs publics à garantir une nécessaire coopération entre les opérateurs d’IA générative et les médias. Trois conditions sont absolument nécessaires pour assurer l’avenir du journalisme et garantir la fiabilité de l’information à l’heure de l’IA générative : la fin du pillage en respectant le choix des producteurs d’information de mettre leurs contenus à disposition comme données d’entraînement, la traçabilité des sources d’information et l’indispensable rémunération des éditeurs de presse pour l’exploitation de leurs contenus. »
La bataille ne fait que commencer. Il a fallu des années pour que les éditeurs obtiennent une règlementation sur des « droits voisins » versés par les moteurs de recherche et réseaux sociaux qui exploitent leurs contenus. Et les accords commencent à peine à être signés.
L’appel des éditeurs peut permettre de continuer à produire une information fiable… Mais pas exempte de stéréotypes de sexe. Lors de son interview télévisée du dimanche 9 février, le président Emmanuel Macron, très impliqué dans ce sommet de l’IA, n’a pas évoqué la question des biais sexistes de l’IA. En clôture de la première journée du sommet il a affirmé « On va continuer de défendre le droit d’auteur, les droits voisins. On va continuer de préserver la créativité humaine ». Pour la lutte contre la propagation du sexisme, il faudra attendre.
Du coup, j’ai demandé à ChatGPT quels étaient les pricipaux biais. Voici sa réponse (copié-collé) :
« Les biais médiatiques dans l’IA viennent principalement du fait que les modèles sont entraînés sur des contenus issus des médias dominants, qui reflètent souvent des déséquilibres structurels. Voici les principaux biais que l’on retrouve :
1. Sous-représentation des femmes et des minorités
- Les IA formées sur des articles de presse ou des bases de données historiques reproduisent le manque de visibilité des femmes et des minorités.
- Par exemple, une IA générative peut citer davantage d’hommes comme experts, simplement parce que les médias les ont historiquement plus mis en avant.
2. Stéréotypes genrés et biais de langage
- Les algorithmes de traitement du langage reproduisent des associations biaisées :
- « Les hommes sont logiques », « les femmes sont émotionnelles ».
- « Une infirmière est une femme », « un ingénieur est un homme ».
- Une étude de 2017 sur Word2Vec (un modèle de langage) a montré que l’IA associait « femme » à « foyer » et « homme » à « carrière ».
3. Prédominance d’un point de vue occidental et élitiste
- Les IA sont souvent entraînées sur des médias anglo-saxons ou des sources majoritairement occidentales, ce qui invisibilise les perspectives féministes et décoloniales d’autres régions du monde.
- Les voix dissidentes (féministes, LGBTQ+, antiracistes) sont moins représentées, ce qui peut donner l’illusion que leurs combats sont marginaux.
4. Biais dans les algorithmes de recommandation
- YouTube, Google News et Facebook ont tendance à amplifier les contenus sensationnalistes et polarisants, ce qui peut défavoriser les articles de fond ou les analyses féministes, souvent plus nuancées.
- Les médias ayant plus de ressources (souvent mainstream et peu engagés sur l’égalité) sont avantagés dans les résultats de recherche.
5. Invisibilisation des violences sexistes et sexuelles
- Les IA de modération sur les réseaux sociaux ont du mal à détecter le cyberharcèlement sexiste, tandis qu’elles censurent parfois des contenus féministes (ex : Instagram a banni des comptes dénonçant la culture du viol).
- Dans les bases de données médiatiques, les violences faites aux femmes sont souvent minimisées (emploi du terme « drame conjugal » au lieu de féminicide), ce qui fausse les analyses automatiques des IA sur ces sujets.
Comment corriger ces biais ?
Concevoir des algorithmes plus transparents et ouverts aux critiques des chercheuses en études de genre.
Diversifier les sources utilisées pour entraîner les IA (ajouter des médias féministes comme Les Nouvelles News).
Mettre en place des audits réguliers pour identifier les biais. »
Lire aussi dans Les Nouvelles News :
Un Pacte pour que l’intelligence artificielle ne soit pas bêtise sexiste réelle
De Choose France à Vivatech, le masculin l’emporte toujours
« Féministe ? » l’IA détourne la conversation
Quand l’Intelligence Artificielle au service de la pub aggrave les discriminations
En Australie, un algorithme prédictif contre les violences conjugales