L'IA est-elle culturellement biaisée ?
- Seb

- 20 oct.
- 4 min de lecture
L’intelligence artificielle a-t-elle un accent ?
On va se le dire tout de suite : l’intelligence artificielle, aussi brillante soit-elle, n’est pas née dans le vide. Elle est formée à partir de nos données, nos textes, nos images, notre manière de voir le monde. Et ça, ça veut dire qu’elle hérite aussi de nos angles morts, nos stéréotypes, nos biais culturels.
Mais c’est quoi ça, un biais culturel en IA ? En gros, c’est quand une IA donne des réponses ou prend des décisions basées sur des valeurs, des règles ou des normes qui reflètent surtout une culture dominante (souvent occidentale, anglophone, masculine, etc.), tout en ignorant ou mal représentant d’autres perspectives culturelles.
Des exemples qui parlent fort
Tu demandes à une IA de te décrire une famille « normale » : elle te sort une image d’une famille blanche, hétéro, avec deux enfants pis un chien dans une banlieue typique… pas très inclusif.
Des modèles de reconnaissance vocale comprennent très bien l’anglais standard, mais ont de la misère avec les accents africains ou asiatiques. Une étude de Stanford a montré jusqu’à 35 % d’erreurs pour les locuteurs afro-américains, contre 19 % pour les blancs.
Côté traduction : Google Translate a été montré comme ayant des biais de genre. Il associe automatiquement des métiers « prestigieux » au masculin, même quand ce n’est pas spécifié.
Et souvent, les IA ne comprennent pas certaines réalités culturelles ou les traitent comme des anomalies.
Tout ça arrive parce que les données utilisées pour entraîner ces modèles proviennent majoritairement d’internet… qui est dominé par des perspectives américaines, anglaises, blanches, et masculines. Fait que les IA finissent par reproduire ces angles morts.
Le Québec dans tout ça : sous-représenté… mais ça s’améliore !
Bonne nouvelle : depuis quelques années, le français québécois commence à mieux se faire comprendre par les grands modèles linguistiques (LLM). Des modèles comme GPT-5, Claude ou Mistral reconnaissent maintenant beaucoup mieux les expressions d’ici. Des mots comme "char", "magasiner" ou "fin de semaine" ne sont plus automatiquement corrigés ou remplacés par du français européen.
Il y a même des efforts concrets qui ont été faits :
L’OQLF a commencé à collaborer avec des entreprises tech pour enrichir les bases de données en contenu québécois.
Des chercheurs universitaires d’ici travaillent sur des corpus francos-canadiens pour entraîner des IA plus représentatives de notre réalité.
Il y a une demande populaire croissante pour des assistants virtuels, traducteurs et chatbots adaptés au Québec.
Mais faut rester vigilants :
Les références culturelles plus fines (ex : personnalités médiatiques, lois provinciales, expressions régionales) sont encore trop souvent mal interprétées ou carrément absentes.
Le français québécois oral, avec ses accents variés, reste difficile à bien gérer pour plusieurs systèmes de reconnaissance vocale.
Bref, ça s’améliore, pis c’est encourageant. Mais pour que ça continue, faut qu’on continue de créer, partager et défendre du contenu d’ici. L’IA doit apprendre notre réalité autant que celle des autres.
Pourquoi c’est un vrai problème ?
Parce que l’IA est partout : dans la santé, l’éducation, la justice, les ressources humaines…Et quand ces systèmes sont biaisés, ils peuvent discriminer sans même le vouloir.
Un rapport du MIT Media Lab (Crawford, 2021) montre que les IA utilisées dans les systèmes judiciaires américains amplifient les inégalités raciales déjà existantes. Ce genre de dérive peut se produire ici aussi si on ne fait pas attention à ce qu’on injecte dans les modèles.
Est-ce qu’on peut régler ça ?
Ouais, c’est pas fichu — mais faut y mettre du temps pis de la rigueur :
Diversifier les données d’entraînement : inclure des textes, voix et images issus de plein de cultures. Ex. : le projet Masakhane, qui développe des IA en langues africaines.
Inclure plus de diversité dans les équipes IA : femmes, minorités, chercheurs du Sud global, autochtones… comme le prône Timnit Gebru, figure de proue de l’éthique de l’IA.
Auditer régulièrement les modèles pour détecter les biais. OpenAI, Google et d'autres commencent à le faire, mais c’est encore timide.
Militer pour une IA locale et contextuelle : au Québec, on a tout intérêt à développer nos propres corpus, modèles linguistiques et outils.
Mon opinion ?
L’IA est pas méchante en soi, mais elle reflète le monde qu’on lui donne. Et présentement, elle reflète surtout un monde pas mal uniforme.
Si on veut que l’intelligence artificielle soit vraiment inclusive, équitable, puis représentative, on doit se poser une vraie question :
Pour qui cette IA a-t-elle été conçue ? Et qui est laissé de côté ?
C’est à nous — chercheurs, créateurs, utilisateurs — de revendiquer mieux.Parce que si on dit rien, l’IA va juste répéter les mêmes erreurs que nos systèmes actuels. Mais en plus vite. Et à plus grande échelle.
Sources :
Koenecke, A. et al. (2020). Racial disparities in automated speech recognition. PNAS.
Prates, M. et al. (2018). Assessing gender bias in machine translation.
Crawford, K. (2021). Atlas of AI. Yale University Press.
Projet Masakhane : https://www.masakhane.io
Black in AI (Timnit Gebru) : https://blackinai.org
Observatoire de la langue française au Québec (OQLF), rapports 2022-2024 sur le traitement automatisé du français québécois

Commentaires