Au-delà des algorithmes,
les défis éthiques de l'intelligence artificielle

Par La rédaction, 2 juin 2024 à 16:25

La Relève

Dans un monde où les outils dotés de l’intelligence artificielle façonnent de plus en plus nos connaissances, nos interactions et même nos choix, la question des « biais » qui dirigent les réponses obtenues est cruciale. Daphné Marnat, chercheure anthropologue et cofondatrice de la startup Unbias, spécialisée dans la lutte contre les biais sexistes dans l'intelligence artificielle et basée à Sophia Antipolis, offre un regard pertinent sur la façon dont ces préjugés se manifestent dans les algorithmes. Son expertise éclaire les implications sociétales de ces biais, tout en proposant des pistes concrètes pour une technologie transparente.

Pour démontrer le renforcement des stéréotypes par les outils utilisant l’intelligence artificielle, notamment ceux liés au genre, vous prenez l’exemple des métiers de la santé. Pouvez-vous expliquer votre méthode ?


Effectivement, le secteur médical comporte de nombreux stéréotypes sexistes. Si dans une recherche Google Image ou un outil générateur de visuels, vous cherchez en français les métiers liés au soin, vous obtiendrez une immense majorité de résultats avec des hommes chirurgiens et des femmes infirmières. Autre exemple avec les métiers scientifiques ou de personnes travaillant dans un laboratoire : ce sera davantage d’hommes qui sortiront. C’est la même chose pour les métiers de services où vous obtenez des résultats hyper stéréotypés, mais cette fois par rapport à la couleur de la peau ou de l’origine.


Et ces résultats sont loin de refléter la réalité…


Effectivement. Chez Unbias, dans notre étude où nous scrutions le type de peau et de genre qui était généré à partir de métiers, nous avons déterminé un taux d’erreur de 30 à 60 % par rapport à la réalité ! C’est énorme. Et c’est aussi très grave, car, d’une part, cela montre que ces modèles d’intelligence artificielle ne reflètent pas la réalité, et qu’ils renforcent une vision stéréotypée de la société. Ce dernier point devient alors un problème de société tant l’intelligence artificielle prend une part croissante dans nos vies.


Pourtant, l’intelligence artificielle semble être l’aboutissement de l’état des connaissances du monde. Comment expliquer que les réponses reproduisent des inégalités ou renforcent de tels clichés ?


Tout simplement parce que l’intelligence artificielle n’est pas connectée à la réalité, mais à des datasets, ces masses de données sur lesquelles elle a été entraînée à répondre. Ces corpus représentent une culture du web à un certain moment, mais absolument pas la réalité. Les modèles reproduisent une vision du monde qui leur est donnée dans ces datasets. Ce sont des modèles basés sur la probabilité. Quand vous lui posez une question, il va aller chercher la réponse la plus probable, pas la plus semblable ou « vraie ». La réponse la plus probable est celle qu’il va le plus rencontrer lors dans son entraînement, souvent les lieux communs, la norme. La diversité, l’exception, le minoritaire sont exclus.


Pourtant, la suppression complète des biais entraîne une perte de performance des modèles d’intelligence artificielle. Pourriez-vous expliquer ce dilemme ?


En effet, certains biais sont intrinsèquement liés à la performance des modèles, ce qui rend difficile leur élimination totale sans compromettre la qualité de l’outil. Les informations liées au genre sont très présentes par exemple dans les corpus d’apprentissage, dans nos langues. Lui interdire ces corrélations c’est priver le modèle d’une structuration du monde importante. Il ne suffit pas de lui interdire les informations liées au genre ou à l’origine ethnique. Google en a fait les frais avec son modèle Gemini. Pour éviter des comportements qu’on aurait pu considérer comme racistes, l’équipe en charge du développement du modèle avait donné des règles au modèle : générer des images « inclusives ». Ou prompt : « créer des images de Vikings historiques », le modèle générerait des images de Vikings asiatiques, afro-américains, etc. Ils ont retiré cette version du marché. La question des biais est complexe et subtile, on ne peut l’adresser avec des règles de renforcement caricaturales.


Et c’est là qu’intervient Unbias, l’entreprise que vous avez cofondée ?


Oui, notre objectif est de proposer des solutions pour nos clients afin de résoudre des problèmes concrets liés à l’amplification des biais dans l’apprentissage machine. Nous croyons qu'il existe plusieurs voies pour cela, notamment en proposant notre expertise qui est à la fois éthique et bénéfique sur le plan commercial. Par exemple, nous développons des outils permettant de mesurer le niveau de stéréotypes dans les ensembles de données et de suivre leur évolution pendant l'entraînement des modèles. Ensuite, nous proposons des mécanismes pour prendre des décisions en fonction des risques identifiés, ainsi que des solutions pour améliorer la transparence des algorithmes.


Dans le cadre de vos recherches, vous évoquez également une dimension « morale » de l’intelligence artificielle, soulignant que les choix derrière les algorithmes sont nécessairement orientés, que ce soit volontairement ou non. Pourriez-vous l’expliquer ?


L’intelligence artificielle ne dispose pas de sa propre morale, mais elle est encadrée par des limites qu’on lui demande de ne pas dépasser. Je peux prendre deux exemples simples avec ChatGPT. L’outil refuse de m’indiquer les lieux les plus discrets pour avoir une aventure extraconjugale ou il ne veut pas rédiger une description avantageuse sur mon physique pour mon profil LinkedIn. Sauf que ChatGPT ne se contente pas simplement de me dire non ou de refuser de répondre, il m’indique que ces demandes-là ne sont pas appropriées. Il y a donc un choix qui est fait par les équipes qui développent ces modèles qui déterminent où se trouve le bien du mal, sans expliquer leur choix.


Comment ces outils sont-ils conduits à arbitrer la moralité de leur réponse ?


Justement, nous ne le savons pas ! Cela rejoint le sujet de l’absence de transparence des modèles. Qui insuffle cette « morale » ? Qui place le curseur du bien et du mal, de ce qui peut être dit ou ne pas être dit par une IA ? En bout de chaîne, ce sont bel et bien des développeurs derrière, des humains. Il règne un flou total sur les arbitrages dans le processus de construction des modèles ! Cette transparence permettrait non seulement une meilleure compréhension des processus décisionnels des IA, mais aussi une évaluation plus précise des biais potentiels et des implications éthiques de ces technologies. Mais il est difficile de les mobiliser, que ce soit sur ce besoin de transparence et sur la lutte contre les stéréotypes.


Comment expliquez-vous ce peu d’intérêt ?


Cela peut être attribué à plusieurs facteurs. D'une part, il y a une certaine homogénéité dans les profils des personnes qui développent les modèles d’intelligence artificielle, ce qui peut les rendre moins sensibles aux problématiques de discrimination. D'autre part, il y a peut-être une certaine inertie dans le domaine de la recherche, où les chercheurs sont plus enclins à travailler sur des sujets qui leur sont familiers. L’IA est perçue comme plutôt floue, en particulier dans le domaine des sciences sociales. Enfin, il y a le rôle crucial que jouent les investisseurs dans la direction que prend la recherche en intelligence artificielle. Leurs intérêts pour les technologies à la pointe et les retours sur investissement rapides peuvent conduire à une focalisation sur des domaines spécifiques, souvent au détriment de considérations éthiques ou sociales.


Vous rencontrez des résistances de la part de ceux qui contrôlent les financements et dirigent ce secteur ?


Oui, c'est un défi majeur auquel nous sommes confrontés. Avec Unbias, nous devons souvent naviguer entre la nécessité de vendre nos solutions à des entreprises tout en restant fidèles à nos valeurs éthiques. C'est un équilibre difficile à trouver, mais je reste déterminée à poursuivre cette mission.

Parution magazine N°45 (juin, juillet, août)

Qu’en pensez-vous ?

Donnez-nous votre avis

Pour vérifier que vous êtes une intelligence humaine, merci de répondre à ce questionnement lunaire.