Tendances systématiques d'une IA à produire des résultats injustes ou déformés, héritées de ses données d'entraînement.
IntermédiaireLes biais IA viennent des données sur lesquelles les modèles sont entraînés. Si les données contiennent des biais humains (sexisme, racisme, stéréotypes), l'IA les reproduit. Exemples : un IA de recrutement qui favorise les CV masculins, un outil de crédit qui pénalise certaines ethnies, un chatbot qui reproduit des stéréotypes. En tant qu'entrepreneur utilisant l'IA, tu dois être conscient de ces biais et les atténuer : vérifier les résultats, diversifier les données, utiliser des guardrails.
Un sondage réalisé uniquement dans les quartiers riches donnera un résultat biaisé sur le pouvoir d'achat moyen. L'IA fait pareil : si elle n'a vu que certains types de données, elle généralise à partir de cet échantillon déformé.
Un recruteur utilise l'IA pour pré-sélectionner des CV. Il remarque que l'IA recommande systématiquement des profils d'écoles d'ingénieurs parisiens. Cause : les données d'entraînement surreprésentent ces profils. Solution : ajouter des guardrails de diversité et vérifier manuellement les recommandations.
Tu veux maîtriser ces concepts concrètement ?
LE LABO IA t'apprend à construire, automatiser et vendre avec l'IA.
Découvrir le programme