Biais dans les systèmes d'IA et prise de décision assistée par l'IA - ISO/IEC 24027:2021 - eLearning

Les préjugés dans les systèmes d'IA peuvent prendre de nombreuses formes différentes. Par exemple, lorsqu'un système d'IA apprend des modèles à partir de données, il peut involontairement adopter des préjugés sociétaux existants à l'encontre de certains groupes. Chez BSI, nous avons développé un cours complet qui aborde les sujets critiques de la partialité et de l'équité dans les systèmes d'IA, sur la base de la norme ISO/IEC 24027:2021. Le cours explore l'importance du développement éthique et équitable dans les technologies de l'IA.  

À la demande - une formation encore plus flexible

Les cours à la demande de BSI sont leaders sur le marché et disponibles 24 heures sur 24 et 7 jours sur 7. Développés par les meilleurs experts en la matière, ils contiennent le même contenu de haute qualité que vous trouverez dans nos formations dirigées par un tuteur, mais avec l'avantage supplémentaire de pouvoir apprendre à votre propre rythme et à n'importe quel moment.

Objectifs pédagogiques

Ce cours vous aidera :

  • Créer un ensemble de méthodes permettant d'identifier les problèmes de partialité et d'équité,
  • Identifier les sources potentielles de biais non désirés et les termes permettant de préciser la nature des biais potentiels,
  • Évaluer la partialité et l'équité à l'aide de mesures,
  • Aborder les préjugés non désirés par le biais de stratégies de traitement.