Pour gérer vos consentements :

Machine Learning : Microsoft veut chasser les biais pour réduire les discriminations

«Ce que nous découvrons {dans notre document}, c’est que ce n’est pas parce qu’une machine agit de manière agnostique qu’elle sera impartiale … L’apprentissage automatique c’est: vous regardez le monde, puis vous apprenez du monde. La machine va donc également apprendre les biais qui existent dans le monde qu’elle observe » explique une équipe de recherche de Boston University qui a travaillé sur les biais des algorithmes de machine learning, avec le soutien de Microsoft.

Un constat que les spécialistes admettent depuis longtemps et que l’éditeur de Redmond a décidé de prendre en charge en développant  un outil capable de détecter les biais dans les algorithmes d’intelligence artificielle. Objectif : aider les entreprises à utiliser le machine learning sans courir le risque de discriminer certaines personnes.

Des risques de discrimination à l’emploi

Pour Rich Caruana, qui travaille sur le projet pour Microsoft,  il s’agira d’un «tableau de bord» que les ingénieurs pourront appliquer aux modèles d’IA pour corriger les biais natifs.

« Des choses comme la transparence, l’intelligibilité et l’explication sont assez récentes pour que peu d’entre nous aient suffisamment d’expérience pour savoir tout ce que nous devrions rechercher et toutes les façons dont ce biais pourrait se cacher dans nos modèles », explique-t-il au MIT Technology Review .

Les conséquences peuvent être pénalisantes dans les domaine de la santé, de la justice et de l’emploi notamment, pointent les chercheurs de Boston University. Ainsi, on constate des connexions sémantiques entre « programmeur » et « homme », plus rarement avec le mot » femme ». Un biais qui pourrait provoquer une ségrégation à l’emploi.

« La chose la plus importante que les entreprises peuvent faire maintenant est d’éduquer leur main-d’œuvre afin qu’elles soient conscientes des myriades de biais qui peuvent apparaître et se manifester et créer des outils pour rendre les modèles plus faciles à comprendre » explique-t-il à Venture Beat

D’autres acteurs de l’IT travaillent sur cette problématique. En début du mois, Facebook a annoncé tester une solution  appelée Fairness Flow sur son service d’offres d’emploi pour traquer les biais discriminants. Idem chez IBM qui propulse sa solution IA, Watson, comme une priorité stratégique.

Crédit Photo : @Merrill College of Journalism Press Releases via Visual Hunt / CC BY-NC

Recent Posts

La Fondation Linux a fait son choix pour remplacer Redis

La Fondation Linux apporte son soutien à Valkey, un fork de Redis qui vient d'émerger…

4 heures ago

Quels sentiments animent la communauté OpenAI ?

Le contenu du forum officiel de la communauté OpenAI donne des indications sur les points…

5 heures ago

Emmanuelle Olivié-Paul — AdVaes : « Le premier enjeu du scope 3 c’est d’avoir les données pour faire une évaluation »

Dans une interview accordée à Silicon, Emmanuelle Olivié-Paul, présidente-fondatrice du cabinet de market intelligence AdVaes,…

6 heures ago

Étude Trends of IT 2024 : comprendre les mutations de l’environnement IT

Silicon et KPMG lancent Trends of IT 2024, une étude co-construite avec les managers IT…

23 heures ago

Guillaume Poupard, DGA de Docaposte : « Le plus de l’offre, c’est notre position comme acteur de confiance »

Avec son Pack cybersécurité lancé au Forum InCyber 2024, Docaposte tend une perche aux PME.…

23 heures ago

Quels impacts de l’IA générative sur le monde de la cybersécurité ? : regards croisés entre Onepoint, Wavestone et Fortinet

Quels sont les impacts immédiats de l'IA générative sur la cybersécurité ? Comment le contexte…

1 jour ago