IA sans biais : comment libérer tout le potentiel grâce à des données de qualité

Big DataData & Stockage
Assises 2023 quantique IA sécurité

Pour garantir que l’IA reflète fidèlement notre paysage éthique en constante évolution, il est impératif de mettre en place des mécanismes pour identifier les biais dès la phase de collecte des données et pour intégrer des perspectives diverses.

Dans un monde où les décisions sont de plus en plus dictées par les données, qu’elles soient au service de la science, de l’administration publique ou des entreprises, il est essentiel de savoir les exploiter de manière rapide et éclairée. La révolution des données est manifestement en marche, avec un volume qui atteint des proportions stupéfiantes, allant jusqu’à 180 zettaoctets.

Dans cet environnement, les entreprises doivent être capables de déverrouiller ces données et de bien les utiliser pour en tirer une véritable valeur.

Dans un marché commercial tendu, confronté à des vents macroéconomiques contraires, les dirigeants visionnaires sont à la recherche d’innovations révolutionnaires pour renforcer leurs équipes. Il ne s’agit plus seulement de réagir au changement, mais de l’anticiper avec des ressources de plus en plus limitées.

Les résultats d’une enquête récente de PwC auprès de grands dirigeants montrent que les PDG considèrent les disruptions technologiques comme préoccupations majeures. 55 % des dirigeants français sont prêts à soutenir l’IA, l’automatisation et la technologie cloud cette année, tandis que 87 % investissent dans le développement des compétences de leurs équipes, mettant même cet investissement humain en priorité.

Alors que l’intérêt pour l’application de l’IA dans la résolution de défis au sein des entreprises s’intensifie dans tous les secteurs, cette tendance réduit les obstacles liés au temps et aux compétences qui, par le passé, entravaient l’extraction d’informations significatives à partir des données.

Toutefois, au sein de cette dynamique en faveur de l’automatisation des tâches répétitives, émerge une question cruciale : pourquoi certaines entreprises rencontrent-elles des difficultés lorsqu’il s’agit de prendre des décisions guidées par l’IA, et comment pouvons-nous être assurés de l’exactitude des résultats produits par cette technologie ?

Encore des défis à relever

Autrefois réservé aux data scientists, le domaine de l’IA aujourd’hui s’est totalement démocratisé. Des investissements nationaux sont même débloqués, avec pour objectif d’accroître le nombre d’experts en intelligence artificielle en France d’ici 2030.

Le programme « IA-cluster » par exemple, doté d’un budget de 500 millions €, vise à renforcer les pôles de formation et de recherche en IA pour les positionner en tant que leaders en Europe et dans le monde.

Cependant, il subsiste toujours un certain scepticisme à l’égard de l’IA, et de nombreuses entreprises restent méfiantes vis-à-vis des conclusions fournies par cette technologie. Ce scepticisme peut avoir de multiples origines, parmi lesquelles l’immaturité analytique.

Selon l’Institut International de l’Analytique (IIA), la majorité des organisations en sont encore au stade de la « feuille de calcul » en matière d’analytique, avec un score de seulement 2,2 sur l’échelle de maturité analytique. Ce stade est caractérisé par un accès et une qualité de données insuffisants, ainsi qu’une gouvernance minimale.

Dans un tel environnement, les risques de conclusions biaisées issues de l’IA sont inévitables.

D’après les conclusions de l’IIA, la plupart des organisations en sont encore à un niveau de développement relativement bas en matière d’analytique, équivalent à ce que l’on pourrait appeler le stade de « la feuille de calcul ». Elles obtiennent seulement un score de 2,2 sur l’échelle de maturité analytique.

À ce niveau, l’accès aux données est limité, leur qualité est médiocre, et la gouvernance en place est minimale. Dans un tel contexte, les risques de parvenir à des conclusions biaisées à travers l’utilisation de l’IA sont pratiquement inévitables.

Construire une IA intègre

Prenons un exemple concret : une équipe sollicite la création d’un modèle d’IA destiné à une tâche particulière. Les données qu’elle se voit fournir peuvent se réduire à une liste brute de CV des dix dernières années, plutôt qu’à un ensemble de données minutieusement choisi.

De telles données peuvent malencontreusement renfermer des biais, surtout dans le secteur technologique où des préjugés de genre peuvent découler de pratiques de recrutement antérieures.

Cette situation met en évidence trois critères essentiels pour une IA éthique :

> Les données doivent être accessibles,

> Elles doivent être représentatives pour générer des informations valides lorsqu’elles sont utilisées dans des modèles d’IA,

> Les personnes manipulant les données doivent être en mesure de les collecter et de les livrer efficacement, tout en les remontant tout au long de la chaîne d’analyse.

Il est essentiel que chaque département impliqué dans le traitement des données comprenne en profondeur comment les gérer de manière éthique afin d’éviter tout biais. D’autant plus qu’il existe plusieurs définitions de l’éthique, et la décision quant à laquelle de ces définitions doit être utilisée dans le cadre d’une décision commerciale ne devrait pas être laissée uniquement entre les mains des développeurs.

Comment neutraliser les biais de l’IA ?

Les entreprises doivent reconnaître le risque inhérent à l’utilisation de données imparfaites ou non conformes, potentiellement chargées de biais datant de plusieurs années.

Pour garantir que l’IA reflète fidèlement notre paysage éthique en constante évolution, il est impératif de mettre en place des mécanismes pour identifier les biais dès la phase de collecte des données et pour intégrer des perspectives diverses.

En établissant ces mécanismes et en adoptant les meilleures pratiques pour identifier les biais, nous renforçons notre vigilance face à d’éventuels problèmes. De plus, cette approche inclusive sert de point de contrôle essentiel, nous permettant de repérer et de corriger les incohérences dès le début.

En agissant ainsi, nous donnons aux personnes les plus proches des données le pouvoir de détecter les incohérences, ce qui se traduit par une stratégie solide pour éliminer les données biaisées avant qu’elles n’affectent nos modèles d’IA.

À l’aube d’une ère révolutionnaire de l’IA, il est clair que l’accumulation de technologies ne peut à elle seule garantir la production de données fiables et éthiques à grande échelle. Le véritable potentiel de l’IA ne pourra être pleinement exploité que par l’association de données de haute qualité, d’une diversité d’intelligence humaine, et de mécanismes de gouvernance stricts.


Auteur
En savoir plus 
Directeur Europe du Sud
Alteryx
Raphaël Savy est Directeur Europe du Sud chez Alteryx
En savoir plus 

Livres blancs A la Une