IA : Google dévoile 7 principes éthiques et tente de rassurer sur le militaire

cloud-artificial-intelligence

Google érige 7 principes concernant ses activités dans le domaine de l’IA (Intelligence artificielle) et ré-affirme sa position concernant ses activités dans le domaine militaire.

Google annonce officiellement une liste de 7 principes concernant ses activités dans le domaine de l’IA (Intelligence Artificielle). Ces principes constituent un modèle que tout développeur de logiciel IA doit respecter en interne.

La firme de Mountain View avait annoncé le mois dernier qu’elle publierait de tels principes suite à la controverse sur son implication dans un projet de drone pour le département de La Défense américain.

Rassurer avant tout

Il s’agit en effet d’apaiser les inquiétudes concernant son travail dans le Projet Maven, du nom d’une initiative visant à appliquer l’IA aux images saisies par les drones. Les protestations du personnel ont poussé Google à ne pas renouveler ce contrat. La société va jusqu’à dire que si ces principes avaient existé plus tôt, Google n’aurait pas fait d’offre pour le projet Maven.

Le groupe dirigé par Sundar Pichai prévoit toutefois d’honorer son engagement jusqu’en mars 2019. Plus de 4600 employés de la filiale d’Alphabet avaient purement et simplement demandé à Google de se retirer du Projet Maven. Témoignage de la gronde, 13 employés ont même démissionné ces dernières semaines.

Si Google tente de décrisper la situation, la société explique qu’elle continuera à collaborer avec les militaires dans certains domaines, autres que les armes. Selon ces 7 principes, Google ne travaillera toutefois pas sur des projets de surveillance d’IA qui violent des «normes internationales et acceptées» ou des projets qui contreviennent aux «principes largement reconnus du droit international et des droits humains». Ses principaux axes de recherche en IA doivent être «socialement bénéfiques» (premier principe). Il est également question de rester responsable vis-à-vis des humains et soumis au contrôle humain. Le maintien de «normes élevées d’excellence scientifique» et l’intégration de mesures de protection de la vie privée sont aussi au programme.

Une voie tracée pour d’autres groupes ?

« Alors que nous ne développons pas l’IA pour une utilisation dans les armes, nous continuerons notre travail avec les gouvernements et les militaires dans de nombreux autres domaines« , a écrit Pichai dans une contribution de blog. « Ces collaborations sont importantes et nous chercherons activement d’autres moyens d’augmenter le travail critique de ces organisations et de maintenir la sécurité des militaires et des civils. »

Ces nouvelles directives érigées par Google pourraient inciter d’autres grands groupes à se positionner également dans le domaine de l’IA et l’éthique qui l’accompagne. Elles pourraient également influencer leur éventuelle activité dans le domaine militaire.

Le positionnement éthique de Google dans le domaine de l’IA fait écho à « La déclaration de Toronto ». En effet, en mai dernier, une coalition de groupes de défense des droits humains et de la technologie s’est réunie pour publier ce document. Il s’agit d’interpeler les gouvernements et les entreprises technologiques à veiller à ce que l’IA respecte les principes fondamentaux d’égalité et de non-discrimination.

(Crédit photo : © Jirsak – shutterstock)