ChatGPT, la fin de l’humanité ?

ChatGPT

Cette technologie n’est pas nouvelle puisque les fondements ont été inventés il y a maintenant de nombreuses années, notamment par Google. Ce qui fait débat, c’est qu’elle est accessible depuis peu à tout un chacun et qu’elle permet de générer en une minute des textes de bonne qualité.

ChatGPT, Midjourney, Stable Diffusion, ces noms enflamment le débat. Appel au moratoire pour certains, centaine de millions de suppressions d’emplois selon d’autres. Au cœur du débat, l’intelligence artificielle. Ou plus précisément les “IA génératives” tant il paraît évident que nous n’allons pas stopper les fonctions de mise au point des appareils photo des smartphones qui sont basées sur des IA ou tous les assistants utilisés quotidiennement. Mais force est de constater qu’une nouvelle ère s’ouvre.

Au cœur des débats se trouve ChatGPT, un prodige de la technologie programmé par l’être humain et capable, à la demande d’une personne, de rédiger des textes, de la coacher, de lui générer des idées, etc. Et tout cela, à partir d’une base d’entraînement gigantesque de plusieurs milliards de contenus.

Cette technologie n’est pas nouvelle puisque les fondements ont été inventés il y a maintenant de nombreuses années, notamment par Google. Ce qui fait débat, c’est qu’elle est accessible depuis peu à tout un chacun et qu’elle permet de générer en une minute des textes de bonne qualité.

Ce côté un peu magique fascine les uns qui y voient un formidable outil de facilitation des tâches du quotidien et en effraient plus d’un, qui y projettent une possible fin de l’humanité à travers la prolifération de fake news générées automatiquement et la disparition de millions d’emplois !

Pour analyser et étudier les effets de cette technologie, autant sur la génération de textes que d’images, nous avons mené, avec des dizaines de professionnels et apprenants de IIM Digital School, du MBA en intelligence artificielle de Devinci Executive Education et des docteurs de notre centre de recherche du groupe Talan, une expérience concrète.

Elle visait à réaliser des projets professionnels en 4 jours. Une journée consacrée à la formation des apprenants pour comprendre le fonctionnement de ces outils et les mettre en garde sur les erreurs nombreuses générées par les IA génératives. La majorité des participants n’avaient pas une pratique au quotidien de ces outils. Ils devaient ensuite sur les trois jours restants de travail intensif réaliser leur ambitieux projet.

Nous avons pu mesurer factuellement les résultats spectaculaires de l’usage de ces outils. Pas dans le remplacement potentiel de ces utilisateurs dans leurs métiers mais bien dans l’augmentation de leurs capacités créatives et leur productivité. Le retour d’expérience a été que l’écrasante majorité des participants a indiqué qu’il était nécessaire d’être formés sur ces outils pour pouvoir pleinement en profiter.

D’autres expériences récentes montrent qu’il ne suffit pas de se saisir des IA génératives pour les utiliser de manière efficace. De nombreux salariés témoignent qu’une mauvaise connaissance de tels outils conduit à une réelle déception qui peut se traduire par une frustration, voire un abandon.

Pour autant, si l’on dépasse le cas de la génération automatique de textes, le cas particulier de la génération automatique d’images et bientôt de vidéos montre que le débat sur le rôle que peuvent jouer ces outils peut devenir viral. Les exemples récents et emblématiques comme les fausses images de cette personne ensanglantée entourée de “forces de l’ordre” diffusée massivement sur les réseaux sociaux en pleines manifestations sur les retraites ou la représentation du chef de l’État dans différentes positions font débat.

Les images truquées ne sont cependant pas nouvelles, puisqu’utilisées depuis des années lors des guerres pour influencer chaque camp, ou par des groupes extrémistes et complotistes.

L’appel à un moratoire va pourtant à l’encontre de l’histoire et est, dans la pratique, impossible à faire respecter. En effet, alors que les plus utilisées sont en accès en ligne avec un éditeur qui les contrôle, certaines IA génératives sont présentes sur des ordinateurs individuels, donc impossibles à contrôler. Mais l’alerte soulevée est salutaire.

Nous devons accompagner le déploiement responsable de ces outils, qui doivent être au service de l’humain et permettre de l’augmenter dans ses travaux du quotidien sur le modèle de l’événement cité auparavant. La solution à ce problème ne passe pas par l’interdiction, mais plutôt par une formation de qualité, une explication de son fonctionnement au plus grand nombre et un appel qui, lui, fait sens : militons pour une généralisation de la transparence des algorithmes et des données utilisées pour les entraîner.

Cela va d’ailleurs dans le sens de la volonté de l’Italie de mieux encadrer ces plateformes avec la notion de RGPD, de compréhension des données avec lesquelles ces IA ont été entraînées et de l’accès à des populations vulnérables.

Enfin, rappelons que les destructions d’emplois cycliquement annoncées ne se vérifient jamais. En 2019, c’étaient 120 millions de destructions annoncées sur 3 ans, aujourd’hui ce sont 300 millions qui vont brûler ? Halte au feu.

Les emplois et les sociétés évoluent en adéquation avec les technologies de chaque époque. La formation et la maîtrise de ces outils, qui doivent être au service de l’humain, permettent l’augmentation de l’intelligence humaine, qui n’est pas près d’être remplacée par l’intelligence artificielle.


Auteur
En savoir plus 
Directeur Recherche et Innovation
Talan
Laurent Cervoni, docteur en IA et directeur du centre de recherche et innovation du groupe Talan sur les IA génératives.
En savoir plus 

Livres blancs A la Une