Pour gérer vos consentements :

Deepfake : l’IA pourrait influencer les prochaines élections américaines

Cette nouvelle IA est un modèle de langage baptisé GPT-3, qui a été mise au point par la société OpenAI, et dont les capacités sont impressionnantes et étendues. Le modèle est entraîné à répondre à une analyse textuelle donnée. Il peut répondre à des questions, écrire des poèmes et des romans, ou encore générer des pages Web simples, ainsi que des requêtes SQL à partir du langage naturel.

Cette IA excelle également dans la production d’articles de journaux fictifs, et ceci très facilement. Il suffit de fournir un titre et un sous-titre à l’IA pour qu’elle génère un texte complet. On peut facilement imaginer l’influence que cette IA aurait sur les prochaines élections américaines si elle était alimentée avec un titre et un sous-titre défendant un parti, un candidat ou des intérêts politiques particuliers.

Selon OpenAI, il est difficile pour les humains de repérer avec exactitude les articles de journaux rédigés par GPT-3. Ainsi, un article récent généré par l’IA s’est retrouvé à la Une d’un site populaire d’actualité sur la Tech, seulement très peu de lecteurs ayant réalisé qu’il avait été produit artificiellement.

Cette IA ne se limite pas à la production d’articles fantaisistes, comme la multitude de fausses informations générées par l’humain qui sont devenues virales lors des élections de 2016, elle est aussi capable de gérer un incroyable volume de contenus originaux et convaincants.
Selon une étude menée par l’université d’Oxford, environ 50 % des informations partagées sur Twitter dans le Michigan pendant les élections de 2016 provenaient de sources douteuses.

Avec la production de contenus réalistes et difficiles à distinguer du travail de journalistes professionnels, ce pourcentage pourrait considérablement augmenter et noyer les véritables articles de journaux sous des myriades d’informations générées par l’IA.

Les commentaires réalistes générés par l’IA plus difficiles à détecter

L’IA peut également être employée pour créer un consensus apparent autour de sujets politiques spécifiques. Une étude du Pew Research Center sur la consultation publique lancée en 2014 par la Commission fédérale américaine des communications (ou FCC, Federal Communications Commission) à propos de la neutralité du Net a révélé que, parmi les 21,7 millions de commentaires en ligne, seuls 6 % étaient uniques. Les 94 % restants, principalement des copies d’autres commentaires, se sont en majorité prononcés contre les réglementations sur la neutralité du Net.

Un bot de désinformation de ce type pourrait être utilisé sur des sites de réseaux sociaux et des forums afin de faire passer certaines opinions pour des idées largement répandues. Des études montrent que les décisions d’un individu sont influencées par celles des autres, même si l’opinion de la majorité apparente n’est qu’une illusion.

Comment limiter l’impact du contenu produit par l’IA sur les électeurs ?

On pourrait imaginer une seconde IA, formée pour identifier les textes issus de GPT-3, qui enverrait un avertissement signalant aux lecteurs qu’il s’agit de contenus potentiellement générés de façon automatique. Dans un même ordre d’idée, il est aujourd’hui possible de détecter les vidéos deepfake, qui contiennent généralement des déclarations fictives de personnalités politiques. Ces vidéos présentent souvent des anomalies. Les variations infimes de couleur de la peau dues à des battements de cœur réguliers y sont par exemple absentes.

Si la société OpenAI estime que des erreurs factuelles, des répétitions, des raisonnements dénués de logique et des formulations inhabituelles sont des signes qu’un article a été rédigé par l’IA GPT-3, elle note toutefois que ces indicateurs sont très subtils. Étant donné la fréquence à laquelle de nombreux lecteurs parcourent les articles, de tels indicateurs risquent de passer inaperçus. Une seconde IA pourrait certes relever ces indices de manière plus cohérente, mais son entraînement dégénérerait vite en une course à l’armement de l’IA, chaque IA devenant progressivement meilleure pour tromper l’autre.

En attendant, OpenAI s’est engagé à limiter l’accès à l’IA GPT-3 aux seuls usages éthiques, en surveillant de près son API (actuellement disponible en version bêta privée). Mais les clés des API sont parfois partagées ou accidentellement exposées dans des référentiels publics.

Maintenant que l’IA a démontré sa puissance, d’autres groupes vont sans doute tenter de reproduire ces résultats, et de les exploiter à des fins personnelles et politiques. L’adoption de ce type de technologie par des cybercriminels dépendra de sa capacité à améliorer leur workflow.
Peu d’éléments tendent à prouver que les cybercriminels ont adopté les modèles de langage précédents (comme GPT-2), mais plus la technologie gagnera en réalisme et en fiabilité, plus elle deviendra attrayante.

Recent Posts

La « chasse aux risques » : une force proactive au service de la cybersécurité

La traque des risques ne devrait pas se limiter à la conformité réglementaire. Ces audits…

3 jours ago

La lutte contre les menaces internes est l’affaire de tous

Faute de solution miracle, les entreprises souhaitant se protéger de ce type de menaces doivent…

1 semaine ago

Cinq tendances qui bouleversent la connectivité Cloud

Une des thématiques émergentes en 2024 sera de ré-évaluer le socle constitué par le réseau…

2 semaines ago

Responsable de la sécurité des systèmes d’information : un poste sous les projecteurs

Dans un environnement où les menaces sont de plus en plus aiguisées et où les…

3 semaines ago

NIS2 : A l’aube de sa mise en application, les enjeux sont de taille

Même si la directive propose un mécanisme de proportionnalité en termes d’exigence, en fonction du…

3 semaines ago

Informatique quantique : la cybersécurité dans tous ses états (en même temps ?)

La cybersécurité est plus que concernée par les révolutions induites par l’informatique quantique. S’il est…

3 semaines ago