ChatGPT : OpenAI prépare des outils contre la désinformation électorale
Alors que 2024 sera une année d’élections majeures, notamment aux Etats-Unis ; OpenAI annonce le lancement de nouveaux outils pour prévenir les manipulations à des fins politiques provenant de ChatGPT et DALL-E.
2024 sera une année riche en périodes électorales aux quatre coins du globe, notamment aux Etats-Unis, en Inde ou en Grande-Bretagne. Et les outils d’IA générative auront leur place dans la production des messages politiques.
Dans ce contexte, OpenAI annonce la création de nouveaux outils pour éviter que ChatGPT et DALL-E, ses deux créations majeures de GenAI, ne soient utilisés à des fins de désinformation.
Snapshot of how we’re preparing for 2024’s worldwide elections:
• Working to prevent abuse, including misleading deepfakes
• Providing transparency on AI-generated content
• Improving access to authoritative voting informationhttps://t.co/qsysYy5l0L— OpenAI (@OpenAI) January 15, 2024
« Nous nous efforçons d'anticiper et de prévenir les abus pertinents, tels que les 'deepfakes' trompeurs, les opérations d'influence à grande échelle ou les chatbots se faisant passer pour des candidats.» explique OpenAI.
De nouveaux GPT pour lutter contre la désinformation
Sans donner de détails techniques, l'inventeur de ChatGPT affirme travailler sur le création de nouveaux GPT permettant notamment aux utilisateurs de signaler des détournements de son usage qui permettent de générer des messages de désinformation.
« Jusqu’à ce que nous en sachions plus, nous n’autorisons pas les gens à créer des applications à des fins de campagne politique et de lobbying. (...) Notre approche consiste à poursuivre notre travail de sécurité des plateformes en améliorant l’exactitude des informations sur le vote, en appliquant des politiques mesurées et en améliorant la transparence» déclare OpenAI.
Lire aussi : Apple Intelligence, une épreuve de patience
Le champion de la GenAI prend la peine de signaler que des 'garde fous' à la puissance de ses deux outils phares existent déjà. C'est le cas pour DALL·E qui refuser les demandes de génération d'images de personnes réelles, y compris de candidats.
Pour 2024, son objectif affiché est de proposer « une meilleure transparence sur la provenance des images, y compris la capacité de détecter quels outils ont été utilisés pour produire une image, peut permettre aux électeurs d'évaluer une image avec confiance dans la façon dont elle a été créée.». Autre annonce : un nouvel outil de détection des images générées par DALL·E.
OpenAI rejoint la C2PA avec Microsoft, Intel, AWS , etc
Dans son grand mouvement de transparence, OpenAI annonce rejoindre la Coalition for Content Provenance and Authenticity (C2PA) fondée en 2021. Ce consortium, qui compte Microsoft et AWS parmi ses membres, élabore des spécifications techniques pour établir la provenance et l'authenticité du contenu.
La C2PA a livré la version 1.0 de sa norme technique pour la provenance et l'authenticité du contenu en 2021, mise à jour avec la version 1.1 puis 1.2 en 2022. La prise en charge de l'IA générative, de la vidéo et de l'audio en direct font partie des développements à venir.
Sur le même thème
Voir tous les articles Data & IA