L’IA générative divise : entre cybercriminels et cybersécurité, qui sortira vainqueur de cette nouvelle ère technologique ?

Cybersécurité
ANSSI remédiation crise cyber

Pour les RSSI, l’enjeu est d’avoir une longueur d’avance afin de protéger leurs organisations contre les dommages financiers et réputationnels dévastateurs pouvant émerger dans le cadre de ce nouveau paysage de menaces alimentées par l’IA.

La lettre ouverte demandant l’arrêt pendant six mois du développement des systèmes d’IA, publiée le 22 mars dernier, compte, à date, plus de 31 000 signataires. Parmi eux des CEO du secteur de la tech venant du monde entier qui s’accordent sur le fait que « [l]es systèmes d’IA dotés d’une intelligence capable de concurrencer celle de l’homme peuvent poser de graves risques pour la société et l’humanité. »

La démocratisation de l’IA générative implique l’arrivée de nouvelles menaces en matière de cybersécurité, pour certaines déjà visibles comme l’augmentation des emailings d’hameçonnage générés par l’IA, ou encore la montée en puissance de logiciels malveillants. Le constat est sans appel, à mesure que l’IA se perfectionne, les cybercriminelles améliorent considérablement leurs attaques.

Le paradoxe réside dans le fait que cette technologie peut également se révéler être un véritable atout pour les entreprises, dans leur lutte contre les cyber attaquants et à des fins de perfectionnement des systèmes de sécurité. Une chose est sûre, l’IA générative est devenue incontournable. C’est pourquoi les entreprises doivent dès à présent réfléchir aux risques qui entourent cette innovation, et à comment les limiter.

Alors, quels sont ces risques et comment les entreprises peuvent-elles se prémunir face à ces nouvelles menaces ?

L’exploitation des capacités de l’IA générative par les cybercriminels

Les cybercriminels n’ont plus besoin d’avoir des compétences avancées en matière de codage pour entreprendre des cyber attaques, l’accès à ChatGPT suffit. L’IA générative décuple les possibilités, renforce les menaces existantes et fait émerger de nouveaux risques.

Parmi les fraudes en ligne les plus recensées, il y a celle dite « d’influence » où les robots sont utilisés pour générer de faux commentaires sur différents canaux. Par exemple, dans les semaines précédant l’élection présidentielle de 2016 aux États-Unis, il a été constaté que les robots retweetaient dix fois plus Donald Trump qu’Hillary Clinton.

À l’ère de l’IA générative, en quelques secondes des acteurs malveillants pourraient utiliser ChatGPT ou Google Bard pour générer des millions de messages nuisibles sur le Web. Pour les entreprises, ce type d’attaques pourraient être menées à l’encontre de clients ou d’employés, à une échelle et à une vitesse sans précédent.

Une autre préoccupation majeure pour les organisations, c’est la montée en puissance des bots malveillants. En effet, en 2021, les bad bots représentaient 27,7 % du trafic internet mondial, un chiffre qui n’a fait que grimper en flèche ces deux dernières années.

L’IA générative dispose de capacités avancées en matière de traitement du langage naturel, ce qui lui permet de générer des agents d’utilisateurs, des empreintes de navigateurs et d’autres paramètres réalistes aidant les bots de scraping de se faire passer pour des utilisateurs légitimes. Récemment, GPT-4 a réussi à convaincre un humain qu’il était aveugle, afin de l’amener à résoudre un CAPTCHA pour le chatbot.

Bien qu’il semble évident que l’émergence de modèles d’IA générative vient développer le paysage des cybers menaces, cette technologie ne pourrait-elle pas être un avantage compétitif en matière de cybersécurité pour les entreprises ?

L’IA générative, un paradoxe de taille pour les RSSI

Les risques posés par l’IA générative sont certes alarmants, mais cette technologie est là pour durer et progresser rapidement. Alors, les RSSI doivent l’utiliser à leur avantage, pour renforcer leurs stratégies de cybersécurité et développer des défenses plus robustes. Actuellement, l’un des plus grands défis auxquels les RSSI sont confrontés c’est le manque de compétences en matière de cybersécurité.

Actuellement, on estime à 3,5 millions de cyber-emplois ouverts dans le monde et, en fin de compte, sans personnel qualifié, les organisations n’ont pas les moyens de se protéger efficacement. Cependant, l’IA offre aussi des solutions à ce défi sectoriel, puisqu’elle peut être utilisée pour réduire le flux de travail des équipes de cybersécurité, notamment grâce à l’introduction d’outils comme Microsoft Security Copilot, alimenté par GPT-4.

Dans d’autres cas, les outils de chatbot d’IA peuvent soutenir les réponses aux incidents. Dans le cas d’une attaque par un bot, l’IA peut fournir des informations en temps réel aux équipes de sécurité et aider à coordonner une réponse. Enfin, les organisations peuvent utiliser cette technologie à des fins d’analyse de données, pour perfectionner leurs systèmes de sécurité.

La protection à l’ère de l’IA générative

Du fait de notre entrée en cette ère d’IA générative, les organisations sont confrontées à des cyberattaques plus fréquentes et plus sophistiquées. Une nouvelle réalité qui doit être intégrée par les DSI et RSSI, afin d’exploiter la puissance de l’IA pour adopter des solutions de protection adaptées.

Aujourd’hui, les outils de cybersécurité qui n’utilisent pas le Machine Learning en temps réel sont condamnés à prendre du retard. Pour les sites web qui assistent à une augmentation du nombre de bots malveillants, c’est l’apprentissage automatique qui permettra aux solutions d’améliorer leurs réponses et in fine de bloquer les menaces.

C’est pour cette raison que les outils de détection et de blocage des bots alimentés par l’IA sont impératifs pour la cybersécurité des organisations. Par exemple, les CAPTCHA traditionnels, longtemps considérés comme un outil de cybersécurité fiable, ne font plus le poids face aux bots d’aujourd’hui qui utilisent l’IA. Une situation qui pousse les entreprises à passer à des solutions qui s’attaquent d’abord au trafic, en n’utilisant les CAPTCHA qu’en dernier recours.

À l’avenir, les organisations vont devoir redoubler d’efforts pour se protéger de manière poussée, avec la mise en place d’authentification multifactorielle et de contrôle d’accès basés sur l’identité par exemple, afin de réduire les accès non autorisés et les utilisations abusives.

L’IA générative crée le paradoxe : d’une part elle présente de nouveaux risques de sécurité majeurs pour les entreprises, et d’autre part, utilisée intelligemment elle peut contribuer à atténuer les menaces qu’elle crée. La cybersécurité est un jeu du chat et de la souris, et pour les RSSI l’enjeu est d’avoir une longueur d’avance afin de protéger leurs organisations contre les dommages financiers et réputationnels dévastateurs pouvant émerger dans le cadre de ce nouveau paysage de menaces alimentées par l’IA.

En comprenant les menaces et en utilisant la technologie de manière efficace, les RSSI peuvent protéger leurs organisations contre les nouvelles attaques que pose l’IA générative


Auteur
En savoir plus 
PDG
DataDome
Benjamin Fabre est PDG de DataDome
En savoir plus 

Livres blancs A la Une