L’IA, arme à double tranchant de la sécurité

Tandis que l’explosion du télétravail agit comme un révélateur de failles des systèmes d’informations, l’intelligence artificielle au service de la cybersécurité fait figure d’aubaine pour nombre d’entreprises. Mais c’est aussi un formidable terrain d’exploration pour les auteurs de malveillance.

66 % des professionnels ont constaté une augmentation des problèmes de sécurité au cours des 3 premiers mois de la crise du COVID-19. Ce taux inquiétant révélé par une étude du fournisseur de solutions IT unifiées Ivanti en juin dernier met en lumière la vulnérabilité des systèmes dans un contexte de brusque essor du télétravail. Mais pour bon nombre d’experts, le contexte particulier de l’année 2020 est également l’occasion de souligner les manquements des entreprises face à des cyber-menaces croissantes et en renouvellement constant.

Les réponses mises en place au sein des organisations restent assez archaïques. « Aujourd’hui encore, les approches traditionnelles de protection se basent principalement sur des processus manuels et des stratégies préétablies de blocage qui peinent souvent à suivre le rythme auquel apparaissent les nouveaux dangers, toujours plus sophistiqués. Et c’est sans compter le volume grandissant des alertes et des faux positifs avec lequel il faut se débattre au quotidien. En conséquence, bon nombre d’attaques peuvent passer inaperçues des mois durant », constate Pascal Le Digol, Country manager France chez WatchGuard Technologies.

L’intelligence artificielle représente dans ce contexte un levier essentiel pour mettre en place des dispositifs appropriés, synonymes de protection forte. Elle permet d’agir sur 3 volets que sont l’automatisation des analyses, la vitesse de réaction apportée et la capacité à gérer d’importants volumes. Par la même occasion, on réduit drastiquement le risque d’erreurs humaines tout en améliorant la prédiction des tendances futures. « Les PME souffrent du fait qu’elles n’ont très souvent pas d’expert de la cybersécurité. Ce défaut de compétences se trouve même fréquemment dans les ETI où les profils restent très généralistes. L’IA permet alors d’automatiser des processus d’analyse, d’interprétation et d’intervention. Il en ressort un gain de temps qui peut être consacré à d’autres tâches stratégiques par les équipes informatiques », explique Pascal Le Digol.

Le manque de ressources financières est un autre grand écueil. « Une étude récente de Gartner souligne que les budgets de sécurité sont tout simplement divisés par deux en 2020 du fait de la crise économique », s’inquiète-t-il. « Les budgets sont drastiquement impactés aussi les entreprises doivent-elles revoir leurs priorités et parer au plus pressé pour aller clairement dans le sens de la sécurisation de la pratique du télétravail. A ce titre, il est crucial pour les entreprises de miser sur la sécurité des postes de travail et donc d’opter pour des solutions EDR enrichies par des moteurs à base d’IA qui constituent une option des plus convaincantes grâce à leur capacité à prédire les menaces tout en réduisant au minimum la perturbation des opérations. »

 

La cybercriminalité à l’aube d’une nouvelle ère

En 2018 a été décelée l’existence d’un malware très particulier, capable de s’adapter au comportement classique du réseau sur lequel il se trouvait, et de lancer ainsi son attaque tout en restant camouflé. « Il s’agit sans doute des prémices des futures caractéristiques des cyber-menaces. Demain, le Machine Learning et le Deep Learning seront également utilisés à mauvais escient », estime Pascal Le Digol. Au cours de la même année, IBM Research s’était mis dans la peau de pirates avec le projet DeepLocker qui consistait à montrer les dangers de l’IA appliquée au développement de logiciels malveillants. Il en a résulté des malwares qui entraient en activité uniquement lorsque certaines cibles sont identifiées…

L’automatisation de tâches que permet d’envisager l’IA donne la possibilité aux cybercriminels d’améliorer leur ciblage, d’élargir l’impact de leurs attaques et d’accélérer considérablement la vitesse à laquelle ils sont en mesure de créer de nouveaux malwares. La mise en échec des systèmes CAPTCHA, permettant de déterminer si les visiteurs d’un site web sont des humains et non des robots, est un autre exemple des possibilités malveillantes dans ce domaine : grâce à des techniques d’IA, des chercheurs de l’université de Columbia sont parvenus à contourner Google reCAPTCHA avec un taux de réussite de 98 %.

Pour Pascal Le Digol, le manque de sensibilisation aggrave légitimement les inquiétudes actuelles : « A l’exception des grands comptes, il existe de grandes lacunes sur ce plan. Même si la période difficile que nous vivons joue un rôle de catalyseur du fait des enjeux du télétravail, la vulnérabilité des organisations est sous-estimée par leurs propres responsables. Il importe aussi d’être conscient que pour être efficace, une politique de sécurité doit être déployée de façon permanente, durable. Il ne s’agit pas d’un investissement qui se fait ponctuellement, sans amélioration pendant plusieurs années. »