Pour gérer vos consentements :

Machine learning : des algorithmes obsolescents avec le Covid-19 ?

Attention à l’obsolescence des modèles IA développés avant la crise sanitaire.

L’alerte est signée Gartner. Elle se fonde sur un constat simple : les algorithmes de machine learning utilisent traditionnellement le passé pour prédire l’avenir. Or, le scénario actuel est sans précédent.

Se pose la question de les adapter à la « nouvelle réalité ». En sachant que cette dernière n’est pas encore figée et qu’on ne dispose pour le moment que de peu de données qui la reflètent.

Ces contraintes impliquent, selon Gartner, de repenser l’apprentissage automatique. Par l’intermédiaire de deux techniques en particulier : le renforcement et la distribution. Avec, à la clé, davantage de réactivité pour les modèles ainsi entraînés.

Dans la pratique, toutefois, l’une et l’autre technique ne sont pas encore d’usage commun. Gartner estimait, au dernier pointage, qu’il faudrait 3 à 5 ans pour en arriver à ce stade.

La réactivité des algorithmes

Pour illustrer le besoin de réactivité, le cabinet américain donne l’exemple des outils marketing. Et se demande combien de temps il faudra, dans l’ère post-Covid :

  • Aux algorithmes d’optimisation de la communication numérique pour s’adapter à l’évolution de l’engagement (sachant qu’en conditions « normales », il est question d’un délai de 90 jours)
  • Aux systèmes de recommandation pour s’aligner sur les nouveaux comportements d’achat (on s’appuie traditionnellement sur un historique de 12 mois)
  • À toutes les campagnes en cours pour intégrer les signaux changeants et communiquer les bons messages aux bonnes personnes (beaucoup d’outils de gestion des parcours clients ont une fenêtre rétrospective de 30 jours)

À travers cet exemple, Gartner fait écho à un rapport qui aborde plus largement l’évaluation des modèles prédictifs par les marketeurs. Parmi les questions soulevées à cette occasion :

  • Mes modèles peuvent-ils utiliser moins de données et devenir plus agiles (c’est-à-dire plus réactifs aux changements) ?
  • Quelles données seront les plus porteuses pour l’avenir et dans quelle mesure les algorithmes sont-ils sensibles aux anomalies qu’elles contiendraient ?

Illustration © zapp2photo – Fotolia

Recent Posts

ChatGPT : le Financial Times signe avec OpenAI

FT Group, éditeur du Financal Times, a signé un accord avec OpenAI afin d'utiliser ses…

2 jours ago

Les hyperscalers renforcent leurs recherches et datacenters pour l’IA

Au premier trimestre, Microsoft, Meta/Facebook et Alphabet/Google ont déjà investi plus de 32 milliards $…

2 jours ago

Cybersécurité : Darktrace dans l’escarcelle de Thoma Bravo

La société britannique de cybersécurité Darktrace a accepté une offre de rachat de 5,32 milliards…

2 jours ago

Étude Trends of IT 2024 : comment les managers IT développent leurs projets

Silicon et KPMG lancent la deuxième édition de l'étude Trends of IT. Cette édition 2024…

3 jours ago

Atos : l’Etat veut acquérir les activités souveraines

Le ministère de l'économie a adressé une lettre d'intention à la direction d'Atos pour racheter…

3 jours ago

Arnaud Monier – SNCF Connect & Tech : « Notre moteur, c’est l’innovation et nous procédons par incrémentation »

Directeur Technologie de SNCF Connect & Tech, Arnaud Monier lance une campagne de recrutement pour…

3 jours ago