Antoine Bonavita, StickyAds : « Gérer le déluge des données et les rendre pertinentes »

A 44 ans, Antoine Bonavita est aux commandes d’une équipe de 12 personnes, chargée de développer StickyAds TV, une place de marché spécialisée dans la publicité vidéo, devant concilier des temps de réponses très courts et d’énormes volumes de données. Comment Antoine Bonavita parvient il à  gérer ces problématiques potentiellement contradictoires ? Quels ont été ses choix en matière informatique ? Quels sont les défis auxquels il est confronté ? Quels conseils adresse t-il aux autres directeurs informatiques ?

Silicon.fr – Quelles sont les problématiques IT de votre entreprise ?

StickyADS TV était historiquement une régie publicitaire, spécialisée dans la vidéo, mais nous avons décidé de « maitriser notre destin » en développant notre propre adServer et plus récemment une véritable place de marché, un adExchange vidéo, utilisé aussi bien par notre régie que par d’autres régies ou éditeurs vidéo. D’un point de vue technique, la vidéo n’est paradoxalement pas notre premier défi. Nous ne gérons que quelques centaines de campagnes, le plus souvent limitées à  quelques dizaines de secondes, ce qui représente un volume de stockage d’environ 1 To et des pics de bande passante de quelques gigabits/seconde que nous maitrisons désormais très bien avec les CDN Amazon et OVH. Le vrai défi technique d’un AdExchange c’est à  chaque affichage d’interroger une dizaine de serveurs publicitaires, d’agréger leurs réponses et d’afficher la bonne campagne en moins de 100 millisecondes. Concrètement, notre infrastructure doit pouvoir gérer des dizaines de milliers de requêtes par seconde, y compris vers des serveurs en panne, ce qui impose un haut niveau de robustesse L’autre grand défi, c’est le « big data ». Une plate-forme d’AdExhange stocke tous les événements fonctionnels tels que le niveau d’enchère, la réponse d’une régie, le prix proposé, l’affichage effectifs, le tracking des internautes… Concrètement, cela représente 700 millions d’événements par jour soit un volume de données de près de 300 Go. A mes yeux, le principal défi est de gérer ce déluge de données et de les rendre pertinentes.

Silicon.fr – Comment a évolué votre infrastructure matérielle ces dernières années ?

Je dois avouer que je suis un grand fan d’OVH et nous avons adopté une quarantaine de leurs serveurs BD-8T « Big Data » à  environ 110 euros par mois. Je ne connais pas trop la marque mais je sais qu’ils tournent sous des processeurs Intel Xeon, avec 32 voire 64 Go de RAM. Ce ne sont pas des bêtes de course mais il proposent clairement le meilleur rapport qualité prix du marché et correspondent parfaitement à  nos besoins. Nous utilisons une dizaine de machines pour gérer le front office et une trentaine de machines sous MongoDB pour la base de données. Nous faisons également des tests de Cloud chez OVH ou Amazon mais je dois avouer que ce n’est financièrement pas encore réaliste. Cela me coûte moins cher d’avoir des serveurs dédiés, en particulier ce « commodity hardware »

Silicon.fr – Avez vous mis au point des solutions logicielles spécifiques ?

Nous travaillons principalement sur des technologies Open Source comme MongoDB, MapReduce ou encore Big Table. Il y a 10 ans, nous n’y aurions pas eu accès mais aujourd’hui elles sont enfin accessibles à  de petites équipes informatiques (12 personnes) comme la nôtre. En dehors de nos applications métier et du front office, nous n’avons pas fait de développement spécifique. Mais nous avons adapté ces outils open source à  nos propres besoins. Peut être que nous reproposerons d’ailleurs un jour ces développement à  la communauté open source. Mais ce n’est pas à  l’ordre du jour.

Silicon.fr – Quel sujet IT vous semble prioritaire pour ces prochaines années ?

Comme je l’indiquais, le grand défi c’est de transformer nos immenses volumes de données en décisions utiles pour nos clients. Même si noue ne brassons pas autant d’argent que des marchés financiers, nous sommes dans des problématiques similaires d’optimisation de l’offre et de la demande, de définition des cours, etc… La technologie actuelle peut gérer les données mais nous allons devoir recruter des data scientists, des mathématiciens de haut niveau, pour extraire l’information pertinente et proposer à  nos clients les bons modèles prédictifs ou d’analyse. Ce sera sans doute un sujet de recherche pour très longtemps.

Silicon.fr – Avec le recul, quel conseil pourriez vous donner à  d’autres directeurs informatiques ?

Boire beaucoup de café et bien choisir ses équipes ! Je passe une grand partie de mon temps à  faire des entretiens d’embauche et je ne retiens qu’une personne sur dix. Ensuite, je suis adepte de la « méthode de la piscine » : Je les jette dans les grands bains et je regarde si ils savent nager. Si la réponse est positive, ils ont de fortes chances de passer les prochaines années à  développer la meilleure place de marché vidéo publicitaire du marché :-) A lire aussi :