Le Big Data est un mélange entre le stockage pur et le traitement des données. Toute la difficulté provient du déluge des informations qui ne permet pas de les structurer comme dans une base de données. D’où les besoins de qualifier, de rechercher et d’analyser les informations afin de leur donner de la pertinence.
Le Big Data se heurte également à la problématique de la sécurité des données, qui adopte plusieurs aspects comme l’intégrité et la conservation dans le temps. Hadoop apporte une réponse avec son système de fichiers HDFS et sa capacité à dupliquer la donnée. En revanche, sur la sécurité des accès, des solutions comme Hadoop sont assez pauvres. C’est au réseau de prendre en charge la sécurité. Les besoins de réseaux évolués ne doivent pas être oubliés, dans une infrastructure cloud notamment.
Au départ, le cloud est un traitement externalisé à la demande, mais son modèle architectural repose sur des ensembles serveurs et stockage pas très chers, donc susceptibles de défaillance. Or ce modèle s’adapte à l’injection de données en très grands volumes, la déduplication sur plusieurs serveurs et l’analyse a posteriori de la pertinence et de la corrélation. Le modèle du cloud est donc adapté au Big Data, mais il n’est pas le seul.
Guy CHESNOT, SGI : « Il faut des réseaux très performants dans une infrastructure Big Data »
FT Group, éditeur du Financal Times, a signé un accord avec OpenAI afin d'utiliser ses…
Au premier trimestre, Microsoft, Meta/Facebook et Alphabet/Google ont déjà investi plus de 32 milliards $…
La société britannique de cybersécurité Darktrace a accepté une offre de rachat de 5,32 milliards…
Silicon et KPMG lancent la deuxième édition de l'étude Trends of IT. Cette édition 2024…
Le ministère de l'économie a adressé une lettre d'intention à la direction d'Atos pour racheter…
Directeur Technologie de SNCF Connect & Tech, Arnaud Monier lance une campagne de recrutement pour…