Pour gérer vos consentements :
Categories: Big DataCloud

Avis d’expert : la gestion du Big Data passe par un réseau solide

Gérer de gros volumes de données nécessite une infrastructure réseau de premier ordre. Une tribune signée Stéphane Duproz, directeur général France de TelecityGroup.

L’accès à Internet partout et pour tous, la multiplication des terminaux et des services numériques ont généré un phénomène que les Anglo-saxons appellent “Big Data” (littéralement, « grosses données »). C’est-à-dire une inflation telle des données qu’il devient difficile, voire impossible, de les gérer dans des bases classiques. Pour les entreprises, le Big Data peut devenir un cauchemar, un “Fat Data” ou au contraire une formidable opportunité si elles savent la saisir. Le cauchemar, on le perçoit bien : envahie par les données (à titre d’exemple, trois milliards de documents sont échangés chaque mois sur Facebook), ne sachant comment les traiter, l’entreprise se contente d’investir dans des baies de stockage qui au fil des mois vont prendre l’apparence de ces kilomètres de linéaires d’archives papiers qui croupissent dans les sous-sols de certaines grandes entreprises et administrations. Cette vision est un immense gâchis, car une donnée qui n’est plus utilisée devient un poids et surtout un centre de coûts.

La réussite passe par une connectivité performante

L’enjeu pour l’entreprise va donc être de garder les données vivantes afin qu’elles soient utilisées de façon efficace, ce qui suppose la mise en place de systèmes permettant la circulation dynamique et l’analyse des informations. Dans ce contexte, les datacenters neutres offrent l’environnement idéal pour rationaliser les serveurs, organiser les flux et également héberger et protéger les données. Cela sous-entend bien sûr une connectivité performante du datacenter, à même d’offrir non seulement une accessibilité à différents opérateurs, mais également une interconnexion « sans couture » avec d’autres datacenters. Pour illustrer l’importance de la performance de la connectivité, on peut prendre l’exemple du trading haute fréquence, qui consiste à faire exécuter à des ordinateurs des transactions financières dans des délais extrêmement courts (de l’ordre de la microseconde). Une connexion défaillante ou moins performante que celle des concurrents peut faire perdre à un opérateur plusieurs dizaines de millions d’euros.

Page: 1 2

Recent Posts

Microsoft propose une délocalisation hors de Chine à ses ingénieurs IA et Cloud

Des centaines d'ingénieurs en IA et cloud travaillant pour Microsoft se voient proposer de quitter…

43 minutes ago

Du « Monde » à Reddit, le point sur les partenariats data d’OpenAI

Reddit s'ajoute à la liste des « partenaires data » d'OpenAI. Qui rejoint-il ?

51 minutes ago

Comment Younited a appliqué la GenAI au crédit conso

Younited a utilisé PaLM 2 puis Gemini pour catégoriser des transactions bancaires en vue de…

1 heure ago

Processeurs : les États-Unis fabriqueront 30 % des puces avancées d’ici 2032

Les États-Unis vont tripler leur capacité nationale de fabrication de puces et contrôler 30 %…

21 heures ago

IBM ouvre ses LLM codeurs Granite : la recette et ses ingrédients

IBM publie, sous licence libre, quatre modèles de fondation Granite pour le code. Voici quelques…

23 heures ago

AWS va investir 7,8 milliards € dans son European Sovereign Cloud

C'est dans l'État de Brandebourg, en Allemagne, que sera lancée la première région AWS European…

1 jour ago