Pour gérer vos consentements :
Categories: Big DataCloud

Avis d’expert : la gestion du Big Data passe par un réseau solide

Gérer de gros volumes de données nécessite une infrastructure réseau de premier ordre. Une tribune signée Stéphane Duproz, directeur général France de TelecityGroup.

L’accès à Internet partout et pour tous, la multiplication des terminaux et des services numériques ont généré un phénomène que les Anglo-saxons appellent “Big Data” (littéralement, « grosses données »). C’est-à-dire une inflation telle des données qu’il devient difficile, voire impossible, de les gérer dans des bases classiques. Pour les entreprises, le Big Data peut devenir un cauchemar, un “Fat Data” ou au contraire une formidable opportunité si elles savent la saisir. Le cauchemar, on le perçoit bien : envahie par les données (à titre d’exemple, trois milliards de documents sont échangés chaque mois sur Facebook), ne sachant comment les traiter, l’entreprise se contente d’investir dans des baies de stockage qui au fil des mois vont prendre l’apparence de ces kilomètres de linéaires d’archives papiers qui croupissent dans les sous-sols de certaines grandes entreprises et administrations. Cette vision est un immense gâchis, car une donnée qui n’est plus utilisée devient un poids et surtout un centre de coûts.

La réussite passe par une connectivité performante

L’enjeu pour l’entreprise va donc être de garder les données vivantes afin qu’elles soient utilisées de façon efficace, ce qui suppose la mise en place de systèmes permettant la circulation dynamique et l’analyse des informations. Dans ce contexte, les datacenters neutres offrent l’environnement idéal pour rationaliser les serveurs, organiser les flux et également héberger et protéger les données. Cela sous-entend bien sûr une connectivité performante du datacenter, à même d’offrir non seulement une accessibilité à différents opérateurs, mais également une interconnexion « sans couture » avec d’autres datacenters. Pour illustrer l’importance de la performance de la connectivité, on peut prendre l’exemple du trading haute fréquence, qui consiste à faire exécuter à des ordinateurs des transactions financières dans des délais extrêmement courts (de l’ordre de la microseconde). Une connexion défaillante ou moins performante que celle des concurrents peut faire perdre à un opérateur plusieurs dizaines de millions d’euros.

Page: 1 2

Recent Posts

AWS prend ses distances avec VMware version Broadcom

Broadcom a repris seul la main sur la vente de l'offre VMware d'AWS... qui, dans…

8 heures ago

Avec ZTDNS, Microsoft essuie les plâtres du zero trust appliqué au DNS

Microsoft expérimente, sous la marque ZTDNS, une implémentation des principes zero trust pour le trafic…

11 heures ago

Atos sur la voie d’un sauvetage ? Point de situation

Accord de principe entre créanciers, propositions de reprise, discussions avec l'État... Le point sur le…

13 heures ago

AWS abandonne WorkDocs, son concurrent de Dropbox

Un temps pressenti pour constituer le socle d'une suite bureautique AWS, Amazon WorkDocs arrivera en…

3 jours ago

Eviden structure une marque de « serveurs IA »

Eviden regroupe cinq familles de serveurs sous la marque BullSequana AI. Et affiche le supercalculateur…

3 jours ago

SSE : l’expérience se simplifie plus que les prix

Le dernier Magic Quadrant du SSE (Secure Service Edge) dénote des tarifications et des modèles…

4 jours ago