Pour gérer vos consentements :

Multicloud : la portabilité des données passent par les appliances

Impossible de saturer le réseau pour transférer de très gros volumes en quelques heures, d’où l’intérêt des supports de transfert physiques : des racks transportables ou d’énormes valises, voire des conteneurs.  Mais cela nécessite plusieurs jours, voire des semaines.

Azure Data Box : 100 To de capacité totale par commande

Plusieurs offres existent cependant. Elles  reposent sur des équipements sécurisés capables de transférer jusqu’au péta-octets (un millier de téra-octets), par fraction de 100 To.

Avec  Snowball, AWS propose sur des équipements sécurisés capables de transférer jusqu’au péta-octets (un millier de téra-octets), par fraction de 100 To.

Cloud Mass Data Migration permet de migrer des dizaines de To vers Bluemix en passant par la route.

IBM est dans le même ordre de grandeur – 120 To par unité – avec sa caisse transportable sur roulette « Cloud Mass Data Migration« .

Chez Microsoft, il existe également un service  « Azure Import/Export »  avec l’Azure Data Box ; ou encore, l’appliance de transfert GTA (25 jours pour transférer 1 Po, à un débit de plusieurs Gbps) chez Google.

Des solutions coûteuses de transfert physiques

L’Appliance Snowball de AWS.

Les coûts sont très conséquents (près de 2 000 euros pour 500 To), proportionnels aux volumes et à la rapidité du transport, généralement confié à des sociétés spécialisées proches du convoyage de fonds.

Officiellement, Microsoft, Google, Facebook coopèrent depuis 2017 sur un projet baptisé DTP pour Data Transfer Project, mais les entreprises ne semblent pas en être la cible.

En réalité, chacun détient ses protocoles de stockage des données, dont le S3 d’AWS, standard de fait mais qui ne motive guère ses concurrents directs… En outre, très souvent, une partie des métadonnées sont modifiées.

Bref, on est encore loin de pouvoir configurer un PRA (plan de reprise d’activité) en multicloud !

Le rêve du « Cloud brokering »

Le multicloud est censé ouvrir la voie aux services de « Cloud brokering ».

« Nous n’y sommes pas encore, observait Sébastien Verger, directeur technique chez Dell/EMC France, lors d’une table ronde. « Cela reste un vœu pieu. Les équipes IT reprennent la main sur les applications, c’est déjà un préalable ». Il faut d’abord roder le fonctionnement du portail de services.

« Les projets de portail ont tout juste commencé », confirme Jean-Claude Bellando, directeur Prodduit MFT chez Axway. « La DSI entrevoit ce qu’il sera possible de  faire pour distribuer ses workloads à plusieurs fournisseurs de cloud en fonction des usages. Il faut commencer par un cloud privé doté d’un portail d’approvisionnement automatique. On peut alors installer une connexion vers des services externes ».

En clair, pas infaisable mais encore compliqué aujourd’hui!

Recent Posts

APT44, bras armé cyber de la Russie

Mandiant a attribué un APT à Sandworm, considéré comme le principal groupe cybercriminel à la…

18 heures ago

Cybersécurité : HarfangLab et Filigran connectent EDR et CTI

Les deux startup proposent un connecteur entre la platefome OpenCTI de Filigran et l’EDR de…

20 heures ago

Le hacking autonome, capacité émergente de GPT-4 ?

Des chercheurs ont mis des agents LLM à l'épreuve dans la détection et l'exploitation de…

21 heures ago

Les applications de messagerie se mettent au chiffrement post-quantique

Dans la lignée de Signal, iMessage intègre une couche de chiffrement post-quantique.

1 jour ago

Infrastructures LAN : une photo du marché avant la fusion HPE-Juniper

Douze fournisseurs sont classés dans le dernier Magic Quadrant des infrastructures LAN.

2 jours ago

Sauvegarde et restauration : Commvault muscle son offre cloud avec Appranix

Commvault s'offre Appranix, éditeur d'une plateforme cloud de protection et de restauration des applications.

2 jours ago