vendredi , 17 août 2018
Home » Tutoriel » Meilleures pratiques pour la migration des données vers le cloud

Meilleures pratiques pour la migration des données vers le cloud

Déplacer des pétaoctets de données de production est une astuce avec des miroirs. Suivez ces étapes pour minimiser les risques et les coûts et maximiser la flexibilité.

Les entreprises qui adoptent un déploiement dans le cloud ont besoin de moyens économiques et pratiques pour migrer leurs données d’entreprise vers le cloud. C’est ce que l’on appelle parfois « l’hydratation du cloud ». Étant donné le défi de déplacer des ensembles de données d’entreprise massifs n’importe où sans perturbation et précision, la tâche peut être longue, compliquée et risquée.

Toutes les organisations n’ont pas assez de bande passante dédiée pour transférer plusieurs pétaoctets sans entraîner de dégradation des performances dans l’activité principale ou suffisamment de matériel de rechange pour migrer vers le cloud. Dans certains cas, ces organisations dans un endroit isolé physiquement, ou sans connexion Internet haute vitesse rentable, sont confrontées à un obstacle pour accéder à un cloud cible. Les données doivent être sécurisées, sauvegardées et, dans le cas des environnements de production, migrées sans perdre de temps.

AWS a rendu l’hydratation cool, pour dire ainsi. À l’automne 2016, AWS a présenté des offres telles que Snowball, un service de transfert de données à pétaoctet utilisant un ou plusieurs appareils fournis par AWS, et Snowmobile, un service de transport exabyte utilisant un camion de 18 roues qui transporte les données point par point. Ces véhicules facilitent l’achat et le déploiement de services de migration pour les données résidant dans le cloud AWS. Il faudrait 120 jours pour migrer 100 To de données à l’aide d’une connexion dédiée de 100 Mbits/s. Le même transfert utilisant plusieurs boules de neige nécessiterait environ une semaine.

Cependant, pour les 55% restants du marché du cloud public qui n’utilisent pas AWS – ou les entreprises avec des déploiements privés, les hybrides ou multi-cloud qui veulent plus de flexibilité – d’autres options de migration cloud peuvent être plus attrayantes que les offres natives d’AWS. Cela peut être particulièrement vrai lors du transfert de données de production, où le téléchargement de données statiques sur des appareils laisse une copie partielle à l’équipe informatique pendant le transfert. Ils ont besoin d’un moyen de resynchroniser les données.

Ce qui suit est un guide des meilleures pratiques d’hydratation des clouds, qui diffèrent selon que vos données sont statiques et que les ressources sont hors ligne ou en production. On propose également des astuces utiles pour l’intégration avec les nouvelles ressources du centre de données et l’intégration d’architectures hybrides ou multicloud.

Données statiques

À moins que les volumes de données ne soient inférieurs à 1 To, vous devez utiliser des supports physiques, tels qu’un appareil, pour accélérer le processus d’hydratation pour le stockage de fichiers, de blocs ou d’objets. Cela fonctionne élégamment dans les environnements où les données n’ont pas besoin d’être continuellement en ligne, ou le transfert nécessite l’utilisation d’une connexion Internet lente, peu fiable ou coûteuse.

  1. Copiez les données statiques dans un appareil d’hydratation local. Utilisez un petit appareil NAS portable, facile à transporter, configuré avec RAID pour plus de durabilité lors de l’expédition des sites intermédiaires. L’appareil doit inclure un chiffrement (AES 128 bits ou, de préférence, AES 256 bits) pour se protéger contre les accès non autorisés une fois que le NAS quitte l’installation client.

Grâce à une connexion 10G très rapide, les équipes peuvent télécharger 100 Mo à 200 Mo de données par seconde sur un appareil NAS. L’appareil doit prendre en charge l’environnement cible (Windows, Linux, etc.) et le mécanisme d’accès aux fichiers (NFS, CIFS, Fibre Channel, etc.). Un appareil est généralement suffisant pour transférer jusqu’à 30 To de données. Pour des volumes de données plus importants, les équipes peuvent utiliser plusieurs appareils ou répéter le processus plusieurs fois pour déplacer des données dans des segments ou des répartitions logiques.

  1. Expédier l’appareil à l’environnement cloud. La destination d’expédition peut être une installation de co-localisation à proximité du cloud cible ou du centre de données cloud lui-même. Peu importe si la cible est un cloud public ou un paramètre hybride / multi-nuage, deux autres considérations distinguent la migration douce et facile de celles qui peuvent devenir plus longues.
  2. Copiez les données dans une cible de stockage dans le cloud. La cible de stockage doit être connectée à AWS, Azure, Google ou à toute autre infrastructure de cloud cible à l’aide d’un accès VPN via une fibre haut débit.

Par exemple, les cabinets d’avocats ont régulièrement besoin de se procurer tous les courriels d’un site client à des fins de découverte électronique au cours d’un litige. Généralement, la capture d’e-mail s’étend sur une plage de dates statique définie depuis des mois ou des années auparavant. Le cabinet d’avocats demandera à son fournisseur d’hydratation du cloud d’expédier un appareil au site du plaideur, lui ordonnera de copier tous les courriels au besoin, puis expédiera l’appareil au fournisseur d’hydratation du cloud pour traitement.

Alors que certains fournisseurs exigent l’achat de l’appareil, d’autres autorisent une utilisation unique de l’appareil pendant la migration, après quoi elle est renvoyée et l’équipe informatique est facturée au téraoctet. Aucune dépense en capital ou engagement à long terme requis.

Données de production

Ce processus nécessite une méthode de déplacement des données et de resynchronisation une fois les données déplacées vers le cloud. La mise en miroir représente une réponse élégante à la migration des données de production.

L’hydratation du cloud à l’aide de la mise en miroir requiert deux appareils locaux sur site capables de suivre les modifications incrémentielles apportées à l’environnement de production pendant que les données sont déplacées vers la nouvelle cible cloud.

  1. Les données de production sont reflétées sur le premier appareil, créant une copie en ligne de l’ensemble de données. Ensuite, un deuxième miroir est créé à partir du premier miroir, créant une deuxième copie en ligne.
  2. Le deuxième miroir est « cassé » et l’appareil est envoyé dans l’environnement cloud.
  3. Le miroir est ensuite reconnecté entre la copie locale et la copie distante, et la synchronisation des données est rétablie.
  4. Une copie en ligne des données est maintenant dans le cloud et les serveurs peuvent basculer vers le cloud.

Par exemple, un organisme fédéral disposait de 2PB de données sur site qu’il souhaitait déployer dans un cloud privé. L’équipe informatique de l’agence a mis en place deux ressources de stockage sur site adjacentes dans un centre de données, a déplacé les données de production sur un miroir, puis a mis en place un second miroir pour que tout soit copié. Ensuite, l’équipe a brisé le miroir et a expédié l’ensemble du rack à un deuxième centre de données distant de plusieurs milliers de kilomètres, où son fournisseur d’hydratation des nuages ​​(Zadara Storage) a rétabli les miroirs.

Une fois reconnectées, les données ont été synchronisées pour représenter une copie miroir complète et à jour. Une fois le processus terminé, le matériel utilisé lors du processus de migration des données a été envoyé à un emplacement distant pour servir de deuxième copie de récupération après sinistre.

Dans un autre exemple, une société de conseil en gestion globale a utilisé des liaisons 10G pour déplacer des ensembles de données plus petits de son centre de données vers le cloud de stockage cible et des dispositifs d’hydratation pour transférer des pétaoctets de données critiques. Une fois les téléchargements de données de liaison 10G copiés sur la ressource de stockage, le fournisseur d’hydratation cloud a utilisé un lien AWS Direct Connect vers AWS. De cette façon, les ressources ont été isolées du cloud public, mais rendues disponibles facilement. D’autres données statiques ont été copiées sur les appareils NAS et expédiées vers des emplacements disponibles pour le cloud AWS.

Caractéristiques pour une intégration facile

Peu importe que la cible soit un cloud public ou hybride ou multicloud, trois autres facteurs distinguent les migrations faciles des plus difficiles et prolongées.

  • Conservation du format. Il est idéal lorsque le processus de migration des données conserve le format de données souhaité, afin que les équipes informatiques puissent copier les données dans le cloud et les utiliser instantanément, par opposition à la conversion des données copiées dans un format natif utilisé localement mais non accessible depuis le cloud lui-même. Les responsables informatiques doivent être amenés à accéder aux données immédiatement, sans avoir à créer des volumes supplémentaires pour y accéder. Avec des téraoctets de données, les quelques heures supplémentaires de retard peuvent ne pas sembler un gros problème, mais à l’échelle de pétaoctet, le retard peut devenir insupportable.
  • Prise en charge du format d’entreprise. Les formats de périphériques de stockage traditionnels tels que CIFS et NFS sont pris en charge de manière minimale par les fournisseurs de cloud public ou ne sont pas pris en charge du tout. Pourtant, les applications utilisées par ces systèmes de fichiers génèrent souvent le plus d’économies, en termes de temps et de coûts de gestion, lorsqu’elles sont déplacées vers le cloud. La possibilité de copier des fichiers CIFS, NFS ou d’autres types de fichiers existants et de conserver le même format pour une utilisation dans le cloud permet d’économiser du temps, des erreurs potentielles et des soucis lors de la conversion, et aide à assurer la chronologie d’hydratation.
  • Exportation efficace. Aucun fournisseur ne souhaite qu’un client désaffecte son cloud, mais lorsque les besoins changent, la migration de données bidirectionnelle ou l’exportation de données cloud pour une utilisation ailleurs doit se dérouler de manière aussi efficace – grâce aux mêmes approches statiques et de production décrites ci-dessus.

Cloud hybride ou multicloud

Une considération finale avec n’importe quelle hydratation du cloud s’assure qu’il est ensemencé pour durer. Avec 85% des entreprises ayant une stratégie d’utilisation de plusieurs clouds, et 20% des entreprises prévoyant d’utiliser plusieurs clouds publics (rapport RightScale State of the Cloud 2017), les équipes informatiques révisent leurs architectures avec des fonctionnalités hybrides ou multicloud. Aucune entreprise ne veut être enfermée dans un fournisseur de cloud, sans échapper à l’impact de l’interruption ou de la panne inévitable.

Les approches d’hydratation des clouds ​​qui permettent la réplication asynchrone entre les plate-formes de cloud computing permettent aux équipes informatiques d’optimiser leurs infrastructures cloud à la fois en termes de performance et de coût. Les organisations peuvent migrer des charges de travail spécifiques vers une plate-forme cloud ou une autre (par exemple, les applications Windows sur Azure, Open Source sur AWS) ou les déplacer vers les meilleurs prix et conditions négociés pour des besoins spécifiés. Une approche de migration dans le cloud qui permet un accès simultané à d’autres clouds permet également un transfert immédiat et un basculement presque instantané entre les clouds, en cas de panne d’un fournisseur.

Les experts ont qualifié l’année 2017 de « grande migration ». Les projections de Cisco et de 451 Research suggèrent que d’ici 2020, 83% du trafic de datacenter et 60% des charges de travail d’entreprise seront basés dans le cloud. Les nouvelles options de migration des données permettent aux équipes informatiques d ‘« hydrater » leurs clouds de manière à minimiser les risques, les coûts et les soucis, et à optimiser l’agilité.

À lire aussi

Comment créer une application sans serveur pour le traitement d’image à la demande ?

Développer une application sans serveur à la demande qui met à jour l’échelle, la qualité …