TENDANCE

Les systèmes de stockage des entreprises évoluent grâce aux nouvelles technologies

Sommaire

Notre analyse

Le paysage du marché du stockage des entreprises passe depuis un certain temps déjà d’architectures traditionnelles à de nouveaux concepts innovants et puissants. L’introduction de nouvelles technologies, comme la mémoire flash et les réseaux Ethernet à haut débit, a banalisé les performances et réduit les coûts, permettant ainsi une plus grande liberté dans la conception des systèmes. D’autres besoins de stockage contribuent fortement à la façon dont le stockage est conçu et ensuite consommé, notamment :

  • Meilleure agilité de l’infrastructure pour répondre rapidement aux besoins de l’entreprise
  • Améliorer la mobilité et l’intégration des données dans le cloud
  • Prise en charge simultanée d’un plus grand nombre d’applications et de charges de travail sur le même système
  • Simplification générale de l’infrastructure
  • Réduction drastique du coût total de possession (TCO) tout en augmentant significativement la capacité par administrateur système sous gestion.

L’ensemble de ces facteurs contribue à reléguer ce qui était considéré comme des systèmes de stockage haut de gamme dans un créneau de plus en plus restreint qui peut être décrit comme monolithique, complexe à exploiter et coûteux en termes de coût total d’acquisition (TCA) et de coût total de possession (TCO) pour les applications et systèmes informatiques existants. C’est également vrai pour les réseaux de stockage existants et les protocoles tels que Fibre Channel (FC). En fait, Ethernet a déjà atteint la vitesse de débit de 100 Gb/s et les serveurs sont équipés de deux ports 10 ou 25 Gb/s en configuration standard. Les commutateurs FC ont un débit plus lent à 32Gb/s et les adaptateurs sont très coûteux.

Les paramètres les plus importants pour l’évaluation d’un système moderne de stockage par blocs de données, destiné à servir les charges de travail primaires, devraient inclure :

  • Performance :

    La mémoire flash a radicalement changé le jeu par rapport aux disques durs. Il est non seulement plus rapide avec une latence minimale mais il améliore également la résilience et la durabilité. Alors que la technologie des disques durs atteint ses limites physiques, les vendeurs de flash comblent l’écart de prix avec les disques durs. Parmi les autres technologies qui ont considérablement amélioré les performances, on peut citer les réseaux à haut débit et les processeurs plus rapides, désormais dotés de jeux d’instructions spécifiques pour accélérer les opérations de stockage, tandis que les protocoles spécialement conçus pour la mémoire flash (NVMe) contribuent encore davantage à réduire la latence. Le nouveau défi consiste à obtenir un rendement constant tout en servant simultanément plusieurs charges de travail différentes sur le même système

  • Coût total de possession (TCO) :

    Les entreprises souhaitent minimiser les coûts d’infrastructure informatique, en particulier en matière de stockage, car la croissance continue de dépasser les budgets. Le coût total est difficile à estimer et varie d’une organisation à l’autre. Les mesures du coût total de possession incluent l’environnement, les finances, la sécurité, les processus en place, les facteurs humains, et bien plus encore. La liste est longue, mais si l’on simplifie un peu et que l’on se concentre sur le niveau de l’infrastructure, il y a au moins deux aspects importants qui permettent de contrôler les coû D’une part, il existe de puissants outils d’analyse visant à simplifier la planification de la capacité, à améliorer les opérations de maintenance et à découvrir les problèmes avant qu’ils n’en deviennent. Deuxièmement, il existe de nouveaux modèles de soutien à la maintenance tout compris qui permet des mises à niveau continues des systèmes HW et SW afin de minimiser l’obsolescence de l’infrastructure.

  • Durée de vie du système :

    La plupart des entreprises achètent des systèmes de stockage pour des projets ou des besoins d’infrastructure spécifiques avec des contrats de support de 3 à 4 ans proposés par les fournisseurs. Comme les systèmes de stockage peuvent durer plus longtemps (jusqu’à 5 à 7 ans parfois), le cycle de rafraîchissement forcé de 3 ans peut créer plusieurs problèmes du point de vue financier et opé Choisir des systèmes qui peuvent durer plus longtemps, capables de recevoir les mises à jour nécessaires pour rester alignés sur le reste de l’infrastructure en termes de fonctionnalités, de sécurité et d’efficacité, et sans augmentation spectaculaire des coûts après les premières années de production, permet de maintenir les coûts d’infrastructure à distance tout en évitant les migrations de données inutiles. Une autre clé cruciale pour la longévité du système est sa feuille de route et la capacité du fournisseur à l’exécuter comme promis ou à l’actualiser en fonction des nouveaux besoins des utilisateurs.

  • Flexibilité:

    Contrairement à ce qui s’est passé précédemment, avec des systèmes de stockage très cloisonnés desservant un nombre limité d’applications et de charges de travail, les systèmes de stockage sont maintenant partagés par un plus grand nombre de serveurs avec un nombre croissant de machines virtuelles et d’applications, et récemment il existe aussi des conteneurs et un retour à Linux bare metal pour certaines grandes données et applications AI/ML (Intelligence artificielle et apprentissage machine). Les systèmes de stockage sont reconfigurés plus souvent et doivent offrir des outils et des intégrations avec une plus grande variété de logiciels dans la couche supérieure ainsi qu’avec des plates-formes d’automatisation comme, par exemple, Ansible ou Puppet. De plus, toutes les applications n’ont pas les mêmes besoins en termes de vitesse, de latence ou de priorité.

Partager sur
Facebook
Twitter
LinkedIn