webleads-tracker

4 min

Une architecture de stockage orientée données, c’est quoi au juste ?

Le stockage orienté données est l’avenir des technologies de stockage. Rien de moins. Les stratégies les plus efficaces s’appuieront non plus sur la criticité des serveurs mais sur la valeur extraite de la donnée. C’est aussi une stratégie, organisée autour de l’automatisation, d’un nouveau protocole de communication et d’un stockage persistant haute performance. Pour parvenir à ce degré d’efficacité, il est entendu qu’il faut repartir d’une page blanche.

État des lieux des besoins informatiques aujourd’hui

Depuis le début des années 2000, les éditeurs et les constructeurs se sont attachés à proposer plus de services autour de la donnée, sa sécurisation, sa redondance, sa réduction, sa meilleure intégration dans les systèmes informatiques. Désormais, l’aspect opérationnel revient sur le devant de la scène. Parce que les métiers ont largement introduit la donnée dans leurs pratiques, ils manifestent des besoins en outils nouveaux, plus rapides, plus réactifs. Les équipes des systèmes d’information sont sollicitées et doivent dégager autrement plus de temps que ne leur laisse l’administration courante des infrastructures. Ce phénomène engendre de nouvelles demandes : plus de simplification, d’automatisation, de transparence, qui se traduisent par deux courants principaux. D’un côté, il s’agit d’assurer la sécurité, la disponibilité et la performance de la donnée. De l’autre, de disposer de systèmes les plus intégrés possible, capables à la fois de simplifier par l’automatisation le métier des administrateurs et de s’adapter à des besoins en performance de plus en plus imprévisibles.

 

Datas, intelligence, adaptabilité

Or les architectures logicielles existantes ne permettent pas pleinement d’accompagner les entreprises dans un contexte économique fait de ruptures et de bouleversements. « C’est dans cette optique que nous avons décidé de repartir d’une page blanche » commente Jean-Marc Brudy, MDC Sales Specialist chez DELL Technologies.  « Il faut penser une plateforme de stockage qui peut à la fois automatiser le travail des administrateurs et accompagner librement l’évolution des besoins, à la demande, tout en offrant les performances qu’exigent le développement agile et le traitement de la donnée. »

Une architecture de stockage orientée donnée se présente alors comme une stratégie très structurante pour l’entreprise. C’est une plateforme unifiée sur laquelle l’entreprise supporte l’ensemble de son stockage en données chaudes, quel que soit le mode d’accès. À partir d’une première brique, répondant aux besoins actuels, les évolutions nécessaires se font ensuite sur la même infrastructure logicielle.
Pour cela, la plateforme de stockage doit d’abord être datacentric. Elle est conçue pour s’adapter à tous types de workloads, physiques et virtuels, applications et bases de données, en mode conteneurs comme en mode fichiers ou blocs.

La plateforme doit ensuite être performante, surtout dans le temps. « Powerstore est modulaire, avec une brique de base à deux contrôleurs actif / actif pour la redondance. Ce qui permet des bascules extrêmement rapides en cas d’éventuelle défaillance. Nous obtenons des performances 7 fois supérieures à celle de notre Unity XT ainsi qu’un temps de latence divisé par 3. » précise Jean-Marc Brudy.
Enfin, elle doit se montrer scalable. Il ne suffit pas d’ajouter du volume de stockage tel qu’on le fait traditionnellement. « Powerstore offre une extension des performances, via des briques de contrôleurs qui assurent une croissance en performances homogènes avec les capacités de stockage. »

 

Nouveau protocole et stockage persistant, (très) véloce et (bientôt) moins coûteux ?

Pour évoluer ainsi en performance comme en capacité dans le temps, une architecture orientée donnée s’appuie sur une plateforme technologique de type NVMe, dont les grands atouts sont les performances extrêmes qu’elle offre et la capacité de s’adapter à plusieurs types de stockage haute performance : le flash d’une part et le Storage Class Memory ( SCM) d’autre part. Or s’il est une brique qui symbolise le renouveau du stockage, c’est bien le SCM.

le SCM fait le pont entre le stockage à très haute vitesse, coûteux et aux capacités moindres et le stockage persistant, plus abordable, adapté aux gros volumes de données mais moins véloce. Le SCM se montre lui très rapide (avec un temps de latence divisé par 5 voire par 6 par rapport aux disques flash) et persistant à la fois. S’il reste encore onéreux aujourd’hui, il n’est pas interdit de penser qu’il se vulgarisera rapidement. C’est en tout cas le parti pris des nouvelles architectures de stockage, dont l’objectif ambitieux est d’assurer une évolutivité et un accompagnement de l’entreprise sur une période allant jusqu’à 10 ans.

Et Jean-Marc Brudy de compléter : « Toujours dans l’optique de couvrir l’ensemble des besoins d’une entreprise, la solution PowerStore est compatible avec les connectivités fiberchannel, IP et toute la partie serveurs de fichiers NFS / SMB, tous disponibles par défaut sur la plateforme ». Ainsi, l’entreprise reste entièrement libre de choisir les moyens et les protocoles qu’elle mettra en œuvre en fonction de son contexte, de ses infrastructures et de ses applications.

Faire face aux contraintes d’espace, de temps et de ressources

Plusieurs considérations sont susceptibles de conduire une entreprise à adopter une plateforme de stockage orientée donnée. L’engouement pour le Cloud persiste chez les entreprises pour son mode de consommation à l’usage, mais pas nécessairement en termes de coûts induits et de contraintes réglementaires. Le retour à l’On Premise, s’il est pratiqué, se double alors de la volonté d’y retrouver la même agilité et le catalogue de services que l’on connaît dans le Cloud.

« C’est l’objectif d’APPS ON qui permet l’exécution de machines virtuelles client directement sur la plate-forme de stockage. Mais c’est aussi la capacité de préparer les évolutions futures qui prime. Avec Anytime Upgrade Program, les entreprises peuvent évoluer technologiquement, à leur rythme et sans investissement ni engagement complémentaire».

Le choix d’un hébergement externalisé des données reste largement d’actualité, d’autant plus si l’on en juge par la forte augmentation des demandes d’information auprès des hébergeurs ces derniers mois à la faveur du télétravail imposé. Cependant, le coût de la location d’espace racks peut représenter un budget important. Les architectures de stockage orientées données fournissent une meilleure utilisation des ressources technologiques avec la data réduction, par le biais de mécanismes de déduplication et de compression très efficaces. « L’activité de réduction sur laquelle DELL Technologies s’engage dans le cadre de son programme FUTURE PROOF, est gérée par le hardware sur PowerStore. C’est une particularité qui permet d’éviter tout impact sur les performances » commente Jean-Marc Brudy. Une data réduction qui devient très pertinente si l’on envisage de réduire le nombre d’unités racks chez un hébergeur.

Si les questions de performance restent des sujets d’un grand classicisme, leur intérêt se renouvelle à l’aune des milliers de machines virtuelles dont peut disposer une entreprise, même (et souvent!) de taille intermédiaire. Il en va de même pour l’ensemble des projets d’analytique et de statistique aux modèles complexes. De ce point de vue, le besoin en hautes performances se pose à toutes les échelles d’entreprise, selon l’activité poursuivie. Les petites et moyennes entreprises sont ainsi d’excellents candidats à des solutions performantes, qui ne sont définitivement plus réservées aux grands groupes.

Enfin, la scalabilité d’une solution est aussi très recherchée dans le contexte économique de ces dernières années. Les schémas traditionnels définissant une courbe de croissance théorique à 3 ou 5 ans se révèlent maintenant inadaptés et incapables de prendre en considération les nombreuses ruptures auxquelles les entreprises doivent faire face.

NOUS CONTACTER