webleads-tracker

4 min

IT Analytics et Stockage : Automatisation et optimisation de l’Infrastructure

Délivrer un service de qualité, opérer de façon simple une plateforme évolutive et exploitable sont aujourd’hui des challenges auxquels les architectures conventionnelles (serveurs, disques internes) répondent de moins en moins.
Avec l’arrivée du Big Data et l’explosion des volumes de données, il est devenu essentiel de savoir exploiter ses données pour en extraire la valeur. Deux outils se disputent aujourd’hui la place de leader dans le domaine de l’IT Analytics : Splunk et Elastic.

 

L’IT Analytics, c’est quoi ?

 

Sébastien Hurst, Directeur technique Infrastructure chez SCC France

Sébastien Hurst, Directeur technique Infrastructure chez SCC explique ce qu’est l’IT Analytics

Les infrastructures deviennent de plus en plus complexes, liées aux nouveaux systèmes et à l’hybridation. Pour Sébastien Hurst, Directeur technique Infrastructure chez SCC : « Ça fait des années que l’on utilise des technologies du Big Data pour répondre à des problématiques de métiers. L’idée a été de se dire pourquoi ne pas utiliser ces mêmes technologies pour résoudre les problèmes de l’informatique elle-même. On s’est rendu compte que beaucoup de systèmes mettaient à disposition un grand nombre d’informations, mais on ne savait pas pour autant les utiliser. Grâce à ces nouvelles technologies, on est enfin capable de pouvoir mieux exploiter la data ; planifier et regarder ce qu’il se passe dans le système. Sachant que ce sont des données difficilement exploitables, on a tout intérêt à automatiser ce type de processus. »

 

Allier scalabilité et performance dans le monde du Big Data

Désiloter les datas pour les mettre à disposition d’un environnement protégé, c’est l’une des grandes forces de l’IT Analytics. « La problématique, poursuit Sébastien, vient de cette distribution des serveurs sur la durée, leur performance ou encore la non-utilisation du matériel. On essaie de rationaliser ces environnements avec ces nouvelles technologies. La solution de Pure Storage pour Splunk met à disposition un système de stockage porté sur plusieurs serveurs, offrant des temps de réponse plus courts, une infrastructure plus simple à gérer et une architecture à l’épreuve du temps. L’une des nouvelles technologies de Splunk, SmartStore, permet de doper le stockage des serveurs, de le désagréger dans un système à part, en mettant simplement des systèmes de caches au niveau des serveurs. »

 

IT Analytics : Découpler le compute, l’application et la donnée, un prérequis.

Bertrand Ounanian, Unstructured Data Systems Engineer chezPure StorageDécoupler le stockage de l’aspect « calcul » permet d’apporter de la souplesse et de l’agilité autour de l’évolution des applications. Pour Bertrand Ounanian, Senior System Engineer et Unstructured Data Architect chez Pure Storage « Cette notion de découplage entre l’application d’un côté et le stockage de l’autre, se retrouve présente chez beaucoup d’éditeurs et d’une manière générale dans le monde du Big Data. La finalité est de retrouver l’expérience utilisateur du cloud public et ses nouvelles approches architecturales portées dans les data center des clients. En quelques clics, on double la performance ou la volumétrie. Splunk l’a très bien fait avec Smart Store, Elastic aussi avec cette notion de plug and play.»

 

« Le stockage idéal est simple, on doit pouvoir l’oublier. »

 

Prendre en charge le développement d’applications modernes

Face à la multiplication des applications reposant sur des données de nouvelle génération, l’analytique moderne et la data protection requièrent des environnements de stockage avec un très haut niveau de performance, de manière simple et unifiée. Comme l’explique Sébastien Hurst : « Le type de cette architecture est de présenter des espaces unifiés. On est dans le concept de nouvelles architectures faisant converger le Big Data avec les architectures traditionnelles. La solution FlashBlade permet d’unifier ces environnements de stockage quel que soit le type de solutions applicatives.»

 

Le stockage flash, plus qu’une tendance

Alors que l’espace de stockage sur nos smartphones ne cesse d’augmenter, les entreprises doivent adapter leur stratégie de stockage et optimiser le traitement des données. L’utilisation quotidienne du smartphone est même devenue au fil des années un vecteur R&D du stockage. Bertrand Ounanian en a la conviction « En Datacenter, nous pensons que la technologie flash, le SSD, va avoir sa place à terme jusque dans le stockage archives et une grande partie des espaces de stockage. » Sébastien Hurst poursuit « C’est un sujet majeur chez nos clients, qui cherchent également à optimiser la puissance du datacenter. Des gros progrès ont été faits ces dernières années, le flash en fait partie.» La notion de stockage “all-flash” tend à s’étendre avec le développement continu de technologies, telles que l’intelligence artificielle, l’IOT ou encore la 5G.

 

Une protection moderne des données

La donnée n’est plus isolée ni compartimentée. La protection des données passe elle-aussi par une modernisation s’inscrivant dans une stratégie de disponibilité permanente. Comme l’explique Bertrand Ounanian : « L’actualité nous l’impose, c’est devenu un enjeu crucial. Il y a un certain nombre d’approches quant à la sécurisation des données. On a beaucoup travaillé à la sécurisation, à la résilience, au fait d’avoir des données reposant sur un média fiable. Aujourd’hui on travaille sur des projets de mises en œuvre de mécaniques de sécurisation relevant de la manière de réagir quand on fait face à des chiffrements de données massifs. L’objectif est d’éviter l’erreur humaine ou encore le social engineering, ou dans le pire des cas, un compte administrateur compromis. On travaille pour accompagner nos clients dans ces démarches de durcissement. »

 

Anticiper l’urbanisation du datacenter

L’accélération des besoins de stockage, la sécurité des données ou encore le maillage de terminaux et objets connectés motivent une modernisation des datacenters. La densification de l’urbanisation et de son exploitation permet de tirer le meilleur parti des ressources en place. Sébastien Hurst conclu : « Optimiser le nombre de U, le poids, la consommation électrique ou les besoins en climatisation, tous ces aspects font partie de l’ADN aussi bien de Pure Storage que de SCC. Nous travaillons ensemble sur l’urbanisation d’architecture, adaptée aux contraintes et coûts des datacenters, ces derniers devenant une réelle source d’optimisation financière, souvent sous-estimée. »

 

Retrouvez l’interview complète sur le site de la Digital Week: https://scc-digitalweek.live/live/scc-digital-week-purestorage/

Revivez les replay de la Digital Week


Auteur : Michèle COLLY

 

.

 

 

 

NOUS CONTACTER