LMi-MAG18 Juillet - Flipbook - Page 48
DOSSIER
Stockage
(voir 2e partie du dossier) qui se sont aussi emparés
de cette problématique spécifique liée au déplacement
des données en misant surtout sur les capacités natives
de leurs plateformes de stockage.
Quant à l’identification des données, elle repose en partie
sur la gestion des métadonnées. Pour Guillaume Bodet,
l’un des cofondateurs de la plateforme de découverte des
données (Data Catalog) Zeenea et qui occupe aujourd’hui
le poste de chief product & technology officer, c’est un
passage obligatoire permettant d’identifier les données ;
les entreprises, là aussi, sont trop longtemps restées axées
sur des solutions centrées sur l’IT comme les progiciels
spécialisés que seuls les experts et spécialistes pouvaient
maîtriser. Aujourd’hui, toute la population dans l’entreprise, les métiers notamment, est concernée, elle souhaite
tirer parti de la valeur de toutes les données souvent présentes dans les data lakes de l’entreprise, et ce, sans passer par les techniciens et ingénieurs, des intermédiaires
souvent sursollicités par les demandes. Bref, les métiers
veulent se servir et s’auto-éduquer grâce, là aussi, à des
solutions adaptées (voir 4e partie du dossier).
La conduite du déplacement de données
vue par les acteurs historiques
C
omme le précise Philippe Charpentier, directeur technique de NetApp, « c’est notre rôle, en
tant qu’acteur historique du stockage, de capitaliser à la fois sur notre base installée de baies
de stockage et d’œuvrer à adresser d’autres populations
dans l’entreprise que les services IT ». Depuis quatre à
cinq ans, le fournisseur californien a donc fortement
étoffé son portfolio de solutions autour de la data migration. Déjà, l’un des faits marquants de cette évolution
chez NetApp concerne le rapprochement avec les grands
hyperscalers que la firme ne considère pas comme des
concurrents. « Au contraire, nous avons conclu des accords avec ces grands acteurs du cloud pour déployer
nos solutions afin de répondre aux besoins des entreprises qui évoluent dans des environnements hybrides
(sur site et dans le cloud) », indique Philippe Charpentier.
Ce préambule a donc permis à NetApp de développer
© DR
PROFIL LINKEDIN
tinyurl.com/linkedin-Royer
MARC ROYER,
head of sales, unstructured
data & analytics France chez
Dell Technologies
« Nos plateformes PowerScale et ECS (Elastic Cloud Storage)
sont nativement dotées de fonctions de data migration. »
48 / juin / juillet / août 2023
l’outillage nécessaire (Cloud Manager, Cloud Data Sense,
Cloud Insights, etc.), accessible depuis sa console centrale Saas BlueXP, pour classifier, détecter, hiérarchiser,
déplacer, bref de garantir le contrôle des données de
l’entreprise dans ces multiples environnements. « C’est
d’autant plus important que deux tiers des données
dans le monde ne sont jamais réutilisées et pourtant,
ces données sont stockées », relève d’ailleurs Philippe
Charpentier.
De son côté, HPE se veut pragmatique et s’adapte à tous
les besoins dans cette gestion des données (structurées et non structurées). Déjà le fournisseur, via son
programme Complete, travaille avec des éditeurs tiers,
c’est notamment le cas avec Komprise ou encore Ctera
comme le mentionne Olivier Tant, solution business
manager chez HPE. « Ces partenaires nous permettent
effectivement de mieux gérer les enjeux de migration à
grande échelle vers un stockage de second niveau, vers
des tiers cloud. »
Des services nativement intégrés
dans les dernières générations de baies
Mais comme l’indique aussi Olivier Tant, si ce type
de solutions répond bien aux problématiques d’une
entreprise qui dispose d’un legacy, il ajoute toutefois un
silo dans l’organisation. « C’est aussi dans ce contexte que
nous avons lancé notre nouvelle gamme Alletra Storage
MP, une architecture désagrégée - motorisée par Vast
Data - et dotée de services de déplacement des données,
évitant ainsi par la suite ce mille-feuille applicatif pour