LMi-MAG14 juillet - Flipbook - Page 33
© DR
Enfin, comme la place de marché dispose d’un réseau de
4 000 marchands partenaires, la catégorisation et l’intégration des attributs des produits à partir des fiches
descriptives sont largement automatisées grâce à l’analyse de données.
Un sujet critique
Comme les requêtes de consultations des données se
chiffrent en millions chaque mois, la performance est
devenue une question critique. L’architecture basée sur
Amazon Redshift sur AWS ne satisfaisait plus ManoMano.
Si la performance était le déclencheur d’une recherche
de solution technique, d’autres sujets connexes induits
devaient ensuite être traités pour mieux valoriser le patrimoine de données, en particulier l’amélioration de
la qualité des données et la réduction de la dette technique accumulée au fil de projets successifs. Cédric Cormont stipule : « Il y a deux ans, nous avons migré vers
Snowflake pour régler notre problème de performance.
Le projet a duré six mois et n’a pas résolu les problèmes
supplémentaires, notamment la qualité des données,
car nous avons réalisé un transfert direct table à table. »
Pour des questions pratiques, l’hébergement S3 d’AWS
a été conservé.
La question abordée ensuite a été l’optimisation des processus associés au traitement de la donnée et de l’organisation induite concernant une soixantaine de spécialistes
de la donnée. ManoMano disposait d’une data factory
centralisée où les experts données étaient sollicités en
mode ticket, répondant à chaque demande l’une après
l’autre. ManoMano l’a réorganisée en créant une équipe
de gestion technique (production : la « coreteam dataplatform ») et des équipes thématiques, les « data squads »
(B2B, B2C, buyers, sellers, catalog, etc.), chacune étant
focalisée sur un métier avec tous les profils nécessaires
pour une gestion globale des questions. « La qualité des
données a été améliorée par la décentralisation et la responsabilisation des équipes mixtes IT/métier », a précisé
Cédric Cormont.
La fonctionnalité data sharing
Cette nouvelle organisation a permis à l’équipe technique
de se focaliser sur la problématique technique. En particulier, il fallait optimiser les coûts dans une architecture
reposant uniquement sur le cloud public. ManoMano a
logiquement adopté l’approche FinOps en se basant sur
les outils de Snowflake pour réaliser un bilan des usages.
La place de marché en a aussi profité pour améliorer son
traitement des incidents et s’assurer que chaque outil développé et mis en place était bien conçu pour répondre
aux besoins et attentes des utilisateurs. Pour éviter de
démultiplier le stockage et les copies de données, la fonctionnalité de data sharing [partage de la donnée, NDLR]
proposée par Snowflake a été appréciée, car elle permet
PROFIL LINKEDIN
cutt.ly/linkedin-Cormont
« La qualité des données a été améliorée par la décentralisation
et la responsabilisation des équipes mixtes IT/métier »,
Cédric Cormont, senior data architect chez ManoMano.
à chaque utilisateur de disposer des données utiles avec
les droits nécessaires sans avoir à multiplier les copies
volumineuses.
Enfin, la dernière étape du programme a consisté en une
refonte de l’organisation de la donnée dans Snowflake. En
effet, initialement, rappelons-le, les données avaient été
transférées table à table. Le schéma des données a donc
été optimisé et, surtout, chaque table a été documentée.
Cédric Cormont a insisté : « Nous avons veillé à tout documenter mais aussi à rendre chaque vue créée réutilisable
autant que possible ainsi qu’à lier les usages de données
aux attentes business. » Pour responsabiliser les métiers
vis-à-vis de leurs demandes, ManoMano a appliqué une
recette claire : chaque coût est imputé sur le budget du
métier demandeur.
APPROFONDIR
ÉCOUTER EN LIGNE
Podcast
cutt.ly/podcast-ManoMano
LIRE EN LIGNE
Article
cutt.ly/article-ManoMano
33