LMi-MAG 6 Mars 2021 - Flipbook - Page 25
Elles ont besoin de métriques plus précises, par exemple,
un pourcentage de disponibilité ne va pas leur servir, elles
vont plutôt parler de « budget d’erreur » qui est aussi une
notion de SRE, travailler la marge d’erreur pour, soit
prendre des risques ou tout simplement veiller à ce que
la plateforme respecte notre promesse et le niveau de
services. Datadog le permet. Ce qui est très appréciable,
c’est qu’avec les mêmes métriques, on peut facilement
agréger et déterminer des scénarios. Et on arrive facilement à corréler différents personas d’utilisation de l’outil.
Quelles sont les fonctionnalités Datadog
que vous utilisez ?
GC : Principalement, le Live Tail. Nous voyons passer les
lignes de logs brutes en réalisant, au-dessus, une analyse
multidimensionnelle où l’on choisit des filtres, par applicatif, par rapport à une zone - EMEA ou mondiale - ou un
type d’environnement, que ce soit en préproduction ou
en production. Il y a aussi des fonctionnalités sur la génération d’incidents, autour des Health Check, des tests
synthétiques qui répondent à des seuils, qui vont solliciter
les API d’état de santé des applicatifs. Nous utilisons aussi
la capacité de s’intégrer à différentes sources de données,
un point très important. Et nous prenons du temps pour
tester les nouvelles fonctionnalités qui sortent régulièrement, voir comment on peut faire évoluer nos façons de
faire, ce qui ne veut pas dire que nous allons tout utiliser.
Ce qui est aussi appréciable chez Datadog, c’est qu’ils
présentent de nouveaux usages.
Avez-vous déployé tout ce que vous aviez prévu
dans le projet ?
GC : Le scope initial portait sur notre chemin critique
e-commerce qui est maintenant quasi couvert. Nous
avons des projets d’expansion. Je fais partie d’un groupe
qui écoute énormément le collectif. Le choix de Datadog
a été impulsé par mes équipes, mais son adoption est
propre aux équipes qui vont l’utiliser. Et ça, c’est extrêmement important. Pour le pousser plus loin, j’apporte
énormément d’attention à ce que ce produit soit utile
pour les équipes, donc petit à petit, nous le testons auprès
d’autres équipes.
Pour que l’outil soit adopté largement ?
GC : Oui. Nous ne sommes pas sur du top down, mais
sur le respect du choix des technologies et des outils.
Nous avons un plan d’expansion bien plus large qu’une
seule plateforme e-commerce, sur d’autres plateformes, d’autres filiales et d’autres plaques mondiales.
Aujourd’hui, le projet est opérationnel en France et
testé dans d’autres pays. Nous venons tout juste de finir une migration très structurante et de passer notre
site LeroyMerlin.fr entièrement dans le cloud. Bravo aux
équipes. Cela nous a énormément aidé à préparer cette
migration pour qu’elle soit sécurisée, pour avoir la vision nécessaire pour maîtriser entièrement le périmètre.
Nous l’avons réussie avec quasiment aucun impact pour
le client durant toute cette migration.
Quelles sont les difficultés que vous avez
pu rencontrer dans la mise en place de l’outil ?
GC : Parmi les points délicats, il y a l’aspect FinOps,
c’est-à-dire la capacité à gérer la croissance financière
de services qui sont sur étagère. C’est très facile de dépasser des projections de consommation, surtout dans
les logs. Dans notre transformation cloud, la maîtrise de
cette nouvelle discipline qu’est le FinOps est donc un
enjeu majeur. Il s’agit de contrôler la consommation des
ressources cloud.
Un contrôle financier ?
GC : Ce n’est pas uniquement une question de finance,
il s’agit aussi d’écoresponsabilité. Même si le serveur
n’est pas à côté de nous - nous avons des datacenters
en propre - et qu’il est ultra facile de consommer une
ressource d’infrastructure chez notre cloud provider,
on doit être sensible à l’impact écologique derrière. Ce
n’est pas parce que c’est chez Google ou chez d’autres
que le serveur n’a pas d’empreinte carbone, d’empreinte résiduelle. Il faut être sensibilisé sur l’impact
de consommation d’une infrastructure. Le FinOps, c’est
un peu la corrélation entre les deux. C’est la maîtrise de
notre croissance d’un point de vue financier, avec une
résultante écoresponsable. Dès que nous avons utilisé
Datadog, nous avons pulvérisé nos seuils de consommation en envoyant tous les logs et puis nous avons
compris. Nous sommes passés d’une solution historique
propriétaire, gérée avec les stacks ELK (Elasticsearch,
Logstash et Kibana) que nous maîtrisions et stockions
chez nous, avec des coûts d’infrastructure noyés dans la
masse. Alors qu’avec le business model de Datadog, nous
payons à l’unité de consommation. [Lire l'intégralité de
l'entretien sur lemondeinformatique.fr]
APPROFONDIR
LIRE EN LIGNE
Entretien
cutt.ly/iTV-Giovanni
25