LMi-MAG 6 Mars 2021 - Flipbook - Page 19
Maintenance prédictive,
prédiction de fraudes,
amélioration de l’expérience
utilisateur… De plus en plus
d’entreprises utilisent la
plateforme Confluent pour tirer
parti de grandes quantités
de données en provenance
de sources hétérogènes.
3 / Choisir les bons partenaires
pour son projet cloud
Après avoir identifié clairement les objectifs se pose la question de
l’implémentation. Au-delà de ses bénéfices en termes de time to market,
de coût et d’agilité, « le cloud est un mode de déploiement qui autorise
le droit à l’erreur et permet de facilement tester la viabilité d’un projet »
note le consultant. Les phases itératives étant accélérées, on peut cerner
facilement ce qui apporte de la valeur et décider par la suite de passer
à l’échelle.
4 / Intégrer les contraintes règlementaires
et opérationnelles
Après avoir cerné les bénéfices des technologies telles qu’Apache
Kafka, les opérationnels ne tardent généralement pas à avoir des idées.
Se pose cependant la question de leur faisablité en termes techniques,
mais également d’un point de vue de la gouvernance d’entreprise.
« A l’heure du RGPD, il faut bien faire la part des choses entre ce que
l’on veut faire, ce que l’on a le droit de faire et ce que l’on a intérêt à
faire » résume Rémi Forest. Là encore, le recours à une plateforme
« as a service » accélère et simplifie les projets en confiant la charge
de l’exploitation au prestataire cloud.
5 / Ne pas sous-estimer le maintien
en condition opérationnelle
Communication entre les stacks de technologies, monitoring des solutions, mécanismes de trouble shooting… Si la construction d’une solution event-driven basée sur le cloud ou les services managés évite
d’avoir à se soucier du fonctionnement de chaque brique technologique,
l’entreprise doit tout de même conserver sa part de responsabilité en
s’équipant des bons outils, des bons process et en s’assurant d’avoir les
compétences pour délivrer correctement les cas d’usage.
ZOOM SUR LA PLATEFORME
APACHE KAFKA
La popularité de la plateforme Kafka est liée à ses performances
mais surtout à sa capacité à contourner les limites des architectures
traditionnelles « database first ». Dans une architecture traditionnelle,
l’évènement est intégré dans une base de données, notamment
grâce à des mécanismes d’ETL. Des pipelines de données dispersent
l’information au sein du SI pour alimenter des systèmes de reporting,
de monitoring, etc. Mais la limite de ce modèle apparaît avec la
complexité croissante des SI. La propagation de l’information dans
les systèmes est de plus en plus longue, les délais de traitement
s’allongent également, avec parfois plusieurs semaines entre la
survenance d’un événement et le moment où il est disponible dans
le SI, ce qui amène les équipes à travailler avec des données fausses
ou incomplètes. En accélérant la transmission des données en temps
réel aux équipes data et BI, Apache Kafka optimise le Time-To-Market
et confère à l’entreprise une longueur d’avance.
SITE INTERNET
www.confluent.fr
Sponsorisé par Confluent
ÉCOUTER EN LIGNE
Entretien/Podcast
cutt.ly/podcast-confluent