LMi-MAG20 Dec - Flipbook - Page 25
Comment avez-vous structuré l’activité data
dans cette société de projets qu’était avant tout
Technip Energies ?
MG : Avant même mon arrivée dans le groupe, la stratégie autour de la data avait déjà été affirmée, avec le
support du comité exécutif de l’entreprise. Ce qui a
débouché sur le lancement d’un plan d’accélération
data, basé sur quatre leviers que nous actionnons en
parallèle. Le premier de ces leviers passe par la formation et la sensibilisation des collaborateurs. Nous avons
lancé un programme de formation à la data science, en
partenariat avec la société DataScientest, une formation qui est lourde, puisqu’elle requiert dix heures par
semaine sur neuf mois en plus du travail au quotidien.
La surprise ? La première année, nous avons enregistré
300 candidatures de collaborateurs issus des métiers
pour 20 places. C’est un levier extrêmement puissant,
car ces compétences connaissent déjà nos métiers et
notre organisation et se muent en agents du changement
en interne. Nous avons donc renouvelé l’expérience en
2023, et enregistré encore environ 300 candidatures
pour 40 places cette fois. Par ailleurs, toujours sur cet
aspect relatif à la formation, nous avons travaillé sur un
manifeste de la donnée, traduisant les valeurs de l’entreprise dans la data, et sur un serious game, qu’on va
commencer à déployer pour sensibiliser les collaborateurs aux enjeux de la donnée, mais aussi aux règles de
cybersécurité ou de gouvernance. Nous considérons que
le sujet de la data est le sujet de tous dans l’entreprise.
Le second levier tourne autour de la gouvernance des
données. Nous avons identifié une quinzaine de domaines
data, chacun étant associé à un data owner d’assez haut
niveau dans la structure de l’entreprise. Avec chacun,
nous avons mené un travail de définition des principaux
objets métiers et de recensement des données, l’ensemble étant agrégé dans notre catalogue, basé sur la
technologie DataGalaxy. Cet outil est ouvert à tous pour
que chacun ait accès aux définitions des objets métiers
et à une localisation des données. Notre ambition, c’est
de rendre les métiers autonomes sur ces sujets, le Data
Office - une dizaine de personnes - ayant vocation à les
accompagner et à définir le mode d’emploi, les gardefous, les méthodologies et les outils.
A cette dimension, s’ajoute l’aspect technologique. Nous
avons mis en place une plateforme de la donnée, basée sur
le cloud Azure. Dans ce datalake, nous ingérons les données petit à petit, cas d’usage par cas d’usage. Nous cherchons, en effet, à nous orienter plutôt vers une approche
distribuée, consistant non pas à tout consolider dans le
datalake mais à donner la possibilité d’appeler par API des
données dans les systèmes sources. Cette data platform,
baptisée ez:data, sert de socle pour offrir toute une série
de services complémentaires : le catalogue, l’outil de data
science (Dataiku), la visualisation (dans PowerBI), l’indexation de documents (avec Sinequa), le chat (avec une
instance ChatGPT)... La quasi-totalité de ces outils sont
accessibles à tous les salariés, qui peuvent se familiariser
à ces outils via un catalogue de formations.
Enfin, le quatrième levier, c’est la création de valeur.
Il s’agit d’identifier et prioriser les initiatives via une
méthodologie d’estimation du ROI développée en partenariat avec la finance. Cette estimation est suivie dans
le temps, au travers des différents cycles que connaît un
projet - de l’idée de départ à la mise en production -, et
passe par des étapes de validation au sein d’un comité
d’investissement.
On parle ici d’efficacité opérationnelle.
Quels sont les principaux sujets
que vous avez identifiés sur ce terrain ?
MG : Citons d’abord les réponses aux appels d’offres, où
nous voulons explorer l’IA générative. Auparavant, nous
étions limités techniquement, notamment parce que
nous travaillons beaucoup sur du sur-mesure. Nous étudions aussi l’optimisation des estimations des quantités
de matériaux nécessaires à un projet en amont, via du
machine learning, à partir des données collectées sur les
projets passés. Sur ce terrain, nous complétons nos bases
de connaissances via Sinequa, qui nous permet d’extraire
des données dans des documents, y compris scannés. [Lire
l’intégralité de l’entretien sur lemondeinformatique.fr]
APPROFONDIR
ÉCOUTER EN LIGNE
Entretien/Podcast
tinyurl.com/Gepel-podcast
LIRE EN LIGNE
Entretien
tinyurl.com/article-Gepel
25