LMi-MAG20 Dec - Flipbook - Page 29
© Navan
PROFIL LINKEDIN
tinyurl.com/linkedin-Karanth
qu’ils ont besoin, puis de construire à partir de là. Dans
certains cas, nous utilisons des bibliothèques de code
open source - c’est le cas de tous les développeurs - et
donc, pour l’obtenir et s’en servir pour écrire du code,
c’est un autre domaine où cette technologie est utile. Je
pense qu’il y a certaines façons de l’adopter. On ne peut
pas l’adopter aveuglément. On ne peut pas l’adopter dans
tous les contextes, or le contexte est essentiel.
Utilisez-vous d’autres outils que ChatGPT ?
PK : Pas vraiment dans le contexte de l’entreprise.
Prabhath Karanth, RSSI chez Navan, a dû faire face aux risques
de sécurité posés par l'IA générative, notamment les fuites
de données, les logiciels malveillants et les violations potentielles
de réglementations.
Workflows produits, opérations internes...
Les chatbots utilisés aident-ils les employés
à répondre aux questions ?
PK : Il existe quelques applications du côté des produits.
Nous avons un assistant de workload appelé Ava, qui est
un chatbot alimenté par cette technologie. Notre produit
o昀昀re une multitude de fonctionnalités. Par exemple, un
tableau de bord permet à un administrateur de consulter
des informations sur les voyages et les dépenses de son
entreprise. Et en interne, pour alimenter nos opérations,
nous avons cherché à savoir comment nous pouvions
accélérer le développement de logiciels. Même du point
de vue de la sécurité, j’étudie de très près tous les outils
qui me permettent de tirer parti de cette technologie.
Cela s’applique à l’ensemble de l’entreprise.
Certains développeurs qui ont utilisé
la technologie d’IA générative pensent qu’elle
est efficace. Ils disent que le code qu’elle
génère est parfois absurde. Que vous disent
vos développeurs sur l’utilisation de l’IA
pour écrire du code ?
PK : Cela n’a pas été le cas ici. Nous avons eu une très
bonne adoption par la communauté des développeurs,
en particulier dans deux domaines. Le premier est l’e昀케cacité opérationnelle ; les développeurs n’ont plus besoin
d’écrire du code à partir de zéro, du moins pour les
bibliothèques standard et les outils de développement.
Nous constatons de très bons résultats. Nos codeurs
sont en mesure d’obtenir un certain pourcentage de ce
Du côté des codeurs, nous utilisons également Github
Copilot dans une certaine mesure. Mais dans le contexte
non-développeur, c’est surtout OpenAI.
Comment classeriez-vous l’IA en termes
de menace potentielle pour la sécurité
de votre entreprise ?
PK : Je ne dirais pas qu’il s’agit de la menace la plus
grave, mais plutôt d’un nouveau vecteur de menace qu’il
convient d’atténuer au moyen d’une stratégie globale. Il
s’agit de gérer les risques. L’atténuation n’est pas seulement une question de technologie. La technologie et les
outils sont un aspect, mais il faut également mettre en
place une gouvernance et des politiques sur la manière
dont vous utilisez cette technologie en interne et la produisez. Il faut évaluer les risques liés aux personnes, aux
processus et à la technologie, puis les atténuer. Une fois
que cette politique d’atténuation est en place, le risque
est réduit. Si vous ne faites pas tout cela, alors oui, l’IA
est le vecteur le plus risqué.
Quels types de problèmes avez-vous rencontré
avec des employés utilisant ChatGPT ?
Les avez-vous surpris en train de copier et
coller des informations sensibles de l’entreprise
dans des fenêtres d’invite ?
PK : Chez Navan, nous essayons toujours d’avoir une
longueur d’avance ; c’est tout simplement la nature de
notre activité. Lorsque l’entreprise a décidé d’adopter
cette technologie, l’équipe de sécurité a dû procéder à
une évaluation globale des risques... Je me suis donc
assis avec mon équipe de direction pour le faire. La
structure de mon équipe de direction est la suivante :
SUITE
DE L’ENTRETIEN
29