LMi-MAG20 Dec - Flipbook - Page 52
FOCUS
Intelligence arti昀椀cielle
5 MOYENS FACILES
POUR EXÉCUTER
DES LLM LOCALEMENT
Le déploiement d’un grand modèle de langage sur son propre système peut être
étonnamment simple, mais encore faut-il disposer des bons outils. Comment utiliser des LLM
tels que le dernier Code Llama de Meta sur son système bureautique ? Eléments de réponse.
Sharon Machlis, IDG NS (adapté par Dominique Filippone)
faire tourner la plupart de ces logiciels). Et un Mac doté
es chatbots tels que ChatGPT, Claude.ai
d’une puce M1 mais de seulement 16 Go de RAM. Simon
et Phind sont sans doute très utiles,
Willison, créateur de l’outil en ligne de commande
mais les entreprises ne souhaitent pas
LLM, a fait valoir lors d’une présentation en août 2023
toujours que les données sensibles
qu’il pouvait être intéressant d’utiliser un modèle local
soient traitées par une application
même si ses réponses sont erronées : « Je pense que c’est
externe. C’est particulièrement vrai sur
une excellente raison de les utiliser, car l’utilisation de
les plateformes où les interactions sont
modèles faibles sur un ordinateur portable est un moyen
examinées par des humains et utilisées
beaucoup plus rapide de comprendre le fonctionnement
pour former de futurs modèles. Une solution consiste
et les limites de ces outils. »
à télécharger un modèle de langage étendu (LLM) et à
l’exécuter sur un de ses systèmes. Une
façon de s’assurer qu’aucune autre entrePetite précision à savoir : il faudra peutRELEASE AUTOMATION,
prise extérieure n’accèdera jamais à ces DÉPLOIEMENT AUTOMATIQUE être un peu de recherche pour trouver
données. Une occasion aussi pour essayer
un modèle qui fonctionne raisonnableD’APPLICATIONS,
IMPLÉMENTATION DEVOPS
de nouveaux modèles spécialisés, tels
ment bien pour une tâche donnée et qui
que la famille de modèles Code Llama de
s’exécute sur un matériel de bureau. En
Cahier des charges
Meta, récemment annoncée et adaptée au
outre, rares seront sans doute les utilisadéveloppement, et SeamlessM4T destiné
teurs à maîtriser tous les outils aussi bien
à la synthèse vocale et aux traductions
qu’il est possible de le faire avec ChatGPT
linguistiques.
(en particulier avec GPT-4) ou Claude.ai.
Il convient également de noter que les
modèles open source devraient contiL’exploitation de son propre LLM peut
tinyurl.com/DevOps-auto
nuer à s’améliorer, et certains observasembler compliquée, mais avec les bons
teurs du secteur s’attendent à ce que l’écart entre ces
outils cela devient étonnamment facile, sachant que les
modèles et les leaders commerciaux se réduise.
exigences matérielles pour de nombreux modèles ne sont
pas folles. Les scénarios d’usage présentés ci-dessous
tournent sur deux systèmes : un PC Dell équipé d’un
En recherche d’un chatbot qui fonctionne localement
processeur Intel i9, de 64 Go de RAM et d’un GPU Nvidia
et n’envoie pas de données ailleurs, GPT4All propose
GeForce 12 Go (qui n’a probablement pas été utilisé pour
un client de bureau à télécharger qui est assez facile à
L
52 / décembre 2023 / janvier / février 2024