Souhaitez-vous exploiter des modèles de langage avancés tels que DeepSeek directement sur votre machine, sans avoir à transmettre vos données en ligne ? Il est tout à fait faisable de les faire fonctionner localement sur votre ordinateur. Voici les étapes à suivre.
ChatGPT, Llama, Mistral, DeepSeek… Les modèles de langage de grande envergure (LLM) continuent de se développer et de se déclarer supérieurs à leurs rivaux. Bien que la plupart offrent une interface web pour y accéder, l’utilisation de ces modèles d’intelligence artificielle nécessite souvent une inscription en ligne.
L’usage de ces modèles d’IA en ligne soulève plusieurs interrogations, en particulier concernant la protection de vos informations personnelles. D’une part, les requêtes que vous effectuez sont transmises par des serveurs qui se situent généralement hors de votre pays. D’autre part, ces plateformes peuvent parfois présenter des failles de sécurité, posant ainsi des risques concernant les informations que vous partagez. C’est ce qui s’est passé récemment avec DeepSeek, dont une base de données non sécurisée a été exposée suite à une cyberattaque. En conséquence, l’historique des requêtes de certains utilisateurs a été divulgué, incluant potentiellement des données personnelles.
Pour prévenir ces problèmes, il est parfaitement possible de faire fonctionner ces modèles d’IA sans passer par un navigateur internet ni une connexion en ligne. Il est tout à fait envisageable de les utiliser hors ligne, en les exécutant directement sur votre PC. Et cela ne requiert pas forcément de compétences avancées en informatique. Rassurez-vous, aucune commande complexe n’est nécessaire ici. De plus, il n’est pas indispensable de posséder un ordinateur très performant pour les faire tourner. Les modèles de langage téléchargeables pèsent quelques gigaoctets et fonctionnent sans problème sur la majorité des configurations récentes, y compris les plus modestes.
À titre d’exemple, nous avons effectué ces opérations sur un ordinateur portable Huawei Matebook 14 équipé d’un processeur Core i5-1135G7 à 2,40 GHz, avec 16 Go de mémoire vive et sans carte graphique dédiée. Évidemment, plus votre machine est puissante, plus les réponses seront générées rapidement.
Voici les informations nécessaires pour faire tourner DeepSeek, ChatGPT ou tout autre grand modèle de langage localement sur votre PC ou Mac.
1. Téléchargez LM Studio
Lancez votre navigateur internet préféré et commencez par télécharger et installer LM Studio. Cet outil gratuit et open source est disponible pour Windows, macOS et Linux.
Il offre une interface utilisateur claire et permet de télécharger de nombreux modèles de langage sur votre ordinateur pour une utilisation locale sans nécessité de connexion internet. Vous pourrez également demander au modèle d’IA sélectionné d’interagir avec vos documents stockés localement sur votre machine.
2. Configurez LM Studio
Après l’installation, ouvrez LM Studio sur votre appareil. L’application vous proposera immédiatement de télécharger votre premier LLM. Cliquez sur le bouton Get your First LLM.
Par défaut (sous Windows), LM Studio vous suggérera le dernier LLM à la mode : DeepSeek. Appuyez sur Download pour commencer le téléchargement du modèle de langage.
Pendant le téléchargement, vous pouvez commencer à découvrir l’interface de l’application. Cliquez sur Skip onboarding en haut à droite de la fenêtre, ou sur Explore the app while your download is in progress.
3. Découvrez l’interface
Vous devriez maintenant vous trouver sur la fenêtre principale de LM Studio, celle qui vous permet d’interagir avec vos modèles d’IA à l’aide d’un champ de saisie situé en bas de l’écran. Un menu déroulant Select a model to load est disponible en haut de la fenêtre. Vous devez cliquer dessus pour choisir et charger le modèle de langage avec lequel vous souhaitez échanger.
Le dernier bouton, situé en bas à gauche de la fenêtre, représente le gestionnaire de téléchargement de l’application.
4. Paramétrez votre LLM
Maintenant que votre premier LLM est téléchargé, vous devez le configurer pour pouvoir l’utiliser sur votre PC. Cliquez sur le menu déroulant Select a model to load affiché en haut de la fenêtre et sélectionnez le modèle de langage que vous souhaitez utiliser.
La nouvelle fenêtre qui s’ouvre vous permettra de choisir les paramètres à appliquer au modèle de langage. Une fois vos réglages effectués, cliquez sur Load model.
5. Discutez avec le modèle d’IA hors ligne
Vous pouvez désormais commencer à échanger avec le modèle d’IA sélectionné sans nécessiter de connexion Internet. Selon la puissance de votre machine, le temps de réponse peut varier.
6. Téléchargez d’autres modèles d’IA
Un des avantages de LM Studio est qu’il vous permet de télécharger divers modèles de langage que vous pouvez utiliser localement sur votre ordinateur. Pour obtenir d’autres modèles, cliquez sur le bouton représenté par une loupe violette située à gauche de la fenêtre.
Explorez la liste des LLM disponibles, ou entrez directement le nom du modèle de langage que vous voulez essayer dans le champ de recherche prévu à cet effet. Sélectionnez ensuite le LLM de votre choix pour afficher sa fiche d’informations détaillée, et cliquez sur Download pour commencer son téléchargement.
Une fois le téléchargement terminé, vous pourrez configurer (cf étape 4) et utiliser le modèle de langage hors ligne sur votre PC.
Articles similaires
- Téléchargez facilement vos vidéos TikTok préférées en quelques étapes simples!
- Que faut-il savoir avant d’utiliser un dongle Wifi ?
- Windows 11 : Créez facilement une image disque allégée pour l’installation!
- Google Photos : Exportez facilement et rapidement votre photothèque !
- Comment installer Windows 11 24H2 sur un PC incompatible ? Découvrez les astuces !