LM Studio est une application desktop qui permet de télécharger et d’exécuter des LLM (Large Language Models) directement sur son ordinateur, sans connexion internet et sans abonnement. Disponible sur Windows, Mac et Linux, l’interface est pensée pour être accessible aussi bien aux débutants qu’aux développeurs.

Ce que permet LM Studio

Depuis la version 0.3, LM Studio propose plusieurs fonctionnalités :

  • Interface de chat : discuter avec le modèle de son choix comme avec ChatGPT
  • Chargement de documents : importer des PDF pour interroger leur contenu (RAG local)
  • Serveur API local : exposer le modèle sur localhost avec une API compatible OpenAI
  • Découverte de modèles : parcourir et télécharger des LLM depuis Hugging Face via l’onglet Discover

Télécharger et utiliser un modèle

Le workflow est simple :

  1. Télécharger LM Studio depuis le site officiel
  2. Dans l’onglet Discover, rechercher un modèle (Mistral 7B, Llama 3, Gemma…)
  3. Cliquer sur Download pour le stocker localement
  4. Charger le modèle et démarrer une conversation

Les modèles sont stockés au format GGUF, quantifiés pour tenir en RAM selon la taille choisie.

Serveur API local pour les développeurs

LM Studio peut exposer un serveur HTTP local sur le port 1234, compatible avec l’API OpenAI. Cela permet d’intégrer n’importe quel LLM local dans une application existante :

from openai import OpenAI

client = OpenAI(base_url="http://localhost:1234/v1", api_key="lm-studio")
response = client.chat.completions.create(
    model="local-model",
    messages=[{"role": "user", "content": "Bonjour !"}]
)

Pour aller plus loin

Retrouvez la démonstration complète de LM Studio sur YouTube.