Partager via


Utiliser un modèle de langage local avec le proxy de développement

En connectant le proxy de développement à un modèle de langage local, vous pouvez améliorer les fonctionnalités du proxy de développement. Sélectionnez les plug-ins dev Proxy utilisent le modèle de langage pour améliorer leur sortie, où le langage naturel est impliqué. En utilisant un modèle de langage local, vous pouvez tirer parti des fonctionnalités améliorées sans entraîner de coûts supplémentaires.

Prérequis

Dev Proxy prend en charge les hôtes de modèles de langage qui exposent des API compatibles avec OpenAI. Il prend également en charge les API Ollama. Pour configurer un hôte de modèle de langue locale, suivez les instructions de sa documentation.

Configurer le proxy de développement pour utiliser un modèle de langage local

Pour configurer le proxy de développement pour utiliser un modèle de langue locale, utilisez le languageModel paramètre dans le devproxyrc.json fichier.

{
  "languageModel": {
    "enabled": true
  }
}

Vous pouvez utiliser les options suivantes dans le languageModel cadre du paramètre :

Choix Descriptif Valeur par défaut
cacheResponses Spécifie s’il faut mettre en cache les réponses du modèle de langage. true
client Le type de client à utiliser. Valeurs autorisées : Ollama, OpenAI OpenAI
enabled Spécifie s’il faut utiliser un modèle de langue locale. false
model Nom du modèle de langage à utiliser. llama3.2
url URL du client du modèle de langue locale. http://localhost:11434/v1/

Par défaut, Dev Proxy utilise la configuration standard d’Ollama avec le modèle llama3.2 à l’aide des API compatibles OpenAI d’Ollama. Il met également en cache les réponses du modèle de langage, ce qui signifie que pour la même invite, vous obtenez une réponse immédiate sans attendre que le modèle de langage le traite.

Important

Lorsque vous utilisez un modèle de langue locale, veillez à démarrer votre client de modèle de langue locale avant de démarrer Dev Proxy.

Plug-ins dev Proxy qui peuvent utiliser un modèle de langage local

Les plug-ins proxy de développement suivants utilisent un modèle de langage local si disponible :