Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
En connectant le proxy de développement à un modèle de langage local, vous pouvez améliorer les fonctionnalités du proxy de développement. Sélectionnez les plug-ins dev Proxy utilisent le modèle de langage pour améliorer leur sortie, où le langage naturel est impliqué. En utilisant un modèle de langage local, vous pouvez tirer parti des fonctionnalités améliorées sans entraîner de coûts supplémentaires.
Prérequis
Dev Proxy prend en charge les hôtes de modèles de langage qui exposent des API compatibles avec OpenAI. Il prend également en charge les API Ollama. Pour configurer un hôte de modèle de langue locale, suivez les instructions de sa documentation.
Configurer le proxy de développement pour utiliser un modèle de langage local
Pour configurer le proxy de développement pour utiliser un modèle de langue locale, utilisez le languageModel paramètre dans le devproxyrc.json fichier.
{
"languageModel": {
"enabled": true
}
}
Vous pouvez utiliser les options suivantes dans le languageModel cadre du paramètre :
| Choix | Descriptif | Valeur par défaut |
|---|---|---|
cacheResponses |
Spécifie s’il faut mettre en cache les réponses du modèle de langage. | true |
client |
Le type de client à utiliser. Valeurs autorisées : Ollama, OpenAI |
OpenAI |
enabled |
Spécifie s’il faut utiliser un modèle de langue locale. | false |
model |
Nom du modèle de langage à utiliser. | llama3.2 |
url |
URL du client du modèle de langue locale. | http://localhost:11434/v1/ |
Par défaut, Dev Proxy utilise la configuration standard d’Ollama avec le modèle llama3.2 à l’aide des API compatibles OpenAI d’Ollama. Il met également en cache les réponses du modèle de langage, ce qui signifie que pour la même invite, vous obtenez une réponse immédiate sans attendre que le modèle de langage le traite.
Important
Lorsque vous utilisez un modèle de langue locale, veillez à démarrer votre client de modèle de langue locale avant de démarrer Dev Proxy.
Plug-ins dev Proxy qui peuvent utiliser un modèle de langage local
Les plug-ins proxy de développement suivants utilisent un modèle de langage local si disponible :