Partager via


Exemple de référence et directives pour les tests de performance

Utilisez l’exemple de référence construit avec Apache JMeter disponible sur GitHub comme point de départ pour créer vos propres tests de performance.

L’exemple de référence démontre les principes suivants :

  • Communication en ligne directe via WebSockets
  • Conduire des conversations à plusieurs virages
  • Exécution de plusieurs groupes de threads, chacun pilotant un cas utilisateur conversationnel distinct

L’échantillon de référence est construit à l’aide de JMeter, un outil open source populaire. Vous pouvez aussi créer des scripts de test de performance pour les agents de Copilot Studio avec d’autres outils. Utilisez des critères de sélection tels que :

  • Soutien communautaire : Choisissez un outil avec une communauté forte et active pour le dépannage et les ressources.
  • Disponibilité des plugins : Assurez-vous que l’outil prend en charge les plugins nécessaires, en particulier pour les protocoles WebSocket.
  • Reporting enrichi : Recherchez des outils offrant des rapports complets, intégrés ou extensibles avec des plugins.
  • Évolutivité : Optez pour des outils qui peuvent facilement évoluer l’exécution des tests. JMeter et Locust sont tous deux compatibles avec Azure Load Testing.

Lorsque vous concevez des scripts de test de performance pour des agents conçus avec Copilot Studio, assurez-vous qu’ils simulent fidèlement l’utilisation réelle et qu’ils correspondent à votre configuration de production. Les directives clés suivantes vous aident à créer des scripts de test efficaces et réalistes :

  • Simulez des délais réalistes : Après avoir capturé la dernière réponse de l’agent, introduisez un délai réaliste (par exemple, de 30 secondes à 1 minute) avant d’envoyer le message utilisateur suivant. Ce délai reflète la façon dont les utilisateurs réels prennent le temps de lire, réfléchir et répondre lors des conversations.
  • Gestion des erreurs dans les conversations à plusieurs tours : Incluez des vérifications d’erreur après chaque tour dans la conversation. Si une erreur survient (par exemple, une réponse manquante ou incorrecte), arrêtez la conversation simulée pour éviter des problèmes en cascade et pour refléter un comportement réaliste de l’utilisateur.
  • Alignez vos protocoles de communication de production : Assurez-vous que votre script de test utilise les mêmes protocoles de communication que votre installation de production, tels que WebSockets ou HTTP GET. Cette approche garantit que le test de performance reflète avec précision les conditions réelles.