Compartir a través de


Ejemplo de referencia de pruebas de rendimiento y directrices

Utiliza la muestra de referencia construida con Apache JMeter disponible en GitHub como punto de partida para crear tus propias pruebas de rendimiento.

La muestra de referencia demuestra los siguientes principios:

  • Comunicación con línea directa a través de WebSockets
  • Impulsar conversaciones con múltiples giros
  • Ejecutar múltiples grupos de hilos, cada uno impulsando un caso de usuario conversacional distinto

La muestra de referencia se construye usando JMeter, una herramienta de código abierto popular. También puedes crear scripts de prueba de rendimiento para agentes de Copilot Studio con otras herramientas. Utiliza criterios de selección como:

  • Apoyo comunitario: Elige una herramienta con una comunidad fuerte y activa para la resolución de problemas y recursos.
  • Disponibilidad de plugins: Asegúrese de que la herramienta soporte los plugins necesarios, especialmente para los protocolos WebSocket.
  • Informes enriquecidos: Busca herramientas que ofrezcan informes completos, ya sean integrados o extensibles con plugins.
  • Escalabilidad: Opta por herramientas que puedan escalar fácilmente la ejecución de pruebas. Tanto JMeter como Locust son compatibles con Azure Load Testing.

Al diseñar scripts de prueba de rendimiento para agentes construidos con Copilot Studio, asegúrate de que simulan con precisión el uso real y que estén alineados con tu configuración de producción. Las siguientes pautas clave te ayudan a crear scripts de prueba efectivos y realistas:

  • Simula retrasos realistas: Tras capturar la última respuesta del agente, introduce un retraso realista (por ejemplo, de 30 segundos a 1 minuto) antes de enviar el siguiente mensaje de usuario. Este retraso refleja cómo los usuarios reales tardan en leer, pensar y responder durante las conversaciones.
  • Manejo de errores en conversaciones de varios turnos: Incluye comprobaciones de error después de cada turno en la conversación. Si ocurre un error (por ejemplo, una respuesta faltante o incorrecta), detener la conversación simulada para evitar problemas en cascada y reflejar un comportamiento realista del usuario.
  • Ajusta tus protocolos de comunicación en producción: Asegúrate de que tu script de prueba utilice los mismos protocolos de comunicación que tu configuración de producción, como WebSockets o HTTP GET. Este enfoque garantiza que la prueba de rendimiento refleje con precisión las condiciones reales.