Partilhar via


Amostra de referência e diretrizes para testes de desempenho

Use o exemplo de referência construído com Apache JMeter disponível no GitHub como ponto de partida para criar os seus próprios testes de desempenho.

A amostra de referência demonstra os seguintes princípios:

  • Comunicação com Linha Direta através de WebSockets
  • Conduzir conversas com múltiplas curvas
  • Executar múltiplos grupos de threads, cada um gerando um caso de utilizador conversacional distinto

A amostra de referência é construída usando o JMeter, uma ferramenta de código aberto popular. Também podes criar scripts de teste de desempenho para agentes do Copilot Studio com outras ferramentas. Use critérios de seleção tais como:

  • Apoio comunitário: Escolha uma ferramenta com uma comunidade forte e ativa para resolução de problemas e recursos.
  • Disponibilidade de plugins: Certifique-se de que a ferramenta suporta os plugins necessários, especialmente para protocolos WebSocket.
  • Relatórios ricos: Procure ferramentas que ofereçam relatórios abrangentes, seja integrados ou extensíveis com plugins.
  • Escalabilidade: Opte por ferramentas que possam escalar facilmente a execução de testes. Tanto o JMeter como o Locust são compatíveis com o Azure Load Testing.

Ao desenhar scripts de teste de desempenho para agentes construídos com o Copilot Studio, certifique-se de que simulam com precisão o uso real e alinham-se com a sua configuração de produção. As seguintes orientações-chave ajudam-no a criar scripts de teste eficazes e realistas:

  • Simule atrasos realistas: Depois de capturar a última resposta do agente, introduza um atraso realista (por exemplo, 30 segundos a 1 minuto) antes de enviar a próxima mensagem do utilizador. Este atraso espelha a forma como os utilizadores reais demoram a ler, pensar e responder durante as conversas.
  • Gestão de erros em conversas com múltiplas curvas: Inclua verificações de erro após cada turno na conversa. Se ocorrer um erro (por exemplo, uma resposta em falta ou incorreta), interrompa a conversa simulada para evitar problemas em cascata e para refletir um comportamento realista do utilizador.
  • Corresponda aos seus protocolos de comunicação de produção: Certifique-se de que o seu script de teste utiliza os mesmos protocolos de comunicação que a sua configuração de produção, como WebSockets ou HTTP GET. Esta abordagem garante que o teste de desempenho reflete com precisão as condições do mundo real.