Compartilhar via


Amostra de referência e diretrizes para testes de desempenho

Use o exemplo de referência construído usando o Apache JMeter disponível no GitHub como ponto de partida para criar seus próprios testes de desempenho.

A amostra de referência demonstra os seguintes princípios:

  • Comunicação com Linha Direta via WebSockets
  • Conduzir conversas com múltiplas curvas
  • Rodando múltiplos grupos de threads, cada um gerando um caso de usuário conversacional distinto

A amostra de referência é construída usando o JMeter, uma ferramenta de código aberto popular. Você também pode criar scripts de teste de desempenho para agentes do Copilot Studio com outras ferramentas. Use critérios de seleção como:

  • Apoio comunitário: Escolha uma ferramenta com uma comunidade forte e ativa para resolução de problemas e recursos.
  • Disponibilidade de plugins: Certifique-se de que a ferramenta suporte plugins necessários, especialmente para protocolos WebSocket.
  • Relatórios ricos: Procure ferramentas que ofereçam relatórios abrangentes, seja integrados ou extensíveis com plugins.
  • Escalabilidade: Opte por ferramentas que possam escalar facilmente a execução de testes. Tanto JMeter quanto Locust são compatíveis com Azure Load Testing.

Ao projetar scripts de teste de desempenho para agentes construídos com o Copilot Studio, certifique-se de que eles simulem com precisão o uso real e estejam alinhados com sua configuração de produção. As seguintes diretrizes-chave ajudam a criar scripts de teste eficazes e realistas:

  • Simule atrasos realistas: Após capturar a última resposta do agente, introduza um atraso realista (por exemplo, de 30 segundos a 1 minuto) antes de enviar a próxima mensagem do usuário. Esse atraso reflete como usuários reais levam tempo para ler, pensar e responder durante as conversas.
  • Tratamento de erros em conversas com múltiplas curvas: Inclua verificações de erro após cada turno na conversa. Se ocorrer um erro (por exemplo, uma resposta ausente ou incorreta), interrompa a conversa simulada para evitar problemas em cascata e para refletir o comportamento realista do usuário.
  • Combine seus protocolos de comunicação de produção: Garanta que seu script de teste use os mesmos protocolos de comunicação que sua configuração de produção, como WebSockets ou HTTP GET. Essa abordagem garante que o teste de desempenho reflita com precisão as condições do mundo real.