Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Use o exemplo de referência construído usando o Apache JMeter disponível no GitHub como ponto de partida para criar seus próprios testes de desempenho.
A amostra de referência demonstra os seguintes princípios:
- Comunicação com Linha Direta via WebSockets
- Conduzir conversas com múltiplas curvas
- Rodando múltiplos grupos de threads, cada um gerando um caso de usuário conversacional distinto
A amostra de referência é construída usando o JMeter, uma ferramenta de código aberto popular. Você também pode criar scripts de teste de desempenho para agentes do Copilot Studio com outras ferramentas. Use critérios de seleção como:
- Apoio comunitário: Escolha uma ferramenta com uma comunidade forte e ativa para resolução de problemas e recursos.
- Disponibilidade de plugins: Certifique-se de que a ferramenta suporte plugins necessários, especialmente para protocolos WebSocket.
- Relatórios ricos: Procure ferramentas que ofereçam relatórios abrangentes, seja integrados ou extensíveis com plugins.
- Escalabilidade: Opte por ferramentas que possam escalar facilmente a execução de testes. Tanto JMeter quanto Locust são compatíveis com Azure Load Testing.
Ao projetar scripts de teste de desempenho para agentes construídos com o Copilot Studio, certifique-se de que eles simulem com precisão o uso real e estejam alinhados com sua configuração de produção. As seguintes diretrizes-chave ajudam a criar scripts de teste eficazes e realistas:
- Simule atrasos realistas: Após capturar a última resposta do agente, introduza um atraso realista (por exemplo, de 30 segundos a 1 minuto) antes de enviar a próxima mensagem do usuário. Esse atraso reflete como usuários reais levam tempo para ler, pensar e responder durante as conversas.
- Tratamento de erros em conversas com múltiplas curvas: Inclua verificações de erro após cada turno na conversa. Se ocorrer um erro (por exemplo, uma resposta ausente ou incorreta), interrompa a conversa simulada para evitar problemas em cascata e para refletir o comportamento realista do usuário.
- Combine seus protocolos de comunicação de produção: Garanta que seu script de teste use os mesmos protocolos de comunicação que sua configuração de produção, como WebSockets ou HTTP GET. Essa abordagem garante que o teste de desempenho reflita com precisão as condições do mundo real.