Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Use o exemplo de referência construído com Apache JMeter disponível no GitHub como ponto de partida para criar os seus próprios testes de desempenho.
A amostra de referência demonstra os seguintes princípios:
- Comunicação com Linha Direta através de WebSockets
- Conduzir conversas com múltiplas curvas
- Executar múltiplos grupos de threads, cada um gerando um caso de utilizador conversacional distinto
A amostra de referência é construída usando o JMeter, uma ferramenta de código aberto popular. Também podes criar scripts de teste de desempenho para agentes do Copilot Studio com outras ferramentas. Use critérios de seleção tais como:
- Apoio comunitário: Escolha uma ferramenta com uma comunidade forte e ativa para resolução de problemas e recursos.
- Disponibilidade de plugins: Certifique-se de que a ferramenta suporta os plugins necessários, especialmente para protocolos WebSocket.
- Relatórios ricos: Procure ferramentas que ofereçam relatórios abrangentes, seja integrados ou extensíveis com plugins.
- Escalabilidade: Opte por ferramentas que possam escalar facilmente a execução de testes. Tanto o JMeter como o Locust são compatíveis com o Azure Load Testing.
Ao desenhar scripts de teste de desempenho para agentes construídos com o Copilot Studio, certifique-se de que simulam com precisão o uso real e alinham-se com a sua configuração de produção. As seguintes orientações-chave ajudam-no a criar scripts de teste eficazes e realistas:
- Simule atrasos realistas: Depois de capturar a última resposta do agente, introduza um atraso realista (por exemplo, 30 segundos a 1 minuto) antes de enviar a próxima mensagem do utilizador. Este atraso espelha a forma como os utilizadores reais demoram a ler, pensar e responder durante as conversas.
- Gestão de erros em conversas com múltiplas curvas: Inclua verificações de erro após cada turno na conversa. Se ocorrer um erro (por exemplo, uma resposta em falta ou incorreta), interrompa a conversa simulada para evitar problemas em cascata e para refletir um comportamento realista do utilizador.
- Corresponda aos seus protocolos de comunicação de produção: Certifique-se de que o seu script de teste utiliza os mesmos protocolos de comunicação que a sua configuração de produção, como WebSockets ou HTTP GET. Esta abordagem garante que o teste de desempenho reflete com precisão as condições do mundo real.