Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Aplica-se a: Dynamics 365 Contact Center — incorporado, Dynamics 365 Contact Center — autónomo e Dynamics 365 Customer Service
Este artigo de FAQ ajuda a responder às perguntas sobre a utilização responsável da IA nas funcionalidades do copiloto no Customer Service.
O que é o Copilot no Dynamics 365 Customer Service?
O Copilot é uma ferramenta com tecnologia de IA que transforma a experiência do representante de suporte ao cliente (representante de suporte ou representante) no Dynamics 365 Customer Service. Fornece assistência baseada em IA em tempo real que pode ajudar os representantes a resolver questões mais rapidamente, lidar com casos de forma mais eficiente e automatizar tarefas demoradas, permitindo-lhes focar-se na prestação de um serviço de alta qualidade aos seus clientes.
Quais são as capacidades do sistema?
O Copilot fornece as seguintes funcionalidades principais:
Fazer uma pergunta: é o primeiro separador que os representantes de suporte veem quando ativam o painel de ajuda do Copilot. É uma interface de conversação com o Copilot, que ajuda a fornecer respostas contextuais às perguntas dos representantes. As respostas do Copilot baseiam-se tanto nas origens de conhecimentos internas como externas fornecidas pela sua organização durante a configuração.
Escrever um e-mail: é o segundo separador no painel de ajuda do Copilot e ajuda os representantes a criar rapidamente respostas por e-mail com base no contexto do caso, reduzindo o tempo que os utilizadores necessitam de gastar a criar e-mails.
Rascunho de uma resposta de chat: permite que os representantes criem uma resposta num único clique à conversação de mensagens digitais em curso a partir de origens de conhecimento configuradas pela sua organização.
Resumir um caso: o Copilot fornece aos representantes um resumo de um caso no formulário do mesmo, para que possam obter rapidamente os detalhes importantes de um caso.
Resumir uma conversa: o Copilot fornece aos representantes um resumo de uma conversação em pontos-chave do percurso do cliente como, por exemplo, passagens de informações do representante virtual, transferências e a pedido.
Gerar rascunho de conhecimento a partir do caso (pré-visualização): o Copilot gera um rascunho de artigo de conhecimento como uma proposta que se baseia em informações do caso. Os representantes podem rever e refinar o rascunho dando instruções de revisão ao Copilot e depois guardá-lo.
Resumir um registo personalizado: o Copilot fornece aos representantes um resumo de um registo com base nos campos que o administrador configura para a tabela personalizada, para que os representantes possam obter rapidamente os detalhes importantes de um registo de suporte.
Gerar notas de resolução: o Copilot fornece aos representantes um resumo dos detalhes do caso, e-mails e notas associadas ao caso no separador Fazer uma pergunta, para que possam fechar o caso ou incidente mais depressa.
Previsão utilizando seleção ótima de métodos (pré-visualização) orientada por IA: Melhora os cenários de previsão ao recomendar e aplicar de forma inteligente o método mais adequado com base nos inputs do cenário. Os administradores podem optar por aderir durante a configuração e escolher entre a abordagem tradicional e a opção baseada em IA. Os supervisores também podem fazer previsões quando necessário, em vez de esperar pelas execuções programadas, dando às equipas flexibilidade e perceções mais rápidas.
Qual é a utilização pretendida do sistema?
O Copilot no Customer Service destina-se a ajudar os representantes do suporte ao cliente trabalhar de forma mais eficiente e eficaz. Os representantes do suporte ao cliente podem utilizar as respostas baseadas em conhecimentos do Copilot para poupar tempo a procurar artigos de conhecimento e elaborar respostas. Os resumos do Copilot são concebidos para ajudar os representantes a aumentar rapidamente os casos e conversações. O conteúdo gerado pelo Copilot no Customer Service não se destina a ser utilizado sem revisão ou supervisão humana.
Como é que o Copilot é avaliado no Customer Service? Que métricas são usadas para medir o desempenho?
O Copilot no Customer Service tem sido avaliado em relação a cenários do mundo real com clientes de todo o mundo ao longo de cada fase da sua conceção, desenvolvimento e lançamento. Usando uma combinação de pesquisa e estudos de impacto nos negócios, avaliamos várias métricas quantitativas e qualitativas sobre o Copilot, incluindo a sua precisão, utilidade e confiança dos representantes. Mais informações em Relatório de Transparência de IA Responsável.
Quais são as limitações do Copilot no Customer Service? Como é que os utilizadores podem minimizar o impacto das limitações do Copilot?
As capacidades baseadas em conhecimento do Copilot, como fazer uma pergunta, escrever um email e redigir uma resposta por chat, dependem de artigos de conhecimento de alta qualidade e atualizados para se fundamentarem. Sem estes artigos de conhecimento, os utilizadores têm mais probabilidades de encontrar respostas do Copilot que não sejam factuais.
Para minimizar a probabilidade de ver respostas não factuais do Copilot, é importante que a Microsoft implemente práticas robustas de gestão do conhecimento para garantir que o conhecimento empresarial que se liga ao Copilot seja de alta qualidade e atualizado.
Que fatores operacionais e definições permitem o uso efetivo e responsável do sistema?
Reveja sempre os resultados do Copilot
O Copilot foi criado com base em tecnologia de LLM (Large Language Model), que é probabilística por natureza. Quando lhe é apresentado um segmento de texto de entrada, o modelo calcula a probabilidade de cada palavra nesse texto considerando as palavras anteriores. Em seguida, o modelo escolhe a palavra que é mais provável que se siga. Contudo, dado que o modelo se baseia em probabilidades, não pode dizer com certeza qual é a palavra correta seguinte. Em vez disso, oferece-nos a sua melhor hipótese com base na distribuição de probabilidades que aprendeu a partir dos dados em que foi formado. O Copilot utiliza uma abordagem denominada "grounding", que envolve a adição de informações suplementares à entrada para contextualizar a saída para a sua organização. Utiliza uma pesquisa semântica para compreender a entrada e obter documentos organizacionais internos relevantes e resultados de pesquisa na Web públicos fidedignos, orientando o modelo de linguagem para responder com base nesse conteúdo. Apesar de isto ser útil para assegurar que as respostas do Copilot cumprem os dados organizacionais, é importante rever sempre os resultados obtidos pelo Copilot antes de os utilizar.
Tirar o máximo partido do Copilot
Quando está a interagir com o Copilot, é importante ter em atenção que a estrutura das perguntas pode afetar bastante a resposta do Copilot. Para interagir com o Copilot de forma eficaz, é crucial fazer perguntas claras e específicas, fornecer contexto para ajudar a IA a compreender melhor a sua intenção, fazer uma pergunta de cada vez e evitar termos técnicos para maior clareza e acessibilidade.
Fazer perguntas claras e específicas
A intencionalidade clara é essencial ao fazer perguntas, uma vez que afeta diretamente a qualidade da resposta. Por exemplo, fazer uma pergunta ampla como "Porque é que a máquina de café do cliente não arranca?" é menos provável de dar uma resposta útil comparada com uma pergunta mais específica, como "Que passos posso seguir para determinar porque é que a máquina de café do cliente não está a arrancar?"
No entanto, colocar uma pergunta ainda mais detalhada como "Que passos posso seguir para determinar porque é que uma máquina de café Contoso 900 com uma pressão nominal de 5 bar não está a arrancar?" reduz o âmbito do problema e fornece mais contexto, levando a respostas mais precisas e direcionadas.
Adicionar Contexto
A adição de contexto ajuda o sistema de IA de conversação a compreender melhor a intenção do utilizador e a fornecer respostas mais precisas e relevantes. Sem contexto, o sistema poderá compreender mal a pergunta do utilizador ou fornecer respostas genéricas ou irrelevantes.
Por exemplo, "Porque é que a máquina de café não está a arrancar?" resulta numa resposta genérica quando comparada com uma pergunta com mais contexto, como por exemplo: "Recentemente, o cliente iniciou o modo de descalcificação na sua máquina de café e concluiu a descalcificação com sucesso." Até recebeu três intermitências da fonte de alimentação no final para confirmar que a descalcificação foi concluída. Por que é que não consegue ligar a máquina de café?"
A adição de contexto da forma exemplificada é importante porque ajuda o Copilot a compreender melhor a intenção do utilizador e a fornecer respostas mais precisas e relevantes.
Evitar termos técnicos, se possível
Recomendamos que evite usar termos e nomes de recursos altamente técnicos quando interagir com o Copilot, pois o sistema pode nem sempre compreendê-los de forma precisa ou adequada. A utilização de uma linguagem natural mais simples ajuda a garantir que o sistema pode compreender corretamente a intenção do utilizador e fornecer respostas claras e úteis.
Por exemplo, podes reformular "O cliente não pode fazer SSH na VM depois de ter alterado a configuração do firewall" para "O cliente alterou as regras do firewall na sua máquina virtual. No entanto, já não consegue ligar utilizando o Secure Shell (SSH). Podes ajudar?"
Ao seguir as sugestões, os representantes podem melhorar as suas interações com o Copilot e aumentar a probabilidade de receber respostas precisas e confiantes dele.
Resumir ou expandir uma resposta
Por vezes, a resposta do Copilot pode ser mais longa do que o esperado. Este pode ser o caso quando o representante está numa conversação de chat em direto com um cliente e precisa de enviar respostas concisas quando comparado com o envio de uma resposta por e-mail. Nesses casos, pedir ao Copilot para "resumir a resposta" resulta numa resposta concisa à pergunta. Da mesma forma, se for necessário mais detalhes, pedir ao Copilot para "Fornecer mais detalhes" resulta numa resposta mais detalhada à sua pergunta. Se a resposta for truncada, digitar "continue" mostra a parte restante da resposta.
Como posso influenciar as respostas geradas pelo Copilot? Posso afinar o LLM subjacente?
Não é possível personalizar diretamente o LLM (large language model). As respostas do Copilot podem ser influenciadas pela atualização do documentação de origem. Todo o conteúdo de feedback das respostas do Copilot é armazenado. É possível criar relatórios utilizando estes dados para determinar as origens de dados que necessitam de ser atualizadas. É uma boa ideia ter processos para rever periodicamente os dados de feedback e garantir que os artigos de conhecimento fornecem a melhor e a mais atualizada informação ao Copilot.
Qual é o modelo de segurança de dados do Copilot?
O Copilot aplica os controlos de acesso baseado em funções (RBAC) definidos e cumpre todas as estruturas de segurança existentes. Portanto, os representantes não podem ver dados a que não têm acesso. Além disso, apenas as fontes de dados a que o representante tem acesso são usadas para a geração de respostas do Copilot.
Como é que o Copilot determina se o conteúdo é ofensivo ou prejudicial?
O Copilot determina se o conteúdo é prejudicial através de um sistema de classificação de gravidade baseado em categorias distintas de conteúdo censurável. Saiba mais nas categorias de Danos na Azure AI Content Safety.
Onde é que o processamento e a obtenção de dados ocorrem para gerar as respostas do copiloto?
O Copilot não chama o serviço público OpenAI que alimenta o ChatGPT. O Copilot no Customer Service utiliza o Serviço Microsoft Azure OpenAI num inquilino gerido da Microsoft. Todo o processamento e obtenção de dados ocorre em inquilinos geridos pela Microsoft. Além disso, os dados do cliente não são partilhados e não são alimentados nos modelos públicos.
Quais são as limitações de idioma para resumos que o Copilot gera a partir de casos e conversas?
Muitos idiomas são suportados em resumos de casos e conversas gerados pelo Copilot. Espera-se que a qualidade destes resumos seja a mais elevada em inglês, enquanto nos outros idiomas se espera que a qualidade melhore ao longo do tempo. Obtenha mais informações sobre os idiomas suportados em Suporte a idiomas para caraterísticas do Copilot
O modelo é testado e monitorizado de forma contínua? Em caso afirmativo, com que frequência? Que testes são realizados?
O modelo é testado em relação à qualidade e ao conteúdo nocivo, sempre que há uma alteração na interação ou na versão do modelo. Mais informações no Relatório de Transparência de IA Responsável.
Com que frequência é monitorizado o modelo para detetar degradação do desempenho?
O Azure OpenAI aloja e gere o Modelo GPT de IA generativa. A utilização do modelo em cenários de suporte ao cliente está vinculado a práticas de IA responsável e verificações do Quadro de Segurança da Implementação. Quaisquer alterações às versões do modelo ou aos pedidos subjacentes são validadas em relação à qualidade e ao conteúdo nocivo. Mais informações no Relatório de Transparência de IA Responsável.
O produto ou serviço utiliza mais do que um modelo ou um sistema de modelos interdependentes?
Diferentes caraterísticas no sistema podem estar a usar versões diferentes dos modelos do Serviço OpenAI do Azure. Mais informações em Modelos do Serviço OpenAI do Azure.
O Copilot usa um produto ou serviço de modelo que não é da Microsoft e a documentação para este modelo está disponível?
O Copilot foi criado com o OpenAI do Azure, um serviço de IA totalmente gerido que integra o OpenAI com o modelos de filtragem de conteúdo e de deteção de abusos desenvolvidos pela Microsoft. Mais informações em Nota de transparência para OpenAI do Azure.
Existe um processo definido para comunicar quaisquer alterações em modelos, modelos a jusante ou saídas que são usadas de outras soluções IA/ML ou de modelo?
Quaisquer alterações planeadas às caraterísticas do Copilot são comunicadas através de documentação pública. No entanto, as alterações relativas à versão do modelo ou a pedidos são regidas pelos processos internos da IA responsável. Estas mudanças não são comunicadas, pois são melhorias funcionais incrementais e contínuas.
O feedback literal do utilizador está disponível para a Microsoft para melhorar o produto?
Não
A Microsoft tem políticas e procedimentos que definem e diferenciam as várias responsabilidades e funções humanas quando interagem ou monitorizam sistemas de IA?
Sim. No processo de IA responsável, todos os intervenientes e utilizadores envolvidos são considerados, e a sua utilização ou utilização não intencional do sistema é debatido. Com base nos cenários identificados, as mitigações necessárias são introduzidas no produto ou através de documentação. Mais informações em Relatório de Transparência de IA Responsável.
A Microsoft identifica e documenta abordagens para cativar, capturar e incorporar informações de outros utilizadores finais e principais intervenientes para ajudar na monitorização contínua de impactos potenciais e riscos emergentes?
Sim. Mais informações em Relatório de Transparência de IA Responsável.
A Microsoft documenta, pratica e mede planos de resposta a incidentes para incidentes do sistema de IA, incluindo a medição de tempos de resposta e inatividade?
Sim. O processo responsável de IA exige que a equipa tenha um plano de resposta a incidentes para questões de IA, semelhante ao processo para questões funcionais. As equipas de funcionalidades monitorizam ativamente o desempenho e a fiabilidade do sistema. Mais informações em Relatório de Transparência de IA Responsável.
A Microsoft estabelece procedimentos para partilhar informações sobre incidências de erros e impactos negativos com intervenientes, operadores, profissionais, utilizadores e partes relevantes afetadas?
Sim. Para problemas de gravidade elevada, as equipas de caraterísticas têm de comunicar a interrupção aos clientes afetados.
A Microsoft mede e monitoriza o desempenho do sistema em tempo real para permitir uma resposta rápida quando um incidente do sistema de IA é detetado?
Sim. As equipas de caraterísticas monitorizam continuamente o desempenho e a fiabilidade do sistema.
A Microsoft testa a qualidade das explicações dos sistemas com os utilizadores finais e outros intervenientes?
Sim. Mais informações em Relatório de Transparência de IA Responsável.
A Microsoft estabeleceu políticas e procedimentos para monitorizar e abordar o desempenho e a fiabilidade do sistema de modelos, incluindo desvios e problemas de segurança ao longo do ciclo de vida do modelo, ao avaliar os sistemas de IA quanto a riscos negativos e a benefícios?
Sim. Mais informações em Relatório de Transparência de IA Responsável.
A Microsoft realiza avaliações de equidade para gerir formas computacionais e de estatísticas de desvio?
Sim. Mais informações em Relatório de Transparência de IA Responsável.
A Microsoft monitoriza as saídas do sistema para verificar a existência de problemas de desempenho ou desvios?
Sim. Os filtros de moderação são aplicados em várias camadas, inclusive na saída, para garantir que não há conteúdo nocivo na resposta. Mais informações em Relatório de Transparência de IA Responsável.
Qual é o nível de resiliência na operação do modelo? Por exemplo, existe um plano de contingência e recuperação após desastre para instâncias quando o modelo não está disponível?
À semelhança de todos os serviços do Azure, a cópia de segurança e a recuperação são suportados através de vários centros de dados para elevada disponibilidade.
O modelo é dependente, está incorporado em ferramentas ou soluções de terceiros que dificultam a migração do modelo para um ambiente diferente (incluindo variáveis como fornecedor de alojamento, o hardware, sistemas de software) que impediriam a capacidade de explicação do modelo?
Não
Está estabelecida uma política de governação de modelos?
Sim. O Azure OpenAI suporta uma política de governação estabelecida. Mais informações em Relatório de Transparência de IA Responsável.
Há protocolos estabelecidos e documentados (autorização, duração, tipo) e controlos de acesso para conjuntos de dados de preparação ou produção que contêm PII de acordo com as políticas de privacidade e governação de dados?
Atualmente, não há preparação de modelos, portanto, nenhum requisito em torno do conjunto de dados. No entanto, quando um representante de apoio ao cliente interage com o Copilot, dependendo da funcionalidade, são usados dados de contexto (caso ou chat) para gerar uma resposta.
As divulgações de PII e a inferência de atributos sensíveis ou legalmente protegidos são monitorizadas?
Sim. É realizada uma revisão de privacidade para todas as funcionalidades.
A Microsoft tem um processo para considerar problemas legais e regulamentares e requisitos específicos para o respetivo setor, propósito comercial e ambiente de aplicação dos sistemas de IA implementados?
Sim. É realizada uma revisão jurídica para cada funcionalidade para ajudar nos requisitos regulamentares e outras questões legais.
Informações relacionadas
Utilizar as funcionalidade do Copilot
Utilizar o Copilot para gerar rascunhos de conhecimentos a partir de incidentes
Disponibilidade regional do Copilot
FAQ sobre a segurança de dados e a privacidade do Copilot no Microsoft Power Platform