Compartilhar via


Perguntas frequentes sobre IA Responsável para o Copilot no Customer Service

Aplica-se ao: Dynamics 365 Contact Center – integrado, Dynamics 365 Contact Center – independente e Dynamics 365 Customer Service

Este artigo de perguntas frequentes ajuda a responder às perguntas relacionadas ao uso responsável da IA em recursos do copiloto no Customer Service.

O que é Copilot no Dynamics 365 Customer Service?

O Copilot é uma ferramenta alimentada por IA que transforma a experiência do representante do serviço de atendimento ao consumidor (representante do serviço ou representante) no Dynamics 365 Customer Service. Ele fornece assistência baseada em IA em tempo real que pode ajudar os representantes a resolver problemas com mais rapidez, lidar com casos com mais eficiência e automatizar tarefas demoradas, permitindo que eles se concentrem em fornecer serviço de alta qualidade para seus clientes.

Quais são as características do sistema?

O Copilot oferece os seguintes recursos principais:

  • Fazer uma pergunta: é a primeira guia que os representantes do serviço veem ao ativar o painel de ajuda do Copilot. É uma interface de conversa com o Copilot, que ajuda a fornecer respostas contextuais às perguntas dos representantes. As respostas do Copilot se baseiam em ambas as fontes de conhecimento internas e externas fornecidas pela organização durante a configuração.

  • Escrever um email: é a segunda guia no painel de ajuda do Copilot que auxilia os representantes a criarem rapidamente respostas de email com base no contexto do caso, reduzindo o tempo que os usuários precisam gastar criando emails.

  • Esboçar uma resposta de chat: permite aos representantes criarem uma resposta em um clique simples para a conversa de mensagens digitais em andamento com base em fontes de conhecimento configuradas pela organização.

  • Resumir um caso: o Copilot fornece aos representantes um resumo de um caso diretamente no formulário do caso, de maneira que eles possam acompanhar rapidamente os detalhes importantes de um caso.

  • Resumir uma conversa: o Copilot fornece aos representantes um resumo de uma conversa em pontos principais ao longo da jornada do cliente, como entregas de representante virtual, transferências e sob demanda.

  • Gerar rascunho de conhecimento com base em caso (versão preliminar): o Copilot gera um rascunho do artigo de conhecimento como uma proposta com base em informações do caso. Os representantes podem revisar e refinar o rascunho dando instruções de revisão para o Copilot e, em seguida, salvá-lo.

  • Resumir um registro personalizado: o Copilot oferece aos representantes um resumo de um registro com base em campos que o administrador configura para a tabela personalizada, de maneira que os representantes possam acompanhar rapidamente os detalhes importantes de um registro de suporte.

  • Gerar notas de resolução: o Copilot fornece aos representantes um resumo dos detalhes do caso, emails e observações vinculadas ao caso na guia Fazer uma pergunta para que eles possam fechar rapidamente o caso ou incidente.

  • Previsão usando a seleção de método ideal orientada por IA (versão prévia): aprimora os cenários de previsão recomendando e aplicando de forma inteligente o método mais adequado com base em entradas de cenário. Os administradores podem optar por participar durante a configuração e escolher entre a abordagem tradicional e a opção com base em IA. Os supervisores também podem executar previsões sob demanda em vez de esperar por execuções agendadas, dando às equipes flexibilidade e insights mais rápidos.

Qual é o uso pretendido do sistema?

O Copilot no Customer Service se destina a ajudar os representante do serviço de atendimento ao consumidor a trabalharem de maneira mais eficiente e eficaz. Os representante do serviço de atendimento ao consumidor podem usar as respostas baseadas em conhecimento do Copilot para economizar tempo na pesquisa dos artigos de conhecimento e no esboço das respostas. Os resumos do Copilot foram projetados para apoiar os representantes a se atualizar rapidamente sobre casos e conversas. O conteúdo gerado pelo Copilot no Customer Service não deve ser usado sem revisão ou supervisão humana.

Como o Copilot no Customer Service é avaliado? Quais métricas são usadas para medir o desempenho?

O Copilot no Customer Service foi avaliado em cenários reais com clientes em todo o mundo em cada fase do design, do desenvolvimento e da versão. Usando uma combinação de pesquisa e estudos de impacto sobre os negócios, avaliamos métricas quantitativas e qualitativas variadas sobre o Copilot, inclusive a precisão, a utilidade e a confiança do representante. Saiba mais em Relatório de transparência de IA responsável.

Quais são as limitações do Copilot no Customer Service? Como os usuários podem minimizar o impacto das limitações do Copilot?

Os recursos baseados em conhecimento do Copilot, como fazer uma pergunta, escrever um email e elaborar uma resposta de chat, dependem de artigos de conhecimento de alta qualidade e atualizados para fundamentação. Sem esses artigos de conhecimento, é mais provável que os usuários encontrem respostas do Copilot não factuais.

Para minimizar a probabilidade de ver respostas não factuais do Copilot, é importante que a Microsoft empregue práticas robustas de gerenciamento de conhecimento para garantir que o conhecimento empresarial que se conecta ao Copilot seja de alta qualidade e atualizado.

Quais fatores e configurações operacionais permitem o uso eficaz e responsável do sistema?

Revisar sempre resultados do Copilot

O Copilot aproveita tecnologia de modelo de linguagem grande, de natureza probabilística. Quando apresentado a um texto de entrada, o modelo calcula a probabilidade de cada palavra nesse texto, dadas as palavras que vieram antes dela. O modelo acaba escolhendo a palavra com mais probabilidade de seguir. No entanto, como se baseia em probabilidades, o modelo não consegue dizer com certeza absoluta qual é a próxima palavra correta. Em vez disso, ele nos dá a melhor estimativa com base na distribuição da probabilidade aprendida com os dados nos quais ele foi treinado. O Copilot usa uma abordagem chamada aterramento, que envolve a adição de informações à entrada para contextualizar a saída para a organização. Ele usa pesquisa semântica para compreender a entrada e recuperar documentos organizacionais internos relevantes e resultados da pesquisa na Web públicos confiáveis e orienta o modelo de linguagem para responder com base nesse conteúdo. Embora seja útil para garantir que as respostas do Copilot sigam os dados organizacionais, sempre é importante revisar os resultados produzidos pelo Copilot antes de usá-los.

Obter o melhor do Copilot

Ao interagir com o Copilot, é importante ter em mente que a estrutura das perguntas pode afetar muito a resposta dada pelo Copilot. Para interagir com o Copilot de maneira eficaz, é crucial fazer perguntas claras e específicas, contextualizar para ajudar a IA a entender melhor a intenção, fazer uma pergunta por vez e evitar termos técnicos para fins de clareza e acessibilidade.

Fazer perguntas claras e específicas

A intenção clara é essencial ao fazer perguntas, pois afeta diretamente a qualidade da resposta. Por exemplo, fazer uma pergunta ampla como "Por que a máquina de café do cliente não está começando?" é menos provável que gere uma resposta útil em comparação com uma pergunta mais específica, como "Quais etapas posso tomar para determinar por que a máquina de café do cliente não está começando?"

No entanto, fazer uma pergunta ainda mais detalhada como "Quais etapas posso tomar para determinar por que uma máquina de café Contoso 900 com uma pressão de 5 bar não está ligando?" restringe o escopo do problema e fornece mais contexto, levando a respostas mais precisas e direcionadas.

Contextualizar

A contextualização ajuda o sistema de IA de conversa a entender melhor a intenção do usuário e dar respostas mais precisas e relevantes. Sem contexto, o sistema pode interpretar mal a pergunta do usuário ou dar respostas genéricas ou irrelevantes.

Por exemplo, "Por que a máquina de café não está iniciando?" resulta em uma resposta genérica quando comparada a uma pergunta com mais contexto como: "Recentemente, o cliente iniciou o modo de descalcagem em sua cafeteira e concluiu o descalque com êxito. Eles até mesmo receberam três piscadas da luz de energia ao final para confirmar que a descalcificação foi concluída. Por que eles não conseguem mais ligar a máquina de café?"

A contextualização dessa maneira é importante porque ajuda o Copilot a entender melhor a intenção do usuário e dar respostas mais precisas e relevantes.

Evitar termos técnicos, se possível

Recomendamos que você evite usar termos e nomes de recursos altamente técnicos ao interagir com o Copilot, pois o sistema pode nem sempre entendê-lo com precisão ou apropriado. O uso de uma linguagem mais simples e natural ajuda a garantir que o sistema possa compreender corretamente a intenção do usuário e dar respostas claras e úteis.

Por exemplo, você pode reformular "O cliente não pode entrar no SSH na VM depois de ter alterado a configuração do firewall" para "O cliente alterou as regras de firewall em sua máquina virtual. No entanto, eles não conseguem mais se conectar usando SSH (Secure Shell). Você pode ajudar?"

Ao seguir as sugestões, os representantes podem melhorar suas interações com o Copilot e aumentar a probabilidade de receber respostas precisas e confiáveis dele.

Resumo ou expansão de uma resposta

Às vezes, a resposta do Copilot pode ser mais longa do que o esperado. Esse pode ser o caso quando o representante está em uma conversa de chat ao vivo com um cliente e precisa enviar respostas concisas quando comparado com o envio de uma resposta por email. Nesses casos, pedir a Copilot para "resumir a resposta" resulta em uma resposta concisa à pergunta. Da mesma forma, se houver a necessidade de mais detalhes, pedir a Copilot para "Fornecer mais detalhes" resultará em uma resposta mais detalhada à sua pergunta. Se a resposta for truncada, digitar "continuar" exibirá a parte restante da resposta.

Como posso influenciar as respostas geradas pelo Copilot? Posso ajustar o LLM subjacente?

Não é possível personalizar diretamente o LLM (modelo de linguagem grande). As respostas do Copilot podem ser influenciadas pela atualização da documentação de fonte. Todo o conteúdo de feedback das respostas do Copilot é armazenado. Os relatórios podem ser criados usando esses dados para determinar as fontes de dados que precisam ser atualizadas. É uma boa ideia ter processos em vigor para revisar periodicamente os dados de feedback e garantir que os artigos de conhecimento estejam fornecendo as melhores e mais atualizadas informações ao Copilot.

Qual é o modelo de segurança de dados do Copilot?

O Copilot impõe os controles de acesso baseado em função (RBAC) definidos e adere a todas as construções de segurança existentes. Portanto, os representantes não podem visualizar dados aos quais não têm acesso. Além disso, somente as fontes de dados às quais o representante tem acesso são usadas para a geração de resposta copilot.

Como o Copilot determina se o conteúdo é ofensivo ou prejudicial?

Copilot determina se o conteúdo é prejudicial por meio de um sistema de classificação de gravidade baseado em categorias distintas de conteúdo censurável. Saiba mais em categorias de Danos no Azure AI Content Safety.

Onde o processamento de dados e a recuperação ocorrem para gerar respostas do copiloto?

Copilot não chama o serviço OpenAI público que alimenta o ChatGPT. O Copilot no Customer Service usa o Serviço OpenAI do Microsoft Azure em um locatário gerenciado pela Microsoft. Todo o processamento de dados e a recuperação ocorrem dentro dos locatários gerenciados pela Microsoft. Além disso, os dados do cliente não são compartilhados e não são realimentados em modelos públicos.

Quais são as limitações de linguagem para resumos que o Copilot gera a partir de casos e conversas?

Há suporte para muitos idiomas em resumos gerados pelo Copilot a partir de casos e conversas. Espera-se que a qualidade desses resumos seja a mais alta em inglês, enquanto nos outros idiomas, espera-se que a qualidade melhore com o tempo. Saiba mais sobre os idiomas compatíveis em Suporte a idiomas para recursos do Copilot

O modelo é testado e monitorado continuamente? Em caso afirmativo, com que frequência? Quais testes são realizados?

O modelo é testado quanto à qualidade e conteúdo nocivo, sempre que há uma alteração na interação ou versão do modelo. Saiba mais no Relatório de Transparência de IA Responsável.

Com que frequência o modelo é monitorado para detectar degradação de desempenho?

O Azure OpenAI hospeda e gerencia o modelo gerador de IA do GPT. O uso do modelo em cenários de atendimento ao cliente está vinculado a práticas de IA responsáveis e verificações do Conselho de Segurança de Implantação. Quaisquer alterações nas versões do modelo ou nos prompts subjacentes são validadas quanto à qualidade e ao conteúdo prejudicial. Saiba mais no Relatório de transparência de IA responsável.

O produto ou serviço emprega mais de um modelo ou um sistema de modelos interdependentes?

Diferentes recursos no sistema podem estar usando versões diferentes dos modelos de Serviço OpenAI do Azure. Saiba mais em Modelos de Serviço OpenAI do Azure.

O Copilot usa um produto ou um serviço modelo que não seja da Microsoft, e a documentação desse modelo está disponível?

O Copilot foi compilado usando o Azure OpenAI, um serviço de IA totalmente gerenciado que integra o OpenAI aos modelos de detecção de abuso e filtragem de conteúdo desenvolvidos pela Microsoft. Saiba mais em Nota de transparência para OpenAI do Azure.

Existe um processo definido para comunicar quaisquer alterações em modelos, modelos upstream ou saídas que são usadas de outras soluções de IA/ML ou modelo?

Quaisquer alterações planejadas nos recursos do Copilot são comunicadas por meio de documentação pública. No entanto, as alterações referentes à versão do modelo ou prompts são regidas pelos processos internos de IA responsável. Essas mudanças não são comunicadas, pois são melhorias funcionais incrementais e contínuas.

O feedback integral do usuário está disponível para Microsoft para melhorar o produto?

Não.

O Microsoft tem políticas e procedimentos que definem e diferenciam os vários papéis e responsabilidades humanas quando interagem ou monitoram sistemas de IA?

Sim. No processo de IA responsável, todas as partes interessadas e usuários envolvidos são considerados, e seu uso ou uso não intencional do sistema é discutido. Com base nos cenários identificados, as mitigações necessárias são trazidas dentro do produto ou por meio de documentação. Saiba mais em Relatório de Transparência de IA Responsável.

O Microsoft identifica e documenta abordagens para engajar, capturar e incorporar contribuições de outros usuários finais e principais partes interessadas para ajudar no monitoramento contínuo de impactos potenciais e riscos emergentes?

Sim. Saiba mais em Relatório de Transparência de IA Responsável.

O Microsoft documenta, pratica e mede planos de resposta a incidentes para incidentes do sistema de IA, incluindo a medição de tempos de resposta e de inatividade?

Sim. O processo de IA responsável exige que a equipe tenha um plano de resposta a incidentes para problemas de IA, semelhante ao processo para problemas funcionais. As equipes de funcionalidades monitoram ativamente o desempenho e a confiabilidade do sistema. Saiba mais em Relatório de Transparência de IA Responsável.

O Microsoft estabelece procedimentos para compartilhar informações sobre incidências de erros e impactos negativos com partes interessadas relevantes, operadores, profissionais, usuários e partes afetadas?

Sim. Para problemas de alta gravidade, as equipes de recurso devem informar a interrupção com os clientes afetados.

O Microsoft mede e monitora o desempenho do sistema em tempo real para permitir uma resposta rápida quando um incidente no sistema de IA é detectado?

Sim. As equipes de recurso monitoram continuamente o desempenho e a confiabilidade do sistema.

O Microsoft testa a qualidade das explicações dos sistemas com os usuários finais e outras partes interessadas?

Sim. Saiba mais em Relatório de Transparência de IA Responsável.

O Microsoft estabeleceu políticas e procedimentos para monitorar e abordar o desempenho e a confiabilidade do sistema do modelo, incluindo vieses e problemas de segurança em todo o ciclo de vida do modelo, ao avaliar os sistemas de IA em busca de riscos e benefícios negativos?

Sim. Saiba mais em Relatório de transparência de IA responsável.

O Microsoft realiza avaliações de equidade para gerenciar formas computacionais e estatísticas de viés?

Sim. Saiba mais em Relatório de Transparência de IA Responsável.

O Microsoft monitora as saídas do sistema em busca de problemas de desempenho ou viés?

Sim. Os filtros de moderação são aplicados em várias camadas, inclusive na saída, para garantir que não haja conteúdo nocivo na resposta. Saiba mais em Relatório de Transparência de IA Responsável.

Qual o nível de resiliência na operação do modelo? Por exemplo, há um plano de contingência e recuperação de desastres para instâncias em que o modelo não está disponível?

Semelhante a todos os serviços Azure, o backup e a recuperação são suportados por meio de vários data centers para alta disponibilidade.

O modelo é dependente, incorporado em ferramentas ou soluções de terceiros que dificultam a migração do modelo para um ambiente diferente (incluindo variáveis como provedor de hospedagem, hardware, sistemas de software) que impediriam a explicabilidade do modelo?

Existe um modelo estabelecido de política de governança?

Sim. O Azure OpenAI dá suporte a uma política de governança estabelecida. Saiba mais em Relatório de Transparência de IA Responsável.

Existem protocolos estabelecidos e documentados (autorização, duração, tipo) e controles de acesso para conjuntos de dados de treinamento ou produção contendo PII de acordo com políticas de privacidade e governança de dados?

Atualmente, não há treinamento de modelo, portanto, nenhum requisito em torno do conjunto de dados. No entanto, quando um representante de atendimento ao cliente se envolve com o Copilot, dependendo do recurso, os dados de contexto (caso ou chat) são usados para gerar uma resposta.

As divulgações de PII e a inferência de atributos sensíveis ou legalmente protegidos são monitoradas?

Sim. A revisão de privacidade é realizada para cada recurso.

Sim. Uma revisão legal é realizada para cada funcionalidade para auxiliar nos requisitos regulatórios e em outros assuntos legais.

Usar os recursos do copiloto
Usar o Copilot para gerar rascunhos de conhecimento com base em casos
Disponibilidade da região do Copilot
Perguntas frequentes sobre a segurança e a privacidade dos dados do Copilot no Microsoft Power Platform