Partilhar via


FAQ sobre as respostas generativas

Essas perguntas frequentes (FAQ) descrevem o impacto da IA do recurso de respostas generativas no Copilot Studio.

O que são respostas generativas?

As respostas generativas tornam o agente valioso desde o início e aumentam o número de tópicos sobre os quais o agente consegue conversar, sem exigir a criação de árvores de diálogo de forma manual.

O que são capacidades de respostas generativas?

Quando um usuário faz ao agente uma pergunta que não aciona um tópico configurado, o agente pode, opcionalmente, procurar conteúdo relevante de uma fonte de sua escolha. Essa pesquisa inclui sites públicos, o SharePoint ou suas próprias fontes de dados personalizadas, incluindo elementos não textuais em arquivos carregados, como imagens, dados tabulares e diagramas. O agente usa IA generativa para resumir estas informações numa resposta devolvida ao utilizador do agente.

Qual é o uso pretendido para respostas generativas?

As respostas generativas podem ser usadas como fontes de informações primárias em seu agente ou como fallback quando os tópicos criados não conseguem abordar a consulta de um usuário.

Como foram avaliadas as respostas generativas e quais métricas são usadas para medir o desempenho?

A capacidade é continuamente avaliada em uma coleção de conjuntos de dados de perguntas e respostas com curadoria manual, abrangendo vários setores. A avaliação adicional é efetuada em conjuntos de dados personalizados para pedidos e respostas ofensivos e maliciosos, através de sessões manuais automatizadas e dedicadas concebidas para expandir o conjunto de testes.

Quais são as limitações das respostas generativas?

  • Você deve habilitar a opção de respostas generativas para cada agente.

  • Consulte Suporte a idiomas para obter a lista de idiomas suportados por esse recurso e seus respetivos estágios. Talvez você possa usar outros idiomas, mas as respostas geradas podem ser inconsistentes e o agente pode não responder corretamente ou como você espera.

  • Esta capacidade poderá estar sujeita a limitações de utilização ou a uma limitação de capacidade.

  • As respostas geradas pela capacidade de respostas generativas nem sempre são perfeitas e podem conter erros.

    O sistema foi projetado para consultar o conhecimento do site de sua escolha e empacotar descobertas relevantes em uma resposta facilmente consumível. No entanto, é importante ter em mente algumas características da IA que podem levar a respostas inesperadas:

    • O Copilot Studio permite selecionar diferentes modelos como o modelo de resposta principal para respostas generativas. Esteja ciente da data de corte para os dados incluídos no modelo selecionado.
      Existem mitigações para evitar que o modelo use seu corpus de treinamento como fonte de respostas, no entanto, é possível que as respostas incluam conteúdo de sites diferentes daquele que você selecionou.

    • O sistema não executa uma verificação de precisão, portanto, se a fonte de dados selecionada contiver informações imprecisas, elas poderão ser mostradas aos usuários do seu agente. Implementamos mitigações para filtrar respostas irrelevantes e ofensivas, e o recurso foi projetado para não responder quando linguagem ofensiva é detetada. Esses filtros e atenuações não são infalíveis.

    Observação

    Você deve sempre testar e revisar seus agentes antes de publicá-los e considerar a coleta de feedback dos usuários do agente. O seu administrador pode desligar a capacidade de publicar agentes com respostas generativas para o seu inquilino no Centro de administração do Power Platform.

Que dados são recolhidos pela capacidade? Como são utilizados os dados?

Se um cliente consentir explicitamente em ter sua conversa com seu agente registrada, o recurso coletará solicitações do usuário, as respostas retornadas pelo sistema e qualquer feedback que você fornecer.

Utilizamos estes dados para avaliar e melhorar a qualidade da capacidade.

Que fatores operacionais e configurações permitem o uso eficaz e responsável de respostas generativas?

As respostas generativas funcionam melhor quando você designa uma fonte confiável e válida a partir da qual o conteúdo deve ser consultado. Esta fonte pode ser o site da sua empresa, por exemplo,www.microsoft.com. Todas as páginas da Web que pertencem a este domínio seriam pesquisadas por uma correspondência com a pergunta do usuário.

Usamos o feedback que você fornece sobre sua satisfação com as respostas geradas para melhorar a qualidade do sistema. Você pode fornecer feedback selecionando os ícones de polegar para cima ou polegar para baixo para as respostas geradas. Você também pode incluir mais comentários em texto livre.

Que proteções estão em vigor no Copilot Studio para IA responsável?

As respostas generativas incluem várias proteções para garantir que administradores, criadores e usuários desfrutem de uma experiência segura e compatível. Os administradores têm controle total sobre as funcionalidades no seu tenant e podem sempre desativar a capacidade de publicar agentes com respostas generativas na sua organização. Os criadores podem adicionar instruções personalizadas para influenciar os tipos de respostas retornadas por seus agentes. Para obter mais informações sobre as práticas recomendadas para escrever instruções personalizadas, consulte Usar modificação de prompt para fornecer instruções personalizadas ao seu agente.

Os criadores também podem limitar as fontes de conhecimento que os agentes podem usar para responder a perguntas. Para permitir que os agentes respondam a perguntas fora do escopo de suas fontes de conhecimento configuradas, os criadores podem ativar o recurso de Conhecimento Geral da IA . Para limitar os agentes a responder apenas perguntas ao escopo de suas fontes de conhecimento configuradas, os criadores devem desativar esse recurso.

O Copilot Studio também aplica políticas de moderação de conteúdo em todas as solicitações de IA generativa para proteger administradores, criadores e usuários contra conteúdo ofensivo ou prejudicial. Estas políticas de moderação de conteúdo também se expandem a tentativas maliciosas de jailbreaking, transferência de pedidos não autorizada e violação de direitos de autor. Todo o conteúdo é verificado duas vezes: primeiro durante a entrada do usuário e novamente quando o agente está prestes a responder. Se o sistema encontrar conteúdo prejudicial, ofensivo ou malicioso, impede que o agente responda.

Por fim, é uma boa prática comunicar aos usuários que o agente usa inteligência artificial, portanto, a seguinte mensagem padrão informa os usuários: "Só para que você esteja ciente, às vezes uso IA para responder às suas perguntas".