Compartilhar via


Visão geral das solicitações

Este artigo explica prompts e a engenharia de prompts como conceitos-chave para ajudar você a criar capacidades poderosas de IA generativa que podem ser usadas no Copilot Studio.

Importante

  • Os prompts usam modelos alimentados pelo Azure Foundry.
  • Esse recurso pode estar sujeito a limites de uso ou limitação de capacidade.

Pré-requisitos

O que é um prompt

Um prompt é composto principalmente por uma instrução em linguagem natural que instrui um modelo de IA generativa a realizar uma tarefa. O modelo segue a solicitação para determinar a estrutura e o conteúdo do texto que precisa gerar. A engenharia de solicitaçoesé o processo de criação e refinamento da solicitação usada pelo modelo.

Uma experiência de criação de prompts permite que os criadores criem, testem e salvem prompts reutilizáveis. Nessa experiência, você também pode usar variáveis de entrada e dados de conhecimento para fornecer dados de contexto dinâmicos em tempo de execução. Você pode compartilhar esses prompts com outras pessoas e usá-los como agentes, fluxos de trabalho ou aplicativos.

Essas solicitações podem ser empregadas para muitas tarefas ou cenários de negócios, como resumir conteúdo, categorizar dados, extrair entidades, traduzir idiomas, avaliar sentimentos ou formular uma resposta a uma reclamação. Por exemplo, você pode criar um prompt para selecionar ações dos e-mails da empresa e usá-lo em um fluxo de trabalho do Power Automate para construir uma automação de processamento de e-mails.

Captura de tela do editor de prompts do construtor de prompts

No Copilot Studio, os prompts podem ser usados como ferramentas para agentes para melhorar a experiência do chat ou habilitar automações avançadas de IA ou nós de fluxo de trabalho para infundir ações de IA em automações determinísticas.

Supervisão humana

A supervisão humana é um passo importante ao trabalhar com conteúdo gerado a partir de um modelo de IA generativa. Esses modelos são treinados com enormes volumes de dados e podem conter erros e vieses. Uma pessoa deve revisá-lo antes de publicá-lo online, enviá-lo a um cliente ou usá-lo para embasar uma decisão de negócios. A supervisão humana ajuda você a identificar possíveis erros e vieses. Ele também garante que o conteúdo seja relevante para o caso de uso pretendido e esteja alinhado com os valores da empresa.

A revisão humana também pode ajudar a identificar quaisquer problemas no próprio modelo. Por exemplo, se o modelo estiver gerando conteúdo que não seja relevante para o caso de uso pretendido, talvez seja necessário ajustar a solicitação.

IA responsável

Estamos comprometidos em criar IA responsável por design. Nosso trabalho é guiado por um conjunto básico de princípios: justiça, confiabilidade e segurança, privacidade e segurança, inclusão, transparência e responsabilidade. Estamos colocando esses princípios em prática em toda a empresa para desenvolver e implantar IA que tenha um impacto positivo na sociedade. Adotamos uma abordagem abrangente, combinando pesquisa inovadora, engenharia excepcional e governança responsável. Com a pesquisa líder da OpenAI sobre alinhamento de IA, estamos avançando em uma estrutura para a implantação segura de nossas próprias tecnologias de IA que visam ajudar a orientar o setor em direção a resultados mais responsáveis.

Saiba mais sobre transparência na nota de Transparência para Azure OpenAI.