Partilhar via


Descrição geral de pedidos

Este artigo explica prompts e a engenharia de prompts como conceitos-chave para o ajudar a criar capacidades poderosas de IA generativa que podem ser usadas no Copilot Studio.

Importante

  • Os prompts utilizam modelos alimentados pelo Azure Foundry.
  • Esta capacidade poderá estar sujeita a limitações de utilização ou a uma limitação de capacidade.

Pré-requisitos

O que é um prompt

Um prompt é composto principalmente por uma instrução em linguagem natural que diz a um modelo de IA generativa para realizar uma tarefa. O modelo segue o pedido para determinar a estrutura e o conteúdo do texto que precisa gerar. A engenharia de comandos é o processo de criação e refinamento do comando usado pelo modelo.

Uma experiência de criador de prompts permite aos criadores construir, testar e guardar prompts reutilizáveis. Nesta experiência, também pode usar variáveis de entrada e dados de conhecimento para fornecer dados de contexto dinâmicos em tempo de execução. Pode partilhar estes prompts com outros e usá-los como agentes, fluxos de trabalho ou aplicações.

Estes comandos podem ser utilizados para várias tarefas ou cenários de negócios, como resumir conteúdo, categorizar dados, extrair entidades, traduzir idiomas, avaliar sentimentos ou formular uma resposta a uma reclamação. Por exemplo, pode criar um prompt para selecionar ações dos emails da sua empresa e usá-lo num fluxo de trabalho Power Automate para construir uma automação do processamento de emails.

Captura de tela do editor de prompts do construtor de prompts

No Copilot Studio, os prompts podem ser usados como ferramentas para agentes para melhorar a experiência do chat ou permitir automações avançadas de IA ou nós de workflow para infundir ações de IA em automações determinísticas.

Supervisão humana

A supervisão humana é um passo importante ao trabalhar com conteúdos gerados a partir de um modelo de IA generativa. Estes modelos são treinados com grandes quantidades de dados e podem conter erros e enviesamentos. Uma pessoa deve revê-lo antes de publicar online, enviar a um cliente ou utilizar para informar uma decisão de negócio. A supervisão humana ajuda a identificar possíveis erros e preconceitos. Também garante que o conteúdo é relevante para o caso de utilização pretendido e que está alinhado com os valores da empresa.

A revisão humana também pode ajudar a identificar quaisquer problemas no próprio modelo. Por exemplo, se o modelo estiver a gerar conteúdo que não é relevante para o caso de utilização pretendido, poderá ter de ajustar o pedido.

Inteligência Artificial responsável

Estamos empenhados em criar uma IA responsável por predefinição. O nosso trabalho é guiado por um conjunto central de princípios: equidade, fiabilidade e segurança, privacidade e segurança, inclusividade, transparência e responsabilidade. Estamos a colocar em prática estes princípios em toda a empresa para desenvolver e implementar a IA que tenha um impacto positivo na sociedade. Adotamos uma abordagem abrangente, combinando pesquisas inovadoras, engenharia excecional e governação responsável. Juntamente com as pesquisas líderes do OpenAI sobre o alinhamento da IA, estamos a desenvolver uma estrutura para implementação segura das nossas próprias tecnologias de IA que visam ajudar a orientar o setor no sentido de obter resultados mais responsáveis.

Saiba mais sobre transparência na nota de Transparência para Azure OpenAI.