Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Essas perguntas frequentes (FAQ) descrevem o impacto do construtor de prompts na IA.
O que são prompts?
O recurso de prompts no construtor de prompts oferece aos usuários um recurso versátil para desenvolver fluxos de trabalho, aplicativos, transformação de dados e personalização de copilotos com tecnologia de IA. Ele permite a criação de fluxos de trabalho e aplicativos que resumem documentos, criam rascunhos de respostas, classificam textos e traduzem idiomas. Essa capacidade é da plataforma do Serviço OpenAI do Azure, que utiliza a tecnologia Transformador Generativo Pré-treinado (GPT). Esses modelos foram treinados em grandes quantidades de dados de texto, permitindo-lhes gerar texto que se assemelha ao conteúdo escrito por humanos.
Saiba mais em Nota de transparência para Serviço OpenAI do Azure.
Quais são os casos de uso desejados de prompts?
Os prompts no construtor de prompts permitem que você crie aplicativos inteligentes, fluxos de trabalho e estenda os copilotos. Eles aproveitam as capacidades de modelos de GPT pré-treinados, o que elimina a necessidade de treinamento do modelo personalizado. Por exemplo, a intenção pode ser criar um fluxo de trabalho que resuma as reclamações recebidas dos clientes. Em seguida, ele cria um ticket em uma ferramenta de gerenciamento de incidentes com base na categoria da reclamação recebida. Neste exemplo, os criadores podem instruir o modelo a categorizar e resumir a reclamação recebida para criar um novo incidente.
A lista a seguir contém os casos de uso mais populares para este serviço:
- Resumo de emails, conversas, transcrições, documentos e muito mais.
- Sugestões de rascunhos de respostas a consultas de clientes, reclamações, email e muito mais.
- Extração de informações de contratos, emails, fatura, ordens e muito mais.
- Classificação do conteúdo nas categorias desejadas (por exemplo, se um email é uma ordem, uma reclamação ou uma devolução).
- Análise de sentimento de um determinado texto (por exemplo, identificando o sentimento de uma revisão de produto).
Em todos esses casos, os usuários são responsáveis pelo resultado final do sistema. Eles devem revisar o conteúdo gerado quanto a possíveis imprecisões ou incompletude antes de usá-lo.
Como a prontidão do recurso de prompts foi avaliada? Quais métricas são usadas para medir o desempenho?
A avaliação deste recurso de avaliação envolve testes abrangentes em uma variedade de parâmetros de segurança. Esse teste garante que o recurso esteja alinhado com os padrões e os princípios de IA responsável de nossa organização. O serviço também é continuamente avaliado quanto a possíveis vulnerabilidades. As métricas de desempenho que usamos envolvem principalmente a eficiência da filtragem de conteúdo e o grau de concordância entre humanos e computadores em conteúdo filtrado versus não filtrado.
Que tipo de moderação de conteúdo é implementada para prompts?
Os modelos GPT são treinados em dados da Internet, o que é ótimo para a construção de um modelo mundial geral. Ao mesmo tempo, pode herdar conteúdo tóxico, prejudicial e tendencioso das mesmas fontes. Os modelos são treinados para se comportarem com segurança e não produzirem conteúdo nocivo, mas às vezes podem gerar saída tóxica. Os prompts do Construtor de Prompts aproveitam o serviço Azure AI Content Satefy para criar recursos de moderação de conteúdo de última geração nos prompts de IA. Isso inclui serviços para analisar a saída gerada com scanners de texto de várias severidades e segurança contra ataques de entrada imediata. A saída também é escaneada para insuficiência do material protegido.
Quais são as limitações do recurso de prompts? Como os usuários podem minimizar o impacto das limitações de prompt ao usar o sistema?
O uso dessa tecnologia deve estar de acordo com os requisitos do Código de conduta do Serviço OpenAI do Azure. Esta tecnologia não deve ser usada para gerar conteúdo associado a propaganda política, discurso de ódio, desinformação, automutilação, discriminação, material sexual explícito ou outro conteúdo proibido pelo Código de Conduta. Os aplicativos não compatíveis desta tecnologia incluem o fornecimento de conselho, uso para diretrizes de orientação legal, financeira, relacionadas à saúde ou previsões futuras, bem como cálculos financeiros, científicos ou matemáticos e qualquer outro uso não compatível mencionado na Nota de Transparência para Serviço OpenAI do Azure.
O conteúdo gerado por IA pode conter erros, portanto, os criadores devem informar aos usuários finais de sua solução que a geração de conteúdo por esse modelo é criada por IA de maneira transparente. A comunicação clara do conteúdo gerado ajuda a evitar o excesso de confiança. Os criadores também deve infundir a possibilidade da etapa de revisão humana para garantir que o conteúdo gerado pela IA seja preciso e apropriado antes de usá-lo.
Quais fatores e configurações operacionais permitem o uso eficaz e responsável do sistema?
O conteúdo gerado pelo modelo de IA é de natureza probabilística e, portanto, as respostas do modelo podem variar para o mesmo prompt. A resposta gerada pode estar incorreta ou enganosa e pode causar resultados não intencionais do fluxo ou do aplicativo. Por exemplo, clientes empresariais podem receber informações, recomendações ou suporte errados ou incorretos. Os criadores devem implementar uma supervisão humana significativa em seus fluxos e aplicativos e testar seus prompts quanto ao potencial de gerar comportamentos nocivos ou conteúdo proibido, conforme listado no Código de Conduta da Microsoft. Os desenvolvedores de baixo código também devem ser transparentes sobre o uso de IA em seus aplicativos e fluxos para informar o usuário comercial, indicando que o conteúdo é gerado por IA. Além disso, as respostas geradas podem não corresponder às expectativas do desenvolvedor de código baixo devido a restrições de tamanho, filtragem de conteúdo ou seleção de modelo.
Como o modelo GPT é chamado, onde ele está hospedado e como posso acessá-lo?
O Construtor de Prompts dá suporte aos modelos GPT 4.1 mini, GPT 4.o, GPT 4.1 e o3, que são hospedados no Serviço OpenAI do Azure. Você pode acessar esses modelos por meio dos prompts no Power Platform, em seus aplicativos, fluxos e copilotos.
Saiba mais em Novidades no Serviço OpenAI do Azure?
Meus dados são usados para treinar ou melhorar os grandes modelos de linguagem disponíveis no construtor de prompts?
Os prompts do Construtor de Prompts são executados no Serviço OpenAI do Azure hospedado pela Microsoft. Os dados do cliente não são usados para treinar ou melhorar nenhum dos modelos básicos do Serviço OpenAI do Azure. A Microsoft não compartilha seus dados do cliente com terceiros, a menos que você dê permissão. Nem os prompts do cliente (entrada) com seus dados de fundamentação nem as respostas do modelo (saída) são usados para treinar ou melhorar os modelos básicos do serviço OpenAI do Azure.
O conteúdo adicionado à ação "Executar uma solicitação" é acessível publicamente?
A guia Sobre da ação diz: Esta ação dá acesso às solicitações aproveitando o modelo de GPT em execução no Serviço OpenAI do Azure.
Os prompts que você adiciona à ação Executar um prompt no Power Automate são privados por padrão. Eles só são visíveis e utilizáveis dentro da sua organização, não acessíveis ao mundo. Os prompts são particulares e destinam-se ao uso interno em sua empresa.
Os prompts recém-criados são privados por padrão. Isso significa que eles são visíveis e utilizáveis no Power Automate, no Power Apps e no Microsoft Copilot Studio somente pela pessoa que os criou. Isso dá ao criador tempo para testá-los e avaliá-los em aplicativos ou fluxos de trabalho e garantir sua precisão antes de compartilhá-los.
Se quiser que outros usuários do ambiente ou grupos usem a solicitação no Power Apps ou no Power Automate, você precisará compartilhá-lo.
Saiba mais em Compartilhar seu prompt.
Como as imagens de pessoas são processadas nos prompts do construtor de prompts?
O Prompt Builder não se destina a ser usado para identificar indivíduos com base em características faciais ou dados biométricos. Quando você envia imagens contendo pessoas no criador de prompts, o sistema aplica automaticamente um recurso de desfoque de rosto antes de analisar as imagens para proteger a privacidade individual. Essa etapa de desfoque ajuda a resolver preocupações de privacidade, impedindo a identificação com base em características faciais. Com o desfoque, nenhum reconhecimento facial ou correspondência de modelo facial está envolvido. Em vez disso, qualquer identificação de indivíduos conhecidos depende de pistas contextuais, como uniformes ou configurações exclusivas, não em seus rostos. Essa medida de privacidade não deve afetar a qualidade dos resultados que você recebe. O desfoque facial pode ser ocasionalmente referenciado nas respostas do sistema.
Saiba mais em Desfoque facial.
Danos em potencial ao usar imagens ou documentos em prompts
O construtor de prompts reduz a maioria dos riscos envolvidos ao usar imagens ou documentos em prompts, mas alguns riscos ainda exigem cuidado extra do criador do prompt:
- Imagens ou documentos podem conter texto ou elementos visuais nocivos que podem afetar seus processos subsequentes.
- Imagens ou documentos podem incluir instruções especiais e possivelmente ocultas que podem comprometer ou substituir o prompt inicial.
- Imagens ou documentos podem conter instruções que resultam na geração de conteúdo protegido por direitos de propriedade intelectual (IP).
- Os prompts podem gerar comentários tendenciosos em imagens ou documentos.
- Extrair informações de imagens ou documentos de baixa qualidade pode levar à geração de informações incorretas.
Qual é a diferença entre o modelo o3 e os modelos GPT?
O modelo o3 se destaca dos modelos GPT principalmente por causa das capacidades avançadas de raciocínio. Ele gera cadeias internas detalhadas de ideias antes de responder, acarretando um desempenho melhor em matemática, codificação e tarefas analíticas. No entanto, essa abordagem acarreta maiores requisitos computacionais e tempos de resposta mais lentos em comparação com modelos GPT. GPT-4o ou GPT-4.1, por exemplo, se destaca em tarefas gerais de linguagem e oferece respostas mais rápidas e econômicas, tornando-o indicado para aplicações nas quais saídas rápidas são essenciais.
O que são prompts e funções de IA?
Solicitações
Os prompts dão aos criadores a liberdade de instruir o modelo de linguagem grande (LLM) a se comportar de uma determinada maneira ou a executar uma tarefa específica. Ao elaborar cuidadosamente uma solicitação, você pode gerar respostas que atendam às suas necessidades de negócios específicas. Isso transforma o modelo LLM em uma ferramenta flexível para realizar diversas tarefas.
Por exemplo, com um modelo de linguagem, um prompt pode orientar o modelo para responder a uma pergunta, completar texto, traduzir idiomas, resumir um documento e identificar tarefas, tarefas pendentes e itens de ação no texto. A complexidade de uma solicitação personalizada pode variar de uma única frase a algo mais complexo, dependendo da tarefa.
Funções de IA
Funções de IA pré-criados são prompts pré-configurados criados pela equipe da Microsoft para ajudar os criadores a realizar tarefas comuns com facilidade. Eles oferecem recursos de IA prontos para uso em vários casos de uso, o que simplifica a experiência do fabricante para infundir inteligência em suas soluções.
Por exemplo, o prompt predefinido de um modelo de linguagem pode ter esta aparência:
Extraia como uma lista numerada os pontos de ação de: [TextToExtract]
Neste caso, o usuário só precisa fornecer o texto [TextToExtract] do qual deseja extrair os pontos de ação. O prompt predefinido cuida do resto.