Partilhar via


Perguntas Frequentes para Solicitações

Estas perguntas frequentes (FAQ) descrevem o impacto da IA do construtor de prompts.

O que são comandos?

O recurso de prompts no construtor de prompts oferece aos usuários uma capacidade versátil para desenvolver fluxos de trabalho alimentados por IA, aplicativos, transformação de dados e personalização de copilotos. Permite a criação de fluxos de trabalho e aplicações que resumem documentos, criam rascunhos de respostas, classificam texto e traduzem idiomas. Esta capacidade tem tecnologia Azure OpenAI Service, que utiliza a tecnologia GPT (Transformador Generativo Pré-treinado). Estes modelos foram treinados em grandes quantidades de dados de texto, permitindo-lhes gerar texto que se assemelha a conteúdo escrito por humanos.

Saiba mais em Nota de Transparência para o Azure OpenAI Service.

Quais são os casos de utilização pretendidos de comandos?

Os prompts no construtor de prompts permitem que você crie aplicativos inteligentes, fluxos de trabalho e estenda copilotos. Tiram partido das capacidades dos modelos pré-treinados de GPT, o que elimina a necessidade de treinar modelos personalizados. Por exemplo, a intenção pode ser a criação de um fluxo de trabalho que resuma as queixas recebidas dos clientes. Em seguida, cria um pedido de suporte numa ferramenta de gestão de incidentes com base na categoria da queixa recebida. Neste exemplo, os criadores podem instruir o modelo para categorizar e resumir a reclamação recebida para criar um novo incidente.

A lista seguinte contém os incidentes de utilização mais populares para este serviço:

  • Resumo dos e-mails, conversações, transcrições, documentos, entre outros.
  • Sugestões de rascunhos de respostas a consultas, reclamações, e-mails de clientes, entre outros.
  • Extração de informações de contratos, e-mails, faturas, encomendas, entre outros.
  • Classificação do conteúdo nas categorias pretendidas (por exemplo, se um e-mail é uma encomenda, uma reclamação ou uma devolução).
  • Análise de sentimentos de um determinado texto (por exemplo, identificar o sentimento de uma revisão de produto).

Em todos estes casos, os utilizadores são responsáveis pelo resultado final do sistema. São obrigados a rever o conteúdo gerado para procurar quaisquer potenciais imprecisões ou carácter incompleto antes de o utilizar.

Como foi avaliada a prontidão da funcionalidade de comandos? Quais métricas são usadas para medir o desempenho?

A avaliação desta funcionalidade envolve testes completos em vários parâmetros de segurança. Esse teste garante que o recurso esteja alinhado com os padrões e princípios de IA responsável da nossa organização. O serviço também é continuamente avaliado em caso de potenciais vulnerabilidades. As métricas de desempenho que utilizamos envolvem principalmente a eficácia da filtragem de conteúdos e o grau de acordo entre o humano e a máquina em conteúdos filtrados versus não filtrados.

Que tipo de moderação de conteúdo é implementada para comandos?

Os modelos GPT são preparados em dados da Internet, o que é excelente para criar um modelo mundial geral. Ao mesmo tempo, pode herdar conteúdo tóxico, prejudicial e tendencioso das mesmas fontes. Os modelos são treinados para se comportarem de forma segura e não com conteúdo nocivo ao produto, mas às vezes pode gerar produção tóxica. Os prompts do construtor de prompts aproveitam o serviço Azure AI Content Satefy para criar recursos de moderação de conteúdo de última geração nos prompts de IA. Isto inclui serviços para analisar a saída gerada com scanners de texto de severidade múltipla e segurança contra ataques de injeção de comandos. A saída também é digitalizada para regurgitação de material protegido.

Quais são as limitações da funcionalidade comandos? Como é que os utilizadores podem minimizar o impacto das limitações de comandos quando utilizam o sistema?

A utilização desta tecnologia deve estar em conformidade com os requisitos do Código de Conduta para o Azure OpenAI Service. Esta tecnologia não pode ser utilizada para gerar conteúdo associado a propaganda política, discurso de ódio, desinformação, automutilação, discriminação, material sexual explícito ou outros conteúdos proibidos pelo Código de Conduta. As utilizações não suportadas desta tecnologia incluem o fornecimento de aconselhamento, a utilização para orientações de natureza jurídica, financeira ou relacionadas com saúde, ou para predições futuras, bem como para cálculos financeiros, científicos ou matemáticos, e qualquer outra utilização não suportada mencionada na Nota de Transparência para o Azure OpenAI Service.

Os conteúdos gerados por IA podem ter erros, pelo que os criadores devem informar os utilizadores finais sobre a respetiva solução de que a geração de conteúdos por este modelo é criada por IA de uma forma transparente. Uma comunicação clara do conteúdo gerado ajuda a evitar a dependência excessiva. Os criadores também devem incluir a possibilidade de um passo de revisão humana para assegurar que o conteúdo gerado por IA é exato e adequado antes de o utilizar.

Que fatores operacionais e definições permitem o uso efetivo e responsável do sistema?

O conteúdo gerado pelo modelo de IA é probabilístico por natureza, pelo que as respostas ao modelo podem variar para as mesmas instruções. A resposta gerada poderá estar incorreta ou ser enganadora e causar resultados indevidamente gerados pelo fluxo ou aplicação. Por exemplo, os clientes empresariais podem receber informações, recomendações ou suporte errados ou incorretos. Os criadores devem implementar uma supervisão humana significativa em seus fluxos e aplicativos e testar seus prompts quanto ao potencial de gerar comportamentos prejudiciais ou conteúdo proibido, conforme listado no Código de Conduta da Microsoft. Os programadores low-code também deverão ser transparentes em relação à utilização da IA nas suas aplicações e fluxos para informar o utilizador de empresa, indicando que o conteúdo é gerado por IA. Além disso, as respostas geradas poderão não corresponder às expectativas do programador de low-code devido a restrições de comprimento, filtragem de conteúdos ou seleção de modelos.

Como se chama o modelo GPT, onde está alojado e como posso aceder ao mesmo?

O construtor de prompts suporta modelos GPT 4.1 mini, GPT 4.o, GPT 4.1 e o3, que são hospedados no Serviço OpenAI do Azure. Pode aceder a estes modelos através dos pedidos no Power Platform, nas suas aplicações, fluxos e copilotos.

Mais informações em: O que há de novo no Azure OpenAI Service?

Meus dados são usados para treinar ou melhorar os grandes modelos de linguagem disponíveis no prompt builder?

Os prompts do construtor de prompts são executados no Serviço OpenAI do Azure hospedado pela Microsoft. Os dados do cliente não são usados para treinar nem melhorar nenhum dos modelos de base do Azure OpenAI Service. A Microsoft não partilha os dados do seu cliente, a menos que tenha concedido permissão para fazê-lo. Nem os pedidos do cliente (entradas) com os seus dados de fundamentação nem as respostas do modelo (saídas) são utilizados para treinar ou melhorar os modelos de base do Azure OpenAI Service.

O conteúdo adicionado à ação "Executar um pedido" está acessível publicamente?

O separador Acerca de da ação indica, Esta ação fornece acesso aos seus pedidos tirando partido do modelo GPT em execução no Azure OpenAI Service.

Os pedidos que adicionar à ação Executar um pedido no Power Automate são privados por predefinição. Só são visíveis e utilizáveis na sua organização, não estão acessíveis ao mundo. Os pedidos são privados e destinam-se a utilização interna na empresa.

Os pedidos recém-criados são privados por predefinição. Isto significa que são visíveis e utilizáveis no Power Automate, Power Apps e Microsoft Copilot Studio apenas pela pessoa que os criou. Isso permite que o criador tenha tempo para testá-los e avaliá-los em aplicações ou fluxos de trabalho e garantir a respetiva precisão antes de partilhá-los.

Se quiser que outros utilizadores do ambiente ou grupos utilizem o seu pedido no Power Apps ou no Power Automate, tem de partilhá-lo.

Saiba mais em Partilhar o pedido.

Como as imagens de pessoas são processadas nos prompts do construtor de prompts?

O construtor de prompts não se destina a ser usado para identificar indivíduos com base em características faciais ou dados biométricos. Quando você envia imagens contendo pessoas no construtor de prompts, o sistema aplica automaticamente um recurso de desfoque facial antes de analisar as imagens para proteger a privacidade individual. Esta etapa de desfocagem ajuda a resolver as preocupações de privacidade, impedindo a identificação com base em características faciais. Com o desfoque, não há reconhecimento facial ou correspondência de modelo facial envolvido. Em vez disso, qualquer identificação de indivíduos conhecidos depende de pistas contextuais, como uniformes ou configurações únicas, não em seus rostos. Esta medida de privacidade não deve afetar a qualidade dos resultados que recebe. A desfocagem do rosto pode ser ocasionalmente referenciada nas respostas do sistema.

Saiba mais em Desfocagem facial.

Danos potenciais ao usar imagens ou documentos em pedidos

O construtor de prompts reduz a maioria dos riscos envolvidos ao usar imagens ou documentos em prompts, mas alguns riscos ainda exigem cuidado extra do criador do prompt:

  • As imagens ou documentos podem conter texto ou elementos visuais nocivos que podem afetar os seus processos a jusante.
  • As imagens ou documentos podem incluir instruções especiais e possivelmente ocultas que podem comprometer ou substituir o pedido inicial.
  • As imagens ou documentos podem conter instruções que podem levar à geração de conteúdo que está sob propriedade intelectual (PI).
  • Os pedidos podem produzir comentários tendenciosos em imagens ou documentos.
  • Extrair informações de imagens ou documentos de baixa qualidade pode levar a alucinações.

Qual é a diferença entre o modelo o3 e os modelos GPT?

O modelo o3 destaca-se dos modelos GPT principalmente devido às suas capacidades avançadas de raciocínio. Gera cadeias internas detalhadas de pensamento antes de responder, levando a um melhor desempenho em matemática, codificação e tarefas analíticas. No entanto, esta abordagem resulta num aumento dos requisitos computacionais e tempos de resposta mais lentos em comparação com os modelos GPT. O GPT-4o ou GPT-4.1, por exemplo, destaca-se em tarefas de linguagem gerais e oferece respostas mais rápidas e económicas, tornando-o adequado para aplicações onde resultados rápidos são essenciais.

O que são prompts e funções de IA?

Pedidos

Os prompts dão aos criadores a liberdade de instruir o modelo de linguagem grande (LLM) a se comportar de uma determinada maneira ou a executar uma tarefa específica. Ao elaborar cuidadosamente um pedido, pode gerar respostas que atendem às suas necessidades específicas de negócios. Isto torna o modelo LLM numa ferramenta flexível para realizar várias tarefas.

Por exemplo, com um modelo de linguagem, um prompt pode orientar o modelo para responder a uma pergunta, completar texto, traduzir idiomas, resumir um documento e identificar tarefas, tarefas e itens de ação no texto. A complexidade de um pedido personalizado pode variar de uma única frase a algo mais intrincado, dependendo da tarefa.

Funções de IA

As funções de IA pré-criadas são comandos pré-configurados criados pela equipa da Microsoft para ajudar os criadores a realizar tarefas comuns com facilidade. Oferecem capacidades de IA prontas a usar em vários casos de utilização, o que simplifica a experiência do criador para infundir inteligência nas suas soluções.

Por exemplo, o prompt pré-criado de um modelo de linguagem pode ter esta aparência:

Extraia como uma lista numerada os pontos de ação do: [TextToExtract]

Neste caso, o utilizador só precisa fornecer o texto do [TextToExtract] do qual pretende extrair os pontos de ação. O pedido pré-criado trata do resto.