Compartilhar via


OpenAI (Editor Independente) (versão prévia)

Conecte-se à API OpenAI e use a potência do GPT3, a chave de API deve ser inserida como "Portador YOUR_API_KEY"

Esse conector está disponível nos seguintes produtos e regiões:

Service Class Regions
Copilot Studio Premium Todas as regiões do Power Automate , exceto as seguintes:
     – Governo dos EUA (GCC)
     – Governo dos EUA (GCC High)
     - China Cloud operado pela 21Vianet
     - Departamento de Defesa dos EUA (DoD)
Aplicativos Lógicos Standard Todas as regiões dos Aplicativos Lógicos , exceto as seguintes:
     – Regiões do Azure Governamental
     - Regiões do Azure China
     - Departamento de Defesa dos EUA (DoD)
Power Apps Premium Todas as regiões do Power Apps , exceto as seguintes:
     – Governo dos EUA (GCC)
     – Governo dos EUA (GCC High)
     - China Cloud operado pela 21Vianet
     - Departamento de Defesa dos EUA (DoD)
Power Automate Premium Todas as regiões do Power Automate , exceto as seguintes:
     – Governo dos EUA (GCC)
     – Governo dos EUA (GCC High)
     - China Cloud operado pela 21Vianet
     - Departamento de Defesa dos EUA (DoD)
Contato
Nome Robin Rosengrün
URL https://linktr.ee/r2power
Email robin@r2power.de
Metadados do conector
Publicador Robin Rosengrün
Site https://openai.com/
Política de privacidade https://openai.com/api/policies/terms/
Categorias IA

Criando uma conexão

O conector dá suporte aos seguintes tipos de autenticação:

Default Parâmetros para criar conexão. Todas as regiões Não compartilhável

Padrão

Aplicável: todas as regiões

Parâmetros para criar conexão.

Essa não é uma conexão compartilhável. Se o aplicativo de energia for compartilhado com outro usuário, outro usuário será solicitado a criar uma nova conexão explicitamente.

Nome Tipo Description Obrigatório
Chave de API secureString Insira a chave de API como "YOUR_API_KEY do portador" Verdade

Limitações

Nome Chamadas Período de renovação
Chamadas à API por conexão 100 60 segundos

Ações

Conclusão de Chat.

Usar modelos como ChatGPT e GPT4 para manter uma conversa

Criar uma imagem

O DallE2 cria uma imagem do prompt

Embeddings

Obter uma representação de vetor de uma determinada entrada

GPT3 Conclui seu prompt

GPT3 Conclui seu prompt

GPT3 Conclui seu prompt [PRETERIDO]

GPT3 Conclui seu prompt (preterido pelo OpenAI – use Completion_New)

Conclusão de Chat.

Usar modelos como ChatGPT e GPT4 para manter uma conversa

Parâmetros

Nome Chave Obrigatório Tipo Description
modelo
model True string

O modelo usado, escolha entre gpt-3.5-turbo, gpt-4 e outros

função
role True string

A função do autor dessa mensagem. Um do sistema, do usuário ou do assistente.

conteúdo
content True string

O conteúdo da mensagem.

n
n integer

Quantas conclusões serão geradas para cada prompt

temperatura
temperature float

Valores mais altos significam que o modelo assumirá mais riscos. Experimente 0,9 para aplicativos mais criativos e 0 (amostragem argmax) para quem tem uma resposta bem definida. Use este OR top p

tokens máximos
max_tokens integer

Um token é igual a aproximadamente 4 caracteres de texto (até 4.000 ou mais tokens entre prompt e conclusão, dependendo do modelo)

p superior
top_p float

Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.

penalidade de frequência
frequency_penalty float

Número entre -2.0 e 2.0. Os valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade de os modelos repetirem a mesma linha verbatim.

penalidade de presença
presence_penalty float

Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade de os modelos falarem sobre novos tópicos.

Pare
stop array of string

Até quatro sequências nas quais a API irá parar de gerar tokens. O texto retornado não conterá a sequência de interrupção

Retornos

Nome Caminho Tipo Description
id
id string

id

objeto
object string

objeto

criadas
created integer

criadas

choices
choices array of object

choices

indexar
choices.index integer

indexar

função
choices.message.role string

função

conteúdo
choices.message.content string

conteúdo

motivo_de_conclusão
choices.finish_reason string

motivo_de_conclusão

prompt_tokens
usage.prompt_tokens integer

prompt_tokens

completion_tokens
usage.completion_tokens integer

completion_tokens

total_tokens
usage.total_tokens integer

total_tokens

Criar uma imagem

O DallE2 cria uma imagem do prompt

Parâmetros

Nome Chave Obrigatório Tipo Description
solicitação
prompt True string

O prompt que descreve a imagem

Número de imagens
n integer

Número de imagens de 1 a 10

size
size string

O tamanho das imagens geradas. 256x256, 512x512 ou 1024x1024 (padrão: 1024x1024)

format
response_format string

Obter url para imagem ou recebê-la no formato base64 (padrão: url)

Retornos

Nome Caminho Tipo Description
dados
data array of object

dados

url
data.url string

URL para criar a Imagem

b64image
data.b64_json byte

Imagem no formato base64

Embeddings

Obter uma representação de vetor de uma determinada entrada

Parâmetros

Nome Chave Obrigatório Tipo Description
modelo
model True string

modelo

entrada
input True string

entrada

Retornos

Nome Caminho Tipo Description
objeto
object string

objeto

dados
data array of object

dados

objeto
data.object string

objeto

embedding
data.embedding array of float

embedding

indexar
data.index integer

indexar

modelo
model string

modelo

prompt_tokens
usage.prompt_tokens integer

prompt_tokens

total_tokens
usage.total_tokens integer

total_tokens

GPT3 Conclui seu prompt

GPT3 Conclui seu prompt

Parâmetros

Nome Chave Obrigatório Tipo Description
Engine
model True string

O modelo usado, escolha entre text-davinci-002, text-curie-001, text-babbage-001, text-ada-001

solicitação
prompt True string

Texto que será concluído pelo GPT3

n
n integer

Quantas conclusões serão geradas para cada prompt

best_of
best_of integer

Se definido como mais de 1, gerará várias conclusões no lado do servidor e retornará o "melhor". Deve ser maior que "n". Use com cuidado, pode consumir muitos tokens.

temperatura
temperature float

Valores mais altos significam que o modelo assumirá mais riscos. Experimente 0,9 para aplicativos mais criativos e 0 (amostragem argmax) para quem tem uma resposta bem definida. Use este OR top p

tokens máximos
max_tokens integer

Um token é igual a aproximadamente 4 caracteres de texto (até 4.000 tokens entre prompt e conclusão)

p superior
top_p float

Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.

penalidade de frequência
frequency_penalty float

Número entre -2.0 e 2.0. Os valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade de os modelos repetirem a mesma linha verbatim.

penalidade de presença
presence_penalty float

Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade de os modelos falarem sobre novos tópicos.

Pare
stop array of string

Até quatro sequências nas quais a API irá parar de gerar tokens. O texto retornado não conterá a sequência de interrupção

Retornos

Nome Caminho Tipo Description
id
id string

id

objeto
object string

objeto

criadas
created integer

criadas

choices
choices array of object

Conclusões retornadas

Texto
choices.text string

Texto de conclusão

Index
choices.index integer

Número de conclusão

Motivo da conclusão
choices.finish_reason string

Motivo pelo qual o texto foi concluído (condição de parada/final natural/comprimento)

Prompt Tokens
choices.usage.prompt_tokens integer

Número de tokens no prompt

Tokens de conclusão
choices.usage.completion_tokens integer

Número de tokens na conclusão

Total Tokens
choices.usage.total_tokens integer

Número total de tokens em prompt e conclusão

GPT3 Conclui seu prompt [PRETERIDO]

GPT3 Conclui seu prompt (preterido pelo OpenAI – use Completion_New)

Parâmetros

Nome Chave Obrigatório Tipo Description
Engine
engine True string

O mecanismo usado, escolha entre text-davinci-002/003, text-curie-001, text-babbage-001, text-ada-001

solicitação
prompt True string

Texto que será concluído pelo GPT3

n
n integer

Quantas conclusões serão geradas para cada prompt

best_of
best_of integer

Se definido como mais de 1, gerará várias conclusões no lado do servidor e retornará o "melhor". Deve ser maior que "n". Use com cuidado, pode consumir muitos tokens.

temperatura
temperature float

Valores mais altos significam que o modelo assumirá mais riscos. Experimente 0,9 para aplicativos mais criativos e 0 (amostragem argmax) para quem tem uma resposta bem definida. Use este OR top p

tokens máximos
max_tokens integer

Um token é igual a aproximadamente 4 caracteres de texto (até 4.000 tokens entre prompt e conclusão)

p superior
top_p float

Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados.

penalidade de frequência
frequency_penalty float

Número entre -2.0 e 2.0. Os valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade de os modelos repetirem a mesma linha verbatim.

penalidade de presença
presence_penalty float

Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade de os modelos falarem sobre novos tópicos.

usuário
user string

Um identificador exclusivo que representa o usuário final, que ajudará o OpenAI a monitorar e detectar abusos

Pare
stop array of string

Até quatro sequências nas quais a API irá parar de gerar tokens. O texto retornado não conterá a sequência de interrupção

Retornos

Nome Caminho Tipo Description
id
id string

id

objeto
object string

objeto

criadas
created integer

criadas

choices
choices array of object

Conclusões retornadas

Texto
choices.text string

Texto de conclusão

Index
choices.index integer

Número de conclusão

Logprobs
choices.logprobs string

Inclua as probabilidades de log nos tokens mais prováveis dos logs, bem como os tokens escolhidos. Por exemplo, se logprobs for 3, a API retornará uma lista dos 3 tokens mais prováveis.

Motivo da conclusão
choices.finish_reason string

Motivo pelo qual o texto foi concluído (condição de parada/final natural/comprimento)