OpenAI (Editor Independente) (versão prévia)
Conecte-se à API OpenAI e use a potência do GPT3, a chave de API deve ser inserida como "Portador YOUR_API_KEY"
Esse conector está disponível nos seguintes produtos e regiões:
| Service | Class | Regions |
|---|---|---|
| Copilot Studio | Premium | Todas as regiões do Power Automate , exceto as seguintes: – Governo dos EUA (GCC) – Governo dos EUA (GCC High) - China Cloud operado pela 21Vianet - Departamento de Defesa dos EUA (DoD) |
| Aplicativos Lógicos | Standard | Todas as regiões dos Aplicativos Lógicos , exceto as seguintes: – Regiões do Azure Governamental - Regiões do Azure China - Departamento de Defesa dos EUA (DoD) |
| Power Apps | Premium | Todas as regiões do Power Apps , exceto as seguintes: – Governo dos EUA (GCC) – Governo dos EUA (GCC High) - China Cloud operado pela 21Vianet - Departamento de Defesa dos EUA (DoD) |
| Power Automate | Premium | Todas as regiões do Power Automate , exceto as seguintes: – Governo dos EUA (GCC) – Governo dos EUA (GCC High) - China Cloud operado pela 21Vianet - Departamento de Defesa dos EUA (DoD) |
| Contato | |
|---|---|
| Nome | Robin Rosengrün |
| URL | https://linktr.ee/r2power |
| robin@r2power.de |
| Metadados do conector | |
|---|---|
| Publicador | Robin Rosengrün |
| Site | https://openai.com/ |
| Política de privacidade | https://openai.com/api/policies/terms/ |
| Categorias | IA |
Criando uma conexão
O conector dá suporte aos seguintes tipos de autenticação:
| Default | Parâmetros para criar conexão. | Todas as regiões | Não compartilhável |
Padrão
Aplicável: todas as regiões
Parâmetros para criar conexão.
Essa não é uma conexão compartilhável. Se o aplicativo de energia for compartilhado com outro usuário, outro usuário será solicitado a criar uma nova conexão explicitamente.
| Nome | Tipo | Description | Obrigatório |
|---|---|---|---|
| Chave de API | secureString | Insira a chave de API como "YOUR_API_KEY do portador" | Verdade |
Limitações
| Nome | Chamadas | Período de renovação |
|---|---|---|
| Chamadas à API por conexão | 100 | 60 segundos |
Ações
| Conclusão de Chat. |
Usar modelos como ChatGPT e GPT4 para manter uma conversa |
| Criar uma imagem |
O DallE2 cria uma imagem do prompt |
| Embeddings |
Obter uma representação de vetor de uma determinada entrada |
| GPT3 Conclui seu prompt |
GPT3 Conclui seu prompt |
| GPT3 Conclui seu prompt [PRETERIDO] |
GPT3 Conclui seu prompt (preterido pelo OpenAI – use Completion_New) |
Conclusão de Chat.
Usar modelos como ChatGPT e GPT4 para manter uma conversa
Parâmetros
| Nome | Chave | Obrigatório | Tipo | Description |
|---|---|---|---|---|
|
modelo
|
model | True | string |
O modelo usado, escolha entre gpt-3.5-turbo, gpt-4 e outros |
|
função
|
role | True | string |
A função do autor dessa mensagem. Um do sistema, do usuário ou do assistente. |
|
conteúdo
|
content | True | string |
O conteúdo da mensagem. |
|
n
|
n | integer |
Quantas conclusões serão geradas para cada prompt |
|
|
temperatura
|
temperature | float |
Valores mais altos significam que o modelo assumirá mais riscos. Experimente 0,9 para aplicativos mais criativos e 0 (amostragem argmax) para quem tem uma resposta bem definida. Use este OR top p |
|
|
tokens máximos
|
max_tokens | integer |
Um token é igual a aproximadamente 4 caracteres de texto (até 4.000 ou mais tokens entre prompt e conclusão, dependendo do modelo) |
|
|
p superior
|
top_p | float |
Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. |
|
|
penalidade de frequência
|
frequency_penalty | float |
Número entre -2.0 e 2.0. Os valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade de os modelos repetirem a mesma linha verbatim. |
|
|
penalidade de presença
|
presence_penalty | float |
Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade de os modelos falarem sobre novos tópicos. |
|
|
Pare
|
stop | array of string |
Até quatro sequências nas quais a API irá parar de gerar tokens. O texto retornado não conterá a sequência de interrupção |
Retornos
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
id
|
id | string |
id |
|
objeto
|
object | string |
objeto |
|
criadas
|
created | integer |
criadas |
|
choices
|
choices | array of object |
choices |
|
indexar
|
choices.index | integer |
indexar |
|
função
|
choices.message.role | string |
função |
|
conteúdo
|
choices.message.content | string |
conteúdo |
|
motivo_de_conclusão
|
choices.finish_reason | string |
motivo_de_conclusão |
|
prompt_tokens
|
usage.prompt_tokens | integer |
prompt_tokens |
|
completion_tokens
|
usage.completion_tokens | integer |
completion_tokens |
|
total_tokens
|
usage.total_tokens | integer |
total_tokens |
Criar uma imagem
O DallE2 cria uma imagem do prompt
Parâmetros
| Nome | Chave | Obrigatório | Tipo | Description |
|---|---|---|---|---|
|
solicitação
|
prompt | True | string |
O prompt que descreve a imagem |
|
Número de imagens
|
n | integer |
Número de imagens de 1 a 10 |
|
|
size
|
size | string |
O tamanho das imagens geradas. 256x256, 512x512 ou 1024x1024 (padrão: 1024x1024) |
|
|
format
|
response_format | string |
Obter url para imagem ou recebê-la no formato base64 (padrão: url) |
Retornos
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
dados
|
data | array of object |
dados |
|
url
|
data.url | string |
URL para criar a Imagem |
|
b64image
|
data.b64_json | byte |
Imagem no formato base64 |
Embeddings
Obter uma representação de vetor de uma determinada entrada
Parâmetros
| Nome | Chave | Obrigatório | Tipo | Description |
|---|---|---|---|---|
|
modelo
|
model | True | string |
modelo |
|
entrada
|
input | True | string |
entrada |
Retornos
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
objeto
|
object | string |
objeto |
|
dados
|
data | array of object |
dados |
|
objeto
|
data.object | string |
objeto |
|
embedding
|
data.embedding | array of float |
embedding |
|
indexar
|
data.index | integer |
indexar |
|
modelo
|
model | string |
modelo |
|
prompt_tokens
|
usage.prompt_tokens | integer |
prompt_tokens |
|
total_tokens
|
usage.total_tokens | integer |
total_tokens |
GPT3 Conclui seu prompt
GPT3 Conclui seu prompt
Parâmetros
| Nome | Chave | Obrigatório | Tipo | Description |
|---|---|---|---|---|
|
Engine
|
model | True | string |
O modelo usado, escolha entre text-davinci-002, text-curie-001, text-babbage-001, text-ada-001 |
|
solicitação
|
prompt | True | string |
Texto que será concluído pelo GPT3 |
|
n
|
n | integer |
Quantas conclusões serão geradas para cada prompt |
|
|
best_of
|
best_of | integer |
Se definido como mais de 1, gerará várias conclusões no lado do servidor e retornará o "melhor". Deve ser maior que "n". Use com cuidado, pode consumir muitos tokens. |
|
|
temperatura
|
temperature | float |
Valores mais altos significam que o modelo assumirá mais riscos. Experimente 0,9 para aplicativos mais criativos e 0 (amostragem argmax) para quem tem uma resposta bem definida. Use este OR top p |
|
|
tokens máximos
|
max_tokens | integer |
Um token é igual a aproximadamente 4 caracteres de texto (até 4.000 tokens entre prompt e conclusão) |
|
|
p superior
|
top_p | float |
Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. |
|
|
penalidade de frequência
|
frequency_penalty | float |
Número entre -2.0 e 2.0. Os valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade de os modelos repetirem a mesma linha verbatim. |
|
|
penalidade de presença
|
presence_penalty | float |
Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade de os modelos falarem sobre novos tópicos. |
|
|
Pare
|
stop | array of string |
Até quatro sequências nas quais a API irá parar de gerar tokens. O texto retornado não conterá a sequência de interrupção |
Retornos
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
id
|
id | string |
id |
|
objeto
|
object | string |
objeto |
|
criadas
|
created | integer |
criadas |
|
choices
|
choices | array of object |
Conclusões retornadas |
|
Texto
|
choices.text | string |
Texto de conclusão |
|
Index
|
choices.index | integer |
Número de conclusão |
|
Motivo da conclusão
|
choices.finish_reason | string |
Motivo pelo qual o texto foi concluído (condição de parada/final natural/comprimento) |
|
Prompt Tokens
|
choices.usage.prompt_tokens | integer |
Número de tokens no prompt |
|
Tokens de conclusão
|
choices.usage.completion_tokens | integer |
Número de tokens na conclusão |
|
Total Tokens
|
choices.usage.total_tokens | integer |
Número total de tokens em prompt e conclusão |
GPT3 Conclui seu prompt [PRETERIDO]
GPT3 Conclui seu prompt (preterido pelo OpenAI – use Completion_New)
Parâmetros
| Nome | Chave | Obrigatório | Tipo | Description |
|---|---|---|---|---|
|
Engine
|
engine | True | string |
O mecanismo usado, escolha entre text-davinci-002/003, text-curie-001, text-babbage-001, text-ada-001 |
|
solicitação
|
prompt | True | string |
Texto que será concluído pelo GPT3 |
|
n
|
n | integer |
Quantas conclusões serão geradas para cada prompt |
|
|
best_of
|
best_of | integer |
Se definido como mais de 1, gerará várias conclusões no lado do servidor e retornará o "melhor". Deve ser maior que "n". Use com cuidado, pode consumir muitos tokens. |
|
|
temperatura
|
temperature | float |
Valores mais altos significam que o modelo assumirá mais riscos. Experimente 0,9 para aplicativos mais criativos e 0 (amostragem argmax) para quem tem uma resposta bem definida. Use este OR top p |
|
|
tokens máximos
|
max_tokens | integer |
Um token é igual a aproximadamente 4 caracteres de texto (até 4.000 tokens entre prompt e conclusão) |
|
|
p superior
|
top_p | float |
Uma alternativa à amostragem com temperatura, chamada de amostragem de núcleo, onde o modelo considera os resultados dos tokens com massa de probabilidade top_p. Portanto, 0,1 significa que apenas os tokens que compõem a massa de probabilidade de 10% do topo são considerados. |
|
|
penalidade de frequência
|
frequency_penalty | float |
Número entre -2.0 e 2.0. Os valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade de os modelos repetirem a mesma linha verbatim. |
|
|
penalidade de presença
|
presence_penalty | float |
Número entre -2.0 e 2.0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade de os modelos falarem sobre novos tópicos. |
|
|
usuário
|
user | string |
Um identificador exclusivo que representa o usuário final, que ajudará o OpenAI a monitorar e detectar abusos |
|
|
Pare
|
stop | array of string |
Até quatro sequências nas quais a API irá parar de gerar tokens. O texto retornado não conterá a sequência de interrupção |
Retornos
| Nome | Caminho | Tipo | Description |
|---|---|---|---|
|
id
|
id | string |
id |
|
objeto
|
object | string |
objeto |
|
criadas
|
created | integer |
criadas |
|
choices
|
choices | array of object |
Conclusões retornadas |
|
Texto
|
choices.text | string |
Texto de conclusão |
|
Index
|
choices.index | integer |
Número de conclusão |
|
Logprobs
|
choices.logprobs | string |
Inclua as probabilidades de log nos tokens mais prováveis dos logs, bem como os tokens escolhidos. Por exemplo, se logprobs for 3, a API retornará uma lista dos 3 tokens mais prováveis. |
|
Motivo da conclusão
|
choices.finish_reason | string |
Motivo pelo qual o texto foi concluído (condição de parada/final natural/comprimento) |