Partilhar via


OpenAI (Editora Independente) (Pré-visualização)

Conecte-se à API OpenAI e use o Poder do GPT3, a chave da API deve ser inserida como "Bearer YOUR_API_KEY"

Este conector está disponível nos seguintes produtos e regiões:

Serviço Class Regiões
Estúdio Copiloto Premium Todas as regiões do Power Automatic , exceto as seguintes:
     - Governo dos EUA (CCG)
     - Governo dos EUA (GCC High)
     - China Cloud operado pela 21Vianet
     - Departamento de Defesa dos EUA (DoD)
Aplicações Lógicas Standard Todas as regiões do Logic Apps , exceto as seguintes:
     - Regiões do Azure Government
     - Regiões do Azure China
     - Departamento de Defesa dos EUA (DoD)
Aplicações Power Premium Todas as regiões do Power Apps , exceto as seguintes:
     - Governo dos EUA (CCG)
     - Governo dos EUA (GCC High)
     - China Cloud operado pela 21Vianet
     - Departamento de Defesa dos EUA (DoD)
Automatize o poder Premium Todas as regiões do Power Automatic , exceto as seguintes:
     - Governo dos EUA (CCG)
     - Governo dos EUA (GCC High)
     - China Cloud operado pela 21Vianet
     - Departamento de Defesa dos EUA (DoD)
Contato
Nome Robin Rosengrün
URL https://linktr.ee/r2power
Email robin@r2power.de
Metadados do conector
Editora Robin Rosengrün
Sítio Web https://openai.com/
Política de privacidade https://openai.com/api/policies/terms/
Categorias IA

A criar uma ligação

O conector suporta os seguintes tipos de autenticação:

Predefinição Parâmetros para criar conexão. Todas as regiões Não compartilhável

Padrão

Aplicável: Todas as regiões

Parâmetros para criar conexão.

Esta conexão não é compartilhável. Se o aplicativo avançado for compartilhado com outro usuário, outro usuário será solicitado a criar uma nova conexão explicitamente.

Nome Tipo Description Obrigatório
Chave de API securestring Digite a chave da API como "YOUR_API_KEY ao portador" Verdade

Limites de Limitação

Name Chamadas Período de Renovação
Chamadas de API por conexão 100 60 segundos

Ações

Conclusão do bate-papo

Use modelos como ChatGPT e GPT4 para manter uma conversa

Criar uma imagem

DallE2 cria uma imagem a partir do seu prompt

GPT3 Conclui o prompt

GPT3 Conclui o prompt

GPT3 Conclui o prompt [DEPRECATED]

GPT3 Completa seu prompt (preterido pelo OpenAI - use Completion_New)

Incorporações

Obter uma representação vetorial de uma determinada entrada

Conclusão do bate-papo

Use modelos como ChatGPT e GPT4 para manter uma conversa

Parâmetros

Name Chave Necessário Tipo Description
modelo
model True string

O modelo usado, escolha entre gpt-3.5-turbo, gpt-4 e outros

função
role True string

O papel do autor desta mensagem. Um de sistema, usuário ou assistente.

conteúdo
content True string

O conteúdo da mensagem.

n
n integer

Quantas finalizações gerar para cada prompt

temperatura
temperature float

Valores mais altos significam que o modelo correrá mais riscos. Experimente 0,9 para aplicações mais criativas e 0 (amostragem argmax) para aplicações com uma resposta bem definida. Use este topo OU p

Max Tokens
max_tokens integer

Um token equivale a aproximadamente 4 caracteres de texto (até 4000 ou mais tokens entre prompt e conclusão, dependendo do modelo)

topo p
top_p float

Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

penalização de frequência
frequency_penalty float

Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade dos modelos de repetir a mesma linha textualmente.

penalidade de presença
presence_penalty float

Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade dos modelos falarem sobre novos tópicos.

pare
stop array of string

Até 4 sequências onde a API deixará de gerar mais tokens. O texto retornado não conterá a sequência de parada

Devoluções

Name Caminho Tipo Description
id
id string

id

objecto
object string

objecto

criado
created integer

criado

choices
choices array of object

choices

indexar
choices.index integer

indexar

função
choices.message.role string

função

conteúdo
choices.message.content string

conteúdo

motivo_de_finalização
choices.finish_reason string

motivo_de_finalização

prompt_tokens
usage.prompt_tokens integer

prompt_tokens

completion_tokens
usage.completion_tokens integer

completion_tokens

total_tokens
usage.total_tokens integer

total_tokens

Criar uma imagem

DallE2 cria uma imagem a partir do seu prompt

Parâmetros

Name Chave Necessário Tipo Description
avisar
prompt True string

O prompt que descreve a imagem

Número de imagens
n integer

Número de imagens de 1 a 10

size
size string

O tamanho das imagens geradas. 256x256, 512x512 ou 1024x1024 (padrão: 1024x1024)

format
response_format string

Obter url para imagem ou recebê-lo no formato base64 (padrão: url)

Devoluções

Name Caminho Tipo Description
dados
data array of object

dados

URL
data.url string

URL para a imagem criada

b64imagem
data.b64_json byte

Imagem em formato base64

GPT3 Conclui o prompt

GPT3 Conclui o prompt

Parâmetros

Name Chave Necessário Tipo Description
Engine
model True string

O modelo usado, escolha entre text-davinci-002, text-curie-001, text-babbage-001, text-ada-001

avisar
prompt True string

Texto que será completado pela GPT3

n
n integer

Quantas finalizações gerar para cada prompt

melhor_de
best_of integer

Se definido como mais de 1, gera várias completações do lado do servidor e retorna o "melhor". Deve ser maior que "n". Use com cuidado, pode consumir muitos tokens.

temperatura
temperature float

Valores mais altos significam que o modelo correrá mais riscos. Experimente 0,9 para aplicações mais criativas e 0 (amostragem argmax) para aplicações com uma resposta bem definida. Use este topo OU p

Max Tokens
max_tokens integer

Um token equivale a aproximadamente 4 caracteres de texto (até 4000 tokens entre prompt e conclusão)

topo p
top_p float

Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

penalização de frequência
frequency_penalty float

Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade dos modelos de repetir a mesma linha textualmente.

penalidade de presença
presence_penalty float

Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade dos modelos falarem sobre novos tópicos.

pare
stop array of string

Até 4 sequências onde a API deixará de gerar mais tokens. O texto retornado não conterá a sequência de parada

Devoluções

Name Caminho Tipo Description
id
id string

id

objecto
object string

objecto

criado
created integer

criado

choices
choices array of object

Conclusão(ões) devolvida(s)

Texto
choices.text string

Texto de conclusão

Index
choices.index integer

Número de conclusão

Razão de término
choices.finish_reason string

Razão pela qual o texto terminou (condição de paragem / fim natural / comprimento)

Prompt Tokens
choices.usage.prompt_tokens integer

Número de tokens no prompt

Tokens de conclusão
choices.usage.completion_tokens integer

Número de tokens na conclusão

Total Tokens
choices.usage.total_tokens integer

Número total de tokens em pronto e conclusão

GPT3 Conclui o prompt [DEPRECATED]

GPT3 Completa seu prompt (preterido pelo OpenAI - use Completion_New)

Parâmetros

Name Chave Necessário Tipo Description
Engine
engine True string

O motor usado, escolha entre text-davinci-002/003, text-curie-001, text-babbage-001, text-ada-001

avisar
prompt True string

Texto que será completado pela GPT3

n
n integer

Quantas finalizações gerar para cada prompt

melhor_de
best_of integer

Se definido como mais de 1, gera várias completações do lado do servidor e retorna o "melhor". Deve ser maior que "n". Use com cuidado, pode consumir muitos tokens.

temperatura
temperature float

Valores mais altos significam que o modelo correrá mais riscos. Experimente 0,9 para aplicações mais criativas e 0 (amostragem argmax) para aplicações com uma resposta bem definida. Use este topo OU p

Max Tokens
max_tokens integer

Um token equivale a aproximadamente 4 caracteres de texto (até 4000 tokens entre prompt e conclusão)

topo p
top_p float

Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados.

penalização de frequência
frequency_penalty float

Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade dos modelos de repetir a mesma linha textualmente.

penalidade de presença
presence_penalty float

Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade dos modelos falarem sobre novos tópicos.

utilizador
user string

Um identificador exclusivo que representa seu usuário final, que ajudará a OpenAI a monitorar e detetar abusos

pare
stop array of string

Até 4 sequências onde a API deixará de gerar mais tokens. O texto retornado não conterá a sequência de parada

Devoluções

Name Caminho Tipo Description
id
id string

id

objecto
object string

objecto

criado
created integer

criado

choices
choices array of object

Conclusão(ões) devolvida(s)

Texto
choices.text string

Texto de conclusão

Index
choices.index integer

Número de conclusão

Logprobs
choices.logprobs string

Inclua as probabilidades de log nos tokens mais prováveis do logprobs, bem como os tokens escolhidos. Por exemplo, se logprobs for 3, a API retornará uma lista dos 3 tokens mais prováveis.

Razão de término
choices.finish_reason string

Razão pela qual o texto terminou (condição de paragem / fim natural / comprimento)

Incorporações

Obter uma representação vetorial de uma determinada entrada

Parâmetros

Name Chave Necessário Tipo Description
modelo
model True string

modelo

dados introduzidos
input True string

dados introduzidos

Devoluções

Name Caminho Tipo Description
objecto
object string

objecto

dados
data array of object

dados

objecto
data.object string

objecto

embedding
data.embedding array of float

embedding

indexar
data.index integer

indexar

modelo
model string

modelo

prompt_tokens
usage.prompt_tokens integer

prompt_tokens

total_tokens
usage.total_tokens integer

total_tokens