OpenAI (Editora Independente) (Pré-visualização)
Conecte-se à API OpenAI e use o Poder do GPT3, a chave da API deve ser inserida como "Bearer YOUR_API_KEY"
Este conector está disponível nos seguintes produtos e regiões:
| Serviço | Class | Regiões |
|---|---|---|
| Estúdio Copiloto | Premium | Todas as regiões do Power Automatic , exceto as seguintes: - Governo dos EUA (CCG) - Governo dos EUA (GCC High) - China Cloud operado pela 21Vianet - Departamento de Defesa dos EUA (DoD) |
| Aplicações Lógicas | Standard | Todas as regiões do Logic Apps , exceto as seguintes: - Regiões do Azure Government - Regiões do Azure China - Departamento de Defesa dos EUA (DoD) |
| Aplicações Power | Premium | Todas as regiões do Power Apps , exceto as seguintes: - Governo dos EUA (CCG) - Governo dos EUA (GCC High) - China Cloud operado pela 21Vianet - Departamento de Defesa dos EUA (DoD) |
| Automatize o poder | Premium | Todas as regiões do Power Automatic , exceto as seguintes: - Governo dos EUA (CCG) - Governo dos EUA (GCC High) - China Cloud operado pela 21Vianet - Departamento de Defesa dos EUA (DoD) |
| Contato | |
|---|---|
| Nome | Robin Rosengrün |
| URL | https://linktr.ee/r2power |
| robin@r2power.de |
| Metadados do conector | |
|---|---|
| Editora | Robin Rosengrün |
| Sítio Web | https://openai.com/ |
| Política de privacidade | https://openai.com/api/policies/terms/ |
| Categorias | IA |
A criar uma ligação
O conector suporta os seguintes tipos de autenticação:
| Predefinição | Parâmetros para criar conexão. | Todas as regiões | Não compartilhável |
Padrão
Aplicável: Todas as regiões
Parâmetros para criar conexão.
Esta conexão não é compartilhável. Se o aplicativo avançado for compartilhado com outro usuário, outro usuário será solicitado a criar uma nova conexão explicitamente.
| Nome | Tipo | Description | Obrigatório |
|---|---|---|---|
| Chave de API | securestring | Digite a chave da API como "YOUR_API_KEY ao portador" | Verdade |
Limites de Limitação
| Name | Chamadas | Período de Renovação |
|---|---|---|
| Chamadas de API por conexão | 100 | 60 segundos |
Ações
| Conclusão do bate-papo |
Use modelos como ChatGPT e GPT4 para manter uma conversa |
| Criar uma imagem |
DallE2 cria uma imagem a partir do seu prompt |
| GPT3 Conclui o prompt |
GPT3 Conclui o prompt |
| GPT3 Conclui o prompt [DEPRECATED] |
GPT3 Completa seu prompt (preterido pelo OpenAI - use Completion_New) |
| Incorporações |
Obter uma representação vetorial de uma determinada entrada |
Conclusão do bate-papo
Use modelos como ChatGPT e GPT4 para manter uma conversa
Parâmetros
| Name | Chave | Necessário | Tipo | Description |
|---|---|---|---|---|
|
modelo
|
model | True | string |
O modelo usado, escolha entre gpt-3.5-turbo, gpt-4 e outros |
|
função
|
role | True | string |
O papel do autor desta mensagem. Um de sistema, usuário ou assistente. |
|
conteúdo
|
content | True | string |
O conteúdo da mensagem. |
|
n
|
n | integer |
Quantas finalizações gerar para cada prompt |
|
|
temperatura
|
temperature | float |
Valores mais altos significam que o modelo correrá mais riscos. Experimente 0,9 para aplicações mais criativas e 0 (amostragem argmax) para aplicações com uma resposta bem definida. Use este topo OU p |
|
|
Max Tokens
|
max_tokens | integer |
Um token equivale a aproximadamente 4 caracteres de texto (até 4000 ou mais tokens entre prompt e conclusão, dependendo do modelo) |
|
|
topo p
|
top_p | float |
Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. |
|
|
penalização de frequência
|
frequency_penalty | float |
Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade dos modelos de repetir a mesma linha textualmente. |
|
|
penalidade de presença
|
presence_penalty | float |
Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade dos modelos falarem sobre novos tópicos. |
|
|
pare
|
stop | array of string |
Até 4 sequências onde a API deixará de gerar mais tokens. O texto retornado não conterá a sequência de parada |
Devoluções
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
id
|
id | string |
id |
|
objecto
|
object | string |
objecto |
|
criado
|
created | integer |
criado |
|
choices
|
choices | array of object |
choices |
|
indexar
|
choices.index | integer |
indexar |
|
função
|
choices.message.role | string |
função |
|
conteúdo
|
choices.message.content | string |
conteúdo |
|
motivo_de_finalização
|
choices.finish_reason | string |
motivo_de_finalização |
|
prompt_tokens
|
usage.prompt_tokens | integer |
prompt_tokens |
|
completion_tokens
|
usage.completion_tokens | integer |
completion_tokens |
|
total_tokens
|
usage.total_tokens | integer |
total_tokens |
Criar uma imagem
DallE2 cria uma imagem a partir do seu prompt
Parâmetros
| Name | Chave | Necessário | Tipo | Description |
|---|---|---|---|---|
|
avisar
|
prompt | True | string |
O prompt que descreve a imagem |
|
Número de imagens
|
n | integer |
Número de imagens de 1 a 10 |
|
|
size
|
size | string |
O tamanho das imagens geradas. 256x256, 512x512 ou 1024x1024 (padrão: 1024x1024) |
|
|
format
|
response_format | string |
Obter url para imagem ou recebê-lo no formato base64 (padrão: url) |
Devoluções
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
dados
|
data | array of object |
dados |
|
URL
|
data.url | string |
URL para a imagem criada |
|
b64imagem
|
data.b64_json | byte |
Imagem em formato base64 |
GPT3 Conclui o prompt
GPT3 Conclui o prompt
Parâmetros
| Name | Chave | Necessário | Tipo | Description |
|---|---|---|---|---|
|
Engine
|
model | True | string |
O modelo usado, escolha entre text-davinci-002, text-curie-001, text-babbage-001, text-ada-001 |
|
avisar
|
prompt | True | string |
Texto que será completado pela GPT3 |
|
n
|
n | integer |
Quantas finalizações gerar para cada prompt |
|
|
melhor_de
|
best_of | integer |
Se definido como mais de 1, gera várias completações do lado do servidor e retorna o "melhor". Deve ser maior que "n". Use com cuidado, pode consumir muitos tokens. |
|
|
temperatura
|
temperature | float |
Valores mais altos significam que o modelo correrá mais riscos. Experimente 0,9 para aplicações mais criativas e 0 (amostragem argmax) para aplicações com uma resposta bem definida. Use este topo OU p |
|
|
Max Tokens
|
max_tokens | integer |
Um token equivale a aproximadamente 4 caracteres de texto (até 4000 tokens entre prompt e conclusão) |
|
|
topo p
|
top_p | float |
Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. |
|
|
penalização de frequência
|
frequency_penalty | float |
Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade dos modelos de repetir a mesma linha textualmente. |
|
|
penalidade de presença
|
presence_penalty | float |
Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade dos modelos falarem sobre novos tópicos. |
|
|
pare
|
stop | array of string |
Até 4 sequências onde a API deixará de gerar mais tokens. O texto retornado não conterá a sequência de parada |
Devoluções
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
id
|
id | string |
id |
|
objecto
|
object | string |
objecto |
|
criado
|
created | integer |
criado |
|
choices
|
choices | array of object |
Conclusão(ões) devolvida(s) |
|
Texto
|
choices.text | string |
Texto de conclusão |
|
Index
|
choices.index | integer |
Número de conclusão |
|
Razão de término
|
choices.finish_reason | string |
Razão pela qual o texto terminou (condição de paragem / fim natural / comprimento) |
|
Prompt Tokens
|
choices.usage.prompt_tokens | integer |
Número de tokens no prompt |
|
Tokens de conclusão
|
choices.usage.completion_tokens | integer |
Número de tokens na conclusão |
|
Total Tokens
|
choices.usage.total_tokens | integer |
Número total de tokens em pronto e conclusão |
GPT3 Conclui o prompt [DEPRECATED]
GPT3 Completa seu prompt (preterido pelo OpenAI - use Completion_New)
Parâmetros
| Name | Chave | Necessário | Tipo | Description |
|---|---|---|---|---|
|
Engine
|
engine | True | string |
O motor usado, escolha entre text-davinci-002/003, text-curie-001, text-babbage-001, text-ada-001 |
|
avisar
|
prompt | True | string |
Texto que será completado pela GPT3 |
|
n
|
n | integer |
Quantas finalizações gerar para cada prompt |
|
|
melhor_de
|
best_of | integer |
Se definido como mais de 1, gera várias completações do lado do servidor e retorna o "melhor". Deve ser maior que "n". Use com cuidado, pode consumir muitos tokens. |
|
|
temperatura
|
temperature | float |
Valores mais altos significam que o modelo correrá mais riscos. Experimente 0,9 para aplicações mais criativas e 0 (amostragem argmax) para aplicações com uma resposta bem definida. Use este topo OU p |
|
|
Max Tokens
|
max_tokens | integer |
Um token equivale a aproximadamente 4 caracteres de texto (até 4000 tokens entre prompt e conclusão) |
|
|
topo p
|
top_p | float |
Uma alternativa à amostragem com temperatura, chamada amostragem de núcleo, onde o modelo considera os resultados dos tokens com a massa de probabilidade top_p. Assim, 0,1 significa que apenas os tokens que compõem a massa de probabilidade superior de 10% são considerados. |
|
|
penalização de frequência
|
frequency_penalty | float |
Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em sua frequência existente no texto até agora, diminuindo a probabilidade dos modelos de repetir a mesma linha textualmente. |
|
|
penalidade de presença
|
presence_penalty | float |
Número entre -2,0 e 2,0. Valores positivos penalizam novos tokens com base em se eles aparecem no texto até agora, aumentando a probabilidade dos modelos falarem sobre novos tópicos. |
|
|
utilizador
|
user | string |
Um identificador exclusivo que representa seu usuário final, que ajudará a OpenAI a monitorar e detetar abusos |
|
|
pare
|
stop | array of string |
Até 4 sequências onde a API deixará de gerar mais tokens. O texto retornado não conterá a sequência de parada |
Devoluções
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
id
|
id | string |
id |
|
objecto
|
object | string |
objecto |
|
criado
|
created | integer |
criado |
|
choices
|
choices | array of object |
Conclusão(ões) devolvida(s) |
|
Texto
|
choices.text | string |
Texto de conclusão |
|
Index
|
choices.index | integer |
Número de conclusão |
|
Logprobs
|
choices.logprobs | string |
Inclua as probabilidades de log nos tokens mais prováveis do logprobs, bem como os tokens escolhidos. Por exemplo, se logprobs for 3, a API retornará uma lista dos 3 tokens mais prováveis. |
|
Razão de término
|
choices.finish_reason | string |
Razão pela qual o texto terminou (condição de paragem / fim natural / comprimento) |
Incorporações
Obter uma representação vetorial de uma determinada entrada
Parâmetros
| Name | Chave | Necessário | Tipo | Description |
|---|---|---|---|---|
|
modelo
|
model | True | string |
modelo |
|
dados introduzidos
|
input | True | string |
dados introduzidos |
Devoluções
| Name | Caminho | Tipo | Description |
|---|---|---|---|
|
objecto
|
object | string |
objecto |
|
dados
|
data | array of object |
dados |
|
objecto
|
data.object | string |
objecto |
|
embedding
|
data.embedding | array of float |
embedding |
|
indexar
|
data.index | integer |
indexar |
|
modelo
|
model | string |
modelo |
|
prompt_tokens
|
usage.prompt_tokens | integer |
prompt_tokens |
|
total_tokens
|
usage.total_tokens | integer |
total_tokens |