Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
APLICA-SE A: Todas as camadas de gerenciamento de API
Este artigo mostra como importar uma API do Google Gemini compatível com OpenAI para acessar modelos como gemini-2.0-flash. Para esses modelos, a Gestão de API do Azure pode administrar um endpoint de conclusão de chat compatível com OpenAI.
Saiba mais sobre como gerenciar APIs de IA no Gerenciamento de API:
Pré-requisitos
- Uma instância de gerenciamento de API existente. Crie um, caso ainda não o tenha feito.
- Uma chave de API para a API do Gemini. Se você não tiver um, crie-o no Google AI Studio e armazene-o em um local seguro.
Importe uma API Gemini compatível com OpenAI usando o portal
No portal do Azure, navegue até sua instância de Gerenciamento de API.
No menu à esquerda, em APIs, selecione APIs>+ Add API.
Em Definir uma nova API, selecione Language Model API.
Na aba Configurar API:
Insira um Nome para exibição e uma Descrição opcional para a API.
Em URL, insira o seguinte URL base da documentação de compatibilidade do Gemini OpenAI:
https://generativelanguage.googleapis.com/v1beta/openaiEm Path, acrescente um caminho que sua instância de Gerenciamento de API usa para rotear solicitações para os pontos de extremidade da API do Gemini.
Em Tipo, selecione Criar API OpenAI.
Em Chave de acesso, insira o seguinte:
- Nome do cabeçalho: Autorização.
-
Valor do cabeçalho (chave):
Bearerseguido pela sua chave de API para a API do Gemini.
Nas guias restantes, opcionalmente, configure políticas para gerenciar o consumo de tokens, cache semântico e segurança de conteúdo de IA. Para obter detalhes, consulte Importar uma API de modelo de idioma.
Selecione Revisão.
Depois que as configurações forem validadas, selecione Criar.
O Gerenciamento de API cria a API e configura o seguinte:
- Um recurso de back-end e uma política de definição de serviço de back-end que direcionam as solicitações de API para o ponto de acesso do Google Gemini.
- Acesso ao back-end LLM usando a chave de API Gemini que você forneceu. A chave é protegida como um valor nomeado secreto no Gerenciamento de API.
- (opcionalmente) Políticas para ajudá-lo a monitorar e gerenciar a API.
Teste o modelo Gemini
Depois de importar a API, pode-se testar o endpoint de conclusões de chat da API.
Selecione a API que você criou na etapa anterior.
Selecione a guia Teste .
Selecione a
POST Creates a model response for the given chat conversationoperação, que é umPOSTpedido para o/chat/completionsendpoint.Na seção Corpo da solicitação , insira o JSON a seguir para especificar o modelo e um prompt de exemplo. Neste exemplo, o
gemini-2.0-flashmodelo é usado.{ "model": "gemini-2.0-flash", "messages": [ { "role": "system", "content": "You are a helpful assistant" }, { "role": "user", "content": "How are you?" } ], "max_tokens": 50 }Quando o teste é bem-sucedido, o back-end responde com um código de resposta HTTP bem-sucedido e alguns dados. Anexados à resposta estão dados de uso de token para ajudá-lo a monitorar e gerenciar o consumo de token do modelo de idioma.