Partilhar via


Implantar um modelo de fala personalizado

Neste artigo, você aprenderá a implantar um ponto de extremidade para um modelo de fala personalizado. Exceto para transcrição em lote, você deve implantar um ponto de extremidade personalizado para usar um modelo de fala personalizado.

Gorjeta

Um ponto de extremidade de implantação hospedado não é necessário para usar fala personalizada com a API de transcrição em lote. Você pode conservar recursos se o modelo de fala personalizado for usado apenas para transcrição em lote. Para obter mais informações, consulte Preços do serviço de fala.

Você pode implantar um ponto de extremidade para um modelo básico ou personalizado e, em seguida , atualizar o ponto de extremidade mais tarde para usar um modelo melhor treinado.

Nota

Os pontos de extremidade usados pelos F0 recursos de fala são excluídos após sete dias.

Adicionar um ponto de extremidade de implantação

Gorjeta

Traga os seus modelos de voz personalizados do Speech Studio para o portal Microsoft Foundry. No portal Microsoft Foundry, pode retomar de onde ficou ligando-se ao seu recurso de Voz existente. Para obter mais informações sobre como se conectar a um recurso de Fala existente, consulte Conectar-se a um recurso de Fala existente.

  1. Inicie sessão no portal Microsoft Foundry.

  2. Selecione Ajuste fino no painel esquerdo e, em seguida, selecione Ajuste fino do Serviço de IA.

  3. Selecione a tarefa de ajuste fino de fala personalizada (por nome de modelo) que você iniciou conforme descrito no artigo como iniciar o ajuste fino de fala personalizado.

  4. Selecione Implantar modelos>+ Implantar modelos.

    Captura de tela da página com uma opção para implantar o modelo de fala personalizado.

  5. No assistente Implantar um novo modelo, selecione o modelo que você deseja implantar.

    Captura de ecrã da página com uma opção para selecionar o modelo que pretende implementar.

  6. Insira um nome e uma descrição para a implantação. Selecione a caixa para concordar com os termos de uso. Em seguida, selecione Implantar.

  7. Depois que o status da implantação for Bem-sucedido, você poderá exibir os detalhes da implantação. Selecione a implantação para exibir os detalhes, como o ID do ponto de extremidade.

    Captura de tela da página com uma opção para selecionar a implantação para exibir os detalhes, como o ID do ponto de extremidade.

Para criar um ponto de extremidade personalizado, siga estas etapas:

  1. Inicie sessão no Speech Studio.

  2. Selecione Fala> personalizada Seu nome >de projeto Implantar modelos.

    Se este for o seu primeiro ponto de extremidade, você notará que não há pontos de extremidade listados na tabela. Depois de criar um ponto final, utilize esta página para monitorizar cada ponto final implementado.

  3. Selecione Implantar modelo para iniciar o novo assistente de ponto de extremidade.

  4. Na página Novo ponto de extremidade, insira um nome e uma descrição para seu ponto de extremidade personalizado.

  5. Selecione o modelo personalizado que quer associar ao ponto final.

  6. Opcionalmente, você pode marcar a caixa para habilitar o registro de áudio e diagnóstico do tráfego do ponto de extremidade.

    Captura de ecrã da página Novo ponto de extremidade que mostra a caixa de verificação para ativar o registo.

  7. Selecione Adicionar para salvar e implantar o ponto de extremidade.

Na página principal Implantar modelos , os detalhes sobre o novo ponto de extremidade são exibidos em uma tabela, como nome, descrição, status e data de validade. Pode levar até 30 minutos para instanciar um novo ponto de extremidade que usa seus modelos personalizados. Quando o status da implantação muda para Succeeded, o ponto de extremidade está pronto para uso.

Importante

Anote a data de validade do modelo. Esta é a última data em que você pode usar seu modelo personalizado para reconhecimento de fala. Para obter mais informações, consulte Ciclo de vida do modelo e do ponto final.

Selecione o link do ponto de extremidade para exibir informações específicas a ele, como a chave do ponto de extremidade, a URL do ponto de extremidade e o código de exemplo.

Antes de continuar, verifique se a CLI de fala está instalada e configurada.

Para criar um ponto de extremidade e implantar um modelo, use o spx csr endpoint create comando. Construa os parâmetros de solicitação de acordo com as seguintes instruções:

  • Defina a project propriedade como a ID de um projeto existente. A project propriedade é recomendada para que também possa gerir ajustes finos para fala personalizada no portal Microsoft Foundry. Para obter a ID do projeto, consulte Obter a ID do projeto para a documentação da API REST .
  • Defina a propriedade obrigatória model com a ID do modelo que pretende implementar no ponto de extremidade.
  • Defina a propriedade necessária language . A localidade do ponto de extremidade deve corresponder à localidade do modelo. A localidade não pode ser alterada posteriormente. A propriedade language do Speech CLI corresponde à propriedade locale na requisição e resposta JSON.
  • Defina a propriedade necessária name . Este é o nome que aparece no portal Microsoft Foundry. A propriedade name do Speech CLI corresponde à propriedade displayName na requisição e resposta JSON.
  • Opcionalmente, você pode definir a logging propriedade. Defina isso para enabled habilitar o registro de áudio e diagnóstico do tráfego do ponto de extremidade. A predefinição é false.

Aqui está um exemplo de comando da CLI de fala para criar um ponto de extremidade e implantar um modelo:

spx csr endpoint create --api-version v3.2 --project YourProjectId --model YourModelId --name "My Endpoint" --description "My Endpoint Description" --language "en-US"

Importante

Você deve definir --api-version v3.2. A CLI de Fala usa a API REST, mas ainda não oferece suporte a versões posteriores ao v3.2.

Deverá receber um corpo de resposta no seguinte formato:

{
  "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/aaaabbbb-0000-cccc-1111-dddd2222eeee",
  "model": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/bbbbcccc-1111-dddd-2222-eeee3333ffff"
  },
  "links": {
    "logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
    "restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee"
  },
  "project": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/ccccdddd-2222-eeee-3333-ffff4444aaaa"
  },
  "properties": {
    "loggingEnabled": true
  },
  "lastActionDateTime": "2024-07-15T16:29:36Z",
  "status": "NotStarted",
  "createdDateTime": "2024-07-15T16:29:36Z",
  "locale": "en-US",
  "displayName": "My Endpoint",
  "description": "My Endpoint Description"
}

A propriedade de nível self superior no corpo da resposta é o URI do ponto de extremidade. Use este URI para obter detalhes sobre o projeto, o modelo e os logs do ponto de extremidade. Você também usa esse URI para atualizar o ponto de extremidade.

Para obter ajuda da CLI de fala com pontos de extremidade, execute o seguinte comando:

spx help csr endpoint

Para criar um ponto de extremidade e implantar um modelo, use a operação Endpoints_Create da API REST de fala para texto. Construa o corpo da solicitação de acordo com as seguintes instruções:

  • Defina a project propriedade como o URI de um projeto existente. Esta propriedade é recomendada para que também possa visualizar e gerir o endpoint no portal Microsoft Foundry. Para obter a ID do projeto, consulte Obter a ID do projeto para a documentação da API REST .
  • Defina a propriedade required model como o URI do modelo que você deseja implantar no ponto de extremidade.
  • Defina a propriedade necessária locale . A localidade do ponto de extremidade deve corresponder à localidade do modelo. A localidade não pode ser alterada posteriormente.
  • Defina a propriedade necessária displayName . Este é o nome que aparece no portal Microsoft Foundry.
  • Opcionalmente, você pode definir a propriedade dentro loggingEnabledde properties . Defina isso para true habilitar o registro de áudio e diagnóstico do tráfego do ponto de extremidade. A predefinição é false.

Faça uma solicitação HTTP POST usando o URI, conforme mostrado no exemplo de Endpoints_Create a seguir. Substitua YourSpeechResoureKey pela chave de recurso Fala, substitua YourServiceRegion pela região de recurso Fala e defina as propriedades do corpo da solicitação conforme descrito anteriormente.

curl -v -X POST -H "Ocp-Apim-Subscription-Key: YourSpeechResoureKey" -H "Content-Type: application/json" -d '{
  "project": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/ccccdddd-2222-eeee-3333-ffff4444aaaa"
  },
  "properties": {
    "loggingEnabled": true
  },
  "displayName": "My Endpoint",
  "description": "My Endpoint Description",
  "model": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/base/ddddeeee-3333-ffff-4444-aaaa5555bbbb"
  },
  "locale": "en-US",
}'  "https://YourServiceRegion.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints"

Deverá receber um corpo de resposta no seguinte formato:

{
  "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/aaaabbbb-0000-cccc-1111-dddd2222eeee",
  "model": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/bbbbcccc-1111-dddd-2222-eeee3333ffff"
  },
  "links": {
    "logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
    "restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee"
  },
  "project": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/ccccdddd-2222-eeee-3333-ffff4444aaaa"
  },
  "properties": {
    "loggingEnabled": true
  },
  "lastActionDateTime": "2024-07-15T16:29:36Z",
  "status": "NotStarted",
  "createdDateTime": "2024-07-15T16:29:36Z",
  "locale": "en-US",
  "displayName": "My Endpoint",
  "description": "My Endpoint Description"
}

A propriedade de nível self superior no corpo da resposta é o URI do ponto de extremidade. Use este URI para obter detalhes sobre o projeto, o modelo e os logs do ponto de extremidade. Você também usa esse URI para atualizar ou excluir o ponto de extremidade.

Alterar modelo e reimplantar ponto de extremidade

Um ponto de extremidade pode ser atualizado para usar outro modelo que foi criado pelo mesmo recurso de fala. Como mencionado anteriormente, você deve atualizar o modelo do ponto de extremidade antes que o modelo expire.

Para usar um novo modelo e reimplantar o ponto de extremidade personalizado:

  1. Inicie sessão no Speech Studio.
  2. Selecione Fala> personalizada Seu nome >de projeto Implantar modelos.
  3. Selecione o link para um ponto de extremidade por nome e, em seguida, selecione Alterar modelo.
  4. Selecione o novo modelo que você deseja que o ponto de extremidade use.
  5. Selecione Concluído para salvar e reimplantar o ponto de extremidade.

Antes de continuar, verifique se a CLI de fala está instalada e configurada.

Para reimplantar o ponto de extremidade personalizado com um novo modelo, use o spx csr model update comando. Construa os parâmetros de solicitação de acordo com as seguintes instruções:

  • Defina a propriedade necessária endpoint como a ID do ponto de extremidade que pretende implantar.
  • Defina a propriedade obrigatória model com a ID do modelo que pretende implementar no ponto de extremidade.

Aqui está um exemplo de comando da CLI de Fala que reimplanta o ponto de extremidade personalizado com um novo modelo:

spx csr endpoint update --api-version v3.2 --endpoint YourEndpointId --model YourModelId

Importante

Você deve definir --api-version v3.2. A CLI de Fala usa a API REST, mas ainda não oferece suporte a versões posteriores ao v3.2.

Deverá receber um corpo de resposta no seguinte formato:

{
  "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/aaaabbbb-0000-cccc-1111-dddd2222eeee",
  "model": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/bbbbcccc-1111-dddd-2222-eeee3333ffff"
  },
  "links": {
    "logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
    "restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee"
  },
  "project": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/ccccdddd-2222-eeee-3333-ffff4444aaaa"
  },
  "properties": {
    "loggingEnabled": true
  },
  "lastActionDateTime": "2024-07-15T16:30:12Z",
  "status": "Succeeded",
  "createdDateTime": "2024-07-15T16:29:36Z",
  "locale": "en-US",
  "displayName": "My Endpoint",
  "description": "My Endpoint Description"
}

Para obter ajuda da CLI de fala com pontos de extremidade, execute o seguinte comando:

spx help csr endpoint

Para reimplantar o ponto de extremidade personalizado com um novo modelo, use a operação Endpoints_Update da API REST de fala para texto. Construa o corpo da solicitação de acordo com as seguintes instruções:

  • Defina a model propriedade como o URI do modelo que você deseja implantar no ponto de extremidade.

Faça uma solicitação HTTP PATCH usando o URI, conforme mostrado no exemplo a seguir. Substitua YourSpeechResoureKey pela chave de recurso de Fala, substitua YourServiceRegion pela região de recurso de Fala, substitua YourEndpointId pelo ID do ponto de extremidade e defina as propriedades do corpo da solicitação conforme descrito anteriormente.

curl -v -X PATCH -H "Ocp-Apim-Subscription-Key: YourSpeechResoureKey" -H "Content-Type: application/json" -d '{
  "model": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/bbbbcccc-1111-dddd-2222-eeee3333ffff"
  },
}'  "https://YourServiceRegion.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/YourEndpointId"

Deverá receber um corpo de resposta no seguinte formato:

{
  "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/aaaabbbb-0000-cccc-1111-dddd2222eeee",
  "model": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/bbbbcccc-1111-dddd-2222-eeee3333ffff"
  },
  "links": {
    "logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
    "restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee"
  },
  "project": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/ccccdddd-2222-eeee-3333-ffff4444aaaa"
  },
  "properties": {
    "loggingEnabled": true
  },
  "lastActionDateTime": "2024-07-15T16:30:12Z",
  "status": "Succeeded",
  "createdDateTime": "2024-07-15T16:29:36Z",
  "locale": "en-US",
  "displayName": "My Endpoint",
  "description": "My Endpoint Description"
}

A redistribuição demora vários minutos a concluir. Enquanto isso, seu endpoint usa o modelo anterior sem interrupção do serviço.

Ver dados de registo

Os dados de registro em log estarão disponíveis para exportação se você os tiver configurado durante a criação do ponto de extremidade.

Para baixar os logs de ponto de extremidade:

  1. Inicie sessão no Speech Studio.
  2. Selecione Fala> personalizada Seu nome >de projeto Implantar modelos.
  3. Selecione o link por nome do ponto final.
  4. Em Registo de conteúdos, selecione Transferir registo.

Antes de continuar, verifique se a CLI de fala está instalada e configurada.

Para obter logs para um ponto de extremidade, use o spx csr endpoint list comando. Construa os parâmetros de solicitação de acordo com as seguintes instruções:

  • Defina a propriedade endpoint obrigatória como o ID do ponto de extremidade que pretende obter logs.

Aqui está um exemplo de comando da CLI de fala que obtém logs para um ponto de extremidade:

spx csr endpoint list --api-version v3.2 --endpoint YourEndpointId

Importante

Você deve definir --api-version v3.2. A CLI de Fala usa a API REST, mas ainda não oferece suporte a versões posteriores ao v3.2.

Os locais de cada arquivo de log com mais detalhes são retornados no corpo da resposta.

Para obter logs para um ponto de extremidade, comece usando a operação Endpoints_Get da API REST de fala para texto.

Faça uma solicitação HTTP GET usando o URI, conforme mostrado no exemplo a seguir. Substitua YourEndpointId pelo ID do ponto de extremidade, substitua YourSpeechResoureKey pela chave de recurso Fala e substitua YourServiceRegion pela região do recurso Fala.

curl -v -X GET "https://YourServiceRegion.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/YourEndpointId" -H "Ocp-Apim-Subscription-Key: YourSpeechResoureKey"

Deverá receber um corpo de resposta no seguinte formato:

{
  "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/aaaabbbb-0000-cccc-1111-dddd2222eeee",
  "model": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/models/bbbbcccc-1111-dddd-2222-eeee3333ffff"
  },
  "links": {
    "logs": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/a07164e8-22d1-4eb7-aa31-bf6bb1097f37/files/logs",
    "restInteractive": "https://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "restConversation": "https://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "restDictation": "https://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketInteractive": "wss://eastus.stt.speech.microsoft.com/speech/recognition/interactive/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketConversation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/conversation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee",
    "webSocketDictation": "wss://eastus.stt.speech.microsoft.com/speech/recognition/dictation/cognitiveservices/v1?cid=aaaabbbb-0000-cccc-1111-dddd2222eeee"
  },
  "project": {
    "self": "https://eastus.api.cognitive.microsoft.com/speechtotext/v3.2/projects/ccccdddd-2222-eeee-3333-ffff4444aaaa"
  },
  "properties": {
    "loggingEnabled": true
  },
  "lastActionDateTime": "2024-07-15T16:30:12Z",
  "status": "Succeeded",
  "createdDateTime": "2024-07-15T16:29:36Z",
  "locale": "en-US",
  "displayName": "My Endpoint",
  "description": "My Endpoint Description"
}

Faça uma solicitação HTTP GET usando o URI "logs" do corpo de resposta anterior. Substitua YourEndpointId pelo ID do ponto de extremidade, substitua YourSpeechResoureKey pela chave de recurso Fala e substitua YourServiceRegion pela região do recurso Fala.

curl -v -X GET "https://YourServiceRegion.api.cognitive.microsoft.com/speechtotext/v3.2/endpoints/YourEndpointId/files/logs" -H "Ocp-Apim-Subscription-Key: YourSpeechResoureKey"

Os locais de cada arquivo de log com mais detalhes são retornados no corpo da resposta.

Os dados de registro ficam disponíveis no armazenamento de propriedade da Microsoft por 30 dias e, em seguida, são removidos. Se a sua própria conta de armazenamento estiver ligada à subscrição do Foundry Tools, os dados de registo não são automaticamente eliminados.