Indexes - Analyze
Mostra como um analisador divide o texto em tokens.
POST {endpoint}/indexes('{indexName}')/search.analyze?api-version=2025-09-01
Parâmetros do URI
| Name | Em | Necessário | Tipo | Description |
|---|---|---|---|---|
|
endpoint
|
path | True |
string |
A URL do ponto de extremidade do serviço de pesquisa. |
|
index
|
path | True |
string |
O nome do índice para o qual testar um analisador. |
|
api-version
|
query | True |
string |
Versão da API do cliente. |
Cabeçalho do Pedido
| Name | Necessário | Tipo | Description |
|---|---|---|---|
| x-ms-client-request-id |
string (uuid) |
O ID de rastreamento enviado com a solicitação para ajudar com a depuração. |
Corpo do Pedido
| Name | Necessário | Tipo | Description |
|---|---|---|---|
| text | True |
string |
O texto para dividir em tokens. |
| analyzer |
O nome do analisador a ser usado para quebrar o texto fornecido. Se esse parâmetro não for especificado, você deverá especificar um tokenizador. Os parâmetros do tokenizador e do analisador são mutuamente exclusivos. |
||
| charFilters |
Uma lista opcional de filtros de caracteres para usar ao quebrar o texto determinado. Este parâmetro só pode ser definido ao usar o parâmetro tokenizer. |
||
| normalizer |
O nome do normalizador a ser usado para normalizar o texto fornecido. |
||
| tokenFilters |
Uma lista opcional de filtros de token para usar ao quebrar o texto fornecido. Este parâmetro só pode ser definido ao usar o parâmetro tokenizer. |
||
| tokenizer |
O nome do tokenizador a ser usado para quebrar o texto fornecido. Se esse parâmetro não for especificado, você deverá especificar um analisador. Os parâmetros do tokenizador e do analisador são mutuamente exclusivos. |
Respostas
| Name | Tipo | Description |
|---|---|---|
| 200 OK | ||
| Other Status Codes |
Resposta de erro. |
Exemplos
SearchServiceIndexAnalyze
Pedido de amostra
POST https://stableexampleservice.search.windows.net/indexes('stable-test')/search.analyze?api-version=2025-09-01
{
"text": "Text to analyze",
"analyzer": "ar.lucene"
}
Resposta da amostra
{
"tokens": [
{
"token": "text",
"startOffset": 0,
"endOffset": 4,
"position": 0
},
{
"token": "to",
"startOffset": 5,
"endOffset": 7,
"position": 1
},
{
"token": "analyze",
"startOffset": 8,
"endOffset": 15,
"position": 2
}
]
}
Definições
| Name | Description |
|---|---|
|
Analyzed |
Informações sobre um token retornado por um analisador. |
|
Analyze |
Especifica alguns componentes de texto e análise usados para dividir esse texto em tokens. |
|
Analyze |
O resultado do teste de um analisador em texto. |
|
Char |
Define os nomes de todos os filtros de caracteres suportados pelo mecanismo de pesquisa. |
|
Error |
O erro de gerenciamento de recursos informações adicionais. |
|
Error |
O detalhe do erro. |
|
Error |
Resposta de erro |
|
Lexical |
Define os nomes de todos os analisadores de texto suportados pelo mecanismo de pesquisa. |
|
Lexical |
Define os nomes de todos os normalizadores de texto suportados pelo mecanismo de pesquisa. |
|
Lexical |
Define os nomes de todos os tokenizadores suportados pelo mecanismo de pesquisa. |
|
Token |
Define os nomes de todos os filtros de token suportados pelo mecanismo de pesquisa. |
AnalyzedTokenInfo
Informações sobre um token retornado por um analisador.
| Name | Tipo | Description |
|---|---|---|
| endOffset |
integer (int32) |
O índice do último caractere do token no texto de entrada. |
| position |
integer (int32) |
A posição do token no texto de entrada em relação a outros tokens. O primeiro token no texto de entrada tem a posição 0, o próximo tem a posição 1 e assim por diante. Dependendo do analisador usado, alguns tokens podem ter a mesma posição, por exemplo, se forem sinônimos uns dos outros. |
| startOffset |
integer (int32) |
O índice do primeiro caractere do token no texto de entrada. |
| token |
string |
O token retornado pelo analisador. |
AnalyzeRequest
Especifica alguns componentes de texto e análise usados para dividir esse texto em tokens.
| Name | Tipo | Description |
|---|---|---|
| analyzer |
O nome do analisador a ser usado para quebrar o texto fornecido. Se esse parâmetro não for especificado, você deverá especificar um tokenizador. Os parâmetros do tokenizador e do analisador são mutuamente exclusivos. |
|
| charFilters |
Uma lista opcional de filtros de caracteres para usar ao quebrar o texto determinado. Este parâmetro só pode ser definido ao usar o parâmetro tokenizer. |
|
| normalizer |
O nome do normalizador a ser usado para normalizar o texto fornecido. |
|
| text |
string |
O texto para dividir em tokens. |
| tokenFilters |
Uma lista opcional de filtros de token para usar ao quebrar o texto fornecido. Este parâmetro só pode ser definido ao usar o parâmetro tokenizer. |
|
| tokenizer |
O nome do tokenizador a ser usado para quebrar o texto fornecido. Se esse parâmetro não for especificado, você deverá especificar um analisador. Os parâmetros do tokenizador e do analisador são mutuamente exclusivos. |
AnalyzeResult
O resultado do teste de um analisador em texto.
| Name | Tipo | Description |
|---|---|---|
| tokens |
A lista de tokens retornados pelo analisador especificado na solicitação. |
CharFilterName
Define os nomes de todos os filtros de caracteres suportados pelo mecanismo de pesquisa.
| Valor | Description |
|---|---|
| html_strip |
Um filtro de caracteres que tenta remover construções HTML. Ver https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html |
ErrorAdditionalInfo
O erro de gerenciamento de recursos informações adicionais.
| Name | Tipo | Description |
|---|---|---|
| info |
object |
As informações adicionais. |
| type |
string |
O tipo de informação adicional. |
ErrorDetail
O detalhe do erro.
| Name | Tipo | Description |
|---|---|---|
| additionalInfo |
O erro informações adicionais. |
|
| code |
string |
O código de erro. |
| details |
Os detalhes do erro. |
|
| message |
string |
A mensagem de erro. |
| target |
string |
O destino do erro. |
ErrorResponse
Resposta de erro
| Name | Tipo | Description |
|---|---|---|
| error |
O objeto de erro. |
LexicalAnalyzerName
Define os nomes de todos os analisadores de texto suportados pelo mecanismo de pesquisa.
| Valor | Description |
|---|---|
| ar.microsoft |
Microsoft analyzer para árabe. |
| ar.lucene |
Analisador de Lucene para árabe. |
| hy.lucene |
Analisador de Lucene para arménio. |
| bn.microsoft |
Microsoft analyzer para Bangla. |
| eu.lucene |
Analisador Lucene para basco. |
| bg.microsoft |
Microsoft analyzer para búlgaro. |
| bg.lucene |
Lucene analisador para búlgaro. |
| ca.microsoft |
Microsoft analyzer para catalão. |
| ca.lucene |
Lucene analisador para catalão. |
| zh-Hans.microsoft |
Microsoft analyzer para chinês (simplificado). |
| zh-Hans.lucene |
Analisador Lucene para chinês (simplificado). |
| zh-Hant.microsoft |
Microsoft analyzer para chinês (tradicional). |
| zh-Hant.lucene |
Analisador de Lucene para chinês (tradicional). |
| hr.microsoft |
Microsoft analyzer para croata. |
| cs.microsoft |
Microsoft analyzer para checo. |
| cs.lucene |
Lucene analisador para checo. |
| da.microsoft |
Microsoft analyzer para dinamarquês. |
| da.lucene |
Lucene analisador para dinamarquês. |
| nl.microsoft |
Microsoft analyzer para holandês. |
| nl.lucene |
Analisador Lucene para holandês. |
| en.microsoft |
Microsoft analyzer para inglês. |
| en.lucene |
Analisador Lucene para Inglês. |
| et.microsoft |
Microsoft analyzer para estónio. |
| fi.microsoft |
Microsoft analyzer para finlandês. |
| fi.lucene |
Analisador de Lucene para finlandês. |
| fr.microsoft |
Microsoft analyzer para francês. |
| fr.lucene |
Analisador Lucene para francês. |
| gl.lucene |
Lucene analisador para galego. |
| de.microsoft |
Microsoft analyzer para alemão. |
| de.lucene |
Lucene analisador para alemão. |
| el.microsoft |
Microsoft analyzer para grego. |
| el.lucene |
Analisador de Lucene para grego. |
| gu.microsoft |
Microsoft analyzer para Gujarati. |
| he.microsoft |
Microsoft analyzer para hebraico. |
| hi.microsoft |
Microsoft analyzer para Hindi. |
| hi.lucene |
Analisador de Lucene para Hindi. |
| hu.microsoft |
Microsoft analyzer para húngaro. |
| hu.lucene |
Lucene analisador para húngaro. |
| is.microsoft |
Microsoft analyzer para islandês. |
| id.microsoft |
Microsoft analyzer para indonésio (Bahasa). |
| id.lucene |
Analisador de Lucene para indonésio. |
| ga.lucene |
Lucene analisador para irlandês. |
| it.microsoft |
Microsoft analyzer para italiano. |
| it.lucene |
Analisador Lucene para italiano. |
| ja.microsoft |
Microsoft analyzer para japonês. |
| ja.lucene |
Analisador Lucene para japonês. |
| kn.microsoft |
Microsoft analyzer para Kannada. |
| ko.microsoft |
Microsoft analyzer para coreano. |
| ko.lucene |
Analisador Lucene para coreano. |
| lv.microsoft |
Microsoft analyzer para letão. |
| lv.lucene |
Analisador Lucene para letão. |
| lt.microsoft |
Microsoft analyzer para lituano. |
| ml.microsoft |
Microsoft analyzer para Malayalam. |
| ms.microsoft |
Microsoft analyzer para malaio (latim). |
| mr.microsoft |
Analisador Microsoft para Marathi. |
| nb.microsoft |
Analisador Microsoft para norueguês (Bokmål). |
| no.lucene |
Analisador Lucene para norueguês. |
| fa.lucene |
Analisador de Lucene para persa. |
| pl.microsoft |
Microsoft analyzer para polonês. |
| pl.lucene |
Analisador de Lucene para polaco. |
| pt-BR.microsoft |
Microsoft analyzer para Português (Brasil). |
| pt-BR.lucene |
Analisador Lucene para Português (Brasil). |
| pt-PT.microsoft |
Microsoft analyzer para Português (Portugal). |
| pt-PT.lucene |
Analisador de Lucene para Português (Portugal). |
| pa.microsoft |
Microsoft analyzer para Punjabi. |
| ro.microsoft |
Microsoft analyzer para romeno. |
| ro.lucene |
Lucene analisador para romeno. |
| ru.microsoft |
Microsoft analyzer para russo. |
| ru.lucene |
Lucene analisador para russo. |
| sr-cyrillic.microsoft |
Microsoft analyzer para sérvio (cirílico). |
| sr-latin.microsoft |
Microsoft analyzer para sérvio (latim). |
| sk.microsoft |
Microsoft analyzer para eslovaco. |
| sl.microsoft |
Microsoft analyzer para esloveno. |
| es.microsoft |
Microsoft analyzer para espanhol. |
| es.lucene |
Analisador Lucene para espanhol. |
| sv.microsoft |
Microsoft analyzer para sueco. |
| sv.lucene |
Lucene analisador para sueco. |
| ta.microsoft |
Microsoft analyzer para Tamil. |
| te.microsoft |
Microsoft analyzer para Telugu. |
| th.microsoft |
Microsoft analyzer para tailandês. |
| th.lucene |
Lucene analisador para tailandês. |
| tr.microsoft |
Microsoft analyzer para turco. |
| tr.lucene |
Lucene analisador para turco. |
| uk.microsoft |
Microsoft analyzer para ucraniano. |
| ur.microsoft |
Microsoft analyzer para Urdu. |
| vi.microsoft |
Microsoft analyzer para vietnamita. |
| standard.lucene |
Analisador Lucene padrão. |
| standardasciifolding.lucene |
Analisador padrão ASCII Folding Lucene. Ver https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers |
| keyword |
Trata todo o conteúdo de um campo como um único token. Isso é útil para dados como códigos postais, ids e alguns nomes de produtos. Ver http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html |
| pattern |
Separa o texto de forma flexível em termos através de um padrão de expressão regular. Ver http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html |
| simple |
Divide o texto em letras não escritas e converte-as em minúsculas. Ver http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html |
| stop |
Divide o texto em não-letras; Aplica os filtros de token minúsculo e stopword. Ver http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html |
| whitespace |
Um analisador que usa o tokenizador de espaço em branco. Ver http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html |
LexicalNormalizerName
Define os nomes de todos os normalizadores de texto suportados pelo mecanismo de pesquisa.
LexicalTokenizerName
Define os nomes de todos os tokenizadores suportados pelo mecanismo de pesquisa.
TokenFilterName
Define os nomes de todos os filtros de token suportados pelo mecanismo de pesquisa.