Compartir a través de


Indexes - Analyze

Muestra cómo un analizador divide el texto en tokens.

POST {endpoint}/indexes('{indexName}')/search.analyze?api-version=2025-09-01

Parámetros de identificador URI

Nombre En Requerido Tipo Description
endpoint
path True

string

La dirección URL del punto de conexión del servicio de búsqueda.

indexName
path True

string

Nombre del índice para el que se va a probar un analizador.

api-version
query True

string

Versión de api de cliente.

Encabezado de la solicitud

Nombre Requerido Tipo Description
x-ms-client-request-id

string (uuid)

El identificador de seguimiento enviado con la solicitud para ayudar con la depuración.

Cuerpo de la solicitud

Nombre Requerido Tipo Description
text True

string

El texto para dividir en fichas.

analyzer

LexicalAnalyzerName

El nombre del analizador que se va a usar para dividir el texto especificado. Si no se especifica este parámetro, debe especificar un tokenizador en su lugar. Los parámetros tokenizer y analyzer son mutuamente excluyentes.

charFilters

CharFilterName[]

Una lista opcional de filtros de caracteres para usar al dividir el texto dado. Este parámetro solo se puede establecer cuando se usa el parámetro tokenizer.

normalizer

LexicalNormalizerName

El nombre del normalizador que se usará para normalizar el texto dado.

tokenFilters

TokenFilterName[]

Una lista opcional de filtros de token que se usarán al dividir el texto dado. Este parámetro solo se puede establecer cuando se usa el parámetro tokenizer.

tokenizer

LexicalTokenizerName

El nombre del tokenizador que se usará para romper el texto dado. Si no se especifica este parámetro, debe especificar un analizador en su lugar. Los parámetros tokenizer y analyzer son mutuamente excluyentes.

Respuestas

Nombre Tipo Description
200 OK

AnalyzeResult

Other Status Codes

ErrorResponse

Respuesta de error.

Ejemplos

SearchServiceIndexAnalyze

Solicitud de ejemplo

POST https://stableexampleservice.search.windows.net/indexes('stable-test')/search.analyze?api-version=2025-09-01


{
  "text": "Text to analyze",
  "analyzer": "ar.lucene"
}

Respuesta de muestra

{
  "tokens": [
    {
      "token": "text",
      "startOffset": 0,
      "endOffset": 4,
      "position": 0
    },
    {
      "token": "to",
      "startOffset": 5,
      "endOffset": 7,
      "position": 1
    },
    {
      "token": "analyze",
      "startOffset": 8,
      "endOffset": 15,
      "position": 2
    }
  ]
}

Definiciones

Nombre Description
AnalyzedTokenInfo

Información sobre un token devuelto por un analizador.

AnalyzeRequest

Especifica algunos componentes de texto y análisis que se usan para dividir ese texto en tokens.

AnalyzeResult

El resultado de probar un analizador en texto.

CharFilterName

Define los nombres de todos los filtros de caracteres admitidos por el motor de búsqueda.

ErrorAdditionalInfo

Información adicional sobre el error de administración de recursos.

ErrorDetail

Detalle del error.

ErrorResponse

Respuesta de error

LexicalAnalyzerName

Define los nombres de todos los analizadores de texto compatibles con el motor de búsqueda.

LexicalNormalizerName

Define los nombres de todos los normalizadores de texto admitidos por el motor de búsqueda.

LexicalTokenizerName

Define los nombres de todos los tokenizadores admitidos por el motor de búsqueda.

TokenFilterName

Define los nombres de todos los filtros de token admitidos por el motor de búsqueda.

AnalyzedTokenInfo

Información sobre un token devuelto por un analizador.

Nombre Tipo Description
endOffset

integer (int32)

El índice del último carácter del token en el texto de entrada.

position

integer (int32)

La posición del token en el texto de entrada en relación con otros tokens. El primer token en el texto de entrada tiene la posición 0, el siguiente tiene la posición 1, y así sucesivamente. Dependiendo del analizador utilizado, algunos tokens pueden tener la misma posición, por ejemplo, si son sinónimos entre sí.

startOffset

integer (int32)

El índice del primer carácter del token en el texto de entrada.

token

string

El token devuelto por el analizador.

AnalyzeRequest

Especifica algunos componentes de texto y análisis que se usan para dividir ese texto en tokens.

Nombre Tipo Description
analyzer

LexicalAnalyzerName

El nombre del analizador que se va a usar para dividir el texto especificado. Si no se especifica este parámetro, debe especificar un tokenizador en su lugar. Los parámetros tokenizer y analyzer son mutuamente excluyentes.

charFilters

CharFilterName[]

Una lista opcional de filtros de caracteres para usar al dividir el texto dado. Este parámetro solo se puede establecer cuando se usa el parámetro tokenizer.

normalizer

LexicalNormalizerName

El nombre del normalizador que se usará para normalizar el texto dado.

text

string

El texto para dividir en fichas.

tokenFilters

TokenFilterName[]

Una lista opcional de filtros de token que se usarán al dividir el texto dado. Este parámetro solo se puede establecer cuando se usa el parámetro tokenizer.

tokenizer

LexicalTokenizerName

El nombre del tokenizador que se usará para romper el texto dado. Si no se especifica este parámetro, debe especificar un analizador en su lugar. Los parámetros tokenizer y analyzer son mutuamente excluyentes.

AnalyzeResult

El resultado de probar un analizador en texto.

Nombre Tipo Description
tokens

AnalyzedTokenInfo[]

La lista de tokens devueltos por el analizador especificado en la solicitud.

CharFilterName

Define los nombres de todos los filtros de caracteres admitidos por el motor de búsqueda.

Valor Description
html_strip

Un filtro de caracteres que intenta eliminar las construcciones HTML. Vea https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html.

ErrorAdditionalInfo

Información adicional sobre el error de administración de recursos.

Nombre Tipo Description
info

object

Información adicional.

type

string

Tipo de información adicional.

ErrorDetail

Detalle del error.

Nombre Tipo Description
additionalInfo

ErrorAdditionalInfo[]

Información adicional del error.

code

string

Código de error.

details

ErrorDetail[]

Detalles del error.

message

string

El mensaje de error.

target

string

Destino del error.

ErrorResponse

Respuesta de error

Nombre Tipo Description
error

ErrorDetail

Objeto de error.

LexicalAnalyzerName

Define los nombres de todos los analizadores de texto compatibles con el motor de búsqueda.

Valor Description
ar.microsoft

Analizador de Microsoft para árabe.

ar.lucene

Analizador Lucene para árabe.

hy.lucene

Analizador Lucene para armenio.

bn.microsoft

Analizador de Microsoft para bengalí.

eu.lucene

Analizador Lucene para euskera.

bg.microsoft

Analizador de Microsoft para búlgaro.

bg.lucene

Analizador Lucene para búlgaro.

ca.microsoft

Microsoft analyzer for Catalan.

ca.lucene

Analizador Lucene para catalán.

zh-Hans.microsoft

Analizador de Microsoft para chino (simplificado).

zh-Hans.lucene

Analizador Lucene para chino (simplificado).

zh-Hant.microsoft

Analizador de Microsoft para chino (tradicional).

zh-Hant.lucene

Analizador Lucene para chino (tradicional).

hr.microsoft

Analizador de Microsoft para croata.

cs.microsoft

Analizador de Microsoft para checo.

cs.lucene

Analizador Lucene para checo.

da.microsoft

Microsoft analyzer for Danish.

da.lucene

Analizador Lucene para danés.

nl.microsoft

Analizador de Microsoft para holandés.

nl.lucene

Analizador Lucene para holandés.

en.microsoft

Analizador de Microsoft para inglés.

en.lucene

Analizador Lucene para inglés.

et.microsoft

Microsoft analyzer for Estonian.

fi.microsoft

Microsoft analyzer para finlandés.

fi.lucene

Analizador Lucene para finlandés.

fr.microsoft

Analizador de Microsoft para francés.

fr.lucene

Analizador Lucene para francés.

gl.lucene

Analizador Lucene para gallego.

de.microsoft

Analizador de Microsoft para alemán.

de.lucene

Analizador Lucene para alemán.

el.microsoft

Analizador de Microsoft para griego.

el.lucene

Analizador Lucene para griego.

gu.microsoft

Analizador de Microsoft para gujarati.

he.microsoft

Analizador de Microsoft para hebreo.

hi.microsoft

Analizador de Microsoft para hindi.

hi.lucene

Analizador Lucene para hindi.

hu.microsoft

Analizador de Microsoft para húngaro.

hu.lucene

Analizador Lucene para húngaro.

is.microsoft

Analizador de Microsoft para islandés.

id.microsoft

Analizador de Microsoft para indonesio (bahasa).

id.lucene

Analizador Lucene para indonesio.

ga.lucene

Analizador Lucene para irlandés.

it.microsoft

Analizador de Microsoft para italiano.

it.lucene

Analizador Lucene para italiano.

ja.microsoft

Analizador de Microsoft para japonés.

ja.lucene

Analizador Lucene para japonés.

kn.microsoft

Analizador de Microsoft para kannada.

ko.microsoft

Analizador de Microsoft para coreano.

ko.lucene

Analizador Lucene para coreano.

lv.microsoft

Analizador de Microsoft para letón.

lv.lucene

Analizador Lucene para letón.

lt.microsoft

Analizador de Microsoft para lituano.

ml.microsoft

Analizador de Microsoft para malayalam.

ms.microsoft

Analizador de Microsoft para malayo (latín).

mr.microsoft

Analizador de Microsoft para marathi.

nb.microsoft

Microsoft analyzer for Norwegian (Bokmål).

no.lucene

Analizador Lucene para noruego.

fa.lucene

Analizador Lucene para persa.

pl.microsoft

Analizador de Microsoft para polaco.

pl.lucene

Analizador Lucene para polaco.

pt-BR.microsoft

Analizador de Microsoft para portugués (Brasil).

pt-BR.lucene

Analizador Lucene para portugués (Brasil).

pt-PT.microsoft

Analizador de Microsoft para portugués (Portugal).

pt-PT.lucene

Analizador Lucene para portugués (Portugal).

pa.microsoft

Analizador de Microsoft para punjabi.

ro.microsoft

Analizador de Microsoft para rumano.

ro.lucene

Analizador Lucene para rumano.

ru.microsoft

Analizador de Microsoft para ruso.

ru.lucene

Analizador Lucene para ruso.

sr-cyrillic.microsoft

Analizador de Microsoft para serbio (cirílico).

sr-latin.microsoft

Analizador de Microsoft para serbio (latín).

sk.microsoft

Microsoft analyzer for Slovak.

sl.microsoft

Microsoft analyzer for Slovenian.

es.microsoft

Analizador de Microsoft para español.

es.lucene

Analizador Lucene para español.

sv.microsoft

Microsoft analyzer para sueco.

sv.lucene

Analizador Lucene para sueco.

ta.microsoft

Analizador de Microsoft para tamil.

te.microsoft

Analizador de Microsoft para telugu.

th.microsoft

Analizador de Microsoft para tailandés.

th.lucene

Analizador Lucene para tailandés.

tr.microsoft

Analizador de Microsoft para turco.

tr.lucene

Analizador Lucene para turco.

uk.microsoft

Analizador de Microsoft para ucraniano.

ur.microsoft

Microsoft analyzer for Urdu.

vi.microsoft

Analizador de Microsoft para vietnamita.

standard.lucene

Analizador Lucene estándar.

standardasciifolding.lucene

Analizador Lucene plegable ASCII estándar. Vea https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers.

keyword

Trata todo el contenido de un campo como un único token. Esto es útil para datos como códigos postales, identificadores y algunos nombres de productos. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html.

pattern

Separa el texto de forma flexible en términos a través de un patrón de expresión regular. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html.

simple

Divide el texto en letras distintas y las convierte en minúsculas. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html.

stop

Divide el texto en no letras; Aplica los filtros de token de minúsculas y palabras irrelevantes. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html.

whitespace

Un analizador que usa el tokenizador de espacios en blanco. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html.

LexicalNormalizerName

Define los nombres de todos los normalizadores de texto admitidos por el motor de búsqueda.

Valor Description
asciifolding

Convierte los caracteres Unicode alfabéticos, numéricos y simbólicos que no están en los primeros 127 caracteres ASCII (el bloque Unicode "Latín básico") en sus equivalentes ASCII, si existen dichos equivalentes. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html.

elision

Elimina elisiones. Por ejemplo, "l'avion" (el avión) se convertirá en "avion" (avión). Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html.

lowercase

Normaliza el texto del token a minúsculas. Vea https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html.

standard

Normalizador estándar, que consta de minúsculas y asciifolding. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html.

uppercase

Normaliza el texto del token en mayúsculas. Vea https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html.

LexicalTokenizerName

Define los nombres de todos los tokenizadores admitidos por el motor de búsqueda.

Valor Description
classic

Tokenizador basado en gramática que es adecuado para procesar la mayoría de los documentos en idiomas europeos. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html.

edgeNGram

Tokeniza la entrada de un borde en n-gramas de los tamaños dados. Vea https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html.

keyword_v2

Emite toda la entrada como un solo token. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html.

letter

Divide el texto en no letras. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html.

lowercase

Divide el texto en letras distintas y las convierte en minúsculas. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html.

microsoft_language_tokenizer

Divide el texto utilizando reglas específicas del idioma.

microsoft_language_stemming_tokenizer

Divide el texto utilizando reglas específicas del idioma y reduce las palabras a sus formas base.

nGram

Tokeniza la entrada en n-gramas de los tamaños dados. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html.

path_hierarchy_v2

Tokenizador para jerarquías similares a rutas. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html.

pattern

Tokenizador que utiliza la coincidencia de patrones de expresiones regulares para construir tokens distintos. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html.

standard_v2

Analizador Lucene estándar; Compuesto por el tokenizador estándar, el filtro en minúsculas y el filtro de parada. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html.

uax_url_email

Tokeniza las URL y los correos electrónicos como un token. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html.

whitespace

Divide el texto en espacios en blanco. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html.

TokenFilterName

Define los nombres de todos los filtros de token admitidos por el motor de búsqueda.

Valor Description
arabic_normalization

Un filtro de token que aplica el normalizador árabe para normalizar la ortografía. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html.

apostrophe

Elimina todos los caracteres después de un apóstrofo (incluido el propio apóstrofe). Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html.

asciifolding

Convierte los caracteres Unicode alfabéticos, numéricos y simbólicos que no están en los primeros 127 caracteres ASCII (el bloque Unicode "Latín básico") en sus equivalentes ASCII, si existen dichos equivalentes. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html.

cjk_bigram

Forma bigramas de términos CJK que se generan a partir del tokenizador estándar. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html.

cjk_width

Normaliza las diferencias de ancho de CJK. Pliega las variantes ASCII de ancho completo en el latín básico equivalente y las variantes de Katakana de ancho medio en el Kana equivalente. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html.

classic

Elimina los posesivos en inglés y los puntos de los acrónimos. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html.

common_grams

Construya bigramas para términos frecuentes durante la indexación. Los términos individuales también están indexados, con bigramas superpuestos. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html.

edgeNGram_v2

Genera n-gramas de los tamaños dados a partir de la parte delantera o posterior de un token de entrada. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html.

elision

Elimina elisiones. Por ejemplo, "l'avion" (el avión) se convertirá en "avion" (avión). Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html.

german_normalization

Normaliza los caracteres alemanes según la heurística del algoritmo de bola de nieve German2. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html.

hindi_normalization

Normaliza el texto en hindi para eliminar algunas diferencias en las variaciones ortográficas. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html.

indic_normalization

Normaliza la representación Unicode del texto en idiomas indios. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html.

keyword_repeat

Emite cada token entrante dos veces, una como palabra clave y otra como palabra no clave. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html.

kstem

Un filtro kstem de alto rendimiento para inglés. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html.

length

Elimina palabras que son demasiado largas o demasiado cortas. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html.

limit

Limita el número de tokens durante la indexación. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html.

lowercase

Normaliza el texto del token a minúsculas. Vea https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html.

nGram_v2

Genera n-gramas de los tamaños dados. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html.

persian_normalization

Aplica la normalización para el persa. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html.

phonetic

Cree tokens para coincidencias fonéticas. Vea https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html.

porter_stem

Utiliza el algoritmo de derivación de Porter para transformar el flujo de tokens. Vea http://tartarus.org/~martin/PorterStemmer.

reverse

Invierte la cadena de token. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html.

scandinavian_normalization

Normaliza el uso de los caracteres escandinavos intercambiables. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html.

scandinavian_folding

Pliega los caracteres escandinavos åÅäæÄÆ-a> y öÖøØ-o>. También discrimina el uso de vocales dobles aa, ae, ao, oe y oo, dejando solo la primera. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html.

shingle

Crea combinaciones de tokens como un solo token. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html.

snowball

Filtro que deriva palabras mediante un lematizador generado por Snowball. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html.

sorani_normalization

Normaliza la representación Unicode del texto sorani. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html.

stemmer

Filtro de lematización específico del idioma. Vea https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters.

stopwords

Quita las palabras vacías de una secuencia de tokens. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html.

trim

Recorta los espacios en blanco iniciales y finales de los tokens. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html.

truncate

Trunca los términos a una longitud específica. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html.

unique

Filtra los tokens con el mismo texto que el token anterior. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html.

uppercase

Normaliza el texto del token a mayúsculas. Vea https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html.

word_delimiter

Divide las palabras en subpalabras y realiza transformaciones opcionales en grupos de subpalabras.