TokenFilterName type
Define valores para TokenFilterName.
<xref:KnownTokenFilterName> se puede usar indistintamente con TokenFilterName, esta enumeración contiene los valores conocidos que admite el servicio.
Valores conocidos admitidos por el servicio
arabic_normalization: filtro de token que aplica el normalizador árabe para normalizar la ortografía. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html.
apóstrofo: tira todos los caracteres después de un apóstrofo (incluido el apóstrofo en sí). Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html.
asciifolding: convierte caracteres unicode alfabéticos, numéricos y simbólicos que no están en los primeros 127 caracteres ASCII (el bloque Unicode "Básico latino") en sus equivalentes ASCII, si existen dichos equivalentes. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html.
cjk_bigram: forma bigrams de términos de CJK que se generan a partir del tokenizador estándar. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html.
cjk_width: normaliza las diferencias de ancho de CJK. Plega las variantes ASCII de fullwidth en el latino básico equivalente y las variantes katakana de ancho medio en el kana equivalente. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html.
clásico: quita los posesivos en inglés y los puntos de los acrónimos. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html.
common_grams: construya bigrams para términos que se producen con frecuencia durante la indexación. Los términos únicos todavía se indexan también, con bigrams superpuestos. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html.
edgeNGram_v2: genera n-gramas de los tamaños especificados a partir de la parte delantera o posterior de un token de entrada. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html.
elision: quita los elisiones. Por ejemplo, "l'avion" (el plano) se convertirá en "avion" (plano). Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html.
german_normalization: normaliza los caracteres alemanes según la heurística del algoritmo de bola de nieve alemán2. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html.
hindi_normalization: normaliza el texto en hindi para eliminar algunas diferencias en las variaciones ortográficas. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html.
indic_normalization: normaliza la representación Unicode del texto en idiomas indios. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html.
keyword_repeat: emite cada token entrante dos veces, una como palabra clave y una como no palabra clave. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html.
kstem: un filtro kstem de alto rendimiento para inglés. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html.
longitud: quita las palabras que son demasiado largas o demasiado cortas. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html.
límite: limita el número de tokens durante la indexación. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html.
minúsculas: normaliza el texto del token en minúsculas. Vea https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html.
nGram_v2: genera n-gramas de los tamaños especificados. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html.
persian_normalization: aplica la normalización para persas. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html.
fonética: crear tokens para coincidencias fonéticas. Vea https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html.
porter_stem: usa el algoritmo de lematización porter para transformar la secuencia de tokens. Vea http://tartarus.org/~martin/PorterStemmer.
inverso: invierte la cadena del token. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html.
scandinavian_normalization: normaliza el uso de los caracteres escandinavos intercambiables. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html.
scandinavian_folding: dobla caracteres escandinavos åÅäæÄÆ->a y öÖøØ->o. También discrimina el uso de vocales dobles aa, ae, ao, oe y oo, dejando solo el primero. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html.
de shingle: crea combinaciones de tokens como un solo token. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html.
bola de nieve: un filtro que deriva las palabras mediante un lematizador generado por Snowball. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html.
sorani_normalization: normaliza la representación Unicode del texto Sorani. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html.
lematizador: filtro de lematización específico del idioma. Vea https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters.
palabras irrelevantes: quita las palabras irrelevantes de una secuencia de tokens. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html.
recorte: recorta el espacio en blanco inicial y final de los tokens. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html.
truncar: trunca los términos a una longitud específica. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html.
único: filtra los tokens con el mismo texto que el token anterior. Vea http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html.
mayúsculas: normaliza el texto del token en mayúsculas. Vea https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html.
word_delimiter: divide palabras en subpalabras y realiza transformaciones opcionales en los grupos de subwords.
type TokenFilterName = string