NGramTokenizer interface
Tokeniza la entrada en n-gramas de los tamaños especificados. Este tokenizador se implementa mediante Apache Lucene.
- Extends
Propiedades
| max |
Longitud máxima de n-gramas. El valor predeterminado es 2. El máximo es 300. |
| min |
Longitud mínima de n-gramas. El valor predeterminado es 1. El máximo es 300. Debe ser menor que el valor de maxGram. |
| odatatype | Discriminador polimórfico, que especifica los distintos tipos que puede ser este objeto. |
| token |
Clases de caracteres que se mantendrán en los tokens. |
Propiedades heredadas
| name | Nombre del tokenizador. Solo debe contener letras, dígitos, espacios, guiones o caracteres de subrayado, solo puede comenzar y terminar con caracteres alfanuméricos y está limitado a 128 caracteres. |
Detalles de las propiedades
maxGram
Longitud máxima de n-gramas. El valor predeterminado es 2. El máximo es 300.
maxGram?: number
Valor de propiedad
number
minGram
Longitud mínima de n-gramas. El valor predeterminado es 1. El máximo es 300. Debe ser menor que el valor de maxGram.
minGram?: number
Valor de propiedad
number
odatatype
Discriminador polimórfico, que especifica los distintos tipos que puede ser este objeto.
odatatype: "#Microsoft.Azure.Search.NGramTokenizer"
Valor de propiedad
"#Microsoft.Azure.Search.NGramTokenizer"
tokenChars
Clases de caracteres que se mantendrán en los tokens.
tokenChars?: TokenCharacterKind[]
Valor de propiedad
Detalles de las propiedades heredadas
name
Nombre del tokenizador. Solo debe contener letras, dígitos, espacios, guiones o caracteres de subrayado, solo puede comenzar y terminar con caracteres alfanuméricos y está limitado a 128 caracteres.
name: string
Valor de propiedad
string
Heredado deLexicalTokenizer.name