ClassicTokenizer interface
Tokenizator oparty na gramatyce, który jest odpowiedni do przetwarzania większości dokumentów w języku europejskim. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene.
- Rozszerzenie
Właściwości
| max |
Maksymalna długość tokenu. Wartość domyślna to 255. Tokeny dłuższe niż maksymalna długość są dzielone. Maksymalna długość tokenu, która może być używana, to 300 znaków. |
| odatatype | Dyskryminujący polimorficzny, który określa różne typy tego obiektu może być |
Właściwości dziedziczone
| name | Nazwa tokenizatora. Musi zawierać tylko litery, cyfry, spacje, kreski lub podkreślenia, mogą zaczynać i kończyć się tylko znakami alfanumerycznymi i jest ograniczona do 128 znaków. |
Szczegóły właściwości
maxTokenLength
Maksymalna długość tokenu. Wartość domyślna to 255. Tokeny dłuższe niż maksymalna długość są dzielone. Maksymalna długość tokenu, która może być używana, to 300 znaków.
maxTokenLength?: number
Wartość właściwości
number
odatatype
Dyskryminujący polimorficzny, który określa różne typy tego obiektu może być
odatatype: "#Microsoft.Azure.Search.ClassicTokenizer"
Wartość właściwości
"#Microsoft.Azure.Search.ClassicTokenizer"
Szczegóły właściwości dziedziczonej
name
Nazwa tokenizatora. Musi zawierać tylko litery, cyfry, spacje, kreski lub podkreślenia, mogą zaczynać i kończyć się tylko znakami alfanumerycznymi i jest ograniczona do 128 znaków.
name: string
Wartość właściwości
string
Odziedziczone poLexicalTokenizer.name