Udostępnij przez


ClassicTokenizer interface

Tokenizator oparty na gramatyce, który jest odpowiedni do przetwarzania większości dokumentów w języku europejskim. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene.

Rozszerzenie

Właściwości

maxTokenLength

Maksymalna długość tokenu. Wartość domyślna to 255. Tokeny dłuższe niż maksymalna długość są dzielone. Maksymalna długość tokenu, która może być używana, to 300 znaków.

odatatype

Dyskryminujący polimorficzny, który określa różne typy tego obiektu może być

Właściwości dziedziczone

name

Nazwa tokenizatora. Musi zawierać tylko litery, cyfry, spacje, kreski lub podkreślenia, mogą zaczynać i kończyć się tylko znakami alfanumerycznymi i jest ograniczona do 128 znaków.

Szczegóły właściwości

maxTokenLength

Maksymalna długość tokenu. Wartość domyślna to 255. Tokeny dłuższe niż maksymalna długość są dzielone. Maksymalna długość tokenu, która może być używana, to 300 znaków.

maxTokenLength?: number

Wartość właściwości

number

odatatype

Dyskryminujący polimorficzny, który określa różne typy tego obiektu może być

odatatype: "#Microsoft.Azure.Search.ClassicTokenizer"

Wartość właściwości

"#Microsoft.Azure.Search.ClassicTokenizer"

Szczegóły właściwości dziedziczonej

name

Nazwa tokenizatora. Musi zawierać tylko litery, cyfry, spacje, kreski lub podkreślenia, mogą zaczynać i kończyć się tylko znakami alfanumerycznymi i jest ograniczona do 128 znaków.

name: string

Wartość właściwości

string

Odziedziczone poLexicalTokenizer.name