NGramTokenizer interface
Tokenizuje dane wejściowe do n-gramów danego rozmiaru. Ten tokenizer jest implementowany przy użyciu platformy Apache Lucene.
- Rozszerzenie
Właściwości
| max |
Maksymalna długość n-grama. Wartość domyślna to 2. Wartość maksymalna to 300. |
| min |
Minimalna długość n-grama. Wartość domyślna to 1. Wartość maksymalna to 300. Musi być mniejsza niż wartość maxGram. |
| odatatype | Dyskryminujący polimorficzny, który określa różne typy tego obiektu może być |
| token |
Klasy znaków do przechowywania w tokenach. |
Właściwości dziedziczone
| name | Nazwa tokenizatora. Musi zawierać tylko litery, cyfry, spacje, kreski lub podkreślenia, mogą zaczynać i kończyć się tylko znakami alfanumerycznymi i jest ograniczona do 128 znaków. |
Szczegóły właściwości
maxGram
Maksymalna długość n-grama. Wartość domyślna to 2. Wartość maksymalna to 300.
maxGram?: number
Wartość właściwości
number
minGram
Minimalna długość n-grama. Wartość domyślna to 1. Wartość maksymalna to 300. Musi być mniejsza niż wartość maxGram.
minGram?: number
Wartość właściwości
number
odatatype
Dyskryminujący polimorficzny, który określa różne typy tego obiektu może być
odatatype: "#Microsoft.Azure.Search.NGramTokenizer"
Wartość właściwości
"#Microsoft.Azure.Search.NGramTokenizer"
tokenChars
Klasy znaków do przechowywania w tokenach.
tokenChars?: TokenCharacterKind[]
Wartość właściwości
Szczegóły właściwości dziedziczonej
name
Nazwa tokenizatora. Musi zawierać tylko litery, cyfry, spacje, kreski lub podkreślenia, mogą zaczynać i kończyć się tylko znakami alfanumerycznymi i jest ograniczona do 128 znaków.
name: string
Wartość właściwości
string
Odziedziczone poLexicalTokenizer.name