Delen via


Indexes - Create Or Update

Hiermee maakt u een nieuwe zoekindex of werkt u een index bij als deze al bestaat.

PUT {endpoint}/indexes('{indexName}')?api-version=2025-09-01
PUT {endpoint}/indexes('{indexName}')?allowIndexDowntime={allowIndexDowntime}&api-version=2025-09-01

URI-parameters

Name In Vereist Type Description
endpoint
path True

string

De eindpunt-URL van de zoekservice.

indexName
path True

string

De definitie van de index die moet worden gemaakt of bijgewerkt.

api-version
query True

string

Client-API-versie.

allowIndexDowntime
query

boolean

Hiermee kunnen nieuwe analysers, tokenizers, tokenfilters of tekenfilters aan een index worden toegevoegd door de index ten minste enkele seconden offline te halen. Dit zorgt er tijdelijk voor dat indexering en queryaanvragen mislukken. De prestaties en schrijfbeschikbaarheid van de index kunnen enkele minuten nadat de index is bijgewerkt, of langer duren voor zeer grote indexen.

Aanvraagkoptekst

Name Vereist Type Description
x-ms-client-request-id

string (uuid)

De tracking-ID die is verzonden met het verzoek om te helpen bij het opsporen.

If-Match

string

Hiermee definieert u de voorwaarde If-Match. De bewerking wordt alleen uitgevoerd als de ETag op de server overeenkomt met deze waarde.

If-None-Match

string

Definieert de voorwaarde 'Als-None-Match. De bewerking wordt alleen uitgevoerd als de ETag op de server niet overeenkomt met deze waarde.

Prefer True

string

Voor HTTP PUT-aanvragen geeft u de service de opdracht om de gemaakte/bijgewerkte resource te retourneren als deze is geslaagd.

Aanvraagbody

Name Vereist Type Description
fields True

SearchField[]

De velden van de index.

name True

string

De naam van de index.

@odata.etag

string

De ETag van de index.

analyzers LexicalAnalyzer[]:

De analysatoren voor de index.

charFilters CharFilter[]:

De tekenfilters voor de index.

corsOptions

CorsOptions

Opties om Cross-Origin Resource Sharing (CORS) voor de index te beheren.

defaultScoringProfile

string

De naam van het scoreprofiel dat moet worden gebruikt als er geen is opgegeven in de query. Als deze eigenschap niet is ingesteld en er geen scoreprofiel is opgegeven in de query, wordt de standaardscore (tf-idf) gebruikt.

description

string

De beschrijving van de index.

encryptionKey

SearchResourceEncryptionKey

Een beschrijving van een versleutelingssleutel die u maakt in Azure Key Vault. Deze sleutel wordt gebruikt om een extra niveau van versleuteling-at-rest voor uw gegevens te bieden wanneer u volledige zekerheid wilt dat niemand, zelfs Microsoft niet, uw gegevens kan ontsleutelen. Als je je gegevens eenmaal hebt versleuteld, blijven ze altijd versleuteld. De zoekservice negeert pogingen om deze eigenschap op null in te stellen. U kunt deze eigenschap naar wens wijzigen als u uw coderingssleutel wilt roteren; Dit heeft geen invloed op uw gegevens. Versleuteling met door de klant beheerde sleutels is niet beschikbaar voor gratis zoekservices en is alleen beschikbaar voor betaalde services die op of na 1 januari 2019 zijn gemaakt.

normalizers LexicalNormalizer[]:

CustomNormalizer[]

De normalizers voor de index.

scoringProfiles

ScoringProfile[]

De scoreprofielen voor de index.

semantic

SemanticSettings

Definieert parameters voor een zoekindex die van invloed zijn op de semantische mogelijkheden.

similarity Similarity:

Het type gelijkenisalgoritme dat moet worden gebruikt bij het scoren en rangschikken van de documenten die overeenkomen met een zoekopdracht. Het gelijkenisalgoritme kan alleen worden gedefinieerd op het moment dat de index wordt gemaakt en kan niet worden gewijzigd op bestaande indexen. Als null is, wordt het ClassicSimilarity-algoritme gebruikt.

suggesters

Suggester[]

De suggesties voor de index.

tokenFilters TokenFilter[]:

Het token filtert op de index.

tokenizers LexicalTokenizer[]:

De tokenizers voor de index.

vectorSearch

VectorSearch

Bevat configuratie-opties met betrekking tot het zoeken naar vectoren.

Antwoorden

Name Type Description
200 OK

SearchIndex

201 Created

SearchIndex

Other Status Codes

ErrorResponse

Foutreactie.

Voorbeelden

SearchServiceCreateOrUpdateIndex

Voorbeeldaanvraag

PUT https://stableexampleservice.search.windows.net/indexes('temp-stable-test')?allowIndexDowntime=&api-version=2025-09-01





{
  "name": "temp-stable-test",
  "description": "description",
  "fields": [
    {
      "name": "id",
      "type": "Edm.String",
      "key": true,
      "sortable": true
    },
    {
      "name": "vector1",
      "type": "Collection(Edm.Single)",
      "retrievable": true,
      "searchable": true,
      "dimensions": 20,
      "vectorSearchProfile": "config1"
    },
    {
      "name": "vector1b",
      "type": "Collection(Edm.Single)",
      "retrievable": true,
      "searchable": true,
      "dimensions": 10,
      "vectorSearchProfile": "config2"
    },
    {
      "name": "vector2",
      "type": "Collection(Edm.Single)",
      "retrievable": true,
      "searchable": true,
      "dimensions": 5,
      "vectorSearchProfile": "config3"
    },
    {
      "name": "vector3",
      "type": "Collection(Edm.Single)",
      "retrievable": true,
      "searchable": true,
      "dimensions": 5,
      "vectorSearchProfile": "config3"
    },
    {
      "name": "vector22",
      "type": "Collection(Edm.Single)",
      "retrievable": true,
      "searchable": true,
      "dimensions": 10,
      "vectorSearchProfile": "config2"
    },
    {
      "name": "name",
      "type": "Edm.String",
      "retrievable": true,
      "searchable": true,
      "filterable": true,
      "sortable": true,
      "facetable": true,
      "analyzer": "en.lucene"
    },
    {
      "name": "description",
      "type": "Edm.String",
      "retrievable": true,
      "searchable": true,
      "filterable": true,
      "sortable": true,
      "facetable": true,
      "analyzer": "standard.lucene"
    },
    {
      "name": "category",
      "type": "Edm.String",
      "retrievable": true,
      "searchable": true,
      "filterable": true,
      "sortable": true,
      "facetable": true,
      "analyzer": "en.lucene",
      "normalizer": "standard"
    },
    {
      "name": "ownerId",
      "type": "Edm.String",
      "retrievable": true,
      "searchable": true,
      "filterable": true,
      "sortable": true,
      "facetable": true,
      "analyzer": "en.lucene"
    }
  ],
  "scoringProfiles": [
    {
      "name": "stringFieldBoost",
      "text": {
        "weights": {
          "name": 3,
          "description": 1,
          "category": 2,
          "ownerId": 1
        }
      },
      "functions": [
        {
          "tag": {
            "tagsParameter": "categoryTag"
          },
          "type": "tag",
          "fieldName": "category",
          "boost": 2
        }
      ]
    }
  ],
  "defaultScoringProfile": "stringFieldBoost",
  "corsOptions": {
    "allowedOrigins": [
      "https://www.example.com/foo"
    ],
    "maxAgeInSeconds": 10
  },
  "suggesters": [
    {
      "name": "sg",
      "searchMode": "analyzingInfixMatching",
      "sourceFields": [
        "category",
        "ownerId"
      ]
    }
  ],
  "analyzers": [
    {
      "tokenizer": "standard_v2",
      "tokenFilters": [
        "common_grams"
      ],
      "charFilters": [
        "html_strip"
      ],
      "@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
      "name": "tagsAnalyzer"
    }
  ],
  "tokenizers": [
    {
      "maxTokenLength": 100,
      "@odata.type": "#Microsoft.Azure.Search.StandardTokenizerV2",
      "name": "my_tokenizer"
    }
  ],
  "tokenFilters": [
    {
      "preserveOriginal": false,
      "@odata.type": "#Microsoft.Azure.Search.AsciiFoldingTokenFilter",
      "name": "my_tokenFilter"
    }
  ],
  "charFilters": [
    {
      "mappings": [
        ".=>,",
        "_=>-"
      ],
      "@odata.type": "#Microsoft.Azure.Search.MappingCharFilter",
      "name": "my_mapping"
    }
  ],
  "normalizers": [
    {
      "tokenFilters": [
        "asciifolding"
      ],
      "charFilters": [
        "my_mapping"
      ],
      "@odata.type": "#Microsoft.Azure.Search.CustomNormalizer",
      "name": "tagsNormalizer"
    }
  ],
  "similarity": {
    "k1": 10,
    "b": 0.1,
    "@odata.type": "#Microsoft.Azure.Search.BM25Similarity"
  },
  "semantic": {
    "defaultConfiguration": "testconfig",
    "configurations": [
      {
        "name": "testconfig",
        "prioritizedFields": {
          "titleField": {
            "fieldName": "category"
          },
          "prioritizedContentFields": [
            {
              "fieldName": "description"
            }
          ],
          "prioritizedKeywordsFields": [
            {
              "fieldName": "ownerId"
            }
          ]
        },
        "rankingOrder": "BoostedRerankerScore"
      }
    ]
  },
  "vectorSearch": {
    "profiles": [
      {
        "name": "config1",
        "algorithm": "cosine",
        "vectorizer": "openai",
        "compression": "mySQ8"
      },
      {
        "name": "config2",
        "algorithm": "euclidean",
        "vectorizer": "custom-web-api",
        "compression": "mySQ8"
      },
      {
        "name": "config3",
        "algorithm": "dotProduct",
        "vectorizer": "custom-web-api",
        "compression": "myBQC"
      }
    ],
    "algorithms": [
      {
        "hnswParameters": {
          "metric": "cosine"
        },
        "name": "cosine",
        "kind": "hnsw"
      },
      {
        "hnswParameters": {
          "metric": "euclidean"
        },
        "name": "euclidean",
        "kind": "hnsw"
      },
      {
        "hnswParameters": {
          "metric": "dotProduct"
        },
        "name": "dotProduct",
        "kind": "hnsw"
      }
    ],
    "vectorizers": [
      {
        "azureOpenAIParameters": {
          "resourceUri": "https://test-sample.openai.azure.com/",
          "deploymentId": "model",
          "apiKey": "api-key",
          "modelName": "text-embedding-3-large"
        },
        "name": "openai",
        "kind": "azureOpenAI"
      },
      {
        "customWebApiParameters": {
          "uri": "https://my-custom-endpoint.org/",
          "httpHeaders": {
            "header1": "value1",
            "header2": "value2"
          },
          "httpMethod": "POST",
          "timeout": "PT1M",
          "authResourceId": "api://f89d1c93-58a7-4b07-9a5b-5f89048b927b",
          "authIdentity": {
            "@odata.type": "#Microsoft.Azure.Search.DataNoneIdentity"
          }
        },
        "name": "custom-web-api",
        "kind": "customWebApi"
      }
    ],
    "compressions": [
      {
        "scalarQuantizationParameters": {
          "quantizedDataType": "int8"
        },
        "name": "mySQ8",
        "kind": "scalarQuantization",
        "truncationDimension": 2
      },
      {
        "name": "myBQC",
        "kind": "binaryQuantization",
        "truncationDimension": 2
      }
    ]
  },
  "@odata.etag": "0x1234568AE7E58A1"
}

Voorbeeldrespons

{
  "name": "temp-stable-test",
  "description": "description",
  "defaultScoringProfile": "stringFieldBoost",
  "fields": [
    {
      "name": "id",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": true,
      "synonymMaps": []
    },
    {
      "name": "vector1",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 20,
      "vectorSearchProfile": "config1",
      "synonymMaps": []
    },
    {
      "name": "vector1b",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 10,
      "vectorSearchProfile": "config2",
      "synonymMaps": []
    },
    {
      "name": "vector2",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 5,
      "vectorSearchProfile": "config3",
      "synonymMaps": []
    },
    {
      "name": "vector3",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 5,
      "vectorSearchProfile": "config3",
      "synonymMaps": []
    },
    {
      "name": "vector22",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 10,
      "vectorSearchProfile": "config2",
      "synonymMaps": []
    },
    {
      "name": "name",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "en.lucene",
      "synonymMaps": []
    },
    {
      "name": "description",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "standard.lucene",
      "synonymMaps": []
    },
    {
      "name": "category",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "en.lucene",
      "normalizer": "standard",
      "synonymMaps": []
    },
    {
      "name": "ownerId",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "en.lucene",
      "synonymMaps": []
    }
  ],
  "scoringProfiles": [
    {
      "name": "stringFieldBoost",
      "functionAggregation": "sum",
      "text": {
        "weights": {
          "name": 3,
          "description": 1,
          "category": 2,
          "ownerId": 1
        }
      },
      "functions": [
        {
          "fieldName": "category",
          "interpolation": "linear",
          "type": "tag",
          "boost": 2,
          "tag": {
            "tagsParameter": "categoryTag"
          }
        }
      ]
    }
  ],
  "corsOptions": {
    "allowedOrigins": [
      "https://www.example.com/foo"
    ],
    "maxAgeInSeconds": 10
  },
  "suggesters": [
    {
      "name": "sg",
      "searchMode": "analyzingInfixMatching",
      "sourceFields": [
        "category",
        "ownerId"
      ]
    }
  ],
  "analyzers": [
    {
      "@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
      "name": "tagsAnalyzer",
      "tokenizer": "standard_v2",
      "tokenFilters": [
        "common_grams"
      ],
      "charFilters": [
        "html_strip"
      ]
    }
  ],
  "normalizers": [
    {
      "@odata.type": "#Microsoft.Azure.Search.CustomNormalizer",
      "name": "tagsNormalizer",
      "tokenFilters": [
        "asciifolding"
      ],
      "charFilters": [
        "my_mapping"
      ]
    }
  ],
  "tokenizers": [
    {
      "@odata.type": "#Microsoft.Azure.Search.StandardTokenizerV2",
      "name": "my_tokenizer",
      "maxTokenLength": 100
    }
  ],
  "tokenFilters": [
    {
      "@odata.type": "#Microsoft.Azure.Search.AsciiFoldingTokenFilter",
      "name": "my_tokenFilter",
      "preserveOriginal": false
    }
  ],
  "charFilters": [
    {
      "@odata.type": "#Microsoft.Azure.Search.MappingCharFilter",
      "name": "my_mapping",
      "mappings": [
        ".=>,",
        "_=>-"
      ]
    }
  ],
  "similarity": {
    "@odata.type": "#Microsoft.Azure.Search.BM25Similarity",
    "k1": 10,
    "b": 0.1
  },
  "semantic": {
    "defaultConfiguration": "testconfig",
    "configurations": [
      {
        "name": "testconfig",
        "rankingOrder": "BoostedRerankerScore",
        "prioritizedFields": {
          "titleField": {
            "fieldName": "category"
          },
          "prioritizedContentFields": [
            {
              "fieldName": "description"
            }
          ],
          "prioritizedKeywordsFields": [
            {
              "fieldName": "ownerId"
            }
          ]
        }
      }
    ]
  },
  "vectorSearch": {
    "algorithms": [
      {
        "name": "cosine",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "cosine",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      },
      {
        "name": "euclidean",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "euclidean",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      },
      {
        "name": "dotProduct",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "dotProduct",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      }
    ],
    "profiles": [
      {
        "name": "config1",
        "algorithm": "cosine",
        "vectorizer": "openai",
        "compression": "mySQ8"
      },
      {
        "name": "config2",
        "algorithm": "euclidean",
        "vectorizer": "custom-web-api",
        "compression": "mySQ8"
      },
      {
        "name": "config3",
        "algorithm": "dotProduct",
        "vectorizer": "custom-web-api",
        "compression": "myBQC"
      }
    ],
    "vectorizers": [
      {
        "name": "openai",
        "kind": "azureOpenAI",
        "azureOpenAIParameters": {
          "resourceUri": "https://test-sample.openai.azure.com",
          "deploymentId": "model",
          "apiKey": "api-key",
          "modelName": "text-embedding-3-large"
        }
      },
      {
        "name": "custom-web-api",
        "kind": "customWebApi",
        "customWebApiParameters": {
          "httpMethod": "POST",
          "uri": "https://my-custom-endpoint.org/",
          "timeout": "PT1M",
          "authResourceId": "api://f89d1c93-58a7-4b07-9a5b-5f89048b927b",
          "httpHeaders": {
            "header1": "value1",
            "header2": "value2"
          },
          "authIdentity": {
            "@odata.type": "#Microsoft.Azure.Search.DataNoneIdentity"
          }
        }
      }
    ],
    "compressions": [
      {
        "name": "mySQ8",
        "kind": "scalarQuantization",
        "truncationDimension": 2,
        "scalarQuantizationParameters": {
          "quantizedDataType": "int8"
        },
        "rescoringOptions": {
          "enableRescoring": true,
          "defaultOversampling": 4,
          "rescoreStorageMethod": "preserveOriginals"
        }
      },
      {
        "name": "myBQC",
        "kind": "binaryQuantization",
        "truncationDimension": 2,
        "rescoringOptions": {
          "enableRescoring": true,
          "defaultOversampling": 4,
          "rescoreStorageMethod": "preserveOriginals"
        }
      }
    ]
  }
}
{
  "name": "temp-stable-test",
  "description": "description",
  "defaultScoringProfile": "stringFieldBoost",
  "fields": [
    {
      "name": "id",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": true,
      "synonymMaps": []
    },
    {
      "name": "vector1",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 20,
      "vectorSearchProfile": "config1",
      "synonymMaps": []
    },
    {
      "name": "vector1b",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 10,
      "vectorSearchProfile": "config2",
      "synonymMaps": []
    },
    {
      "name": "vector2",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 5,
      "vectorSearchProfile": "config3",
      "synonymMaps": []
    },
    {
      "name": "vector3",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 5,
      "vectorSearchProfile": "config3",
      "synonymMaps": []
    },
    {
      "name": "vector22",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 10,
      "vectorSearchProfile": "config2",
      "synonymMaps": []
    },
    {
      "name": "name",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "en.lucene",
      "synonymMaps": []
    },
    {
      "name": "description",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "standard.lucene",
      "synonymMaps": []
    },
    {
      "name": "category",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "en.lucene",
      "normalizer": "standard",
      "synonymMaps": []
    },
    {
      "name": "ownerId",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "en.lucene",
      "synonymMaps": []
    }
  ],
  "scoringProfiles": [
    {
      "name": "stringFieldBoost",
      "functionAggregation": "sum",
      "text": {
        "weights": {
          "name": 3,
          "description": 1,
          "category": 2,
          "ownerId": 1
        }
      },
      "functions": [
        {
          "fieldName": "category",
          "interpolation": "linear",
          "type": "tag",
          "boost": 2,
          "tag": {
            "tagsParameter": "categoryTag"
          }
        }
      ]
    }
  ],
  "corsOptions": {
    "allowedOrigins": [
      "https://www.example.com/foo"
    ],
    "maxAgeInSeconds": 10
  },
  "suggesters": [
    {
      "name": "sg",
      "searchMode": "analyzingInfixMatching",
      "sourceFields": [
        "category",
        "ownerId"
      ]
    }
  ],
  "analyzers": [
    {
      "@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
      "name": "tagsAnalyzer",
      "tokenizer": "standard_v2",
      "tokenFilters": [
        "common_grams"
      ],
      "charFilters": [
        "html_strip"
      ]
    }
  ],
  "normalizers": [
    {
      "@odata.type": "#Microsoft.Azure.Search.CustomNormalizer",
      "name": "tagsNormalizer",
      "tokenFilters": [
        "asciifolding"
      ],
      "charFilters": [
        "my_mapping"
      ]
    }
  ],
  "tokenizers": [
    {
      "@odata.type": "#Microsoft.Azure.Search.StandardTokenizerV2",
      "name": "my_tokenizer",
      "maxTokenLength": 100
    }
  ],
  "tokenFilters": [
    {
      "@odata.type": "#Microsoft.Azure.Search.AsciiFoldingTokenFilter",
      "name": "my_tokenFilter",
      "preserveOriginal": false
    }
  ],
  "charFilters": [
    {
      "@odata.type": "#Microsoft.Azure.Search.MappingCharFilter",
      "name": "my_mapping",
      "mappings": [
        ".=>,",
        "_=>-"
      ]
    }
  ],
  "similarity": {
    "@odata.type": "#Microsoft.Azure.Search.BM25Similarity",
    "k1": 10,
    "b": 0.1
  },
  "semantic": {
    "defaultConfiguration": "testconfig",
    "configurations": [
      {
        "name": "testconfig",
        "rankingOrder": "BoostedRerankerScore",
        "prioritizedFields": {
          "titleField": {
            "fieldName": "category"
          },
          "prioritizedContentFields": [
            {
              "fieldName": "description"
            }
          ],
          "prioritizedKeywordsFields": [
            {
              "fieldName": "ownerId"
            }
          ]
        }
      }
    ]
  },
  "vectorSearch": {
    "algorithms": [
      {
        "name": "cosine",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "cosine",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      },
      {
        "name": "euclidean",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "euclidean",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      },
      {
        "name": "dotProduct",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "dotProduct",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      }
    ],
    "profiles": [
      {
        "name": "config1",
        "algorithm": "cosine",
        "vectorizer": "openai",
        "compression": "mySQ8"
      },
      {
        "name": "config2",
        "algorithm": "euclidean",
        "vectorizer": "custom-web-api",
        "compression": "mySQ8"
      },
      {
        "name": "config3",
        "algorithm": "dotProduct",
        "vectorizer": "custom-web-api",
        "compression": "myBQC"
      }
    ],
    "vectorizers": [
      {
        "name": "openai",
        "kind": "azureOpenAI",
        "azureOpenAIParameters": {
          "resourceUri": "https://test-sample.openai.azure.com",
          "deploymentId": "model",
          "apiKey": "api-key",
          "modelName": "text-embedding-3-large"
        }
      },
      {
        "name": "custom-web-api",
        "kind": "customWebApi",
        "customWebApiParameters": {
          "httpMethod": "POST",
          "uri": "https://my-custom-endpoint.org/",
          "timeout": "PT1M",
          "authResourceId": "api://f89d1c93-58a7-4b07-9a5b-5f89048b927b",
          "httpHeaders": {
            "header1": "value1",
            "header2": "value2"
          },
          "authIdentity": {
            "@odata.type": "#Microsoft.Azure.Search.DataNoneIdentity"
          }
        }
      }
    ],
    "compressions": [
      {
        "name": "mySQ8",
        "kind": "scalarQuantization",
        "truncationDimension": 2,
        "scalarQuantizationParameters": {
          "quantizedDataType": "int8"
        },
        "rescoringOptions": {
          "enableRescoring": true,
          "defaultOversampling": 4,
          "rescoreStorageMethod": "preserveOriginals"
        }
      },
      {
        "name": "myBQC",
        "kind": "binaryQuantization",
        "truncationDimension": 2,
        "rescoringOptions": {
          "enableRescoring": true,
          "defaultOversampling": 4,
          "rescoreStorageMethod": "preserveOriginals"
        }
      }
    ]
  }
}

Definities

Name Description
AsciiFoldingTokenFilter

Hiermee worden alfabetische, numerieke en symbolische Unicode-tekens die niet in de eerste 127 ASCII-tekens (het Unicode-blok 'Basis Latijn' voorkomen) geconverteerd naar hun ASCII-equivalenten, als dergelijke equivalenten bestaan. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

AzureActiveDirectoryApplicationCredentials

Referenties van een geregistreerde toepassing die is gemaakt voor uw zoekservice en die worden gebruikt voor geverifieerde toegang tot de versleutelingssleutels die zijn opgeslagen in Azure Key Vault.

AzureOpenAIEmbeddingSkill

Hiermee kunt u een vectorinbedding genereren voor een bepaalde tekstinvoer met behulp van de Azure OpenAI-resource.

AzureOpenAIModelName

De Azure Open AI-modelnaam die wordt aangeroepen.

AzureOpenAIParameters

Hiermee geeft u de parameters op voor het maken van verbinding met de Azure OpenAI-resource.

AzureOpenAIVectorizer

Hiermee geeft u de Azure OpenAI-resource op die wordt gebruikt om een querytekenreeks te vectoriseren.

BinaryQuantizationVectorSearchCompressionConfiguration

Bevat configuratieopties die specifiek zijn voor de compressiemethode voor binaire kwantisering die wordt gebruikt tijdens het indexeren en opvragen.

BM25Similarity

Rangschikkingsfunctie op basis van het Okapi BM25-gelijkenisalgoritme. BM25 is een TF-IDF-achtig algoritme dat lengtenormalisatie (geregeld door de 'b'-parameter) en termfrequentieverzadiging (geregeld door de 'k1'-parameter) omvat.

CharFilterName

Definieert de namen van alle tekenfilters die door de zoekmachine worden ondersteund.

CjkBigramTokenFilter

Vormt bigrammen van CJK-termen die worden gegenereerd op basis van de standaard tokenizer. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

CjkBigramTokenFilterScripts

Scripts die kunnen worden genegeerd door CjkBigramTokenFilter.

ClassicSimilarity

Verouderd gelijkenisalgoritme dat gebruikmaakt van de Lucene TFIDFSimilarity-implementatie van TF-IDF. Deze variant van TF-IDF introduceert statische normalisatie van de documentlengte en coördinerende factoren die documenten bestraffen die slechts gedeeltelijk overeenkomen met de gezochte zoekopdrachten.

ClassicTokenizer

Op grammatica gebaseerde tokenizer die geschikt is voor het verwerken van de meeste Europeestalige documenten. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

CommonGramTokenFilter

Construeer bigrammen voor vaak voorkomende termen tijdens het indexeren. Afzonderlijke termen worden ook nog steeds geïndexeerd, met bigrammen eroverheen. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

CorsOptions

Definieert opties voor het beheren van Cross-Origin Resource Sharing (CORS) voor een index.

CustomAnalyzer

Hiermee kunt u de controle nemen over het proces van het converteren van tekst naar indexeerbare/doorzoekbare tokens. Het is een door de gebruiker gedefinieerde configuratie die bestaat uit een enkele vooraf gedefinieerde tokenizer en een of meer filters. De tokenizer is verantwoordelijk voor het opsplitsen van tekst in tokens en de filters voor het wijzigen van tokens die door de tokenizer worden uitgezonden.

CustomNormalizer

Hiermee kunt u normalisatie configureren voor filterbare, sorteerbare en faceteerbare velden, die standaard werken met strikte overeenkomst. Dit is een door de gebruiker gedefinieerde configuratie die bestaat uit ten minste een of meer filters, die het token dat is opgeslagen wijzigen.

DictionaryDecompounderTokenFilter

Ontleedt samengestelde woorden die in veel Germaanse talen voorkomen. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

DistanceScoringFunction

Definieert een functie die scores verhoogt op basis van de afstand tot een geografische locatie.

DistanceScoringParameters

Biedt parameterwaarden voor een functie voor het scoren van afstanden.

EdgeNGramTokenFilter

Genereert n-gram van de gegeven grootte(n) vanaf de voor- of achterkant van een invoertoken. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

EdgeNGramTokenFilterSide

Geeft aan welke kant van de invoer een n-gram moet worden gegenereerd.

EdgeNGramTokenFilterV2

Genereert n-gram van de gegeven grootte(n) vanaf de voor- of achterkant van een invoertoken. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

EdgeNGramTokenizer

Tokeniseert de invoer van een rand in n-grammen van de gegeven grootte(n). Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

ElisionTokenFilter

Verwijdert elisies. Bijvoorbeeld, "l'avion" (het vliegtuig) wordt geconverteerd naar "avion" (vliegtuig). Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

ErrorAdditionalInfo

Aanvullende informatie over de resourcebeheerfout.

ErrorDetail

De foutdetails.

ErrorResponse

Foutreactie

ExhaustiveKnnParameters

Bevat de parameters die specifiek zijn voor het uitgebreide KNN-algoritme.

ExhaustiveKnnVectorSearchAlgorithmConfiguration

Bevat configuratie-opties die specifiek zijn voor het uitgebreide KNN-algoritme dat wordt gebruikt tijdens het uitvoeren van query's, waarmee brute-force wordt gezocht in de gehele vectorindex.

FreshnessScoringFunction

Definieert een functie die scores verhoogt op basis van de waarde van een datum-tijdveld.

FreshnessScoringParameters

Biedt parameterwaarden voor een functie voor het scoren van versheid.

HnswParameters

Bevat de parameters die specifiek zijn voor het HNSW-algoritme.

HnswVectorSearchAlgorithmConfiguration

Bevat configuratie-opties die specifiek zijn voor het HNSW-algoritme voor de dichtstbijzijnde buren dat wordt gebruikt tijdens het indexeren en opvragen. Het HNSW-algoritme biedt een afstembare afweging tussen zoeksnelheid en nauwkeurigheid.

InputFieldMappingEntry

Voer veldtoewijzing in voor een vaardigheid.

KeepTokenFilter

Een tokenfilter dat alleen tokens bewaart met tekst in een opgegeven lijst met woorden. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

KeywordMarkerTokenFilter

Hiermee worden termen gemarkeerd als trefwoorden. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

KeywordTokenizer

Zendt de volledige invoer uit als een enkel token. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

KeywordTokenizerV2

Zendt de volledige invoer uit als een enkel token. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

LengthTokenFilter

Verwijdert woorden die te lang of te kort zijn. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

LexicalAnalyzerName

Definieert de namen van alle tekstanalysatoren die door de zoekmachine worden ondersteund.

LexicalNormalizerName

Definieert de namen van alle tekstnormalizers die door de zoekmachine worden ondersteund.

LexicalTokenizerName

Definieert de namen van alle tokenizers die door de zoekmachine worden ondersteund.

LimitTokenFilter

Beperkt het aantal tokens tijdens het indexeren. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

LuceneStandardAnalyzer

Standaard Apache Lucene-analysator; Samengesteld uit de standaard tokenizer, kleine letters filter en stopfilter.

LuceneStandardTokenizer

Breekt tekst af volgens de Unicode-tekstsegmentatieregels. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

LuceneStandardTokenizerV2

Breekt tekst af volgens de Unicode-tekstsegmentatieregels. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

MagnitudeScoringFunction

Definieert een functie die scores verhoogt op basis van de grootte van een numeriek veld.

MagnitudeScoringParameters

Biedt parameterwaarden voor een functie voor het scoren van magnitudes.

MappingCharFilter

Een tekenfilter dat toewijzingen toepast die zijn gedefinieerd met de optie Toewijzingen. Matchen is hebzuchtig (de langste patroonovereenkomst op een bepaald punt wint). Vervanging mag de lege snaar zijn. Dit tekenfilter wordt geïmplementeerd met behulp van Apache Lucene.

MicrosoftLanguageStemmingTokenizer

Verdeelt tekst met behulp van taalspecifieke regels en reduceert woorden tot hun basisvorm.

MicrosoftLanguageTokenizer

Verdeelt tekst met behulp van taalspecifieke regels.

MicrosoftStemmingTokenizerLanguage

Geeft een lijst van de talen die worden ondersteund door de Microsoft-taalstamtokenizer.

MicrosoftTokenizerLanguage

Geeft een lijst van de talen die worden ondersteund door de Microsoft-taaltokenizer.

NGramTokenFilter

Genereert n-gram van de gegeven grootte(s). Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

NGramTokenFilterV2

Genereert n-gram van de gegeven grootte(s). Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

NGramTokenizer

Tokeniseert de invoer in n-grammen van de gegeven grootte(n). Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

OutputFieldMappingEntry

Uitvoerveldtoewijzing voor een vaardigheid.

PathHierarchyTokenizerV2

Tokenizer voor padachtige hiërarchieën. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

PatternAnalyzer

Scheidt tekst flexibel in termen via een patroon van reguliere expressies. Deze analyzer wordt geïmplementeerd met behulp van Apache Lucene.

PatternCaptureTokenFilter

Gebruikt Java-regexes om meerdere tokens uit te zenden - één voor elke capture-groep in een of meer patronen. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

PatternReplaceCharFilter

Een tekenfilter dat tekens in de invoerreeks vervangt. Het gebruikt een reguliere expressie om tekenreeksen te identificeren die moeten worden behouden en een vervangend patroon om tekens te identificeren die moeten worden vervangen. Bijvoorbeeld, gegeven de invoertekst "aa bb aa bb", patroon "(aa)\s+(bb)" en vervanging "$1#$2", zou het resultaat "aa#bb aa#bb" zijn. Dit tekenfilter wordt geïmplementeerd met behulp van Apache Lucene.

PatternReplaceTokenFilter

Een tekenfilter dat tekens in de invoerreeks vervangt. Het gebruikt een reguliere expressie om tekenreeksen te identificeren die moeten worden behouden en een vervangend patroon om tekens te identificeren die moeten worden vervangen. Bijvoorbeeld, gegeven de invoertekst "aa bb aa bb", patroon "(aa)\s+(bb)" en vervanging "$1#$2", zou het resultaat "aa#bb aa#bb" zijn. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

PatternTokenizer

Tokenizer die regex-patroonmatching gebruikt om afzonderlijke tokens te maken. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

PhoneticEncoder

Identificeert het type fonetische encoder dat moet worden gebruikt met een PhoneticTokenFilter.

PhoneticTokenFilter

Maak tokens voor fonetische overeenkomsten. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

PrioritizedFields

Beschrijft de velden voor titel, inhoud en trefwoorden die moeten worden gebruikt voor semantische rangschikking, bijschriften, markeringen en antwoorden.

RankingOrder

Vertegenwoordigt de score die moet worden gebruikt voor de sorteervolgorde van documenten.

RegexFlags

Definieert vlaggen die kunnen worden gecombineerd om te bepalen hoe reguliere expressies worden gebruikt in de patroonanalyse en patroontokenizer.

RescoringOptions

Bevat de opties voor het opnieuw scoren.

ScalarQuantizationParameters

Bevat de parameters die specifiek zijn voor scalaire kwantisatie.

ScalarQuantizationVectorSearchCompressionConfiguration

Bevat configuratieopties die specifiek zijn voor de compressiemethode voor scalaire kwantisering die wordt gebruikt tijdens het indexeren en uitvoeren van query's.

ScoringFunctionAggregation

Definieert de aggregatiefunctie die wordt gebruikt om de resultaten van alle scorefuncties in een scoreprofiel te combineren.

ScoringFunctionInterpolation

Definieert de functie die wordt gebruikt om scoreverhoging te interpoleren in een reeks documenten.

ScoringProfile

Definieert parameters voor een zoekindex die van invloed zijn op de score in zoekopdrachten.

SearchField

Vertegenwoordigt een veld in een indexdefinitie, waarin de naam, het gegevenstype en het zoekgedrag van een veld worden beschreven.

SearchFieldDataType

Definieert het gegevenstype van een veld in een zoekindex.

SearchIndex

Vertegenwoordigt een definitie van een zoekindex, die de velden en het zoekgedrag van een index beschrijft.

SearchIndexerDataNoneIdentity

Hiermee wist u de identiteitseigenschap van een gegevensbron.

SearchIndexerDataUserAssignedIdentity

Hiermee geeft u de identiteit op voor een gegevensbron die moet worden gebruikt.

SearchResourceEncryptionKey

Een door de klant beheerde versleutelingssleutel in Azure Key Vault. Sleutels die u maakt en beheert, kunnen worden gebruikt om inactieve gegevens, zoals indexen en synoniementoewijzingen, te versleutelen of te ontsleutelen.

SemanticConfiguration

Definieert een specifieke configuratie die moet worden gebruikt in de context van semantische mogelijkheden.

SemanticField

Een veld dat wordt gebruikt als onderdeel van de semantische configuratie.

SemanticSettings

Definieert parameters voor een zoekindex die van invloed zijn op de semantische mogelijkheden.

ShingleTokenFilter

Maakt combinaties van tokens als één token. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

SnowballTokenFilter

Een filter dat woorden verzamelt met behulp van een door Snowball gegenereerde stemmer. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

SnowballTokenFilterLanguage

De taal die moet worden gebruikt voor een Snowball-tokenfilter.

StemmerOverrideTokenFilter

Biedt de mogelijkheid om andere stamfilters te overschrijven met aangepaste stamboom op basis van woordenboek. Alle termen die in het woordenboek zijn opgenomen, worden gemarkeerd als trefwoorden, zodat ze niet worden gestamd met stammers in de keten. Moet vóór eventuele stamfilters worden geplaatst. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

StemmerTokenFilter

Taalspecifieke stamfilter. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

StemmerTokenFilterLanguage

De taal die moet worden gebruikt voor een stemmer token filter.

StopAnalyzer

Verdeelt tekst op niet-letters; Hiermee past u de tokenfilters voor kleine letters en stopwoorden toe. Deze analyzer wordt geïmplementeerd met behulp van Apache Lucene.

StopwordsList

Identificeert een vooraf gedefinieerde lijst met taalspecifieke stopwoorden.

StopwordsTokenFilter

Verwijdert stopwoorden uit een tokenstroom. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Suggester

Definieert hoe de Suggest-API moet worden toegepast op een groep velden in de index.

SuggesterSearchMode

Een waarde die de capaciteiten van de suggestie aangeeft.

SynonymTokenFilter

Komt overeen met synoniemen van één of meerdere woorden in een tokenstroom. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

TagScoringFunction

Definieert een functie die de scores van documenten verhoogt met tekenreekswaarden die overeenkomen met een bepaalde lijst met tags.

TagScoringParameters

Biedt parameterwaarden aan een functie voor het scoren van tags.

TextWeights

Definieert gewichten op indexvelden waarvoor overeenkomsten de score in zoekopdrachten moeten verhogen.

TokenCharacterKind

Vertegenwoordigt klassen van tekens waarop een tokenfilter kan werken.

TokenFilterName

Definieert de namen van alle tokenfilters die door de zoekmachine worden ondersteund.

TruncateTokenFilter

Kort de termen af tot een specifieke lengte. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

UaxUrlEmailTokenizer

Tokeniseert url's en e-mails als één token. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

UniqueTokenFilter

Filtert tokens met dezelfde tekst als het vorige token. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

VectorEncodingFormat

Het coderingsformaat voor het interpreteren van de inhoud van vectorvelden.

VectorSearch

Bevat configuratie-opties met betrekking tot het zoeken naar vectoren.

VectorSearchAlgorithmKind

Het algoritme dat wordt gebruikt voor indexeren en opvragen.

VectorSearchAlgorithmMetric

De gelijkenismetriek die moet worden gebruikt voor vectorvergelijkingen. Het wordt aanbevolen om dezelfde gelijkenismetriek te kiezen waarop het inbeddingsmodel is getraind.

VectorSearchCompressionKind

De compressiemethode die wordt gebruikt voor indexeren en query's.

VectorSearchCompressionRescoreStorageMethod

De opslagmethode voor de oorspronkelijke vectoren met volledige precisie die worden gebruikt voor het opnieuw scoren en interne indexbewerkingen.

VectorSearchCompressionTargetDataType

Het gekwantiseerde gegevenstype van gecomprimeerde vectorwaarden.

VectorSearchProfile

Definieert een combinatie van configuraties die moeten worden gebruikt voor vectorzoekopdrachten.

VectorSearchVectorizerKind

De vectorisatiemethode die moet worden gebruikt tijdens de zoekopdracht.

WebApiParameters

Hiermee geeft u de eigenschappen op voor het verbinden met een door de gebruiker gedefinieerde vectorizer.

WebApiVectorizer

Hiermee geeft u een door de gebruiker gedefinieerde vectorizer op voor het genereren van de vectorinbedding van een querytekenreeks. Integratie van een externe vectorizer wordt bereikt met behulp van de aangepaste Web API-interface van een skillset.

WordDelimiterTokenFilter

Splitst woorden op in subwoorden en voert optionele transformaties uit op subwoordgroepen. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

AsciiFoldingTokenFilter

Hiermee worden alfabetische, numerieke en symbolische Unicode-tekens die niet in de eerste 127 ASCII-tekens (het Unicode-blok 'Basis Latijn' voorkomen) geconverteerd naar hun ASCII-equivalenten, als dergelijke equivalenten bestaan. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.AsciiFoldingTokenFilter

Een URI-fragment dat het type tokenfilter specificeert.

name

string

De naam van het tokenfilter. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

preserveOriginal

boolean

False

Een waarde die aangeeft of het originele token behouden blijft. De standaardwaarde is vals.

AzureActiveDirectoryApplicationCredentials

Referenties van een geregistreerde toepassing die is gemaakt voor uw zoekservice en die worden gebruikt voor geverifieerde toegang tot de versleutelingssleutels die zijn opgeslagen in Azure Key Vault.

Name Type Description
applicationId

string

Een AAD-toepassings-id waaraan de vereiste toegangsmachtigingen zijn verleend voor de Azure Key Vault die moet worden gebruikt bij het versleutelen van uw gegevens in rust. De applicatie-ID mag niet worden verward met de object-ID voor uw AAD-applicatie.

applicationSecret

string

De authenticatiesleutel van de opgegeven AAD-toepassing.

AzureOpenAIEmbeddingSkill

Hiermee kunt u een vectorinbedding genereren voor een bepaalde tekstinvoer met behulp van de Azure OpenAI-resource.

Name Type Description
@odata.type string:

#Microsoft.Skills.Text.AzureOpenAIEmbeddingSkill

Een URI-fragment dat het type vaardigheid specificeert.

apiKey

string

API-sleutel van de aangewezen Azure OpenAI-resource.

authIdentity SearchIndexerDataIdentity:

De door de gebruiker toegewezen beheerde identiteit die wordt gebruikt voor uitgaande verbindingen.

context

string

Vertegenwoordigt het niveau waarop bewerkingen plaatsvinden, zoals de hoofdmap van het document of de inhoud van het document (bijvoorbeeld /document of /document/content). De standaardinstelling is /document.

deploymentId

string

ID van de implementatie van het Azure OpenAI-model op de aangewezen resource.

description

string

De beschrijving van de vaardigheid die de invoer, uitvoer en het gebruik van de vaardigheid beschrijft.

dimensions

integer (int32)

Het aantal dimensies dat de resulterende uitvoer-insluitingen moeten hebben. Alleen ondersteund in modellen met tekstinbedding 3 en hoger.

inputs

InputFieldMappingEntry[]

Invoer van de vaardigheden kan een kolom in de brongegevensset zijn, of de uitvoer van een stroomopwaartse vaardigheid.

modelName

AzureOpenAIModelName

De naam van het inbeddingsmodel dat wordt geïmplementeerd op het opgegeven deploymentId-pad.

name

string

De naam van de vaardigheid die deze op unieke wijze identificeert binnen de vaardighedenset. Een vaardigheid waarvoor geen naam is gedefinieerd, krijgt een standaardnaam van de op 1 gebaseerde index in de vaardigheidsarray, voorafgegaan door het teken '#'.

outputs

OutputFieldMappingEntry[]

De uitvoer van een vaardigheid is een veld in een zoekindex of een waarde die als invoer door een andere vaardigheid kan worden verbruikt.

resourceUri

string (uri)

De resource-URI van de Azure OpenAI-resource.

AzureOpenAIModelName

De Azure Open AI-modelnaam die wordt aangeroepen.

Waarde Description
text-embedding-ada-002
text-embedding-3-large
text-embedding-3-small

AzureOpenAIParameters

Hiermee geeft u de parameters op voor het maken van verbinding met de Azure OpenAI-resource.

Name Type Description
apiKey

string

API-sleutel van de aangewezen Azure OpenAI-resource.

authIdentity SearchIndexerDataIdentity:

De door de gebruiker toegewezen beheerde identiteit die wordt gebruikt voor uitgaande verbindingen.

deploymentId

string

ID van de implementatie van het Azure OpenAI-model op de aangewezen resource.

modelName

AzureOpenAIModelName

De naam van het inbeddingsmodel dat wordt geïmplementeerd op het opgegeven deploymentId-pad.

resourceUri

string (uri)

De resource-URI van de Azure OpenAI-resource.

AzureOpenAIVectorizer

Hiermee geeft u de Azure OpenAI-resource op die wordt gebruikt om een querytekenreeks te vectoriseren.

Name Type Description
azureOpenAIParameters AzureOpenAIParameters:

AzureOpenAIEmbeddingSkill

Bevat de parameters die specifiek zijn voor Azure OpenAI-inbeddingsvectorisatie.

kind string:

azureOpenAI

De naam van het soort vectorisatiemethode dat wordt geconfigureerd voor gebruik met vectorzoekopdrachten.

name

string

De naam die moet worden geassocieerd met deze specifieke vectorisatiemethode.

BinaryQuantizationVectorSearchCompressionConfiguration

Bevat configuratieopties die specifiek zijn voor de compressiemethode voor binaire kwantisering die wordt gebruikt tijdens het indexeren en opvragen.

Name Type Description
kind string:

binaryQuantization

De naam van het soort compressiemethode dat wordt geconfigureerd voor gebruik met vectorzoekopdrachten.

name

string

De naam die aan deze specifieke configuratie moet worden gekoppeld.

rescoringOptions

RescoringOptions

Bevat de opties voor het opnieuw scoren.

truncationDimension

integer (int32)

Het aantal dimensies waarnaar de vectoren moeten worden ingekort. Door de vectoren af te kappen, worden de vectoren kleiner en wordt de hoeveelheid gegevens die tijdens het zoeken moet worden overgedragen, verminderd. Dit kan opslagkosten besparen en de zoekprestaties verbeteren ten koste van het terugroepen. Het mag alleen worden gebruikt voor inbeddingen die zijn getraind met Matryoshka Representation Learning (MRL), zoals OpenAI text-embedding-3-large (klein). De standaardwaarde is null, wat betekent dat er geen afkapping is.

BM25Similarity

Rangschikkingsfunctie op basis van het Okapi BM25-gelijkenisalgoritme. BM25 is een TF-IDF-achtig algoritme dat lengtenormalisatie (geregeld door de 'b'-parameter) en termfrequentieverzadiging (geregeld door de 'k1'-parameter) omvat.

Name Type Description
@odata.type string:

#Microsoft.Azure.Search.BM25Similarity

b

number (double)

Deze eigenschap bepaalt hoe de lengte van een document van invloed is op de relevantiescore. Standaard wordt een waarde van 0,75 gebruikt. Een waarde van 0,0 betekent dat er geen lengtenormalisatie wordt toegepast, terwijl een waarde van 1,0 betekent dat de score volledig is genormaliseerd door de lengte van het document.

k1

number (double)

Met deze eigenschap bepaalt u de schaalfunctie tussen de termfrequentie van elke overeenkomende term en de uiteindelijke relevantiescore van een document-querypaar. Standaard wordt een waarde van 1,2 gebruikt. Een waarde van 0,0 betekent dat de score niet schaalt met een toename van de termfrequentie.

CharFilterName

Definieert de namen van alle tekenfilters die door de zoekmachine worden ondersteund.

Waarde Description
html_strip

Een tekenfilter dat probeert HTML-constructies te verwijderen. Zie https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

CjkBigramTokenFilter

Vormt bigrammen van CJK-termen die worden gegenereerd op basis van de standaard tokenizer. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.CjkBigramTokenFilter

Een URI-fragment dat het type tokenfilter specificeert.

ignoreScripts

CjkBigramTokenFilterScripts[]

De scripts om te negeren.

name

string

De naam van het tokenfilter. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

outputUnigrams

boolean

False

Een waarde die aangeeft of zowel unigrammen als bigrammen (indien waar) of alleen bigrammen (indien onwaar) moeten worden uitgevoerd. De standaardwaarde is vals.

CjkBigramTokenFilterScripts

Scripts die kunnen worden genegeerd door CjkBigramTokenFilter.

Waarde Description
han

Negeer het Han-schrift bij het vormen van bigrammen van CJK-termen.

hiragana

Negeer het Hiragana-script bij het vormen van bigrammen van CJK-termen.

katakana

Negeer het Katakana-schrift bij het vormen van bigrammen van CJK-termen.

hangul

Negeer het Hangul-script bij het vormen van bigrammen van CJK-termen.

ClassicSimilarity

Verouderd gelijkenisalgoritme dat gebruikmaakt van de Lucene TFIDFSimilarity-implementatie van TF-IDF. Deze variant van TF-IDF introduceert statische normalisatie van de documentlengte en coördinerende factoren die documenten bestraffen die slechts gedeeltelijk overeenkomen met de gezochte zoekopdrachten.

Name Type Description
@odata.type string:

#Microsoft.Azure.Search.ClassicSimilarity

ClassicTokenizer

Op grammatica gebaseerde tokenizer die geschikt is voor het verwerken van de meeste Europeestalige documenten. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.ClassicTokenizer

Een URI-fragment dat het type tokenizer specificeert.

maxTokenLength

integer (int32)

maximum: 300
255

De maximale tokenlengte. De standaardwaarde is 255. Tokens die langer zijn dan de maximale lengte worden gesplitst. De maximale tokenlengte die kan worden gebruikt is 300 tekens.

name

string

De naam van de tokenizer. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

CommonGramTokenFilter

Construeer bigrammen voor vaak voorkomende termen tijdens het indexeren. Afzonderlijke termen worden ook nog steeds geïndexeerd, met bigrammen eroverheen. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.CommonGramTokenFilter

Een URI-fragment dat het type tokenfilter specificeert.

commonWords

string[]

De reeks veelvoorkomende woorden.

ignoreCase

boolean

False

Een waarde die aangeeft of veelvoorkomende woorden die overeenkomen niet hoofdlettergevoelig zijn. De standaardwaarde is vals.

name

string

De naam van het tokenfilter. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

queryMode

boolean

False

Een waarde die aangeeft of het tokenfilter zich in de querymodus bevindt. In de querymodus genereert het tokenfilter bigrammen en verwijdert vervolgens veelvoorkomende woorden en afzonderlijke termen, gevolgd door een gemeenschappelijk woord. De standaardwaarde is vals.

CorsOptions

Definieert opties voor het beheren van Cross-Origin Resource Sharing (CORS) voor een index.

Name Type Description
allowedOrigins

string[]

De lijst met herkomsten van waaruit JavaScript-code toegang krijgt tot uw index. Kan een lijst met hosts van de vorm {protocol}://{fully-qualified-domain-name}[:{port#}] bevatten, of een enkele '*' om alle origines toe te staan (niet aanbevolen).

maxAgeInSeconds

integer (int64)

De duur waarvoor browsers CORS preflight-antwoorden in de cache moeten opslaan. Standaard ingesteld op 5 minuten.

CustomAnalyzer

Hiermee kunt u de controle nemen over het proces van het converteren van tekst naar indexeerbare/doorzoekbare tokens. Het is een door de gebruiker gedefinieerde configuratie die bestaat uit een enkele vooraf gedefinieerde tokenizer en een of meer filters. De tokenizer is verantwoordelijk voor het opsplitsen van tekst in tokens en de filters voor het wijzigen van tokens die door de tokenizer worden uitgezonden.

Name Type Description
@odata.type string:

#Microsoft.Azure.Search.CustomAnalyzer

Een URI-fragment dat het type analysator specificeert.

charFilters

CharFilterName[]

Een lijst met tekenfilters die worden gebruikt om invoertekst voor te bereiden voordat deze door de tokenizer wordt verwerkt. Ze kunnen bijvoorbeeld bepaalde tekens of symbolen vervangen. De filters worden uitgevoerd in de volgorde waarin ze zijn weergegeven.

name

string

De naam van de analysator. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

tokenFilters

TokenFilterName[]

Een lijst met tokenfilters die worden gebruikt om de tokens die door een tokenizer zijn gegenereerd, uit te filteren of te wijzigen. U kunt bijvoorbeeld een filter in kleine letters opgeven waarmee alle tekens worden geconverteerd naar kleine letters. De filters worden uitgevoerd in de volgorde waarin ze zijn weergegeven.

tokenizer

LexicalTokenizerName

De naam van de tokenizer die moet worden gebruikt om doorlopende tekst te verdelen in een reeks tokens, zoals het opsplitsen van een zin in woorden.

CustomNormalizer

Hiermee kunt u normalisatie configureren voor filterbare, sorteerbare en faceteerbare velden, die standaard werken met strikte overeenkomst. Dit is een door de gebruiker gedefinieerde configuratie die bestaat uit ten minste een of meer filters, die het token dat is opgeslagen wijzigen.

Name Type Description
@odata.type string:

#Microsoft.Azure.Search.CustomNormalizer

Een URI-fragment dat het type normalisator specificeert.

charFilters

CharFilterName[]

Een lijst met tekenfilters die worden gebruikt om invoertekst voor te bereiden voordat deze wordt verwerkt. Ze kunnen bijvoorbeeld bepaalde tekens of symbolen vervangen. De filters worden uitgevoerd in de volgorde waarin ze zijn weergegeven.

name

string

De naam van de normalizer. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens. Het mag niet eindigen op '.microsoft' of '.lucene', noch de naam 'asciifolding', 'standard', 'lowercase', 'uppercase' of 'elision' krijgen.

tokenFilters

TokenFilterName[]

Een lijst met tokenfilters die worden gebruikt om het invoertoken uit te filteren of te wijzigen. U kunt bijvoorbeeld een filter in kleine letters opgeven waarmee alle tekens worden geconverteerd naar kleine letters. De filters worden uitgevoerd in de volgorde waarin ze zijn weergegeven.

DictionaryDecompounderTokenFilter

Ontleedt samengestelde woorden die in veel Germaanse talen voorkomen. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.DictionaryDecompounderTokenFilter

Een URI-fragment dat het type tokenfilter specificeert.

maxSubwordSize

integer (int32)

maximum: 300
15

De maximale grootte van het subwoord. Alleen subwoorden die korter zijn dan deze worden uitgevoerd. De standaardwaarde is 15. Het maximum is 300.

minSubwordSize

integer (int32)

maximum: 300
2

De minimale grootte van het subwoord. Alleen subwoorden die langer zijn dan dit worden uitgevoerd. De standaardwaarde is 2. Het maximum is 300.

minWordSize

integer (int32)

maximum: 300
5

De minimale woordgrootte. Alleen woorden die langer zijn dan dit worden verwerkt. De standaardwaarde is 5. Het maximum is 300.

name

string

De naam van het tokenfilter. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

onlyLongestMatch

boolean

False

Een waarde die aangeeft of alleen het langst overeenkomende subwoord aan de uitvoer moet worden toegevoegd. De standaardwaarde is vals.

wordList

string[]

De lijst met woorden om tegen te matchen.

DistanceScoringFunction

Definieert een functie die scores verhoogt op basis van de afstand tot een geografische locatie.

Name Type Description
boost

number (double)

Een vermenigvuldiger voor de ruwe score. Moet een positief getal zijn dat niet gelijk is aan 1,0.

distance

DistanceScoringParameters

Parameterwaarden voor de functie voor het scoren van afstanden.

fieldName

string

De naam van het veld dat wordt gebruikt als invoer voor de scorefunctie.

interpolation

ScoringFunctionInterpolation

Een waarde die aangeeft hoe boosting wordt geïnterpoleerd over documentscores; staat standaard op "Lineair".

type string:

distance

Geeft het type functie aan dat moet worden gebruikt. Geldige waarden zijn onder andere magnitude, versheid, afstand en tag. Het functietype moet uit kleine letters bestaan.

DistanceScoringParameters

Biedt parameterwaarden voor een functie voor het scoren van afstanden.

Name Type Description
boostingDistance

number (double)

De afstand in kilometers vanaf de referentielocatie waar het boostbereik eindigt.

referencePointParameter

string

De naam van de parameter die wordt doorgegeven in zoekopdrachten om de referentielocatie op te geven.

EdgeNGramTokenFilter

Genereert n-gram van de gegeven grootte(n) vanaf de voor- of achterkant van een invoertoken. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenFilter

Een URI-fragment dat het type tokenfilter specificeert.

maxGram

integer (int32)

2

De maximale lengte van n-gram. De standaardwaarde is 2.

minGram

integer (int32)

1

De minimale lengte van n-gram. De standaardinstelling is 1. Moet kleiner zijn dan de waarde van maxGram.

name

string

De naam van het tokenfilter. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

side

EdgeNGramTokenFilterSide

front

Geeft aan welke kant van de invoer de n-gram moet worden gegenereerd. De standaardinstelling is "voorkant".

EdgeNGramTokenFilterSide

Geeft aan welke kant van de invoer een n-gram moet worden gegenereerd.

Waarde Description
front

Geeft aan dat de n-gram moet worden gegenereerd vanaf de voorkant van de invoer.

back

Geeft aan dat de n-gram moet worden gegenereerd vanaf de achterkant van de invoer.

EdgeNGramTokenFilterV2

Genereert n-gram van de gegeven grootte(n) vanaf de voor- of achterkant van een invoertoken. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenFilterV2

Een URI-fragment dat het type tokenfilter specificeert.

maxGram

integer (int32)

maximum: 300
2

De maximale lengte van n-gram. De standaardwaarde is 2. Het maximum is 300.

minGram

integer (int32)

maximum: 300
1

De minimale lengte van n-gram. De standaardinstelling is 1. Het maximum is 300. Moet kleiner zijn dan de waarde van maxGram.

name

string

De naam van het tokenfilter. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

side

EdgeNGramTokenFilterSide

front

Geeft aan welke kant van de invoer de n-gram moet worden gegenereerd. De standaardinstelling is "voorkant".

EdgeNGramTokenizer

Tokeniseert de invoer van een rand in n-grammen van de gegeven grootte(n). Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenizer

Een URI-fragment dat het type tokenizer specificeert.

maxGram

integer (int32)

maximum: 300
2

De maximale lengte van n-gram. De standaardwaarde is 2. Het maximum is 300.

minGram

integer (int32)

maximum: 300
1

De minimale lengte van n-gram. De standaardinstelling is 1. Het maximum is 300. Moet kleiner zijn dan de waarde van maxGram.

name

string

De naam van de tokenizer. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

tokenChars

TokenCharacterKind[]

Karakterklassen om in de tokens te bewaren.

ElisionTokenFilter

Verwijdert elisies. Bijvoorbeeld, "l'avion" (het vliegtuig) wordt geconverteerd naar "avion" (vliegtuig). Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Description
@odata.type string:

#Microsoft.Azure.Search.ElisionTokenFilter

Een URI-fragment dat het type tokenfilter specificeert.

articles

string[]

De set artikelen die moet worden verwijderd.

name

string

De naam van het tokenfilter. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

ErrorAdditionalInfo

Aanvullende informatie over de resourcebeheerfout.

Name Type Description
info

object

De aanvullende informatie.

type

string

Het extra informatietype.

ErrorDetail

De foutdetails.

Name Type Description
additionalInfo

ErrorAdditionalInfo[]

De fout bevat aanvullende informatie.

code

string

De foutcode.

details

ErrorDetail[]

De foutdetails.

message

string

Het foutbericht.

target

string

Het foutdoel.

ErrorResponse

Foutreactie

Name Type Description
error

ErrorDetail

Het foutobject.

ExhaustiveKnnParameters

Bevat de parameters die specifiek zijn voor het uitgebreide KNN-algoritme.

Name Type Description
metric

VectorSearchAlgorithmMetric

De gelijkenismetriek die moet worden gebruikt voor vectorvergelijkingen.

ExhaustiveKnnVectorSearchAlgorithmConfiguration

Bevat configuratie-opties die specifiek zijn voor het uitgebreide KNN-algoritme dat wordt gebruikt tijdens het uitvoeren van query's, waarmee brute-force wordt gezocht in de gehele vectorindex.

Name Type Description
exhaustiveKnnParameters

ExhaustiveKnnParameters

Bevat de parameters die specifiek zijn voor het uitgebreide KNN-algoritme.

kind string:

exhaustiveKnn

De naam van het soort algoritme dat wordt geconfigureerd voor gebruik met vectorzoekopdrachten.

name

string

De naam die aan deze specifieke configuratie moet worden gekoppeld.

FreshnessScoringFunction

Definieert een functie die scores verhoogt op basis van de waarde van een datum-tijdveld.

Name Type Description
boost

number (double)

Een vermenigvuldiger voor de ruwe score. Moet een positief getal zijn dat niet gelijk is aan 1,0.

fieldName

string

De naam van het veld dat wordt gebruikt als invoer voor de scorefunctie.

freshness

FreshnessScoringParameters

Parameterwaarden voor de versheidsscorefunctie.

interpolation

ScoringFunctionInterpolation

Een waarde die aangeeft hoe boosting wordt geïnterpoleerd over documentscores; staat standaard op "Lineair".

type string:

freshness

Geeft het type functie aan dat moet worden gebruikt. Geldige waarden zijn onder andere magnitude, versheid, afstand en tag. Het functietype moet uit kleine letters bestaan.

FreshnessScoringParameters

Biedt parameterwaarden voor een functie voor het scoren van versheid.

Name Type Description
boostingDuration

string (duration)

De vervalperiode waarna het boosten voor een bepaald document wordt stopgezet.

HnswParameters

Bevat de parameters die specifiek zijn voor het HNSW-algoritme.

Name Type Default value Description
efConstruction

integer (int32)

minimum: 100
maximum: 1000
400

De grootte van de dynamische lijst met de dichtstbijzijnde buren, die wordt gebruikt tijdens de indextijd. Het verhogen van deze parameter kan de indexkwaliteit verbeteren, wat ten koste gaat van een langere indexeringstijd. Op een gegeven moment leidt het verhogen van deze parameter tot afnemende meeropbrengsten.

efSearch

integer (int32)

minimum: 100
maximum: 1000
500

De grootte van de dynamische lijst met de dichtstbijzijnde buren, die wordt gebruikt tijdens de zoektijd. Het verhogen van deze parameter kan de zoekresultaten verbeteren, ten koste van langzamer zoeken. Op een gegeven moment leidt het verhogen van deze parameter tot afnemende meeropbrengsten.

m

integer (int32)

minimum: 4
maximum: 10
4

Het aantal bidirectionele verbindingen dat tijdens de bouw voor elk nieuw element wordt gemaakt. Het verhogen van deze parameterwaarde kan het terugroepen verbeteren en de ophaaltijden verkorten voor gegevenssets met een hoge intrinsieke dimensionaliteit, ten koste van een hoger geheugengebruik en een langere indexeringstijd.

metric

VectorSearchAlgorithmMetric

De gelijkenismetriek die moet worden gebruikt voor vectorvergelijkingen.

HnswVectorSearchAlgorithmConfiguration

Bevat configuratie-opties die specifiek zijn voor het HNSW-algoritme voor de dichtstbijzijnde buren dat wordt gebruikt tijdens het indexeren en opvragen. Het HNSW-algoritme biedt een afstembare afweging tussen zoeksnelheid en nauwkeurigheid.

Name Type Description
hnswParameters

HnswParameters

Bevat de parameters die specifiek zijn voor het HNSW-algoritme.

kind string:

hnsw

De naam van het soort algoritme dat wordt geconfigureerd voor gebruik met vectorzoekopdrachten.

name

string

De naam die aan deze specifieke configuratie moet worden gekoppeld.

InputFieldMappingEntry

Voer veldtoewijzing in voor een vaardigheid.

Name Type Description
inputs

InputFieldMappingEntry[]

De recursieve invoer die wordt gebruikt bij het maken van een complex type.

name

string

De naam van de invoer.

source

string

De bron van de input.

sourceContext

string

De broncontext die wordt gebruikt voor het selecteren van recursieve invoer.

KeepTokenFilter

Een tokenfilter dat alleen tokens bewaart met tekst in een opgegeven lijst met woorden. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.KeepTokenFilter

Een URI-fragment dat het type tokenfilter specificeert.

keepWords

string[]

De lijst met woorden die u moet bewaren.

keepWordsCase

boolean

False

Een waarde die aangeeft of alle woorden eerst in kleine letters moeten worden geschreven. De standaardwaarde is vals.

name

string

De naam van het tokenfilter. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

KeywordMarkerTokenFilter

Hiermee worden termen gemarkeerd als trefwoorden. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.KeywordMarkerTokenFilter

Een URI-fragment dat het type tokenfilter specificeert.

ignoreCase

boolean

False

Een waarde die aangeeft of hoofdletters moeten worden genegeerd. Als dit waar is, worden alle woorden eerst geconverteerd naar kleine letters. De standaardwaarde is vals.

keywords

string[]

Een lijst met woorden die u als trefwoorden moet markeren.

name

string

De naam van het tokenfilter. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

KeywordTokenizer

Zendt de volledige invoer uit als een enkel token. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.KeywordTokenizer

Een URI-fragment dat het type tokenizer specificeert.

bufferSize

integer (int32)

256

De grootte van de leesbuffer in bytes. De standaardwaarde is 256.

name

string

De naam van de tokenizer. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

KeywordTokenizerV2

Zendt de volledige invoer uit als een enkel token. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.KeywordTokenizerV2

Een URI-fragment dat het type tokenizer specificeert.

maxTokenLength

integer (int32)

maximum: 300
256

De maximale tokenlengte. De standaardwaarde is 256. Tokens die langer zijn dan de maximale lengte worden gesplitst. De maximale tokenlengte die kan worden gebruikt is 300 tekens.

name

string

De naam van de tokenizer. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

LengthTokenFilter

Verwijdert woorden die te lang of te kort zijn. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.LengthTokenFilter

Een URI-fragment dat het type tokenfilter specificeert.

max

integer (int32)

maximum: 300
300

De maximale lengte in tekens. Standaard en maximum is 300.

min

integer (int32)

maximum: 300
0

De minimale lengte in tekens. De standaardwaarde is 0. Het maximum is 300. Moet kleiner zijn dan de waarde van max.

name

string

De naam van het tokenfilter. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

LexicalAnalyzerName

Definieert de namen van alle tekstanalysatoren die door de zoekmachine worden ondersteund.

Waarde Description
ar.microsoft

Microsoft-analyzer voor Arabisch.

ar.lucene

Lucene analyzer voor Arabisch.

hy.lucene

Lucene analyzer voor Armeens.

bn.microsoft

Microsoft-analysator voor Bangla.

eu.lucene

Lucene-analysator voor Baskisch.

bg.microsoft

Microsoft analyzer voor Bulgaars.

bg.lucene

Lucene analyzer voor Bulgaars.

ca.microsoft

Microsoft analyzer voor het Catalaans.

ca.lucene

Lucene analyzer voor Catalaans.

zh-Hans.microsoft

Microsoft-analyzer voor Chinees (vereenvoudigd).

zh-Hans.lucene

Lucene analyzer voor Chinees (Vereenvoudigd).

zh-Hant.microsoft

Microsoft-analyzer voor Chinees (traditioneel).

zh-Hant.lucene

Lucene analyzer voor Chinees (traditioneel).

hr.microsoft

Microsoft analyzer voor Kroatisch.

cs.microsoft

Microsoft analyzer voor Tsjechisch.

cs.lucene

Lucene analyzer voor Tsjechisch.

da.microsoft

Microsoft analyzer voor Deens.

da.lucene

Lucene analyzer voor Deens.

nl.microsoft

Microsoft analyzer voor Nederlands.

nl.lucene

Lucene analyzer voor Nederlands.

en.microsoft

Microsoft-analysator voor Engels.

en.lucene

Lucene analyzer voor Engels.

et.microsoft

Microsoft analyzer voor het Ests.

fi.microsoft

Microsoft-analysator voor Fins.

fi.lucene

Lucene analyzer voor Fins.

fr.microsoft

Microsoft analyzer voor Frans.

fr.lucene

Lucene analyzer voor Frans.

gl.lucene

Lucene analyzer voor Galicisch.

de.microsoft

Microsoft-analysator voor Duits.

de.lucene

Lucene analyzer voor Duits.

el.microsoft

Microsoft analyzer voor Grieks.

el.lucene

Lucene analyzer voor Grieks.

gu.microsoft

Microsoft-analysator voor Gujarati.

he.microsoft

Microsoft-analysator voor Hebreeuws.

hi.microsoft

Microsoft-analyzer voor Hindi.

hi.lucene

Lucene analyzer voor Hindi.

hu.microsoft

Microsoft analyzer voor Hongaars.

hu.lucene

Lucene analyzer voor Hongaars.

is.microsoft

Microsoft-analyzer voor IJslands.

id.microsoft

Microsoft analyzer voor Indonesisch (Bahasa).

id.lucene

Lucene analyzer voor Indonesisch.

ga.lucene

Lucene analyzer voor Iers.

it.microsoft

Microsoft-analyzer voor Italiaans.

it.lucene

Lucene analyzer voor Italiaans.

ja.microsoft

Microsoft analyzer voor Japans.

ja.lucene

Lucene analyzer voor Japans.

kn.microsoft

Microsoft-analyzer voor Kannada.

ko.microsoft

Microsoft-analysator voor Koreaans.

ko.lucene

Lucene analyzer voor Koreaans.

lv.microsoft

Microsoft analyzer voor Lets.

lv.lucene

Lucene analyzer voor Lets.

lt.microsoft

Microsoft analyzer voor Litouws.

ml.microsoft

Microsoft-analyzer voor Malayalam.

ms.microsoft

Microsoft analyzer voor Maleis (Latijn).

mr.microsoft

Microsoft-analyzer voor Marathi.

nb.microsoft

Microsoft analyzer voor Noors (Bokmål).

no.lucene

Lucene analyzer voor Noors.

fa.lucene

Lucene analyzer voor Perzisch.

pl.microsoft

Microsoft-analysator voor Pools.

pl.lucene

Lucene analyzer voor Pools.

pt-BR.microsoft

Microsoft analyzer voor Portugees (Brazilië).

pt-BR.lucene

Lucene analyzer voor Portugees (Brazilië).

pt-PT.microsoft

Microsoft analyzer voor Portugees (Portugal).

pt-PT.lucene

Lucene analyzer voor Portugees (Portugal).

pa.microsoft

Microsoft-analysator voor Punjabi.

ro.microsoft

Microsoft analyzer voor Roemeens.

ro.lucene

Lucene analyzer voor Roemeens.

ru.microsoft

Microsoft-analysator voor Russisch.

ru.lucene

Lucene analyzer voor Russisch.

sr-cyrillic.microsoft

Microsoft analyzer voor Servisch (Cyrillisch).

sr-latin.microsoft

Microsoft-analyzer voor Servisch (Latijn).

sk.microsoft

Microsoft-analyzer voor Slowaaks.

sl.microsoft

Microsoft analyzer voor het Sloveens.

es.microsoft

Microsoft-analyzer voor Spaans.

es.lucene

Lucene analyzer voor Spaans.

sv.microsoft

Microsoft analyzer voor Zweeds.

sv.lucene

Lucene analyzer voor Zweeds.

ta.microsoft

Microsoft-analyzer voor Tamil.

te.microsoft

Microsoft-analysator voor Telugu.

th.microsoft

Microsoft-analyzer voor Thais.

th.lucene

Lucene analyzer voor Thais.

tr.microsoft

Microsoft-analysator voor Turks.

tr.lucene

Lucene analyzer voor Turks.

uk.microsoft

Microsoft-analysator voor Oekraïens.

ur.microsoft

Microsoft-analyzer voor Urdu.

vi.microsoft

Microsoft-analyzer voor Vietnamees.

standard.lucene

Standaard Lucene-analysator.

standardasciifolding.lucene

Standaard ASCII opvouwbare lucene-analysator. Zie https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers

keyword

Hiermee wordt de volledige inhoud van een veld als één token behandeld. Dit is handig voor gegevens zoals postcodes, ID's en sommige productnamen. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html

pattern

Scheidt tekst flexibel in termen via een patroon van reguliere expressies. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html

simple

Verdeelt tekst op niet-letters en converteert deze naar kleine letters. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html

stop

Verdeelt tekst op niet-letters; Hiermee past u de tokenfilters voor kleine letters en stopwoorden toe. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html

whitespace

Een analysator die gebruikmaakt van de whitespace-tokenizer. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalNormalizerName

Definieert de namen van alle tekstnormalizers die door de zoekmachine worden ondersteund.

Waarde Description
asciifolding

Hiermee worden alfabetische, numerieke en symbolische Unicode-tekens die niet in de eerste 127 ASCII-tekens (het Unicode-blok 'Basis Latijn' voorkomen) geconverteerd naar hun ASCII-equivalenten, als dergelijke equivalenten bestaan. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html

elision

Verwijdert elisies. Bijvoorbeeld, "l'avion" (het vliegtuig) wordt geconverteerd naar "avion" (vliegtuig). Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html

lowercase

Normaliseert tokentekst naar kleine letters. Zie https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html

standard

Standaard normalisator, die bestaat uit kleine letters en asciifolding. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html

uppercase

Normaliseert tokentekst naar hoofdletters. Zie https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html

LexicalTokenizerName

Definieert de namen van alle tokenizers die door de zoekmachine worden ondersteund.

Waarde Description
classic

Op grammatica gebaseerde tokenizer die geschikt is voor het verwerken van de meeste Europeestalige documenten. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html

edgeNGram

Tokeniseert de invoer van een rand in n-grammen van de gegeven grootte(n). Zie https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html

keyword_v2

Zendt de volledige invoer uit als een enkel token. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html

letter

Verdeelt tekst op niet-letters. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html

lowercase

Verdeelt tekst op niet-letters en converteert deze naar kleine letters. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html

microsoft_language_tokenizer

Verdeelt tekst met behulp van taalspecifieke regels.

microsoft_language_stemming_tokenizer

Verdeelt tekst met behulp van taalspecifieke regels en reduceert woorden tot hun basisvorm.

nGram

Tokeniseert de invoer in n-grammen van de gegeven grootte(n). Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html

path_hierarchy_v2

Tokenizer voor padachtige hiërarchieën. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html

pattern

Tokenizer die regex-patroonmatching gebruikt om afzonderlijke tokens te maken. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html

standard_v2

Standaard Lucene-analysator; Samengesteld uit de standaard tokenizer, kleine letters filter en stopfilter. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html

uax_url_email

Tokeniseert url's en e-mails als één token. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html

whitespace

Verdeelt tekst in witruimte. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

LimitTokenFilter

Beperkt het aantal tokens tijdens het indexeren. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.LimitTokenFilter

Een URI-fragment dat het type tokenfilter specificeert.

consumeAllTokens

boolean

False

Een waarde die aangeeft of alle tokens van de invoer moeten worden verbruikt, zelfs als maxTokenCount is bereikt. De standaardwaarde is vals.

maxTokenCount

integer (int32)

1

Het maximale aantal tokens dat moet worden geproduceerd. De standaardinstelling is 1.

name

string

De naam van het tokenfilter. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

LuceneStandardAnalyzer

Standaard Apache Lucene-analysator; Samengesteld uit de standaard tokenizer, kleine letters filter en stopfilter.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.StandardAnalyzer

Een URI-fragment dat het type analysator specificeert.

maxTokenLength

integer (int32)

maximum: 300
255

De maximale tokenlengte. De standaardwaarde is 255. Tokens die langer zijn dan de maximale lengte worden gesplitst. De maximale tokenlengte die kan worden gebruikt is 300 tekens.

name

string

De naam van de analysator. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

stopwords

string[]

Een lijst met stopwoorden.

LuceneStandardTokenizer

Breekt tekst af volgens de Unicode-tekstsegmentatieregels. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.StandardTokenizer

Een URI-fragment dat het type tokenizer specificeert.

maxTokenLength

integer (int32)

255

De maximale tokenlengte. De standaardwaarde is 255. Tokens die langer zijn dan de maximale lengte worden gesplitst.

name

string

De naam van de tokenizer. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

LuceneStandardTokenizerV2

Breekt tekst af volgens de Unicode-tekstsegmentatieregels. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.StandardTokenizerV2

Een URI-fragment dat het type tokenizer specificeert.

maxTokenLength

integer (int32)

maximum: 300
255

De maximale tokenlengte. De standaardwaarde is 255. Tokens die langer zijn dan de maximale lengte worden gesplitst. De maximale tokenlengte die kan worden gebruikt is 300 tekens.

name

string

De naam van de tokenizer. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

MagnitudeScoringFunction

Definieert een functie die scores verhoogt op basis van de grootte van een numeriek veld.

Name Type Description
boost

number (double)

Een vermenigvuldiger voor de ruwe score. Moet een positief getal zijn dat niet gelijk is aan 1,0.

fieldName

string

De naam van het veld dat wordt gebruikt als invoer voor de scorefunctie.

interpolation

ScoringFunctionInterpolation

Een waarde die aangeeft hoe boosting wordt geïnterpoleerd over documentscores; staat standaard op "Lineair".

magnitude

MagnitudeScoringParameters

Parameterwaarden voor de functie voor het scoren van de magnitude.

type string:

magnitude

Geeft het type functie aan dat moet worden gebruikt. Geldige waarden zijn onder andere magnitude, versheid, afstand en tag. Het functietype moet uit kleine letters bestaan.

MagnitudeScoringParameters

Biedt parameterwaarden voor een functie voor het scoren van magnitudes.

Name Type Description
boostingRangeEnd

number (double)

De veldwaarde waarbij het boosten eindigt.

boostingRangeStart

number (double)

De veldwaarde waarbij het boosten begint.

constantBoostBeyondRange

boolean

Een waarde die aangeeft of een constante verhoging moet worden toegepast voor veldwaarden die hoger zijn dan de eindwaarde van het bereik; Standaard is onwaar.

MappingCharFilter

Een tekenfilter dat toewijzingen toepast die zijn gedefinieerd met de optie Toewijzingen. Matchen is hebzuchtig (de langste patroonovereenkomst op een bepaald punt wint). Vervanging mag de lege snaar zijn. Dit tekenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Description
@odata.type string:

#Microsoft.Azure.Search.MappingCharFilter

Een URI-fragment dat het type char-filter specificeert.

mappings

string[]

Een lijst met toewijzingen in de volgende notatie: "a=>b" (alle exemplaren van het teken "a" worden vervangen door het teken "b").

name

string

De naam van het verkoolde filter. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

MicrosoftLanguageStemmingTokenizer

Verdeelt tekst met behulp van taalspecifieke regels en reduceert woorden tot hun basisvorm.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.MicrosoftLanguageStemmingTokenizer

Een URI-fragment dat het type tokenizer specificeert.

isSearchTokenizer

boolean

False

Een waarde die aangeeft hoe de tokenizer wordt gebruikt. Stel in op true als het wordt gebruikt als de zoektokenizer, ingesteld op false als het wordt gebruikt als de indexeringstokenizer. De standaardwaarde is vals.

language

MicrosoftStemmingTokenizerLanguage

De taal om te gebruiken. De standaardinstelling is Engels.

maxTokenLength

integer (int32)

maximum: 300
255

De maximale tokenlengte. Tokens die langer zijn dan de maximale lengte worden gesplitst. De maximale tokenlengte die kan worden gebruikt is 300 tekens. Tokens langer dan 300 tekens worden eerst gesplitst in tokens met een lengte van 300 en vervolgens wordt elk van die tokens gesplitst op basis van de maximale tokenlengte die is ingesteld. De standaardwaarde is 255.

name

string

De naam van de tokenizer. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

MicrosoftLanguageTokenizer

Verdeelt tekst met behulp van taalspecifieke regels.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.MicrosoftLanguageTokenizer

Een URI-fragment dat het type tokenizer specificeert.

isSearchTokenizer

boolean

False

Een waarde die aangeeft hoe de tokenizer wordt gebruikt. Stel in op true als het wordt gebruikt als de zoektokenizer, ingesteld op false als het wordt gebruikt als de indexeringstokenizer. De standaardwaarde is vals.

language

MicrosoftTokenizerLanguage

De taal om te gebruiken. De standaardinstelling is Engels.

maxTokenLength

integer (int32)

maximum: 300
255

De maximale tokenlengte. Tokens die langer zijn dan de maximale lengte worden gesplitst. De maximale tokenlengte die kan worden gebruikt is 300 tekens. Tokens langer dan 300 tekens worden eerst gesplitst in tokens met een lengte van 300 en vervolgens wordt elk van die tokens gesplitst op basis van de maximale tokenlengte die is ingesteld. De standaardwaarde is 255.

name

string

De naam van de tokenizer. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

MicrosoftStemmingTokenizerLanguage

Geeft een lijst van de talen die worden ondersteund door de Microsoft-taalstamtokenizer.

Waarde Description
arabic

Selecteert de Microsoft-stemtokenizer voor Arabisch.

bangla

Selecteert de Microsoft-stamtokenizer voor Bangla.

bulgarian

Selecteert de Microsoft stem-tokenizer voor Bulgaars.

catalan

Selecteert de Microsoft stem-tokenizer voor het Catalaans.

croatian

Selecteert de Microsoft stem-tokenizer voor Kroatisch.

czech

Selecteert de Microsoft stem-tokenizer voor Tsjechisch.

danish

Selecteert de Microsoft stem-tokenizer voor Deens.

dutch

Selecteert de Microsoft stemming tokenizer voor Nederlands.

english

Selecteert de Microsoft-stemtokenizer voor Engels.

estonian

Selecteert de Microsoft stem-tokenizer voor Ests.

finnish

Selecteert de Microsoft-stamtokenizer voor Fins.

french

Selecteert de Microsoft stem-tokenizer voor Frans.

german

Selecteert de Microsoft-stemtokenizer voor Duits.

greek

Selecteert de Microsoft stem-tokenizer voor Grieks.

gujarati

Selecteert de Microsoft-stemtokenizer voor Gujarati.

hebrew

Selecteert de Microsoft-stamtokenizer voor Hebreeuws.

hindi

Selecteert de Microsoft-stemtokenizer voor Hindi.

hungarian

Selecteert de Microsoft stem-tokenizer voor Hongaars.

icelandic

Selecteert de Microsoft-stemtokenizer voor IJslands.

indonesian

Selecteert de Microsoft-stemtokenizer voor Indonesisch.

italian

Selecteert de Microsoft stem-tokenizer voor Italiaans.

kannada

Selecteert de Microsoft-stemtokenizer voor Kannada.

latvian

Selecteert de Microsoft-stemtokenizer voor Lets.

lithuanian

Selecteert de Microsoft stem-tokenizer voor Litouws.

malay

Selecteert de Microsoft-stamtokenizer voor Maleis.

malayalam

Selecteert de Microsoft-stemtokenizer voor Malayalam.

marathi

Selecteert de Microsoft-stemtokenizer voor Marathi.

norwegianBokmaal

Hiermee selecteert u de Microsoft stem-tokenizer voor Noors (Bokmål).

polish

Selecteert de Microsoft-stemtokenizer voor Pools.

portuguese

Selecteert de Microsoft stem-tokenizer voor Portugees.

portugueseBrazilian

Selecteert de Microsoft stemming tokenizer voor Portugees (Brazilië).

punjabi

Selecteert de Microsoft-stemtokenizer voor Punjabi.

romanian

Selecteert de Microsoft stem-tokenizer voor Roemeens.

russian

Selecteert de Microsoft stem-tokenizer voor Russisch.

serbianCyrillic

Selecteert de Microsoft stem-tokenizer voor Servisch (Cyrillisch).

serbianLatin

Selecteert de Microsoft-stamtokenizer voor Servisch (Latijn).

slovak

Selecteert de Microsoft-stemtokenizer voor Slowaaks.

slovenian

Selecteert de Microsoft stem-tokenizer voor Sloveens.

spanish

Selecteert de Microsoft stem-tokenizer voor Spaans.

swedish

Selecteert de Microsoft-stemtokenizer voor Zweeds.

tamil

Selecteert de Microsoft-stamtokenizer voor Tamil.

telugu

Selecteert de Microsoft-stemtokenizer voor Telugu.

turkish

Selecteert de Microsoft stem-tokenizer voor Turks.

ukrainian

Selecteert de Microsoft stem-tokenizer voor Oekraïens.

urdu

Selecteert de Microsoft-stemtokenizer voor Urdu.

MicrosoftTokenizerLanguage

Geeft een lijst van de talen die worden ondersteund door de Microsoft-taaltokenizer.

Waarde Description
bangla

Selecteert de Microsoft-tokenizer voor Bangla.

bulgarian

Selecteert de Microsoft-tokenizer voor Bulgaars.

catalan

Selecteert de Microsoft-tokenizer voor het Catalaans.

chineseSimplified

Selecteert de Microsoft-tokenizer voor Chinees (vereenvoudigd).

chineseTraditional

Selecteert de Microsoft-tokenizer voor Chinees (traditioneel).

croatian

Selecteert de Microsoft-tokenizer voor Kroatisch.

czech

Selecteert de Microsoft-tokenizer voor Tsjechisch.

danish

Selecteert de Microsoft-tokenizer voor Deens.

dutch

Selecteert de Microsoft tokenizer voor Nederlands.

english

Selecteert de Microsoft-tokenizer voor Engels.

french

Selecteert de Microsoft-tokenizer voor Frans.

german

Selecteert de Microsoft-tokenizer voor Duits.

greek

Selecteert de Microsoft-tokenizer voor Grieks.

gujarati

Selecteert de Microsoft-tokenizer voor Gujarati.

hindi

Selecteert de Microsoft-tokenizer voor Hindi.

icelandic

Selecteert de Microsoft-tokenizer voor IJslands.

indonesian

Selecteert de Microsoft-tokenizer voor Indonesisch.

italian

Selecteert de Microsoft-tokenizer voor Italiaans.

japanese

Selecteert de Microsoft-tokenizer voor Japans.

kannada

Selecteert de Microsoft-tokenizer voor Kannada.

korean

Selecteert de Microsoft-tokenizer voor Koreaans.

malay

Selecteert de Microsoft-tokenizer voor Maleis.

malayalam

Selecteert de Microsoft-tokenizer voor Malayalam.

marathi

Selecteert de Microsoft-tokenizer voor Marathi.

norwegianBokmaal

Hiermee selecteert u de Microsoft-tokenizer voor Noors (Bokmål).

polish

Selecteert de Microsoft-tokenizer voor Pools.

portuguese

Selecteert de Microsoft-tokenizer voor Portugees.

portugueseBrazilian

Selecteert de Microsoft-tokenizer voor Portugees (Brazilië).

punjabi

Selecteert de Microsoft-tokenizer voor Punjabi.

romanian

Selecteert de Microsoft-tokenizer voor Roemeens.

russian

Selecteert de Microsoft-tokenizer voor Russisch.

serbianCyrillic

Selecteert de Microsoft-tokenizer voor Servisch (Cyrillisch).

serbianLatin

Selecteert de Microsoft-tokenizer voor Servisch (Latijn).

slovenian

Selecteert de Microsoft-tokenizer voor Sloveens.

spanish

Selecteert de Microsoft-tokenizer voor Spaans.

swedish

Selecteert de Microsoft-tokenizer voor Zweeds.

tamil

Selecteert de Microsoft-tokenizer voor Tamil.

telugu

Selecteert de Microsoft-tokenizer voor Telugu.

thai

Selecteert de Microsoft-tokenizer voor Thais.

ukrainian

Selecteert de Microsoft-tokenizer voor Oekraïens.

urdu

Selecteert de Microsoft-tokenizer voor Urdu.

vietnamese

Selecteert de Microsoft-tokenizer voor Vietnamees.

NGramTokenFilter

Genereert n-gram van de gegeven grootte(s). Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.NGramTokenFilter

Een URI-fragment dat het type tokenfilter specificeert.

maxGram

integer (int32)

2

De maximale lengte van n-gram. De standaardwaarde is 2.

minGram

integer (int32)

1

De minimale lengte van n-gram. De standaardinstelling is 1. Moet kleiner zijn dan de waarde van maxGram.

name

string

De naam van het tokenfilter. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

NGramTokenFilterV2

Genereert n-gram van de gegeven grootte(s). Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.NGramTokenFilterV2

Een URI-fragment dat het type tokenfilter specificeert.

maxGram

integer (int32)

maximum: 300
2

De maximale lengte van n-gram. De standaardwaarde is 2. Het maximum is 300.

minGram

integer (int32)

maximum: 300
1

De minimale lengte van n-gram. De standaardinstelling is 1. Het maximum is 300. Moet kleiner zijn dan de waarde van maxGram.

name

string

De naam van het tokenfilter. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

NGramTokenizer

Tokeniseert de invoer in n-grammen van de gegeven grootte(n). Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.NGramTokenizer

Een URI-fragment dat het type tokenizer specificeert.

maxGram

integer (int32)

maximum: 300
2

De maximale lengte van n-gram. De standaardwaarde is 2. Het maximum is 300.

minGram

integer (int32)

maximum: 300
1

De minimale lengte van n-gram. De standaardinstelling is 1. Het maximum is 300. Moet kleiner zijn dan de waarde van maxGram.

name

string

De naam van de tokenizer. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

tokenChars

TokenCharacterKind[]

Karakterklassen om in de tokens te bewaren.

OutputFieldMappingEntry

Uitvoerveldtoewijzing voor een vaardigheid.

Name Type Description
name

string

De naam van de uitvoer die door de vaardigheid wordt gedefinieerd.

targetName

string

De doelnaam van de uitvoer. Het is optioneel en standaard een naam.

PathHierarchyTokenizerV2

Tokenizer voor padachtige hiërarchieën. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.PathHierarchyTokenizerV2

Een URI-fragment dat het type tokenizer specificeert.

delimiter

string (char)

/

Het scheidingsteken dat u wilt gebruiken. De standaardwaarde is "/".

maxTokenLength

integer (int32)

maximum: 300
300

De maximale tokenlengte. Standaard en maximum is 300.

name

string

De naam van de tokenizer. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

replacement

string (char)

/

Een waarde die, indien ingesteld, het scheidingsteken vervangt. De standaardwaarde is "/".

reverse

boolean

False

Een waarde die aangeeft of tokens in omgekeerde volgorde moeten worden gegenereerd. De standaardwaarde is vals.

skip

integer (int32)

0

Het aantal initiële tokens dat moet worden overgeslagen. De standaardwaarde is 0.

PatternAnalyzer

Scheidt tekst flexibel in termen via een patroon van reguliere expressies. Deze analyzer wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.PatternAnalyzer

Een URI-fragment dat het type analysator specificeert.

flags

RegexFlags

Vlaggen voor reguliere expressies.

lowercase

boolean

True

Een waarde die aangeeft of termen in kleine letters moeten worden gebruikt. De standaardwaarde is waar.

name

string

De naam van de analysator. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

pattern

string

\W+

Een patroon voor reguliere expressies om tokenscheidingstekens te koppelen. Standaard is een expressie die overeenkomt met een of meer niet-woordtekens.

stopwords

string[]

Een lijst met stopwoorden.

PatternCaptureTokenFilter

Gebruikt Java-regexes om meerdere tokens uit te zenden - één voor elke capture-groep in een of meer patronen. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.PatternCaptureTokenFilter

Een URI-fragment dat het type tokenfilter specificeert.

name

string

De naam van het tokenfilter. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

patterns

string[]

Een lijst met patronen die je tegen elk token kunt matchen.

preserveOriginal

boolean

True

Een waarde die aangeeft of het oorspronkelijke token moet worden geretourneerd, zelfs als een van de patronen overeenkomt. De standaardwaarde is waar.

PatternReplaceCharFilter

Een tekenfilter dat tekens in de invoerreeks vervangt. Het gebruikt een reguliere expressie om tekenreeksen te identificeren die moeten worden behouden en een vervangend patroon om tekens te identificeren die moeten worden vervangen. Bijvoorbeeld, gegeven de invoertekst "aa bb aa bb", patroon "(aa)\s+(bb)" en vervanging "$1#$2", zou het resultaat "aa#bb aa#bb" zijn. Dit tekenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Description
@odata.type string:

#Microsoft.Azure.Search.PatternReplaceCharFilter

Een URI-fragment dat het type char-filter specificeert.

name

string

De naam van het verkoolde filter. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

pattern

string

Een patroon van regelmatige expressies.

replacement

string

De vervangende tekst.

PatternReplaceTokenFilter

Een tekenfilter dat tekens in de invoerreeks vervangt. Het gebruikt een reguliere expressie om tekenreeksen te identificeren die moeten worden behouden en een vervangend patroon om tekens te identificeren die moeten worden vervangen. Bijvoorbeeld, gegeven de invoertekst "aa bb aa bb", patroon "(aa)\s+(bb)" en vervanging "$1#$2", zou het resultaat "aa#bb aa#bb" zijn. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Description
@odata.type string:

#Microsoft.Azure.Search.PatternReplaceTokenFilter

Een URI-fragment dat het type tokenfilter specificeert.

name

string

De naam van het tokenfilter. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

pattern

string

Een patroon van regelmatige expressies.

replacement

string

De vervangende tekst.

PatternTokenizer

Tokenizer die regex-patroonmatching gebruikt om afzonderlijke tokens te maken. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.PatternTokenizer

Een URI-fragment dat het type tokenizer specificeert.

flags

RegexFlags

Vlaggen voor reguliere expressies.

group

integer (int32)

-1

De op nul gebaseerde ordinaal van de overeenkomende groep in het patroon van de reguliere expressie om in tokens te extraheren. Gebruik -1 als u het hele patroon wilt gebruiken om de invoer op te splitsen in tokens, ongeacht de overeenkomende groepen. De standaardwaarde is -1.

name

string

De naam van de tokenizer. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

pattern

string

\W+

Een patroon voor reguliere expressies om tokenscheidingstekens te koppelen. Standaard is een expressie die overeenkomt met een of meer niet-woordtekens.

PhoneticEncoder

Identificeert het type fonetische encoder dat moet worden gebruikt met een PhoneticTokenFilter.

Waarde Description
metaphone

Codeert een token in een metafoonwaarde.

doubleMetaphone

Codeert een token in een dubbele metafoonwaarde.

soundex

Codeert een token in een Soundex-waarde.

refinedSoundex

Codeert een token in een Refined Soundex-waarde.

caverphone1

Codeert een token in een Caverphone 1.0-waarde.

caverphone2

Codeert een token in een Caverphone 2.0-waarde.

cologne

Codeert een token in een Fonetische waarde van Keulen.

nysiis

Codeert een token in een NYSIIS-waarde.

koelnerPhonetik

Codeert een token met behulp van het Kölner Phonetik-algoritme.

haasePhonetik

Codeert een token met behulp van de Haase-verfijning van het Kölner Phonetik-algoritme.

beiderMorse

Codeert een token in een Beider-Morse waarde.

PhoneticTokenFilter

Maak tokens voor fonetische overeenkomsten. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.PhoneticTokenFilter

Een URI-fragment dat het type tokenfilter specificeert.

encoder

PhoneticEncoder

metaphone

De fonetische encoder om te gebruiken. De standaardinstelling is "metaphone".

name

string

De naam van het tokenfilter. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

replace

boolean

True

Een waarde die aangeeft of gecodeerde tokens de originele tokens moeten vervangen. Als ze onwaar zijn, worden gecodeerde tokens toegevoegd als synoniemen. De standaardwaarde is waar.

PrioritizedFields

Beschrijft de velden voor titel, inhoud en trefwoorden die moeten worden gebruikt voor semantische rangschikking, bijschriften, markeringen en antwoorden.

Name Type Description
prioritizedContentFields

SemanticField[]

Definieert de inhoudsvelden die moeten worden gebruikt voor semantische rangschikking, bijschriften, markeringen en antwoorden. Voor het beste resultaat moeten de geselecteerde velden tekst in natuurlijke taal bevatten. De volgorde van de velden in de matrix geeft hun prioriteit aan. Velden met een lagere prioriteit kunnen worden afgekapt als de inhoud lang is.

prioritizedKeywordsFields

SemanticField[]

Definieert de trefwoordvelden die moeten worden gebruikt voor semantische rangschikking, bijschriften, markeringen en antwoorden. Voor het beste resultaat moeten de geselecteerde velden een lijst met trefwoorden bevatten. De volgorde van de velden in de matrix geeft hun prioriteit aan. Velden met een lagere prioriteit kunnen worden afgekapt als de inhoud lang is.

titleField

SemanticField

Definieert het titelveld dat moet worden gebruikt voor semantische rangschikking, bijschriften, markeringen en antwoorden. Als u geen titelveld in uw index heeft, laat u dit veld leeg.

RankingOrder

Vertegenwoordigt de score die moet worden gebruikt voor de sorteervolgorde van documenten.

Waarde Description
BoostedRerankerScore

Stelt de sorteervolgorde in als BoostedRerankerScore

RerankerScore

Stelt de sorteervolgorde in als ReRankerScore

RegexFlags

Definieert vlaggen die kunnen worden gecombineerd om te bepalen hoe reguliere expressies worden gebruikt in de patroonanalyse en patroontokenizer.

Waarde Description
CANON_EQ

Maakt canonieke equivalentie mogelijk.

CASE_INSENSITIVE

Maakt hoofdlettergevoelige overeenkomsten mogelijk.

COMMENTS

Hiermee staat witruimte en opmerkingen in het patroon toe.

DOTALL

Schakelt de dotall-modus in.

LITERAL

Maakt letterlijke parsing van het patroon mogelijk.

MULTILINE

Schakelt de modus met meerdere lijnen in.

UNICODE_CASE

Maakt Unicode-bewust vouwen van hoesjes mogelijk.

UNIX_LINES

Schakelt de Unix-lijnenmodus in.

RescoringOptions

Bevat de opties voor het opnieuw scoren.

Name Type Default value Description
defaultOversampling

number (double)

Standaard oversampling-factor. Oversampling haalt een grotere set potentiële documenten op om het resolutieverlies als gevolg van kwantisatie te compenseren. Dit verhoogt de set resultaten die opnieuw worden gescoord op vectoren met volledige precisie. De minimumwaarde is 1, wat betekent dat er geen oversampling is (1x). Deze parameter kan alleen worden ingesteld als 'enableRescoring' waar is. Hogere waarden verbeteren de herinnering ten koste van de latentie.

enableRescoring

boolean

True

Als deze optie is ingesteld op true, worden de similariteitsscores na de eerste zoekopdracht op de gecomprimeerde vectoren opnieuw berekend met behulp van de vectoren met volledige precisie. Dit zal de herinnering verbeteren ten koste van de latentie.

rescoreStorageMethod

VectorSearchCompressionRescoreStorageMethod

preserveOriginals

Hiermee bepaalt u de opslagmethode voor originele vectoren. Deze instelling is onveranderlijk.

ScalarQuantizationParameters

Bevat de parameters die specifiek zijn voor scalaire kwantisatie.

Name Type Description
quantizedDataType

VectorSearchCompressionTargetDataType

Het gekwantiseerde gegevenstype van gecomprimeerde vectorwaarden.

ScalarQuantizationVectorSearchCompressionConfiguration

Bevat configuratieopties die specifiek zijn voor de compressiemethode voor scalaire kwantisering die wordt gebruikt tijdens het indexeren en uitvoeren van query's.

Name Type Description
kind string:

scalarQuantization

De naam van het soort compressiemethode dat wordt geconfigureerd voor gebruik met vectorzoekopdrachten.

name

string

De naam die aan deze specifieke configuratie moet worden gekoppeld.

rescoringOptions

RescoringOptions

Bevat de opties voor het opnieuw scoren.

scalarQuantizationParameters

ScalarQuantizationParameters

Bevat de parameters die specifiek zijn voor scalaire kwantisatie.

truncationDimension

integer (int32)

Het aantal dimensies waarnaar de vectoren moeten worden ingekort. Door de vectoren af te kappen, worden de vectoren kleiner en wordt de hoeveelheid gegevens die tijdens het zoeken moet worden overgedragen, verminderd. Dit kan opslagkosten besparen en de zoekprestaties verbeteren ten koste van het terugroepen. Het mag alleen worden gebruikt voor inbeddingen die zijn getraind met Matryoshka Representation Learning (MRL), zoals OpenAI text-embedding-3-large (klein). De standaardwaarde is null, wat betekent dat er geen afkapping is.

ScoringFunctionAggregation

Definieert de aggregatiefunctie die wordt gebruikt om de resultaten van alle scorefuncties in een scoreprofiel te combineren.

Waarde Description
sum

Verhoog de scores met de som van alle resultaten van de scorefunctie.

average

Verhoog de scores met het gemiddelde van alle resultaten van de scorefunctie.

minimum

Verhoog de scores met het minimum van alle resultaten van de scorefunctie.

maximum

Verhoog de scores met het maximum van alle resultaten van de scorefunctie.

firstMatching

Verhoog de scores met behulp van de eerste toepasselijke scorefunctie in het scoreprofiel.

ScoringFunctionInterpolation

Definieert de functie die wordt gebruikt om scoreverhoging te interpoleren in een reeks documenten.

Waarde Description
linear

Verhoogt de scores met een lineair afnemende hoeveelheid. Dit is de standaardinterpolatie voor scorefuncties.

constant

Verhoogt de scores met een constante factor.

quadratic

Verhoogt scores met een hoeveelheid die kwadratisch afneemt. Boosts nemen langzaam af voor hogere scores en sneller naarmate de scores afnemen. Deze interpolatieoptie is niet toegestaan in functies voor het scoren van tags.

logarithmic

Verhoogt de scores met een hoeveelheid die logaritmisch afneemt. Boosts nemen snel af voor hogere scores en langzamer naarmate de scores afnemen. Deze interpolatieoptie is niet toegestaan in functies voor het scoren van tags.

ScoringProfile

Definieert parameters voor een zoekindex die van invloed zijn op de score in zoekopdrachten.

Name Type Description
functionAggregation

ScoringFunctionAggregation

Een waarde die aangeeft hoe de resultaten van individuele scorefuncties moeten worden gecombineerd. Staat standaard op "Som". Genegeerd als er geen scorefuncties zijn.

functions ScoringFunction[]:

Het verzamelen van functies die van invloed zijn op het scoren van documenten.

name

string

De naam van het scoreprofiel.

text

TextWeights

Parameters die de score verhogen op basis van tekstovereenkomsten in bepaalde indexvelden.

SearchField

Vertegenwoordigt een veld in een indexdefinitie, waarin de naam, het gegevenstype en het zoekgedrag van een veld worden beschreven.

Name Type Description
analyzer

LexicalAnalyzerName

De naam van de analysator die voor het veld moet worden gebruikt. Deze optie kan alleen worden gebruikt met doorzoekbare velden en kan niet samen met searchAnalyzer of indexAnalyzer worden ingesteld. Als de analyzer eenmaal is gekozen, kan deze niet meer worden gewijzigd voor het veld. Moet null zijn voor complexe velden.

dimensions

integer (int32)

minimum: 2
maximum: 4096

De dimensionaliteit van het vectorveld.

facetable

boolean

Een waarde die aangeeft of er moet worden ingeschakeld dat naar het veld wordt verwezen in facetquery's. Meestal gebruikt in een presentatie van zoekresultaten met hit count per categorie (bijvoorbeeld zoeken naar digitale camera's en treffers per merk, per megapixel, prijs, enzovoort). Deze eigenschap moet null zijn voor complexe velden. Velden van het type Edm.GeographyPoint of Collection(Edm.GeographyPoint) kunnen niet onder ogen worden gezien. De standaardinstelling geldt voor alle andere eenvoudige velden.

fields

SearchField[]

Een lijst met subvelden als dit een veld is van het type Edm.ComplexType of Collection(Edm.ComplexType). Moet null of leeg zijn voor eenvoudige velden.

filterable

boolean

Een waarde die aangeeft of er in $filter query's naar het veld moet worden verwezen. Filterbaar verschilt van doorzoekbaar in de manier waarop tekenreeksen worden verwerkt. Velden van het type Edm.String of Collection (Edm.String) die filterbaar zijn, worden niet woordafbrekingen ondergaan, dus vergelijkingen zijn alleen voor exacte overeenkomsten. Als je bijvoorbeeld zo'n veld f instelt op "zonnige dag", zal $filter=f eq 'zonnig' geen overeenkomsten vinden, maar $filter=f eq 'zonnige dag' wel. Deze eigenschap moet null zijn voor complexe velden. De standaardinstelling is waar voor eenvoudige velden en null voor complexe velden.

indexAnalyzer

LexicalAnalyzerName

De naam van de analysator die wordt gebruikt tijdens het indexeren van het veld. Deze optie kan alleen worden gebruikt voor doorzoekbare velden. Het moet samen met searchAnalyzer worden ingesteld en het kan niet samen met de analyseoptie worden ingesteld. Deze eigenschap kan niet worden ingesteld op de naam van een taalanalyser; Gebruik in plaats daarvan de eigenschap Analyse als u een taalanalyse nodig hebt. Als de analyzer eenmaal is gekozen, kan deze niet meer worden gewijzigd voor het veld. Moet null zijn voor complexe velden.

key

boolean

Een waarde die aangeeft of het veld documenten in de index uniek identificeert. Precies één veld op het hoogste niveau in elke index moet worden gekozen als het sleutelveld en het moet van het type Edm.String zijn. Sleutelvelden kunnen worden gebruikt om documenten rechtstreeks op te zoeken en specifieke documenten bij te werken of te verwijderen. De standaardinstelling is onwaar voor eenvoudige velden en null voor complexe velden.

name

string

De naam van het veld, dat uniek moet zijn binnen de veldenverzameling van de index of het bovenliggende veld.

normalizer

LexicalNormalizerName

De naam van de normalizer die voor het veld moet worden gebruikt. Deze optie kan alleen worden gebruikt met velden waarvoor filterbaar, sorteerbaar of faceteerbaar is ingeschakeld. Als de normalizer eenmaal is gekozen, kan deze niet meer worden gewijzigd voor het veld. Moet null zijn voor complexe velden.

retrievable

boolean

Een waarde die aangeeft of het veld kan worden geretourneerd in een zoekresultaat. U kunt deze optie uitschakelen als u een veld (bijvoorbeeld marge) wilt gebruiken als filter-, sorteer- of scoremechanisme, maar niet wilt dat het veld zichtbaar is voor de eindgebruiker. Deze eigenschap moet waar zijn voor sleutelvelden en moet nul zijn voor complexe velden. Deze eigenschap kan worden gewijzigd op bestaande velden. Als u deze eigenschap inschakelt, worden de vereisten voor indexopslag niet verhoogd. De standaardinstelling is true voor eenvoudige velden, false voor vectorvelden en null voor complexe velden.

searchAnalyzer

LexicalAnalyzerName

De naam van de analysator die wordt gebruikt op het moment van zoeken naar het veld. Deze optie kan alleen worden gebruikt voor doorzoekbare velden. Het moet samen met indexAnalyzer worden ingesteld en het kan niet samen met de analyseoptie worden ingesteld. Deze eigenschap kan niet worden ingesteld op de naam van een taalanalyser; Gebruik in plaats daarvan de eigenschap Analyse als u een taalanalyse nodig hebt. Deze analyzer kan worden bijgewerkt op een bestaand veld. Moet null zijn voor complexe velden.

searchable

boolean

Een waarde die aangeeft of het veld doorzoekbaar is in volledige tekst. Dit betekent dat het tijdens het indexeren een analyse zal ondergaan, zoals woordafbreken. Als u een doorzoekbaar veld instelt op een waarde zoals "zonnige dag", wordt dit intern opgesplitst in de afzonderlijke tokens "zonnig" en "dag". Hiermee kunt u zoeken in volledige tekst naar deze termen. Velden van het type Edm.String of Collection(Edm.String) zijn standaard doorzoekbaar. Deze eigenschap moet false zijn voor eenvoudige velden van andere gegevenstypen die geen tekenreeks bevatten en moet null zijn voor complexe velden. Opmerking: zoekbare velden nemen extra ruimte in beslag in uw index voor extra tokenized versies van de veldwaarde voor zoekopdrachten in volledige tekst. Als u ruimte wilt besparen in uw index en u geen veld nodig heeft om te worden opgenomen in zoekopdrachten, stelt u Zoekbaar in op onwaar.

sortable

boolean

Een waarde die aangeeft of er in $orderby expressies naar het veld moet worden verwezen. Standaard sorteert de zoekmachine de resultaten op score, maar in veel gevallen zullen gebruikers willen sorteren op velden in de documenten. Een eenvoudig veld kan alleen worden gesorteerd als het één waarde heeft (het heeft één waarde in het bereik van het bovenliggende document). Eenvoudige verzamelingsvelden kunnen niet worden gesorteerd, omdat ze meerdere waarden hebben. Eenvoudige subvelden van complexe verzamelingen zijn ook meervoudig waardevol en kunnen daarom niet worden gesorteerd. Dit is waar, of het nu een direct bovenliggend veld of een bovenliggend veld is, dat is de complexe verzameling. Complexe velden kunnen niet worden gesorteerd en de sorteerbare eigenschap moet null zijn voor dergelijke velden. De standaardinstelling voor sorteerbaar is waar voor enkelvoudige enkelvoudige velden, false voor enkelvoudige velden en null voor complexe velden.

stored

boolean

Een onveranderlijke waarde die aangeeft of het veld afzonderlijk op schijf wordt persistent om te worden geretourneerd in een zoekresultaat. U kunt deze optie uitschakelen als u niet van plan bent de veldinhoud in een zoekreactie te retourneren om opslagoverhead te besparen. Dit kan alleen worden ingesteld tijdens het maken van de index en alleen voor vectorvelden. Deze eigenschap kan niet worden gewijzigd voor bestaande velden of worden ingesteld als onwaar voor nieuwe velden. Als deze eigenschap is ingesteld als onwaar, moet de eigenschap 'opvraagbaar' ook op onwaar worden gezet. Deze eigenschap moet waar of uitgeschakeld zijn voor sleutelvelden, voor nieuwe velden en voor niet-vectorvelden, en moet null zijn voor complexe velden. Als u deze eigenschap uitschakelt, worden de vereisten voor indexopslag verminderd. De standaardinstelling geldt voor vectorvelden.

synonymMaps

string[]

Een lijst met de namen van synoniemen die aan dit veld moeten worden gekoppeld. Deze optie kan alleen worden gebruikt voor doorzoekbare velden. Op dit moment wordt slechts één synoniemenkaart per veld ondersteund. Als u een synoniemtoewijzing toewijst aan een veld, zorgt u ervoor dat querytermen die gericht zijn op dat veld tijdens query's worden uitgebreid met behulp van de regels in de synoniementoewijzing. Dit kenmerk kan worden gewijzigd voor bestaande velden. Moet null of een lege verzameling zijn voor complexe velden.

type

SearchFieldDataType

Het gegevenstype van het veld.

vectorEncoding

VectorEncodingFormat

Het coderingsformaat om de inhoud van het veld te interpreteren.

vectorSearchProfile

string

De naam van het vectorzoekprofiel dat het algoritme en de vectorizer aangeeft die moeten worden gebruikt bij het zoeken in het vectorveld.

SearchFieldDataType

Definieert het gegevenstype van een veld in een zoekindex.

Waarde Description
Edm.String

Geeft aan dat een veld een tekenreeks bevat.

Edm.Int32

Geeft aan dat een veld een 32-bits ondertekend geheel getal bevat.

Edm.Int64

Geeft aan dat een veld een 64-bits ondertekend geheel getal bevat.

Edm.Double

Geeft aan dat een veld een IEEE-getal met dubbele precisie aan drijvende komma's bevat.

Edm.Boolean

Geeft aan dat een veld een Booleaanse waarde bevat (waar of onwaar).

Edm.DateTimeOffset

Geeft aan dat een veld een datum-/tijdwaarde bevat, inclusief tijdzonegegevens.

Edm.GeographyPoint

Geeft aan dat een veld een geolocatie bevat in termen van lengte- en breedtegraad.

Edm.ComplexType

Geeft aan dat een veld een of meer complexe objecten bevat die op hun beurt subvelden van andere typen hebben.

Edm.Single

Geeft aan dat een veld een drijvendekommagetal met één precisie bevat. Dit is alleen geldig bij gebruik met Collection(Edm.Single).

Edm.Half

Geeft aan dat een veld een drijvendekommagetal met halve precisie bevat. Dit is alleen geldig bij gebruik met Collection(Edm.Half).

Edm.Int16

Geeft aan dat een veld een 16-bits ondertekend geheel getal bevat. Dit is alleen geldig bij gebruik met Collection(Edm.Int16).

Edm.SByte

Geeft aan dat een veld een 8-bits ondertekend geheel getal bevat. Dit is alleen geldig bij gebruik met Collection(Edm.SByte).

Edm.Byte

Geeft aan dat een veld een 8-bits niet-ondertekend geheel getal bevat. Dit is alleen geldig bij gebruik met Collection(Edm.Byte).

SearchIndex

Vertegenwoordigt een definitie van een zoekindex, die de velden en het zoekgedrag van een index beschrijft.

Name Type Description
@odata.etag

string

De ETag van de index.

analyzers LexicalAnalyzer[]:

De analysatoren voor de index.

charFilters CharFilter[]:

De tekenfilters voor de index.

corsOptions

CorsOptions

Opties om Cross-Origin Resource Sharing (CORS) voor de index te beheren.

defaultScoringProfile

string

De naam van het scoreprofiel dat moet worden gebruikt als er geen is opgegeven in de query. Als deze eigenschap niet is ingesteld en er geen scoreprofiel is opgegeven in de query, wordt de standaardscore (tf-idf) gebruikt.

description

string

De beschrijving van de index.

encryptionKey

SearchResourceEncryptionKey

Een beschrijving van een versleutelingssleutel die u maakt in Azure Key Vault. Deze sleutel wordt gebruikt om een extra niveau van versleuteling-at-rest voor uw gegevens te bieden wanneer u volledige zekerheid wilt dat niemand, zelfs Microsoft niet, uw gegevens kan ontsleutelen. Als je je gegevens eenmaal hebt versleuteld, blijven ze altijd versleuteld. De zoekservice negeert pogingen om deze eigenschap op null in te stellen. U kunt deze eigenschap naar wens wijzigen als u uw coderingssleutel wilt roteren; Dit heeft geen invloed op uw gegevens. Versleuteling met door de klant beheerde sleutels is niet beschikbaar voor gratis zoekservices en is alleen beschikbaar voor betaalde services die op of na 1 januari 2019 zijn gemaakt.

fields

SearchField[]

De velden van de index.

name

string

De naam van de index.

normalizers LexicalNormalizer[]:

CustomNormalizer[]

De normalizers voor de index.

scoringProfiles

ScoringProfile[]

De scoreprofielen voor de index.

semantic

SemanticSettings

Definieert parameters voor een zoekindex die van invloed zijn op de semantische mogelijkheden.

similarity Similarity:

Het type gelijkenisalgoritme dat moet worden gebruikt bij het scoren en rangschikken van de documenten die overeenkomen met een zoekopdracht. Het gelijkenisalgoritme kan alleen worden gedefinieerd op het moment dat de index wordt gemaakt en kan niet worden gewijzigd op bestaande indexen. Als null is, wordt het ClassicSimilarity-algoritme gebruikt.

suggesters

Suggester[]

De suggesties voor de index.

tokenFilters TokenFilter[]:

Het token filtert op de index.

tokenizers LexicalTokenizer[]:

De tokenizers voor de index.

vectorSearch

VectorSearch

Bevat configuratie-opties met betrekking tot het zoeken naar vectoren.

SearchIndexerDataNoneIdentity

Hiermee wist u de identiteitseigenschap van een gegevensbron.

Name Type Description
@odata.type string:

#Microsoft.Azure.Search.DataNoneIdentity

Een URI-fragment dat het type identiteit specificeert.

SearchIndexerDataUserAssignedIdentity

Hiermee geeft u de identiteit op voor een gegevensbron die moet worden gebruikt.

Name Type Description
@odata.type string:

#Microsoft.Azure.Search.DataUserAssignedIdentity

Een URI-fragment dat het type identiteit specificeert.

userAssignedIdentity

string

De volledig gekwalificeerde Azure-resource-id van een gebruiker waaraan een beheerde identiteit is toegewezen, meestal in de vorm '/subscriptions/12345678-1234-1234-1234-1234567890ab/resourceGroups/rg/providers/Microsoft.ManagedIdentity/userAssignedIdentities/myId' die had moeten zijn toegewezen aan de zoekservice.

SearchResourceEncryptionKey

Een door de klant beheerde versleutelingssleutel in Azure Key Vault. Sleutels die u maakt en beheert, kunnen worden gebruikt om inactieve gegevens, zoals indexen en synoniementoewijzingen, te versleutelen of te ontsleutelen.

Name Type Description
accessCredentials

AzureActiveDirectoryApplicationCredentials

Optionele Azure Active Directory-referenties die worden gebruikt voor toegang tot uw Azure Key Vault. Niet vereist als u in plaats daarvan beheerde identiteit gebruikt.

keyVaultKeyName

string

De naam van uw Azure Key Vault-sleutel die moet worden gebruikt om uw gegevens in rust te versleutelen.

keyVaultKeyVersion

string

De versie van uw Azure Key Vault-sleutel die moet worden gebruikt om uw gegevens in rust te versleutelen.

keyVaultUri

string

De URI van uw Azure Key Vault, ook wel DNS-naam genoemd, die de sleutel bevat die moet worden gebruikt om uw gegevens in rust te versleutelen. Een voorbeeld van een URI zou kunnen zijn https://my-keyvault-name.vault.azure.net.

SemanticConfiguration

Definieert een specifieke configuratie die moet worden gebruikt in de context van semantische mogelijkheden.

Name Type Description
name

string

De naam van de semantische configuratie.

prioritizedFields

PrioritizedFields

Beschrijft de velden voor titel, inhoud en trefwoorden die moeten worden gebruikt voor semantische rangschikking, bijschriften, markeringen en antwoorden. Ten minste één van de drie subeigenschappen (titleField, prioritizedKeywordsFields en prioritizedContentFields) moet worden ingesteld.

rankingOrder

RankingOrder

Hiermee geeft u het scoretype op dat moet worden gebruikt voor de sorteervolgorde van de zoekresultaten.

SemanticField

Een veld dat wordt gebruikt als onderdeel van de semantische configuratie.

Name Type Description
fieldName

string

SemanticSettings

Definieert parameters voor een zoekindex die van invloed zijn op de semantische mogelijkheden.

Name Type Description
configurations

SemanticConfiguration[]

De semantische configuraties voor de index.

defaultConfiguration

string

Hiermee kunt u de naam van een standaard semantische configuratie in uw index instellen, waardoor het optioneel is om deze elke keer als queryparameter door te geven.

ShingleTokenFilter

Maakt combinaties van tokens als één token. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.ShingleTokenFilter

Een URI-fragment dat het type tokenfilter specificeert.

filterToken

string

_

De string die moet worden ingevoegd voor elke positie waarop er geen token is. Standaard is een underscore ("_").

maxShingleSize

integer (int32)

minimum: 2
2

De maximale grootte van de shingles. De standaard- en minimumwaarde is 2.

minShingleSize

integer (int32)

minimum: 2
2

De minimale grootte van de gordelroos. De standaard- en minimumwaarde is 2. Moet kleiner zijn dan de waarde van maxShingleSize.

name

string

De naam van het tokenfilter. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

outputUnigrams

boolean

True

Een waarde die aangeeft of de uitvoerstroom zowel de invoertokens (unigrammen) als gordelroos zal bevatten. De standaardwaarde is waar.

outputUnigramsIfNoShingles

boolean

False

Een waarde die aangeeft of er unigrammen moeten worden uitgevoerd voor die momenten waarop er geen gordelroos beschikbaar is. Deze eigenschap heeft voorrang wanneer outputUnigrams is ingesteld op onwaar. De standaardwaarde is vals.

tokenSeparator

string

De string die moet worden gebruikt bij het samenvoegen van aangrenzende tokens om een shingle te vormen. De standaardinstelling is een enkele spatie ("").

SnowballTokenFilter

Een filter dat woorden verzamelt met behulp van een door Snowball gegenereerde stemmer. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Description
@odata.type string:

#Microsoft.Azure.Search.SnowballTokenFilter

Een URI-fragment dat het type tokenfilter specificeert.

language

SnowballTokenFilterLanguage

De taal om te gebruiken.

name

string

De naam van het tokenfilter. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

SnowballTokenFilterLanguage

De taal die moet worden gebruikt voor een Snowball-tokenfilter.

Waarde Description
armenian

Selecteert de Lucene Snowball stemming tokenizer voor Armeens.

basque

Selecteert de Lucene Snowball stemming tokenizer voor Baskisch.

catalan

Selecteert de Lucene Snowball stemming tokenizer voor het Catalaans.

danish

Selecteert de Lucene Snowball stemming tokenizer voor Deens.

dutch

Selecteert de Lucene Snowball stemming tokenizer voor Nederlands.

english

Selecteert de Lucene Snowball stemming tokenizer voor Engels.

finnish

Selecteert de Lucene Snowball stemming tokenizer voor Fins.

french

Selecteert de Lucene Snowball stemming tokenizer voor Frans.

german

Selecteert de Lucene Snowball stemming tokenizer voor Duits.

german2

Selecteert de Lucene Snowball stemming tokenizer die gebruikmaakt van het algoritme van de Duitse variant.

hungarian

Selecteert de Lucene Snowball stemming tokenizer voor Hongaars.

italian

Selecteert de Lucene Snowball stemming tokenizer voor Italiaans.

kp

Selecteert de Lucene Snowball stemming tokenizer voor Nederlands die gebruikmaakt van het algoritme voor Kraaij-Pohlmann staming.

lovins

Selecteert de Lucene Snowball stemming tokenizer voor Engels die gebruikmaakt van het Lovins staming-algoritme.

norwegian

Selecteert de Lucene Snowball stemming tokenizer voor Noors.

porter

Selecteert de Lucene Snowball stemming tokenizer voor Engels die gebruikmaakt van het Porter stamalgoritme.

portuguese

Selecteert de Lucene Snowball stemming tokenizer voor Portugees.

romanian

Selecteert de Lucene Snowball stemming tokenizer voor Roemeens.

russian

Selecteert de Lucene Snowball stemming tokenizer voor Russisch.

spanish

Selecteert de Lucene Snowball stemming tokenizer voor Spaans.

swedish

Selecteert de Lucene Snowball stemming tokenizer voor Zweeds.

turkish

Selecteert de Lucene Snowball stemming tokenizer voor Turks.

StemmerOverrideTokenFilter

Biedt de mogelijkheid om andere stamfilters te overschrijven met aangepaste stamboom op basis van woordenboek. Alle termen die in het woordenboek zijn opgenomen, worden gemarkeerd als trefwoorden, zodat ze niet worden gestamd met stammers in de keten. Moet vóór eventuele stamfilters worden geplaatst. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Description
@odata.type string:

#Microsoft.Azure.Search.StemmerOverrideTokenFilter

Een URI-fragment dat het type tokenfilter specificeert.

name

string

De naam van het tokenfilter. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

rules

string[]

Een lijst met stamregels in het volgende formaat: "word => stem", bijvoorbeeld: "ran => run".

StemmerTokenFilter

Taalspecifieke stamfilter. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Description
@odata.type string:

#Microsoft.Azure.Search.StemmerTokenFilter

Een URI-fragment dat het type tokenfilter specificeert.

language

StemmerTokenFilterLanguage

De taal om te gebruiken.

name

string

De naam van het tokenfilter. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

StemmerTokenFilterLanguage

De taal die moet worden gebruikt voor een stemmer token filter.

Waarde Description
arabic

Selecteert de Lucene stemming tokenizer voor Arabisch.

armenian

Selecteert de Lucene stemming tokenizer voor Armeens.

basque

Selecteert de Lucene stemming tokenizer voor Baskisch.

brazilian

Selecteert de Lucene stemming tokenizer voor Portugees (Brazilië).

bulgarian

Selecteert de Lucene stemming tokenizer voor Bulgaars.

catalan

Selecteert de Lucene stemming tokenizer voor het Catalaans.

czech

Selecteert de Lucene stemming tokenizer voor Tsjechisch.

danish

Selecteert de Lucene stemming tokenizer voor Deens.

dutch

Selecteert de Lucene stemming tokenizer voor Nederlands.

dutchKp

Selecteert de Lucene stemming tokenizer voor Nederlands die gebruikmaakt van het algoritme voor Kraaij-Pohlmann stemming.

english

Selecteert de Lucene stemming tokenizer voor Engels.

lightEnglish

Selecteert de Lucene stemming tokenizer voor Engels die lichte stemming doet.

minimalEnglish

Selecteert de Lucene stemming tokenizer voor Engels die minimale stemming doet.

possessiveEnglish

Selecteert de Lucene stamtokenizer voor Engels die achterblijvende bezittelijke voornaamwoorden uit woorden verwijdert.

porter2

Selecteert de Lucene stemming tokenizer voor Engels die gebruikmaakt van het Porter2 stamalgoritme.

lovins

Selecteert de Lucene stemming tokenizer voor Engels die gebruikmaakt van het Lovins staming-algoritme.

finnish

Selecteert de Lucene stemming tokenizer voor Fins.

lightFinnish

Selecteert de Lucene stemming tokenizer voor Fins die lichte stemming doet.

french

Selecteert de Lucene stemming tokenizer voor Frans.

lightFrench

Selecteert de Lucene stemming tokenizer voor Frans die lichte stemming doet.

minimalFrench

Selecteert de Lucene stemming tokenizer voor Frans die minimale stemming doet.

galician

Selecteert de Lucene stemming tokenizer voor Galicisch.

minimalGalician

Selecteert de Lucene stemming tokenizer voor Galicisch die minimale stamming doet.

german

Selecteert de Lucene stemming tokenizer voor Duits.

german2

Selecteert de Lucene stem tokenizer die gebruikmaakt van het algoritme van de Duitse variant.

lightGerman

Selecteert de Lucene stemming tokenizer voor Duits die lichte stamming doet.

minimalGerman

Selecteert de Lucene stemming tokenizer voor Duits die minimale stemming doet.

greek

Selecteert de Lucene stemming tokenizer voor Grieks.

hindi

Selecteert de Lucene stemming tokenizer voor Hindi.

hungarian

Selecteert de Lucene stemming tokenizer voor Hongaars.

lightHungarian

Selecteert de Lucene stemming tokenizer voor Hongaars die lichte stemming doet.

indonesian

Selecteert de Lucene stemming tokenizer voor Indonesisch.

irish

Selecteert de Lucene stemming tokenizer voor Iers.

italian

Selecteert de Lucene stemming tokenizer voor Italiaans.

lightItalian

Selecteert de Lucene stemming tokenizer voor Italiaans die lichte stemming doet.

sorani

Selecteert de Lucene stemming tokenizer voor Sorani.

latvian

Selecteert de Lucene stemming tokenizer voor Lets.

norwegian

Selecteert de Lucene stemming tokenizer voor Noors (Bokmål).

lightNorwegian

Selecteert de Lucene stemming tokenizer voor Noors (Bokmål) die lichte stemming doet.

minimalNorwegian

Selecteert de Lucene stemming tokenizer voor Noors (Bokmål) die minimale stemming doet.

lightNynorsk

Selecteert de Lucene stemming tokenizer voor Noors (Nynorsk) die lichte stemming doet.

minimalNynorsk

Selecteert de Lucene stemming tokenizer voor Noors (Nynorsk) die minimale stemming uitvoert.

portuguese

Selecteert de Lucene stemming tokenizer voor Portugees.

lightPortuguese

Selecteert de Lucene stemming tokenizer voor Portugees die lichte stamming doet.

minimalPortuguese

Selecteert de Lucene stemming tokenizer voor Portugees die minimale stamming doet.

portugueseRslp

Selecteert de Lucene stemming tokenizer voor Portugees die gebruikmaakt van het RSLP stamling-algoritme.

romanian

Selecteert de Lucene stemming tokenizer voor Roemeens.

russian

Selecteert de Lucene stemming tokenizer voor Russisch.

lightRussian

Selecteert de Lucene stemming tokenizer voor Russisch die lichte stemming doet.

spanish

Selecteert de Lucene stemming tokenizer voor Spaans.

lightSpanish

Selecteert de Lucene stemming tokenizer voor Spaans die lichte stemming doet.

swedish

Selecteert de Lucene stemming tokenizer voor Zweeds.

lightSwedish

Selecteert de Lucene stemming tokenizer voor Zweeds die lichte stemming doet.

turkish

Selecteert de Lucene stemming tokenizer voor Turks.

StopAnalyzer

Verdeelt tekst op niet-letters; Hiermee past u de tokenfilters voor kleine letters en stopwoorden toe. Deze analyzer wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Description
@odata.type string:

#Microsoft.Azure.Search.StopAnalyzer

Een URI-fragment dat het type analysator specificeert.

name

string

De naam van de analysator. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

stopwords

string[]

Een lijst met stopwoorden.

StopwordsList

Identificeert een vooraf gedefinieerde lijst met taalspecifieke stopwoorden.

Waarde Description
arabic

Selecteert de lijst met stopwoordjes voor Arabisch.

armenian

Selecteert de lijst met stopwoorden voor Armeens.

basque

Selecteert de lijst met stopwoordjes voor Baskisch.

brazilian

Selecteert de lijst met stopwoordraadsels voor Portugees (Brazilië).

bulgarian

Selecteert de lijst met stopwoordjes voor Bulgaars.

catalan

Selecteert de lijst met stopwoordjes voor Catalaans.

czech

Selecteert de lijst met stopwoordpen voor Tsjechisch.

danish

Selecteert de lijst met stopwoordjes voor Deens.

dutch

Selecteert de lijst met stopwoordraadsels voor Nederlands.

english

Selecteert de lijst met stopwoordpen voor Engels.

finnish

Hiermee selecteert u de lijst met stopwoordpen voor Fins.

french

Selecteert de lijst met stopwoordjes voor Frans.

galician

Selecteert de lijst met stopwoorden voor Galicisch.

german

Selecteert de lijst met stopwoorden voor Duits.

greek

Selecteert de lijst met stopwoordraadsels voor Grieks.

hindi

Selecteert de lijst met stopwoorden voor Hindi.

hungarian

Selecteert de lijst met stopwoordjes voor Hongaars.

indonesian

Selecteert de lijst met stopwoordpen voor Indonesisch.

irish

Selecteert de lijst met stopwoorden voor Iers.

italian

Selecteert de lijst met stopwoorden voor Italiaans.

latvian

Selecteert de lijst met stopwoordraadsels voor Lets.

norwegian

Selecteert de lijst met stopwoordjes voor Noors.

persian

Selecteert de lijst met stopwoorden voor Perzisch.

portuguese

Selecteert de lijst met stopwoorden voor Portugees.

romanian

Selecteert de lijst met stopwoordjes voor Roemeens.

russian

Selecteert de lijst met stopwoorden voor Russisch.

sorani

Selecteert de lijst met stopwoordpen voor Sorani.

spanish

Selecteert de lijst met stopwoorden voor Spaans.

swedish

Selecteert de lijst met stopwoordjes voor Zweeds.

thai

Selecteert de lijst met stopwoordjes voor Thais.

turkish

Selecteert de lijst met stopwoordjes voor Turks.

StopwordsTokenFilter

Verwijdert stopwoorden uit een tokenstroom. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.StopwordsTokenFilter

Een URI-fragment dat het type tokenfilter specificeert.

ignoreCase

boolean

False

Een waarde die aangeeft of hoofdletters moeten worden genegeerd. Als dit waar is, worden alle woorden eerst geconverteerd naar kleine letters. De standaardwaarde is vals.

name

string

De naam van het tokenfilter. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

removeTrailing

boolean

True

Een waarde die aangeeft of de laatste zoekterm moet worden genegeerd als het een stopwoord is. De standaardwaarde is waar.

stopwords

string[]

De lijst met stopwoorden. Deze eigenschap en de eigenschap lijst met stopwoorden kunnen niet beide worden ingesteld.

stopwordsList

StopwordsList

english

Een vooraf gedefinieerde lijst met stopwoorden om te gebruiken. Deze eigenschap en de eigenschap stopwoorden kunnen niet beide worden ingesteld. De standaardinstelling is Engels.

Suggester

Definieert hoe de Suggest-API moet worden toegepast op een groep velden in de index.

Name Type Description
name

string

De naam van de suggestie.

searchMode

SuggesterSearchMode

Een waarde die de capaciteiten van de suggestie aangeeft.

sourceFields

string[]

De lijst met veldnamen waarop de suggestie van toepassing is. Elk veld moet doorzoekbaar zijn.

SuggesterSearchMode

Een waarde die de capaciteiten van de suggestie aangeeft.

Waarde Description
analyzingInfixMatching

Komt overeen met opeenvolgende hele termen en voorvoegsels in een veld. Bijvoorbeeld, voor het veld 'De snelste bruine vos' zouden de zoekopdrachten 'snel' en 'snelste wenkbrauw' beide overeenkomen.

SynonymTokenFilter

Komt overeen met synoniemen van één of meerdere woorden in een tokenstroom. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.SynonymTokenFilter

Een URI-fragment dat het type tokenfilter specificeert.

expand

boolean

True

Een waarde die aangeeft of alle woorden in de lijst met synoniemen (als => notatie niet wordt gebruikt) op elkaar worden toegepast. Als het waar is, zullen alle woorden in de lijst met synoniemen (als => notatie niet wordt gebruikt) op elkaar aansluiten. De volgende lijst: ongelooflijk, ongelooflijk, fantastisch, verbazingwekkend is gelijk aan: ongelooflijk, ongelooflijk, fantastisch, verbazingwekkend => ongelooflijk, ongelooflijk, fantastisch, verbazingwekkend. Als het niet waar is, zal de volgende lijst: ongelooflijk, ongelooflijk, fantastisch, verbazingwekkend gelijk zijn aan: ongelooflijk, ongelooflijk, fantastisch, verbazingwekkend => ongelooflijk. De standaardwaarde is waar.

ignoreCase

boolean

False

Een waarde die aangeeft of er hoofdlettergebruik moet worden ingevoerd om te matchen. De standaardwaarde is vals.

name

string

De naam van het tokenfilter. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

synonyms

string[]

Een lijst met synoniemen in de volgende twee formaten: 1. ongelooflijk, ongelooflijk, fantastisch => verbazingwekkend - alle termen aan de linkerkant van => symbool worden vervangen door alle termen aan de rechterkant; 2. Ongelooflijk, ongelooflijk, fantastisch, verbazingwekkend - door komma's gescheiden lijst van equivalente woorden. Stel de optie Uitvouwen in om de interpretatie van deze lijst te wijzigen.

TagScoringFunction

Definieert een functie die de scores van documenten verhoogt met tekenreekswaarden die overeenkomen met een bepaalde lijst met tags.

Name Type Description
boost

number (double)

Een vermenigvuldiger voor de ruwe score. Moet een positief getal zijn dat niet gelijk is aan 1,0.

fieldName

string

De naam van het veld dat wordt gebruikt als invoer voor de scorefunctie.

interpolation

ScoringFunctionInterpolation

Een waarde die aangeeft hoe boosting wordt geïnterpoleerd over documentscores; staat standaard op "Lineair".

tag

TagScoringParameters

Parameterwaarden voor de functie voor het scoren van tags.

type string:

tag

Geeft het type functie aan dat moet worden gebruikt. Geldige waarden zijn onder andere magnitude, versheid, afstand en tag. Het functietype moet uit kleine letters bestaan.

TagScoringParameters

Biedt parameterwaarden aan een functie voor het scoren van tags.

Name Type Description
tagsParameter

string

De naam van de parameter die wordt doorgegeven in zoekopdrachten om de lijst met tags te specificeren die moeten worden vergeleken met het doelveld.

TextWeights

Definieert gewichten op indexvelden waarvoor overeenkomsten de score in zoekopdrachten moeten verhogen.

Name Type Description
weights

object

Het woordenboek met gewichten per veld om de score van documenten te verbeteren. De sleutels zijn veldnamen en de waarden zijn de gewichten voor elk veld.

TokenCharacterKind

Vertegenwoordigt klassen van tekens waarop een tokenfilter kan werken.

Waarde Description
letter

Bewaart brieven in penningen.

digit

Houdt cijfers in tokens.

whitespace

Behoudt witruimte in tokens.

punctuation

Houdt interpunctie in tokens.

symbol

Bewaart symbolen in tokens.

TokenFilterName

Definieert de namen van alle tokenfilters die door de zoekmachine worden ondersteund.

Waarde Description
arabic_normalization

Een tokenfilter dat de Arabische normalisator toepast om de spelling te normaliseren. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html

apostrophe

Verwijdert alle tekens na een apostrof (inclusief de apostrof zelf). Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html

asciifolding

Hiermee worden alfabetische, numerieke en symbolische Unicode-tekens die niet in de eerste 127 ASCII-tekens (het Unicode-blok 'Basis Latijn' voorkomen) geconverteerd naar hun ASCII-equivalenten, als dergelijke equivalenten bestaan. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html

cjk_bigram

Vormt bigrammen van CJK-termen die worden gegenereerd op basis van de standaard tokenizer. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html

cjk_width

Normaliseert CJK-breedteverschillen. Vouwt ASCII-varianten over de volledige breedte in de equivalente basisversie van het Latijn en Katakana-varianten met halve breedte in de equivalente Kana. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html

classic

Verwijdert Engelse bezittelijke voornaamwoorden en punten uit afkortingen. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html

common_grams

Construeer bigrammen voor vaak voorkomende termen tijdens het indexeren. Afzonderlijke termen worden ook nog steeds geïndexeerd, met bigrammen eroverheen. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html

edgeNGram_v2

Genereert n-gram van de gegeven grootte(n) vanaf de voor- of achterkant van een invoertoken. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html

elision

Verwijdert elisies. Bijvoorbeeld, "l'avion" (het vliegtuig) wordt geconverteerd naar "avion" (vliegtuig). Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html

german_normalization

Normaliseert Duitse karakters volgens de heuristieken van het German2-sneeuwbalalgoritme. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html

hindi_normalization

Normaliseert tekst in het Hindi om enkele verschillen in spellingsvariaties te verwijderen. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html

indic_normalization

Normaliseert de Unicode-weergave van tekst in Indiase talen. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html

keyword_repeat

Verzendt elk binnenkomend token twee keer, één keer als trefwoord en één keer als niet-trefwoord. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html

kstem

Een high-performance kstem filter voor Engels. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html

length

Verwijdert woorden die te lang of te kort zijn. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html

limit

Beperkt het aantal tokens tijdens het indexeren. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html

lowercase

Normaliseert tokentekst naar kleine letters. Zie https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html

nGram_v2

Genereert n-gram van de gegeven grootte(s). Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html

persian_normalization

Past normalisatie toe voor het Perzisch. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html

phonetic

Maak tokens voor fonetische overeenkomsten. Zie https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html

porter_stem

Gebruikt het Porter-stamalgoritme om de tokenstroom te transformeren. Zie http://tartarus.org/~martin/PorterStemmer

reverse

Keert de tokentekenreeks om. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html

scandinavian_normalization

Normaliseert het gebruik van de verwisselbare Scandinavische karakters. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html

scandinavian_folding

Vouwt Scandinavische karakters åÅäæÄÆ-a> en öÖøØ-o>. Het discrimineert ook het gebruik van dubbele klinkers aa, ae, ao, oe en oo, waardoor alleen de eerste overblijft. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html

shingle

Maakt combinaties van tokens als één token. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html

snowball

Een filter dat woorden verzamelt met behulp van een door Snowball gegenereerde stemmer. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html

sorani_normalization

Normaliseert de Unicode-weergave van Sorani-tekst. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html

stemmer

Taalspecifieke stamfilter. Zie https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters

stopwords

Verwijdert stopwoorden uit een tokenstroom. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html

trim

Hiermee snijdt u de voor- en achterruimte bij van tokens. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html

truncate

Kort de termen af tot een specifieke lengte. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html

unique

Filtert tokens met dezelfde tekst als het vorige token. Zie http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html

uppercase

Normaliseert tokentekst naar hoofdletters. Zie https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html

word_delimiter

Splitst woorden op in subwoorden en voert optionele transformaties uit op subwoordgroepen.

TruncateTokenFilter

Kort de termen af tot een specifieke lengte. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.TruncateTokenFilter

Een URI-fragment dat het type tokenfilter specificeert.

length

integer (int32)

maximum: 300
300

De lengte waarbij termen worden afgekapt. Standaard en maximum is 300.

name

string

De naam van het tokenfilter. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

UaxUrlEmailTokenizer

Tokeniseert url's en e-mails als één token. Deze tokenizer wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.UaxUrlEmailTokenizer

Een URI-fragment dat het type tokenizer specificeert.

maxTokenLength

integer (int32)

maximum: 300
255

De maximale tokenlengte. De standaardwaarde is 255. Tokens die langer zijn dan de maximale lengte worden gesplitst. De maximale tokenlengte die kan worden gebruikt is 300 tekens.

name

string

De naam van de tokenizer. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

UniqueTokenFilter

Filtert tokens met dezelfde tekst als het vorige token. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.UniqueTokenFilter

Een URI-fragment dat het type tokenfilter specificeert.

name

string

De naam van het tokenfilter. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

onlyOnSamePosition

boolean

False

Een waarde die aangeeft of duplicaten alleen op dezelfde positie moeten worden verwijderd. De standaardwaarde is vals.

VectorEncodingFormat

Het coderingsformaat voor het interpreteren van de inhoud van vectorvelden.

Waarde Description
packedBit

Coderingsformaat dat bits vertegenwoordigt die in een breder gegevenstype zijn verpakt.

VectorSearch

Bevat configuratie-opties met betrekking tot het zoeken naar vectoren.

Name Type Description
algorithms VectorSearchAlgorithmConfiguration[]:

Bevat configuratie-opties die specifiek zijn voor het algoritme dat wordt gebruikt tijdens het indexeren of opvragen.

compressions VectorSearchCompressionConfiguration[]:

Bevat configuratieopties die specifiek zijn voor de compressiemethode die wordt gebruikt tijdens het indexeren of opvragen.

profiles

VectorSearchProfile[]

Definieert combinaties van configuraties die moeten worden gebruikt voor vectorzoekopdrachten.

vectorizers VectorSearchVectorizer[]:

Bevat configuratieopties voor het vectoriseren van tekstvectorquery's.

VectorSearchAlgorithmKind

Het algoritme dat wordt gebruikt voor indexeren en opvragen.

Waarde Description
hnsw

HNSW (Hierarchical Navigable Small World), een soort algoritme voor bij benadering naaste buren.

exhaustiveKnn

Uitgebreid KNN-algoritme dat brute-force search uitvoert.

VectorSearchAlgorithmMetric

De gelijkenismetriek die moet worden gebruikt voor vectorvergelijkingen. Het wordt aanbevolen om dezelfde gelijkenismetriek te kiezen waarop het inbeddingsmodel is getraind.

Waarde Description
cosine

Meet de hoek tussen vectoren om hun gelijkenis te kwantificeren, zonder rekening te houden met de grootte. Hoe kleiner de hoek, hoe dichter de gelijkenis.

euclidean

Berekent de afstand in rechte lijn tussen vectoren in een multidimensionale ruimte. Hoe kleiner de afstand, hoe dichter de gelijkenis.

dotProduct

Berekent de som van elementgewijze producten om de uitlijning en magnitudeovereenkomst te meten. Hoe groter en positiever, hoe nauwer de overeenkomst.

hamming

Alleen van toepassing op binaire gegevenstypen met bits. Bepaalt ongelijkheid door verschillende posities in binaire vectoren te tellen. Hoe minder verschillen, hoe nauwer de overeenkomst.

VectorSearchCompressionKind

De compressiemethode die wordt gebruikt voor indexeren en query's.

Waarde Description
scalarQuantization

Scalaire kwantisatie, een soort compressiemethode. Bij scalaire kwantisatie worden de oorspronkelijke vectorwaarden gecomprimeerd tot een smaller type door elke component van een vector te discretiseren en weer te geven met behulp van een gereduceerde set gekwantificeerde waarden, waardoor de totale gegevensgrootte wordt verkleind.

binaryQuantization

Binaire kwantisatie, een soort compressiemethode. Bij binaire kwantisatie worden de oorspronkelijke vectorwaarden gecomprimeerd tot het smallere binaire type door elke component van een vector te discretiseren en weer te geven met behulp van binaire waarden, waardoor de totale gegevensgrootte wordt verkleind.

VectorSearchCompressionRescoreStorageMethod

De opslagmethode voor de oorspronkelijke vectoren met volledige precisie die worden gebruikt voor het opnieuw scoren en interne indexbewerkingen.

Waarde Description
preserveOriginals

Met deze optie blijven de oorspronkelijke vectoren met volledige precisie behouden. Kies deze optie voor maximale flexibiliteit en de hoogste kwaliteit van gecomprimeerde zoekresultaten. Dit verbruikt meer opslagruimte, maar maakt het mogelijk om opnieuw te scoren en te oversamplen.

discardOriginals

Met deze optie worden de oorspronkelijke vectoren met volledige precisie verwijderd. Kies deze optie voor maximale opslagbesparingen. Aangezien deze optie geen herscoring en oversampling toestaat, zal dit vaak leiden tot lichte tot matige kwaliteitsverminderingen.

VectorSearchCompressionTargetDataType

Het gekwantiseerde gegevenstype van gecomprimeerde vectorwaarden.

Waarde Description
int8

VectorSearchProfile

Definieert een combinatie van configuraties die moeten worden gebruikt voor vectorzoekopdrachten.

Name Type Description
algorithm

string

De naam van de configuratie van het vectorzoekalgoritme die het algoritme en de optionele parameters specificeert.

compression

string

De naam van de configuratie van de compressiemethode waarmee de compressiemethode en optionele parameters worden opgegeven.

name

string

De naam die u wilt associëren met dit specifieke vectorzoekprofiel.

vectorizer

string

De naam van de vectorisatie die wordt geconfigureerd voor gebruik met vectorzoeken.

VectorSearchVectorizerKind

De vectorisatiemethode die moet worden gebruikt tijdens de zoekopdracht.

Waarde Description
azureOpenAI

Genereer inbeddingen met behulp van een Azure OpenAI-resource op het moment van de query.

customWebApi

Genereer inbeddingen met behulp van een aangepast webeindpunt op het moment van de query.

WebApiParameters

Hiermee geeft u de eigenschappen op voor het verbinden met een door de gebruiker gedefinieerde vectorizer.

Name Type Description
authIdentity SearchIndexerDataIdentity:

De door de gebruiker toegewezen beheerde identiteit die wordt gebruikt voor uitgaande verbindingen. Als er een authResourceId is opgegeven en deze niet is opgegeven, wordt de door het systeem toegewezen beheerde identiteit gebruikt. Als de identiteit bij updates van de indexeerfunctie niet is opgegeven, blijft de waarde ongewijzigd. Als deze optie is ingesteld op 'geen', wordt de waarde van deze eigenschap gewist.

authResourceId

string

Is van toepassing op aangepaste eindpunten die verbinding maken met externe code in een Azure-functie of een andere toepassing die de transformaties biedt. Deze waarde moet de toepassings-id zijn die is gemaakt voor de functie of app toen deze werd geregistreerd bij Azure Active Directory. Indien opgegeven, maakt de vectorisatie verbinding met de functie of app met behulp van een beheerde id (door het systeem of door de gebruiker toegewezen) van de zoekservice en het toegangstoken van de functie of app, waarbij deze waarde wordt gebruikt als resource-id voor het maken van het bereik van het toegangstoken.

httpHeaders

object

De headers die nodig zijn om het HTTP-verzoek te doen.

httpMethod

string

De methode voor het HTTP-verzoek.

timeout

string (duration)

De gewenste time-out voor de aanvraag. De standaardwaarde is 30 seconden.

uri

string (uri)

De URI van de web-API die de vectorizer levert.

WebApiVectorizer

Hiermee geeft u een door de gebruiker gedefinieerde vectorizer op voor het genereren van de vectorinbedding van een querytekenreeks. Integratie van een externe vectorizer wordt bereikt met behulp van de aangepaste Web API-interface van een skillset.

Name Type Description
customWebApiParameters

WebApiParameters

Hiermee geeft u de eigenschappen op van de door de gebruiker gedefinieerde vectorizer.

kind string:

customWebApi

De naam van het soort vectorisatiemethode dat wordt geconfigureerd voor gebruik met vectorzoekopdrachten.

name

string

De naam die moet worden geassocieerd met deze specifieke vectorisatiemethode.

WordDelimiterTokenFilter

Splitst woorden op in subwoorden en voert optionele transformaties uit op subwoordgroepen. Dit tokenfilter wordt geïmplementeerd met behulp van Apache Lucene.

Name Type Default value Description
@odata.type string:

#Microsoft.Azure.Search.WordDelimiterTokenFilter

Een URI-fragment dat het type tokenfilter specificeert.

catenateAll

boolean

False

Een waarde die aangeeft of alle subwoorddelen worden gecateneerd. Als dit bijvoorbeeld is ingesteld op true, wordt 'Azure-Search-1' 'AzureSearch1'. De standaardwaarde is vals.

catenateNumbers

boolean

False

Een waarde die aangeeft of er een maximum aantal onderdelen wordt opgebruikt. Als dit bijvoorbeeld is ingesteld op true, wordt "1-2" "12". De standaardwaarde is vals.

catenateWords

boolean

False

Een waarde die aangeeft of het maximum aantal woorddelen wordt gecateneerd. Als dit bijvoorbeeld is ingesteld op true, wordt 'Azure-Search' 'AzureSearch'. De standaardwaarde is vals.

generateNumberParts

boolean

True

Een waarde die aangeeft of er getal-subwoorden moeten worden gegenereerd. De standaardwaarde is waar.

generateWordParts

boolean

True

Een waarde die aangeeft of deelwoorden moeten worden gegenereerd. Indien ingesteld, worden delen van woorden gegenereerd; "AzureSearch" wordt bijvoorbeeld "Azure" "Search". De standaardwaarde is waar.

name

string

De naam van het tokenfilter. Het mag alleen letters, cijfers, spaties, streepjes of onderstrepingstekens bevatten, kan alleen beginnen en eindigen met alfanumerieke tekens en is beperkt tot 128 tekens.

preserveOriginal

boolean

False

Een waarde die aangeeft of originele woorden behouden blijven en worden toegevoegd aan de lijst met subwoorden. De standaardwaarde is vals.

protectedWords

string[]

Een lijst met tokens die moeten worden beschermd tegen afbakening.

splitOnCaseChange

boolean

True

Een waarde die aangeeft of woorden moeten worden gesplitst op caseChange. Als dit bijvoorbeeld is ingesteld op true, wordt 'AzureSearch' 'Azure' 'Search'. De standaardwaarde is waar.

splitOnNumerics

boolean

True

Een waarde die aangeeft of er op getallen moet worden gesplitst. Als dit bijvoorbeeld is ingesteld op true, wordt 'Azure1Search' 'Azure' '1' 'Search'. De standaardwaarde is waar.

stemEnglishPossessive

boolean

True

Een waarde die aangeeft of de "'s" aan het einde van elk subwoord moet worden verwijderd. De standaardwaarde is waar.