Partager via


Indexes - Create

Crée un nouvel index de recherche.

POST {endpoint}/indexes?api-version=2025-09-01

Paramètres URI

Nom Dans Obligatoire Type Description
endpoint
path True

string

URL du point de terminaison du service de recherche.

api-version
query True

string

Version de l’API cliente.

En-tête de la demande

Nom Obligatoire Type Description
x-ms-client-request-id

string (uuid)

ID de suivi envoyé avec la demande pour aider au débogage.

Corps de la demande

Nom Obligatoire Type Description
fields True

SearchField[]

Les champs de l’index.

name True

string

Nom de l’index.

@odata.etag

string

L’ETag de l’indice.

analyzers LexicalAnalyzer[]:

Les analyseurs de l’indice.

charFilters CharFilter[]:

Les filtres de caractères pour l’index.

corsOptions

CorsOptions

Options permettant de contrôler le partage des ressources cross-origin (CORS) pour l’index.

defaultScoringProfile

string

Nom du profil de scoring à utiliser si aucun n’est spécifié dans la requête. Si cette propriété n’est pas définie et qu’aucun profil de scoring n’est spécifié dans la requête, le scoring par défaut (tf-idf) sera utilisé.

description

string

Description de l’indice.

encryptionKey

SearchResourceEncryptionKey

Description d’une clé de chiffrement que vous créez dans Azure Key Vault. Cette clé est utilisée pour fournir un niveau supplémentaire de chiffrement au repos pour vos données lorsque vous souhaitez avoir l’assurance totale que personne, pas même Microsoft, ne peut déchiffrer vos données. Une fois que vous avez chiffré vos données, elles resteront toujours chiffrées. Le service de recherche ignore les tentatives de définition de cette propriété sur null. Vous pouvez modifier cette propriété si nécessaire si vous souhaitez faire pivoter votre clé de chiffrement ; Vos données ne seront pas affectées. Le chiffrement à l’aide de clés gérées par le client n’est pas disponible pour les services de recherche gratuits et n’est disponible que pour les services payants créés à partir du 1er janvier 2019.

normalizers LexicalNormalizer[]:

CustomNormalizer[]

Normalisateurs de l’indice.

scoringProfiles

ScoringProfile[]

Les profils de score de l’indice.

semantic

SemanticSettings

Définit les paramètres d’un index de recherche qui influencent les capacités sémantiques.

similarity Similarity:

Type d’algorithme de similarité à utiliser lors de la notation et du classement des documents correspondant à une requête de recherche. L’algorithme de similarité ne peut être défini qu’au moment de la création de l’index et ne peut pas être modifié sur les index existants. Si la valeur n’est pas nulle, l’algorithme ClassicSimilarity est utilisé.

suggesters

Suggester[]

Les suggesteurs de l’indice.

tokenFilters TokenFilter[]:

Le jeton filtre l’index.

tokenizers LexicalTokenizer[]:

Les tokenizers de l’index.

vectorSearch

VectorSearch

Contient les options de configuration liées à la recherche vectorielle.

Réponses

Nom Type Description
201 Created

SearchIndex

Other Status Codes

ErrorResponse

Réponse d’erreur.

Exemples

SearchServiceCreateIndex

Exemple de requête

POST https://stableexampleservice.search.windows.net/indexes?api-version=2025-09-01


{
  "name": "temp-stable-test",
  "description": "description",
  "fields": [
    {
      "name": "id",
      "type": "Edm.String",
      "key": true,
      "sortable": true
    },
    {
      "name": "vector1",
      "type": "Collection(Edm.Single)",
      "retrievable": true,
      "searchable": true,
      "dimensions": 20,
      "vectorSearchProfile": "config1"
    },
    {
      "name": "vector1b",
      "type": "Collection(Edm.Single)",
      "retrievable": true,
      "searchable": true,
      "dimensions": 10,
      "vectorSearchProfile": "config2"
    },
    {
      "name": "vector2",
      "type": "Collection(Edm.Single)",
      "retrievable": true,
      "searchable": true,
      "dimensions": 5,
      "vectorSearchProfile": "config3"
    },
    {
      "name": "vector3",
      "type": "Collection(Edm.Single)",
      "retrievable": true,
      "searchable": true,
      "dimensions": 5,
      "vectorSearchProfile": "config3"
    },
    {
      "name": "vector22",
      "type": "Collection(Edm.Single)",
      "retrievable": true,
      "searchable": true,
      "dimensions": 10,
      "vectorSearchProfile": "config2"
    },
    {
      "name": "name",
      "type": "Edm.String",
      "retrievable": true,
      "searchable": true,
      "filterable": true,
      "sortable": true,
      "facetable": true,
      "analyzer": "en.lucene"
    },
    {
      "name": "description",
      "type": "Edm.String",
      "retrievable": true,
      "searchable": true,
      "filterable": true,
      "sortable": true,
      "facetable": true,
      "analyzer": "standard.lucene"
    },
    {
      "name": "category",
      "type": "Edm.String",
      "retrievable": true,
      "searchable": true,
      "filterable": true,
      "sortable": true,
      "facetable": true,
      "analyzer": "en.lucene",
      "normalizer": "standard"
    },
    {
      "name": "ownerId",
      "type": "Edm.String",
      "retrievable": true,
      "searchable": true,
      "filterable": true,
      "sortable": true,
      "facetable": true,
      "analyzer": "en.lucene"
    }
  ],
  "scoringProfiles": [
    {
      "name": "stringFieldBoost",
      "text": {
        "weights": {
          "name": 3,
          "description": 1,
          "category": 2,
          "ownerId": 1
        }
      },
      "functions": [
        {
          "tag": {
            "tagsParameter": "categoryTag"
          },
          "type": "tag",
          "fieldName": "category",
          "boost": 2
        }
      ]
    }
  ],
  "defaultScoringProfile": "stringFieldBoost",
  "corsOptions": {
    "allowedOrigins": [
      "https://www.example.com/foo"
    ],
    "maxAgeInSeconds": 10
  },
  "suggesters": [
    {
      "name": "sg",
      "searchMode": "analyzingInfixMatching",
      "sourceFields": [
        "category",
        "ownerId"
      ]
    }
  ],
  "analyzers": [
    {
      "tokenizer": "standard_v2",
      "tokenFilters": [
        "common_grams"
      ],
      "charFilters": [
        "html_strip"
      ],
      "@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
      "name": "tagsAnalyzer"
    }
  ],
  "tokenizers": [
    {
      "maxTokenLength": 100,
      "@odata.type": "#Microsoft.Azure.Search.StandardTokenizerV2",
      "name": "my_tokenizer"
    }
  ],
  "tokenFilters": [
    {
      "preserveOriginal": false,
      "@odata.type": "#Microsoft.Azure.Search.AsciiFoldingTokenFilter",
      "name": "my_tokenFilter"
    }
  ],
  "charFilters": [
    {
      "mappings": [
        ".=>,",
        "_=>-"
      ],
      "@odata.type": "#Microsoft.Azure.Search.MappingCharFilter",
      "name": "my_mapping"
    }
  ],
  "normalizers": [
    {
      "tokenFilters": [
        "asciifolding"
      ],
      "charFilters": [
        "my_mapping"
      ],
      "@odata.type": "#Microsoft.Azure.Search.CustomNormalizer",
      "name": "tagsNormalizer"
    }
  ],
  "similarity": {
    "k1": 10,
    "b": 0.1,
    "@odata.type": "#Microsoft.Azure.Search.BM25Similarity"
  },
  "semantic": {
    "defaultConfiguration": "testconfig",
    "configurations": [
      {
        "name": "testconfig",
        "prioritizedFields": {
          "titleField": {
            "fieldName": "category"
          },
          "prioritizedContentFields": [
            {
              "fieldName": "description"
            }
          ],
          "prioritizedKeywordsFields": [
            {
              "fieldName": "ownerId"
            }
          ]
        },
        "rankingOrder": "BoostedRerankerScore"
      }
    ]
  },
  "vectorSearch": {
    "profiles": [
      {
        "name": "config1",
        "algorithm": "cosine",
        "vectorizer": "openai",
        "compression": "mySQ8"
      },
      {
        "name": "config2",
        "algorithm": "euclidean",
        "vectorizer": "custom-web-api",
        "compression": "mySQ8"
      },
      {
        "name": "config3",
        "algorithm": "dotProduct",
        "vectorizer": "custom-web-api",
        "compression": "myBQC"
      }
    ],
    "algorithms": [
      {
        "hnswParameters": {
          "metric": "cosine"
        },
        "name": "cosine",
        "kind": "hnsw"
      },
      {
        "hnswParameters": {
          "metric": "euclidean"
        },
        "name": "euclidean",
        "kind": "hnsw"
      },
      {
        "hnswParameters": {
          "metric": "dotProduct"
        },
        "name": "dotProduct",
        "kind": "hnsw"
      }
    ],
    "vectorizers": [
      {
        "azureOpenAIParameters": {
          "resourceUri": "https://test-sample.openai.azure.com/",
          "deploymentId": "model",
          "apiKey": "api-key",
          "modelName": "text-embedding-3-large"
        },
        "name": "openai",
        "kind": "azureOpenAI"
      },
      {
        "customWebApiParameters": {
          "uri": "https://my-custom-endpoint.org/",
          "httpHeaders": {
            "header1": "value1",
            "header2": "value2"
          },
          "httpMethod": "POST",
          "timeout": "PT1M",
          "authResourceId": "api://f89d1c93-58a7-4b07-9a5b-5f89048b927b",
          "authIdentity": {
            "@odata.type": "#Microsoft.Azure.Search.DataNoneIdentity"
          }
        },
        "name": "custom-web-api",
        "kind": "customWebApi"
      }
    ],
    "compressions": [
      {
        "scalarQuantizationParameters": {
          "quantizedDataType": "int8"
        },
        "name": "mySQ8",
        "kind": "scalarQuantization",
        "truncationDimension": 2
      },
      {
        "name": "myBQC",
        "kind": "binaryQuantization",
        "truncationDimension": 2
      }
    ]
  },
  "@odata.etag": "0x1234568AE7E58A1"
}

Exemple de réponse

{
  "@odata.etag": "0x1234568AE7E58A1",
  "name": "temp-stable-test",
  "description": "description",
  "defaultScoringProfile": "stringFieldBoost",
  "fields": [
    {
      "name": "id",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": true,
      "synonymMaps": []
    },
    {
      "name": "vector1",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 20,
      "vectorSearchProfile": "config1",
      "synonymMaps": []
    },
    {
      "name": "vector1b",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 10,
      "vectorSearchProfile": "config2",
      "synonymMaps": []
    },
    {
      "name": "vector2",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 5,
      "vectorSearchProfile": "config3",
      "synonymMaps": []
    },
    {
      "name": "vector3",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 5,
      "vectorSearchProfile": "config3",
      "synonymMaps": []
    },
    {
      "name": "vector22",
      "type": "Collection(Edm.Single)",
      "searchable": true,
      "filterable": false,
      "retrievable": true,
      "stored": true,
      "sortable": false,
      "facetable": false,
      "key": false,
      "dimensions": 10,
      "vectorSearchProfile": "config2",
      "synonymMaps": []
    },
    {
      "name": "name",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "en.lucene",
      "synonymMaps": []
    },
    {
      "name": "description",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "standard.lucene",
      "synonymMaps": []
    },
    {
      "name": "category",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "en.lucene",
      "normalizer": "standard",
      "synonymMaps": []
    },
    {
      "name": "ownerId",
      "type": "Edm.String",
      "searchable": true,
      "filterable": true,
      "retrievable": true,
      "stored": true,
      "sortable": true,
      "facetable": true,
      "key": false,
      "analyzer": "en.lucene",
      "synonymMaps": []
    }
  ],
  "scoringProfiles": [
    {
      "name": "stringFieldBoost",
      "functionAggregation": "sum",
      "text": {
        "weights": {
          "name": 3,
          "description": 1,
          "category": 2,
          "ownerId": 1
        }
      },
      "functions": [
        {
          "fieldName": "category",
          "interpolation": "linear",
          "type": "tag",
          "boost": 2,
          "tag": {
            "tagsParameter": "categoryTag"
          }
        }
      ]
    }
  ],
  "corsOptions": {
    "allowedOrigins": [
      "https://www.example.com/foo"
    ],
    "maxAgeInSeconds": 10
  },
  "suggesters": [
    {
      "name": "sg",
      "searchMode": "analyzingInfixMatching",
      "sourceFields": [
        "category",
        "ownerId"
      ]
    }
  ],
  "analyzers": [
    {
      "@odata.type": "#Microsoft.Azure.Search.CustomAnalyzer",
      "name": "tagsAnalyzer",
      "tokenizer": "standard_v2",
      "tokenFilters": [
        "common_grams"
      ],
      "charFilters": [
        "html_strip"
      ]
    }
  ],
  "normalizers": [
    {
      "@odata.type": "#Microsoft.Azure.Search.CustomNormalizer",
      "name": "tagsNormalizer",
      "tokenFilters": [
        "asciifolding"
      ],
      "charFilters": [
        "my_mapping"
      ]
    }
  ],
  "tokenizers": [
    {
      "@odata.type": "#Microsoft.Azure.Search.StandardTokenizerV2",
      "name": "my_tokenizer",
      "maxTokenLength": 100
    }
  ],
  "tokenFilters": [
    {
      "@odata.type": "#Microsoft.Azure.Search.AsciiFoldingTokenFilter",
      "name": "my_tokenFilter",
      "preserveOriginal": false
    }
  ],
  "charFilters": [
    {
      "@odata.type": "#Microsoft.Azure.Search.MappingCharFilter",
      "name": "my_mapping",
      "mappings": [
        ".=>,",
        "_=>-"
      ]
    }
  ],
  "similarity": {
    "@odata.type": "#Microsoft.Azure.Search.BM25Similarity",
    "k1": 10,
    "b": 0.1
  },
  "semantic": {
    "defaultConfiguration": "testconfig",
    "configurations": [
      {
        "name": "testconfig",
        "rankingOrder": "BoostedRerankerScore",
        "prioritizedFields": {
          "titleField": {
            "fieldName": "category"
          },
          "prioritizedContentFields": [
            {
              "fieldName": "description"
            }
          ],
          "prioritizedKeywordsFields": [
            {
              "fieldName": "ownerId"
            }
          ]
        }
      }
    ]
  },
  "vectorSearch": {
    "algorithms": [
      {
        "name": "cosine",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "cosine",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      },
      {
        "name": "euclidean",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "euclidean",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      },
      {
        "name": "dotProduct",
        "kind": "hnsw",
        "hnswParameters": {
          "metric": "dotProduct",
          "m": 4,
          "efConstruction": 400,
          "efSearch": 500
        }
      }
    ],
    "profiles": [
      {
        "name": "config1",
        "algorithm": "cosine",
        "vectorizer": "openai",
        "compression": "mySQ8"
      },
      {
        "name": "config2",
        "algorithm": "euclidean",
        "vectorizer": "custom-web-api",
        "compression": "mySQ8"
      },
      {
        "name": "config3",
        "algorithm": "dotProduct",
        "vectorizer": "custom-web-api",
        "compression": "myBQC"
      }
    ],
    "vectorizers": [
      {
        "name": "openai",
        "kind": "azureOpenAI",
        "azureOpenAIParameters": {
          "resourceUri": "https://test-sample.openai.azure.com",
          "deploymentId": "model",
          "apiKey": "api-key",
          "modelName": "text-embedding-3-large"
        }
      },
      {
        "name": "custom-web-api",
        "kind": "customWebApi",
        "customWebApiParameters": {
          "httpMethod": "POST",
          "uri": "https://my-custom-endpoint.org/",
          "timeout": "PT1M",
          "authResourceId": "api://f89d1c93-58a7-4b07-9a5b-5f89048b927b",
          "httpHeaders": {
            "header1": "value1",
            "header2": "value2"
          },
          "authIdentity": {
            "@odata.type": "#Microsoft.Azure.Search.DataNoneIdentity"
          }
        }
      }
    ],
    "compressions": [
      {
        "name": "mySQ8",
        "kind": "scalarQuantization",
        "truncationDimension": 2,
        "scalarQuantizationParameters": {
          "quantizedDataType": "int8"
        },
        "rescoringOptions": {
          "enableRescoring": true,
          "defaultOversampling": 4,
          "rescoreStorageMethod": "preserveOriginals"
        }
      },
      {
        "name": "myBQC",
        "kind": "binaryQuantization",
        "truncationDimension": 2,
        "rescoringOptions": {
          "enableRescoring": true,
          "defaultOversampling": 4,
          "rescoreStorageMethod": "preserveOriginals"
        }
      }
    ]
  }
}

Définitions

Nom Description
AsciiFoldingTokenFilter

Convertit les caractères Unicode alphabétiques, numériques et symboliques qui ne figurent pas dans les 127 premiers caractères ASCII (le bloc Unicode « Latin de base ») en leurs équivalents ASCII, le cas échéant. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

AzureActiveDirectoryApplicationCredentials

Informations d’identification d’une application inscrite créée pour votre service de recherche, utilisée pour l’accès authentifié aux clés de chiffrement stockées dans Azure Key Vault.

AzureOpenAIEmbeddingSkill

Vous permet de générer un incorporation vectorielle pour une entrée de texte donnée à l’aide de la ressource Azure OpenAI.

AzureOpenAIModelName

Nom du modèle Azure Open AI qui sera appelé.

AzureOpenAIParameters

Spécifie les paramètres de connexion à la ressource Azure OpenAI.

AzureOpenAIVectorizer

Spécifie la ressource Azure OpenAI utilisée pour vectoriser une chaîne de requête.

BinaryQuantizationVectorSearchCompressionConfiguration

Contient des options de configuration spécifiques à la méthode de compression de quantification binaire utilisée lors de l’indexation et de l’interrogation.

BM25Similarity

Fonction de classement basée sur l’algorithme de similarité Okapi BM25. BM25 est un algorithme de type TF-IDF qui inclut la normalisation de la longueur (contrôlée par le paramètre 'b') ainsi que la saturation de la fréquence des termes (contrôlée par le paramètre 'k1').

CharFilterName

Définit les noms de tous les filtres de caractères pris en charge par le moteur de recherche.

CjkBigramTokenFilter

Forme des bigrammes de termes CJC qui sont générés à partir du tokenizer standard. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

CjkBigramTokenFilterScripts

Scripts qui peuvent être ignorés par CjkBigramTokenFilter.

ClassicSimilarity

Algorithme de similarité hérité qui utilise l’implémentation Lucene TFIDFSimilarity de TF-IDF. Cette variante de TF-IDF introduit une normalisation statique de la longueur des documents ainsi que des facteurs de coordination qui pénalisent les documents qui ne correspondent que partiellement aux requêtes recherchées.

ClassicTokenizer

Générateur de jetons basé sur la grammaire qui convient au traitement de la plupart des documents en langue européenne. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene.

CommonGramTokenFilter

Construisez des bigrammes pour les termes fréquents lors de l’indexation. Les termes simples sont toujours indexés, avec des bigrammes superposés. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

CorsOptions

Définit les options de contrôle du partage de ressources d’origine croisée (CORS) pour un index.

CustomAnalyzer

Vous permet de prendre le contrôle du processus de conversion du texte en jetons indexables/consultables. Il s’agit d’une configuration définie par l’utilisateur composée d’un seul générateur de jetons prédéfini et d’un ou plusieurs filtres. Le générateur de jetons est chargé de diviser le texte en jetons et les filtres de modifier les jetons émis par le générateur de jetons.

CustomNormalizer

Vous permet de configurer la normalisation pour les champs filtrables, triables et à facettes, qui fonctionnent par défaut avec une correspondance stricte. Il s’agit d’une configuration définie par l’utilisateur composée d’au moins un ou plusieurs filtres, qui modifient le jeton stocké.

DictionaryDecompounderTokenFilter

Décompose les mots composés que l’on trouve dans de nombreuses langues germaniques. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

DistanceScoringFunction

Définit une fonction qui augmente les scores en fonction de la distance par rapport à un emplacement géographique.

DistanceScoringParameters

Fournit des valeurs de paramètre à une fonction de score de distance.

EdgeNGramTokenFilter

Génère des n-grammes de la ou des tailles données en commençant par l’avant ou l’arrière d’un jeton d’entrée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

EdgeNGramTokenFilterSide

Spécifie de quel côté de l’entrée un n-gramme doit être généré.

EdgeNGramTokenFilterV2

Génère des n-grammes de la ou des tailles données en commençant par l’avant ou l’arrière d’un jeton d’entrée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

EdgeNGramTokenizer

Tokenise l’entrée d’un bord en n-grammes de la ou des tailles données. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene.

ElisionTokenFilter

Supprime les élisions. Par exemple, « l’avion » sera converti en « avion ». Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

ErrorAdditionalInfo

Informations supplémentaires sur l’erreur de gestion des ressources.

ErrorDetail

Détail de l’erreur.

ErrorResponse

Réponse d’erreur

ExhaustiveKnnParameters

Contient les paramètres spécifiques à l’algorithme KNN exhaustif.

ExhaustiveKnnVectorSearchAlgorithmConfiguration

Contient des options de configuration spécifiques à l’algorithme KNN exhaustif utilisé lors de l’interrogation, qui effectuera une recherche par force brute sur l’ensemble de l’index vectoriel.

FreshnessScoringFunction

Définit une fonction qui augmente les scores en fonction de la valeur d’un champ date-heure.

FreshnessScoringParameters

Fournit des valeurs de paramètre à une fonction de notation de fraîcheur.

HnswParameters

Contient les paramètres spécifiques à l’algorithme HNSW.

HnswVectorSearchAlgorithmConfiguration

Contient des options de configuration spécifiques à l’algorithme HNSW approximatif des voisins les plus proches utilisé lors de l’indexation et de l’interrogation. L’algorithme HNSW offre un compromis réglable entre vitesse de recherche et précision.

InputFieldMappingEntry

Mappage de champ de saisie pour une compétence.

KeepTokenFilter

Filtre à jetons qui ne conserve que les jetons contenant du texte dans une liste de mots spécifiée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

KeywordMarkerTokenFilter

Marque les termes en tant que mots-clés. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

KeywordTokenizer

Émet l’intégralité de l’entrée sous la forme d’un seul jeton. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene.

KeywordTokenizerV2

Émet l’intégralité de l’entrée sous la forme d’un seul jeton. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene.

LengthTokenFilter

Supprime les mots trop longs ou trop courts. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

LexicalAnalyzerName

Définit les noms de tous les analyseurs de texte pris en charge par le moteur de recherche.

LexicalNormalizerName

Définit les noms de tous les normaliseurs de texte pris en charge par le moteur de recherche.

LexicalTokenizerName

Définit les noms de tous les tokenizers pris en charge par le moteur de recherche.

LimitTokenFilter

Limite le nombre de jetons lors de l’indexation. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

LuceneStandardAnalyzer

Analyseur Apache Lucene standard ; Composé du tokenizer standard, du filtre minuscule et du filtre stop.

LuceneStandardTokenizer

Rompt le texte en suivant les règles de segmentation de texte Unicode. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene.

LuceneStandardTokenizerV2

Rompt le texte en suivant les règles de segmentation de texte Unicode. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene.

MagnitudeScoringFunction

Définit une fonction qui augmente les scores en fonction de l’amplitude d’un champ numérique.

MagnitudeScoringParameters

Fournit des valeurs de paramètre à une fonction de scoring de magnitude.

MappingCharFilter

Filtre de caractères qui applique les mappages définis avec l’option mappages. Le matching est gourmand (le plus long pattern matching à un moment donné gagne). Le remplacement est autorisé à être la chaîne vide. Ce filtre de caractères est implémenté à l’aide d’Apache Lucene.

MicrosoftLanguageStemmingTokenizer

Divise le texte à l’aide de règles spécifiques à la langue et réduit les mots à leur forme de base.

MicrosoftLanguageTokenizer

Divise le texte à l’aide de règles spécifiques à la langue.

MicrosoftStemmingTokenizerLanguage

Répertorie les langues prises en charge par le générateur de jetons de recherche de radical de langue Microsoft.

MicrosoftTokenizerLanguage

Répertorie les langues prises en charge par le générateur de jetons de langue Microsoft.

NGramTokenFilter

Génère n-grammes de la ou des tailles données. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

NGramTokenFilterV2

Génère n-grammes de la ou des tailles données. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

NGramTokenizer

Tokenise l’entrée en n-grammes de la ou des tailles données. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene.

OutputFieldMappingEntry

Mappage de champ de sortie pour une compétence.

PathHierarchyTokenizerV2

Tokenizer pour les hiérarchies de type chemin. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene.

PatternAnalyzer

Sépare le texte en termes de manière flexible à l’aide d’un modèle d’expression régulière. Cet analyseur est implémenté à l’aide d’Apache Lucene.

PatternCaptureTokenFilter

Utilise des expressions régulières Java pour émettre plusieurs jetons, un pour chaque groupe de capture dans un ou plusieurs motifs. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

PatternReplaceCharFilter

Filtre de caractères qui remplace les caractères de la chaîne d’entrée. Il utilise une expression régulière pour identifier les séquences de caractères à conserver et un modèle de remplacement pour identifier les caractères à remplacer. Par exemple, étant donné le texte d’entrée « aa bb aa bb », le motif « (aa)\s+(bb) », et le remplacement « $1#$2 », le résultat serait « aa#bb aa#bb ». Ce filtre de caractères est implémenté à l’aide d’Apache Lucene.

PatternReplaceTokenFilter

Filtre de caractères qui remplace les caractères de la chaîne d’entrée. Il utilise une expression régulière pour identifier les séquences de caractères à conserver et un modèle de remplacement pour identifier les caractères à remplacer. Par exemple, étant donné le texte d’entrée « aa bb aa bb », le motif « (aa)\s+(bb) », et le remplacement « $1#$2 », le résultat serait « aa#bb aa#bb ». Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

PatternTokenizer

Générateur de jetons qui utilise la correspondance de modèles regex pour construire des jetons distincts. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene.

PhoneticEncoder

Identifie le type d’encodeur phonétique à utiliser avec un PhoneticTokenFilter.

PhoneticTokenFilter

Créez des jetons pour les correspondances phonétiques. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

PrioritizedFields

Décrit les champs de titre, de contenu et de mots-clés à utiliser pour le classement sémantique, les légendes, les surlignages et les réponses.

RankingOrder

Représente le score à utiliser pour l’ordre de tri des documents.

RegexFlags

Définit des indicateurs qui peuvent être combinés pour contrôler la façon dont les expressions régulières sont utilisées dans l’analyseur de motifs et le générateur de jetons de motifs.

RescoringOptions

Contient les options de répartition.

ScalarQuantizationParameters

Contient les paramètres spécifiques à la quantification scalaire.

ScalarQuantizationVectorSearchCompressionConfiguration

Contient des options de configuration spécifiques à la méthode de compression de quantification scalaire utilisée lors de l’indexation et de l’interrogation.

ScoringFunctionAggregation

Définit la fonction d’agrégation utilisée pour combiner les résultats de toutes les fonctions de scoring dans un profil de score.

ScoringFunctionInterpolation

Définit la fonction utilisée pour interpoler l’augmentation du score dans une plage de documents.

ScoringProfile

Définit les paramètres d’un index de recherche qui influencent le score dans les requêtes de recherche.

SearchField

Représente un champ dans une définition d’index, qui décrit le nom, le type de données et le comportement de recherche d’un champ.

SearchFieldDataType

Définit le type de données d’un champ dans un index de recherche.

SearchIndex

Représente une définition d’index de recherche, qui décrit les champs et le comportement de recherche d’un index.

SearchIndexerDataNoneIdentity

Efface la propriété identity d’une source de données.

SearchIndexerDataUserAssignedIdentity

Spécifie l’identité d’une source de données à utiliser.

SearchResourceEncryptionKey

Clé de chiffrement gérée par le client dans Azure Key Vault. Les clés que vous créez et gérez peuvent être utilisées pour chiffrer ou déchiffrer des données au repos, telles que des index et des cartes de synonymes.

SemanticConfiguration

Définit une configuration spécifique à utiliser dans le contexte des capacités sémantiques.

SemanticField

Champ utilisé dans le cadre de la configuration sémantique.

SemanticSettings

Définit les paramètres d’un index de recherche qui influencent les capacités sémantiques.

ShingleTokenFilter

Crée des combinaisons de jetons en tant que jeton unique. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

SnowballTokenFilter

Filtre qui permet d’extraire les mots à l’aide d’un générateur de racines généré par Snowball. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

SnowballTokenFilterLanguage

Langue à utiliser pour un filtre de jeton Snowball.

StemmerOverrideTokenFilter

Permet de remplacer d’autres filtres de radical par un stem ming personnalisé basé sur un dictionnaire. Tous les termes issus d’un dictionnaire seront marqués en tant que mots-clés afin qu’ils ne soient pas associés à des générateurs de racines en aval de la chaîne. Doit être placé avant tout filtre à tige. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

StemmerTokenFilter

Filtre de radical spécifique à la langue. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

StemmerTokenFilterLanguage

Langue à utiliser pour un filtre de jeton de type dérivé.

StopAnalyzer

Divise le texte en non-lettres ; Applique les filtres de jeton en minuscules et en mots vides. Cet analyseur est implémenté à l’aide d’Apache Lucene.

StopwordsList

Identifie une liste prédéfinie de mots vides spécifiques à la langue.

StopwordsTokenFilter

Supprime les mots vides d’un flux de jetons. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Suggester

Définit comment l’API Suggest doit s’appliquer à un groupe de champs dans l’index.

SuggesterSearchMode

Valeur indiquant les capacités du suggesteur.

SynonymTokenFilter

Correspond à des synonymes d’un ou plusieurs mots dans un flux de jetons. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

TagScoringFunction

Définit une fonction qui booste les scores de documents avec des valeurs de chaîne correspondant à une liste donnée de balises.

TagScoringParameters

Fournit des valeurs de paramètre à une fonction de scoring de balise.

TextWeights

Définit les pondérations dans les champs d’index pour lesquels les correspondances doivent améliorer le score dans les requêtes de recherche.

TokenCharacterKind

Représente les classes de caractères sur lesquelles un filtre de jeton peut fonctionner.

TokenFilterName

Définit les noms de tous les filtres de jetons pris en charge par le moteur de recherche.

TruncateTokenFilter

Tronque les termes à une longueur spécifique. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

UaxUrlEmailTokenizer

Tokenise les URL et les e-mails en un seul jeton. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene.

UniqueTokenFilter

Filtre les jetons avec le même texte que le jeton précédent. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

VectorEncodingFormat

Format d’encodage pour l’interprétation du contenu des champs vectoriels.

VectorSearch

Contient les options de configuration liées à la recherche vectorielle.

VectorSearchAlgorithmKind

Algorithme utilisé pour l’indexation et l’interrogation.

VectorSearchAlgorithmMetric

Métrique de similarité à utiliser pour les comparaisons de vecteurs. Il est recommandé de choisir la même métrique de similarité que celle sur laquelle le modèle d’intégration a été formé.

VectorSearchCompressionKind

Méthode de compression utilisée pour l’indexation et l’interrogation.

VectorSearchCompressionRescoreStorageMethod

Méthode de stockage des vecteurs de précision complète d’origine utilisés pour la réévaluation et les opérations d’index internes.

VectorSearchCompressionTargetDataType

Type de données quantifiées des valeurs vectorielles compressées.

VectorSearchProfile

Définit une combinaison de configurations à utiliser avec la recherche vectorielle.

VectorSearchVectorizerKind

Méthode de vectorisation à utiliser au moment de la requête.

WebApiParameters

Spécifie les propriétés de connexion à un vectoriseur défini par l’utilisateur.

WebApiVectorizer

Spécifie un vectoriseur défini par l’utilisateur pour générer l’incorporation vectorielle d’une chaîne de requête. L’intégration d’un vectoriseur externe est réalisée à l’aide de l’interface API Web personnalisée d’un ensemble de compétences.

WordDelimiterTokenFilter

Divise les mots en sous-mots et effectue des transformations facultatives sur les groupes de sous-mots. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

AsciiFoldingTokenFilter

Convertit les caractères Unicode alphabétiques, numériques et symboliques qui ne figurent pas dans les 127 premiers caractères ASCII (le bloc Unicode « Latin de base ») en leurs équivalents ASCII, le cas échéant. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.AsciiFoldingTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

preserveOriginal

boolean

False

Valeur indiquant si le jeton d’origine sera conservé. La valeur par défaut est false.

AzureActiveDirectoryApplicationCredentials

Informations d’identification d’une application inscrite créée pour votre service de recherche, utilisée pour l’accès authentifié aux clés de chiffrement stockées dans Azure Key Vault.

Nom Type Description
applicationId

string

ID d’application AAD qui a reçu les autorisations d’accès requises à Azure Key Vault à utiliser lors du chiffrement de vos données au repos. L’ID d’application ne doit pas être confondu avec l’ID d’objet de votre application AAD.

applicationSecret

string

Clé d’authentification de l’application AAD spécifiée.

AzureOpenAIEmbeddingSkill

Vous permet de générer un incorporation vectorielle pour une entrée de texte donnée à l’aide de la ressource Azure OpenAI.

Nom Type Description
@odata.type string:

#Microsoft.Skills.Text.AzureOpenAIEmbeddingSkill

Fragment d’URI spécifiant le type de compétence.

apiKey

string

Clé API de la ressource Azure OpenAI désignée.

authIdentity SearchIndexerDataIdentity:

Identité managée affectée par l’utilisateur utilisée pour les connexions sortantes.

context

string

Représente le niveau auquel les opérations ont lieu, tel que la racine du document ou le contenu du document (par exemple, /document ou /document/content). La valeur par défaut est /document.

deploymentId

string

ID du déploiement du modèle Azure OpenAI sur la ressource désignée.

description

string

Description de la compétence, qui décrit les entrées, les sorties et l’utilisation de la compétence.

dimensions

integer (int32)

Nombre de dimensions que les incorporations de sortie obtenues doivent avoir. Uniquement pris en charge dans text-embedding-3 et les modèles ultérieurs.

inputs

InputFieldMappingEntry[]

Les entrées des compétences peuvent être une colonne dans l’ensemble de données source ou la sortie d’une compétence en amont.

modelName

AzureOpenAIModelName

Nom du modèle d’incorporation déployé au chemin deploymentId fourni.

name

string

Nom de la compétence qui l’identifie de manière unique dans l’ensemble de compétences. Une compétence sans nom défini se verra attribuer un nom par défaut de son index de base 1 dans le tableau des compétences, préfixé par le caractère « # ».

outputs

OutputFieldMappingEntry[]

La sortie d’une compétence est soit un champ dans un index de recherche, soit une valeur qui peut être consommée en tant qu’entrée par une autre compétence.

resourceUri

string (uri)

URI de la ressource Azure OpenAI.

AzureOpenAIModelName

Nom du modèle Azure Open AI qui sera appelé.

Valeur Description
text-embedding-ada-002
text-embedding-3-large
text-embedding-3-small

AzureOpenAIParameters

Spécifie les paramètres de connexion à la ressource Azure OpenAI.

Nom Type Description
apiKey

string

Clé API de la ressource Azure OpenAI désignée.

authIdentity SearchIndexerDataIdentity:

Identité managée affectée par l’utilisateur utilisée pour les connexions sortantes.

deploymentId

string

ID du déploiement du modèle Azure OpenAI sur la ressource désignée.

modelName

AzureOpenAIModelName

Nom du modèle d’incorporation déployé au chemin deploymentId fourni.

resourceUri

string (uri)

URI de la ressource Azure OpenAI.

AzureOpenAIVectorizer

Spécifie la ressource Azure OpenAI utilisée pour vectoriser une chaîne de requête.

Nom Type Description
azureOpenAIParameters AzureOpenAIParameters:

AzureOpenAIEmbeddingSkill

Contient les paramètres spécifiques à la vectorisation d’incorporation Azure OpenAI.

kind string:

azureOpenAI

Nom du type de méthode de vectorisation configuré pour être utilisé avec la recherche vectorielle.

name

string

Nom à associer à cette méthode de vectorisation particulière.

BinaryQuantizationVectorSearchCompressionConfiguration

Contient des options de configuration spécifiques à la méthode de compression de quantification binaire utilisée lors de l’indexation et de l’interrogation.

Nom Type Description
kind string:

binaryQuantization

Nom du type de méthode de compression configuré pour être utilisé avec la recherche vectorielle.

name

string

Nom à associer à cette configuration particulière.

rescoringOptions

RescoringOptions

Contient les options de répartition.

truncationDimension

integer (int32)

Nombre de dimensions auxquelles tronquer les vecteurs. La troncature des vecteurs réduit la taille des vecteurs et la quantité de données à transférer pendant la recherche. Cela permet de réduire les coûts de stockage et d’améliorer les performances de recherche au détriment du rappel. Il ne doit être utilisé que pour les intégrations entraînées avec Matryoshka Representation Learning (MRL) telles que OpenAI text-embedding-3-large (small). La valeur par défaut est null, ce qui signifie qu’il n’y a pas de troncature.

BM25Similarity

Fonction de classement basée sur l’algorithme de similarité Okapi BM25. BM25 est un algorithme de type TF-IDF qui inclut la normalisation de la longueur (contrôlée par le paramètre 'b') ainsi que la saturation de la fréquence des termes (contrôlée par le paramètre 'k1').

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.BM25Similarity

b

number (double)

Cette propriété contrôle la façon dont la longueur d’un document affecte le score de pertinence. Par défaut, la valeur 0,75 est utilisée. Une valeur de 0,0 signifie qu’aucune normalisation de longueur n’est appliquée, tandis qu’une valeur de 1,0 signifie que le score est entièrement normalisé par la longueur du document.

k1

number (double)

Cette propriété contrôle la fonction de mise à l’échelle entre la fréquence des termes correspondants et le score de pertinence final d’une paire document-requête. Par défaut, la valeur 1,2 est utilisée. Une valeur de 0,0 signifie que le score n’est pas mis à l’échelle avec l’augmentation de la fréquence des trimestres.

CharFilterName

Définit les noms de tous les filtres de caractères pris en charge par le moteur de recherche.

Valeur Description
html_strip

Filtre de caractères qui tente de supprimer les constructions HTML. Voir https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/charfilter/HTMLStripCharFilter.html

CjkBigramTokenFilter

Forme des bigrammes de termes CJC qui sont générés à partir du tokenizer standard. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.CjkBigramTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

ignoreScripts

CjkBigramTokenFilterScripts[]

Les scripts à ignorer.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

outputUnigrams

boolean

False

Valeur indiquant s’il faut générer à la fois des unigrammes et des bigrammes (si true) ou uniquement des bigrammes (si false). La valeur par défaut est false.

CjkBigramTokenFilterScripts

Scripts qui peuvent être ignorés par CjkBigramTokenFilter.

Valeur Description
han

Ignorez l’écriture Han lors de la formation de bigrammes de termes CJC.

hiragana

Ignorez l’écriture hiragana lorsque vous formez des bigrammes de termes CJC.

katakana

Ignorez l’écriture katakana lors de la formation de bigrammes de termes CJC.

hangul

Ignorez l’écriture Hangul lors de la formation de bigrammes de termes CJC.

ClassicSimilarity

Algorithme de similarité hérité qui utilise l’implémentation Lucene TFIDFSimilarity de TF-IDF. Cette variante de TF-IDF introduit une normalisation statique de la longueur des documents ainsi que des facteurs de coordination qui pénalisent les documents qui ne correspondent que partiellement aux requêtes recherchées.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.ClassicSimilarity

ClassicTokenizer

Générateur de jetons basé sur la grammaire qui convient au traitement de la plupart des documents en langue européenne. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.ClassicTokenizer

Fragment d’URI spécifiant le type de générateur de jetons.

maxTokenLength

integer (int32)

maximum: 300
255

La longueur maximale du jeton. La valeur par défaut est 255. Les jetons plus longs que la longueur maximale sont divisés. La longueur maximale du jeton pouvant être utilisé est de 300 caractères.

name

string

Nom du générateur de jetons. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

CommonGramTokenFilter

Construisez des bigrammes pour les termes fréquents lors de l’indexation. Les termes simples sont toujours indexés, avec des bigrammes superposés. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.CommonGramTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

commonWords

string[]

L’ensemble des mots courants.

ignoreCase

boolean

False

Valeur indiquant si la correspondance des mots courants ne sera pas sensible à la casse. La valeur par défaut est false.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

queryMode

boolean

False

Valeur qui indique si le filtre de jeton est en mode requête. En mode requête, le filtre de jeton génère des bigrammes, puis supprime les mots courants et les termes uniques suivis d’un mot courant. La valeur par défaut est false.

CorsOptions

Définit les options de contrôle du partage de ressources d’origine croisée (CORS) pour un index.

Nom Type Description
allowedOrigins

string[]

La liste des origines à partir desquelles le code JavaScript sera autorisé à accéder à votre index. Peut contenir une liste d’hôtes de la forme {protocol} ://{fully-qualified-domain-name}[ :{port#}], ou un seul '*' pour autoriser toutes les origines (non recommandé).

maxAgeInSeconds

integer (int64)

Durée pendant laquelle les navigateurs doivent mettre en cache les réponses de contrôle en amont CORS. La valeur par défaut est de 5 minutes.

CustomAnalyzer

Vous permet de prendre le contrôle du processus de conversion du texte en jetons indexables/consultables. Il s’agit d’une configuration définie par l’utilisateur composée d’un seul générateur de jetons prédéfini et d’un ou plusieurs filtres. Le générateur de jetons est chargé de diviser le texte en jetons et les filtres de modifier les jetons émis par le générateur de jetons.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.CustomAnalyzer

Fragment d’URI spécifiant le type d’analyseur.

charFilters

CharFilterName[]

Liste des filtres de caractères utilisés pour préparer le texte d’entrée avant qu’il ne soit traité par le générateur de jetons. Par exemple, ils peuvent remplacer certains caractères ou symboles. Les filtres sont exécutés dans l’ordre dans lequel ils sont répertoriés.

name

string

Nom de l’analyseur. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

tokenFilters

TokenFilterName[]

Liste des filtres de jetons utilisés pour filtrer ou modifier les jetons générés par un générateur de jetons. Par exemple, vous pouvez spécifier un filtre en minuscules qui convertit tous les caractères en minuscules. Les filtres sont exécutés dans l’ordre dans lequel ils sont répertoriés.

tokenizer

LexicalTokenizerName

Nom du générateur de jetons à utiliser pour diviser le texte continu en une séquence de jetons, par exemple pour décomposer une phrase en mots.

CustomNormalizer

Vous permet de configurer la normalisation pour les champs filtrables, triables et à facettes, qui fonctionnent par défaut avec une correspondance stricte. Il s’agit d’une configuration définie par l’utilisateur composée d’au moins un ou plusieurs filtres, qui modifient le jeton stocké.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.CustomNormalizer

Fragment d’URI spécifiant le type de normaliseur.

charFilters

CharFilterName[]

Liste des filtres de caractères utilisés pour préparer le texte d’entrée avant qu’il ne soit traité. Par exemple, ils peuvent remplacer certains caractères ou symboles. Les filtres sont exécutés dans l’ordre dans lequel ils sont répertoriés.

name

string

Nom du normaliseur. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères. Il ne peut pas se terminer par '.microsoft' ou '.lucene', ni être nommé 'asciifolding', 'standard', 'minuscule', 'majuscule' ou 'elision'.

tokenFilters

TokenFilterName[]

Liste des filtres de jeton utilisés pour filtrer ou modifier le jeton d’entrée. Par exemple, vous pouvez spécifier un filtre en minuscules qui convertit tous les caractères en minuscules. Les filtres sont exécutés dans l’ordre dans lequel ils sont répertoriés.

DictionaryDecompounderTokenFilter

Décompose les mots composés que l’on trouve dans de nombreuses langues germaniques. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.DictionaryDecompounderTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

maxSubwordSize

integer (int32)

maximum: 300
15

Taille maximale des sous-mots. Seuls les sous-mots plus courts sont générés. La valeur par défaut est 15. Le maximum est de 300.

minSubwordSize

integer (int32)

maximum: 300
2

La taille minimale des sous-mots. Seuls les sous-mots plus longs sont affichés. La valeur par défaut est 2. Le maximum est de 300.

minWordSize

integer (int32)

maximum: 300
5

La taille minimale des mots. Seuls les mots plus longs sont traités. La valeur par défaut est 5. Le maximum est de 300.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

onlyLongestMatch

boolean

False

Valeur indiquant s’il faut ajouter uniquement le sous-mot correspondant le plus long à la sortie. La valeur par défaut est false.

wordList

string[]

La liste des mots à comparer.

DistanceScoringFunction

Définit une fonction qui augmente les scores en fonction de la distance par rapport à un emplacement géographique.

Nom Type Description
boost

number (double)

Un multiplicateur pour le score brut. Doit être un nombre positif non égal à 1,0.

distance

DistanceScoringParameters

Valeurs des paramètres de la fonction de score de distance.

fieldName

string

Nom du champ utilisé comme entrée pour la fonction de notation.

interpolation

ScoringFunctionInterpolation

Une valeur indiquant comment le boosting sera interpolé entre les scores des documents ; la valeur par défaut est « Linear ».

type string:

distance

Indique le type de fonction à utiliser. Les valeurs valides sont la magnitude, la fraîcheur, la distance et l’étiquette. Le type de fonction doit être en minuscules.

DistanceScoringParameters

Fournit des valeurs de paramètre à une fonction de score de distance.

Nom Type Description
boostingDistance

number (double)

La distance en kilomètres à partir de l’emplacement de référence où se termine la portée de boosting.

referencePointParameter

string

Nom du paramètre passé dans les requêtes de recherche pour spécifier l’emplacement de référence.

EdgeNGramTokenFilter

Génère des n-grammes de la ou des tailles données en commençant par l’avant ou l’arrière d’un jeton d’entrée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

maxGram

integer (int32)

2

Longueur maximale de n-grammes. La valeur par défaut est 2.

minGram

integer (int32)

1

La longueur minimale de n-grammes. 1 constitue la valeur par défaut. Doit être inférieur à la valeur de maxGram.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

side

EdgeNGramTokenFilterSide

front

Spécifie de quel côté de l’entrée le n-gramme doit être généré. La valeur par défaut est « front ».

EdgeNGramTokenFilterSide

Spécifie de quel côté de l’entrée un n-gramme doit être généré.

Valeur Description
front

Spécifie que le n-gramme doit être généré à partir de l’avant de l’entrée.

back

Spécifie que le n-gramme doit être généré à partir de l’arrière de l’entrée.

EdgeNGramTokenFilterV2

Génère des n-grammes de la ou des tailles données en commençant par l’avant ou l’arrière d’un jeton d’entrée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenFilterV2

Fragment d’URI spécifiant le type de filtre de jeton.

maxGram

integer (int32)

maximum: 300
2

Longueur maximale de n-grammes. La valeur par défaut est 2. Le maximum est de 300.

minGram

integer (int32)

maximum: 300
1

La longueur minimale de n-grammes. 1 constitue la valeur par défaut. Le maximum est de 300. Doit être inférieur à la valeur de maxGram.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

side

EdgeNGramTokenFilterSide

front

Spécifie de quel côté de l’entrée le n-gramme doit être généré. La valeur par défaut est « front ».

EdgeNGramTokenizer

Tokenise l’entrée d’un bord en n-grammes de la ou des tailles données. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.EdgeNGramTokenizer

Fragment d’URI spécifiant le type de générateur de jetons.

maxGram

integer (int32)

maximum: 300
2

Longueur maximale de n-grammes. La valeur par défaut est 2. Le maximum est de 300.

minGram

integer (int32)

maximum: 300
1

La longueur minimale de n-grammes. 1 constitue la valeur par défaut. Le maximum est de 300. Doit être inférieur à la valeur de maxGram.

name

string

Nom du générateur de jetons. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

tokenChars

TokenCharacterKind[]

Classes de caractères à conserver dans les jetons.

ElisionTokenFilter

Supprime les élisions. Par exemple, « l’avion » sera converti en « avion ». Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.ElisionTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

articles

string[]

L’ensemble des articles à supprimer.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

ErrorAdditionalInfo

Informations supplémentaires sur l’erreur de gestion des ressources.

Nom Type Description
info

object

Informations supplémentaires.

type

string

Type d’informations supplémentaire.

ErrorDetail

Détail de l’erreur.

Nom Type Description
additionalInfo

ErrorAdditionalInfo[]

Informations supplémentaires sur l’erreur.

code

string

Code d’erreur.

details

ErrorDetail[]

Détails de l’erreur.

message

string

Message d’erreur.

target

string

Cible d’erreur.

ErrorResponse

Réponse d’erreur

Nom Type Description
error

ErrorDetail

Objet d’erreur.

ExhaustiveKnnParameters

Contient les paramètres spécifiques à l’algorithme KNN exhaustif.

Nom Type Description
metric

VectorSearchAlgorithmMetric

Métrique de similarité à utiliser pour les comparaisons de vecteurs.

ExhaustiveKnnVectorSearchAlgorithmConfiguration

Contient des options de configuration spécifiques à l’algorithme KNN exhaustif utilisé lors de l’interrogation, qui effectuera une recherche par force brute sur l’ensemble de l’index vectoriel.

Nom Type Description
exhaustiveKnnParameters

ExhaustiveKnnParameters

Contient les paramètres spécifiques à l’algorithme KNN exhaustif.

kind string:

exhaustiveKnn

Nom du type d’algorithme configuré pour être utilisé avec la recherche vectorielle.

name

string

Nom à associer à cette configuration particulière.

FreshnessScoringFunction

Définit une fonction qui augmente les scores en fonction de la valeur d’un champ date-heure.

Nom Type Description
boost

number (double)

Un multiplicateur pour le score brut. Doit être un nombre positif non égal à 1,0.

fieldName

string

Nom du champ utilisé comme entrée pour la fonction de notation.

freshness

FreshnessScoringParameters

Valeurs des paramètres de la fonction de notation de fraîcheur.

interpolation

ScoringFunctionInterpolation

Une valeur indiquant comment le boosting sera interpolé entre les scores des documents ; la valeur par défaut est « Linear ».

type string:

freshness

Indique le type de fonction à utiliser. Les valeurs valides sont la magnitude, la fraîcheur, la distance et l’étiquette. Le type de fonction doit être en minuscules.

FreshnessScoringParameters

Fournit des valeurs de paramètre à une fonction de notation de fraîcheur.

Nom Type Description
boostingDuration

string (duration)

Période d’expiration après laquelle l’amplification s’arrêtera pour un document particulier.

HnswParameters

Contient les paramètres spécifiques à l’algorithme HNSW.

Nom Type Valeur par défaut Description
efConstruction

integer (int32)

minimum: 100
maximum: 1000
400

Taille de la liste dynamique contenant les voisins les plus proches, qui est utilisée pendant la période d’indexation. L’augmentation de ce paramètre peut améliorer la qualité de l’indice, au détriment de l’augmentation du temps d’indexation. À un certain point, l’augmentation de ce paramètre entraîne des rendements décroissants.

efSearch

integer (int32)

minimum: 100
maximum: 1000
500

Taille de la liste dynamique contenant les voisins les plus proches, qui est utilisée pendant la recherche. L’augmentation de ce paramètre peut améliorer les résultats de recherche, au détriment d’une recherche plus lente. À un certain point, l’augmentation de ce paramètre entraîne des rendements décroissants.

m

integer (int32)

minimum: 4
maximum: 10
4

Le nombre de liens bidirectionnels créés pour chaque nouvel élément pendant la construction. L’augmentation de la valeur de ce paramètre peut améliorer le rappel et réduire les temps d’extraction des ensembles de données à forte dimensionnalité intrinsèque, au détriment d’une consommation de mémoire accrue et d’un temps d’indexation plus long.

metric

VectorSearchAlgorithmMetric

Métrique de similarité à utiliser pour les comparaisons de vecteurs.

HnswVectorSearchAlgorithmConfiguration

Contient des options de configuration spécifiques à l’algorithme HNSW approximatif des voisins les plus proches utilisé lors de l’indexation et de l’interrogation. L’algorithme HNSW offre un compromis réglable entre vitesse de recherche et précision.

Nom Type Description
hnswParameters

HnswParameters

Contient les paramètres spécifiques à l’algorithme HNSW.

kind string:

hnsw

Nom du type d’algorithme configuré pour être utilisé avec la recherche vectorielle.

name

string

Nom à associer à cette configuration particulière.

InputFieldMappingEntry

Mappage de champ de saisie pour une compétence.

Nom Type Description
inputs

InputFieldMappingEntry[]

Entrées récursives utilisées lors de la création d’un type complexe.

name

string

Nom de l’entrée.

source

string

Source de l’entrée.

sourceContext

string

Contexte source utilisé pour la sélection des entrées récursives.

KeepTokenFilter

Filtre à jetons qui ne conserve que les jetons contenant du texte dans une liste de mots spécifiée. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.KeepTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

keepWords

string[]

La liste des mots à conserver.

keepWordsCase

boolean

False

Valeur indiquant si tous les mots doivent être mis en minuscules en premier. La valeur par défaut est false.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

KeywordMarkerTokenFilter

Marque les termes en tant que mots-clés. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.KeywordMarkerTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

ignoreCase

boolean

False

Valeur indiquant s’il faut ignorer la casse. Si true, tous les mots sont d’abord convertis en minuscules. La valeur par défaut est false.

keywords

string[]

Une liste de mots à marquer comme mots-clés.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

KeywordTokenizer

Émet l’intégralité de l’entrée sous la forme d’un seul jeton. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.KeywordTokenizer

Fragment d’URI spécifiant le type de générateur de jetons.

bufferSize

integer (int32)

256

Taille de la mémoire tampon de lecture en octets. La valeur par défaut est 256.

name

string

Nom du générateur de jetons. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

KeywordTokenizerV2

Émet l’intégralité de l’entrée sous la forme d’un seul jeton. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.KeywordTokenizerV2

Fragment d’URI spécifiant le type de générateur de jetons.

maxTokenLength

integer (int32)

maximum: 300
256

La longueur maximale du jeton. La valeur par défaut est 256. Les jetons plus longs que la longueur maximale sont divisés. La longueur maximale du jeton pouvant être utilisé est de 300 caractères.

name

string

Nom du générateur de jetons. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

LengthTokenFilter

Supprime les mots trop longs ou trop courts. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.LengthTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

max

integer (int32)

maximum: 300
300

Longueur maximale en caractères. La valeur par défaut et maximale est 300.

min

integer (int32)

maximum: 300
0

La longueur minimale en caractères. La valeur par défaut est 0. Le maximum est de 300. Doit être inférieur à la valeur de max.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

LexicalAnalyzerName

Définit les noms de tous les analyseurs de texte pris en charge par le moteur de recherche.

Valeur Description
ar.microsoft

Microsoft analyzer pour l’arabe.

ar.lucene

Analyseur Lucene pour l’arabe.

hy.lucene

Analyseur Lucene pour l’arménien.

bn.microsoft

Analyseur Microsoft pour le bengali.

eu.lucene

Analyseur Lucene pour le basque.

bg.microsoft

Microsoft analyzer pour le bulgare.

bg.lucene

Analyseur Lucene pour le bulgare.

ca.microsoft

Analyseur Microsoft pour le catalan.

ca.lucene

Analyseur Lucene pour le catalan.

zh-Hans.microsoft

Microsoft analyzer pour le chinois (simplifié).

zh-Hans.lucene

Analyseur Lucene pour le chinois (simplifié).

zh-Hant.microsoft

Microsoft analyzer pour le chinois (traditionnel).

zh-Hant.lucene

Analyseur Lucene pour le chinois (traditionnel).

hr.microsoft

Analyseur Microsoft pour le croate.

cs.microsoft

Microsoft analyzer pour le tchèque.

cs.lucene

Analyseur Lucene pour le tchèque.

da.microsoft

Analyseur Microsoft pour le danois.

da.lucene

Analyseur Lucene pour le danois.

nl.microsoft

Analyseur Microsoft pour le néerlandais.

nl.lucene

Analyseur Lucene pour le néerlandais.

en.microsoft

Microsoft analyzer pour l’anglais.

en.lucene

Analyseur Lucene pour l’anglais.

et.microsoft

Microsoft analyzer pour l’estonien.

fi.microsoft

Microsoft analyzer pour le finnois.

fi.lucene

Analyseur Lucene pour le finnois.

fr.microsoft

Analyseur Microsoft pour le français.

fr.lucene

Analyseur Lucene pour le français.

gl.lucene

Analyseur Lucene pour le galicien.

de.microsoft

Microsoft analyzer pour l’allemand.

de.lucene

Analyseur Lucene pour l’allemand.

el.microsoft

Analyseur Microsoft pour le grec.

el.lucene

Analyseur Lucene pour le grec.

gu.microsoft

Analyseur Microsoft pour le gujarati.

he.microsoft

Microsoft analyzer pour l’hébreu.

hi.microsoft

Analyseur Microsoft pour l’hindi.

hi.lucene

Analyseur Lucene pour l’hindi.

hu.microsoft

Microsoft analyzer pour le hongrois.

hu.lucene

Analyseur Lucene pour le hongrois.

is.microsoft

Microsoft analyzer pour l’islandais.

id.microsoft

Analyseur Microsoft pour l’indonésien (Bahasa).

id.lucene

Analyseur Lucene pour l’indonésien.

ga.lucene

Analyseur Lucene pour l’irlandais.

it.microsoft

Microsoft analyzer pour l’italien.

it.lucene

Analyseur Lucene pour l’italien.

ja.microsoft

Microsoft analyzer pour le japonais.

ja.lucene

Analyseur Lucene pour le japonais.

kn.microsoft

Analyseur Microsoft pour Kannada.

ko.microsoft

Microsoft analyzer pour le coréen.

ko.lucene

Analyseur Lucene pour le coréen.

lv.microsoft

Analyseur Microsoft pour le letton.

lv.lucene

Analyseur Lucene pour le letton.

lt.microsoft

Analyseur Microsoft pour le lituanien.

ml.microsoft

Analyseur Microsoft pour le malayalam.

ms.microsoft

Microsoft analyzer pour le malais (latin).

mr.microsoft

Analyseur Microsoft pour Marathi.

nb.microsoft

Microsoft analyzer for Norwegian (Bokmål).

no.lucene

Analyseur Lucene pour Norwegian.

fa.lucene

Analyseur Lucene pour le persan.

pl.microsoft

Analyseur Microsoft pour le polonais.

pl.lucene

Analyseur Lucene pour le polonais.

pt-BR.microsoft

Microsoft analyzer pour le portugais (Brésil).

pt-BR.lucene

Analyseur Lucene pour le portugais (Brésil).

pt-PT.microsoft

Microsoft analyzer pour le portugais (Portugal).

pt-PT.lucene

Analyseur Lucene pour le portugais (Portugal).

pa.microsoft

Analyseur Microsoft pour le pendjabi.

ro.microsoft

Analyseur Microsoft pour le roumain.

ro.lucene

Analyseur Lucene pour roumain.

ru.microsoft

Microsoft analyzer pour le russe.

ru.lucene

Analyseur Lucene pour le russe.

sr-cyrillic.microsoft

Microsoft analyzer pour le serbe (cyrillique).

sr-latin.microsoft

Analyseur Microsoft pour le serbe (latin).

sk.microsoft

Analyseur Microsoft pour le slovaque.

sl.microsoft

Analyseur Microsoft pour le slovène.

es.microsoft

Analyseur Microsoft pour l’espagnol.

es.lucene

Analyseur Lucene pour l’espagnol.

sv.microsoft

Microsoft analyzer pour le suédois.

sv.lucene

Analyseur Lucene pour le suédois.

ta.microsoft

Analyseur Microsoft pour le tamoul.

te.microsoft

Analyseur Microsoft pour le télougou.

th.microsoft

Analyseur Microsoft pour le thaï.

th.lucene

Analyseur Lucene pour le thaïlandais.

tr.microsoft

Analyseur Microsoft pour le turc.

tr.lucene

Analyseur Lucene pour le turc.

uk.microsoft

Microsoft analyzer pour l’ukrainien.

ur.microsoft

Analyseur Microsoft pour l’ourdou.

vi.microsoft

Analyseur Microsoft pour le vietnamien.

standard.lucene

Analyseur Lucene standard.

standardasciifolding.lucene

Analyseur standard ASCII Folding Lucene. Voir https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#Analyzers

keyword

Traite l’intégralité du contenu d’un champ comme un jeton unique. Ceci est utile pour des données telles que les codes postaux, les identifiants et certains noms de produits. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordAnalyzer.html

pattern

Sépare le texte en termes de manière flexible à l’aide d’un modèle d’expression régulière. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/PatternAnalyzer.html

simple

Divise le texte en non-lettres et le convertit en minuscules. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/SimpleAnalyzer.html

stop

Divise le texte en non-lettres ; Applique les filtres de jeton en minuscules et en mots vides. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopAnalyzer.html

whitespace

Un analyseur qui utilise le générateur de jetons d’espaces. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceAnalyzer.html

LexicalNormalizerName

Définit les noms de tous les normaliseurs de texte pris en charge par le moteur de recherche.

Valeur Description
asciifolding

Convertit les caractères Unicode alphabétiques, numériques et symboliques qui ne figurent pas dans les 127 premiers caractères ASCII (le bloc Unicode « Latin de base ») en leurs équivalents ASCII, le cas échéant. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html

elision

Supprime les élisions. Par exemple, « l’avion » sera converti en « avion ». Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html

lowercase

Normalise le texte du jeton en minuscules. Voir https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html

standard

Normaliseur standard, qui se compose de minuscules et d’un repliement ascii. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html

uppercase

Normalise le texte du jeton en majuscules. Voir https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html

LexicalTokenizerName

Définit les noms de tous les tokenizers pris en charge par le moteur de recherche.

Valeur Description
classic

Générateur de jetons basé sur la grammaire qui convient au traitement de la plupart des documents en langue européenne. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicTokenizer.html

edgeNGram

Tokenise l’entrée d’un bord en n-grammes de la ou des tailles données. Voir https://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenizer.html

keyword_v2

Émet l’intégralité de l’entrée sous la forme d’un seul jeton. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/KeywordTokenizer.html

letter

Divise le texte en non-lettres. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LetterTokenizer.html

lowercase

Divise le texte en non-lettres et le convertit en minuscules. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/LowerCaseTokenizer.html

microsoft_language_tokenizer

Divise le texte à l’aide de règles spécifiques à la langue.

microsoft_language_stemming_tokenizer

Divise le texte à l’aide de règles spécifiques à la langue et réduit les mots à leur forme de base.

nGram

Tokenise l’entrée en n-grammes de la ou des tailles données. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenizer.html

path_hierarchy_v2

Tokenizer pour les hiérarchies de type chemin. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/path/PathHierarchyTokenizer.html

pattern

Générateur de jetons qui utilise la correspondance de modèles regex pour construire des jetons distincts. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/pattern/PatternTokenizer.html

standard_v2

Analyseur Lucene standard ; Composé du tokenizer standard, du filtre minuscule et du filtre stop. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/StandardTokenizer.html

uax_url_email

Tokenise les URL et les e-mails en un seul jeton. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/UAX29URLEmailTokenizer.html

whitespace

Divise le texte au niveau des espaces. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/WhitespaceTokenizer.html

LimitTokenFilter

Limite le nombre de jetons lors de l’indexation. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.LimitTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

consumeAllTokens

boolean

False

Valeur indiquant si tous les jetons de l’entrée doivent être consommés même si maxTokenCount est atteint. La valeur par défaut est false.

maxTokenCount

integer (int32)

1

Le nombre maximum de jetons à produire. 1 constitue la valeur par défaut.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

LuceneStandardAnalyzer

Analyseur Apache Lucene standard ; Composé du tokenizer standard, du filtre minuscule et du filtre stop.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.StandardAnalyzer

Fragment d’URI spécifiant le type d’analyseur.

maxTokenLength

integer (int32)

maximum: 300
255

La longueur maximale du jeton. La valeur par défaut est 255. Les jetons plus longs que la longueur maximale sont divisés. La longueur maximale du jeton pouvant être utilisé est de 300 caractères.

name

string

Nom de l’analyseur. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

stopwords

string[]

Une liste de mots vides.

LuceneStandardTokenizer

Rompt le texte en suivant les règles de segmentation de texte Unicode. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.StandardTokenizer

Fragment d’URI spécifiant le type de générateur de jetons.

maxTokenLength

integer (int32)

255

La longueur maximale du jeton. La valeur par défaut est 255. Les jetons plus longs que la longueur maximale sont divisés.

name

string

Nom du générateur de jetons. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

LuceneStandardTokenizerV2

Rompt le texte en suivant les règles de segmentation de texte Unicode. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.StandardTokenizerV2

Fragment d’URI spécifiant le type de générateur de jetons.

maxTokenLength

integer (int32)

maximum: 300
255

La longueur maximale du jeton. La valeur par défaut est 255. Les jetons plus longs que la longueur maximale sont divisés. La longueur maximale du jeton pouvant être utilisé est de 300 caractères.

name

string

Nom du générateur de jetons. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

MagnitudeScoringFunction

Définit une fonction qui augmente les scores en fonction de l’amplitude d’un champ numérique.

Nom Type Description
boost

number (double)

Un multiplicateur pour le score brut. Doit être un nombre positif non égal à 1,0.

fieldName

string

Nom du champ utilisé comme entrée pour la fonction de notation.

interpolation

ScoringFunctionInterpolation

Une valeur indiquant comment le boosting sera interpolé entre les scores des documents ; la valeur par défaut est « Linear ».

magnitude

MagnitudeScoringParameters

Valeurs des paramètres de la fonction de scoring de l’amplitude.

type string:

magnitude

Indique le type de fonction à utiliser. Les valeurs valides sont la magnitude, la fraîcheur, la distance et l’étiquette. Le type de fonction doit être en minuscules.

MagnitudeScoringParameters

Fournit des valeurs de paramètre à une fonction de scoring de magnitude.

Nom Type Description
boostingRangeEnd

number (double)

Valeur de champ à partir de laquelle le boosting se termine.

boostingRangeStart

number (double)

Valeur de champ à partir de laquelle le boosting commence.

constantBoostBeyondRange

boolean

Valeur indiquant s’il faut appliquer une amplification constante pour les valeurs de champ au-delà de la valeur de fin de plage ; La valeur par défaut est false.

MappingCharFilter

Filtre de caractères qui applique les mappages définis avec l’option mappages. Le matching est gourmand (le plus long pattern matching à un moment donné gagne). Le remplacement est autorisé à être la chaîne vide. Ce filtre de caractères est implémenté à l’aide d’Apache Lucene.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.MappingCharFilter

Fragment d’URI spécifiant le type de filtre char.

mappings

string[]

Une liste de mappages au format suivant : « a=>b » (toutes les occurrences du caractère « a » seront remplacées par le caractère « b »).

name

string

Nom du filtre char. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

MicrosoftLanguageStemmingTokenizer

Divise le texte à l’aide de règles spécifiques à la langue et réduit les mots à leur forme de base.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.MicrosoftLanguageStemmingTokenizer

Fragment d’URI spécifiant le type de générateur de jetons.

isSearchTokenizer

boolean

False

Valeur indiquant comment le générateur de jetons est utilisé. Définissez la valeur true si vous l’utilisez comme générateur de jetons de recherche, la valeur false si elle est utilisée comme générateur de jetons d’indexation. La valeur par défaut est false.

language

MicrosoftStemmingTokenizerLanguage

La langue à utiliser. La valeur par défaut est l’anglais.

maxTokenLength

integer (int32)

maximum: 300
255

La longueur maximale du jeton. Les jetons plus longs que la longueur maximale sont divisés. La longueur maximale du jeton pouvant être utilisé est de 300 caractères. Les jetons de plus de 300 caractères sont d’abord divisés en jetons d’une longueur de 300, puis chacun de ces jetons est divisé en fonction de la longueur maximale des jetons définie. La valeur par défaut est 255.

name

string

Nom du générateur de jetons. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

MicrosoftLanguageTokenizer

Divise le texte à l’aide de règles spécifiques à la langue.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.MicrosoftLanguageTokenizer

Fragment d’URI spécifiant le type de générateur de jetons.

isSearchTokenizer

boolean

False

Valeur indiquant comment le générateur de jetons est utilisé. Définissez la valeur true si vous l’utilisez comme générateur de jetons de recherche, la valeur false si elle est utilisée comme générateur de jetons d’indexation. La valeur par défaut est false.

language

MicrosoftTokenizerLanguage

La langue à utiliser. La valeur par défaut est l’anglais.

maxTokenLength

integer (int32)

maximum: 300
255

La longueur maximale du jeton. Les jetons plus longs que la longueur maximale sont divisés. La longueur maximale du jeton pouvant être utilisé est de 300 caractères. Les jetons de plus de 300 caractères sont d’abord divisés en jetons d’une longueur de 300, puis chacun de ces jetons est divisé en fonction de la longueur maximale des jetons définie. La valeur par défaut est 255.

name

string

Nom du générateur de jetons. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

MicrosoftStemmingTokenizerLanguage

Répertorie les langues prises en charge par le générateur de jetons de recherche de radical de langue Microsoft.

Valeur Description
arabic

Sélectionne le générateur de jetons de radical Microsoft pour l’arabe.

bangla

Sélectionne le générateur de jetons de stemming Microsoft pour le bengali.

bulgarian

Sélectionne le générateur de jetons Microsoft Stemming pour le bulgare.

catalan

Sélectionne le générateur de jetons Microsoft Stemming pour le catalan.

croatian

Sélectionne le générateur de jetons Microsoft Stemming pour le croate.

czech

Sélectionne le générateur de jetons Microsoft Stemming pour le tchèque.

danish

Sélectionne le générateur de jetons Microsoft Stemming pour le danois.

dutch

Sélectionne le générateur de jetons de stemming Microsoft pour le néerlandais.

english

Sélectionne le générateur de jetons de recherche de radical Microsoft pour l’anglais.

estonian

Sélectionne le générateur de jetons Microsoft Stemming pour l’estonien.

finnish

Sélectionne le générateur de jetons Microsoft Stemming pour le finnois.

french

Sélectionne le générateur de jetons de recherche de radical Microsoft pour le français.

german

Sélectionne le générateur de jetons Microsoft Stemming pour l’allemand.

greek

Sélectionne le générateur de jetons Microsoft Stemming pour le grec.

gujarati

Sélectionne le générateur de jetons Microsoft Stemming pour le gujarati.

hebrew

Sélectionne le générateur de jetons de recherche de radical Microsoft pour l’hébreu.

hindi

Sélectionne le générateur de jetons Microsoft Stemming pour l’hindi.

hungarian

Sélectionne le générateur de jetons Microsoft Stemming pour le hongrois.

icelandic

Sélectionne le générateur de jetons Microsoft Stemming pour l’islandais.

indonesian

Sélectionne le générateur de jetons Microsoft Stemming pour l’indonésien.

italian

Sélectionne le générateur de jetons Microsoft Stemming pour l’italien.

kannada

Sélectionne le générateur de jetons Microsoft Stemming pour Kannada.

latvian

Sélectionne le générateur de jetons Microsoft Stemming pour le letton.

lithuanian

Sélectionne le générateur de jetons Microsoft Stemming pour le lituanien.

malay

Sélectionne le générateur de jetons Microsoft Stemming pour le malais.

malayalam

Sélectionne le générateur de jetons Microsoft Stemming pour le malayalam.

marathi

Sélectionne le générateur de jetons Microsoft Stemming pour Marathi.

norwegianBokmaal

Sélectionne le générateur de jetons de stemming Microsoft pour le norvégien (Bokmål).

polish

Sélectionne le générateur de jetons Microsoft Stemming pour le polonais.

portuguese

Sélectionne le générateur de jetons de radical Microsoft pour le portugais.

portugueseBrazilian

Sélectionne le générateur de jetons Microsoft Stemming pour le portugais (Brésil).

punjabi

Sélectionne le générateur de jetons de radical Microsoft pour le pendjabi.

romanian

Sélectionne le générateur de jetons Microsoft Stemming pour le roumain.

russian

Sélectionne le générateur de jetons Microsoft Stemming pour le russe.

serbianCyrillic

Sélectionne le générateur de jetons de radical Microsoft pour le serbe (cyrillique).

serbianLatin

Sélectionne le générateur de jetons Microsoft Stemming pour le serbe (latin).

slovak

Sélectionne le générateur de jetons Microsoft Stemming pour le slovaque.

slovenian

Sélectionne le générateur de jetons Microsoft Stemming pour le slovène.

spanish

Sélectionne le générateur de jetons Microsoft Stemming pour l’espagnol.

swedish

Sélectionne le générateur de jetons Microsoft Stemming pour le suédois.

tamil

Sélectionne le générateur de jetons Microsoft Stemming pour le tamoul.

telugu

Sélectionne le générateur de jetons de stemming Microsoft pour le télougou.

turkish

Sélectionne le générateur de jetons Microsoft Stemming pour le turc.

ukrainian

Sélectionne le générateur de jetons de radical Microsoft pour l’ukrainien.

urdu

Sélectionne le générateur de jetons de recherche de radical Microsoft pour l’ourdou.

MicrosoftTokenizerLanguage

Répertorie les langues prises en charge par le générateur de jetons de langue Microsoft.

Valeur Description
bangla

Sélectionne le générateur de jetons Microsoft pour le bengali.

bulgarian

Sélectionne le générateur de jetons Microsoft pour le bulgare.

catalan

Sélectionne le générateur de jetons Microsoft pour le catalan.

chineseSimplified

Sélectionne le générateur de jetons Microsoft pour le chinois (simplifié).

chineseTraditional

Sélectionne le générateur de jetons Microsoft pour le chinois (traditionnel).

croatian

Sélectionne le générateur de jetons Microsoft pour le croate.

czech

Sélectionne le générateur de jetons Microsoft pour le tchèque.

danish

Sélectionne le générateur de jetons Microsoft pour le danois.

dutch

Sélectionne le générateur de jetons Microsoft pour le néerlandais.

english

Sélectionne le générateur de jetons Microsoft pour l’anglais.

french

Sélectionne le générateur de jetons Microsoft pour le français.

german

Sélectionne le générateur de jetons Microsoft pour l’allemand.

greek

Sélectionne le générateur de jetons Microsoft pour le grec.

gujarati

Sélectionne le générateur de jetons Microsoft pour le gujarati.

hindi

Sélectionne le générateur de jetons Microsoft pour l’hindi.

icelandic

Sélectionne le générateur de jetons Microsoft pour l’islandais.

indonesian

Sélectionne le générateur de jetons Microsoft pour l’indonésien.

italian

Sélectionne le générateur de jetons Microsoft pour l’italien.

japanese

Sélectionne le générateur de jetons Microsoft pour le japonais.

kannada

Sélectionne le générateur de jetons Microsoft pour Kannada.

korean

Sélectionne le générateur de jetons Microsoft pour le coréen.

malay

Sélectionne le générateur de jetons Microsoft pour le malais.

malayalam

Sélectionne le générateur de jetons Microsoft pour le malayalam.

marathi

Sélectionne le générateur de jetons Microsoft pour Marathi.

norwegianBokmaal

Sélectionne le générateur de jetons Microsoft pour le norvégien (Bokmål).

polish

Sélectionne le générateur de jetons Microsoft pour le polonais.

portuguese

Sélectionne le générateur de jetons Microsoft pour le portugais.

portugueseBrazilian

Sélectionne le générateur de jetons Microsoft pour le portugais (Brésil).

punjabi

Sélectionne le générateur de jetons Microsoft pour le pendjabi.

romanian

Sélectionne le générateur de jetons Microsoft pour le roumain.

russian

Sélectionne le générateur de jetons Microsoft pour le russe.

serbianCyrillic

Sélectionne le générateur de jetons Microsoft pour le serbe (cyrillique).

serbianLatin

Sélectionne le générateur de jetons Microsoft pour le serbe (latin).

slovenian

Sélectionne le générateur de jetons Microsoft pour le slovène.

spanish

Sélectionne le générateur de jetons Microsoft pour l’espagnol.

swedish

Sélectionne le générateur de jetons Microsoft pour le suédois.

tamil

Sélectionne le générateur de jetons Microsoft pour le tamoul.

telugu

Sélectionne le générateur de jetons Microsoft pour le télougou.

thai

Sélectionne le générateur de jetons Microsoft pour le thaï.

ukrainian

Sélectionne le générateur de jetons Microsoft pour l’ukrainien.

urdu

Sélectionne le générateur de jetons Microsoft pour l’ourdou.

vietnamese

Sélectionne le générateur de jetons Microsoft pour le vietnamien.

NGramTokenFilter

Génère n-grammes de la ou des tailles données. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.NGramTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

maxGram

integer (int32)

2

Longueur maximale de n-grammes. La valeur par défaut est 2.

minGram

integer (int32)

1

La longueur minimale de n-grammes. 1 constitue la valeur par défaut. Doit être inférieur à la valeur de maxGram.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

NGramTokenFilterV2

Génère n-grammes de la ou des tailles données. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.NGramTokenFilterV2

Fragment d’URI spécifiant le type de filtre de jeton.

maxGram

integer (int32)

maximum: 300
2

Longueur maximale de n-grammes. La valeur par défaut est 2. Le maximum est de 300.

minGram

integer (int32)

maximum: 300
1

La longueur minimale de n-grammes. 1 constitue la valeur par défaut. Le maximum est de 300. Doit être inférieur à la valeur de maxGram.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

NGramTokenizer

Tokenise l’entrée en n-grammes de la ou des tailles données. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.NGramTokenizer

Fragment d’URI spécifiant le type de générateur de jetons.

maxGram

integer (int32)

maximum: 300
2

Longueur maximale de n-grammes. La valeur par défaut est 2. Le maximum est de 300.

minGram

integer (int32)

maximum: 300
1

La longueur minimale de n-grammes. 1 constitue la valeur par défaut. Le maximum est de 300. Doit être inférieur à la valeur de maxGram.

name

string

Nom du générateur de jetons. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

tokenChars

TokenCharacterKind[]

Classes de caractères à conserver dans les jetons.

OutputFieldMappingEntry

Mappage de champ de sortie pour une compétence.

Nom Type Description
name

string

Nom de la sortie défini par la compétence.

targetName

string

Nom cible de la sortie. Il est facultatif et nomme par défaut.

PathHierarchyTokenizerV2

Tokenizer pour les hiérarchies de type chemin. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.PathHierarchyTokenizerV2

Fragment d’URI spécifiant le type de générateur de jetons.

delimiter

string (char)

/

Caractère délimiteur à utiliser. La valeur par défaut est « / ».

maxTokenLength

integer (int32)

maximum: 300
300

La longueur maximale du jeton. La valeur par défaut et maximale est 300.

name

string

Nom du générateur de jetons. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

replacement

string (char)

/

Valeur qui, si elle est définie, remplace le caractère délimiteur. La valeur par défaut est « / ».

reverse

boolean

False

Valeur indiquant s’il faut générer des jetons dans l’ordre inverse. La valeur par défaut est false.

skip

integer (int32)

0

Le nombre de jetons initiaux à ignorer. La valeur par défaut est 0.

PatternAnalyzer

Sépare le texte en termes de manière flexible à l’aide d’un modèle d’expression régulière. Cet analyseur est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.PatternAnalyzer

Fragment d’URI spécifiant le type d’analyseur.

flags

RegexFlags

Indicateurs d’expression régulière.

lowercase

boolean

True

Valeur indiquant si les termes doivent être en minuscules. La valeur par défaut est true.

name

string

Nom de l’analyseur. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

pattern

string

\W+

Modèle d’expression régulière pour faire correspondre les séparateurs de jetons. La valeur par défaut est une expression qui correspond à un ou plusieurs caractères non verbaux.

stopwords

string[]

Une liste de mots vides.

PatternCaptureTokenFilter

Utilise des expressions régulières Java pour émettre plusieurs jetons, un pour chaque groupe de capture dans un ou plusieurs motifs. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.PatternCaptureTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

patterns

string[]

Une liste de modèles à faire correspondre à chaque jeton.

preserveOriginal

boolean

True

Valeur indiquant s’il faut retourner le jeton d’origine même si l’un des motifs correspond. La valeur par défaut est true.

PatternReplaceCharFilter

Filtre de caractères qui remplace les caractères de la chaîne d’entrée. Il utilise une expression régulière pour identifier les séquences de caractères à conserver et un modèle de remplacement pour identifier les caractères à remplacer. Par exemple, étant donné le texte d’entrée « aa bb aa bb », le motif « (aa)\s+(bb) », et le remplacement « $1#$2 », le résultat serait « aa#bb aa#bb ». Ce filtre de caractères est implémenté à l’aide d’Apache Lucene.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.PatternReplaceCharFilter

Fragment d’URI spécifiant le type de filtre char.

name

string

Nom du filtre char. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

pattern

string

Un modèle d’expression régulière.

replacement

string

Le texte de remplacement.

PatternReplaceTokenFilter

Filtre de caractères qui remplace les caractères de la chaîne d’entrée. Il utilise une expression régulière pour identifier les séquences de caractères à conserver et un modèle de remplacement pour identifier les caractères à remplacer. Par exemple, étant donné le texte d’entrée « aa bb aa bb », le motif « (aa)\s+(bb) », et le remplacement « $1#$2 », le résultat serait « aa#bb aa#bb ». Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.PatternReplaceTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

pattern

string

Un modèle d’expression régulière.

replacement

string

Le texte de remplacement.

PatternTokenizer

Générateur de jetons qui utilise la correspondance de modèles regex pour construire des jetons distincts. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.PatternTokenizer

Fragment d’URI spécifiant le type de générateur de jetons.

flags

RegexFlags

Indicateurs d’expression régulière.

group

integer (int32)

-1

Ordinal de base zéro du groupe correspondant dans le modèle d’expression régulière à extraire en jetons. Utilisez -1 si vous souhaitez utiliser l’intégralité du modèle pour diviser l’entrée en jetons, indépendamment des groupes correspondants. La valeur par défaut est -1.

name

string

Nom du générateur de jetons. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

pattern

string

\W+

Modèle d’expression régulière pour faire correspondre les séparateurs de jetons. La valeur par défaut est une expression qui correspond à un ou plusieurs caractères non verbaux.

PhoneticEncoder

Identifie le type d’encodeur phonétique à utiliser avec un PhoneticTokenFilter.

Valeur Description
metaphone

Code un jeton en valeur Metaphone.

doubleMetaphone

Code un jeton en une valeur de métaphone double.

soundex

Encode un jeton en une valeur Soundex.

refinedSoundex

Encode un jeton en une valeur Soundex raffinée.

caverphone1

Encode un jeton dans une valeur Caverphone 1.0.

caverphone2

Encode un jeton dans une valeur Caverphone 2.0.

cologne

Code un jeton en une valeur phonétique de Cologne.

nysiis

Code un jeton en une valeur NYSIIS.

koelnerPhonetik

Encode un jeton à l’aide de l’algorithme Kölner Phonetik.

haasePhonetik

Encode un jeton à l’aide du raffinement Haase de l’algorithme Kölner Phonetik.

beiderMorse

Code un jeton en une valeur Beider-Morse.

PhoneticTokenFilter

Créez des jetons pour les correspondances phonétiques. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.PhoneticTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

encoder

PhoneticEncoder

metaphone

L’encodeur phonétique à utiliser. La valeur par défaut est « metaphone ».

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

replace

boolean

True

Valeur indiquant si les jetons codés doivent remplacer les jetons d’origine. Si la valeur est false, les jetons codés sont ajoutés en tant que synonymes. La valeur par défaut est true.

PrioritizedFields

Décrit les champs de titre, de contenu et de mots-clés à utiliser pour le classement sémantique, les légendes, les surlignages et les réponses.

Nom Type Description
prioritizedContentFields

SemanticField[]

Définit les champs de contenu à utiliser pour le classement sémantique, les légendes, les surlignages et les réponses. Pour un résultat optimal, les champs sélectionnés doivent contenir du texte sous forme de langage naturel. L’ordre des champs dans le tableau représente leur priorité. Les champs avec une priorité inférieure peuvent être tronqués si le contenu est long.

prioritizedKeywordsFields

SemanticField[]

Définit les champs de mots-clés à utiliser pour le classement sémantique, les légendes, les surlignages et les réponses. Pour un résultat optimal, les champs sélectionnés doivent contenir une liste de mots-clés. L’ordre des champs dans le tableau représente leur priorité. Les champs avec une priorité inférieure peuvent être tronqués si le contenu est long.

titleField

SemanticField

Définit le champ de titre à utiliser pour le classement sémantique, les légendes, les surlignages et les réponses. Si vous n’avez pas de champ de titre dans votre index, laissez ce champ vide.

RankingOrder

Représente le score à utiliser pour l’ordre de tri des documents.

Valeur Description
BoostedRerankerScore

Définit l’ordre de tri comme BoostedRerankerScore

RerankerScore

Définit l’ordre de tri en tant que ReRankerScore

RegexFlags

Définit des indicateurs qui peuvent être combinés pour contrôler la façon dont les expressions régulières sont utilisées dans l’analyseur de motifs et le générateur de jetons de motifs.

Valeur Description
CANON_EQ

Permet l’équivalence canonique.

CASE_INSENSITIVE

Permet la correspondance insensible à la casse.

COMMENTS

Autorise les espaces et les commentaires dans le modèle.

DOTALL

Active le mode dotall.

LITERAL

Active l’analyse littérale du modèle.

MULTILINE

Active le mode multiligne.

UNICODE_CASE

Permet le pliage de la casse compatible Unicode.

UNIX_LINES

Active le mode lignes Unix.

RescoringOptions

Contient les options de répartition.

Nom Type Valeur par défaut Description
defaultOversampling

number (double)

Facteur de suréchantillonnage par défaut. Le suréchantillonnage récupère un plus grand nombre de documents potentiels pour compenser la perte de résolution due à la quantification. Cela augmente l’ensemble des résultats qui seront réévalués sur les vecteurs de pleine précision. La valeur minimale est 1, ce qui signifie qu’il n’y a pas de suréchantillonnage (1x). Ce paramètre ne peut être défini que lorsque 'enableRescoring' est vrai. Des valeurs plus élevées améliorent la mémorisation au détriment de la latence.

enableRescoring

boolean

True

Si la valeur est true, après la recherche initiale sur les vecteurs compressés, les scores de similarité sont recalculés à l’aide des vecteurs de pleine précision. Cela améliorera la mémorisation au détriment de la latence.

rescoreStorageMethod

VectorSearchCompressionRescoreStorageMethod

preserveOriginals

Contrôle la méthode de stockage des vecteurs d’origine. Ce paramètre est immuable.

ScalarQuantizationParameters

Contient les paramètres spécifiques à la quantification scalaire.

Nom Type Description
quantizedDataType

VectorSearchCompressionTargetDataType

Type de données quantifiées des valeurs vectorielles compressées.

ScalarQuantizationVectorSearchCompressionConfiguration

Contient des options de configuration spécifiques à la méthode de compression de quantification scalaire utilisée lors de l’indexation et de l’interrogation.

Nom Type Description
kind string:

scalarQuantization

Nom du type de méthode de compression configuré pour être utilisé avec la recherche vectorielle.

name

string

Nom à associer à cette configuration particulière.

rescoringOptions

RescoringOptions

Contient les options de répartition.

scalarQuantizationParameters

ScalarQuantizationParameters

Contient les paramètres spécifiques à la quantification scalaire.

truncationDimension

integer (int32)

Nombre de dimensions auxquelles tronquer les vecteurs. La troncature des vecteurs réduit la taille des vecteurs et la quantité de données à transférer pendant la recherche. Cela permet de réduire les coûts de stockage et d’améliorer les performances de recherche au détriment du rappel. Il ne doit être utilisé que pour les intégrations entraînées avec Matryoshka Representation Learning (MRL) telles que OpenAI text-embedding-3-large (small). La valeur par défaut est null, ce qui signifie qu’il n’y a pas de troncature.

ScoringFunctionAggregation

Définit la fonction d’agrégation utilisée pour combiner les résultats de toutes les fonctions de scoring dans un profil de score.

Valeur Description
sum

Augmentez les scores par la somme de tous les résultats de la fonction de notation.

average

Augmentez les scores de la moyenne de tous les résultats de la fonction de notation.

minimum

Augmentez les scores du minimum de tous les résultats de la fonction de notation.

maximum

Augmentez les scores du maximum de tous les résultats de la fonction de notation.

firstMatching

Augmentez les scores à l’aide de la première fonction de score applicable dans le profil de score.

ScoringFunctionInterpolation

Définit la fonction utilisée pour interpoler l’augmentation du score dans une plage de documents.

Valeur Description
linear

Augmente les scores d’une quantité linéairement décroissante. Il s’agit de l’interpolation par défaut pour les fonctions de notation.

constant

Augmente les scores d’un facteur constant.

quadratic

Augmente les scores d’une quantité qui diminue quadratiquement. Les boosts diminuent lentement pour les scores les plus élevés, et plus rapidement à mesure que les scores diminuent. Cette option d’interpolation n’est pas autorisée dans les fonctions de scoring des balises.

logarithmic

Augmente les scores d’un montant qui diminue de manière logarithmique. Les boosts diminuent rapidement pour les scores les plus élevés, et plus lentement à mesure que les scores diminuent. Cette option d’interpolation n’est pas autorisée dans les fonctions de scoring des balises.

ScoringProfile

Définit les paramètres d’un index de recherche qui influencent le score dans les requêtes de recherche.

Nom Type Description
functionAggregation

ScoringFunctionAggregation

Valeur indiquant comment les résultats des fonctions de scoring individuelles doivent être combinés. La valeur par défaut est « Sum ». Ignoré s’il n’y a pas de fonctions de notation.

functions ScoringFunction[]:

L’ensemble des fonctions qui influencent la notation des documents.

name

string

Nom du profil de notation.

text

TextWeights

Paramètres qui améliorent le scoring en fonction des correspondances de texte dans certains champs d’index.

SearchField

Représente un champ dans une définition d’index, qui décrit le nom, le type de données et le comportement de recherche d’un champ.

Nom Type Description
analyzer

LexicalAnalyzerName

Nom de l’analyseur à utiliser pour le champ. Cette option ne peut être utilisée qu’avec les champs pouvant faire l’objet d’une recherche et elle ne peut pas être définie avec searchAnalyzer ou indexAnalyzer. Une fois l’analyseur choisi, il ne peut pas être remplacé par le champ. Doit être null pour les champs complexes.

dimensions

integer (int32)

minimum: 2
maximum: 4096

La dimensionnalité du champ de vecteurs.

facetable

boolean

Valeur indiquant s’il faut activer le référencement du champ dans les requêtes de facettes. Généralement utilisé dans une présentation des résultats de recherche qui inclut le nombre d'accès par catégorie (par exemple, vous recherchez des appareils photo numériques et regardez le nombre d'accès par marque, mégapixels, prix, etc.). Cette propriété doit être null pour les champs complexes. Les champs de type Edm.GeographyPoint ou Collection(Edm.GeographyPoint) ne peuvent pas être facetables. La valeur par défaut est true pour tous les autres champs simples.

fields

SearchField[]

Une liste de sous-champs s’il s’agit d’un champ de type Edm.ComplexType ou Collection(Edm.ComplexType). Doit être null ou vide pour les champs simples.

filterable

boolean

Valeur indiquant s’il faut activer le référencement du champ dans $filter requêtes. filterable diffère de searchable dans la façon dont les chaînes sont gérées. Les champs de type Edm.String ou Collection(Edm.String) qui sont filtrables ne subissent pas de coupure de mots, de sorte que les comparaisons ne concernent que les correspondances exactes. Par exemple, si vous définissez un tel champ f sur « sunny day », $filter=f eq 'sunny' ne trouvera aucune correspondance, mais $filter=f eq 'sunny day' le fera. Cette propriété doit être null pour les champs complexes. La valeur par défaut est true pour les champs simples et null pour les champs complexes.

indexAnalyzer

LexicalAnalyzerName

Nom de l’analyseur utilisé au moment de l’indexation du champ. Cette option ne peut être utilisée qu’avec les champs pouvant faire l’objet d’une recherche. Il doit être défini avec searchAnalyzer et il ne peut pas être défini avec l’option analyzer. Cette propriété ne peut pas être définie sur le nom d’un analyseur de langue ; Utilisez la propriété analyzer à la place si vous avez besoin d’un analyseur de langue. Une fois l’analyseur choisi, il ne peut pas être remplacé par le champ. Doit être null pour les champs complexes.

key

boolean

Valeur indiquant si le champ identifie de manière unique les documents dans l’index. Un seul champ de niveau supérieur dans chaque index doit être choisi comme champ clé et il doit être de type Edm.String. Les champs clés peuvent être utilisés pour rechercher des documents directement et mettre à jour ou supprimer des documents spécifiques. La valeur par défaut est false pour les champs simples et null pour les champs complexes.

name

string

Nom du champ, qui doit être unique dans la collection de champs de l’index ou du champ parent.

normalizer

LexicalNormalizerName

Nom du normaliseur à utiliser pour le champ. Cette option ne peut être utilisée qu’avec des champs pour lesquels les champs filtrables, triables ou à facettes sont activés. Une fois le normaliseur choisi, il ne peut pas être modifié pour le champ. Doit être null pour les champs complexes.

retrievable

boolean

Valeur indiquant si le champ peut être renvoyé dans un résultat de recherche. Vous pouvez désactiver cette option si vous souhaitez utiliser un champ (par exemple, marge) comme mécanisme de filtre, de tri ou de notation, mais que vous ne souhaitez pas que le champ soit visible par l’utilisateur final. Cette propriété doit être true pour les champs clés et null pour les champs complexes. Cette propriété peut être modifiée sur les champs existants. L’activation de cette propriété n’entraîne pas d’augmentation des exigences de stockage d’index. La valeur par défaut est true pour les champs simples, false pour les champs vectoriels et null pour les champs complexes.

searchAnalyzer

LexicalAnalyzerName

Nom de l’analyseur utilisé au moment de la recherche du champ. Cette option ne peut être utilisée qu’avec les champs pouvant faire l’objet d’une recherche. Il doit être défini avec indexAnalyzer et il ne peut pas être défini avec l’option analyzer. Cette propriété ne peut pas être définie sur le nom d’un analyseur de langue ; Utilisez la propriété analyzer à la place si vous avez besoin d’un analyseur de langue. Cet analyseur peut être mis à jour sur un champ existant. Doit être null pour les champs complexes.

searchable

boolean

Valeur indiquant si le champ peut faire l’objet d’une recherche en texte intégral. Cela signifie qu’il subira une analyse telle que la rupture de mot lors de l’indexation. Si vous définissez un champ de recherche sur une valeur telle que « sunny day », en interne, il sera divisé en jetons individuels « sunny » et « day ». Cela permet d'effectuer des recherches en texte intégral de ces termes. Les champs de type Edm.String ou Collection(Edm.String) peuvent faire l’objet d’une recherche par défaut. Cette propriété doit être false pour les champs simples d’autres types de données autres que des chaînes, et elle doit être null pour les champs complexes. Remarque : les champs pouvant faire l’objet d’une recherche consomment de l’espace supplémentaire dans votre index pour prendre en charge des versions tokenisées supplémentaires de la valeur du champ pour les recherches en texte intégral. Si vous souhaitez économiser de l’espace dans votre index et que vous n’avez pas besoin qu’un champ soit inclus dans les recherches, définissez searchable sur false.

sortable

boolean

Valeur indiquant s’il faut activer la référence du champ dans $orderby expressions. Par défaut, le moteur de recherche trie les résultats par score, mais dans de nombreuses expériences, les utilisateurs voudront trier par champs dans les documents. Un champ simple ne peut être trié que s’il est à valeur unique (il a une valeur unique dans le champ d’application du document parent). Les champs de collection simples ne peuvent pas être triés, car ils ont plusieurs valeurs. Les sous-champs simples de collections complexes ont également plusieurs valeurs et ne peuvent donc pas être triés. C’est vrai, qu’il s’agisse d’un champ parent immédiat ou d’un champ ancêtre, c’est la collection complexe. Les champs complexes ne peuvent pas être triés et la propriété sortable doit être null pour ces champs. La valeur par défaut de sortable est true pour les champs simples à valeur unique, false pour les champs simples à plusieurs valeurs et null pour les champs complexes.

stored

boolean

Valeur immuable indiquant si le champ sera conservé séparément sur le disque pour être renvoyé dans un résultat de recherche. Vous pouvez désactiver cette option si vous ne prévoyez pas de renvoyer le contenu du champ dans une réponse de recherche afin d’économiser sur la surcharge de stockage. Cela ne peut être défini que lors de la création de l’index et uniquement pour les champs vectoriels. Cette propriété ne peut pas être modifiée pour les champs existants ou définie comme false pour les nouveaux champs. Si cette propriété est définie sur false, la propriété 'retrievable' doit également être définie sur false. Cette propriété doit être true ou unset pour les champs clés, pour les nouveaux champs et pour les champs non vectoriels, et elle doit être null pour les champs complexes. La désactivation de cette propriété réduira les exigences de stockage d’index. La valeur par défaut est true pour les champs vectoriels.

synonymMaps

string[]

Une liste des noms des cartes de synonymes à associer à ce champ. Cette option ne peut être utilisée qu’avec les champs pouvant faire l’objet d’une recherche. Actuellement, une seule carte de synonymes par champ est prise en charge. Attribuer une carte de synonymes à un champ garantit que les termes de requête ciblant ce champ sont étendus au moment de la requête en utilisant les règles définies dans la carte de synonymes. Cet attribut peut être modifié sur les champs existants. Doit être null ou une collection vide pour les champs complexes.

type

SearchFieldDataType

Type de données du champ.

vectorEncoding

VectorEncodingFormat

Le format d’encodage pour interpréter le contenu du champ.

vectorSearchProfile

string

Nom du profil de recherche vectorielle qui spécifie l’algorithme et le vectoriseur à utiliser lors de la recherche dans le champ vectoriel.

SearchFieldDataType

Définit le type de données d’un champ dans un index de recherche.

Valeur Description
Edm.String

Indique qu’un champ contient une chaîne.

Edm.Int32

Indique qu’un champ contient un entier signé de 32 bits.

Edm.Int64

Indique qu’un champ contient un entier signé de 64 bits.

Edm.Double

Indique qu’un champ contient un nombre à virgule flottante double précision IEEE.

Edm.Boolean

Indique qu’un champ contient une valeur booléenne (true ou false).

Edm.DateTimeOffset

Indique qu’un champ contient une valeur de date/heure, y compris des informations de fuseau horaire.

Edm.GeographyPoint

Indique qu’un champ contient une géolocalisation en termes de longitude et de latitude.

Edm.ComplexType

Indique qu’un champ contient un ou plusieurs objets complexes qui ont à leur tour des sous-champs d’autres types.

Edm.Single

Indique qu’un champ contient un nombre à virgule flottante simple précision. Ceci n’est valable que s’il est utilisé avec Collection(Edm.Single).

Edm.Half

Indique qu’un champ contient un nombre à virgule flottante de demi-précision. Ceci n’est valable que lorsqu’il est utilisé avec Collection(Edm.Half).

Edm.Int16

Indique qu’un champ contient un entier signé de 16 bits. Ceci n’est valable que s’il est utilisé avec Collection(Edm.Int16).

Edm.SByte

Indique qu’un champ contient un entier signé de 8 bits. Ceci n’est valable que s’il est utilisé avec Collection(Edm.SByte).

Edm.Byte

Indique qu’un champ contient un entier non signé de 8 bits. Ceci n’est valide que s’il est utilisé avec Collection(Edm.Byte).

SearchIndex

Représente une définition d’index de recherche, qui décrit les champs et le comportement de recherche d’un index.

Nom Type Description
@odata.etag

string

L’ETag de l’indice.

analyzers LexicalAnalyzer[]:

Les analyseurs de l’indice.

charFilters CharFilter[]:

Les filtres de caractères pour l’index.

corsOptions

CorsOptions

Options permettant de contrôler le partage des ressources cross-origin (CORS) pour l’index.

defaultScoringProfile

string

Nom du profil de scoring à utiliser si aucun n’est spécifié dans la requête. Si cette propriété n’est pas définie et qu’aucun profil de scoring n’est spécifié dans la requête, le scoring par défaut (tf-idf) sera utilisé.

description

string

Description de l’indice.

encryptionKey

SearchResourceEncryptionKey

Description d’une clé de chiffrement que vous créez dans Azure Key Vault. Cette clé est utilisée pour fournir un niveau supplémentaire de chiffrement au repos pour vos données lorsque vous souhaitez avoir l’assurance totale que personne, pas même Microsoft, ne peut déchiffrer vos données. Une fois que vous avez chiffré vos données, elles resteront toujours chiffrées. Le service de recherche ignore les tentatives de définition de cette propriété sur null. Vous pouvez modifier cette propriété si nécessaire si vous souhaitez faire pivoter votre clé de chiffrement ; Vos données ne seront pas affectées. Le chiffrement à l’aide de clés gérées par le client n’est pas disponible pour les services de recherche gratuits et n’est disponible que pour les services payants créés à partir du 1er janvier 2019.

fields

SearchField[]

Les champs de l’index.

name

string

Nom de l’index.

normalizers LexicalNormalizer[]:

CustomNormalizer[]

Normalisateurs de l’indice.

scoringProfiles

ScoringProfile[]

Les profils de score de l’indice.

semantic

SemanticSettings

Définit les paramètres d’un index de recherche qui influencent les capacités sémantiques.

similarity Similarity:

Type d’algorithme de similarité à utiliser lors de la notation et du classement des documents correspondant à une requête de recherche. L’algorithme de similarité ne peut être défini qu’au moment de la création de l’index et ne peut pas être modifié sur les index existants. Si la valeur n’est pas nulle, l’algorithme ClassicSimilarity est utilisé.

suggesters

Suggester[]

Les suggesteurs de l’indice.

tokenFilters TokenFilter[]:

Le jeton filtre l’index.

tokenizers LexicalTokenizer[]:

Les tokenizers de l’index.

vectorSearch

VectorSearch

Contient les options de configuration liées à la recherche vectorielle.

SearchIndexerDataNoneIdentity

Efface la propriété identity d’une source de données.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.DataNoneIdentity

Fragment d’URI spécifiant le type d’identité.

SearchIndexerDataUserAssignedIdentity

Spécifie l’identité d’une source de données à utiliser.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.DataUserAssignedIdentity

Fragment d’URI spécifiant le type d’identité.

userAssignedIdentity

string

ID de ressource Azure complet d’un utilisateur affecté à une identité managée, généralement sous la forme « /subscriptions/12345678-1234-1234-1234-1234567890ab/resourceGroups/rg/providers/Microsoft.ManagedIdentity/userAssignedIdentities/myId » qui aurait dû être attribué au service de recherche.

SearchResourceEncryptionKey

Clé de chiffrement gérée par le client dans Azure Key Vault. Les clés que vous créez et gérez peuvent être utilisées pour chiffrer ou déchiffrer des données au repos, telles que des index et des cartes de synonymes.

Nom Type Description
accessCredentials

AzureActiveDirectoryApplicationCredentials

Informations d’identification Azure Active Directory facultatives utilisées pour accéder à votre coffre de clés Azure. Non requis si vous utilisez l’identité managée à la place.

keyVaultKeyName

string

Nom de votre clé Azure Key Vault à utiliser pour chiffrer vos données au repos.

keyVaultKeyVersion

string

Version de votre clé Azure Key Vault à utiliser pour chiffrer vos données au repos.

keyVaultUri

string

URI de votre Azure Key Vault, également appelé nom DNS, qui contient la clé à utiliser pour chiffrer vos données au repos. Un exemple d’URI pourrait être https://my-keyvault-name.vault.azure.net.

SemanticConfiguration

Définit une configuration spécifique à utiliser dans le contexte des capacités sémantiques.

Nom Type Description
name

string

Nom de la configuration sémantique.

prioritizedFields

PrioritizedFields

Décrit les champs de titre, de contenu et de mots-clés à utiliser pour le classement sémantique, les légendes, les surbrillances et les réponses. Au moins l’une des trois sous-propriétés (titleField, prioritydKeywordsFields et prioritydContentFields) doit être définie.

rankingOrder

RankingOrder

Spécifie le type de score à utiliser pour l’ordre de tri des résultats de la recherche.

SemanticField

Champ utilisé dans le cadre de la configuration sémantique.

Nom Type Description
fieldName

string

SemanticSettings

Définit les paramètres d’un index de recherche qui influencent les capacités sémantiques.

Nom Type Description
configurations

SemanticConfiguration[]

Configurations sémantiques de l’index.

defaultConfiguration

string

Vous permet de définir le nom d’une configuration sémantique par défaut dans votre index, ce qui rend facultatif le fait de la transmettre en tant que paramètre de requête à chaque fois.

ShingleTokenFilter

Crée des combinaisons de jetons en tant que jeton unique. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.ShingleTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

filterToken

string

_

La chaîne à insérer pour chaque position où il n’y a pas de jeton. La valeur par défaut est un trait de soulignement (« _ »).

maxShingleSize

integer (int32)

minimum: 2
2

La taille maximale des bardeaux. La valeur par défaut et la valeur minimale est 2.

minShingleSize

integer (int32)

minimum: 2
2

La taille minimale des bardeaux. La valeur par défaut et la valeur minimale est 2. Doit être inférieur à la valeur de maxShingleSize.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

outputUnigrams

boolean

True

Valeur indiquant si le flux de sortie contiendra les jetons d’entrée (unigrammes) ainsi que les bardeaux. La valeur par défaut est true.

outputUnigramsIfNoShingles

boolean

False

Valeur indiquant s’il faut produire des unigrammes pour les périodes où aucun bardeau n’est disponible. Cette propriété est prioritaire lorsque outputUnigrams est défini sur false. La valeur par défaut est false.

tokenSeparator

string

La chaîne à utiliser lors de la jonction de jetons adjacents pour former un bardeau. La valeur par défaut est un simple espace ( » « ).

SnowballTokenFilter

Filtre qui permet d’extraire les mots à l’aide d’un générateur de racines généré par Snowball. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.SnowballTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

language

SnowballTokenFilterLanguage

La langue à utiliser.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

SnowballTokenFilterLanguage

Langue à utiliser pour un filtre de jeton Snowball.

Valeur Description
armenian

Sélectionne le générateur de jetons Lucene Snowball pour l’arménien.

basque

Sélectionne le générateur de jetons de tige Lucene Snowball pour le basque.

catalan

Sélectionne le générateur de jetons de tige Lucene Snowball pour le catalan.

danish

Sélectionne le générateur de jetons de tige Lucene Snowball pour le danois.

dutch

Sélectionne le générateur de jetons de tige Lucene Snowball pour le néerlandais.

english

Sélectionne le générateur de jetons de racine Lucene Snowball pour l’anglais.

finnish

Sélectionne le générateur de jetons de tige Lucene Snowball pour le finnois.

french

Sélectionne le générateur de jetons de tige Lucene Snowball pour le français.

german

Sélectionne le générateur de jetons de tige Lucene Snowball pour l’allemand.

german2

Sélectionne le générateur de jetons Lucene Snowball qui utilise l’algorithme de variante allemande.

hungarian

Sélectionne le générateur de jetons Lucene Snowball pour le hongrois.

italian

Sélectionne le générateur de jetons de tige Lucene Snowball pour l’italien.

kp

Sélectionne le générateur de jetons de radical Lucene Snowball pour le néerlandais qui utilise l’algorithme de radical Kraaij-Pohlmann.

lovins

Sélectionne le générateur de jets de radical Lucene Snowball pour l’anglais qui utilise l’algorithme de radical Lovins.

norwegian

Sélectionne le générateur de jetons de tige Lucene Snowball pour le norvégien.

porter

Sélectionne le générateur de jetons de radical Lucene Snowball pour l’anglais qui utilise l’algorithme de notation Porter.

portuguese

Sélectionne le générateur de jetons de tige Lucene Snowball pour le portugais.

romanian

Sélectionne le générateur de jetons de tige Lucene Snowball pour le roumain.

russian

Sélectionne le générateur de jetons de tige Lucene Snowball pour le russe.

spanish

Sélectionne le générateur de jetons de tige Lucene Snowball pour l’espagnol.

swedish

Sélectionne le générateur de jetons de tige Lucene Snowball pour le suédois.

turkish

Sélectionne le générateur de jetons Lucene Snowball pour le turc.

StemmerOverrideTokenFilter

Permet de remplacer d’autres filtres de radical par un stem ming personnalisé basé sur un dictionnaire. Tous les termes issus d’un dictionnaire seront marqués en tant que mots-clés afin qu’ils ne soient pas associés à des générateurs de racines en aval de la chaîne. Doit être placé avant tout filtre à tige. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.StemmerOverrideTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

rules

string[]

Une liste de règles de radicalisation au format suivant : « mot => radical », par exemple : « ran => run ».

StemmerTokenFilter

Filtre de radical spécifique à la langue. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.StemmerTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

language

StemmerTokenFilterLanguage

La langue à utiliser.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

StemmerTokenFilterLanguage

Langue à utiliser pour un filtre de jeton de type dérivé.

Valeur Description
arabic

Sélectionne le générateur de jetons de radicalisation Lucene pour l’arabe.

armenian

Sélectionne le générateur de jetons Lucene pour l’arménien.

basque

Sélectionne le générateur de jetons de radical Lucene pour le basque.

brazilian

Sélectionne le générateur de jetons Lucene pour le portugais (Brésil).

bulgarian

Sélectionne le générateur de jetons de radical Lucene pour le bulgare.

catalan

Sélectionne le générateur de jetons de radical Lucene pour le catalan.

czech

Sélectionne le générateur de jetons de recherche de racines Lucene pour le tchèque.

danish

Sélectionne le générateur de jetons de stemming Lucene pour le danois.

dutch

Sélectionne le générateur de jetons de radical Lucene pour le néerlandais.

dutchKp

Sélectionne le générateur de jetons de stemming Lucene pour le néerlandais qui utilise l’algorithme de stemming Kraaij-Pohlmann.

english

Sélectionne le générateur de jetons de radical Lucene pour l’anglais.

lightEnglish

Sélectionne le générateur de jetons de radical Lucene pour l’anglais qui effectue un stemming léger.

minimalEnglish

Sélectionne le générateur de jetons de radical Lucene pour l’anglais qui effectue un stemming minimal.

possessiveEnglish

Sélectionne le générateur de jetons de radical Lucene pour l’anglais qui supprime les possessifs de fin des mots.

porter2

Sélectionne le générateur de jetons de radical Lucene pour l’anglais qui utilise l’algorithme de stemming Porter2.

lovins

Sélectionne le générateur de jetons de radical Lucene pour l’anglais qui utilise l’algorithme de stemming Lovins.

finnish

Sélectionne le générateur de jetons Lucene pour le finnois.

lightFinnish

Sélectionne le générateur de jetons de radical Lucene pour le finnois qui effectue un stemming léger.

french

Sélectionne le générateur de jetons Lucene pour le français.

lightFrench

Sélectionne le générateur de jetons de radical Lucene pour le français qui effectue un stemming léger.

minimalFrench

Sélectionne le générateur de jetons de radical Lucene pour le français qui effectue un minimum de stemming.

galician

Sélectionne le générateur de jetons de stemming Lucene pour le galicien.

minimalGalician

Sélectionne le générateur de jetons de stemming Lucene pour le galicien qui effectue un stemming minimal.

german

Sélectionne le générateur de jetons de radical Lucene pour l’allemand.

german2

Sélectionne le générateur de jetons Lucene qui utilise l’algorithme de variante allemande.

lightGerman

Sélectionne le générateur de jetons de radical Lucene pour l’allemand qui effectue un stemming léger.

minimalGerman

Sélectionne le générateur de jetons de radicalisation Lucene pour l’allemand qui effectue une recherche minimale de racines.

greek

Sélectionne le générateur de jetons de radical Lucene pour le grec.

hindi

Sélectionne le générateur de jetons de radical Lucene pour l’hindi.

hungarian

Sélectionne le générateur de jetons de radical Lucene pour le hongrois.

lightHungarian

Sélectionne le générateur de jetons de radicalisation Lucene pour le hongrois qui effectue la création de racines légères.

indonesian

Sélectionne le générateur de jetons de recherche de radical Lucene pour l’indonésien.

irish

Sélectionne le générateur de jetons de radical Lucene pour l’irlandais.

italian

Sélectionne le générateur de jetons de radical Lucene pour l’italien.

lightItalian

Sélectionne le générateur de jetons de radical Lucene pour l’italien qui effectue un stemming léger.

sorani

Sélectionne le générateur de jetons de recherche de racines Lucene pour Sorani.

latvian

Sélectionne le générateur de jetons Lucene pour le letton.

norwegian

Sélectionne le générateur de jetons de stemming Lucene pour le norvégien (Bokmål).

lightNorwegian

Sélectionne le générateur de jetons de stemming Lucene pour le norvégien (Bokmål) qui effectue un stemming léger.

minimalNorwegian

Sélectionne le générateur de jets de racines Lucene pour le norvégien (Bokmål) qui effectue une recherche de racines minimale.

lightNynorsk

Sélectionne le générateur de jetons de radicalisation Lucene pour le norvégien (Nynorsk) qui effectue une migration de radical légère.

minimalNynorsk

Sélectionne le générateur de jetons de radicalisation Lucene pour le norvégien (Nynorsk) qui effectue une recherche minimale de racines.

portuguese

Sélectionne le générateur de jetons de radical Lucene pour le portugais.

lightPortuguese

Sélectionne le générateur de jetons de radical Lucene pour le portugais qui effectue un stemming léger.

minimalPortuguese

Sélectionne le générateur de jetons de radical Lucene pour le portugais qui effectue un minimum de stemming.

portugueseRslp

Sélectionne le générateur de jetons de stemming Lucene pour le portugais qui utilise l’algorithme de stemming RSLP.

romanian

Sélectionne le générateur de jetons de radical Lucene pour le roumain.

russian

Sélectionne le générateur de jetons Lucene pour le russe.

lightRussian

Sélectionne le générateur de jetons de radical Lucene pour le russe qui effectue un stemming léger.

spanish

Sélectionne le générateur de jetons Lucene pour l’espagnol.

lightSpanish

Sélectionne le générateur de jetons de radical Lucene pour l’espagnol qui effectue un stemming léger.

swedish

Sélectionne le générateur de jetons de recherche de radical Lucene pour le suédois.

lightSwedish

Sélectionne le générateur de jetons de radical Lucene pour le suédois qui effectue un stemming léger.

turkish

Sélectionne le générateur de jetons de radical Lucene pour le turc.

StopAnalyzer

Divise le texte en non-lettres ; Applique les filtres de jeton en minuscules et en mots vides. Cet analyseur est implémenté à l’aide d’Apache Lucene.

Nom Type Description
@odata.type string:

#Microsoft.Azure.Search.StopAnalyzer

Fragment d’URI spécifiant le type d’analyseur.

name

string

Nom de l’analyseur. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

stopwords

string[]

Une liste de mots vides.

StopwordsList

Identifie une liste prédéfinie de mots vides spécifiques à la langue.

Valeur Description
arabic

Sélectionne la liste de mots vides pour l’arabe.

armenian

Sélectionne la liste de mots vides pour l’arménien.

basque

Sélectionne la liste de mots vides pour le basque.

brazilian

Sélectionne la liste de mots vides pour le portugais (Brésil).

bulgarian

Sélectionne la liste de mots vides pour le bulgare.

catalan

Sélectionne la liste de mots vides pour le catalan.

czech

Sélectionne la liste de mots vides pour le tchèque.

danish

Sélectionne la liste de mots vides pour le danois.

dutch

Sélectionne la liste de mots vides pour le néerlandais.

english

Sélectionne la liste de mots vides pour l’anglais.

finnish

Sélectionne la liste de mots vides pour le finnois.

french

Sélectionne la liste de mots vides pour le français.

galician

Sélectionne la liste de mots vides pour le galicien.

german

Sélectionne la liste de mots vides pour l’allemand.

greek

Sélectionne la liste de mots vides pour le grec.

hindi

Sélectionne la liste de mots vides pour l’hindi.

hungarian

Sélectionne la liste de mots vides pour le hongrois.

indonesian

Sélectionne la liste de mots vides pour l’indonésien.

irish

Sélectionne la liste de mots vides pour l’irlandais.

italian

Sélectionne la liste de mots vides pour l’italien.

latvian

Sélectionne la liste de mots vides pour le letton.

norwegian

Sélectionne la liste de mots vides pour le norvégien.

persian

Sélectionne la liste de mots vides pour le persan.

portuguese

Sélectionne la liste de mots vides pour le portugais.

romanian

Sélectionne la liste de mots vides pour le roumain.

russian

Sélectionne la liste de mots vides pour le russe.

sorani

Sélectionne la liste de mots vides pour Sorani.

spanish

Sélectionne la liste de mots vides pour l’espagnol.

swedish

Sélectionne la liste de mots vides pour le suédois.

thai

Sélectionne la liste de mots vides pour le thaï.

turkish

Sélectionne la liste de mots vides pour le turc.

StopwordsTokenFilter

Supprime les mots vides d’un flux de jetons. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.StopwordsTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

ignoreCase

boolean

False

Valeur indiquant s’il faut ignorer la casse. Si true, tous les mots sont d’abord convertis en minuscules. La valeur par défaut est false.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

removeTrailing

boolean

True

Valeur indiquant s’il faut ignorer le dernier terme de recherche s’il s’agit d’un mot vide. La valeur par défaut est true.

stopwords

string[]

La liste des mots vides. Cette propriété et la propriété de liste de mots vides ne peuvent pas être définies à la fois.

stopwordsList

StopwordsList

english

Une liste prédéfinie de mots vides à utiliser. Cette propriété et la propriété des mots vides ne peuvent pas être définies à la fois. La valeur par défaut est l’anglais.

Suggester

Définit comment l’API Suggest doit s’appliquer à un groupe de champs dans l’index.

Nom Type Description
name

string

Nom de l’auteur de la suggestion.

searchMode

SuggesterSearchMode

Valeur indiquant les capacités du suggesteur.

sourceFields

string[]

Liste des noms de champs auxquels le suggesteur s’applique. Chaque champ doit pouvoir faire l’objet d’une recherche.

SuggesterSearchMode

Valeur indiquant les capacités du suggesteur.

Valeur Description
analyzingInfixMatching

Correspond à des termes entiers consécutifs et à des préfixes dans un champ. Par exemple, pour le champ « Le renard brun le plus rapide », les requêtes « rapide » et « sourcil le plus rapide » correspondraient toutes les deux.

SynonymTokenFilter

Correspond à des synonymes d’un ou plusieurs mots dans un flux de jetons. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.SynonymTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

expand

boolean

True

Valeur indiquant si tous les mots de la liste de synonymes (si => la notation n’est pas utilisée) seront mappés les uns aux autres. Si true, tous les mots de la liste des synonymes (si => la notation n’est pas utilisée) seront mappés les uns aux autres. La liste suivante : incroyable, incroyable, fabuleux, incroyable équivaut à : incroyable, incroyable, fabuleux, incroyable => incroyable, incroyable, fabuleux, incroyable. Si la valeur est false, la liste suivante : incroyable, incroyable, fabuleux, incroyable sera équivalente à : incroyable, incroyable, fabuleux, incroyable => incroyable. La valeur par défaut est true.

ignoreCase

boolean

False

Valeur indiquant s’il faut entrer la casse pour la correspondance. La valeur par défaut est false.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

synonyms

string[]

Une liste de synonymes dans l’un des deux formats suivants : 1. incroyable, incroyable, fabuleux => incroyable - tous les termes du côté gauche du symbole => seront remplacés par tous les termes du côté droit ; 2. Incroyable, incroyable, fabuleux, incroyable - liste de mots équivalents séparés par des virgules. Définissez l’option d’expansion pour modifier l’interprétation de cette liste.

TagScoringFunction

Définit une fonction qui booste les scores de documents avec des valeurs de chaîne correspondant à une liste donnée de balises.

Nom Type Description
boost

number (double)

Un multiplicateur pour le score brut. Doit être un nombre positif non égal à 1,0.

fieldName

string

Nom du champ utilisé comme entrée pour la fonction de notation.

interpolation

ScoringFunctionInterpolation

Une valeur indiquant comment le boosting sera interpolé entre les scores des documents ; la valeur par défaut est « Linear ».

tag

TagScoringParameters

Valeurs des paramètres de la fonction de scoring de balise.

type string:

tag

Indique le type de fonction à utiliser. Les valeurs valides sont la magnitude, la fraîcheur, la distance et l’étiquette. Le type de fonction doit être en minuscules.

TagScoringParameters

Fournit des valeurs de paramètre à une fonction de scoring de balise.

Nom Type Description
tagsParameter

string

Nom du paramètre passé dans les requêtes de recherche pour spécifier la liste des balises à comparer avec le champ cible.

TextWeights

Définit les pondérations dans les champs d’index pour lesquels les correspondances doivent améliorer le score dans les requêtes de recherche.

Nom Type Description
weights

object

Le dictionnaire des pondérations par champ pour améliorer la notation des documents. Les clés sont des noms de champs et les valeurs sont les pondérations de chaque champ.

TokenCharacterKind

Représente les classes de caractères sur lesquelles un filtre de jeton peut fonctionner.

Valeur Description
letter

Conserve les lettres dans les jetons.

digit

Conserve les chiffres dans les jetons.

whitespace

Conserve les espaces dans les jetons.

punctuation

Conserve la ponctuation en jetons.

symbol

Conserve les symboles dans des jetons.

TokenFilterName

Définit les noms de tous les filtres de jetons pris en charge par le moteur de recherche.

Valeur Description
arabic_normalization

Un filtre à jetons qui applique le normaliseur arabe pour normaliser l’orthographe. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ar/ArabicNormalizationFilter.html

apostrophe

Supprime tous les caractères après une apostrophe (y compris l’apostrophe elle-même). Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/tr/ApostropheFilter.html

asciifolding

Convertit les caractères Unicode alphabétiques, numériques et symboliques qui ne figurent pas dans les 127 premiers caractères ASCII (le bloc Unicode « Latin de base ») en leurs équivalents ASCII, le cas échéant. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ASCIIFoldingFilter.html

cjk_bigram

Forme des bigrammes de termes CJC qui sont générés à partir du tokenizer standard. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKBigramFilter.html

cjk_width

Normalise les différences de largeur CJK. Plie les variantes ASCII pleine largeur dans le latin de base équivalent, et les variantes Katakana demi-largeur dans le Kana équivalent. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/cjk/CJKWidthFilter.html

classic

Supprime les possessifs anglais et les points des acronymes. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/standard/ClassicFilter.html

common_grams

Construisez des bigrammes pour les termes fréquents lors de l’indexation. Les termes simples sont toujours indexés, avec des bigrammes superposés. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/commongrams/CommonGramsFilter.html

edgeNGram_v2

Génère des n-grammes de la ou des tailles données en commençant par l’avant ou l’arrière d’un jeton d’entrée. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/EdgeNGramTokenFilter.html

elision

Supprime les élisions. Par exemple, « l’avion » sera converti en « avion ». Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/util/ElisionFilter.html

german_normalization

Normalise les caractères allemands selon l’heuristique de l’algorithme boule de neige German2. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/de/GermanNormalizationFilter.html

hindi_normalization

Normalise le texte en hindi pour supprimer certaines différences dans les variations orthographiques. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/hi/HindiNormalizationFilter.html

indic_normalization

Normalise la représentation Unicode du texte dans les langues indiennes. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/in/IndicNormalizationFilter.html

keyword_repeat

Émet chaque jeton entrant deux fois, une fois en tant que mot-clé et une fois en tant que non-mot-clé. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/KeywordRepeatFilter.html

kstem

Un filtre kstem performant pour l’anglais. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/en/KStemFilter.html

length

Supprime les mots trop longs ou trop courts. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LengthFilter.html

limit

Limite le nombre de jetons lors de l’indexation. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/LimitTokenCountFilter.html

lowercase

Normalise le texte du jeton en minuscules. Voir https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/LowerCaseFilter.html

nGram_v2

Génère n-grammes de la ou des tailles données. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ngram/NGramTokenFilter.html

persian_normalization

Applique la normalisation pour le persan. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/fa/PersianNormalizationFilter.html

phonetic

Créez des jetons pour les correspondances phonétiques. Voir https://lucene.apache.org/core/4_10_3/analyzers-phonetic/org/apache/lucene/analysis/phonetic/package-tree.html

porter_stem

Utilise l’algorithme de recherche de racines Porter pour transformer le flux de jetons. Voir http://tartarus.org/~martin/PorterStemmer

reverse

Inverse la chaîne de jetons. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/reverse/ReverseStringFilter.html

scandinavian_normalization

Normalise l’utilisation des caractères scandinaves interchangeables. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianNormalizationFilter.html

scandinavian_folding

Plie les caractères scandinaves åÅäæÄÆ-a> et öÖøØ-o>. Il discrimine également l’utilisation des voyelles doubles aa, ae, ao, oe et oo, ne laissant que la première. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/ScandinavianFoldingFilter.html

shingle

Crée des combinaisons de jetons en tant que jeton unique. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/shingle/ShingleFilter.html

snowball

Filtre qui permet d’extraire les mots à l’aide d’un générateur de racines généré par Snowball. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/snowball/SnowballFilter.html

sorani_normalization

Normalise la représentation Unicode du texte sorani. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/ckb/SoraniNormalizationFilter.html

stemmer

Filtre de radical spécifique à la langue. Voir https://learn.microsoft.com/rest/api/searchservice/Custom-analyzers-in-Azure-Search#TokenFilters

stopwords

Supprime les mots vides d’un flux de jetons. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/core/StopFilter.html

trim

Supprime les espaces de début et de fin des jetons. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TrimFilter.html

truncate

Tronque les termes à une longueur spécifique. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/TruncateTokenFilter.html

unique

Filtre les jetons avec le même texte que le jeton précédent. Voir http://lucene.apache.org/core/4_10_3/analyzers-common/org/apache/lucene/analysis/miscellaneous/RemoveDuplicatesTokenFilter.html

uppercase

Normalise le texte du jeton en majuscules. Voir https://lucene.apache.org/core/6_6_1/analyzers-common/org/apache/lucene/analysis/core/UpperCaseFilter.html

word_delimiter

Divise les mots en sous-mots et effectue des transformations facultatives sur les groupes de sous-mots.

TruncateTokenFilter

Tronque les termes à une longueur spécifique. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.TruncateTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

length

integer (int32)

maximum: 300
300

La longueur à laquelle les termes seront tronqués. La valeur par défaut et maximale est 300.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

UaxUrlEmailTokenizer

Tokenise les URL et les e-mails en un seul jeton. Ce générateur de jetons est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.UaxUrlEmailTokenizer

Fragment d’URI spécifiant le type de générateur de jetons.

maxTokenLength

integer (int32)

maximum: 300
255

La longueur maximale du jeton. La valeur par défaut est 255. Les jetons plus longs que la longueur maximale sont divisés. La longueur maximale du jeton pouvant être utilisé est de 300 caractères.

name

string

Nom du générateur de jetons. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

UniqueTokenFilter

Filtre les jetons avec le même texte que le jeton précédent. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.UniqueTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

onlyOnSamePosition

boolean

False

Valeur indiquant s’il faut supprimer les doublons uniquement au même endroit. La valeur par défaut est false.

VectorEncodingFormat

Format d’encodage pour l’interprétation du contenu des champs vectoriels.

Valeur Description
packedBit

Format d’encodage représentant des bits compressés dans un type de données plus large.

VectorSearch

Contient les options de configuration liées à la recherche vectorielle.

Nom Type Description
algorithms VectorSearchAlgorithmConfiguration[]:

Contient des options de configuration spécifiques à l’algorithme utilisé lors de l’indexation ou de l’interrogation.

compressions VectorSearchCompressionConfiguration[]:

Contient des options de configuration spécifiques à la méthode de compression utilisée lors de l’indexation ou de l’interrogation.

profiles

VectorSearchProfile[]

Définit les combinaisons de configurations à utiliser avec la recherche vectorielle.

vectorizers VectorSearchVectorizer[]:

Contient des options de configuration sur la vectorisation des requêtes vectorielles de texte.

VectorSearchAlgorithmKind

Algorithme utilisé pour l’indexation et l’interrogation.

Valeur Description
hnsw

HNSW (Hierarchical Navigable Small World), un type d’algorithme approximatif des plus proches voisins.

exhaustiveKnn

Algorithme KNN exhaustif qui effectuera une recherche par force brute.

VectorSearchAlgorithmMetric

Métrique de similarité à utiliser pour les comparaisons de vecteurs. Il est recommandé de choisir la même métrique de similarité que celle sur laquelle le modèle d’intégration a été formé.

Valeur Description
cosine

Mesure l’angle entre les vecteurs pour quantifier leur similitude, sans tenir compte de l’amplitude. Plus l’angle est petit, plus la similitude est proche.

euclidean

Calcule la distance en ligne droite entre les vecteurs dans un espace multidimensionnel. Plus la distance est petite, plus la similitude est proche.

dotProduct

Calcule la somme des produits élément par élément pour évaluer l’alignement et la similarité de grandeur. Plus elle est grande et positive, plus la similitude est proche.

hamming

S’applique uniquement aux types de données binaires à compression de bits. Détermine la dissemblance en comptant les différentes positions dans des vecteurs binaires. Moins il y a de différences, plus la similitude est proche.

VectorSearchCompressionKind

Méthode de compression utilisée pour l’indexation et l’interrogation.

Valeur Description
scalarQuantization

La quantification scalaire, un type de méthode de compression. Dans la quantification scalaire, les valeurs des vecteurs d’origine sont compressées à un type plus étroit en discrétisant et en représentant chaque composante d’un vecteur à l’aide d’un ensemble réduit de valeurs quantifiées, réduisant ainsi la taille globale des données.

binaryQuantization

La quantification binaire, un type de méthode de compression. Dans la quantification binaire, les valeurs des vecteurs d’origine sont compressées vers le type binaire plus étroit en discrétisant et en représentant chaque composante d’un vecteur à l’aide de valeurs binaires, réduisant ainsi la taille globale des données.

VectorSearchCompressionRescoreStorageMethod

Méthode de stockage des vecteurs de précision complète d’origine utilisés pour la réévaluation et les opérations d’index internes.

Valeur Description
preserveOriginals

Cette option conserve les vecteurs de précision d’origine. Choisissez cette option pour bénéficier d’une flexibilité maximale et d’une qualité optimale des résultats de recherche compressés. Cela consomme plus de stockage, mais permet de réécrire et de suréchantillonner.

discardOriginals

Cette option ignore les vecteurs de précision d’origine. Choisissez cette option pour économiser un maximum de stockage. Comme cette option ne permet pas de réécrire les notes et de suréchantillonner, elle entraîne souvent des réductions légères à modérées de la qualité.

VectorSearchCompressionTargetDataType

Type de données quantifiées des valeurs vectorielles compressées.

Valeur Description
int8

VectorSearchProfile

Définit une combinaison de configurations à utiliser avec la recherche vectorielle.

Nom Type Description
algorithm

string

Nom de la configuration de l’algorithme de recherche vectorielle qui spécifie l’algorithme et les paramètres facultatifs.

compression

string

Nom de la configuration de la méthode de compression qui spécifie la méthode de compression et les paramètres facultatifs.

name

string

Nom à associer à ce profil de recherche vectorielle particulier.

vectorizer

string

Nom de la vectorisation configurée pour être utilisée avec la recherche vectorielle.

VectorSearchVectorizerKind

Méthode de vectorisation à utiliser au moment de la requête.

Valeur Description
azureOpenAI

Générez des intégrations à l’aide d’une ressource Azure OpenAI au moment de la requête.

customWebApi

Générez des intégrations à l’aide d’un point de terminaison web personnalisé au moment de la requête.

WebApiParameters

Spécifie les propriétés de connexion à un vectoriseur défini par l’utilisateur.

Nom Type Description
authIdentity SearchIndexerDataIdentity:

Identité managée affectée par l’utilisateur utilisée pour les connexions sortantes. Si un authResourceId est fourni et qu’il n’est pas spécifié, l’identité managée affectée par le système est utilisée. Lors des mises à jour de l’indexeur, si l’identité n’est pas spécifiée, la valeur reste inchangée. Si la valeur est « none », la valeur de cette propriété est effacée.

authResourceId

string

S’applique aux points de terminaison personnalisés qui se connectent à du code externe dans une fonction Azure ou une autre application qui fournit les transformations. Cette valeur doit être l’ID d’application créé pour la fonction ou l’application lors de son inscription auprès d’Azure Active Directory. Lorsqu’elle est spécifiée, la vectorisation se connecte à la fonction ou à l’application à l’aide d’un ID managé (attribué par le système ou par l’utilisateur) du service de recherche et du jeton d’accès de la fonction ou de l’application, en utilisant cette valeur comme ID de ressource pour la création de l’étendue du jeton d’accès.

httpHeaders

object

Les en-têtes nécessaires pour effectuer la requête HTTP.

httpMethod

string

Méthode de la requête HTTP.

timeout

string (duration)

Délai d’expiration souhaité pour la demande. La valeur par défaut est de 30 secondes.

uri

string (uri)

URI de l’API Web fournissant le vectoriseur.

WebApiVectorizer

Spécifie un vectoriseur défini par l’utilisateur pour générer l’incorporation vectorielle d’une chaîne de requête. L’intégration d’un vectoriseur externe est réalisée à l’aide de l’interface API Web personnalisée d’un ensemble de compétences.

Nom Type Description
customWebApiParameters

WebApiParameters

Spécifie les propriétés du vectoriseur défini par l’utilisateur.

kind string:

customWebApi

Nom du type de méthode de vectorisation configuré pour être utilisé avec la recherche vectorielle.

name

string

Nom à associer à cette méthode de vectorisation particulière.

WordDelimiterTokenFilter

Divise les mots en sous-mots et effectue des transformations facultatives sur les groupes de sous-mots. Ce filtre de jeton est implémenté à l’aide d’Apache Lucene.

Nom Type Valeur par défaut Description
@odata.type string:

#Microsoft.Azure.Search.WordDelimiterTokenFilter

Fragment d’URI spécifiant le type de filtre de jeton.

catenateAll

boolean

False

Valeur indiquant si toutes les parties de sous-mots seront caténées. Par exemple, si la valeur est true, « Azure-Search-1 » devient « AzureSearch1 ». La valeur par défaut est false.

catenateNumbers

boolean

False

Valeur indiquant si le nombre maximal d’exécutions de plusieurs pièces sera caténé. Par exemple, si cette valeur est définie sur true, « 1-2 » devient « 12 ». La valeur par défaut est false.

catenateWords

boolean

False

Valeur indiquant si le nombre maximal d’exécutions de parties de mot sera caténé. Par exemple, si la valeur est true, « Azure-Search » devient « AzureSearch ». La valeur par défaut est false.

generateNumberParts

boolean

True

Valeur indiquant s’il faut générer des sous-mots numériques. La valeur par défaut est true.

generateWordParts

boolean

True

Valeur indiquant s’il faut générer des mots de pièce. S’il est défini, provoque la génération de parties de mots ; par exemple, « AzureSearch » devient « Azure », « Search ». La valeur par défaut est true.

name

string

Nom du filtre de jeton. Il ne doit contenir que des lettres, des chiffres, des espaces, des tirets ou des traits de soulignement, ne peut commencer et se terminer qu’avec des caractères alphanumériques et est limité à 128 caractères.

preserveOriginal

boolean

False

Valeur indiquant si les mots d’origine seront conservés et ajoutés à la liste des sous-mots. La valeur par défaut est false.

protectedWords

string[]

Une liste de jetons à protéger contre la délimitation.

splitOnCaseChange

boolean

True

Valeur indiquant s’il faut fractionner les mots sur caseChange. Par exemple, si cette valeur est true, « AzureSearch » devient « Azure » « Search ». La valeur par défaut est true.

splitOnNumerics

boolean

True

Valeur indiquant s’il faut fractionner sur des nombres. Par exemple, si cette valeur est true, « Azure1Search » devient « Azure » « 1 » « Search ». La valeur par défaut est true.

stemEnglishPossessive

boolean

True

Valeur indiquant s’il faut supprimer les « s » de fin pour chaque sous-mot. La valeur par défaut est true.