Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Azure AI Search peut extraire et indexer à la fois le texte et les images à partir de documents PDF stockés dans le stockage Blob Azure. Ce tutoriel vous montre comment créer un pipeline d’indexation modal dans Recherche IA Azure qui segmente les données à l’aide de la compétence de fractionnement de texte intégrée et utilise des incorporations modales pour vectoriser du texte et des images à partir du même document. Les images rognées sont stockées dans une base de connaissances, et le texte et le contenu visuel sont vectorisés et ingérés dans un index pouvant faire l’objet d’une recherche.
Dans ce tutoriel, vous utilisez :
Document PDF de 36 pages qui combine du contenu visuel enrichi, tel que des graphiques, des infographies et des pages numérisées, avec du texte traditionnel.
Un indexeur et un ensemble de compétences pour créer un pipeline d’indexation qui inclut l’enrichissement par IA par le biais de compétences.
Compétence Extraction de documents pour extraire des images normalisées et du texte. La compétence Fractionner du texte segmente les données.
La fonctionnalité d’incorporations multimodales Azure Vision pour vectoriser du texte et des images.
Index de recherche configuré pour stocker du texte extrait et du contenu d’image. Certains contenus sont vectorisés pour la recherche de similarité basée sur des vecteurs.
Ce tutoriel présente une approche à moindre coût pour l’indexation du contenu modal à l’aide de la compétence Extraction de documents. Ils permettent l’extraction et la recherche sur du texte et des images à partir de documents récupérés depuis Stockage Blob Azure. Toutefois, il n’inclut pas les métadonnées d’emplacement pour le texte, telles que les numéros de page ou les régions englobantes. Pour obtenir une solution plus complète qui inclut la disposition de texte structuré et les métadonnées spatiales, consultez Tutoriel : Vectoriser à partir d’une disposition de document structurée.
Note
L’extraction d’images par la compétence Extraction de document n’est pas gratuite. Définir imageAction sur generateNormalizedImages dans l'ensemble de compétences déclenche l'extraction d'images, ce qui entraîne des frais supplémentaires. Pour plus d’informations sur la facturation, consultez la tarification d’Azure AI Search.
Prerequisites
Ressource Microsoft Foundry. Cette ressource permet d’accéder au modèle d’incorporation modale Azure Vision utilisé dans ce tutoriel. Vous devez utiliser une ressource Foundry pour l’accès à cet ensemble de compétences.
Recherche Azure AI. Configurez votre service de recherche pour le contrôle d’accès en fonction du rôle et une identité managée pour les connexions au Stockage Azure et à Azure Vision. Votre service doit se trouver sur le niveau De base ou supérieur. Ce tutoriel n’est pas pris en charge sur le niveau Gratuit.
Stockage Azure, utilisé pour stocker des exemples de données et pour créer une base de connaissances.
Visual Studio Code avec un client REST.
Limitations
- La compétence d’incorporations modales Azure Vision a une disponibilité régionale limitée. Lorsque vous créez une ressource Foundry, choisissez une région qui fournit des embeddings multimodaux. Pour obtenir la liste mise à jour des régions qui fournissent des incorporations modales, consultez la documentation Azure Vision.
Préparer des données
Les instructions suivantes s’appliquent au Stockage Azure qui fournit les exemples de données et héberge également la base de connaissances. Une identité de service de recherche a besoin d’un accès en lecture au Stockage Azure pour récupérer les exemples de données, et elle a besoin d’un accès en écriture pour créer la base de connaissances. Le service de recherche crée le conteneur pour les images recadrées pendant le traitement des compétences, en utilisant le nom que vous fournissez dans une variable d’environnement.
Téléchargez l’exemple de pdf suivant : sustainable-ai-pdf
Dans Stockage Azure, créez un conteneur nommé durable-ai-pdf.
Créez des attributions de rôles et spécifiez une identité managée dans une chaîne de connexion :
Attribuez le rôle Storage Blob Data Reader pour la récupération des données par l’indexeur. Attribuez Storage Blob Data Contributor et Storage Table Data Contributor pour créer et charger la base de connaissances. Vous pouvez utiliser une identité managée affectée par le système ou une identité managée affectée par l’utilisateur pour votre attribution de rôle de service de recherche.
Pour les connexions effectuées à l’aide d’une identité managée affectée par le système, obtenez une chaîne de connexion qui contient un ResourceId, sans clé de compte ni mot de passe. ResourceId doit inclure l’ID d’abonnement du compte de stockage, le groupe de ressources du compte de stockage et le nom du compte de stockage. La chaîne de connexion est similaire à l’exemple suivant :
"credentials" : { "connectionString" : "ResourceId=/subscriptions/00000000-0000-0000-0000-00000000/resourceGroups/MY-DEMO-RESOURCE-GROUP/providers/Microsoft.Storage/storageAccounts/MY-DEMO-STORAGE-ACCOUNT/;" }Pour les connexions effectuées à l’aide d’une identité managée affectée par l’utilisateur, obtenez une chaîne de connexion qui contient un ResourceId, sans clé de compte ni mot de passe. ResourceId doit inclure l’ID d’abonnement du compte de stockage, le groupe de ressources du compte de stockage et le nom du compte de stockage. Fournissez une identité à l’aide de la syntaxe indiquée dans l’exemple suivant. Définissez userAssignedIdentity sur l’identité managée affectée par l’utilisateur. La chaîne de connexion est similaire à l’exemple suivant :
"credentials" : { "connectionString" : "ResourceId=/subscriptions/00000000-0000-0000-0000-00000000/resourceGroups/MY-DEMO-RESOURCE-GROUP/providers/Microsoft.Storage/storageAccounts/MY-DEMO-STORAGE-ACCOUNT/;" }, "identity" : { "@odata.type": "#Microsoft.Azure.Search.DataUserAssignedIdentity", "userAssignedIdentity" : "/subscriptions/00000000-0000-0000-0000-00000000/resourcegroups/MY-DEMO-RESOURCE-GROUP/providers/Microsoft.ManagedIdentity/userAssignedIdentities/MY-DEMO-USER-MANAGED-IDENTITY" }
Préparer des modèles
Ce tutoriel suppose que vous disposez d’une ressource Foundry existante à travers laquelle la compétence appelle le modèle d'intégration Azure Vision multimodal 4.0. Le service de recherche se connecte au modèle pendant le traitement de l’ensemble de compétences à l’aide de son identité managée. Cette section fournit des conseils et des liens pour l’attribution de rôles pour l’accès autorisé.
Connectez-vous au portail Azure (et non au portail Foundry) et recherchez la ressource Foundry. Assurez-vous qu’elle se trouve dans une région qui fournit l’API modale 4.0.
Sélectionnez Contrôle d’accès (IAM) .
Sélectionnez Ajouter , puis Ajouter une attribution de rôle.
Recherchez Cognitive Services User puis sélectionnez-le.
Choisissez Identité managée , puis attribuez votre identité managée de service de recherche.
Configurer votre fichier REST
Pour ce tutoriel, votre connexion de client REST locale à Azure AI Search nécessite un point de terminaison et une clé API. Vous pouvez obtenir ces valeurs à partir du Portail Azure. Pour obtenir d’autres méthodes de connexion, consultez Se connecter à un service de recherche.
Pour les connexions authentifiées qui se produisent pendant le traitement de l’indexeur et de l’ensemble de compétences, le service de recherche utilise les attributions de rôles que vous avez définies précédemment.
Démarrez Visual Studio Code et créez un fichier.
Fournissez des valeurs pour les variables utilisées dans la requête. Pour
@storageConnection, assurez-vous que votre chaîne de connexion n’a pas de points-virgules ou de guillemets de fin. Pour@imageProjectionContainer, fournissez un nom de conteneur unique dans le stockage d’objets blob. Azure AI Search crée ce conteneur pour vous pendant le traitement des compétences.@searchUrl = PUT-YOUR-SEARCH-SERVICE-ENDPOINT-HERE @searchApiKey = PUT-YOUR-ADMIN-API-KEY-HERE @storageConnection = PUT-YOUR-STORAGE-CONNECTION-STRING-HERE @cognitiveServicesUrl = PUT-YOUR-AZURE-AI-FOUNDRY-ENDPOINT-HERE @modelVersion = 2023-04-15 @imageProjectionContainer=sustainable-ai-pdf-imagesEnregistrez le fichier en utilisant une extension de fichier
.restou.http. Pour obtenir de l’aide sur le client REST, consultez Démarrage rapide : Recherche en texte intégral à l’aide de REST.
Pour obtenir le point de terminaison Azure AI Search et la clé API :
Connectez-vous au Portail Azure, accédez à la page Vue d’ensemble du service de recherche et copiez l’URL. Voici un exemple de point de terminaison :
https://mydemo.search.windows.net.Sous Paramètres>Clés, copiez une clé d’administration. Les clés d’administration sont utilisées pour ajouter, modifier et supprimer des objets. Il existe deux clés d’administration interchangeables. Copiez l’une ou l’autre.
Créer une source de données
Créer une source de données (REST) permet de créer une connexion à la source de données qui spécifie les données à indexer.
POST {{searchUrl}}/datasources?api-version=2025-11-01-preview HTTP/1.1
Content-Type: application/json
api-key: {{searchApiKey}}
{
"name":"doc-extraction-multimodal-embedding-ds",
"description":null,
"type":"azureblob",
"subtype":null,
"credentials":{
"connectionString":"{{storageConnection}}"
},
"container":{
"name":"sustainable-ai-pdf",
"query":null
},
"dataChangeDetectionPolicy":null,
"dataDeletionDetectionPolicy":null,
"encryptionKey":null,
"identity":null
}
Envoyez la demande. La réponse doit ressembler à ce qui suit :
HTTP/1.1 201 Created
Transfer-Encoding: chunked
Content-Type: application/json; odata.metadata=minimal; odata.streaming=true; charset=utf-8
Location: https://<YOUR-SEARCH-SERVICE-NAME>.search.windows-int.net:443/datasources('doc-extraction-multimodal-embedding-ds')?api-version=2025-11-01-preview -Preview
Server: Microsoft-IIS/10.0
Strict-Transport-Security: max-age=2592000, max-age=15724800; includeSubDomains
Preference-Applied: odata.include-annotations="*"
OData-Version: 4.0
request-id: 4eb8bcc3-27b5-44af-834e-295ed078e8ed
elapsed-time: 346
Date: Sat, 26 Apr 2025 21:25:24 GMT
Connection: close
{
"name": "doc-extraction-multimodal-embedding-ds",
"description": null,
"type": "azureblob",
"subtype": null,
"indexerPermissionOptions": [],
"credentials": {
"connectionString": null
},
"container": {
"name": "sustainable-ai-pdf",
"query": null
},
"dataChangeDetectionPolicy": null,
"dataDeletionDetectionPolicy": null,
"encryptionKey": null,
"identity": null
}
Création d'un index
Créer un index (REST) permet de créer un index de recherche sur votre service de recherche. Un index spécifie tous les paramètres et leurs attributs.
Pour un JSON imbriqué, les champs d’index doivent être identiques aux champs sources. Actuellement, Azure AI Search ne prend pas en charge les mappages de champs vers json imbriqués. Par conséquent, les noms de champs et les types de données doivent correspondre complètement. L’index suivant s’aligne sur les éléments JSON dans le contenu brut.
### Create an index
POST {{searchUrl}}/indexes?api-version=2025-11-01-preview HTTP/1.1
Content-Type: application/json
api-key: {{searchApiKey}}
{
"name": "doc-extraction-multimodal-embedding-index",
"fields": [
{
"name": "content_id",
"type": "Edm.String",
"retrievable": true,
"key": true,
"analyzer": "keyword"
},
{
"name": "text_document_id",
"type": "Edm.String",
"searchable": false,
"filterable": true,
"retrievable": true,
"stored": true,
"sortable": false,
"facetable": false
},
{
"name": "document_title",
"type": "Edm.String",
"searchable": true
},
{
"name": "image_document_id",
"type": "Edm.String",
"filterable": true,
"retrievable": true
},
{
"name": "content_text",
"type": "Edm.String",
"searchable": true,
"retrievable": true
},
{
"name": "content_embedding",
"type": "Collection(Edm.Single)",
"dimensions": 1024,
"searchable": true,
"retrievable": true,
"vectorSearchProfile": "hnsw"
},
{
"name": "content_path",
"type": "Edm.String",
"searchable": false,
"retrievable": true
},
{
"name": "offset",
"type": "Edm.String",
"searchable": false,
"retrievable": true
},
{
"name": "location_metadata",
"type": "Edm.ComplexType",
"fields": [
{
"name": "page_number",
"type": "Edm.Int32",
"searchable": false,
"retrievable": true
},
{
"name": "bounding_polygons",
"type": "Edm.String",
"searchable": false,
"retrievable": true,
"filterable": false,
"sortable": false,
"facetable": false
}
]
}
],
"vectorSearch": {
"profiles": [
{
"name": "hnsw",
"algorithm": "defaulthnsw",
"vectorizer": "demo-vectorizer"
}
],
"algorithms": [
{
"name": "defaulthnsw",
"kind": "hnsw",
"hnswParameters": {
"m": 4,
"efConstruction": 400,
"metric": "cosine"
}
}
],
"vectorizers": [
{
"name": "demo-vectorizer",
"kind": "aiServicesVision",
"aiServicesVisionParameters": {
"resourceUri": "{{cognitiveServicesUrl}}",
"authIdentity": null,
"modelVersion": "{{modelVersion}}"
}
}
]
},
"semantic": {
"defaultConfiguration": "semanticconfig",
"configurations": [
{
"name": "semanticconfig",
"prioritizedFields": {
"titleField": {
"fieldName": "document_title"
},
"prioritizedContentFields": [
],
"prioritizedKeywordsFields": []
}
}
]
}
}
Points clés :
Les incorporations de texte et d’images sont stockées dans le
content_embeddingchamp et doivent être configurées avec des dimensions appropriées, telles que 1024 et un profil de recherche vectorielle.location_metadatacapture les métadonnées de polygone englobant et de numéro de page pour chaque image normalisée, ce qui permet une recherche spatiale précise ou des superpositions d’interface utilisateur.location_metadataexiste uniquement pour les images de ce scénario. Si vous souhaitez également capturer des métadonnées d’emplacement pour le texte, envisagez d’utiliser la compétence Mise en page du document. Un didacticiel détaillé est lié en bas de la page.Pour plus d’informations sur la recherche vectorielle, consultez Vectors in Azure AI Search.
Pour plus d’informations sur le classement sémantique, consultez Classement sémantique dans Recherche IA Azure
Créer un ensemble de compétences
Créer un ensemble de compétences (REST) crée un ensemble de compétences sur votre service de recherche. Un ensemble de compétences définit les opérations qui segmentent et incorporent du contenu avant l’indexation. Cet ensemble de compétences utilise la compétence d’extraction de documents intégrée pour extraire du texte et des images. Il utilise la compétence Fractionnement de texte pour segmenter le texte volumineux. Il utilise la compétence d’incorporations multimodales Azure Vision pour vectoriser le contenu d'images et de texte.
### Create a skillset
POST {{searchUrl}}/skillsets?api-version=2025-11-01-preview HTTP/1.1
Content-Type: application/json
api-key: {{searchApiKey}}
{
"name": "doc-extraction-multimodal-embedding-skillset",
"description": "A test skillset",
"skills": [
{
"@odata.type": "#Microsoft.Skills.Util.DocumentExtractionSkill",
"name": "document-extraction-skill",
"description": "Document extraction skill to extract text and images from documents",
"parsingMode": "default",
"dataToExtract": "contentAndMetadata",
"configuration": {
"imageAction": "generateNormalizedImages",
"normalizedImageMaxWidth": 2000,
"normalizedImageMaxHeight": 2000
},
"context": "/document",
"inputs": [
{
"name": "file_data",
"source": "/document/file_data"
}
],
"outputs": [
{
"name": "content",
"targetName": "extracted_content"
},
{
"name": "normalized_images",
"targetName": "normalized_images"
}
]
},
{
"@odata.type": "#Microsoft.Skills.Text.SplitSkill",
"name": "split-skill",
"description": "Split skill to chunk documents",
"context": "/document",
"defaultLanguageCode": "en",
"textSplitMode": "pages",
"maximumPageLength": 2000,
"pageOverlapLength": 200,
"unit": "characters",
"inputs": [
{
"name": "text",
"source": "/document/extracted_content",
"inputs": []
}
],
"outputs": [
{
"name": "textItems",
"targetName": "pages"
}
]
},
{
"@odata.type": "#Microsoft.Skills.Vision.VectorizeSkill",
"name": "text-embedding-skill",
"description": "Vision Vectorization skill for text",
"context": "/document/pages/*",
"modelVersion": "{{modelVersion}}",
"inputs": [
{
"name": "text",
"source": "/document/pages/*"
}
],
"outputs": [
{
"name": "vector",
"targetName": "text_vector"
}
]
},
{
"@odata.type": "#Microsoft.Skills.Vision.VectorizeSkill",
"name": "image-embedding-skill",
"description": "Vision Vectorization skill for images",
"context": "/document/normalized_images/*",
"modelVersion": "{{modelVersion}}",
"inputs": [
{
"name": "image",
"source": "/document/normalized_images/*"
}
],
"outputs": [
{
"name": "vector",
"targetName": "image_vector"
}
]
},
{
"@odata.type": "#Microsoft.Skills.Util.ShaperSkill",
"name": "shaper-skill",
"description": "Shaper skill to reshape the data to fit the index schema",
"context": "/document/normalized_images/*",
"inputs": [
{
"name": "normalized_images",
"source": "/document/normalized_images/*",
"inputs": []
},
{
"name": "imagePath",
"source": "='{{imageProjectionContainer}}/'+$(/document/normalized_images/*/imagePath)",
"inputs": []
},
{
"name": "dataUri",
"source": "='data:image/jpeg;base64,'+$(/document/normalized_images/*/data)",
"inputs": []
},
{
"name": "location_metadata",
"sourceContext": "/document/normalized_images/*",
"inputs": [
{
"name": "page_number",
"source": "/document/normalized_images/*/pageNumber"
},
{
"name": "bounding_polygons",
"source": "/document/normalized_images/*/boundingPolygon"
}
]
}
],
"outputs": [
{
"name": "output",
"targetName": "new_normalized_images"
}
]
}
],
"cognitiveServices": {
"@odata.type": "#Microsoft.Azure.Search.AIServicesByIdentity",
"subdomainUrl": "{{cognitiveServicesUrl}}",
"identity": null
},
"indexProjections": {
"selectors": [
{
"targetIndexName": "doc-extraction-multimodal-embedding-index",
"parentKeyFieldName": "text_document_id",
"sourceContext": "/document/pages/*",
"mappings": [
{
"name": "content_embedding",
"source": "/document/pages/*/text_vector"
},
{
"name": "content_text",
"source": "/document/pages/*"
},
{
"name": "document_title",
"source": "/document/document_title"
}
]
},
{
"targetIndexName": "doc-extraction-multimodal-embedding-index",
"parentKeyFieldName": "image_document_id",
"sourceContext": "/document/normalized_images/*",
"mappings": [
{
"name": "content_embedding",
"source": "/document/normalized_images/*/image_vector"
},
{
"name": "content_path",
"source": "/document/normalized_images/*/new_normalized_images/imagePath"
},
{
"name": "location_metadata",
"source": "/document/normalized_images/*/new_normalized_images/location_metadata"
},
{
"name": "document_title",
"source": "/document/document_title"
}
]
}
],
"parameters": {
"projectionMode": "skipIndexingParentDocuments"
}
},
"knowledgeStore": {
"storageConnectionString": "{{storageConnection}}",
"identity": null,
"projections": [
{
"files": [
{
"storageContainer": "{{imageProjectionContainer}}",
"source": "/document/normalized_images/*"
}
]
}
]
}
}
Cet ensemble de compétences extrait du texte et des images, vectorise les deux et forme les métadonnées d’image pour la projection dans l’index.
Points clés :
Le champ
content_textest rempli avec du texte extrait à l’aide de la compétence d’extraction de document et segmenté à l’aide de la compétence de fractionnementcontent_pathcontient le chemin relatif du fichier image dans le conteneur de projection d’images désigné. Ce champ est généré uniquement pour les images extraites des fichiers PDF lorsqueimageActionest défini surgenerateNormalizedImages, et peut être mappé depuis le document enrichi à partir du champ source/document/normalized_images/*/imagePath.La compétence d’intégration multimodale Azure Vision permet l’intégration de données textuelles et visuelles à l’aide du même type de compétence, différenciée selon l'entrée (texte ou image). Pour plus d’informations, consultez la compétence d’incorporations modales Azure Vision.
Créer et exécuter un indexeur
Créer un indexeur permet de créer un indexeur sur votre service de recherche. Un indexeur se connecte à la source de données, charge des données, exécute un ensemble de compétences et indexe les données enrichies.
### Create and run an indexer
POST {{searchUrl}}/indexers?api-version=2025-11-01-preview HTTP/1.1
Content-Type: application/json
api-key: {{searchApiKey}}
{
"name": "doc-extraction-multimodal-embedding-indexer",
"dataSourceName": "doc-extraction-multimodal-embedding-ds",
"targetIndexName": "doc-extraction-multimodal-embedding-index",
"skillsetName": "doc-extraction-multimodal-embedding-skillset",
"parameters": {
"maxFailedItems": -1,
"maxFailedItemsPerBatch": 0,
"batchSize": 1,
"configuration": {
"allowSkillsetToReadFileData": true
}
},
"fieldMappings": [
{
"sourceFieldName": "metadata_storage_name",
"targetFieldName": "document_title"
}
],
"outputFieldMappings": []
}
Exécuter des requêtes
Vous pouvez démarrer la recherche dès que le premier document est chargé.
### Query the index
POST {{searchUrl}}/indexes/doc-extraction-multimodal-embedding-index/docs/search?api-version=2025-11-01-preview HTTP/1.1
Content-Type: application/json
api-key: {{searchApiKey}}
{
"search": "*",
"count": true
}
Envoyez la demande. Il s’agit d’une requête de recherche en texte intégral non spécifiée qui retourne tous les champs marqués comme récupérables dans l’index, ainsi qu’un nombre de documents. La réponse doit ressembler à ce qui suit :
HTTP/1.1 200 OK
Transfer-Encoding: chunked
Content-Type: application/json; odata.metadata=minimal; odata.streaming=true; charset=utf-8
Content-Encoding: gzip
Vary: Accept-Encoding
Server: Microsoft-IIS/10.0
Strict-Transport-Security: max-age=2592000, max-age=15724800; includeSubDomains
Preference-Applied: odata.include-annotations="*"
OData-Version: 4.0
request-id: 712ca003-9493-40f8-a15e-cf719734a805
elapsed-time: 198
Date: Wed, 30 Apr 2025 23:20:53 GMT
Connection: close
{
"@odata.count": 100,
"@search.nextPageParameters": {
"search": "*",
"count": true,
"skip": 50
},
"value": [
],
"@odata.nextLink": "https://<YOUR-SEARCH-SERVICE-NAME>.search.windows.net/indexes/doc-extraction-multimodal-embedding-index/docs/search?api-version=2025-11-01-preview "
}
100 documents sont retournés dans la réponse.
Pour les filtres, vous pouvez également utiliser des opérateurs logiques (and, or, not) et des opérateurs de comparaison (eq, ne, gt, lt, ge, le). Les comparaisons de chaînes sont sensibles à la casse. Pour plus d’informations et d’exemples, consultez Exemples de requêtes de recherche simples.
Note
Le $filter paramètre fonctionne uniquement sur les champs marqués filtrables lors de la création de l’index.
### Query for only images
POST {{searchUrl}}/indexes/doc-extraction-multimodal-embedding-index/docs/search?api-version=2025-11-01-preview HTTP/1.1
Content-Type: application/json
api-key: {{searchApiKey}}
{
"search": "*",
"count": true,
"filter": "image_document_id ne null"
}
### Query for text or images with content related to energy, returning the id, parent document, and text (only populated for text chunks), and the content path where the image is saved in the knowledge store (only populated for images)
POST {{searchUrl}}/indexes/doc-extraction-multimodal-embedding-index/docs/search?api-version=2025-11-01-preview HTTP/1.1
Content-Type: application/json
api-key: {{searchApiKey}}
{
"search": "energy",
"count": true,
"select": "content_id, document_title, content_text, content_path"
}
Réinitialiser et réexécuter
Les indexeurs peuvent être réinitialisés pour effacer la borne haute, ce qui permet une réexécution complète. Les requêtes POST suivantes servent à la réinitialisation, suivie d'une nouvelle exécution.
### Reset the indexer
POST {{searchUrl}}/indexers/doc-extraction-multimodal-embedding-indexer/reset?api-version=2025-11-01-preview HTTP/1.1
api-key: {{searchApiKey}}
### Run the indexer
POST {{searchUrl}}/indexers/doc-extraction-multimodal-embedding-indexer/run?api-version=2025-11-01-preview HTTP/1.1
api-key: {{searchApiKey}}
### Check indexer status
GET {{searchUrl}}/indexers/doc-extraction-multimodal-embedding-indexer/status?api-version=2025-11-01-preview HTTP/1.1
api-key: {{searchApiKey}}
Nettoyer les ressources
Lorsque vous travaillez dans votre propre abonnement, il est judicieux à la fin d’un projet de supprimer les ressources dont vous n’avez plus besoin. Les ressources qui restent actives peuvent vous coûter de l’argent. Vous pouvez supprimer des ressources individuellement ou supprimer le groupe de ressources pour supprimer l’ensemble des ressources.
Vous pouvez utiliser le portail Azure pour supprimer les index, les indexeurs et les sources de données.
Voir aussi
Maintenant que vous connaissez un exemple d’implémentation d’un scénario d’indexation modale, consultez :