Remarque
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de vous connecter ou de modifier des répertoires.
L’accès à cette page nécessite une autorisation. Vous pouvez essayer de modifier des répertoires.
Importante
Cette fonctionnalité est destinée uniquement aux clients en préversion publique. Les fonctionnalités de la préversion peuvent ne pas être complètes et subir des modifications avant de devenir disponibles dans la version plus large.
Les données de votre organisation peuvent apparaître dans l’application web Viva Insights de trois manières : via Microsoft Entra ID, qui est la source par défaut, par le biais de fichiers .csv individuels que vous chargez en tant qu’administrateur Insights directement sur Viva Insights ; ou via une importation de données basée sur l’API que vous, votre administrateur système source et votre configuration d’administrateur informatique Microsoft 365.
Cet article traite de la troisième option, l’importation de données.
Avec une importation, vous apportez des données de votre système source à l’API d’entrée de données RH Viva Insights via un fichier zip. Vous pouvez :
- Créez une application personnalisée pour exporter des données du système source vers un fichier zip. Ensuite, à l’aide de la même application, importez ces données à l’aide des informations d’API ci-dessous.
- Créez une application personnalisée pour exporter des données du système source vers un fichier zip. Ensuite, exécutez une application console C# que nous avons créée pour importer des données dans Viva Insights.
- Créez une application personnalisée pour exporter des données du système source vers un fichier zip. Ensuite, exécutez un script PowerShell que nous avons créé pour importer des données dans Viva Insights.
- Utilisez notre modèle Azure Data Factory (ADF) pour envoyer des données à notre importation basée sur l’API.
Toutefois, avant de pouvoir exécuter votre application et commencer à transférer des données vers Viva Insights, vous devez coordonner quelques tâches entre votre administrateur Microsoft 365 et l’administrateur Insights (administrateur Insights). Consultez Flux de travail pour obtenir une vue d’ensemble des étapes requises.
Importante
Utilisez les étapes suivantes uniquement si vous importez des données organisationnelles pour la première fois. S’il ne s’agit pas de votre première importation, consultez Importer des données organisationnelles (importations ultérieures) pour actualiser les données précédemment importées.
Flux de travail
Configuration :
- L’administrateur de source de données génère un certificat de sécurité et le fournit à l’administrateur Microsoft 365.
- À l’aide du certificat de sécurité, l’administrateur Microsoft 365 inscrit une nouvelle application dans Azure.
- À l’aide des ID de l’inscription de l’application, l’administrateur Insights configure l’importation.
- L’administrateur de la source de données prépare ses données et effectue les opérations suivantes :
- Exporte à partir de leur système source à l’aide d’une application personnalisée basée sur notre API, puis en utilisant la même application, importe les données dans Viva Insights.
- Exporte à partir de leur système source à l’aide d’une application personnalisée basée sur notre API, puis à l’aide de notre solution C# ou de notre script PowerShell, importe les données dans Viva Insights.
Validation : Viva Insights valide vos données. (Si la validation échoue, vous pouvez choisir parmi quelques options décrites dans Échec de la validation.)
Traitement : Viva Insights traite vos données. (Si le traitement échoue, vous pouvez choisir parmi quelques options décrites dans Échec du traitement.)
Une fois les données validées et les processus réussis, la tâche d’importation de données globale est terminée.
Installation
Générer le certificat de sécurité
S’applique à : administrateur de source de données
Pour commencer à obtenir des données de votre fichier source dans Viva Insights, l’administrateur Microsoft 365 doit créer et inscrire une application dans Azure. En tant qu’administrateur de source de données, vous devez aider l’administrateur Microsoft 365 à inscrire son application en lui donnant un certificat de sécurité.
Voici ce qu’il faut faire :
- Créez un certificat en suivant les instructions de cet article : Créer un certificat public auto-signé pour authentifier votre application
- Envoyez le certificat généré à l’administrateur Microsoft 365.
C’est tout pour le moment. Si vous souhaitez avoir une longueur d’avance sur les étapes suivantes, suivez les étapes décrites dans Exporter vos données sur une fréquence définie.
Inscrire une nouvelle application dans Azure
S’applique à : Administrateur Microsoft 365
Remarque
Pour plus d’informations sur l’inscription d’une application dans Azure, consultez Démarrage rapide : Inscrire une application auprès du Plateforme d'identités Microsoft.
Dans le rail gauche du Centre d’administration Microsoft, sélectionnez Tous les centres d’administration. Cette option apparaît comme la dernière de la liste.
Sélectionnez Microsoft Entra ID.
Créez une inscription d’application :
Dans la barre d’outils supérieure, sélectionnez Ajouter une > inscription d’application.
Sur l’écran résultant :
- Donnez un nom à votre application.
- Sous Types de comptes pris en charge, laissez la première option, Comptes dans cet annuaire organisationnel uniquement ([Votre organization] uniquement - Locataire unique), sélectionnée.
- Sélectionnez le bouton Inscrire en bas de l’écran.
Lorsque vous revenez à l’écran Vue d’ensemble, copiez l’ID d’application (client) et l’ID d’annuaire (locataire).
Importante
Gardez ces ID à portée de main. Vous devrez les fournir ultérieurement.
Ajoutez un certificat :
Sélectionnez Ajouter un certificat ou un secret.
Sélectionnez Charger le certificat.
Chargez le certificat que l’administrateur de la source de données vous a fourni et ajoutez une Description. Cliquez sur le bouton Ajouter.
Supprimer les autorisations d’API :
Sélectionnez Autorisations d’API dans le rail gauche.
Pour chaque nom d’API/autorisations répertorié, sélectionnez les points de suspension (...) à droite de l’API, par exemple Microsoft Graph.
Sélectionnez Supprimer l’autorisation.
Confirmez la suppression.
Lorsque vous supprimez des autorisations pour ces éléments, vous vous assurez que l’application dispose uniquement des autorisations pour ce dont elle a besoin.
Partagez les ID que vous avez notés à l’étape 3c :
- Donnez à l’administrateur Insights l’ID d’application.
- Donnez à l’administrateur de la source de données l’ID d’application et l’ID de locataire.
Configurer l’importation dans Viva Insights
S’applique à : Administrateur Insights
Démarrez l’importation à partir de l’un des deux emplacements suivants : la page Hub de données ou la page Données organisationnelles , sous Connexions de données.
À partir du hub de données :
- Dans la section Source de données , recherchez l’option d’importation basée sur l’API . Cliquez sur le bouton Démarrer.
À partir des connexions de données :
En regard de Source actuelle, sélectionnez le bouton Sources de données .
Une fenêtre d’importation Basculer vers : basée sur l’API s’affiche. Sélectionnez Démarrer.
Dans la page d’importation des données organisationnelles basées sur l’API :
Donnez un nom à votre connexion.
Entrez l’ID d’application que votre administrateur Microsoft 365 vous a donné.
Enregistrez.
Sélectionnez la connexion que vous avez nommée à l’étape 3a comme nouvelle source de données.
Contactez l’administrateur de la source de données et demandez-lui d’envoyer des données d’organisation à Viva Insights.
Préparer, exporter et importer des données organisationnelles
Conseils pour préparer vos données
- Pour les nouvelles données, incluez des données d’historique complètes pour tous les employés.
- Importez les données organisationnelles pour tous les employés de l’entreprise, y compris les employés sous licence et sans licence.
- Consultez l’exemple de modèle .csv pour la structure des données et les instructions pour éviter les problèmes courants tels que trop ou trop peu de valeurs uniques, les champs redondants, les formats de données non valides, etc.
Exporter vos données sur une fréquence définie
À la fréquence que vous décidez (une fois par mois, une fois par semaine, etc.), votre application personnalisée doit exporter les données organisationnelles de votre système source sous la forme d’un dossier zip et les stocker dans vos fichiers. Basez ce dossier zip sur celui ici. Votre dossier zip doit contenir un fichier data.csv et un fichier metadata.json.
Voici quelques détails supplémentaires sur ces fichiers et ce qu’ils doivent contenir :
data.csv
Ajoutez tous les champs que vous souhaitez importer dans ce fichier. Veillez à le mettre en forme conformément à nos instructions dans Préparer les données organisationnelles.
metadata.json
Indiquez le type d’actualisation que vous effectuez et la façon dont Viva Insights doit mapper vos champs :
-
"DatasetType": "HR"(ligne 2). Laissez-le tel tel qu’il est. -
"IsBootstrap":(ligne 3). Utilisez"true"pour indiquer une actualisation complète et"false"pour indiquer une actualisation incrémentielle. -
"ColumnMap":. Si vous utilisez des noms autres que ceux utilisés par Viva Insights, modifiez chaque nom d’en-tête de colonne pour qu’il corresponde à ce que vous utilisez dans votre système source.
Importante
Supprimez tous les champs qui ne sont pas présents dans votre fichier .csv.
Exemple de mappage
L’exemple suivant représente un champ dans le fichier metadata.json :
"PersonId": {
"name": "PersonId",
"type": "EmailType"
-
"PersonId": {correspond au nom de la colonne source. -
“name” : “PersonId”,correspond au nom du champ Viva Insights. -
"type": "EmailType"correspond au type de données du champ.
Supposons qu’au lieu de PersonId, votre système source utilise Employee pour cet en-tête de champ. Pour vous assurer que vos champs sont correctement mappés, modifiez la première ligne ci-dessous afin qu’elle ressemble à ceci :
"Employee": {
"name": "PersonId",
"type": "EmailType"
Lorsque vous chargez vos données, votre Employee champ devient PersonId dans Viva Insights.
Importer vos données
Pour importer vos données dans Viva Insights, vous pouvez choisir parmi quatre options :
- Utilisez notre API pour créer une application personnalisée qui exporte et importe vos données à la fréquence que vous choisissez. En savoir plus.
- Exécutez notre solution C# sur votre console, qui est basée sur notre API. En savoir plus.
- Exécutez notre script PowerShell, qui est également basé sur notre API. En savoir plus.
- Utilisez notre modèle Azure Data Factory (ADF) pour envoyer des données à notre importation basée sur l’API. En savoir plus.
Remarque
Nos solutions C# et PowerShell importent uniquement des données dans Viva Insights. Ils n’exportent pas de données à partir de votre système source.
Avant d’utiliser l’une des options ci-dessous, vérifiez que vous disposez des informations suivantes :
- ID d’application (client). Recherchez cet ID dans les informations de l’application inscrite sur le Portail Azure sous ID d’application (client).
- Clé secrète client : il s’agit d’une chaîne secrète que l’application utilise pour prouver son identité lors de la demande d’un jeton. Il est également appelé mot de passe d’application. Ce secret n’est affiché que pour la première fois lors de la création de la clé secrète client. Pour créer une clé secrète client, consultez Créer une application Microsoft Entra et un principal de service dans le portail.
- Nom du certificat. Ce nom est configuré dans votre application inscrite. Une fois que vous avez chargé le certificat, le nom du certificat s’affiche sous Description dans le portail Azure. Vous pouvez utiliser le nom du certificat comme alternative à la clé secrète client.
- Fichier zip et chemin d’accès au fichier zip. Ne modifiez pas les noms de fichiers data.csv et metadata.json.
- Microsoft Entra l’ID de locataire. Recherchez également cet ID dans la page de vue d’ensemble de l’application sous ID de répertoire (locataire).
- Unité d’échelle : unité d’échelle fournie pour votre locataire, par exemple.
novaprdwus2-01
À propos de l’API d’entrée de données RH Viva Insights
Affichez les commandes suivantes :
[En-têtes de requête]
Ces deux en-têtes de requête sont requis pour toutes les API mentionnées ci-dessous
x-nova-scaleunit: <ScaleUnit obtained from Insights setup connection page>
Authentication: Bearer <Oauth token from AAD>
Remarque
Générez un jeton OAuth Active Directory pour l’application inscrite (flux d’authentification d’application démon) à l’aide de :
Authority: https://login.microsoftonline.com
Tenant: <target AAD tenant ID>
Audience: https://api.orginsights.viva.office.com
Pour plus d’informations sur la génération de jetons, consultez : Acquérir et mettre en cache des jetons avec la bibliothèque d’authentification Microsoft (MSAL)
Obtenir le connecteur/ping pour case activée si le connecteur est défini pour un locataire
[GET] https://api.orginsights.viva.office.com/v1.0/scopes/<tenantId>/ingress/connectors/HR
[ResponseBody]
Si le connecteur est défini et que l’autorisation est accordée à l’application appelante (id) :
200:
{
“ConnectorId”: “Connector-id-guid”
}
Si l’administrateur Insights a supprimé le connecteur ou, le connecteur n’a pas encore été défini par l’administrateur Insights :
403: Forbidden.
Envoyer des données
Application d’enquête 1P/3P pour appeler l’API Viva Insights pour envoyer du contenu
[POST] https://api.orginsights.viva.office.com/v1.0/scopes/<tenantId>/ingress/connectors/HR/ingestions/fileIngestion
[Corps] contenu du fichier en tant que multipart/form-data
Type : Archive zip
Contenu à archiver :
Metadata.json
Data.csv
[Corps de la demande]
Body:
{
"$content-type": "multipart/form-data",
"$multipart":
[
{
"headers":
{
"Content-Disposition": "form-data; name=\"file\"; filename=info"
},
"body": @{body('Get_blob_content_(V2)')}
}
]
}
[Corps de la réponse]
200:
{
"FriendlyName": "Data ingress",
"Id": "<ingestion Id>",
"ConnectorId": "<connector Id>",
"Submitter": "System",
"StartDate": "2023-05-08T19:07:07.4994043Z",
"Status": "NotStarted",
"ErrorDetail": null,
"EndDate": null,
"Type": "FileIngestion"
}
Si le connecteur n’est pas défini :
403: Forbidden
Si le connecteur est défini, mais que l’ingestion précédente n’est pas encore terminée :
400: Bad request: Previous ingestion is not complete.
Status de sondage
API pour interroger status pour l’ingestion, car l’ingestion de données est une opération de longue durée.
[GET] https://api.orginsights.viva.office.com/v1.0/scopes/<tenantId>/ingress/connectors/Hr/ingestions/fileIngestion/{ingestionId:guid}
[Réponse]
200:
{
"FriendlyName": "Data ingress",
"Id": "<ingestion Id>",
"ConnectorId": "<connector Id>",
"Submitter": "System",
"StartDate": "2023-05-08T19:05:44.2171692Z",
"Status": "NotStarted/ExtractionComplete/ValidationFailed
/Completed/",
"ErrorDetail": null,
"EndDate": "2023-05-08T20:09:18.7301504Z",
"Type": "FileIngestion"
},
Télécharger le flux d’erreur en cas d’échec de la validation (problème dans les données)
[GET] https://api.orginsights.viva.office.com/v1.0/scopes/<tenantId>//Hr/ingestions/{ingestionId}/errors
[Réponse]
200: File stream with errors, if any.
Option 1 : Utiliser l’API d’entrée de données RH Viva Insights pour créer une application d’importation/exportation personnalisée
Vous pouvez utiliser l’API d’entrée de données RH Viva Insights pour créer une application personnalisée qui exporte automatiquement les données de votre système source, puis les importe dans Viva Insights.
Votre application peut prendre n’importe quelle forme, par exemple, un script PowerShell, mais elle doit exporter vos données sources sous la forme d’un dossier zip à la fréquence choisie, stocker le dossier dans vos fichiers et importer ce dossier dans Viva Insights.
Option 2 : Importer des données via notre solution C# après l’exportation de données via votre application personnalisée
Après avoir exporté vos données sources en tant que dossier zip à la fréquence choisie et stocké ce dossier dans vos fichiers, vous pouvez exécuter la solution C# DescriptiveDataUploadApp sur la console. La solution C# DescriptiveDataUploadApp apporte ensuite vos données stockées localement dans Viva Insights. En savoir plus sur GitHub.
Pour exécuter la solution :
Clonez cette application sur votre ordinateur en exécutant la commande suivante sur la ligne de commande :
git clone https://github.com/microsoft/vivainsights_ingressupload.git.Incluez les valeurs de console suivantes. Pour obtenir des descriptions, consultez Préparer, exporter et importer des données organisationnelles.
- AppID/ClientID
- Chemin d’accès absolu au fichier compressé. Mettez en forme le chemin comme suit :
C:\\Users\\JaneDoe\\OneDrive - Microsoft\\Desktop\\info.zip - ID de locataire Microsoft Entra
- Nom du certificat
Option 3 : Exécuter la solution PowerShell DescriptiveDataUpload après l’exportation de données via votre application personnalisée
Comme pour l’option 2, une fois que vous avez exporté vos données sources sous la forme d’un dossier zip à la fréquence choisie et que vous avez stocké ce dossier dans vos fichiers, vous pouvez exécuter la solution PowerShell DescriptiveDataUpload sur la console. La solution PowerShell DescriptiveDataUpload apporte ensuite vos données stockées localement dans Viva Insights. En savoir plus sur GitHub.
Clonez le code source sur votre ordinateur en exécutant cette commande sur la ligne de commande :
git clone https://github.com/microsoft/vivainsights_ingressupload.gitOuvrez une nouvelle fenêtre PowerShell en tant qu’administrateur.
Dans votre fenêtre PowerShell, exécutez la commande suivante :
Install-Module -Name MSAL.PSVous pouvez également accéder à ce lien de la galerie PowerShell pour obtenir des instructions sur l’installation.
Définissez les paramètres. Pour obtenir des descriptions , consultez Préparer, exporter et importer des données organisationnelles .
ClientIDpathToZippedFileTenantIdnovaScaleUnitingressDataType: HR-
ClientSecretoucertificateName
Option 4 : Utiliser notre modèle Azure Data Factory (ADF) pour envoyer des données à notre importation basée sur l’API
1. Créer un Azure Data Factory
Connectez-vous à https://adf.azure.com/en/datafactories.
Créez une fabrique de données ou utilisez une fabrique de données existante. Renseignez les champs, puis sélectionnez Créer.
2. Créer un pipeline et une activité
Créez un pipeline et entrez un nom pour le pipeline.
Sous Activités, ajoutez Copier les données.
3. Paramètres d’activité de copie des données : Général
Sélectionnez votre activité Copier des données , puis sélectionnez Général pour compléter chaque champ à l’aide des instructions ci-dessous.
- Nom : entrez un nom pour votre activité.
- Description : entrez une description pour votre activité.
- État de l’activité : sélectionnez Activé. Vous pouvez également sélectionner Désactivé pour exclure l’activité de l’exécution et de la validation du pipeline.
- Délai d’expiration : il s’agit de la durée maximale pendant laquelle une activité peut s’exécuter. La valeur par défaut est de 12 heures, la durée minimale est de 10 minutes et la durée maximale autorisée est de sept jours. Le format est en D.HH :MM :SS.
- Nouvelle tentative : nombre maximal de nouvelles tentatives. Cela peut être laissé comme 0.
- Intervalle de nouvelle tentative (s) : nombre maximal de nouvelles tentatives. Cette valeur peut être laissée à 30 si les nouvelles tentatives sont définies sur 0.
- Sortie sécurisée : lorsque cette option est sélectionnée, la sortie de l’activité n’est pas capturée dans la journalisation. Vous pouvez laisser cela effacé.
- Entrée sécurisée : lorsque cette option est sélectionnée, l’entrée de l’activité n’est pas capturée dans la journalisation. Vous pouvez laisser cela effacé.
4. Paramètres d’activité de copie des données : Source
Sélectionnez Source.
Sélectionnez un jeu de données source existant ou sélectionnez +Nouveau pour créer un jeu de données source. Par exemple, sous Nouveau jeu de données, sélectionnez Stockage Blob Azure, puis sélectionnez le type de format de vos données.
Définissez les propriétés du fichier .csv. Entrez un Nom et sous Service lié, sélectionnez un emplacement existant ou sélectionnez +Nouveau.
Si vous avez sélectionné +Nouveau, entrez les détails du nouveau service lié en suivant les instructions ci-dessous.
En regard de Jeu de données source, sélectionnez Ouvrir.
Sélectionnez Première ligne comme en-tête.
5. Paramètres d’activité de copie des données : Récepteur
Sélectionnez Récepteur.
Sélectionnez +Nouveau pour configurer une nouvelle ressource rest afin de se connecter à l’API d’importation Viva Insights. Recherchez « Rest », puis sélectionnez Continuer.
Nommez le service. Sous Service lié , sélectionnez +Nouveau.
Recherchez « Rest » et sélectionnez-le.
Entrez les champs en suivant les instructions ci-dessous.
- Nom : entrez un nom pour votre nouveau service lié.
- Description : entrez une description de votre nouveau service lié.
- Se connecter via le runtime d’intégration : entrez la méthode préférée.
- URL de base : utilisez l’URL ci-dessous et remplacez>< TENANT_ID par votre ID de locataire : https://api.orginsights.viva.office.com/v1.0/scopes/<TENANT_ID>/ingress/connectors/HR/ingestions/fileIngestion
-
Type d’authentification : sélectionnez votre type d’authentification comme Principal de service ou Certificat. Exemple de principal de service :
- Inline : sélectionnez-la.
- ID du principal de service : entrez l’ID.
- Clé du principal de service : entrez la clé.
- Locataire : entrez l’ID de locataire.
- ressource Microsoft Entra ID :https://api.orginsights.viva.office.com
- Azure type de cloud : sélectionnez votre type de cloud Azure.
- Validation du certificat de serveur : sélectionnez Activé.
Entrez les paramètres récepteur en suivant les instructions ci-dessous.
- Jeu de données récepteur : sélectionnez le jeu de données existant ou nouvellement créé.
- Méthode de requête : sélectionnez POST.
- Délai d’expiration de la demande : cinq minutes sont la valeur par défaut.
- Intervalle de demande (ms) : 10 est la valeur par défaut.
- Taille du lot d’écriture : la taille du lot doit être supérieure au nombre maximal de lignes dans votre fichier.
- Type de compression Http : Aucun est la valeur par défaut. Vous pouvez également utiliser GZip.
-
En-têtes supplémentaires : sélectionnez +Nouveau.
- Boîte 1 : x-nova-scaleunit
- Valeur : La valeur peut être récupérée à partir d’Analyse du temps de travail en accédant à>l’onglet Données de l’organisation -> Sélectionnez Gérer les sources de données -> Sélectionner l’importation basée sur l’API.
6. Paramètres d’activité de copie des données : Mappage
Sélectionnez Mappage.
Pour le chargement de démarrage, veillez à inclure PersonId, ManagerId et Organization dans le mappage (nom de destination). Pour le chargement incrémentiel, vérifiez que les noms de destination sont cohérents avec ceux du chargement précédent, ainsi que PersonId. Vous ne pouvez pas effectuer de chargements incrémentiels avec de nouvelles colonnes, et PersonId est requis dans tous les chargements.
7. Paramètres d’activité de copie des données : Paramètres et propriétés de l’utilisateur
Aucune autre personnalisation n’est requise pour paramètres ou propriétés utilisateur. Vous pouvez modifier ces paramètres au cas par cas si nécessaire.
8. Activité de copie de données : Configuration du déclencheur (Automation)
Pour ajouter un déclencheur à la configuration d’Automation, sélectionnez Ajouter un déclencheur. L’automatisation recommandée est hebdomadaire. Vous pouvez également personnaliser la fréquence.
Validation
Une fois que l’administrateur de la source de données a envoyé des données, l’application commence à valider.
Une fois cette phase terminée, la validation a réussi ou échoué. Selon le résultat, vous recevrez une notification de réussite ou une notification d’échec dans le coin supérieur droit de l’écran Connexions de données .
Pour plus d’informations sur ce qui se passe ensuite, accédez à la section appropriée :
La validation réussit
Une fois la validation réussie, Viva Insights commence à traiter vos nouvelles données. Le traitement peut prendre entre quelques heures et environ un jour. Pendant le traitement, un status « Traitement » s’affiche dans la table Historique des importations.
Une fois le traitement terminé, il est réussi ou a échoué. Selon le résultat, vous trouverez un status « Réussite » ou « Échec » dans la table Historique des importations.
Le traitement réussit
Lorsque vous trouvez le status « Réussite » dans la table Historique des importations, le processus de chargement est terminé.
Une fois que vous avez reçu le status « Réussite », vous pouvez :
- Sélectionnez l’icône d’affichage (œil) pour afficher un résumé des résultats de validation.
- Sélectionnez l’icône de mappage pour afficher les paramètres de mappage du flux de travail.
Remarque
Chaque locataire ne peut avoir qu’une seule importation en cours à la fois. Vous devez terminer le flux de travail d’un fichier de données, ce qui signifie que vous le guidez vers une validation et un traitement réussis ou que vous l’abandonnez avant de commencer le flux de travail du fichier de données suivant. La status ou l’étape du flux de travail de chargement s’affiche sous l’onglet Connexions de données.
Échec du traitement
Si le traitement échoue, un status « Échec du traitement » s’affiche dans la table Historique des importations. Pour que le traitement réussisse, l’administrateur de la source de données doit corriger les erreurs et envoyer les données à Viva Insights à nouveau.
Remarque
Les échecs de traitement sont généralement dus à des erreurs back-end. Si vous constatez des échecs de traitement persistants et que vous avez corrigé les données dans votre fichier importé, enregistrez un ticket de support avec nous.
Échec de la validation
Si la validation des données échoue, un status « Échec de la validation » s’affiche dans la table Historique des importations. Pour que la validation réussisse, l’administrateur de la source de données doit corriger les erreurs et envoyer les données à Viva Insights à nouveau. Sous Actions, sélectionnez l’icône de téléchargement pour télécharger un journal des erreurs. Envoyez ce journal à l’administrateur de la source de données afin qu’il sache ce qu’il faut corriger avant de renvoyer les données.
L’administrateur de source de données peut trouver la section suivante utile pour corriger les erreurs de données dans son fichier d’exportation.
À propos des erreurs dans les données
S’applique à : administrateur de source de données
Quand une ligne ou une colonne de données a une valeur non valide pour un attribut, l’importation entière échoue jusqu’à ce que l’administrateur de la source de données corrige les données sources.
Consultez Préparer des données organisationnelles pour connaître les règles de mise en forme spécifiques qui peuvent vous aider à résoudre les erreurs que vous rencontrez.
En savoir plus sur les erreurs et les avertissements de validation.
Voir aussi
Préparer les données de l’organisation
Importer des données organisationnelles (importation ultérieure)