次の方法で共有


API ベースのインポート (最初のインポート) を使用して組織データをインポートする (プレビュー)

重要

この機能は、パブリック プレビューのお客様専用です。 プレビューの機能が完了していない可能性があり、より広範なリリースで利用できるようになる前に変更が加えられる可能性があります。

組織のデータは、既定のソースである Microsoft Entra ID、Insights 管理者として直接 Viva Insights にアップロードする個々の .csv ファイル、またはソース システム管理者、および Microsoft 365 IT 管理者のセットアップを介して API ベースのデータ インポートを通じて、3 つの方法のいずれかで Viva Insights Web アプリに表示できます。

この記事では、3 つ目のオプションであるデータのインポートについて説明します。

インポートでは、ソース システムから zip ファイルを介して Viva Insights HR データイングレス API にデータを取り込みます。 以下のどちらかの方法で実行できます。

  • ソース システムから zip ファイルにデータをエクスポートするカスタム アプリを作成します。 次に、同じアプリを使用して、以下の API 情報を使用してそのデータをインポートします。
  • ソース システムから zip ファイルにデータをエクスポートするカスタム アプリを作成します。 次に、作成した C# コンソール アプリを実行して、Viva Insights にデータをインポートします。
  • ソース システムから zip ファイルにデータをエクスポートするカスタム アプリを作成します。 次に、作成した PowerShell スクリプトを実行して、Viva Insights にデータをインポートします。
  • API ベースのインポートにデータを送信するには、Azure Data Factory (ADF) テンプレートを使用します。

ただし、アプリを実行して Viva Insights へのデータの転送を開始する前に、Microsoft 365 管理者と Insights 管理者 (Insights 管理者) の間でいくつかのタスクを調整する必要があります。 必要な手順の概要については、「 ワークフロー 」を参照してください。

重要

組織データを初めてインポートする場合にのみ、次の手順を使用します。 これが最初のインポートではない場合は、「 組織データのインポート (以降のインポート)」 を参照して、以前にインポートしたデータを更新します。

ワークフロー

  1. セットアップ:

    1. データ ソース管理者が セキュリティ証明書を生成 し、Microsoft 365 管理者に提供します。
    2. Microsoft 365 管理者は、セキュリティ証明書を使用して、Azureに新しいアプリを登録します
    3. Insights 管理者は、アプリ登録の ID を使用して 、インポートを設定します
    4. データ ソース管理者は、データを準備し、次のいずれかを行います。
      1. API に基づくカスタム アプリを使用してソース システムからエクスポートし、同じアプリを使用してデータを Viva Insights にインポートします。
      2. API に基づくカスタム アプリを使用してソース システムからエクスポートし、C# ソリューションまたは PowerShell スクリプトを使用して、データを Viva Insights にインポートします。

     上記のワークフローの図。

  2. 検証: Viva Insights によってデータが検証されます。 (検証が成功しない場合は、「 検証に失敗する」で説明されているいくつかのオプションから選択できます)。

  3. 処理: Viva Insights がデータを処理します。 (処理が成功しない場合は、「 処理が失敗する」で説明されているいくつかのオプションから選択できます)。

データが正常に検証および処理されると、データ インポート タスク全体が完了します。

セットアップ

セキュリティ証明書を生成する

適用対象: データ ソース管理者

ソース ファイルから Viva Insights へのデータの取得を開始するには、Microsoft 365 管理者がAzureでアプリを作成して登録する必要があります。 データ ソース管理者は、Microsoft 365 管理者にセキュリティ証明書を提供してアプリの登録を支援する必要があります。

次の操作を行います。

  1. この記事の手順に従って証明書 を作成します。自己署名パブリック証明書を作成してアプリケーションを認証する
  2. 生成された証明書を Microsoft 365 管理者に送信します。

それは今のところです。 次の手順でヘッド スタートを行う場合は、「 設定された頻度でデータをエクスポートする」の手順に従います。

Azureで新しいアプリを登録する

適用対象: Microsoft 365 管理者

注:

Azureでのアプリの登録の詳細については、「クイック スタート: Microsoft ID プラットフォームにアプリケーションを登録する」を参照してください。

  1. Microsoft 管理センターの左側のレールで、[ すべての管理センター] を選択します。 このオプションは、リストの最後のオプションとして表示されます。

    左側のレールから [すべての管理センター] を選択しているスクリーンショット。

  2. [Microsoft Entra ID] を選択します。

  3. 新しいアプリ登録を作成します。

    1. 上部のツール バーで、[ アプリの登録 > 追加] を選択します。

      [アプリの登録] が強調表示された状態で展開された [Azure portal追加] メニューを示すスクリーンショット。

    2. 結果の画面で、次の手順を実行します。

      1. アプリに名前を付けます。
      2. [サポートされているアカウントの種類] で、最初のオプションである [この組織のディレクトリ内のアカウントのみ ] ([organization] のみ - [シングル テナント] ) を選択したままにします。
      3. 画面の下部にある [ 登録 ] ボタンを選択します。

      上記の手順に対応する i、ii、iii でアプリケーションを登録する画面を示すスクリーンショット。

    3. [概要] 画面に戻ったら、アプリケーション (クライアント) IDディレクトリ (テナント) ID をコピーダウンします。

      Azureの ID と証明書/シークレット ペインを示すスクリーンショット。

      重要

      これらの ID は手元に置いてください。 後で提供する必要があります。

  4. 証明書を追加します。

    1. [ 証明書またはシークレットの追加] を選択します

      アプリケーション (クライアント) ID

    2. [ 証明書のアップロード] を選択します

      ID と証明書/シークレット ペイン

    3. データ ソース管理者から提供された証明書をアップロードし、[説明] を追加 します[追加] ボタンを選択します。

      Azureの [証明書のアップロード] ダイアログ ボックスを示すスクリーンショット。

  5. API のアクセス許可を削除します。

    1. 左側のレールから [API アクセス許可 ] を選択します。

    2. 一覧表示されている API/アクセス許可 の名前ごとに、API の右側にある省略記号 (...) ( Microsoft Graph など) を選択します。

    3. [ アクセス許可の削除] を選択します

      Azureで [アクセス許可の削除] を選択していることを示すスクリーンショット。

    4. 削除を確認します。

    これらの項目のアクセス許可を削除すると、アプリに必要なアクセス許可のみが付与されます。

  6. 手順 3c で示した ID を共有します。

    1. Insights 管理者にアプリ ID を付与します。
    2. データ ソース管理者にアプリ ID テナント ID を指定します。

Viva Insights でインポートを設定する

適用対象: Insights 管理者

  1. データ接続の下の [データ ハブ ] ページまたは [組織 データ] ページの 2 つの場所のいずれかからインポート 開始します。

    1. データ ハブから:

      1. [ データ ソース ] セクションで、 API ベースのインポート オプションを見つけます。 [スタート] ボタンを選択します。
    2. データ接続から:

      1. [ 現在のソース] の横にある [データ ソース ] ボタンを選択します。

      2. [ 切り替え: API ベースのインポート ] ウィンドウが表示されます。 [スタート] を選択します。

  2. [API ベースの組織データのインポート] ページで、次の手順を実行します。

    1. 接続に名前を付けます。

    2. Microsoft 365 管理者から提供されたアプリ ID を入力します。

    3. 保存します。

  3. 手順 3a で名前を付けた接続を新しいデータ ソースとして選択します。

  4. データ ソース管理者に問い合わせ、Viva Insights に組織データを送信するよう要求します。

組織データの準備、エクスポート、インポート

データを準備するためのヒント

  • 新しいデータの場合は、すべての従業員の完全な履歴データを含めます。
  • ライセンスを持つ従業員とライセンスのない従業員を含む、社内のすべての従業員の組織データをインポートします。
  • 一意の値が多すぎる、または少なすぎる、冗長フィールド、無効なデータ形式など、一般的な問題を回避するには、データ構造とガイドラインの サンプル .csv テンプレート を参照してください。

設定された頻度でデータをエクスポートする

決定した頻度で (月に 1 回、週に 1 回など)、カスタム アプリでソース システムから組織データを zip フォルダーとしてエクスポートし、ファイルに格納します。 この zip フォルダーは 、ここに基づいて作成します。 zip フォルダーには、data.csv ファイルとmetadata.json ファイルが含まれている必要があります。

これらのファイルと、それらのファイルに含める必要がある内容の詳細を次に示します。

data.csv

このファイルにインポートするすべてのフィールドを追加します。 組織 データの準備に関するページのガイドラインに従って書式を設定してください。

metadata.json

実行している更新の種類と、Viva Insights でフィールドをマップする方法を示します。

  • "DatasetType": "HR" (2 行目)。 これはそのままにしておきます。
  • "IsBootstrap": (3 行目)。 "true"を使用して完全更新を示し、増分更新を示す"false"を指定します。
  • "ColumnMap":. Viva Insights で使用されているもの以外の名前を使用する場合は、ソース システムで使用する列ヘッダー名と一致するように各列ヘッダー名を変更します。

重要

.csv ファイルに存在しないフィールドを削除します。

マッピングの例

次の例は、metadata.json ファイル内の 1 つのフィールドを表します。

"PersonId": {
    "name": "PersonId",
    "type": "EmailType"
  • "PersonId": { はソース列名に対応します。
  • “name” : “PersonId”, は Viva Insights フィールド名に対応します。
  • "type": "EmailType" はフィールドのデータ型に対応します。

たとえば、ソース システムでは、 PersonIdではなく、このフィールド ヘッダーに Employee が使用されます。 フィールドが正しくマップされていることを確認するには、次の最初の行を編集して、次のようになります。

      "Employee": {
        "name": "PersonId",
        "type": "EmailType"

データをアップロードすると、 Employee フィールドが Viva Insights に PersonId されます。

データをインポートする

Viva Insights にデータをインポートするには、次の 4 つのオプションから選択できます。

  • API を使用して、選択した頻度でデータをエクスポートおよびインポートするカスタム アプリを構築します。 詳細情報 を参照してください。
  • API に基づいて、本体で C# ソリューションを実行します。 詳細情報 を参照してください。
  • PowerShell スクリプトを実行します。これは、API にも基づいています。 詳細情報 を参照してください。
  • API ベースのインポートにデータを送信するには、Azure Data Factory (ADF) テンプレートを使用します。 詳細情報 を参照してください。

注:

C# および PowerShell ソリューションは、Viva Insights にのみデータをインポートします。 ソース システムからデータをエクスポートしません。

以下のいずれかのオプションを使用する前に、この情報があることを確認してください。

  • アプリ (クライアント) ID。 [アプリケーション (クライアント) ID] で、Azure portalの登録済みアプリ情報でこの ID を見つけます。
  • クライアント シークレット: これは、トークンを要求するときにアプリケーションが ID を証明するために使用するシークレット文字列です。 アプリケーション パスワードとも呼ばれます。 このシークレットは、クライアント シークレットの作成時にのみ初めて表示されます。 新しいクライアント シークレットを作成するには、「ポータルでMicrosoft Entraアプリとサービス プリンシパルを作成する」を参照してください。
  • 証明書名。 この名前は、登録済みアプリケーションで構成されます。 証明書をアップロードすると、Azure ポータルの [説明] に証明書名が表示されます。 証明書名は、クライアント シークレットの代わりに使用できます。
  • zip ファイルと zip ファイルへのパス。 ファイル名の data.csv とmetadata.jsonは変更しないでください。
  • テナント ID をMicrosoft Entraします。 この ID は、アプリの概要ページの [ ディレクトリ (テナント) ID] にも表示されます。
  • スケール ユニット: テナントに対して提供されるスケール ユニット (たとえば、 novaprdwus2-01)。
Viva Insights HR データイングレス API について

次のコマンドを表示します。

[要求ヘッダー]

これら 2 つの要求ヘッダーは、以下で説明するすべての API に必要です

x-nova-scaleunit: <ScaleUnit obtained from Insights setup connection page>

Authentication: Bearer <Oauth token from AAD>

注:

次を使用して、登録済みアプリ (デーモン アプリ認証フロー) の Active Directory OAuth トークンを生成します。
Authority: https://login.microsoftonline.com

Tenant: <target AAD tenant ID>

Audience: https://api.orginsights.viva.office.com

トークンの生成の詳細については、「Microsoft Authentication Library (MSAL) を使用してトークンを取得およびキャッシュする」を参照してください。

コネクタがテナントに設定されている場合は、コネクタ/ping をチェックに取得する

[GET] https://api.orginsights.viva.office.com/v1.0/scopes/<tenantId>/ingress/connectors/HR

[ResponseBody]

コネクタが設定され、呼び出し元アプリケーション (ID) に承認が付与されている場合:

200:  

{ 
       “ConnectorId”: “Connector-id-guid” 

}

Insights 管理者がコネクタを削除した場合、またはコネクタがまだ Insights 管理者によって設定されていない場合:

403: Forbidden.

データをプッシュする

Viva Insights API を呼び出してコンテンツをプッシュする 1P/3P アンケート アプリ

[POST] https://api.orginsights.viva.office.com/v1.0/scopes/<tenantId>/ingress/connectors/HR/ingestions/fileIngestion

[本文] ファイルコンテンツをマルチパート/フォームデータとして

種類: Zip アーカイブ

アーカイブするコンテンツ:

Metadata.json

Data.csv

[要求本文]

Body: 

{ 

   "$content-type": "multipart/form-data", 

   "$multipart":  

    [ 

        { 

            "headers":  

                { 

                    "Content-Disposition": "form-data; name=\"file\"; filename=info" 

                   }, 

            "body": @{body('Get_blob_content_(V2)')} 

         } 

    ] 

} 

[応答本文]

200:  
{ 

  "FriendlyName": "Data ingress", 

  "Id": "<ingestion Id>", 

  "ConnectorId": "<connector Id>", 

  "Submitter": "System", 

  "StartDate": "2023-05-08T19:07:07.4994043Z", 

  "Status": "NotStarted", 

  "ErrorDetail": null, 

  "EndDate": null, 

  "Type": "FileIngestion" 

} 

コネクタが設定されていない場合:

403: Forbidden

コネクタが設定されていても、以前のインジェストがまだ完了していない場合:

400: Bad request: Previous ingestion is not complete.

ポーリングの状態

データのインジェストは実行時間の長い操作であるため、インジェストの状態をポーリングする API。

[GET] https://api.orginsights.viva.office.com/v1.0/scopes/<tenantId>/ingress/connectors/Hr/ingestions/fileIngestion/{ingestionId:guid}

[応答]

200: 
{ 

            "FriendlyName": "Data ingress", 

            "Id": "<ingestion Id>", 

            "ConnectorId": "<connector Id>", 

            "Submitter": "System", 

            "StartDate": "2023-05-08T19:05:44.2171692Z", 

            		  "Status": "NotStarted/ExtractionComplete/ValidationFailed 

/Completed/", 

            "ErrorDetail": null, 

            "EndDate": "2023-05-08T20:09:18.7301504Z", 

            "Type": "FileIngestion" 

}, 
検証が失敗した場合にエラー ストリームをダウンロードする (データ内の問題)

[GET] https://api.orginsights.viva.office.com/v1.0/scopes/<tenantId>//Hr/ingestions/{ingestionId}/errors

[応答]

200: File stream with errors, if any.

オプション 1: Viva Insights HR データイングレス API を使用して、カスタムのインポート/エクスポート アプリを構築する

Viva Insights HR データイングレス API を使用して、ソース システムからデータを自動的にエクスポートし、Viva Insights にインポートするカスタム アプリを構築できます。

アプリは PowerShell スクリプトなどの任意のフォームを使用できますが、選択した頻度でソース データを zip フォルダーとしてエクスポートし、ファイルにフォルダーを格納し、そのフォルダーを Viva Insights にインポートする必要があります。

オプション 2: カスタム アプリを使用してデータをエクスポートした後、C# ソリューションを通じてデータをインポートする

選択した頻度でソース データを zip フォルダーとしてエクスポートし、そのフォルダーをファイルに格納したら、コンソールで DescriptiveDataUploadApp C# ソリューションを実行できます。 その後、DescriptiveDataUploadApp C# ソリューションを使用すると、ローカルに保存されたデータが Viva Insights に取り込まれます。 詳細については、GitHub をご覧ください

ソリューションを実行するには:

  1. コマンド ラインで次のコマンドを実行して、このアプリをコンピューターに複製します。

    git clone https://github.com/microsoft/vivainsights_ingressupload.git.

  2. 次のコンソール値を含めます。 説明については、「組織データの準備、エクスポート、インポート」を参照してください

    • AppID/ClientID
    • 圧縮されたファイルへの絶対パス。 次のようにパスを書式設定します。 C:\\Users\\JaneDoe\\OneDrive - Microsoft\\Desktop\\info.zip
    • テナント ID のMicrosoft Entra
    • 証明書名
オプション 3: カスタム アプリを介してデータをエクスポートした後に、DescriptiveDataUpload PowerShell ソリューションを実行する

オプション 2 と同様に、選択した頻度でソース データを zip フォルダーとしてエクスポートし、そのフォルダーをファイルに格納した後、コンソールで DescriptiveDataUpload PowerShell ソリューションを実行できます。 その後、DescriptiveDataUpload PowerShell ソリューションを使用すると、ローカルに保存されたデータが Viva Insights に取り込まれます。 詳細については、GitHub をご覧ください

  1. コマンド ラインで次のコマンドを実行して、ソース コードをコンピューターに複製します。

    git clone https://github.com/microsoft/vivainsights_ingressupload.git

  2. 管理者として新しい PowerShell ウィンドウを開きます。

  3. PowerShell ウィンドウで、次のコマンドを実行します。

    Install-Module -Name MSAL.PS

    または、インストールの手順については、この PowerShell ギャラリーのリンク を参照してください。

  4. パラメーターを設定します。 説明については 、「組織データの準備、エクスポート、インポート 」を参照してください。

    • ClientID
    • pathToZippedFile
    • TenantId
    • novaScaleUnit
    • ingressDataType: HR
    • ClientSecret または certificateName
オプション 4: Azure Data Factory (ADF) テンプレートを使用して、API ベースのインポートにデータを送信する
1. 新しいAzure Data Factoryを作成する
  1. https://adf.azure.com/en/datafactoriesにログインします。

  2. 新しいデータ ファクトリを作成するか、既存のデータ ファクトリを使用します。 フィールドに入力し、[ 作成] を選択します。

    新しいデータ ファクトリを作成するか、既存のデータ ファクトリを使用する方法を示すスクリーンショット。

2. 新しいパイプラインとアクティビティを作成する
  1. 新しいパイプラインを作成し、パイプラインの名前を入力します。

    新しいパイプラインを作成する方法を示すスクリーンショット。

  2. [ アクティビティ] で、[ データのコピー] を追加します

    コピー データを追加する方法を示すスクリーンショット。

3. データ アクティビティの設定をコピーする: 全般

[ データのコピー ] アクティビティを選択し、[ 全般 ] を選択して、以下のガイダンスを使用して各フィールドを完了します。

データ アクティビティの設定をコピーする方法を示すスクリーンショット。

  • [名前]: アクティビティの名前を入力します。
  • 説明: アクティビティの説明を入力します。
  • アクティビティの状態: [ アクティブ化] を選択します。 または、[ 非アクティブ化 ] を選択して、パイプラインの実行と検証からアクティビティを除外します。
  • タイムアウト: アクティビティを実行できる最大時間です。 既定値は 12 時間、最小値は 10 分、許可される最大時間は 7 日間です。 形式は D.HH:MM:SS です。
  • 再試行: 再試行の最大数。 これは 0 のままにできます。
  • 再試行間隔 (秒): 再試行の最大数。 再試行が 0 に設定されている場合、これは 30 のままにすることができます。
  • セキュリティで保護された出力: 選択すると、アクティビティからの出力はログにキャプチャされません。 この設定はオフのままにしておくことができます。
  • セキュリティで保護された入力: 選択すると、アクティビティからの入力はログにキャプチャされません。 この設定はオフのままにしておくことができます。
4. データ アクティビティの設定をコピーする: ソース
  1. [ ソース] を選択します

  2. 既存のソース データセットを選択するか、[ +新規 ] を選択して新しいソース データセットを作成します。 たとえば、[新しいデータセット] で [Azure Blob Storage] を選択し、データの形式の種類を選択します。

    新しいソース データセットを作成する方法を示すスクリーンショット。

  3. .csv ファイルのプロパティを設定します。 [名前] を入力し、[リンクされたサービス] で既存の場所を選択するか、[+ 新規] を選択します。

    csv ファイルのプロパティを設定する方法を示すスクリーンショット。

  4. [+新規] を選択した場合は、次のガイダンスを使用して、新しいリンクされたサービスの詳細を入力します。

    新しいリンクされたサービスの詳細を追加する方法を示すスクリーンショット。

  5. [ ソース データセット] の横にある [ 開く] を選択します。

    ソース データセットを開く方法を示すスクリーンショット。

  6. ヘッダーとして [最初の行] を選択します。

    最初の行をヘッダーとして選択する方法を示すスクリーンショット。

5. データ アクティビティの設定をコピーする: シンク
  1. [ シンク] を選択します。

  2. [ +新規 ] を選択して、Viva Insights Import API に接続するように新しい rest リソースを構成します。 "Rest" を検索し、[ 続行] を選択します。

    Viva Insights Import API に接続するように新しい rest リソースを構成する方法を示すスクリーンショット。

  3. サービスに名前を付けます。 [ リンクされたサービス ] で、[ +新規] を選択します。

    サービスに名前を付け、新しいリンクされたサービスを追加する方法を示すスクリーンショット。

  4. "Rest" を検索して選択します。

    Rest データセットを検索する方法を示すスクリーンショット。

  5. 以下のガイダンスを使用して、フィールドを入力します。

    データセットのフィールドを入力する方法を示すスクリーンショット。

  • [名前]: 新しいリンクされたサービスの名前を入力します。
  • 説明: 新しいリンクされたサービスの説明を入力します。
  • 統合ランタイム経由で接続する: 優先する方法を入力します。
  • ベース URL: 以下の URL を使用し、<TENANT_ID> をテナント ID に置き換えます:https://api.orginsights.viva.office.com/v1.0/scopes/<TENANT_ID>/ingress/connectors/HR/ingestions/fileIngestion
  • 認証の種類: 認証の種類を [サービス プリンシパル ] または [ 証明書] として選択します。 サービス プリンシパルの例:
    • [インライン]: 選択します。
    • サービス プリンシパル ID: ID を入力します。
    • サービス プリンシパル キー: キーを入力します。
    • テナント: テナント ID を入力します。
    • Microsoft Entra ID リソース:https://api.orginsights.viva.office.com
    • Azureクラウドの種類: Azureクラウドの種類を選択します。
    • サーバー証明書の検証: [有効] を選択します。
  1. 次のガイダンスを使用して、シンク設定を入力します。

    シンク設定を入力する方法を示すスクリーンショット。

  • シンク データセット: 既存または新しく作成されたデータセットを選択します。
  • 要求方法: [POST] を選択します。
  • 要求タイムアウト: 既定値は 5 分です。
  • 要求間隔 (ms): 10 が既定です。
  • 書き込みバッチ サイズ: バッチ サイズは、ファイル内の行の最大数より大きくする必要があります。
  • Http 圧縮の種類: 既定値は [なし] です。 または、GZip を使用することもできます。
  • 追加のヘッダー: [+新規] を選択します。
    • ボックス 1: x-nova-scaleunit
    • : 値は、->Organization データ タブ -> [データ ソースの管理 ] ->[API ベースのインポートの選択] に移動することで、Workplace Analytics から取得できます。
6. データ アクティビティの設定をコピーする: マッピング
  1. [ マッピング] を選択します

  2. ブートストラップアップロードの場合は、マッピング (宛先名) に PersonIdManagerIdOrganization を必ず含めます。 増分アップロードの場合は、宛先名が PersonId と共に、前のアップロードの名前と一致していることを確認します。 新しい列で増分アップロードを実行することはできません。また、すべてのアップロードで PersonId が必要です。

    マッピングのアクティビティ設定を入力する方法を示すスクリーンショット。

7. データ アクティビティの設定をコピーする: 設定とユーザープロパティ

設定またはユーザー プロパティに他のカスタマイズは必要ありません。 必要に応じて、これらの設定をケースバイケースで編集できます。

8. データ アクティビティのコピー: トリガーのセットアップ (オートメーション)

自動化セットアップにトリガーを追加するには、[トリガーの 追加] を選択します。 推奨される自動化は毎週です。 頻度をカスタマイズすることもできます。

トリガーを設定する方法を示すスクリーンショット。

Validation

データ ソース管理者がデータを送信すると、アプリの検証が開始されます。

このフェーズが完了すると、検証は成功または失敗します。 結果に応じて、[ データ接続 ] 画面の右上隅に成功通知または失敗通知が表示されます。

次に何が起こるかについては、適切なセクションに移動します。

検証成功

検証失敗

検証成功

検証が成功すると、Viva Insights は新しいデータの処理を開始します。 処理には数時間から 1 日かかる場合があります。 処理中に、 インポート履歴 テーブルに "処理" 状態が表示されます。

処理が完了すると、成功または失敗します。 結果に応じて、 インポート履歴 テーブルに "成功" または "失敗" 状態が表示されます。

処理が成功する

[インポート履歴] テーブルに "成功" 状態が見つかると、アップロード プロセスが完了します。

"成功" 状態を受け取ると、次のことができます。

  • 検証結果の概要を表示するには、ビュー (目) アイコンを選択します。
  • マッピング アイコンを選択すると、ワークフローのマッピング設定が表示されます。

注:

各テナントは、一度に 1 つのインポートしか実行できません。 1 つのデータ ファイルのワークフローを完了する必要があります。つまり、次のデータ ファイルのワークフローを開始する前に、検証と処理の成功に導くか、破棄します。 アップロード ワークフローの状態またはステージは、[ データ接続 ] タブに表示されます。

処理が失敗する

処理が失敗した場合は、[ インポート履歴 ] テーブルに "処理に失敗しました" 状態が表示されます。 処理を成功させるために、データ ソース管理者はエラーを修正し、データを Viva Insights に再度プッシュする必要があります。

注:

処理エラーは通常、バックエンド エラーが原因です。 永続的な処理エラーが発生し、インポートしたファイル内のデータを修正した場合は、 サポート チケットを Microsoft に記録してください

検証失敗

データの検証が失敗した場合は、[ インポート履歴 ] テーブルに "検証に失敗しました" 状態が表示されます。 検証を成功させるために、データ ソース管理者はエラーを修正し、データを Viva Insights に再度プッシュする必要があります。 [ アクション] で、ダウンロード アイコンを選択してエラー ログをダウンロードします。 このログをデータ ソース管理者に送信して、データをもう一度送信する前に修正する内容を把握します。

データ ソース管理者は、エクスポート ファイル内のデータ エラーを修正するのに役立つ次のセクションを見つける場合があります。

データのエラーについて

適用対象: データ ソース管理者

任意のデータ行または列に属性の無効な値がある場合、データ ソース管理者がソース データを修正するまで、インポート全体が失敗します。

発生したエラーの解決に役立つ特定の書式設定ルールについては、「 組織データを準備 する」を参照してください。

検証エラーと警告の詳細については、こちらをご覧ください

組織データを準備する

組織データのインポート (後続のインポート)