次の方法で共有


Azure BLOB インポートを使用して組織データをインポートする

重要

この機能は、パブリック プレビューのお客様専用です。 プレビューの機能が完了していない可能性があり、より広範なリリースで利用できるようになる前に変更が加えられる可能性があります。 このプレビュー機能を使用すると、個人データの処理が可能になります。 詳細については、 Microsoft 製品およびサービスデータ保護補 遺の「プレビュー」セクションを参照してください。

組織のデータは、既定のソースであるMicrosoft Entra ID、Insights 管理者が Viva Insights に直接アップロードする個々の .csv ファイル、API ベースのインポート、Workday 経由、またはソース システム管理者、およびAzure共同作成者が設定したAzure BLOB インポートのいずれか 5 つの方法で Viva Insights Web アプリに表示できます。

この記事では、BLOB インポートAzure 5 番目のオプションについて説明します。

Azure BLOB インポートでは、Azure共同作成者がAzure portalに BLOB コンテナーを作成し、ソース システム管理者が BLOB コンテナーの場所に .csv ファイルを定期的にエクスポートするように構成します。 その後、Viva Insights を設定して、この場所内の .csv ファイルからorganizationデータを自動的にプルできます。

ワークフロー

  1. セットアップ:

    1. Azure共同作成者は、Azure portalにセキュリティで保護された BLOB コンテナーを作成します。 BLOB ストアの場所は機密性の高い組織データ用にセキュリティで保護されている必要があり、顧客のAzure サブスクリプションで設定する必要があります。

    2. Azure共同作成者がサービス プリンシパルの承認を優先する場合、Azure共同作成者はサービス プリンシパルを承認し、セキュリティで保護された方法で共有することで、Insights 管理者とソース システム管理者に BLOB URL を提供します。 Azure共同作成者がサービス プリンシパルの承認を希望しない場合は、SAS URL を生成し、Insights 管理者とソース システム管理者に提供します。

    3. ソース システム管理者は、.csv ファイルとマッピング ファイル.jsonデータを準備し、HR ソース システムから BLOB コンテナーへの .csv ファイルの定期的なエクスポートを構成します。

    4. Insights 管理者は、Viva Insights アプリに URL を入力して、Azure BLOB ストアの場所からのインポートを有効にします。 Insights 管理者は、ソース システム管理者によって提供された.json マッピング ファイルもアップロードします。

  2. 検証: Viva Insights はデータを検証します。 (検証が成功しない場合は、「 検証に失敗する」で説明されているいくつかのオプションから選択できます)。

  3. 処理: Viva Insights はデータを処理します。 (処理が成功しない場合は、「 処理が失敗する」で説明されているいくつかのオプションから選択できます)。

データが正常に検証および処理されると、データ インポート タスク全体が完了します。

セットアップ

1. セキュリティで保護された BLOB コンテナーを作成する

適用対象: 共同作成者Azure

  1. ブラウザーを開き、organizationのAzure portalにサインインします。

  2. [Azure サービス] で、[ストレージ アカウント] を選択します。

  3. 左上 の [ストレージ アカウント ] で、[ 作成 ] を選択して新しいストレージ アカウントを作成します。

  4. [ プロジェクトの詳細] で、既定の設定を使用します。

  5. [ インスタンスの詳細] で、ストレージ アカウント名を入力し、リージョンを選択します。 [パフォーマンスと冗長性] では、変更を加える必要がない限り、既定の設定を使用できます。

  6. 下部にある [ 次へ: 詳細設定] を選択します。

  7. [詳細設定] ページで、[REST API 操作にセキュリティで保護された転送を要求する]、[ストレージ アカウント キー のアクセスを有効にする]、[階層型名前空間を有効にする] を選択します。[最小 TLS バージョン] で、バージョン 1.2 以上を選択します。

  8. その他のすべての詳細設定では、変更する必要がない限り、既定の設定を使用できます。

  9. 下部にある [ 次へ: ネットワーク] を選択します。

  10. [ ネットワーク接続] で、[ すべてのネットワークからのパブリック アクセスを有効にする] または [選択した仮想ネットワークと IP アドレスから有効にする] を選択します。 2 つ目のオプションを選択した場合は、[ ファイアウォール] で [ クライアント IP アドレスの追加 ] を選択し、Insights 管理者が共有する許可リストの IP アドレスを指定します。

  11. [ ネットワーク ルーティング] で、ルーティング設定を選択します。

  12. 下部にある [ 次へ: データ保護] を選択します。

  13. [データ保護] ページでは、変更を行う必要がない限り、既定の設定を使用できます。

  14. 下部にある [ 次へ: 暗号化] を選択します。

  15. [暗号化] ページでは、変更を行う必要がない限り、既定の設定を使用できます。

  16. 下部にある [ 次へ: タグ] を選択します。

  17. 省略可能: アカウントにタグを追加します。

  18. 下部にある [ 次へ: 確認] を選択します。

  19. 選択内容を確認します。 次に、左下にある [ 作成] を選択します。

  20. 次のページに、"デプロイが進行中です" というメッセージが表示されます。 デプロイが完了すると、ストレージ アカウントとその設定が表示されます。

  21. 左側の [ データ ストレージ] で、[コンテナー] を選択 します

  22. 新しいコンテナーを作成するには、上部にある [コンテナー] を選択 します。 次に、右側にコンテナーの名前 ("hrupload" など) を入力します。 下部にある [ 作成] を選択します。

2. BLOB コンテナーを承認する

適用対象: Azure共同作成者とストレージ BLOB データ共同作成者

次に、承認用の BLOB SAS URL、またはサービス プリンシパルの承認を使用している場合は BLOB URL を作成する必要があります。 サービス プリンシパルの承認は、推奨される、より安全な方法です。 BLOB SAS トークンには、組み込みの監査機能がありません。 選択した方法については、次の適切な手順に従います。

サービス プリンシパルの承認の場合:

  1. 左側のパネルで、[Access Control] を選択します。

  2. 上部の [ロールの 割り当て] を選択します。 [ 追加] を選択し、[ ロールの割り当ての追加] を選択します。

  3. ロールの一覧で、[ ストレージ BLOB データ 閲覧者] を見つけて選択します。

  4. [メンバー] の横にある [ メンバーの選択] を 選択します。 右側の検索フィールドに「 Workplace Analytics」と入力して選択します。

  5. 左下の [ 確認と割り当て] を選択します。

  6. 左側のパネルの [ データ ストレージ] で、[ コンテナー] を選択します。

  7. 上記の手順で作成したストレージ コンテナーを選択します。

  8. 左側のパネルの [ 設定] で、[ プロパティ] を選択します。

  9. その URL をコピーして、Insights 管理者とソース システム管理者と安全に共有します。

SAS URL 承認の場合:

  1. 作成した新しいストレージ コンテナーが表示されたら、それを選択します。 次に、左側の [設定] で [ アクセス ポリシー] を選択します。

  2. [ 保存されたアクセス ポリシー] で、[ ポリシーの追加] を選択します。 "BlobStore" などの一意の識別子を指定します。 [ 読み取り ] と [ リストのアクセス許可] を選択します 。 過去数分の開始時刻と 1 年後の終了時刻を選択します。

  3. 左側の [ 設定] で、[ 共有アクセス トークン] を選択します。

  4. [ 署名キー] の下の既定のオプションを使用できます。 [ 保存されたアクセス ポリシー] で、上記で作成したポリシーを選択します。 これにより、有効期限ウィンドウとアクセス許可の一覧が自動的に設定されます。

  5. [ 許可された IP アドレス ] と [許可されるプロトコル] では、既定の設定を使用できます。

  6. [ SAS トークンと URL の生成] を選択します

  7. BLOB SAS URL をコピーして安全に Insights 管理者と共有します。

  8. ソース システム管理者に、このコンテナー内のデータを設定するユーザーを知らせます。 ストレージ BLOB データ共同作成者アクセスが必要です。

3. BLOB の場所からデータをインポートするように Viva Insights を設定する

適用対象: Insights 管理者

  1. データ ハブ ページまたは [データ接続] の [組織データ] ページの 2 つの場所のいずれかからインポート開始します。

    1. データ ハブから:

      1. [データ ソース] セクションの [Azure BLOB インポート] で、[開始] を選択します
    2. データ接続から:

      1. [ 現在のソース] の横にある [ データ ソースの管理] を選択します。
      2. Azure BLOB インポート ウィンドウが表示されます。 [スタート] を選択します。
  2. [ 接続名] に、インポートの一意の名前を入力します。

  3. [ 承認の種類] で、[ サービス プリンシパルの承認] または [SAS URL の承認] を選択します。 ここでの選択は、上記の手順 2 でAzure共同作成者によって使用される承認方法によって異なります。

  4. 許可リストの IP アドレスをAzure共同作成者に送信します。

  5. 手順 2 でAzure共同作成者から提供されたインポートの BLOB SAS URL または BLOB URL を入力します。

  6. ソース システム管理者から提供された.json マッピング ファイルをアップロードします。

  7. [ 有効] を選択し、[保存] を選択 します

  8. エラー メッセージが表示された場合は、上記のすべての手順に従っていることを確認チェックし、入力した BLOB SAS URL または BLOB URL が正確であることを確認するためにチェックします。 [ 再試行] を選択します

4. 組織データ .csv ファイルと.jsonマッピング ファイルを準備し、BLOB ストアに送信する

適用対象: ソース システム管理者

タスク 1 - データを準備する

データのエクスポートとインポートを開始する前に、「組織のデータ ファイルのアップロードを準備する」の手順 1 ~ 4 に従って ファイルを準備してください。 また、このドキュメントを使用して、必須および予約済みの省略可能な属性について学習することもできます。

データを準備するためのヒント

タスク 2 - ソース システムからデータをエクスポートする

(月に 1 回、週に 1 回など) 決定した頻度で、ソース システムから組織データを .csv ファイルとしてプログラムによってエクスポートします。 この サンプル .csv テンプレートを参照してください。 ガイドラインに従ってファイルを書式設定 します

手順 1 でAzure共同作成者によって作成された BLOB の場所にファイルを手動でアップロードするには、Azure共同作成者またはストレージ BLOB データ共同作成者に .csv ファイルを送信し (これらのロールが既に割り当てられている場合を除く)、次の手順に従うように依頼します。

  1. ブラウザーを開き、Azure共同作成者によって提供される BLOB SAS URL を入力します。

  2. 上部の [アップロード] を選択 します。 次に、右側で、上記の手順を使用して作成した .csv ファイルをアップロードします。

マッピング ファイル.json準備し、Insights 管理者に送信する

実行している更新の種類と、Viva Insights でフィールドをマップする方法を示します。

  • “DatasetType”: “HR” (2 行目)。 これはそのままにしておきます。

  • “IsBootstrap”: (3 行目)。 完全更新を示すには "true" を使用し、増分更新を示すには "false" を使用します。

  • "Mapping": Viva Insights で使用されているもの以外の名前を使用する場合は、ソース システムで使用されているものと一致するように各列ヘッダー名を変更します。

重要

.csv ファイルに存在しないフィールドを削除します。

マッピングの例

次の例は、サンプル .json ファイルに表示される 1 つのフィールドを表します。

"PersonId": { 
    "name": "PersonId", 
    "type": "EmailType"
  • "PersonId": { はソース列名に対応します。

  • “name” : “PersonId”は Viva Insights フィールド名に対応します。

  • "type": "EmailType" はフィールドのデータ型に対応します。

たとえば、PersonId の代わりに、ソース システムがこのフィールド ヘッダーに Employee を使用しているとします。 フィールドが正しくマップされていることを確認するには、下の最初の行を編集して、次のようになります。

"Employee": {
    "name": "PersonId",
    "type": "EmailType"

データをアップロードすると、従業員フィールドは Viva Insights の PersonId になります。

次に、.json マッピング ファイルを Insights 管理者に送信して、Azure BLOB インポートの接続を設定しながら Insights にアップロードします。

5. 検証

適用対象: Insights 管理者

ソース システム管理者がデータをエクスポートし、インポートを設定すると、アプリの検証が開始されます。 ほとんどの場合、ファイルの検証は迅速に完了する必要があります。

このフェーズが完了すると、検証は成功または失敗します。 結果に応じて、[組織データ] > [データ接続] の [インポート履歴] テーブルに成功状態または失敗状態が表示されます。

次に何が起こるかについては、適切なセクションに移動します。

検証成功

検証が成功すると、Viva Insights は新しいデータの処理を開始します。 処理には数時間から 1 日かかる場合があります。 処理中に、 インポート履歴 テーブルに "処理" 状態が表示されます。

処理が完了すると、成功または失敗します。 結果に応じて、 インポート履歴 テーブルに "成功" または "失敗" 状態が表示されます。

処理が成功する

[インポート履歴] テーブルに "成功" 状態が見つかると、アップロード プロセスが完了します。

"成功" 状態を受け取ると、次のことができます。

  • 検証結果の概要を表示するには、ビュー (目) アイコンを選択します。
  • マッピング アイコンを選択すると、ワークフローのマッピング設定が表示されます。

注:

各テナントは、一度に 1 つのインポートしか実行できません。 1 つのデータ ファイルのワークフローを完了する必要があります。つまり、次のデータ ファイルのワークフローを開始する前に、検証と処理の成功に導くか、破棄します。 アップロード ワークフローの状態またはステージは、[ データ接続 ] タブに表示されます。

処理が失敗する

処理が失敗した場合、 インポート履歴 テーブルに "処理に失敗しました" 状態が表示されます。 処理を成功させるために、ソース システム管理者はエラーを修正し、データを Viva Insights に再度プッシュする必要があります。

注:

処理エラーは通常、バックエンド エラーが原因です。 永続的な処理エラーが発生し、インポートしたファイル内のデータを修正した場合は、 サポート チケットを Microsoft に記録してください

検証失敗

データの検証が失敗した場合は、[ インポート履歴 ] テーブルに "検証に失敗しました" 状態が表示されます。 検証を成功させるために、ソース システム管理者はエラーを修正し、データを Viva Insights に再度プッシュする必要があります。 [ アクション] で、ダウンロード アイコンを選択してエラー ログをダウンロードします。 このログをソース システム管理者に送信して、データを再度送信する前に修正する必要があることを確認します。

ソース システム管理者は、エクスポート ファイル内のデータ エラーを修正するのに役立つ次のセクションを見つける場合があります。

データのエラーについて

適用対象: ソース システム管理者

任意のデータ行または列に属性に無効な値がある場合、データ ソース管理者がソース データを修正するまで、インポート全体が失敗します。

発生したエラーの解決に役立つ特定の書式設定ルールについては、「 組織データを準備 する」を参照してください。

検証エラーと警告の詳細については、こちらをご覧ください

中断状態

[インポート履歴] テーブルに "中断" 状態が表示された場合、または [データ ソースの管理] を選択すると、承認資格情報の有効期限が切れているか、アクセスが取り消されたことを意味します。 資格情報を更新し、データ ソースを再接続する必要があります。

データ ソースを管理し、変更を加えます

適用対象: Insights 管理者

データインポートを設定したら、次の手順に従って、新しい BLOB ストア URL の設定や自動インポートのオフなどの変更を行います。

  1. [ 組織データ ] ページの [ データ接続] で、[ データ ソースの管理] を選択します。
  2. [Azure BLOB インポート] で、[管理] を選択します

次のページでは、接続名、BLOB SAS URL、または BLOB URL を編集できます。 SAS URL または URI を更新すると、新しい場所が将来のデータ更新に使用されます。

自動インポートのオンとオフを切り替えることもできます。 完了したら、[保存] を選択します。

既存の BLOB SAS URL または BLOB URL を使用して組織データを置き換えたり編集したりするには、ソース システム管理者にお問い合わせください。Viva Insights にデータをインポートすると、完全更新または増分更新が実行されます。 フィールドを削除する場合は、完全更新を使用して削除できます。

完全更新または増分更新を示す方法

  1. .json マッピング ファイルで、3 行目に移動します。
  2. “IsBootstrap”: プロパティを次のいずれかに更新します。
    1. 完全に更新するには、 “IsBootstrap” : “true”を使用します。
    2. 増分更新の場合は、  “IsBootstrap” : “false”を使用します。

インポートを実行すると、viva Insights は、.json マッピング ファイルで指定した内容に応じて、完全更新または増分更新としてデータの処理を開始します。

更新の種類

Full

完全更新を実行すると、Viva Insights のすべてのorganizationのデータが置き換わることになります。つまり、既にインポートしたデータを上書きします。 完全な更新を実行する場合は、ライセンスを持っている従業員とライセンスのない従業員 (Viva Insights サブスクリプションを持っている従業員とそうでない従業員) のデータを必ず提供してください。 この記事の後半で提供するフィールドについて説明します。

完全更新を使用してフィールドを削除できます。これは、除外したフィールドがデータに表示されないためです。 次のセクションでは、データの削除について説明します。

完全更新を使用したフィールドの削除

完全更新でフィールドを削除するには、削除するフィールドを除くすべてのフィールドを含む .csv としてデータをエクスポートします。 完全更新は既存のデータを置き換えるため、インポート時に取り消したフィールドを除くすべてのフィールドになります。

増分

Viva Insights に既にアップロードした組織データに新しい情報のみを追加する場合は、増分更新を実行します。 増分更新で実行できる操作を次に示します。

  • 新しい従業員を追加する
  • 既存の従業員の新しい属性を追加する
  • 新しい従業員の新しい属性を追加する
  • 既存の従業員の属性を編集する

増分更新を実行する場合の例をいくつか次に示します。

例 - 新入社員の追加

たとえば、5 人の新入社員を組織データに追加するとします。 インポート中に、次のものが含まれます。

  • 新しい従業員データを含む 5 行。
  • 必須の属性: PersonId、ManagerId、Organization、EffectiveDate。
  • Viva Insights に既にインポートしたすべての予約済みの省略可能なフィールド (HireDate など)。

インポートが完了すると、5 つの新しい行とその値のみが変更されます。

例 - 新しい属性を追加する

たとえば、既存のすべての従業員に対して、データに含まれていない省略可能な予約属性 ( Location など) を追加したい場合があります。 データをインポートする場合は、 LocationPersonIdEffectiveDate のみを含め、各従業員の現在の値と履歴値を .csv ファイルに含めます。 インポートが完了すると、以前と同じデータが見つかります。ただし、各従業員の新しい列である Location は例外 です

完全更新と増分更新のために .csv ファイルに含めるフィールド

次に示す更新の種類については、.csv ファイル内の次の表のフィールドを含めます。 これらのフィールドは、「 組織データの準備」のガイドラインに従って書式設定します。

この種の更新の場合 これらのフィールドを .csv ファイルに含める これらの値を使用する これらの従業員向け
Full Personid 現在の

すべての履歴
すべて
ManagerId 現在の

すべての履歴
すべて
組織 現在の

すべての履歴
すべて
EffectiveDate 現在の

すべての履歴
すべて
Viva Insights に既にインポート済みのすべての予約済みオプション フィールド ( HireDate など) 現在の

すべての履歴
すべて
Full (予約済みの省略可能なフィールドを削除する場合) Personid 現在の

すべての履歴
すべて
ManagerId 現在の

すべての履歴
すべて
組織 現在の

すべての履歴
すべて
EffectiveDate 現在の

すべての履歴
すべて
削除する予約済みオプション フィールドを除き、Viva Insights に既にインポート済みのすべての予約済みオプション フィールド ( HireDate など) 現在 (削除対象フィールドを除く)

すべての履歴 (削除対象フィールドを除く)
すべて
増分 (新しいフィールドを追加したり、既存のフィールドを編集したり、新しい従業員を追加 したりしない 場合) Personid 現在の

前回のアップロード以降のすべて (以下の注を参照)
すべて
EffectiveDate 現在の

前回のアップロード以降のすべて (以下の注を参照)
すべて
追加する予約済みの省略可能なフィールド ( HireDate など) 現在の

前回のアップロード以降のすべて (以下の注を参照)
すべて
増分 (新入社員を追加する場合) Personid 現在の

前回のアップロード以降のすべて (以下の注を参照)
新入社員のみ
ManagerId 現在の

前回のアップロード以降のすべて
新入社員のみ
組織 現在の

前回のアップロード以降のすべて
新入社員のみ
EffectiveDate 現在の

前回のアップロード以降のすべて
新入社員のみ
Viva Insights に既にインポート済みのすべての予約済みオプション フィールド ( HireDate など) 現在の

前回のアップロード以降のすべて
新入社員のみ

注:

"すべての履歴": 以前の期間の値。 たとえば、月単位のデータを含める場合は、このデータに至るまでの毎月の値を含めます。 Viva Insights の使用を初めて開始する場合は、13 か月分のデータが推奨されます。 その後、データを定期的に更新して、27 か月分のデータに構築することをお勧めします。

"前回のアップロード以降のすべての値": アップロード間の期間の値。 たとえば、最後のアップロードが 3 月で 7 月になった場合は、4 月、5 月、6 月の値を含めます。

組織データを準備する