Power Automate Process Mining 讓您可以選擇透過 Fabric Lakehouse,直接從 Fabric OneLake 儲存和讀取事件記錄資料。 此功能直接連接至 OneLake 以簡化擷取、轉換、載入 (ETL) 管理。
此功能目前支援擷取下列各項:
表格
-
Delta 資料表
- Fabric Lakehouse 中的單一 Delta 資料表。
檔案和資料夾
-
CSV
- 單一 CSV 檔案。
- 包含多個有相同結構之 CSV 檔案的資料夾。 擷取所有檔案。
-
Parquet
- 單一 Parquet 檔案。
- 包含多個有相同結構之 Parquet 檔案的資料夾。 擷取所有檔案。
-
Delta-parquet
- 包含 Delta-parquet 結構的資料夾。
必要條件
確保在 OneLake 租用戶設定中已開啟使用者可以使用 Fabric 外部的應用程式存取 OneLake 中儲存的資料選項。
與預設我的工作區不同的 Fabric 工作區。
必須將管理員角色賦予為同一個環境中其他使用者執行環境初始工作區設定的使用者。
Fabric 工作區需要與具有管理員角色的 Process Insight Prod 服務主體共用。 若要註冊程序深入解析生產服務主體,請依照安裝 Azure 工具中的步驟操作。
必須在此工作區中建立 Fabric Lakehouse,並使用受支援格式的資料。
重要
目前不支援以下項目:啟用了 Schema 支援的 Fabric Lakehouse。
Lakehouse 中的 CSV 資料應符合以下 CSV 檔案格式要求:
- 壓縮類型:無
- 資料欄分隔符號:逗號 (,)
- 資料列分隔符號:預設和編碼。 例如,預設 (\r、\n 或 \r\n)
所有資料都必須是最終事件記錄檔格式,並符合資料要求中所列的要求。 資料應準備好對應至程序挖掘結構描述。 擷取後就無法進行資料轉換。
標題行的大小 (寬度) 目前限制為 1 MB。
重要
確保 CSV 檔案中顯示的時間戳記符合 ISO 8601 標準格式 (例如 YYYY-MM-DD HH:MM:SS.sss 或 YYYY-MM-DDTHH:MM:SS.sss)。
連接至 Fabric OneLake
在左側瀏覽窗格中,選取 Process Mining>由此開始。
在程序名稱欄位中輸入您的程序名稱。
在資料來源標題下,選擇匯入資料>OneLake>繼續。
選取選用 Power BI 工作區,或選取略過。
在連接設定畫面中,從下拉式功能表選取 Fabric 工作區。 這會填入湖存放庫下拉式功能表。 從功能表中,選擇包含資料的 Lakehouse,然後選擇下一步。
瀏覽 Lakehouse 資料夾結構,然後選擇包含事件記錄資料的 Delta 表、檔案或資料夾。
您可以選擇單一 Delta 表、單一檔案或包含多個檔案的資料夾。 所有檔案都必須有相同的標頭和格式。
選取下一步。
在對應資料畫面中,將您的資料對應至所需的結構描述。
選取儲存並分析來完成連線。
定義累加式資料重新整理設定
您可以透過完整或累加式重新整理,依排程重新整理從 Fabric OneLake 擷取的程序。 雖然沒有保留原則,但您可以使用下列其中一種方法以累加方式來擷取資料:
如果您在上一節中選擇了單一 Delta 表,請將更多資料附加到所選資料表中。
如果您在上一節中選取了單一檔案,請將更多資料附加到所選檔案。
如果您在上一節中選取了資料夾,請將增量檔案新增至所選資料夾。
重要
將累加檔案新增至所選資料夾或子資料夾時,請務必使用日期來命名檔案,以指示遞增順序,例如 YYYMMDD.csv 或 YYYYMMDDHHMMSS.csv。
若要重新整理程序:
前往程序的詳細資料頁面。
選取重新整理設定。
在排程重新整理畫面上,完成下列步驟:
- 開啟讓您的資料保持最新狀態切換開關。
- 在重新整理資料間隔下拉式清單中,選取重新整理的頻率。
- 在開始欄位中,選取重新整理的日期與時間。
- 開啟累加式重新整理切換開關。