หมายเหตุ
การเข้าถึงหน้านี้ต้องได้รับการอนุญาต คุณสามารถลอง ลงชื่อเข้าใช้หรือเปลี่ยนไดเรกทอรีได้
การเข้าถึงหน้านี้ต้องได้รับการอนุญาต คุณสามารถลองเปลี่ยนไดเรกทอรีได้
Power Automate Process Mining ให้ตัวเลือกแก่คุณในการจัดเก็บและอ่านข้อมูลบันทึกเหตุการณ์โดยตรงจาก Fabric OneLake ผ่าน Fabric Lakehouse คุณลักษณะนี้ช่วยลดความยุ่งยากในการจัดการการแยก แปลง โหลด (ETL) โดยเชื่อมต่อโดยตรงกับ OneLake ของคุณ
ปัจจุบันคุณลักษณะนี้รองรับการนำเข้าสิ่งต่อไปนี้:
ตาราง
-
ตาราง Delta
- ตาราง Deltaตารางดียวใน Fabric Lakehouse
ไฟล์และโฟลเดอร์
-
CSV
- ไฟล์ CSV เดียว
- โฟลเดอร์ที่มีไฟล์ CSV หลายไฟล์ที่มีโครงสร้างเดียวกัน ไฟล์ทั้งหมดจะถูกนำเข้า
-
ปาร์เก้
- ไฟล์ parquet เดียว
- โฟลเดอร์ที่มีไฟล์ปาร์เก้หลายไฟล์ที่มีโครงสร้างเดียวกัน ไฟล์ทั้งหมดจะถูกนำเข้า
-
Delta-parquet
- โฟลเดอร์ที่มีโครงสร้าง delta-parquet
ข้อกำหนดเบื้องต้น
ตรวจสอบให้แน่ใจว่าตัวเลือกผู้ใช้สามารถเข้าถึงข้อมูลที่จัดเก็บไว้ใน OneLake ด้วยแอปภายนอก Fabric เปิดอยู่ในการตั้งค่าผู้เช่า OneLake
พื้นที่ทำงาน Fabric ที่แตกต่างจาก พื้นที่ทำงานของฉัน เริ่มต้น
บทบาท ผู้ดูแลระบบ ต้องมาจากผู้ใช้ที่ทำการตั้งค่าพื้นที่ทำงานเริ่มต้นสำหรับสภาพแวดล้อมสำหรับผู้ใช้รายอื่นในสภาพแวดล้อมเดียวกัน
พื้นที่ทำงาน Fabric ต้องใช้ร่วมกับโครงร่างสำคัญของบริการผลิตภัณฑ์ข้อมูลเชิงลึกของกระบวนการที่มีบทบาทผู้ดูแลระบบ หากต้องการลงทะเบียนโครงร่างสำคัญของบริการผลิตภัณฑ์ข้อมูลเชิงลึกของกระบวนการ ให้ทำตามขั้นตอนใน ติดตั้งเครื่องมือ Azure
ต้องสร้าง Fabric Lakehouse ในพื้นที่ทำงานนี้ด้วยข้อมูลในรูปแบบที่สนับสนุน
สำคัญ
รายการต่อไปนี้ไม่ได้รับการสนับสนุนในขณะนี้: Fabric Lakehouses ที่เปิดใช้งานการสนับสนุน Schema
ข้อมูล CSV ใน Lakehouse ของคุณควรตรงตามข้อกำหนดรูปแบบไฟล์ CSV ต่อไปนี้:
- ชนิดการบีบอัด: ไม่มี
- ตัวคั่นคอลัมน์: เครื่องหมายจุลภาค (,)
- ตัวคั่นแถว:: ค่าเริ่มต้นและการเข้ารหัส ตัวอย่างเช่น ค่าเริ่มต้น (\r,\n หรือ \r\n)
ข้อมูลทั้งหมดต้องอยู่ในรูปแบบบันทึกเหตุการณ์ขั้นสุดท้ายและเป็นไปตามข้อกำหนดที่ระบุไว้ใน ข้อกำหนดด้านข้อมูล ข้อมูลควรพร้อมถูกแมปกับสคีมาการทำเหมืองกระบวนการ ไม่มีการแปลงข้อมูลหลังการนำเข้า
ขนาด (ความกว้าง) ของแถวส่วนหัวปัจจุบันจำกัดไว้ที่ 1 MB
สำคัญ
ตรวจสอบให้แน่ใจว่าประทับเวลาที่แสดงในไฟล์ CSV ของคุณเป็นไปตามรูปแบบมาตรฐาน ISO 8601 (เช่น YYYY-MM-DD HH:MM:SS.sss หรือ YYYY-MM-DDTHH:MM:SS.sss)
เชื่อมต่อกับ Fabric OneLake
บนบานหน้าต่างนำทางด้านซ้าย เลือก การทำเหมืองกระบวนการ>เริ่มต้นที่นี่
ในฟิลด์ ชื่อกระบวนการ ป้อนชื่อสำหรับกระบวนการของคุณ
ภายใต้หัวเรื่อง แหล่งข้อมูล ให้เลือก นำเข้าข้อมูล>OneLake>ดำเนินการต่อ
เลือกพื้นที่ทำงาน Power BI เพิ่มเติมหรือเลือก ข้าม
บนหน้าจอ การตั้งค่าการเชื่อมต่อ ให้เลือก พื้นที่ทำงาน Fabric ของคุณจากเมนูดรอปดาวน์ ซึ่งจะเติมข้อมูลเมนูดรอปดาวน์ Lakehouse จากเมนู ให้เลือก Lakehouse ที่มีข้อมูลของคุณ แล้วเลือก ถัดไป
เรียกดูโครงสร้างโฟลเดอร์ Lakehouse และเลือกตาราง ไฟล์ หรือโฟลเดอร์ Delta ที่มีข้อมูลบันทึกเหตุการณ์
คุณสามารถเลือกตาราง Delta เดียว ไฟล์เดียว หรือโฟลเดอร์ที่มีหลายไฟล์ ไฟล์ทั้งหมดต้องมีส่วนหัวและรูปแบบเดียวกัน
เลือก ถัดไป
ในหน้าจอ แมปข้อมูลของคุณ ให้แมปข้อมูลของคุณกับสคีมาที่ต้องการ
ทำการเชื่อมต่อโดยเลือก บันทึกและวิเคราะห์
กำหนดการตั้งค่าการรีเฟรชแบบเพิ่มหน่วย
คุณสามารถรีเฟรชกระบวนการที่นำเข้าจาก Fabric OneLake ตามกำหนดการ ไม่ว่าจะผ่านการรีเฟรชทั้งหมดหรือการรีเฟรชแบบเพิ่มหน่วย แม้ว่าจะไม่มีนโยบายการเก็บข้อมูล แต่คุณสามารถนำเข้าข้อมูลทีละน้อยโดยใช้วิธีใดวิธีหนึ่งต่อไปนี้:
หากคุณเลือก ตาราง Delta ตารางเดียว ในส่วนก่อนหน้า ให้ผนวกข้อมูลเพิ่มเติมเข้ากับตารางที่เลือก
หากคุณเลือก ไฟล์เดียว ในส่วนก่อนหน้า ให้ผนวกข้อมูลเพิ่มเติมเข้ากับไฟล์ที่เลือก
หากคุณเลือก โฟลเดอร์ ในส่วนก่อนหน้า ให้เพิ่มไฟล์เพิ่มเติมไปยังโฟลเดอร์ที่เลือก
สำคัญ
เมื่อคุณเพิ่มไฟล์ส่วนเพิ่มลงในโฟลเดอร์หรือโฟลเดอร์ย่อยที่เลือก ตรวจสอบให้แน่ใจว่าคุณระบุลำดับการเพิ่มโดยตั้งชื่อไฟล์ด้วยวันที่ เช่น YYYMMDD.csv หรือ YYYYMMDDHHMMSS.csv
หากต้องการรีเฟรชกระบวนการ:
ไปที่หน้า รายละเอียด ของกระบวนการ
เลือก การตั้งค่าการรีเฟรช
ในหน้าจอ จัดกำหนดการรีเฟรช ให้ทำตามขั้นตอนต่อไปนี้:
- เปิดสวิตช์สลับ ปรับปรุงข้อมูลให้ทันสมัยอยู่เสมอ
- ในรายการดรอปดาวน์ รีเฟรชข้อมูลทุก ให้เลือกความถี่ของการรีเฟรช
- ในฟิลด์ เริ่มต้นที่ ให้เลือกวันที่และเวลาของการรีเฟรช
- เปิดสวิตช์สลับ การรีเฟรชแบบเพิ่มหน่วย