แชร์ผ่าน


คู่มือการตัดสินใจของ Microsoft Fabric: เลือกที่เก็บข้อมูล

ใช้คู่มืออ้างอิงนี้และสถานการณ์ตัวอย่างเพื่อช่วยคุณเลือกที่เก็บข้อมูลสําหรับปริมาณงาน Microsoft Fabric ของคุณ ซึ่งทั้งหมดนี้พร้อมใช้งานในที่เก็บข้อมูลแบบรวมใน OneLake

ไดอะแกรมของการตัดสินใจสําหรับกรณีการใช้งานในอุดมคติสําหรับคุณสมบัติ Fabric ข้อความที่สมบูรณ์มีอยู่ในตารางต่อไปนี้

กรณีการใช้งานในอุดมคติ ปริมาณงาน Microsoft Fabric ข้อมูลที่พร้อมใช้งานใน OneLake ในรูปแบบตารางแบบเปิดตามค่าเริ่มต้น
ข้อมูลเหตุการณ์การสตรีม ข้อมูลกิจกรรมที่มีความละเอียดสูง (ในเวลา พื้นที่ รายละเอียด – JSON/ข้อความ) สําหรับการวิเคราะห์แบบโต้ตอบ อีเวนต์เฮ้าส์ ใช่
AI, NoSQL และการค้นหาเวกเตอร์ Cosmos DB ในผ้า ใช่
ฐานข้อมูลธุรกรรมการดําเนินงาน ฐานข้อมูล OLTP ฐานข้อมูล SQL ใน Fabric ใช่
คลังข้อมูลองค์กร, BI ที่ใช้ SQL, OLAP, รองรับธุรกรรม SQL เต็มรูปแบบ คลังข้อมูล ใช่
ข้อมูลขนาดใหญ่และการเรียนรู้ของเครื่อง, ข้อมูลที่ไม่ได้/กึ่ง/มีโครงสร้าง, วิศวกรรมข้อมูล เลคเฮ้าส์ ใช่

บุคลิกและชุดทักษะ

ปริมาณงาน Microsoft Fabric บุคลิกของนักพัฒนาหลัก ชุดทักษะหลัก เครื่องมือ ภาษาหลัก
อีเวนต์เฮ้าส์ นักพัฒนาแอป, นักวิทยาศาสตร์ข้อมูล, วิศวกรข้อมูล ไม่มีรหัส KQL SQL KQL (ภาษาสืบค้น Kusto), T-SQL
Cosmos DB ในผ้า นักพัฒนา AI, นักพัฒนาแอป แนวคิด NoSQL, REST API คล้ายกับ Azure Cosmos DB การรวม REST API ผ่าน JavaScript/TypeScript, Python, C#, Java และอื่นๆ
ฐานข้อมูล SQL ใน Fabric นักพัฒนา AI, นักพัฒนาแอป, นักพัฒนาฐานข้อมูล, ผู้ดูแลระบบฐานข้อมูล การดูแลและพัฒนาฐานข้อมูล คล้ายกับ Azure SQL Database, SSMS, VS Code และเครื่องมือคิวรีที่เข้ากันได้กับ SQL Server T-SQL
คลังข้อมูลผ้า นักพัฒนาคลังข้อมูล, สถาปนิกข้อมูล, วิศวกรข้อมูล, นักพัฒนาฐานข้อมูล แนวคิดคลังข้อมูล, การออกแบบฐานข้อมูลสคีมาแบบดาว, SSMS, VS Code และเครื่องมือสืบค้นที่เข้ากันได้กับ SQL Server T-SQL ไม่มีรหัส
เลคเฮ้าส์ วิศวกรข้อมูล, นักวิทยาศาสตร์ข้อมูล PySpark, ทะเลสาบเดลต้า, โน้ตบุ๊ก Spark (Scala, PySpark, Spark SQL, R)

สถานการณ์สมมติ

ตรวจสอบสถานการณ์เหล่านี้สําหรับความช่วยเหลือเกี่ยวกับการเลือกที่เก็บข้อมูลใน Fabric

สถานการณ์จำลอง 1

Susan นักพัฒนามืออาชีพ เป็นนักพัฒนาใหม่สําหรับ Microsoft Fabric พวกเขาพร้อมที่จะเริ่มต้นการทําความสะอาด การวางรูปแบบ และการวิเคราะห์ข้อมูล แต่จําเป็นต้องตัดสินใจสร้างคลังข้อมูลหรือเลคเฮ้าส์ หลังจากการตรวจทานรายละเอียดในตารางก่อนหน้านี้แล้ว จุดสําหรับการตัดสินใจหลักคือชุดทักษะที่พร้อมใช้งานและความจําเป็นสําหรับธุรกรรมแบบหลายตาราง

Susan ได้ใช้เวลาหลายปีในการสร้างคลังข้อมูลในเครื่องมือฐานข้อมูลเชิงสัมพันธ์ และมีความคุ้นเคยกับไวยากรณ์และฟังก์ชันการทํางานของ SQL เมื่อคิดเกี่ยวกับทีมขนาดใหญ่ ผู้บริโภคหลักของข้อมูลนี้ยังมีทักษะด้วยเครื่องมือวิเคราะห์ SQL และ SQL ซูซานตัดสินใจที่จะใช้ คลังสินค้า Fabric ซึ่งช่วยให้ทีมสามารถโต้ตอบกับ T-SQL เป็นหลัก ในขณะที่ยังอนุญาตให้ผู้ใช้ Spark ใด ๆ ในองค์กรสามารถเข้าถึงข้อมูลได้

Susan สร้างคลังข้อมูลใหม่และโต้ตอบกับคลังข้อมูลนั้นโดยใช้ T-SQL เช่นเดียวกับฐานข้อมูลเซิร์ฟเวอร์ SQL อื่น ๆ ของเธอ ส่วนใหญ่ของรหัส T-SQL ที่มีอยู่เธอเขียนขึ้นเพื่อสร้างคลังสินค้าของเธอใน SQL Server จะทํางานบนคลังข้อมูล Fabric ทําให้การเปลี่ยนแปลงเป็นเรื่องง่าย ถ้าเธอเลือกที่จะ เธอสามารถใช้เครื่องมือเดียวกันกับที่ทํางานกับฐานข้อมูลอื่น ๆ ของเธอได้ เช่น SQL Server Management Studio ใช้ตัวแก้ไข SQL ในพอร์ทัล Fabric, Susan และสมาชิกทีมคนอื่น ๆ เขียนคิวรีการวิเคราะห์ที่อ้างอิงถึงคลังข้อมูลอื่น ๆ และตาราง Delta ใน lakehouses เพียงแค่ใช้ชื่อสามส่วนเพื่อดําเนินการคิวรีข้ามฐานข้อมูล

สถานการณ์จำลอง 2

Rob วิศวกรข้อมูลจําเป็นต้องจัดเก็บและจําลองข้อมูลหลายเทราไบต์ใน Fabric ทีมมีการผสมผสานระหว่างทักษะ PySpark และ T-SQL ทีมส่วนใหญ่ที่ใช้คิวรี T-SQL เป็นผู้บริโภค ดังนั้นจึงไม่จําเป็นต้องเขียนคําสั่ง INSERT, UPDATE หรือ DELETE นักพัฒนาที่เหลือจะสะดวกในการทํางานในสมุดบันทึก และเนื่องจากข้อมูลถูกเก็บไว้ใน Delta พวกเขาสามารถโต้ตอบกับไวยากรณ์ SQL ที่คล้ายกัน

Rob ตัดสินใจที่จะใช้ เลคเฮ้าส์ ซึ่งช่วยให้ทีมวิศวกรรมข้อมูลสามารถใช้ทักษะที่หลากหลายของพวกเขากับข้อมูล ในขณะที่ยังอนุญาตให้สมาชิกทีมที่มีทักษะสูงใน T-SQL สามารถใช้ข้อมูลได้

สถานการณ์จำลอง 3

Daisy เป็นนักวิเคราะห์ธุรกิจที่มีประสบการณ์ในการใช้ Power BI ในการวิเคราะห์ปัญหาคอขวดของห่วงโซ่อุปทานสําหรับห่วงโซ่การค้าปลีกขนาดใหญ่ทั่วโลก พวกเขาจําเป็นต้องสร้างโซลูชันข้อมูลที่ปรับขนาดได้ ซึ่งสามารถจัดการแถวข้อมูลหลายพันล้านแถว และสามารถใช้เพื่อสร้างแดชบอร์ดและรายงานที่สามารถใช้เพื่อทําการตัดสินใจทางธุรกิจ ข้อมูลมาจากโรงงาน ซัพพลายเออร์ ผู้ขนส่ง และแหล่งข้อมูลอื่น ๆ ในรูปแบบที่มีโครงสร้าง กึ่งมีโครงสร้าง และไม่มีโครงสร้าง

Daisy ตัดสินใจที่จะใช้ Eventhouse เนื่องจากความสามารถในการปรับขนาด เวลาตอบสนองที่รวดเร็ว ความสามารถในการวิเคราะห์ขั้นสูงรวมถึงการวิเคราะห์อนุกรมเวลา ฟังก์ชันเชิงพื้นที่ และโหมดคิวรีโดยตรงอย่างรวดเร็วใน Power BI คิวรีสามารถดําเนินการได้โดยใช้ Power BI และ KQL เพื่อเปรียบเทียบระหว่างช่วงเวลาปัจจุบันและก่อนหน้านี้ ระบุปัญหาที่เกิดขึ้นใหม่อย่างรวดเร็ว หรือให้การวิเคราะห์ทางภูมิศาสตร์ของเส้นทางที่ดินและทางทะเล

สถานการณ์จำลอง 4

Kirby เป็นสถาปนิกแอปพลิเคชันที่มีประสบการณ์ในการพัฒนาแอปพลิเคชัน .NET สําหรับข้อมูลการดําเนินงาน พวกเขาต้องการฐานข้อมูลภาวะพร้อมกันสูงพร้อมการปฏิบัติตามธุรกรรมของ ACID อย่างเต็มรูปแบบและคีย์นอกที่มีการบังคับใช้อย่างรุนแรงเพื่อความสมบูรณ์เชิงสัมพันธ์ Kirby ต้องการประโยชน์ของการปรับแต่งประสิทธิภาพโดยอัตโนมัติเพื่อลดความซับซ้อนของการจัดการฐานข้อมูลประจําวัน

Kirby ตัดสินใจเกี่ยวกับ ฐานข้อมูล SQL ใน Fabric โดยใช้ SQL Database Engine เดียวกับฐานข้อมูล Azure SQL ฐานข้อมูล SQL ใน Fabric จะปรับขนาดโดยอัตโนมัติเพื่อตอบสนองความต้องการตลอดวันทําการ พวกเขามีความสามารถเต็มรูปแบบของตารางทรานแซคชันและความยืดหยุ่นของระดับการแยกธุรกรรมจากอนุกรมที่สามารถอ่านสแนปช็อตที่กําหนดได้ ฐานข้อมูล SQL ใน Fabric จะสร้างและลบดัชนีที่ไม่เป็นกลุ่มบนพื้นฐานของสัญญาณที่แข็งแกร่งจากแผนการดําเนินการที่สังเกตการณ์อยู่เมื่อเวลาผ่านไปโดยอัตโนมัติ

ในสถานการณ์ของ Kirby ข้อมูลจากแอปพลิเคชันการดําเนินงานต้องเข้าร่วมกับข้อมูลอื่น ๆ ใน Fabric: ใน Spark ในคลังสินค้าและจากเหตุการณ์แบบเรียลไทม์ใน Eventhouse ฐานข้อมูล Fabric ทั้งหมดมีจุดสิ้นสุดการวิเคราะห์ SQL เพื่อให้สามารถเข้าถึงข้อมูลได้แบบเรียลไทม์จาก Spark หรือคิวรี Power BI โดยใช้โหมด DirectLake โซลูชันการรายงานเหล่านี้สํารองฐานข้อมูลการดําเนินงานหลักจากค่าใช้จ่ายของปริมาณงานวิเคราะห์และหลีกเลี่ยงการดีนอร์มอลไลเซต Kirby ยังมีข้อมูลการดําเนินงานในฐานข้อมูล SQL อื่น ๆ และจําเป็นต้องนําเข้าข้อมูลนั้นโดยไม่มีการแปลง ในการนําเข้าข้อมูลการดําเนินงานที่มีอยู่โดยไม่ต้องแปลงประเภทข้อมูล Kirby ออกแบบไปป์ไลน์ด้วย Fabric Data Factory เพื่อนําเข้าข้อมูลไปยังฐานข้อมูล Fabric SQL

ขั้นตอนถัดไป