Udostępnij przez


Projektowanie rozwiązania do analizy biznesowej w przedsiębiorstwie przy użyciu usługi Microsoft Fabric

Microsoft Fabric
Azure Blob Storage
Tożsamość Microsoft Entra
Power BI

W tym artykule opisano sposób przesyłania danych z lokalnego magazynu danych do środowiska w chmurze, a następnie używania modelu analizy biznesowej (BI) do obsługi danych. Można użyć tego podejścia jako celu końcowego lub jako pierwszego kroku w kierunku pełnej modernizacji z składnikami opartymi na chmurze.

Te wskazówki opierają się na kompleksowej wersji scenariusza usługi Microsoft Fabric. Istnieje wiele opcji wyodrębniania danych z lokalnego serwera SQL, takich jak potoki usługi Fabric Data Factory, dublowanie, zadanie kopiowania i strumienie zdarzeń w czasie rzeczywistym sieci szkieletowej zmieniają przechwytywanie danych (CDC) dla usługi SQL. Po wyodrębnieniu dane są przekształcane do analizy.

Architecture

Diagram przedstawiający architekturę analizy biznesowej przedsiębiorstwa z usługą Fabric.

Pobierz plik programu Visio tej architektury.

Workflow

Poniższy przepływ pracy odpowiada poprzedniemu diagramowi.

Źródło danych

  • Baza danych programu SQL Server na platformie Azure zawiera dane źródłowe. Aby zasymulować środowisko lokalne, skrypty wdrażania dla tego scenariusza umożliwiają skonfigurowanie bazy danych Azure SQL Database. Przykładowa baza danych AdventureWorks jest używana jako schemat danych źródłowych i przykładowe dane. Aby uzyskać więcej informacji, zobacz Kopiowanie i przekształcanie danych do i z programu SQL Server.

Pozyskiwanie i przechowywanie danych

  • Fabric OneLake to jedno, ujednolicone, logiczne jezioro danych dla całej organizacji. Ten SaaS oferuje różne opcje magazynowania danych, takie jak Fabric Lakehouse dla obciążeń typu lakehouse na potrzeby inżynierii danych, Fabric Warehouse dla obciążeń magazynu danych oraz Fabric Eventhouse dla dużych zbiorów danych szeregów czasowych i zestawów danych dzienników.

  • Potoki Fabric Data Factory umożliwiają tworzenie złożonych przepływów pracy do wyodrębniania, transformacji, ładowania (ETL) oraz przepływów fabryki danych, które mogą wykonywać wiele różnych zadań w dużej skali. Funkcje przepływu sterowania są wbudowane w potoki danych, które umożliwiają tworzenie logiki przepływu pracy, zapewniającej pętle i instrukcje warunkowe. W tej architekturze struktury oparte na metadanych umożliwiają przyrostowe pozyskiwanie wielu tabel na dużą skalę.

  • Dublowanie danych w Fabric Data Factory pozwala uniknąć złożonych procesów ETL i zintegrować istniejącą infrastrukturę SQL Server z pozostałymi danymi w Fabric. Istniejące bazy danych programu SQL Server można stale replikować bezpośrednio do usługi Fabric OneLake. Zadanie kopiowania Fabric Data Factory umożliwia łatwe przesyłanie danych ze źródła do miejsca docelowego bez potrzeby użycia potoków. Transfery danych można skonfigurować za pomocą wbudowanych schematów do kopiowania wsadowego i przyrostowego, zapewniając skalowalną wydajność.

  • Strumienie zdarzeń Fabric zapewniają pozyskiwanie danych w czasie rzeczywistym z bazy danych SQL Server hostowanej na maszynie wirtualnej przy użyciu wyodrębniania CDC. Ten wzorzec pasuje do przypadków użycia, które wymagają pulpitów nawigacyjnych w czasie rzeczywistym i alertów.

Analiza i raportowanie

Components

  • Usługa Azure SQL Database to hostowany na platformie Azure serwer PaaS SQL. W tej architekturze usługa SQL Database udostępnia dane źródłowe i demonstruje przepływ danych dla scenariusza migracji.

  • OneLake to ujednolicone, oparte na chmurze magazyn danych do przechowywania zarówno danych ze strukturą, jak i bez struktury w całej organizacji. W tej architekturze usługa OneLake służy jako centralna warstwa magazynu. Używa artefaktów, takich jak Fabric Lakehouse, Fabric Warehouse, Fabric Eventhouse i dublowane bazy danych, aby utrwalać i organizować różne typy danych na potrzeby analizy i raportowania.

  • Usługa Fabric Data Warehouse to oferta SaaS, która hostuje obciążenia magazynu danych dla dużych zestawów danych. W tej architekturze usługa Fabric Data Warehouse służy jako końcowy magazyn wymiarowych zestawów danych i obsługuje analizy i raportowanie.

  • Power BI to narzędzie do analizy biznesowej hostowane w środowisku obliczeniowym sieci szkieletowej. Przedstawia i wizualizuje dane w tym scenariuszu, umożliwiając użytkownikom biznesowym interakcję z pulpitami nawigacyjnymi i raportami na podstawie danych z usługi Fabric Data Warehouse i innych źródeł.

  • Microsoft Entra ID to wielochmurowy pakiet rozwiązań tożsamości i sieci, który obsługuje przepływ uwierzytelniania i autoryzacji. W tej architekturze identyfikator Entra firmy Microsoft zapewnia bezpieczny dostęp dla użytkowników, którzy łączą się z zasobami usługi Power BI i sieci szkieletowej.

Szczegóły scenariusza

W tym scenariuszu organizacja ma bazę danych SQL, która zawiera duży lokalny magazyn danych. Organizacja chce używać sieci szkieletowej do pozyskiwania i analizowania danych oraz dostarczania analiz analitycznych użytkownikom za pośrednictwem usługi Power BI.

Kiedy należy używać tej architektury

Można użyć różnych metod, aby spełnić wymagania biznesowe dla analizy biznesowej przedsiębiorstwa. Różne aspekty definiują wymagania biznesowe, takie jak bieżące inwestycje technologiczne, umiejętności człowieka, oś czasu modernizacji, przyszłe cele i to, czy wolisz platformę jako usługę (PaaS) lub oprogramowanie jako usługa (SaaS).

Rozważ następujące podejścia projektowe:

W architekturze opisanej w tym artykule przyjęto założenie, że używasz magazynu typu lakehouse lub magazynu typu Fabric jako trwałej warstwy modelu semantycznego przedsiębiorstwa i że korzystasz z Power BI do inteligencji biznesowej. To podejście SaaS ma elastyczność w zakresie obsługi różnych wymagań biznesowych i preferencji.

Authentication

Identyfikator Entra firmy Microsoft uwierzytelnia użytkowników, którzy łączą się z pulpitami nawigacyjnymi i aplikacjami usługi Power BI. Logowanie jednokrotne (SSO) łączy użytkowników z danymi w magazynie danych Fabric i modelu semantycznym usługi Power BI. Autoryzacja odbywa się u źródła.

Ładowanie przyrostowe

Po uruchomieniu zautomatyzowanego procesu ETL lub ELT należy załadować tylko dane, które uległy zmianie od poprzedniego uruchomienia. Ten proces jest nazywany obciążeniem przyrostowym. Z kolei pełne obciążenie ładuje wszystkie dane. Aby wykonać obciążenie przyrostowe, określ sposób identyfikowania zmienionych danych. Można użyć podejścia o wysokiej wartości znaku wodnego , która śledzi najnowszą wartość kolumny daty i godziny lub unikatowej kolumny całkowitej w tabeli źródłowej.

Tabele czasowe można używać w programie SQL Server. Tabele czasowe to tabele o wersji systemowej, które przechowują historię zmian danych. Aparat bazy danych automatycznie rejestruje historię każdej zmiany w oddzielnej tabeli historii. Aby wykonać zapytanie dotyczące danych historycznych, możesz dodać klauzulę FOR SYSTEM_TIME do zapytania. Aparat bazy danych wykonuje zapytanie względem tabeli historii, ale jest niewidoczny dla aplikacji.

Tabele czasowe obsługują dane wymiarów, które mogą się zmieniać w czasie. Tabele faktów zwykle reprezentują niezmienne transakcje, takie jak sprzedaż, gdzie utrzymywanie historii wersji systemu nie ma znaczenia. Zamiast tego transakcje zazwyczaj mają kolumnę reprezentującą datę transakcji. Kolumna może służyć jako wartość limitu. Na przykład w magazynie SalesLT.* danych AdventureWorks tabele mają LastModified pole.

W poniższych krokach opisano ogólny przepływ potoku ELT:

  1. Dla każdej tabeli w źródłowej bazie danych śledź czas odcięcia po uruchomieniu ostatniego zadania ELT. Zapisz te informacje w magazynie danych. W początkowej konfiguracji wszystkie czasy są ustawione na 1-1-1900.

  2. W kroku eksportowania danych czas odcięcia jest przekazywany jako parametr do zestawu procedur składowanych w źródłowej bazie danych. Te procedury składowane wysyłają zapytania do wszystkich rekordów, które są zmieniane lub tworzone po czasie odcięcia. W przypadku wszystkich tabel w przykładzie można użyć kolumny ModifiedDate .

  3. Po zakończeniu migracji danych zaktualizuj tabelę, która przechowuje czasy odcięcia.

Potok danych

W tym scenariuszu przykładowa baza danych AdventureWorks jest używana jako źródło danych. Wzorzec ładowania przyrostowego danych gwarantuje, że tylko dane zmodyfikowane lub dodane po załadowaniu ostatniego uruchomienia potoku.

Struktura do pozyskiwania danych oparta na metadanych

Struktura pozyskiwania metadanych w potokach usługi Fabric Data Factory przyrostowo ładuje wszystkie tabele zawarte w relacyjnej bazie danych. Artykuł odnosi się do magazynu danych jako źródła, ale można go zastąpić bazą danych Azure SQL Database jako źródłem.

  1. Wybierz kolumnę limitu. Wybierz jedną kolumnę w tabeli źródłowej, która ułatwia śledzenie nowych lub zmienionych rekordów. Ta kolumna zazwyczaj zawiera wartości, które zwiększają się, gdy wiersze są dodawane lub aktualizowane (na przykład sygnatura czasowa lub identyfikator). Użyj najwyższej wartości w tej kolumnie jako punktu odniesienia, aby wiedzieć, gdzie zakończyłeś.

  2. Skonfiguruj tabelę do przechowywania ostatniej wartości limitu.

  3. Zbuduj pipeline, który zawiera następujące działania:

    • Dwie czynności wyszukiwania. Pierwsze działanie pobiera ostatnią wartość limitu (gdzie zatrzymaliśmy się ostatni raz). Drugie działanie pobiera nową wartość limitu (gdzie zatrzymujemy się tym razem). Obie wartości są przekazywane do działania kopiowania.

    • Działanie kopiowania, które znajduje wiersze, w których wartość kolumny znacznika znajduje się między starą a nową wartością znacznika. Następnie kopiuje te dane z magazynu danych do usługi Lakehouse jako nowy plik.

    • Działanie procedury składowanej, które zapisuje nową wartość znacznika wodnego w celu określenia punktu początkowego na potrzeby następnego uruchomienia potoku.

    Na diagramie przedstawiono schemat blokowy działań do pobierania, używania i aktualizowania wartości znaku wodnego.

Na poniższej ilustracji przedstawiono ukończony pipeline. Aby uzyskać więcej informacji, zobacz Pozyskiwanie przyrostowe.

Zrzut ekranu przedstawia potok przetwarzania mediów z działaniami wyszukiwania w celu uzyskania wartości znaku wodnego, czynnością kopiowania dla nowych danych i procedurą składowaną w celu zaktualizowania znaku wodnego.

Ładowanie danych do magazynu danych usługi Fabric

Działanie kopiowania kopiuje dane z bazy danych SQL do magazynu danych usługi Fabric. W tym przykładzie baza danych SQL znajduje się na platformie Azure, dlatego używa połączenia skonfigurowanego w portalu sieci szkieletowej w obszarze Zarządzanie połączeniami i bramami.

Użyj przepływów Azure Data Factory

Potoki w usłudze Fabric Data Factory definiują uporządkowany zestaw działań w celu uzupełnienia wzorca obciążenia przyrostowego. Wyzwalacze ręczne lub automatyczne uruchamiają potok.

Przekształcanie danych

Jeśli potrzebne jest przekształcenie, użyj przepływów danych Fabric, aby zaprojektować przekształcenia ETL wspomagane przez sztuczną inteligencję, umożliwiające przekształcanie danych. Przepływy danych Fabric korzystają z aparatu Power Query, aby zastosować te przekształcenia i zapisać wyniki w Fabric Data Warehouse.

W środowisku produkcyjnym użyj Fabric notebooks, aby zaimplementować przekształcenia ETL, które dobrze działają z dużymi zestawami danych za pomocą rozproszonej struktury obliczeniowej opartej na Apache Spark.

Uwaga / Notatka

Użyj natywnego aparatu wykonawczego do uruchamiania obciążeń inżynierii danych lub ETL.

Korzystaj z Power BI z pojemnościami Fabric do uzyskiwania dostępu do danych, modelowania i wizualizacji danych

Pojemności Fabric w usłudze Power BI obsługują wiele trybów przechowywania umożliwiających łączenie ze źródłami danych w platformie Azure.

  • Import: Ładuje dane do semantycznego modelu usługi Power BI na potrzeby wykonywania zapytań w pamięci.

  • Zapytanie bezpośrednie: Uruchamia zapytania bezpośrednio względem magazynu relacyjnego bez ładowania danych do pamięci.

  • Model złożony: Łączy tryb importu dla niektórych tabel z zapytaniem bezpośrednim dla innych w tym samym zestawie danych.

  • Direct Lake: Wykonuje zapytania dotyczące tabel delta przechowywanych w OneLake z semantycznego modelu obszaru roboczego Fabric. Jest ona zoptymalizowana pod kątem interaktywnej analizy dużych tabel przez załadowanie danych do pamięci na żądanie.

W tym scenariuszu jest używany pulpit nawigacyjny trybu DirectQuery, ponieważ ma niewielką ilość danych i niską złożoność modelu. Zapytanie bezpośrednie deleguje zapytanie do bazowego aparatu obliczeniowego i używa funkcji zabezpieczeń w źródle. Zapytanie bezpośrednie gwarantuje, że wyniki są zawsze zgodne z najnowszymi danymi źródłowymi.

Tryb importu może zapewnić najmniejsze opóźnienie zapytania. Rozważ tryb importu, jeśli spełnione są następujące czynniki:

  • Model mieści się w całości w pamięci usługi Power BI.
  • Opóźnienie danych między odświeżeniami jest akceptowalne.
  • Wymagane są złożone przekształcenia między systemem źródłowym a ostatecznym modelem.

W takim przypadku użytkownicy chcą mieć pełny dostęp do najnowszych danych bez opóźnień w odświeżaniu usługi Power BI i chcą wszystkich danych historycznych, które przekraczają pojemność zestawu danych usługi Power BI. Zestaw danych usługi Power BI może obsłużyć 25 gigabajtów (GB) do 400 GB, w zależności od rozmiaru pojemności. Model danych w dedykowanej puli SQL znajduje się już w schemacie gwiazdy i nie wymaga przekształcenia, dlatego zapytanie bezpośrednie jest odpowiednim wyborem.

Zrzut ekranu przedstawia pulpit nawigacyjny usługi Power BI z metrykami sprzedaży, wykresami trendów, filtrami i szczegółową tabelą danych.

Usługa Power BI umożliwia zarządzanie dużymi modelami, raportami podzielonymi na strony i potokami wdrażania. Skorzystaj z wbudowanego punktu końcowego usług Azure Analysis Services. Możesz również mieć dedykowaną pojemność z unikatową propozycją wartości.

Gdy model analizy biznesowej rośnie lub zwiększa się złożoność pulpitu nawigacyjnego, możesz przełączyć się na modele złożone i zaimportować części tabel odnośników za pośrednictwem tabel hybrydowych i zaimportować wstępnie zagregowane dane. Buforowanie zapytań w usłudze Power BI można włączyć dla zaimportowanych zestawów danych i użyć podwójnych tabel dla właściwości trybu przechowywania.

W modelu złożonym zestawy danych pełnią rolę wirtualnej warstwy przekazywania. Gdy użytkownicy wchodzą w interakcje z wizualizacjami, usługa Power BI generuje zapytania SQL do usługi Fabric Data Warehouse. Usługa Power BI określa, czy używać magazynu w pamięci, czy w trybie DirectQuery na podstawie wydajności. Silnik decyduje, kiedy przełączyć się z w pamięci operacyjnej na DirectQuery i przesyła logikę do magazynu danych Fabric. W zależności od kontekstu tabel zapytań mogą one służyć jako buforowane (importowane) lub niebuforowane modele złożone. Możesz wybrać tabelę do buforowania w pamięci, połączyć dane z co najmniej jednego źródła trybu DirectQuery lub połączyć dane źródła DirectQuery i zaimportowane dane.

Jeśli korzystasz z DirectQuery z hurtownią danych Fabric lub lakehouse, wykonaj następujące czynności:

  • Użyj Fabric Z-Order i V-Order, aby zwiększyć wydajność zapytań przez optymalizację przechowywania danych tabeli w plikach w formacie delta.

  • Użyj zmaterializowanych widoków usługi Fabric lakehouse, aby wstępnie skompilować, przechowywać i obsługiwać dane, takie jak tabela. Zapytania korzystające ze wszystkich danych lub podzestawu danych w zmaterializowanych widokach mogą osiągnąć szybszą wydajność bez konieczności bezpośredniego odwołowania się do zdefiniowanego zmaterializowanego widoku do użycia.

Rozważania

Te zagadnienia obejmują implementację filarów platformy Azure Well-Architected Framework, która jest zestawem wytycznych, których można użyć do poprawy jakości obciążenia. Aby uzyskać więcej informacji, zobacz Well-Architected Framework.

Reliability

Niezawodność pomaga zapewnić, że aplikacja może spełnić zobowiązania podjęte przez klientów. Aby uzyskać więcej informacji, zobacz Lista kontrolna przeglądu projektu dotycząca niezawodności.

W artykule „Niezawodność” wyjaśniono, jak platforma Fabric wspiera niezawodność, w tym regionalną odporność za pośrednictwem stref dostępności, a także odzyskiwanie między regionami i ciągłość działania biznesowego. Platforma Fabric udostępnia przełącznik odzyskiwania po awarii na stronie ustawień pojemności. Usługa jest dostępna tam, gdzie pary regionalne Azure są zgodne z zasięgiem usługi Fabric. Po włączeniu ustawienia pojemności odzyskiwania po awarii replikacja między regionami jest włączona jako funkcja odzyskiwania po awarii dla danych usługi OneLake.

Zabezpieczenia

Zabezpieczenia zapewniają ochronę przed celowymi atakami i nieprawidłowym użyciem cennych danych i systemów. Aby uzyskać więcej informacji, zobacz Lista kontrolna przeglądu projektu dotycząca zabezpieczeń.

Modernizacja chmury wprowadza obawy dotyczące zabezpieczeń, takie jak naruszenia danych, infekcje złośliwego oprogramowania i wstrzyknięcie złośliwego kodu. Potrzebujesz dostawcy usług lub dostawcy usług w chmurze, które może rozwiązać Twoje problemy, ponieważ nieodpowiednie środki zabezpieczeń mogą powodować poważne problemy.

Ten scenariusz dotyczy najbardziej wymagających problemów z zabezpieczeniami przy użyciu kombinacji warstwowych mechanizmów kontroli zabezpieczeń, w tym mechanizmów kontroli sieci, tożsamości, prywatności i autoryzacji. Magazyn danych Fabric przechowuje większość danych. Usługa Power BI uzyskuje dostęp do danych za pośrednictwem trybu DirectQuery i logowania jednokrotnego. Użyj identyfikatora Entra firmy Microsoft do uwierzytelniania. Istnieją również obszerne mechanizmy kontroli zabezpieczeń na potrzeby autoryzacji danych w aprowizowanych pulach.

Weź pod uwagę następujące typowe problemy z zabezpieczeniami:

  • Zdefiniuj, kto może zobaczyć, jakie dane.

    • Upewnij się, że dane są zgodne z wytycznymi federalnymi, lokalnymi i firmowymi, aby ograniczyć ryzyko naruszenia zabezpieczeń danych. Platforma zapewnia kompleksowe możliwości ochrony danych dla wspierania zabezpieczeń i promowania zgodności.

    • Zabezpieczenia OneLake kontrolują cały dostęp do danych OneLake przy różnych uprawnieniach, które są dziedziczone z uprawnień elementu nadrzędnego lub obszaru roboczego.

      • Obszar roboczy to środowisko współpracy do tworzenia elementów i zarządzania nimi. Role przestrzeni roboczej są zarządzane na tym poziomie.

      • Element jest zestawem funkcji powiązanych ze sobą w jeden składnik. Element danych jest podtypem elementu, który umożliwia przechowywanie w nim danych przy użyciu usługi OneLake. Elementy dziedziczą uprawnienia z ról obszaru roboczego, ale mogą również mieć dodatkowe uprawnienia. Foldery w elemencie są używane do przechowywania danych i zarządzania nimi, takich jak Tables/ lub Files/.

  • Ustal, jak zweryfikować tożsamość użytkownika.

  • Wybierz technologię zabezpieczeń sieci, aby chronić integralność, poufność i dostęp do sieci i danych.

  • Wybierz narzędzia do wykrywania i powiadamiania o zagrożeniach.

  • Ustal, jak chronić dane w usłudze Fabric OneLake.

    • Pomóż chronić dane na platformie Fabric, korzystając z etykiet poufności w ramach Microsoft Purview Information Protection. Etykiety, takie jak Ogólne, Poufne i Wysoce poufne, są powszechnie używane w aplikacjach pakietu Microsoft Office, takich jak Word, PowerPoint i Excel w celu ochrony poufnych informacji. Śledzą one dane automatycznie z elementu do elementu, gdy przepływają przez sieć szkieletową, aż od źródła danych do użytkownika biznesowego.

Optymalizacja kosztów

Optymalizacja kosztów koncentruje się na sposobach zmniejszenia niepotrzebnych wydatków i poprawy wydajności operacyjnej. Aby uzyskać więcej informacji, zobacz Lista kontrolna przeglądu projektu dotycząca optymalizacji kosztów.

W tej sekcji opisano szczegóły cennika różnych usług używanych w rozwiązaniu i wyjaśniono decyzje podejmowane w tym scenariuszu przy użyciu przykładowego zestawu danych. Użyj początkowej konfiguracji w kalkulatorze cen platformy Azure i dostosuj ją do swojego scenariusza. Aby uzyskać więcej informacji na temat jednostek SKU Fabric, zapoznaj się z Omówienie cennika Fabric. Aby uzyskać więcej informacji na temat generowania oszacowania ogólnego użycia Fabric, zobacz estymator pojemności Fabric.

Skalowalna architektura sieci szkieletowej

Fabric to bezserwerowa architektura dla większości obciążeń, którą można wykorzystać do niezależnego skalowania poziomów obliczeniowych i magazynowania. Zasoby obliczeniowe generują koszty na podstawie użycia. Możesz skalować lub wstrzymać te zasoby na żądanie. Zasoby magazynowe generują koszty za GB, więc koszty rosną w miarę przechowywania danych.

Potoki fabryki sieci szkieletowej

Trzy główne składniki wpływają na cenę potoku:

  • Działania przepływu danych na potrzeby orkiestracji: Aby zoptymalizować koszty, skróć całkowity czas orkiestracji, wdrażając równoległe przepływy.

  • Przepływ danych Gen2 na potrzeby obliczeń: Aby zoptymalizować koszty, uprość potoki ETL przez filtrowanie niepotrzebnych danych i przetwarzanie wyodrębniania przyrostowego.

  • Przenoszenie danych dla zadania kopiowania lub działania kopiowania: Aby zoptymalizować koszt, skonfiguruj zadanie kopiowania przy użyciu wyodrębniania przyrostowego i dostosuj przepływność działania kopiowania.

Aby uzyskać więcej informacji, zobacz kartę Mierniki cen usługi Data Factory w cenniku usługi Data Factory.

Cena różni się w zależności od składników lub działań, częstotliwości i ogólnej mocy obliczeniowej skojarzonej z aranżacją. Każde przenoszenie danych, które wynika z działań potoku lub zadania kopiowania, wiąże się z kosztami. Jednak obliczenia związane z przenoszeniem danych za pośrednictwem dublowania sieci szkieletowej są bezpłatne, a koszt magazynowania dublowanych danych jest bezpłatny do rozmiaru pojemności. Na przykład w przypadku zakupu pojemności F64 otrzymasz 64 bezpłatne terabajty (TB) przestrzeni dyskowej, która jest używana wyłącznie do mirroringu. Opłata za magazyn OneLake jest naliczana w przypadku przekroczenia bezpłatnego limitu pamięci do lustrzanego odbicia lub gdy pojemność zostanie wstrzymana.

Przewodnik po decyzjach dotyczących obciążenia sieci szkieletowej

Skorzystaj z tego przewodnika decyzyjnego, aby wybrać magazyn danych dla obciążeń Fabric. Wszystkie opcje są dostępne w ujednoliconym magazynie w usłudze OneLake.

Punkt końcowy SQL dla usługi Fabric Lakehouse lub Fabric Warehouse zapewnia możliwość uruchamiania zapytań ad hoc na potrzeby analizy. Umożliwia również semantyczne modele usługi Power BI importowanie lub bezpośrednie wykonywanie zapytań dotyczących danych. Koszt związany z systemem Lakehouse lub magazynem jest odpowiednikiem użycia jednostek CU dla zapytań SQL do punktu końcowego SQL. Aby zoptymalizować koszt, zaimplementuj porządkowanie Z i porządkowanie V w Fabric Lakehouse, aby zwiększyć wydajność zapytań. W przypadku magazynu danych zoptymalizuj zapytania, aby odczytywać mniejsze partie.

Przechowywanie OneLake

Opłaty za magazyn OneLake są naliczane na zasadzie płatności zgodnie z rzeczywistym użyciem na GB używanych danych i nie zużywają jednostek pojemności Fabric (CU). Elementy sieci szkieletowej, takie jak lakehouses i warehouses, zużywają magazyn OneLake. Aby uzyskać więcej informacji, zobacz Cennik Fabric.

Aby zoptymalizować koszty usługi OneLake, skoncentruj się na zarządzaniu pojemnością magazynową, regularnie usuwając nieużywane dane, w tym dane w magazynie soft delete, oraz optymalizując operacje odczytu i zapisu. Opłaty za magazyn OneLake są rozliczane oddzielnie od mocy obliczeniowej, dlatego ważne jest, aby monitorować użycie za pomocą aplikacji metryk pojemności Fabric. Aby zmniejszyć koszty magazynowania, które są obliczane na podstawie średniego dziennego użycia w ciągu miesiąca, rozważ zminimalizowanie ilości przechowywanych danych.

Power BI

W tym scenariuszu są używane obszary robocze usługi Power BI z wbudowanymi ulepszeniami wydajności w celu zaspokojenia wymagających potrzeb analitycznych. Aby zoptymalizować koszty, zaimplementuj odświeżanie przyrostowe dla operacji wyodrębniania w trybie importu. Zaimplementuj tryb Direct Lake na potrzeby raportowania większych zestawów danych, gdy to możliwe, aby zmniejszyć obciążenie ogólne zasobów Fabric.

Aby uzyskać więcej informacji, zobacz Cennik usługi Power BI.

Doskonałość operacyjna

Doskonałość operacyjna obejmuje procesy operacyjne, które wdrażają aplikację i działają w środowisku produkcyjnym. Aby uzyskać więcej informacji, zobacz Lista kontrolna projektu dotycząca doskonałości operacyjnej.

  • Użyj potoku wydania usługi Azure DevOps i funkcji GitHub Actions, aby zautomatyzować wdrażanie artefaktu obszaru roboczego usługi Fabric w wielu środowiskach. Aby uzyskać więcej informacji, zobacz Ciągła integracja i ciągłe dostarczanie dla obszaru roboczego Fabric.

  • Umieść każde obciążenie w osobnym szablonie wdrożenia i zapisz zasoby w systemach kontroli źródła. Szablony można wdrażać razem lub indywidualnie w ramach procesu ciągłej integracji i ciągłego dostarczania (CI/CD). Takie podejście upraszcza proces automatyzacji. Ta architektura ma cztery główne obciążenia:

    • Magazyn danych i powiązane zasoby
    • Potoki usługi Data Factory
    • Zasoby usługi Power BI, w tym pulpity nawigacyjne, aplikacje i zestawy danych
    • Scenariusz symulowany w środowisku lokalnym do chmury
  • Rozważ przemieszczanie obciążeń tam, gdzie jest to praktyczne. Wdróż obciążenie na różnych etapach. Uruchom testy weryfikacji na każdym etapie przed przejściem do następnego etapu. Takie podejście wypycha aktualizacje do środowisk produkcyjnych w kontrolowany sposób i minimalizuje nieoczekiwane problemy z wdrażaniem. Użyj strategii wdrażania niebieski-zielony i kanary wydania , aby zaktualizować środowiska produkcyjne na żywo.

  • Użyj strategii wycofywania do obsługi wdrożeń, które zakończyły się niepowodzeniem. Możesz na przykład automatycznie ponownie wdrożyć wcześniejsze, pomyślne wdrożenie z historii wdrożenia. Użyj flagi --rollback-on-error w interfejsie wiersza polecenia platformy Azure.

  • Użyj aplikacji Metryki pojemności Fabric, aby uzyskać kompleksowe monitorowanie zużycia pojemności Fabric. Użyj monitorowania obszaru roboczego do szczegółowego monitorowania dzienników telemetrii w Fabric.

  • Narzędzie do szacowania pojemności sieci szkieletowej umożliwia oszacowanie potrzeb związanych z pojemnością sieci szkieletowej.

Efektywność operacyjna

Wydajność odnosi się do możliwości skalowania obciążenia w celu efektywnego zaspokojenia wymagań użytkowników. Aby uzyskać więcej informacji, zobacz Lista kontrolna przeglądu projektu pod kątem wydajności.

W tym artykule użyto pojemności Fabric F64 do zademonstrowania możliwości Business Intelligence. Dedykowane zasoby Power BI w platformie Fabric mieszczą się w zakresie od F64 do maksymalnego rozmiaru SKU. Aby uzyskać więcej informacji, zobacz Cennik Fabric.

Aby określić, ile pojemności potrzebujesz, wykonaj następujące czynności:

Współautorzy

Firma Microsoft utrzymuje ten artykuł. Następujący współautorzy napisali ten artykuł.

Główny autor:

Inni współautorzy:

Aby wyświetlić niepubliczne profile serwisu LinkedIn, zaloguj się do serwisu LinkedIn.

Dalsze kroki