Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
W tym artykule opisano sposób przesyłania danych z lokalnego magazynu danych do środowiska w chmurze, a następnie używania modelu analizy biznesowej (BI) do obsługi danych. Można użyć tego podejścia jako celu końcowego lub jako pierwszego kroku w kierunku pełnej modernizacji z składnikami opartymi na chmurze.
Te wskazówki opierają się na kompleksowej wersji scenariusza usługi Microsoft Fabric. Istnieje wiele opcji wyodrębniania danych z lokalnego serwera SQL, takich jak potoki usługi Fabric Data Factory, dublowanie, zadanie kopiowania i strumienie zdarzeń w czasie rzeczywistym sieci szkieletowej zmieniają przechwytywanie danych (CDC) dla usługi SQL. Po wyodrębnieniu dane są przekształcane do analizy.
Architecture
Pobierz plik programu Visio tej architektury.
Workflow
Poniższy przepływ pracy odpowiada poprzedniemu diagramowi.
Źródło danych
- Baza danych programu SQL Server na platformie Azure zawiera dane źródłowe. Aby zasymulować środowisko lokalne, skrypty wdrażania dla tego scenariusza umożliwiają skonfigurowanie bazy danych Azure SQL Database. Przykładowa baza danych AdventureWorks jest używana jako schemat danych źródłowych i przykładowe dane. Aby uzyskać więcej informacji, zobacz Kopiowanie i przekształcanie danych do i z programu SQL Server.
Pozyskiwanie i przechowywanie danych
Fabric OneLake to jedno, ujednolicone, logiczne jezioro danych dla całej organizacji. Ten SaaS oferuje różne opcje magazynowania danych, takie jak Fabric Lakehouse dla obciążeń typu lakehouse na potrzeby inżynierii danych, Fabric Warehouse dla obciążeń magazynu danych oraz Fabric Eventhouse dla dużych zbiorów danych szeregów czasowych i zestawów danych dzienników.
Potoki Fabric Data Factory umożliwiają tworzenie złożonych przepływów pracy do wyodrębniania, transformacji, ładowania (ETL) oraz przepływów fabryki danych, które mogą wykonywać wiele różnych zadań w dużej skali. Funkcje przepływu sterowania są wbudowane w potoki danych, które umożliwiają tworzenie logiki przepływu pracy, zapewniającej pętle i instrukcje warunkowe. W tej architekturze struktury oparte na metadanych umożliwiają przyrostowe pozyskiwanie wielu tabel na dużą skalę.
Dublowanie danych w Fabric Data Factory pozwala uniknąć złożonych procesów ETL i zintegrować istniejącą infrastrukturę SQL Server z pozostałymi danymi w Fabric. Istniejące bazy danych programu SQL Server można stale replikować bezpośrednio do usługi Fabric OneLake. Zadanie kopiowania Fabric Data Factory umożliwia łatwe przesyłanie danych ze źródła do miejsca docelowego bez potrzeby użycia potoków. Transfery danych można skonfigurować za pomocą wbudowanych schematów do kopiowania wsadowego i przyrostowego, zapewniając skalowalną wydajność.
Strumienie zdarzeń Fabric zapewniają pozyskiwanie danych w czasie rzeczywistym z bazy danych SQL Server hostowanej na maszynie wirtualnej przy użyciu wyodrębniania CDC. Ten wzorzec pasuje do przypadków użycia, które wymagają pulpitów nawigacyjnych w czasie rzeczywistym i alertów.
Analiza i raportowanie
- Podejście do modelowania danych w tym scenariuszu łączy model przedsiębiorstwa i semantyczny model analizy biznesowej. Jednostki SKU Fabric zapewniają zasoby obliczeniowe w przypadku modeli semantycznych usługi Power BI. Usługa Power BI może uzyskiwać dostęp do danych za pośrednictwem połączenia Import, DirectQuery lub Direct Lake.
Components
Usługa Azure SQL Database to hostowany na platformie Azure serwer PaaS SQL. W tej architekturze usługa SQL Database udostępnia dane źródłowe i demonstruje przepływ danych dla scenariusza migracji.
OneLake to ujednolicone, oparte na chmurze magazyn danych do przechowywania zarówno danych ze strukturą, jak i bez struktury w całej organizacji. W tej architekturze usługa OneLake służy jako centralna warstwa magazynu. Używa artefaktów, takich jak Fabric Lakehouse, Fabric Warehouse, Fabric Eventhouse i dublowane bazy danych, aby utrwalać i organizować różne typy danych na potrzeby analizy i raportowania.
Usługa Fabric Data Warehouse to oferta SaaS, która hostuje obciążenia magazynu danych dla dużych zestawów danych. W tej architekturze usługa Fabric Data Warehouse służy jako końcowy magazyn wymiarowych zestawów danych i obsługuje analizy i raportowanie.
Power BI to narzędzie do analizy biznesowej hostowane w środowisku obliczeniowym sieci szkieletowej. Przedstawia i wizualizuje dane w tym scenariuszu, umożliwiając użytkownikom biznesowym interakcję z pulpitami nawigacyjnymi i raportami na podstawie danych z usługi Fabric Data Warehouse i innych źródeł.
Microsoft Entra ID to wielochmurowy pakiet rozwiązań tożsamości i sieci, który obsługuje przepływ uwierzytelniania i autoryzacji. W tej architekturze identyfikator Entra firmy Microsoft zapewnia bezpieczny dostęp dla użytkowników, którzy łączą się z zasobami usługi Power BI i sieci szkieletowej.
Szczegóły scenariusza
W tym scenariuszu organizacja ma bazę danych SQL, która zawiera duży lokalny magazyn danych. Organizacja chce używać sieci szkieletowej do pozyskiwania i analizowania danych oraz dostarczania analiz analitycznych użytkownikom za pośrednictwem usługi Power BI.
Kiedy należy używać tej architektury
Można użyć różnych metod, aby spełnić wymagania biznesowe dla analizy biznesowej przedsiębiorstwa. Różne aspekty definiują wymagania biznesowe, takie jak bieżące inwestycje technologiczne, umiejętności człowieka, oś czasu modernizacji, przyszłe cele i to, czy wolisz platformę jako usługę (PaaS) lub oprogramowanie jako usługa (SaaS).
Rozważ następujące podejścia projektowe:
Sieć szkieletowa i usługa Azure Databricks dla klientów, którzy mają istniejące inwestycje w usługę Azure Databricks i Power BI, i chcą zmodernizować usługę Fabric
Analiza biznesowa przedsiębiorstwa dla małych i średnich firm korzystających z ekosystemu usługi Azure SQL i sieci szkieletowej
Kompleksowe magazynowanie danych w usłudze Fabric dla klientów, którzy wolą rozwiązanie SaaS
W architekturze opisanej w tym artykule przyjęto założenie, że używasz magazynu typu lakehouse lub magazynu typu Fabric jako trwałej warstwy modelu semantycznego przedsiębiorstwa i że korzystasz z Power BI do inteligencji biznesowej. To podejście SaaS ma elastyczność w zakresie obsługi różnych wymagań biznesowych i preferencji.
Authentication
Identyfikator Entra firmy Microsoft uwierzytelnia użytkowników, którzy łączą się z pulpitami nawigacyjnymi i aplikacjami usługi Power BI. Logowanie jednokrotne (SSO) łączy użytkowników z danymi w magazynie danych Fabric i modelu semantycznym usługi Power BI. Autoryzacja odbywa się u źródła.
Ładowanie przyrostowe
Po uruchomieniu zautomatyzowanego procesu ETL lub ELT należy załadować tylko dane, które uległy zmianie od poprzedniego uruchomienia. Ten proces jest nazywany obciążeniem przyrostowym. Z kolei pełne obciążenie ładuje wszystkie dane. Aby wykonać obciążenie przyrostowe, określ sposób identyfikowania zmienionych danych. Można użyć podejścia o wysokiej wartości znaku wodnego , która śledzi najnowszą wartość kolumny daty i godziny lub unikatowej kolumny całkowitej w tabeli źródłowej.
Tabele czasowe można używać w programie SQL Server. Tabele czasowe to tabele o wersji systemowej, które przechowują historię zmian danych. Aparat bazy danych automatycznie rejestruje historię każdej zmiany w oddzielnej tabeli historii. Aby wykonać zapytanie dotyczące danych historycznych, możesz dodać klauzulę FOR SYSTEM_TIME do zapytania. Aparat bazy danych wykonuje zapytanie względem tabeli historii, ale jest niewidoczny dla aplikacji.
Tabele czasowe obsługują dane wymiarów, które mogą się zmieniać w czasie. Tabele faktów zwykle reprezentują niezmienne transakcje, takie jak sprzedaż, gdzie utrzymywanie historii wersji systemu nie ma znaczenia. Zamiast tego transakcje zazwyczaj mają kolumnę reprezentującą datę transakcji. Kolumna może służyć jako wartość limitu. Na przykład w magazynie SalesLT.* danych AdventureWorks tabele mają LastModified pole.
W poniższych krokach opisano ogólny przepływ potoku ELT:
Dla każdej tabeli w źródłowej bazie danych śledź czas odcięcia po uruchomieniu ostatniego zadania ELT. Zapisz te informacje w magazynie danych. W początkowej konfiguracji wszystkie czasy są ustawione na
1-1-1900.W kroku eksportowania danych czas odcięcia jest przekazywany jako parametr do zestawu procedur składowanych w źródłowej bazie danych. Te procedury składowane wysyłają zapytania do wszystkich rekordów, które są zmieniane lub tworzone po czasie odcięcia. W przypadku wszystkich tabel w przykładzie można użyć kolumny
ModifiedDate.Po zakończeniu migracji danych zaktualizuj tabelę, która przechowuje czasy odcięcia.
Potok danych
W tym scenariuszu przykładowa baza danych AdventureWorks jest używana jako źródło danych. Wzorzec ładowania przyrostowego danych gwarantuje, że tylko dane zmodyfikowane lub dodane po załadowaniu ostatniego uruchomienia potoku.
Struktura do pozyskiwania danych oparta na metadanych
Struktura pozyskiwania metadanych w potokach usługi Fabric Data Factory przyrostowo ładuje wszystkie tabele zawarte w relacyjnej bazie danych. Artykuł odnosi się do magazynu danych jako źródła, ale można go zastąpić bazą danych Azure SQL Database jako źródłem.
Wybierz kolumnę limitu. Wybierz jedną kolumnę w tabeli źródłowej, która ułatwia śledzenie nowych lub zmienionych rekordów. Ta kolumna zazwyczaj zawiera wartości, które zwiększają się, gdy wiersze są dodawane lub aktualizowane (na przykład sygnatura czasowa lub identyfikator). Użyj najwyższej wartości w tej kolumnie jako punktu odniesienia, aby wiedzieć, gdzie zakończyłeś.
Skonfiguruj tabelę do przechowywania ostatniej wartości limitu.
Zbuduj pipeline, który zawiera następujące działania:
Dwie czynności wyszukiwania. Pierwsze działanie pobiera ostatnią wartość limitu (gdzie zatrzymaliśmy się ostatni raz). Drugie działanie pobiera nową wartość limitu (gdzie zatrzymujemy się tym razem). Obie wartości są przekazywane do działania kopiowania.
Działanie kopiowania, które znajduje wiersze, w których wartość kolumny znacznika znajduje się między starą a nową wartością znacznika. Następnie kopiuje te dane z magazynu danych do usługi Lakehouse jako nowy plik.
Działanie procedury składowanej, które zapisuje nową wartość znacznika wodnego w celu określenia punktu początkowego na potrzeby następnego uruchomienia potoku.
Na poniższej ilustracji przedstawiono ukończony pipeline. Aby uzyskać więcej informacji, zobacz Pozyskiwanie przyrostowe.
Ładowanie danych do magazynu danych usługi Fabric
Działanie kopiowania kopiuje dane z bazy danych SQL do magazynu danych usługi Fabric. W tym przykładzie baza danych SQL znajduje się na platformie Azure, dlatego używa połączenia skonfigurowanego w portalu sieci szkieletowej w obszarze Zarządzanie połączeniami i bramami.
Użyj przepływów Azure Data Factory
Potoki w usłudze Fabric Data Factory definiują uporządkowany zestaw działań w celu uzupełnienia wzorca obciążenia przyrostowego. Wyzwalacze ręczne lub automatyczne uruchamiają potok.
Przekształcanie danych
Jeśli potrzebne jest przekształcenie, użyj przepływów danych Fabric, aby zaprojektować przekształcenia ETL wspomagane przez sztuczną inteligencję, umożliwiające przekształcanie danych. Przepływy danych Fabric korzystają z aparatu Power Query, aby zastosować te przekształcenia i zapisać wyniki w Fabric Data Warehouse.
W środowisku produkcyjnym użyj Fabric notebooks, aby zaimplementować przekształcenia ETL, które dobrze działają z dużymi zestawami danych za pomocą rozproszonej struktury obliczeniowej opartej na Apache Spark.
Uwaga / Notatka
Użyj natywnego aparatu wykonawczego do uruchamiania obciążeń inżynierii danych lub ETL.
Korzystaj z Power BI z pojemnościami Fabric do uzyskiwania dostępu do danych, modelowania i wizualizacji danych
Pojemności Fabric w usłudze Power BI obsługują wiele trybów przechowywania umożliwiających łączenie ze źródłami danych w platformie Azure.
Import: Ładuje dane do semantycznego modelu usługi Power BI na potrzeby wykonywania zapytań w pamięci.
Zapytanie bezpośrednie: Uruchamia zapytania bezpośrednio względem magazynu relacyjnego bez ładowania danych do pamięci.
Model złożony: Łączy tryb importu dla niektórych tabel z zapytaniem bezpośrednim dla innych w tym samym zestawie danych.
Direct Lake: Wykonuje zapytania dotyczące tabel delta przechowywanych w OneLake z semantycznego modelu obszaru roboczego Fabric. Jest ona zoptymalizowana pod kątem interaktywnej analizy dużych tabel przez załadowanie danych do pamięci na żądanie.
W tym scenariuszu jest używany pulpit nawigacyjny trybu DirectQuery, ponieważ ma niewielką ilość danych i niską złożoność modelu. Zapytanie bezpośrednie deleguje zapytanie do bazowego aparatu obliczeniowego i używa funkcji zabezpieczeń w źródle. Zapytanie bezpośrednie gwarantuje, że wyniki są zawsze zgodne z najnowszymi danymi źródłowymi.
Tryb importu może zapewnić najmniejsze opóźnienie zapytania. Rozważ tryb importu, jeśli spełnione są następujące czynniki:
- Model mieści się w całości w pamięci usługi Power BI.
- Opóźnienie danych między odświeżeniami jest akceptowalne.
- Wymagane są złożone przekształcenia między systemem źródłowym a ostatecznym modelem.
W takim przypadku użytkownicy chcą mieć pełny dostęp do najnowszych danych bez opóźnień w odświeżaniu usługi Power BI i chcą wszystkich danych historycznych, które przekraczają pojemność zestawu danych usługi Power BI. Zestaw danych usługi Power BI może obsłużyć 25 gigabajtów (GB) do 400 GB, w zależności od rozmiaru pojemności. Model danych w dedykowanej puli SQL znajduje się już w schemacie gwiazdy i nie wymaga przekształcenia, dlatego zapytanie bezpośrednie jest odpowiednim wyborem.
Usługa Power BI umożliwia zarządzanie dużymi modelami, raportami podzielonymi na strony i potokami wdrażania. Skorzystaj z wbudowanego punktu końcowego usług Azure Analysis Services. Możesz również mieć dedykowaną pojemność z unikatową propozycją wartości.
Gdy model analizy biznesowej rośnie lub zwiększa się złożoność pulpitu nawigacyjnego, możesz przełączyć się na modele złożone i zaimportować części tabel odnośników za pośrednictwem tabel hybrydowych i zaimportować wstępnie zagregowane dane. Buforowanie zapytań w usłudze Power BI można włączyć dla zaimportowanych zestawów danych i użyć podwójnych tabel dla właściwości trybu przechowywania.
W modelu złożonym zestawy danych pełnią rolę wirtualnej warstwy przekazywania. Gdy użytkownicy wchodzą w interakcje z wizualizacjami, usługa Power BI generuje zapytania SQL do usługi Fabric Data Warehouse. Usługa Power BI określa, czy używać magazynu w pamięci, czy w trybie DirectQuery na podstawie wydajności. Silnik decyduje, kiedy przełączyć się z w pamięci operacyjnej na DirectQuery i przesyła logikę do magazynu danych Fabric. W zależności od kontekstu tabel zapytań mogą one służyć jako buforowane (importowane) lub niebuforowane modele złożone. Możesz wybrać tabelę do buforowania w pamięci, połączyć dane z co najmniej jednego źródła trybu DirectQuery lub połączyć dane źródła DirectQuery i zaimportowane dane.
Jeśli korzystasz z DirectQuery z hurtownią danych Fabric lub lakehouse, wykonaj następujące czynności:
Użyj Fabric Z-Order i V-Order, aby zwiększyć wydajność zapytań przez optymalizację przechowywania danych tabeli w plikach w formacie delta.
Użyj zmaterializowanych widoków usługi Fabric lakehouse, aby wstępnie skompilować, przechowywać i obsługiwać dane, takie jak tabela. Zapytania korzystające ze wszystkich danych lub podzestawu danych w zmaterializowanych widokach mogą osiągnąć szybszą wydajność bez konieczności bezpośredniego odwołowania się do zdefiniowanego zmaterializowanego widoku do użycia.
Rozważania
Te zagadnienia obejmują implementację filarów platformy Azure Well-Architected Framework, która jest zestawem wytycznych, których można użyć do poprawy jakości obciążenia. Aby uzyskać więcej informacji, zobacz Well-Architected Framework.
Reliability
Niezawodność pomaga zapewnić, że aplikacja może spełnić zobowiązania podjęte przez klientów. Aby uzyskać więcej informacji, zobacz Lista kontrolna przeglądu projektu dotycząca niezawodności.
W artykule „Niezawodność” wyjaśniono, jak platforma Fabric wspiera niezawodność, w tym regionalną odporność za pośrednictwem stref dostępności, a także odzyskiwanie między regionami i ciągłość działania biznesowego. Platforma Fabric udostępnia przełącznik odzyskiwania po awarii na stronie ustawień pojemności. Usługa jest dostępna tam, gdzie pary regionalne Azure są zgodne z zasięgiem usługi Fabric. Po włączeniu ustawienia pojemności odzyskiwania po awarii replikacja między regionami jest włączona jako funkcja odzyskiwania po awarii dla danych usługi OneLake.
Zabezpieczenia
Zabezpieczenia zapewniają ochronę przed celowymi atakami i nieprawidłowym użyciem cennych danych i systemów. Aby uzyskać więcej informacji, zobacz Lista kontrolna przeglądu projektu dotycząca zabezpieczeń.
Modernizacja chmury wprowadza obawy dotyczące zabezpieczeń, takie jak naruszenia danych, infekcje złośliwego oprogramowania i wstrzyknięcie złośliwego kodu. Potrzebujesz dostawcy usług lub dostawcy usług w chmurze, które może rozwiązać Twoje problemy, ponieważ nieodpowiednie środki zabezpieczeń mogą powodować poważne problemy.
Ten scenariusz dotyczy najbardziej wymagających problemów z zabezpieczeniami przy użyciu kombinacji warstwowych mechanizmów kontroli zabezpieczeń, w tym mechanizmów kontroli sieci, tożsamości, prywatności i autoryzacji. Magazyn danych Fabric przechowuje większość danych. Usługa Power BI uzyskuje dostęp do danych za pośrednictwem trybu DirectQuery i logowania jednokrotnego. Użyj identyfikatora Entra firmy Microsoft do uwierzytelniania. Istnieją również obszerne mechanizmy kontroli zabezpieczeń na potrzeby autoryzacji danych w aprowizowanych pulach.
Weź pod uwagę następujące typowe problemy z zabezpieczeniami:
Zdefiniuj, kto może zobaczyć, jakie dane.
Upewnij się, że dane są zgodne z wytycznymi federalnymi, lokalnymi i firmowymi, aby ograniczyć ryzyko naruszenia zabezpieczeń danych. Platforma zapewnia kompleksowe możliwości ochrony danych dla wspierania zabezpieczeń i promowania zgodności.
Zabezpieczenia OneLake kontrolują cały dostęp do danych OneLake przy różnych uprawnieniach, które są dziedziczone z uprawnień elementu nadrzędnego lub obszaru roboczego.
Obszar roboczy to środowisko współpracy do tworzenia elementów i zarządzania nimi. Role przestrzeni roboczej są zarządzane na tym poziomie.
Element jest zestawem funkcji powiązanych ze sobą w jeden składnik. Element danych jest podtypem elementu, który umożliwia przechowywanie w nim danych przy użyciu usługi OneLake. Elementy dziedziczą uprawnienia z ról obszaru roboczego, ale mogą również mieć dodatkowe uprawnienia. Foldery w elemencie są używane do przechowywania danych i zarządzania nimi, takich jak
Tables/lubFiles/.
Ustal, jak zweryfikować tożsamość użytkownika.
- Użyj sieci szkieletowej, aby kontrolować, kto może uzyskiwać dostęp do danych za pośrednictwem kontroli dostępu i uwierzytelniania.
Wybierz technologię zabezpieczeń sieci, aby chronić integralność, poufność i dostęp do sieci i danych.
- Pomóż zabezpieczyć Fabric, używając opcji zabezpieczeń sieci.
Wybierz narzędzia do wykrywania i powiadamiania o zagrożeniach.
- Fabric nie ma wbudowanego wykrywania zagrożeń. Zalecamy użycie kombinacji menedżera zgodności usługi Microsoft Purview w celu skonfigurowania alertów i przejrzenia dzienników inspekcji w celu śledzenia działań użytkowników.
Ustal, jak chronić dane w usłudze Fabric OneLake.
- Pomóż chronić dane na platformie Fabric, korzystając z etykiet poufności w ramach Microsoft Purview Information Protection. Etykiety, takie jak Ogólne, Poufne i Wysoce poufne, są powszechnie używane w aplikacjach pakietu Microsoft Office, takich jak Word, PowerPoint i Excel w celu ochrony poufnych informacji. Śledzą one dane automatycznie z elementu do elementu, gdy przepływają przez sieć szkieletową, aż od źródła danych do użytkownika biznesowego.
Optymalizacja kosztów
Optymalizacja kosztów koncentruje się na sposobach zmniejszenia niepotrzebnych wydatków i poprawy wydajności operacyjnej. Aby uzyskać więcej informacji, zobacz Lista kontrolna przeglądu projektu dotycząca optymalizacji kosztów.
W tej sekcji opisano szczegóły cennika różnych usług używanych w rozwiązaniu i wyjaśniono decyzje podejmowane w tym scenariuszu przy użyciu przykładowego zestawu danych. Użyj początkowej konfiguracji w kalkulatorze cen platformy Azure i dostosuj ją do swojego scenariusza. Aby uzyskać więcej informacji na temat jednostek SKU Fabric, zapoznaj się z Omówienie cennika Fabric. Aby uzyskać więcej informacji na temat generowania oszacowania ogólnego użycia Fabric, zobacz estymator pojemności Fabric.
Skalowalna architektura sieci szkieletowej
Fabric to bezserwerowa architektura dla większości obciążeń, którą można wykorzystać do niezależnego skalowania poziomów obliczeniowych i magazynowania. Zasoby obliczeniowe generują koszty na podstawie użycia. Możesz skalować lub wstrzymać te zasoby na żądanie. Zasoby magazynowe generują koszty za GB, więc koszty rosną w miarę przechowywania danych.
Potoki fabryki sieci szkieletowej
Trzy główne składniki wpływają na cenę potoku:
Działania przepływu danych na potrzeby orkiestracji: Aby zoptymalizować koszty, skróć całkowity czas orkiestracji, wdrażając równoległe przepływy.
Przepływ danych Gen2 na potrzeby obliczeń: Aby zoptymalizować koszty, uprość potoki ETL przez filtrowanie niepotrzebnych danych i przetwarzanie wyodrębniania przyrostowego.
Przenoszenie danych dla zadania kopiowania lub działania kopiowania: Aby zoptymalizować koszt, skonfiguruj zadanie kopiowania przy użyciu wyodrębniania przyrostowego i dostosuj przepływność działania kopiowania.
Aby uzyskać więcej informacji, zobacz kartę Mierniki cen usługi Data Factory w cenniku usługi Data Factory.
Cena różni się w zależności od składników lub działań, częstotliwości i ogólnej mocy obliczeniowej skojarzonej z aranżacją. Każde przenoszenie danych, które wynika z działań potoku lub zadania kopiowania, wiąże się z kosztami. Jednak obliczenia związane z przenoszeniem danych za pośrednictwem dublowania sieci szkieletowej są bezpłatne, a koszt magazynowania dublowanych danych jest bezpłatny do rozmiaru pojemności. Na przykład w przypadku zakupu pojemności F64 otrzymasz 64 bezpłatne terabajty (TB) przestrzeni dyskowej, która jest używana wyłącznie do mirroringu. Opłata za magazyn OneLake jest naliczana w przypadku przekroczenia bezpłatnego limitu pamięci do lustrzanego odbicia lub gdy pojemność zostanie wstrzymana.
Przewodnik po decyzjach dotyczących obciążenia sieci szkieletowej
Skorzystaj z tego przewodnika decyzyjnego, aby wybrać magazyn danych dla obciążeń Fabric. Wszystkie opcje są dostępne w ujednoliconym magazynie w usłudze OneLake.
Punkt końcowy SQL dla usługi Fabric Lakehouse lub Fabric Warehouse zapewnia możliwość uruchamiania zapytań ad hoc na potrzeby analizy. Umożliwia również semantyczne modele usługi Power BI importowanie lub bezpośrednie wykonywanie zapytań dotyczących danych. Koszt związany z systemem Lakehouse lub magazynem jest odpowiednikiem użycia jednostek CU dla zapytań SQL do punktu końcowego SQL. Aby zoptymalizować koszt, zaimplementuj porządkowanie Z i porządkowanie V w Fabric Lakehouse, aby zwiększyć wydajność zapytań. W przypadku magazynu danych zoptymalizuj zapytania, aby odczytywać mniejsze partie.
Przechowywanie OneLake
Opłaty za magazyn OneLake są naliczane na zasadzie płatności zgodnie z rzeczywistym użyciem na GB używanych danych i nie zużywają jednostek pojemności Fabric (CU). Elementy sieci szkieletowej, takie jak lakehouses i warehouses, zużywają magazyn OneLake. Aby uzyskać więcej informacji, zobacz Cennik Fabric.
Aby zoptymalizować koszty usługi OneLake, skoncentruj się na zarządzaniu pojemnością magazynową, regularnie usuwając nieużywane dane, w tym dane w magazynie soft delete, oraz optymalizując operacje odczytu i zapisu. Opłaty za magazyn OneLake są rozliczane oddzielnie od mocy obliczeniowej, dlatego ważne jest, aby monitorować użycie za pomocą aplikacji metryk pojemności Fabric. Aby zmniejszyć koszty magazynowania, które są obliczane na podstawie średniego dziennego użycia w ciągu miesiąca, rozważ zminimalizowanie ilości przechowywanych danych.
Power BI
W tym scenariuszu są używane obszary robocze usługi Power BI z wbudowanymi ulepszeniami wydajności w celu zaspokojenia wymagających potrzeb analitycznych. Aby zoptymalizować koszty, zaimplementuj odświeżanie przyrostowe dla operacji wyodrębniania w trybie importu. Zaimplementuj tryb Direct Lake na potrzeby raportowania większych zestawów danych, gdy to możliwe, aby zmniejszyć obciążenie ogólne zasobów Fabric.
Aby uzyskać więcej informacji, zobacz Cennik usługi Power BI.
Doskonałość operacyjna
Doskonałość operacyjna obejmuje procesy operacyjne, które wdrażają aplikację i działają w środowisku produkcyjnym. Aby uzyskać więcej informacji, zobacz Lista kontrolna projektu dotycząca doskonałości operacyjnej.
Użyj potoku wydania usługi Azure DevOps i funkcji GitHub Actions, aby zautomatyzować wdrażanie artefaktu obszaru roboczego usługi Fabric w wielu środowiskach. Aby uzyskać więcej informacji, zobacz Ciągła integracja i ciągłe dostarczanie dla obszaru roboczego Fabric.
Umieść każde obciążenie w osobnym szablonie wdrożenia i zapisz zasoby w systemach kontroli źródła. Szablony można wdrażać razem lub indywidualnie w ramach procesu ciągłej integracji i ciągłego dostarczania (CI/CD). Takie podejście upraszcza proces automatyzacji. Ta architektura ma cztery główne obciążenia:
- Magazyn danych i powiązane zasoby
- Potoki usługi Data Factory
- Zasoby usługi Power BI, w tym pulpity nawigacyjne, aplikacje i zestawy danych
- Scenariusz symulowany w środowisku lokalnym do chmury
Rozważ przemieszczanie obciążeń tam, gdzie jest to praktyczne. Wdróż obciążenie na różnych etapach. Uruchom testy weryfikacji na każdym etapie przed przejściem do następnego etapu. Takie podejście wypycha aktualizacje do środowisk produkcyjnych w kontrolowany sposób i minimalizuje nieoczekiwane problemy z wdrażaniem. Użyj strategii wdrażania niebieski-zielony i kanary wydania , aby zaktualizować środowiska produkcyjne na żywo.
Użyj strategii wycofywania do obsługi wdrożeń, które zakończyły się niepowodzeniem. Możesz na przykład automatycznie ponownie wdrożyć wcześniejsze, pomyślne wdrożenie z historii wdrożenia. Użyj flagi
--rollback-on-errorw interfejsie wiersza polecenia platformy Azure.Użyj aplikacji Metryki pojemności Fabric, aby uzyskać kompleksowe monitorowanie zużycia pojemności Fabric. Użyj monitorowania obszaru roboczego do szczegółowego monitorowania dzienników telemetrii w Fabric.
Narzędzie do szacowania pojemności sieci szkieletowej umożliwia oszacowanie potrzeb związanych z pojemnością sieci szkieletowej.
Efektywność operacyjna
Wydajność odnosi się do możliwości skalowania obciążenia w celu efektywnego zaspokojenia wymagań użytkowników. Aby uzyskać więcej informacji, zobacz Lista kontrolna przeglądu projektu pod kątem wydajności.
W tym artykule użyto pojemności Fabric F64 do zademonstrowania możliwości Business Intelligence. Dedykowane zasoby Power BI w platformie Fabric mieszczą się w zakresie od F64 do maksymalnego rozmiaru SKU. Aby uzyskać więcej informacji, zobacz Cennik Fabric.
Aby określić, ile pojemności potrzebujesz, wykonaj następujące czynności:
Oceń obciążenie pojemności.
Zainstaluj aplikację Metryki pojemności sieci szkieletowej na potrzeby ciągłego monitorowania.
Rozważ użycie technik optymalizacji pojemności związanych z obciążeniem.
Współautorzy
Firma Microsoft utrzymuje ten artykuł. Następujący współautorzy napisali ten artykuł.
Główny autor:
- Bibhu Acharya | Główny architekt rozwiązań w chmurze
Inni współautorzy:
- Jim McLeod | Architekt rozwiązań w chmurze
- Miguel Myers | Starszy menedżer programu
- Galina Polyakova | Starszy architekt rozwiązań w chmurze
- George Stevens | Inżynier rozwiązań
Aby wyświetlić niepubliczne profile serwisu LinkedIn, zaloguj się do serwisu LinkedIn.
Dalsze kroki
- Co to jest usługa Power BI Premium?
- Czym jest usługa Microsoft Entra ID?
- Co to jest materiał?
- Co to jest usługa Data Factory w Fabric?
- Co to jest usługa Azure SQL?