Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Automatyczne skalowanie rozliczeń dla Spark wprowadza nowy model rozliczeń pay-as-you-go dla obciążeń platformy Apache Spark w usłudze Microsoft Fabric, zaprojektowany w celu zapewnienia większej elastyczności i optymalizacji kosztów. Po włączeniu tego modelu zadania platformy Spark nie zużywają już zasobów obliczeniowych z pojemności sieci szkieletowej, ale zamiast tego używają dedykowanych, bezserwerowych zasobów rozliczanych niezależnie — podobnie jak w przypadku usługi Azure Synapse Spark.
Ten model uzupełnia istniejący model oparty na pojemności w usłudze Fabric, umożliwiając organizacjom wybór odpowiedniego modelu obliczeniowego dla obciążeń.
Wybieranie między rozliczeniami automatycznego skalowania a modelem pojemnościowym
| Funkcja | Model pojemnościowy | Automatyczne skalowanie rozliczeń dla platformy Spark |
|---|---|---|
| Rozliczenia | Koszt stały na warstwę pojemności | Płatność zgodnie z użyciem dla zadań Spark |
| Skalowanie | Pojemność współdzielona między obciążeniami | Platforma Spark skaluje się niezależnie |
| konflikt zasobów | Możliwe między zadaniami | Dedykowane limity obliczeniowe dla platformy Spark |
| najlepszy przypadek użycia | Przewidywalne obciążenia | Dynamiczne lub impulsowe zadania platformy Spark |
Strategicznie korzystając z obu modeli, zespoły mogą równoważyć koszty i wydajność — uruchamianie stabilnych, cyklicznych zadań na zasobach, podczas przenoszenia obciążeń ad hoc lub intensywnych zadań Spark do AutoScale Billing.
Najważniejsze korzyści
- ✅ Opłacalność — płacisz tylko za środowisko uruchomieniowe zadań platformy Spark.
- ✅ niezależne skalowanie — obciążenia platformy Spark działają bez wpływu na inne operacje oparte na pojemności.
- ✅ gotowe do użycia w przedsiębiorstwie — integruje się z usługą Azure Quota Management w celu zapewnienia elastyczności skalowania.
Jak działa rozliczanie autoskalowania
Po włączeniu funkcji Automatyczne Skalowanie Rozliczeń zmienia się sposób obsługi obciążeń Spark.
- Zadania Spark zostaną odciążone z pojemności Fabric i nie zużywają jednostek CU z tej pojemności.
- Maksymalny limit jednostek obliczeniowych (CU) można skonfigurować tak, aby był zgodny z politykami budżetowymi lub zarządzania. Ten limit to tylko maksymalny limit (podobnie jak limit przydziału) dla obciążeń platformy Spark. Opłaty są naliczane tylko za jednostki obliczeniowe zużywane przez twoje zadania, i nie ma kosztów związanych z bezczynnością zasobów obliczeniowych.
- Nie ma żadnych zmian w stawce rozliczania dla platformy Spark. Koszt platformy Spark pozostaje taki sam, co wynosi 0,5 CU hour na zadanie platformy Spark.
- Po osiągnięciu limitu jednostek obliczeniowych (CU) zadania platformy Spark będą umieszczane w kolejce (tryb wsadowy) lub ograniczane (tryb interaktywny).
- Użycie i koszty związane ze Spark są raportowane oddzielnie w aplikacji Fabric Capacity Metrics App oraz w Azure Cost Analysis.
Ważne
Rozliczanie automatycznego skalowania jest opcją na pojemność, a nie rozszerza się ani nie powraca do pojemności sieci szkieletowej. Jest to wyłącznie bezserwerowe i płatne na podstawie użycia. Włączasz rozliczanie automatycznego skalowania, ustalasz maksymalne limity i płacisz tylko za jednostki obliczeniowe (CU) zużywane przez uruchamiane zadania.
Zachowanie współbieżnych zadań i ich kolejkowanie
Po włączeniu rozliczeń skalowania automatycznego współbieżność zadań Spark podlega maksymalnemu limitowi jednostek pojemności (CU) zdefiniowanemu przez Administratora pojemności Fabric. W przeciwieństwie do standardowego modelu pojemności nie ma przebijania ani wygładzania.
- zadania Interactive Spark (takie jak operacje usługi Lakehouse, podgląd tabeli, ładowanie do tabelilub interaktywne zapytania w zeszycie) zostaną ograniczone po pełnym użyciu dostępnych jednostek przetwarzania (CU).
- Zadania Spark w tle (wyzwalane przez potoki , harmonogram zadań , wykonania interfejsu API , definicje zadań Spark lub obsługę tabel ) będą kolejkowane.
Rozmiar kolejki jest bezpośrednio powiązany z limitem cu:
Jeśli na przykład maksymalny limit CU został ustawiony na 2048, kolejka zadań platformy Spark może przechowywać do 2048 zadań.
Ten model zapewnia, że alokacja zasobów pozostaje przewidywalna i kontrolowalna, a jednocześnie obsługuje obciążenia o dużym natężeniu i nagłych wzrostach.
Zażądaj dodatkowych limitów przydziału
Jeśli obciążenia inżynierii danych lub nauki o danych wymagają wyższego limitu przydziału niż bieżący limit maksymalnej jednostki pojemności (CU), możesz zażądać zwiększenia za pośrednictwem strony Limity przydziału platformy Azure:
- Przejdź do witryny Azure Portal i zaloguj się.
- Na pasku wyszukiwania wpisz i wybierz pozycję Azure Quotas.
- Z listy dostępnych usług wybierz pozycję Microsoft Fabric.
- Wybierz subskrypcję skojarzoną z pojemnością Fabric.
- Zmodyfikuj limit przydziału, wprowadzając nowy limit CU, który zamierzasz otrzymać.
- Prześlij żądanie limitu przydziału.
Po zatwierdzeniu żądania nowe limity CU zostaną odświeżone i zastosowane do pojemności Fabric. Dzięki temu model rozliczeń Autoscale może obsłużyć zwiększone zapotrzebowanie bez przerywania obciążeń Spark.