Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
DOTYCZY:
Azure Data Factory
Azure Synapse Analytics
Napiwek
Wypróbuj usługę Data Factory w usłudze Microsoft Fabric — rozwiązanie analityczne typu all-in-one dla przedsiębiorstw. Usługa Microsoft Fabric obejmuje wszystko, od przenoszenia danych do nauki o danych, analizy w czasie rzeczywistym, analizy biznesowej i raportowania. Dowiedz się, jak bezpłatnie rozpocząć nową wersję próbną !
W tym scenariuszu chcesz usunąć oryginalne pliki w usłudze Azure Blob Storage i skopiować dane z usługi Azure SQL Database do usługi Azure Blob Storage zgodnie z harmonogramem godzinowym przez 8 godzin dziennie. Obliczamy cenę za 30 dni. Wykonujesz to dwa razy w różnych potokach dla każdego uruchomienia. Czas wykonywania tych dwóch potoków nakłada się na siebie.
Ceny używane w tym przykładzie są hipotetyczne i nie są przeznaczone do oznaczania dokładnych rzeczywistych cen. Koszty odczytu/zapisu i monitorowania nie są wyświetlane, ponieważ są one zwykle niewielkie i nie będą miały znaczącego wpływu na ogólne koszty. Wykonywane działania są również zaokrąglane do najbliższego 1000 w szacunkach kalkulatora cen.
Zapoznaj się z kalkulatorem cen platformy Azure, aby uzyskać bardziej szczegółowe scenariusze i oszacować przyszłe koszty korzystania z usługi.
Konfigurowanie
Aby zrealizować ten scenariusz, należy utworzyć dwa potoki danych z następującymi elementami:
- Działanie potoku — działanie usuwania.
- Działanie kopiowania z zestawem danych wejściowych dla danych, które mają być kopiowane z usługi Azure Blob Storage.
- Wyjściowy zestaw danych dla danych w usłudze Azure SQL Database.
- Wyzwalacz harmonogramu do wykonania potoku. Jeśli chcesz uruchomić potok, możesz to zrobić natychmiast lub zaplanować. Oprócz samego potoku każde wystąpienie wyzwalacza jest liczone jako pojedyncze uruchomienie działania.
Szacowanie kosztów
| Operacje | Typy i jednostki |
|---|---|
| Uruchamianie potoku | 6 Uruchomienia działań na każde wykonanie (2 dla przebiegów wyzwalacza, 4 dla uruchomień działań) = 1440, zaokrąglono w górę, ponieważ kalkulator akceptuje tylko przyrosty o 1000. |
| Wykonanie czynności usunięcia: czas wykonania potoku na jedno wykonanie = 7 minut. Jeśli wykonanie czynności usunięcia w pierwszym potoku trwa od 10:00 do 10:05 UTC, a wykonanie czynności usunięcia w drugim potoku trwa od 10:02 do 10:07 UTC. | Łącznie (7 min + 60 min) / 60 min * 30 miesięcznych wykonań = 33,5 godzin wykonywania potoku w zarządzanej sieci VNET. Przepustowość potoku obsługuje do 50 jednoczesnych wykonań na węzeł w zarządzanej sieci wirtualnej. Czas życia (TTL) dla działalności pipeline'u wynosi 60 minut. |
| Założenia dotyczące kopiowania danych: czas wykonywania diu na wykonanie = 10 minut, jeśli wykonanie kopiowania w pierwszym potoku wynosi od 10:06 UTC do 10:15 CZASU UTC, a wykonywanie działania kopiowania w drugim potoku wynosi od 10:08 czasu UTC do 10:17 czasu UTC. | [(10 min + 2 min (opłaty za czas kolejki do 2 minut)) / 60 minut * 4 zarządzane środowisko Azure VNET Integration Runtime (domyślne ustawienie DIU = 4)] * 2 = 1,6 dzienne godziny wykonywania działań przenoszenia danych w zarządzanej sieci wirtualnej. Aby uzyskać więcej informacji na temat jednostek integracji danych i optymalizowania wydajności kopiowania, zobacz ten artykuł |
Przykład kalkulatora cen
Łączna cena scenariusza dla 30 dni: 83,50 USD
Powiązana zawartość
- Przykład cenowy: kopiowanie danych z usługi AWS S3 do usługi Azure Blob Storage co godzinę przez 30 dni
- Przykład cenowy: kopiowanie danych i przekształcanie za pomocą usługi Azure Databricks co godzinę przez 30 dni
- Przykład cenowy: Kopiowanie danych i przekształcanie przy użyciu parametrów dynamicznych co godzinę przez 30 dni
- Przykład cenowy: uruchamianie pakietów usług SSIS w środowisku Azure-SSIS Integration Runtime
- Przykład cenowy: Debugowanie mapowania przepływu danych w normalny dzień roboczy
- Przykład cenowy: przekształcanie danych w magazynie blob za pomocą przepływu mapowania danych
- Przykład wyceny: pozyskiwanie danych różnicowych z SAP ECC przez SAP CDC w przepływach danych mapowania