Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Ten artykuł zawiera omówienie opcji tworzenia obszarów roboczych i zarządzania nimi.
Co to jest obszar roboczy?
Obszar roboczy to wdrożenie usługi Azure Databricks na koncie usługi w chmurze. Zapewnia ujednolicone środowisko do pracy z elementami zawartości usługi Azure Databricks dla określonego zestawu użytkowników.
Dostępne są dwa typy obszarów roboczych usługi Databricks:
- Bezserwerowe obszary robocze (publiczna wersja zapoznawcza): wdrożenie obszaru roboczego na koncie usługi Databricks, które jest wstępnie skonfigurowane z bezserwerowym środowiskiem obliczeniowym i domyślnym magazynem w celu zapewnienia całkowicie bezserwerowego środowiska. Nadal możesz nawiązać połączenie z przechowywaniem w chmurze z bezserwerowych obszarów roboczych.
- Klasyczne obszary robocze: wdrożenie obszaru roboczego na koncie usługi Databricks, które aprowizuje zasoby magazynu i zasobów obliczeniowych na istniejącym koncie chmury. Przetwarzanie bezserwerowe jest nadal dostępne w klasycznych obszarach roboczych.
Requirements
Przed utworzeniem obszaru roboczego usługi Azure Databricks musisz mieć subskrypcję platformy Azure , która nie jest subskrypcją bezpłatnej wersji próbnej.
Jeśli masz bezpłatne konto, wykonaj następujące czynności:
- Przejdź do swojego profilu i zmień subskrypcję na płatność zgodnie z rzeczywistym użyciem. Zobacz Bezpłatne konto platformy Azure.
- Usuń limit wydatków.
- Zażądaj zwiększenia limitu przydziału dla procesorów wirtualnych w Twoim regionie.
wymagane uprawnienia platformy Azure
Aby utworzyć obszar roboczy usługi Azure Databricks, musisz być jednym z następujących elementów:
Użytkownik z rolą współautora usługi Azure lub właściciela na poziomie subskrypcji.
Użytkownik z niestandardową definicją roli, która ma następującą listę uprawnień:
Microsoft.Databricks/workspaces/*Microsoft.Resources/subscriptions/resourceGroups/readMicrosoft.Resources/subscriptions/resourceGroups/writeMicrosoft.Databricks/accessConnectors/*Microsoft.Compute/register/actionMicrosoft.ManagedIdentity/register/actionMicrosoft.Storage/register/actionMicrosoft.Network/register/actionMicrosoft.Resources/deployments/validate/actionMicrosoft.Resources/deployments/writeMicrosoft.Resources/deployments/read
Uwaga / Notatka
Uprawnienia Microsoft.Compute/register/action, Microsoft.ManagedIdentity/register/action, Microsoft.Storage/register/action, Microsoft.Network/register/action nie są wymagane, jeśli ci dostawcy są już zarejestrowani w subskrypcji. Zobacz Zarejestruj dostawcę zasobów.
Wybieranie typu obszaru roboczego
W poniższych sekcjach opisano, który typ obszaru roboczego jest najlepszy w przypadku typowych przypadków użycia. Skorzystaj z tych zaleceń, aby określić, czy należy wdrożyć bezserwerowy, czy klasyczny obszar roboczy.
Kiedy wybrać obszary robocze bezserwerowe
Obszary robocze bezserwerowe są najlepszym wyborem w następujących przypadkach użycia:
- Umożliwianie użytkownikom biznesowym uzyskiwania dostępu do usługi Databricks One
- Tworzenie pulpitów nawigacyjnych sztucznej inteligencji/analizy biznesowej
- Tworzenie aplikacji Databricks
- Wykonywanie eksploracyjnej analizy przy użyciu notesów lub magazynów SQL
- Nawiązywanie połączenia z dostawcami SaaS za pośrednictwem usługi Lakehouse Federation (ale nie z usługą Lakeflow Connect)
- Używanie funkcji Genie Spaces dla przypadków użycia biznesowych
- Testuj nowe funkcje Mosaic AI przed przeniesieniem ich do środowiska produkcyjnego
- Stwórz bezserwerowe deklaratywne potoki Spark z wykorzystaniem Lakeflow
Kiedy wybrać klasyczne obszary robocze
Klasyczne obszary robocze są najlepszym wyborem dla następujących przypadków użycia:
- Wykonywanie prac programistycznych w przypadku sztucznej inteligencji lub uczenia maszynowego, które wymagają procesorów GPU
- Używanie środowiska Databricks Runtime na potrzeby uczenia maszynowego lub biblioteki MLib platformy Apache Spark
- Przenieś istniejący starszy kod platformy Spark korzystający z RDD platformy Spark
- Używanie języka Scala lub R jako podstawowego języka kodowania
- Strumieniowanie danych wymagających domyślnych lub czasowych interwałów wyzwalania
- Połącz się z interfejsami API usługi Databricks poprzez połączenie PrivateLink
- Bezpośrednie nawiązywanie połączenia z systemami lokalnymi lub prywatnymi bazami danych za pośrednictwem programu Lakeflow Connect
Opcje tworzenia obszaru roboczego
Istnieje wiele sposobów wdrażania obszaru roboczego usługi Azure Databricks. Standardową metodą wdrażania jest witryna Azure Portal lub narzędzie Terraform.
- Wdrażanie obszaru roboczego przy użyciu witryny Azure Portal
- Wdrażanie obszaru roboczego przy użyciu narzędzia Terraform
Ponadto można tworzyć obszary robocze przy użyciu następujących narzędzi: