Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Von Bedeutung
Dieses Feature befindet sich in der Betaversion. Arbeitsbereichsadministratoren können den Zugriff auf dieses Feature über die Vorschauseite steuern. Siehe Verwalten von Azure Databricks-Vorschauen.
In diesem Artikel werden serverlose GPU-Compute auf Databricks beschrieben und empfohlene Anwendungsfälle, Anleitungen zum Einrichten von GPU-Computeressourcen und Featurebeschränkungen bereitgestellt.
Was ist serverlose GPU-Compute?
Serverlose GPU-Compute ist Teil des Serverless Compute-Angebots. Serverlose GPU-Compute ist auf benutzerdefinierte Single- und Multi-Node Deep Learning-Workloads spezialisiert. Sie können serverlose GPU-Compute verwenden, um benutzerdefinierte Modelle mit Ihren bevorzugten Frameworks zu trainieren und zu optimieren und modernste Effizienz, Leistung und Qualität zu erzielen.
Serverloses GPU-Computing umfasst:
- Eine integrierte Oberfläche in Notizbüchern, Unity-Katalog und MLflow: Sie können Ihren Code interaktiv mithilfe von Notizbüchern entwickeln.
- A10 GPU-Zugriffstasten:A10 GPUs wurden entwickelt, um kleine bis mittlere Machine Learning- und Deep Learning-Workloads zu beschleunigen, einschließlich klassischer ML-Modelle und Feinabstimmung kleinerer Sprachmodelle. A10s eignen sich gut für Vorgänge mit moderaten Rechenanforderungen.
- Multi-GPU- und Multiknotenunterstützung: Sie können verteilte Schulungsarbeitslasten mit mehreren GPUs und mehreren Knoten mithilfe der SERVERless GPU Python-API ausführen. Siehe verteilte Schulung.
Die vorinstallierten Pakete auf serverlosem GPU-Compute sind kein Ersatz für Databricks Runtime ML. Obwohl es allgemeine Pakete gibt, werden nicht alle Databricks-Runtime ML-Abhängigkeiten und -Bibliotheken in der serverlosen GPU-Computeumgebung wiedergegeben.
Python-Umgebungen auf Serverless GPU Compute
Databricks stellt zwei verwaltete Umgebungen bereit, um verschiedene Anwendungsfälle zu bedienen.
Hinweis
Arbeitsbereichsbasisumgebungen werden für serverlose GPU-Compute nicht unterstützt. Verwenden Sie stattdessen die Standard- oder KI-Umgebung, und geben Sie zusätzliche Abhängigkeiten direkt im Seitenbereich "Umgebungen" oder pip install diesen an.
Standardbasisumgebung
Dadurch wird eine minimale Umgebung mit einer stabilen Client-API bereitgestellt, um die Anwendungskompatibilität sicherzustellen. Es werden nur erforderliche Python-Pakete installiert. Auf diese Weise können Databricks den Server unabhängig aktualisieren, Leistungsverbesserungen, Sicherheitsverbesserungen und Fehlerbehebungen bereitstellen, ohne dass Codeänderungen an Workloads erforderlich sind. Dies ist die Standardumgebung, wenn Sie serverlose GPU-Compute auswählen. Wählen Sie diese Umgebung aus, wenn Sie die Umgebung für Ihre Schulung vollständig anpassen möchten.
Weitere Informationen zu Paketversionen, die in verschiedenen Versionen installiert sind, finden Sie in den Versionshinweisen:
KI-Umgebung
Die Databricks AI-Umgebung ist in serverloser GPU-Umgebung 4 verfügbar. Die KI-Umgebung basiert auf der Standardbasisumgebung mit allgemeinen Laufzeitpaketen und Paketen speziell für maschinelles Lernen auf GPUs. Es enthält beliebte Machine Learning-Bibliotheken, darunter PyTorch, LangChain, Transformers, Ray und XGBoost für Modellschulungen und -rückschlüsse. Wählen Sie diese Umgebung für die Ausführung von Schulungsworkloads aus.
Weitere Informationen zu Paketversionen, die in verschiedenen Versionen installiert sind, finden Sie in den Versionshinweisen:
Empfohlene Anwendungsfälle
Databricks empfiehlt serverlose GPU-Compute für jeden Modellschulungsfall, der Schulungsanpassungen und GPUs erfordert.
Beispiel:
- LLM Feinabstimmung
- Maschinelles Sehen
- Empfehlungssysteme
- Vertiefendes Lernen
- Deep-Learning-basierte Zeitreihenprognose
Anforderungen
- Ein Arbeitsbereich in einer der folgenden von Azure unterstützten Regionen:
eastuseastus2centralusnorthcentraluswestcentraluswestus
Einrichten der serverlosen GPU-Berechnung
So verbinden Sie Ihr Notizbuch mit serverlosem GPU-Compute und konfigurieren sie die Umgebung:
- Klicken Sie in einem Notizbuch oben auf das Dropdownmenü "Verbinden ", und wählen Sie "Serverless GPU" aus.
- Klicken Sie auf das
Um den Seitenbereich "Umgebung " zu öffnen.
- Wählen Sie A10 aus dem Feld Beschleuniger aus.
- Wählen Sie "Keine" für die Standardumgebung oder AI v4 für die KI-Umgebung aus dem Feld "Basisumgebung " aus.
- Wenn Sie "Keine" aus dem Feld " Basisumgebung " ausgewählt haben, wählen Sie die Umgebungsversion aus.
- Klicken Sie auf "Übernehmen" , und bestätigen Sie dann, dass Sie den serverlosen GPU-Compute auf Ihre Notizbuchumgebung anwenden möchten.
Hinweis
Die Verbindung zu Ihrem Compute-System wird nach 60 Minuten Inaktivität automatisch beendet.
Hinzufügen von Bibliotheken zur Umgebung
Sie können zusätzliche Bibliotheken in der serverlosen GPU-Computeumgebung installieren. Siehe Hinzufügen von Abhängigkeiten zum Notizbuch.
Hinweis
Das Hinzufügen von Abhängigkeiten mithilfe des Bereichs "Umgebungen ", wie in "Hinzufügen von Abhängigkeiten zum Notizbuch " zu sehen ist, wird für serverlose GPU-Computeaufträge nicht unterstützt.
Erstellen und Planen eines Auftrags
Die folgenden Schritte zeigen, wie Sie Aufträge für Ihre serverlosen GPU-Computeworkloads erstellen und planen. Weitere Details finden Sie unter Erstellen und Verwalten von geplanten Notizbuchaufträgen .
Nachdem Sie das Notizbuch geöffnet haben, das Sie verwenden möchten:
- Wählen Sie oben rechts die Schaltfläche "Zeitplan" aus.
- Wählen Sie "Zeitplan hinzufügen" aus.
- Füllen Sie das Formular " Neuer Zeitplan" mit dem Namen "Auftrag", " Zeitplan" und "Berechnen" auf.
- Wählen Sie "Erstellen" aus.
Sie können aufträge auch über die Benutzeroberfläche für Aufträge und Pipelines erstellen und planen. Eine schrittweise Anleitung finden Sie unter Erstellen eines neuen Auftrags .
Verteilte Schulung
Siehe verteilte Schulung.
Einschränkungen
- Serverlose GPU-Compute unterstützt nur A10-Zugriffstasten.
- Privater Link wird nicht unterstützt. Storage oder Pip-Repositories hinter Private Link werden nicht unterstützt.
- Serverlose GPU-Compute wird für Compliance-Sicherheitsprofilarbeitsbereiche (z. B. HIPAA oder PCI) nicht unterstützt. Die Verarbeitung regulierter Daten wird zurzeit nicht unterstützt.
- Bei geplanten Aufträgen auf serverlosem GPU-Computing wird das automatische Wiederherstellungsverfahren für inkompatible Paketversionen, die Ihrem Notizbuch zugeordnet sind, nicht unterstützt.
- Die maximale Laufzeit für eine Workload beträgt sieben Tage. Für Modellschulungsaufträge, die diesen Grenzwert überschreiten, implementieren Sie den Prüfpunkt, und starten Sie den Auftrag neu, sobald die maximale Laufzeit erreicht ist.
Laden von Daten
Siehe Laden von Daten auf serverlosem GPU-Compute.
Bewährte Methoden
Weitere Informationen finden Sie unter Bewährte Methoden für serverlose GPU-Compute.
Behandeln von Problemen beim Serverless GPU Compute
Wenn Beim Ausführen von Workloads auf serverlosem GPU-Compute Probleme auftreten, finden Sie im Handbuch zur Problembehandlung häufige Probleme, Problemumgehungen und Supportressourcen.
Notebook-Beispiele
Im Folgenden finden Sie verschiedene Notizbuchbeispiele, die veranschaulichen, wie Serverless GPU Compute für verschiedene Aufgaben verwendet wird.
| Aufgabe | Description |
|---|---|
| Große Sprachmodelle (LLMs) | Beispiele für die Feinabstimmung großer Sprachmodelle, darunter parametereffiziente Methoden wie Low-Rank Adaption (LoRA) und überwachte Feinabstimmungsansätze. |
| Computervision | Beispiele für Computervisionsaufgaben, einschließlich Objekterkennung und Bildklassifizierung. |
| Deep Learning-basierte Empfehlungssysteme | Beispiele für die Erstellung von Empfehlungssystemen mit modernen Deep Learning-Ansätzen wie Zweiturmmodellen. |
| Classic ML | Beispiele für herkömmliche Machine Learning-Aufgaben, einschließlich XGBoost-Modellschulungen und Zeitreihenprognosen. |
| Multi-GPU- und Multi-Node-Verteiltes Training | Beispiele für die Skalierung von Schulungen über mehrere GPUs und Knoten mithilfe der Serverless GPU-API, einschließlich verteilter Feinabstimmung. |
Beispiele für Multi-GPU-Schulungen
Weitere Informationen finden Sie unter "Multi-GPU" und "Verteilte Mehrknoten"-Schulung für Notizbücher, die veranschaulichen, wie verschiedene verteilte Schulungsbibliotheken für die Schulung mit mehreren GPU-Anwendungen verwendet werden.