Hinweis
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, sich anzumelden oder das Verzeichnis zu wechseln.
Für den Zugriff auf diese Seite ist eine Autorisierung erforderlich. Sie können versuchen, das Verzeichnis zu wechseln.
Die Autoscale-Abrechnung für Spark führt ein neues Pay-as-you-go-Abrechnungsmodell für Apache Spark-Workloads in Microsoft Fabric ein, das flexiblere Nutzungsmöglichkeiten und eine Kostenoptimierung bietet. Mit diesem Modell verbrauchen Spark-Aufträge keine Compute mehr aus der Fabric-Kapazität, sondern verwenden dedizierte, serverlose Ressourcen, die unabhängig abgerechnet werden – ähnlich wie Azure Synapse Spark.
Dieses Modell ergänzt das vorhandene kapazitätsbasierte Modell in Fabric, sodass Organisationen das richtige Computemodell für ihre Workloads auswählen können.
Auswählen zwischen Autoskalenabrechnung und Kapazitätsmodell
| Merkmal | Kapazitätsmodell | Automatische Abrechnung für Spark |
|---|---|---|
| Abrechnung | Fixkosten pro Kapazitätsstufe | Bezahlung nach Verbrauch für Spark-Jobs |
| Skalierung | Kapazität, die über Workloads hinweg geteilt wird | Spark skaliert unabhängig |
| Ressourcenkonflikt | Möglich zwischen Workloads | Dedizierte Rechenlimits für Spark |
| Optimaler Anwendungsfall | Vorhersagbare Workloads | Dynamische oder platzende Spark-Aufträge |
Durch die strategische Verwendung beider Modelle können Teams Kosten und Leistung ausgleichen – stabile, wiederkehrende Aufgaben effizient auf den Kapazitäten ausführen, während Ad-hoc- oder rechenintensive Spark-Workloads auf Autoscale Billing ausgelagert werden.
Hauptvorteile
- ✅ Kosteneffizienz – Bezahlen Sie nur für Spark-Auftragslaufzeit.
- ✅ Unabhängige Skalierung – Spark-Workloads werden ohne Auswirkungen auf andere kapazitätsbasierte Vorgänge ausgeführt.
- ✅ Unternehmensbereit – Integriert in Azure-Kontingentverwaltung zur Skalierungsflexibilität.
Funktionsweise der Autoscale-Abrechnung
Wenn aktiviert, ändert die Autoskalierung der Abrechnung, wie Spark-Workloads behandelt werden:
- Spark-Aufträge werden aus der Fabric-Kapazität entladen und verbrauchen kein CU aus der Fabric-Kapazität.
- Ein max. CU-Grenzwert kann so konfiguriert werden, dass er an Budget- oder Governancerichtlinien angepasst wird. Dieser Grenzwert ist nur ein maximaler Grenzwert (mehr wie ein Kontingent) für Ihre Spark-Workloads. Sie werden nur für die CUs belastet, die Ihre Aufträge verwenden, und es gibt keine Kosten für ungenutzte Rechenleistung.
- Es gibt keine Änderung des Abrechnungssatzes für Spark. Die Kosten für Spark bleiben gleich, was 0,5 CU Hour pro Spark-Auftrag ist.
- Sobald der CU-Grenzwert erreicht ist, werden Spark-Aufträge in die Warteschlange gestellt (Batch) oder gedrosselt (interaktiv).
- Spark-Nutzung und -Kosten werden separat in der Fabric-Kapazitätsmetrik-App und azure Cost Analysis gemeldet.
Von Bedeutung
Die Automatische Abrechnung ist pro Kapazität aktiviert und bricht nicht von der Fabric-Kapazität ab oder fällt nicht auf die Fabric-Kapazität zurück. Es ist rein serverlos und pay-as-you-go. Sie aktivieren die automatische Abrechnung und legen die maximalen Grenzwerte fest und werden nur für CUs belastet, die von den von Ihnen ausgeführten Aufträgen verbraucht werden.
Verhalten von Auftragsgleichzeitigkeit und Warteschlangen
Wenn die Automatische Abrechnung aktiviert ist, wird die Parallelität des Spark-Auftrags durch den vom Fabric-Kapazitätsadministrator definierten grenzwert für die maximale Kapazitätseinheit (CU) gesteuert. Im Gegensatz zum Standardkapazitätsmodell gibt es kein Bersten oder Glätten.
- Interaktive Spark-Aufträge (z. B. Lakehouse-Vorgänge, Tabellenvorschau, In Tabelle laden oder interaktive Notizbuchabfragen) werden gedrosselt , sobald die verfügbaren CUs vollständig genutzt werden.
- Hintergrund-Spark-Aufträge (ausgelöst durch Pipelines, Auftragsplanung, API-Ausführung, Spark-Auftragsdefinitionen oder Tabellenwartung) werden in die Warteschlange gestellt.
Die Warteschlangengröße ist direkt an den CU-Grenzwert gebunden:
Wenn beispielsweise der maximale CU-Grenzwert auf 2048 festgelegt ist, kann die Spark-Auftragswarteschlange bis zu 2048 Aufträge enthalten.
Mit diesem Modell wird sichergestellt, dass die Ressourcenverteilung vorhersehbar und kontrollierbar bleibt und gleichzeitig volumenintensive, überlastige Workloads unterstützt werden.
Anfordern zusätzlicher Kontingente
Wenn Ihre Daten-Engineering- oder Data-Science-Workloads ein höheres Kontingent als Ihr aktuelles maximales CU-Limit (Capacity Unit) erfordern, können Sie eine Erhöhung über die Azure-Kontingente-Seite anfordern.
- Navigieren Sie zum Azure-Portal und melden Sie sich an.
- Geben Sie im Suchfeld Azure Quotas ein und wählen Sie es aus.
- Wählen Sie Microsoft Fabric aus der Liste der verfügbaren Dienste aus.
- Wählen Sie das Abonnement aus, das Ihrer Fabric-Kapazität zugeordnet ist.
- Bearbeiten Sie das Kontingentlimit, indem Sie den neuen CU-Grenzwert eingeben, den Sie erwerben möchten.
- Übermitteln Sie Ihre Kontingentanforderung.
Sobald die Anforderung genehmigt wurde, werden die neuen CU-Grenzwerte aktualisiert und auf Ihre Fabric-Kapazität angewendet. Dadurch wird sichergestellt, dass Ihr Autoscale-Abrechnungsmodell eine erhöhte Nachfrage aufnehmen kann, ohne Spark-Workloads zu unterbrechen.