Notitie
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen u aan te melden of de directory te wijzigen.
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen de mappen te wijzigen.
Dit artikel beschrijft wat Databricks aanbeveelt voor batch-inference.
Zie Modellen implementeren met behulp van Mosaic AI Model Servingvoor realtime-modelverwerking op Azure Databricks.
AI-functies voor batchinference
Belangrijk
Deze functie is beschikbaar als openbare preview.
AI-functies zijn ingebouwde functies die u kunt gebruiken om AI toe te passen op uw gegevens die zijn opgeslagen op Databricks. U kunt batchdeductie uitvoeren met behulp van taakspecifieke AI-functies of de functie voor algemeen gebruik. ai_query
Hier volgt een voorbeeld van batchdeductie met behulp van de taakspecifieke AI-functie. ai_translate nl-NL: Als u batch-inferentie wilt uitvoeren voor een hele tabel, kunt u de limit 500 uit uw query verwijderen.
SELECT
writer_summary,
ai_translate(writer_summary, "cn") as cn_translation
from user.batch.news_summaries
limit 500
;
U kunt ook de algemene functie ai_query gebruiken om batchinference uit te voeren.
- Bekijk welke modeltypen en de bijbehorende modellen worden
ai_queryondersteund. - Zie Batch-inferentiepijplijnen uitrollen.
Batch-inferentie met behulp van een Spark DataFrame
Zie Batchdeductie uitvoeren met behulp van een Spark DataFrame voor een stapsgewijze handleiding voor het doorlopen van de modeldeductiewerkstroom met behulp van Spark.
Zie de volgende artikelen voor voorbeelden van deep learning-modeldeductie: