Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Ważne
Powiadomienie o wycofaniu: od 4 grudnia 2025 r. Databricks nie wypełnia już automatycznie tabel payload_request_logs i payload_assessment_logs. Te tabele zostały przestarzałe.
- Nowo wdrożone agenty za pośrednictwem agents.deploy() nie będą już generować tabel request_logs ani assessment_logs.
- Starsze tabele request_logs i assessment_logs nie są już wypełniane przez Mosaic AI. Możesz utworzyć własną tabelę zastępczą przy użyciu zmaterializowanych widoków. Zobacz alternatywne rozwiązania dla platformy MLflow 2.
- Starszy eksperymentalny interfejs API do rejestrowania opinii nie będzie już obsługiwany dla agentów wdrożonych przy użyciu najnowszej wersji agentów usługi Databricks-agents. Zamiast tego użyj interfejsu API ocen MLflow 3.
Wymagana akcja:
- Zalecane: Zaktualizuj do MLflow 3, aby korzystać ze śledzenia w czasie rzeczywistym, co zapewnia ujednolicone logowanie o lepszej wydajności.
- Alternatywa: jeśli nadal używasz platformy MLflow 2, zapoznaj się z alternatywnymi rozwiązaniami w celu utrzymania dostępu do danych.
Podczas wdrażania agenta sztucznej inteligencji usługa Databricks tworzy trzy tabele wnioskowania, które automatycznie przechwytują żądania i odpowiedzi do i z agenta. Te tabele ułatwiają monitorowanie wydajności, problemów z debugowaniem i analizowanie opinii użytkowników.
| Tabela inferencji | Przykładowa nazwa tabeli usługi Azure Databricks | Spis treści |
|---|---|---|
| Ładunek | {catalog_name}.{schema_name}.{model_name}_payload |
Nieprzetworzone ładunki żądań JSON i odpowiedzi |
| Dzienniki żądań ładunku | {catalog_name}.{schema_name}.{model_name}_payload_request_logs |
Sformatowane żądanie i odpowiedzi. Monitorowanie MLflow. Pochodzi z tabeli surowego ładunku. |
| Dzienniki oceny ładunku | {catalog_name}.{schema_name}.{model_name}_payload_assessment_logs |
Sformatowane informacje zwrotne, jak podano w aplikacji Review, dla każdego żądania Pochodzi z tabeli surowego ładunku. |
- Nieprzetworzone dane JSON są przekazywane do tabeli ładunków w ciągu godziny od otrzymania żądania przez agenta.
- Dzienniki żądań i dzienniki oceny żądań przetwarzają i formatują dane z tabeli ładunku. Zajmuje to dodatkowy czas.
- W razie potrzeby możesz ręcznie wyodrębnić i przetworzyć dane z tabeli ładunków.
- Zmiany w tabeli ładunku (usunięcia lub aktualizacje) nie są automatycznie synchronizowane z tabelami pochodnymi.
Co się zmienia?
Usługa Databricks nie wypełnia już automatycznie tabel payload_request_logs i payload_assessment_logs.
Co nadal działa: nieprzetworzona payload tabela nadal odbiera dane z nowych żądań.
Przejście na MLflow 3 i używanie śledzenia w czasie rzeczywistym do ujednolicenia dzienników agentów
Usługa Databricks zdecydowanie zaleca migrowanie punktów końcowych agenta do korzystania z platformy MLflow 3. Śledzenie MLflow 3 w czasie rzeczywistym eliminuje konieczność oddzielnych request_logs i assessment_logs tabel, dzięki ujednoliceniu wszystkich dzienników agenta w jednej lokalizacji śledzenia.
| Obserwowalność systemów starszego typu | MLflow 3 Możliwość obserwacji | |
|---|---|---|
| Opóźnienie zbierania danych | 1+ godz. | <10s |
| Organizacja danych | Ślady i opinie użytkowników (oceny) są wyodrębniane do oddzielnych tabel Unity Catalog (request_logs i assessment_logs). |
Wszystkie dane związane z obserwacją, takie jak ślady, opinie i oceny, mogą być łatwo dostępne w tym samym eksperymencie. |
| Zbieranie opinii | Nie jest dobrze wspierane. Używa eksperymentalnego interfejsu API opinii, który umieszcza dane w tabeli wnioskowania ładunku danych. | Platforma MLflow 3 udostępnia uproszczone interfejsy API do uruchamiania oceny, etykietowania przez człowieka i zarządzania zestawami danych oceny. |
| Nadzorowanie | Nie jest dobrze wspierane. Wsparcie jest ograniczone do przestarzałego monitorowania dziedzictwa, który ograniczał się do wbudowanych dziedzicznych sędziów i sędziego zasad, i nie obsługuje niestandardowych metryk. Monitorowanie dziedziczone działa na podstawie dzienników żądań danych, co oznacza, że ocena odpowiedzi agenta potrwa ponad godzinę. |
Monitorowanie jest natywnie zintegrowane z platformą MLflow 3, obsługując dowolny moduł scorer:
Zawiera funkcje uzupełniania metryk, które pozwalają na retroaktywne stosowanie nowych metryk do historycznych zapisów. Ślady są odczytywane z biblioteki MLflow do oceny, co zmniejsza opóźnienie monitorowania do 15–30 minut. |
Narzędzie MLflow 3 dołącza oceny do śladów, a następnie rejestruje ślady na serwerze śledzenia MLflow wraz ze wszystkimi dziennikami ładunku, odpowiedzi i kroku pośredniego. Zobacz Etykieta podczas opracowywania i Pojęcia i model danych.
Kroki migracji
- Zaktualizuj do MLflow 3: Upewnij się, że agent używa MLflow 3.1.3 lub nowszej. Śledzenie zostanie automatycznie włączone podczas wdrażania agentów za pomocą platformy MLflow 3.
# Install prerequisites
%pip install mlflow>=3.1.3
# Restart Python to make sure the new packages are picked up
dbutils.library.restartPython()
- Zaloguj agenta: Zaloguj agenta w zwykły sposób, upewniając się, że wymaga on platformy MLflow 3.1.3 lub nowszej. Następnie zarejestruj model w usłudze UC.
# Log your agent
with mlflow.start_run():
logged_agent_info = mlflow.pyfunc.log_model(
name="my_agent",
pip_requirements=[
"mlflow>=3.1.3",
],
...
)
# Register your model to UC
uc_registered_model_info = mlflow.register_model(
model_uri=logged_agent_info.model_uri, name=UC_MODEL_NAME
)
- Wdróż agenta: Wdróż agenta tak, jak zwykle. Opcjonalnie ustaw eksperyment MLflow przed wdrożeniem, aby kontrolować miejsce rejestrowania śladów. Jeśli tego nie zrobisz, ślady zostaną zarejestrowane w aktualnie aktywnym eksperymencie MLflow.
import mlflow
from databricks import agents
# Set experiment for trace logging
mlflow.set_experiment("/path/to/your/experiment")
# Deploy with automatic tracing
deployment = agents.deploy(uc_model_name, uc_model_info.version)
# Retrieve the query endpoint URL for making API requests
deployment.query_endpoint
Uwaga / Notatka
Platforma MLflow 3 obecnie obsługuje maksymalnie 100 000 śladów na punkt końcowy obsługujący. Jeśli przewidujesz, że potrzebujesz wyższych limitów, skontaktuj się z zespołem ds. kont usługi Databricks.
Zobacz Agentów śledzenia wdrożonych na platformie Databricks po więcej informacji.
Alternatywne opcje kontynuowania korzystania z biblioteki MLflow 2
Ważne
Alternatywne metody MLflow 2 nie obsługują punktów końcowych z włączonym monitorowaniem agenta. Jeśli używasz monitorowania, musisz przejść na MLflow 3 i ponownie utworzyć monitory jako mierniki MLflow 3.
Jeśli nie możesz uaktualnić do platformy MLflow 3, usługa Databricks nadal wypełnia nieprzetworzoną tabelę payload. Jednak usługa Databricks nie przetwarza już tych danych do tabel payload_requests_logs i payload_assessment_logs.
Zamiast tego usługa Databricks generuje widoki dla tabel ładunku, które zapewniają te same sformatowane dane. Dostępne są dwie opcje uzyskiwania dostępu do tych danych. Użyj udostępnionych widoków lub utwórz zmaterializowane widoki.
Opcja 1. Korzystanie z udostępnionych widoków
Najprostszą metodą jest użycie wygenerowanych widoków payload_request_logs_view i payload_assessment_logs_view zamiast przestarzałych tabel.
Te widoki wysyłają zapytanie do tabeli ładunków, aby zapewnić te same sformatowane dane i działają natychmiast bez konieczności konfigurowania.
Opcjonalnie zmień nazwy widoków tak, aby odpowiadały oryginalnym nazwom tabel, aby zminimalizować zmiany kodu.
Opcja 2. Tworzenie zmaterializowanych widoków
Udostępnione widoki (payload_request_logs_view i payload_assessment_logs_view) obliczają dane w czasie rzeczywistym, wysyłając zapytanie do tabeli ładunków. W przypadku scenariuszy wymagających fizycznych tabel delty, takich jak monitorowanie w czasie rzeczywistym, zamiast tego utwórz zmaterializowane widoki.
Uruchom następujący notes, aby przekonwertować widoki na zmaterializowane widoki:
Tworzenie zmaterializowanych widoków dla dzienników wnioskowania agenta
Często zadawane pytania
Co się stanie z danymi w istniejących dziennikach żądań i dziennikach oceny?
Istniejące dane w tabelach wnioskowania będą nadal dostępne. Jednak po 4 grudnia 2025 r. żadne nowe dane nie będą wprowadzane do tabel request_logs i assessment_logs.
Czy wdrożenie agenta kończy się niepowodzeniem?
Nie, wcześniejsze wdrożenia agentów nadal działają, a tabele inferencji ładunku będą nadal wypełniane. Jednak po datach wycofania dane nie będą dostępne w tabelach request_logs i assessment_logs. Użyj udostępnionych widoków lub przeprowadź migrację do platformy MLflow 3, aby zachować równoważne funkcje.
Jeśli potrzebujesz pomocy dotyczącej migracji, skontaktuj się z zespołem pomocy technicznej usługi Databricks.