Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Na tej stronie opisano sposób migrowania istniejących tabel online usługi Databricks (starsza wersja). Możesz przeprowadzić migrację do następujących elementów:
- Sklep funkcji online
- Zsynchronizowana tabela usługi Lakebase
Ważne
Tabele online usługi Databricks (starsza wersja) są przestarzałe. Po 15 stycznia 2026 r. nie będzie można uzyskać dostępu do tych tabel.
Usługa Databricks Online Feature Store (obsługiwana przez usługę Lakebase) jest zalecaną metodą obsługi funkcji online.
Wyświetlanie listy wszystkich istniejących tabel online
Aby wyświetlić wszystkie istniejące tabele online w obszarze roboczym, użyj zapytania SQL lub skryptu języka Python.
SQL
Zastąp <workspace_url> i <workspace_id> informacjami o swoim obszarze roboczym.
SELECT
CONCAT("https://<workspace_url>/pipelines/", usage_metadata.dlt_pipeline_id, "?o=<workspace_id>"),
SUM(usage_quantity)
FROM
system.billing.usage
WHERE
usage_date > DATE_SUB(NOW(), 7)
AND billing_origin_product = 'ONLINE_TABLES'
GROUP BY
ALL;
Python
from databricks.sdk import *
from databricks.sdk.service.catalog import *
w = WorkspaceClient()
result = []
for catalog in w.catalogs.list():
for schema in w.schemas.list(catalog_name=catalog.name):
for table in w.tables.list(catalog_name=catalog.name, schema_name=schema.name):
if table.table_type == TableType.FOREIGN and table.data_source_format == DataSourceFormat.MYSQL_FORMAT and table.pipeline_id is not None:
result.append((table.full_name, table.comment))
print(result)
Migrowanie tabel online do magazynu funkcji online dla modelu lub funkcji obsługujących punkty końcowe
Ważne
Ta funkcja jest dostępna w publicznej wersji zapoznawczej i jest dostępna w następujących regionach:
westus, westus2, , , eastuseastus2northeuropewesteuropeaustraliaeastbrazilsouthcanadacentralcentralindiacentralussouthcentralussoutheastasiauksouth
Krok 1. Tworzenie magazynu funkcji online i publikowanie tabel funkcji
Usługa Databricks zaleca utworzenie pojedynczego magazynu online na obszar roboczy na potrzeby testowania i weryfikacji koncepcji. W przypadku przypadków użycia w środowisku produkcyjnym lub wymagań dotyczących izolacji można aprowizować dodatkowe magazyny.
from databricks.feature_engineering import FeatureEngineeringClient
fe = FeatureEngineeringClient()
# Create a single online store that can support multiple feature tables
fe.create_online_store(
name="online-feature-store",
capacity="CU_1"
)
Aby uzyskać szczegółowe informacje na temat publikowania tabel funkcji, zobacz Magazyny funkcji online usługi Databricks.
Krok 2. Aktualizowanie punktu końcowego, który zależy od tych funkcji online
Użyj zestawu SDK usługi Databricks dla języka Python lub interfejsu użytkownika, aby zaktualizować punkt końcowy przy użyciu nowej zmiennej MIGRATE_FEATURE_STORE środowiskowej z bieżącą datą jako wartością.
from databricks.sdk import WorkspaceClient
from databricks.sdk.service.serving import EndpointCoreConfigInput, ServedEntityInput
workspace = WorkspaceClient()
workspace.serving_endpoints.update_config(
name="my-serving-endpoint",
served_entities=[
ServedEntityInput(
entity_name="main.default.customer_features",
workload_size="Small",
scale_to_zero_enabled=True,
environment_vars={
# Set to the current date (optional time) to indicate migration to online store
# This environment variable can be removed after January 15, 2026.
"MIGRATE_FEATURE_STORE": "2025-11-13"
}
)
]
)
Aby uzyskać szczegółowe informacje, zobacz Aktualizowanie punktu końcowego.
Krok 3. Czyszczenie tabel online
Sprawdź, czy punkt końcowy korzysta z nowego magazynu online, sprawdzając, czy zdarzenia punktu końcowego zawierają komunikaty takie jak Linked to Online Feature Store table: "table name". Zobacz Monitorowanie jakości modelu i kondycji punktu końcowego.
Następnie usuń starsze tabele online. Zobacz Usuwanie tabeli online przy użyciu interfejsu użytkownika lub Usuwanie tabeli online przy użyciu interfejsów API.
Migrowanie tabel online do zsynchronizowanych tabel olTP
Ważne
Ta funkcja jest dostępna w wersji próbnej w następujących regionach: westus, westus2, eastus, eastus2, centralus, southcentralus, northeurope, westeurope, australiaeast, brazilsouth, canadacentral, centralindia, southeastasia, uksouth.
Krok 1. Tworzenie wystąpienia bazy danych
Aby rozpocząć, utwórz wystąpienie bazy danych Lakebase do przechowywania zsynchronizowanych tabel. Zobacz Stwórz i zarządzaj wystąpieniem bazy danych.
Opcjonalnie możesz utworzyć wykaz baz danych, aby używać uprawnień wykazu aparatu Unity do zarządzania dostępem do danych. Zobacz Zarejestruj swoją bazę danych w Katalogu Unity.
Krok 2. Tworzenie zsynchronizowanej tabeli z tabeli źródłowej
Zsynchronizowana tabela to tabela typu Postgres tylko do odczytu w ramach Unity Catalog, która automatycznie synchronizuje dane z tabeli Unity Catalog do twojego wystąpienia bazy danych Lakebase.
Aby przeprowadzić migrację z tabel online do zsynchronizowanych tabel, utwórz zsynchronizowaną tabelę z tabeli źródłowej tabeli online:
- W
Wykaz, wybierz tabelę online, którą chcesz przeprowadzić migrację do zsynchronizowanej tabeli.
- Na karcie Przegląd w sekcji Opis kliknij nazwę tabeli Źródło.
- Utwórz zsynchronizowaną tabelę z wybranej tabeli źródłowej. Zobacz Synchronizowanie danych z tabel katalogu Unity do instancji bazy danych.
- Zsynchronizowaną tabelę można przechowywać w tej samej lokalizacji katalogu co istniejąca tabela online.
- Potok można udostępniać między zsynchronizowanych tabelami.
- Po utworzeniu zsynchronizowanej tabeli możesz nawiązać połączenie z wystąpieniem bazy danych i wykonać zapytanie bezpośrednio. Zobacz Connect and query (Nawiązywanie połączenia i wykonywanie zapytań).
Krok 3. Czyszczenie tabel online
Po utworzeniu zsynchronizowanych tabel usuń tabele online. Zobacz Usuwanie tabeli online przy użyciu interfejsu użytkownika lub Usuwanie tabeli online przy użyciu interfejsów API.