Nota
O acesso a esta página requer autorização. Podes tentar iniciar sessão ou mudar de diretório.
O acesso a esta página requer autorização. Podes tentar mudar de diretório.
Este artigo descreve as informações de ambiente do sistema para ambiente sem servidor versão 2. Para garantir a compatibilidade do aplicativo, as cargas de trabalho sem servidor usam uma API versionada, conhecida como versão do ambiente, que permanece compatível com as versões mais recentes do servidor.
Pode selecionar a versão do ambiente usando o painel lateral do Ambiente nos seus notebooks sem servidor. Consulte Selecionar uma versão do ambiente.
Novos recursos e melhorias
Os novos recursos e melhorias a seguir estão disponíveis no ambiente sem servidor 2.
Painéis, alertas e consultas são suportados como arquivos de espaço de trabalho
Maio 20, 2025
Painéis, alertas e consultas agora são suportados como arquivos de espaço de trabalho, o que significa que você pode interagir programaticamente com esses objetos Databricks como qualquer outro arquivo, de qualquer lugar onde o sistema de arquivos do espaço de trabalho esteja disponível. Consulte O que são arquivos de espaço de trabalho? e Interaja programaticamente com arquivos de espaço de trabalho.
Terminal Web ativado em computação sem servidor
3 de abril de 2025
O terminal da Web agora está habilitado no ambiente sem servidor versão 2. Para obter mais informações sobre como usar o terminal Web, consulte Executar comandos shell no terminal Web do Azure Databricks.
O tipo de dados VARIANT não pode mais ser usado com operações que exigem comparações
5 de fevereiro de 2025
Não é possível usar as seguintes cláusulas ou operadores em consultas que incluem um tipo de dados VARIANT:
DISTINCTINTERSECTEXCEPTUNIONDISTRIBUTE BY
Além disso, você não pode usar essas funções de DataFrame:
df.dropDuplicates()df.repartition()
Essas operações executam comparações e as comparações que usam o tipo de dados VARIANT produzem resultados indefinidos e não são suportadas no Databricks. Se você usar o tipo VARIANT em suas cargas de trabalho ou tabelas do Azure Databricks, o Databricks recomenda as seguintes alterações:
- Atualize consultas ou expressões para converter explicitamente valores de
VARIANTpara tipos de dados diferentes deVARIANT. - Se você tiver campos que devem ser usados com qualquer uma das operações acima, extraia esses campos do tipo de dados
VARIANTe armazene-os usando tipos de dados nãoVARIANT.
Consulte Dados da variante de consulta.
Os blocos de notas são suportados como ficheiros de espaço de trabalho
23 de janeiro de 2025
Os notebooks são suportados como arquivos de espaço de trabalho no ambiente sem servidor 2. Você pode programaticamente escrever, ler e excluir blocos de anotações como faria com qualquer outro arquivo. Isso permite a interação programática com blocos de anotações de qualquer lugar onde o sistema de arquivos do espaço de trabalho esteja disponível. Para obter mais informações, consulte Criar, atualizar e excluir arquivos e diretórios programaticamente.
Barra de progresso da tarefa adicionada à computação sem servidor
16 de dezembro de 2024
Uma nova barra de progresso de tarefas foi adicionada às células do bloco de anotações em execução no ambiente de computação sem servidor versão 2. Esta barra de progresso indica o progresso da execução do código Spark da célula.
Ambiente do sistema
- Sistema Operacional: Ubuntu 22.04.4 LTS
- Píton: 3.11.10
- Conexão Databricks: 15.4.5
Bibliotecas Python instaladas
Para reproduzir o ambiente serverless 2 no seu ambiente virtual Python local, descarregue o ficheirorequirements-env-2.txt e execute pip install -r requirements-env-2.txt. Este comando instala todas as bibliotecas de código aberto do ambiente sem servidor 2.
| Library | Version | Library | Version | Library | Version |
|---|---|---|---|---|---|
| asttokens | 2.0.5 | astunparse | 1.6.3 | autocommand | 2.2.2 |
| azure-core | 1.31.0 | azure-storage-blob | 12.19.1 | azure-storage-file-datalake | 12.14.0 |
| backports.tarfile | 1.2.0 | black | 23.3.0 | blinker | 1.4 |
| boto3 | 1.34.39 | botocore | 1.34.39 | cachetools | 5.5.0 |
| certifi | 2023.7.22 | cffi | 1.15.1 | chardet | 4.0.0 |
| charset-normalizer | 2.0.4 | click | 8.0.4 | cloudpickle | 3.0.0 |
| comm | 0.1.2 | contourpy | 1.0.5 | criptografia | 41.0.3 |
| cycler | 0.11.0 | Cython | 0.29.32 | databricks-connect | 15.4.5 |
| databricks-sdk | 0.36.0 | dbus-python | 1.2.18 | debugpy | 1.6.7 |
| decorador | 5.1.1 | dill | 0.3.6 | distlib | 0.3.9 |
| entrypoints | 0.4 | executing | 0.8.3 | facets-overview | 1.1.1 |
| filelock | 3.13.4 | fonttools | 4.25.0 | gitdb | 4.0.11 |
| GitPython | 3.1.43 | google-api-core | 2.18.0 | google-auth | 2.35.0 |
| google-cloud-core | 2.4.1 | google-cloud-storage | 2.18.2 | google-crc32c | 1.6.0 |
| google-resumable-media | 2.7.2 | googleapis-common-protos | 1.65.0 | grpcio | 1.67.0 |
| grpcio-status | 1.67.0 | httplib2 | 0.20.2 | idna | 3.4 |
| importlib-metadata | 6.0.0 | importlib_resources | 6.4.0 | inflect | 7.3.1 |
| ipyflow-core | 0.0.201 | ipykernel | 6.28.0 | ipython | 8.25.0 |
| ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 | isodate | 0.7.2 |
| jaraco.collections | 5.1.0 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
| jaraco.text | 3.12.1 | jedi | 0.18.1 | jeepney | 0.7.1 |
| jmespath | 0.10.0 | joblib | 1.2.0 | jupyter_client | 7.4.9 |
| jupyter_core | 5.3.0 | keyring | 23.5.0 | kiwisolver | 1.4.4 |
| launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
| matplotlib | 3.7.2 | matplotlib-inline | 0.1.6 | mlflow-skinny | 2.11.4 |
| more-itertools | 8.10.0 | mypy-extensions | 0.4.3 | nest-asyncio | 1.5.6 |
| numpy | 1.23.5 | oauthlib | 3.2.0 | packaging | 23.2 |
| pandas | 1.5.3 | parso | 0.8.3 | pathspec | 0.10.3 |
| patsy | 0.5.3 | pexpect | 4.8.0 | pillow | 10.3.0 |
| pip | 24.2 | platformdirs | 3.10.0 | plotly | 5.9.0 |
| prompt_toolkit | 3.0.48 | proto-plus | 1.25.0 | protobuf | 5.28.3 |
| psutil | 5.9.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval | 0.2.2 | py4j | 0.10.9.7 | pyarrow | 14.0.1 |
| pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 | pyccolo | 0.0.65 |
| pycparser | 2.21 | pydantic | 1.10.6 | Pygments | 2.15.1 |
| PyGObject | 3.42.1 | PyJWT | 2.3.0 | pyodbc | 4.0.39 |
| pyparsing | 3.0.9 | python-dateutil | 2.8.2 | python-lsp-jsonrpc | 1.1.2 |
| pytz | 2022.7 | PyYAML | 6.0 | pyzmq | 25.1.2 |
| requests | 2.31.0 | rsa | 4.9 | s3transfer | 0.10.3 |
| scikit-learn | 1.3.0 | scipy | 1.11.1 | seaborn | 0.12.2 |
| SecretStorage | 3.3.1 | setuptools | 75.1.0 | six | 1.16.0 |
| smmap | 5.0.1 | sqlparse | 0.5.1 | ssh-import-id | 5.11 |
| stack-data | 0.2.0 | statsmodels | 0.14.0 | tenacity | 8.2.2 |
| threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
| tornado | 6.3.2 | traitlets | 5.13.0 | typeguard | 4.3.0 |
| typing_extensions | 4.10.0 | tzdata | 2022.1 | ujson | 5.4.0 |
| unattended-upgrades | 0.1 | urllib3 | 1.26.16 | virtualenv | 20.26.6 |
| wadllib | 1.3.6 | wcwidth | 0.2.5 | wheel | 0.38.4 |
| zipp | 3.11.0 | zstandard | 0.23.0 |