Observação
O acesso a essa página exige autorização. Você pode tentar entrar ou alterar diretórios.
O acesso a essa página exige autorização. Você pode tentar alterar os diretórios.
Você pode executar e depurar notebooks, uma célula de cada vez ou todas as células de uma só vez e ver seus resultados na interface do usuário do Visual Studio Code usando a extensão do Databricks para integração do Visual Studio Code Databricks Connect. Todos os códigos são executados localmente, enquanto todos os códigos que envolvem operações do DataFrame são executados no cluster no workspace remoto do Azure Databricks e as respostas de execução são enviadas de volta para o chamador local. Todos os códigos são depurados localmente, enquanto todos os códigos do Spark continuam sendo executados no cluster no workspace remoto do Azure Databricks. O código principal do mecanismo Spark não pode ser depurado diretamente do cliente.
Observação
Esse recurso funciona com o Databricks Runtime 13.3 e versões superiores.
Para habilitar a integração do Databricks Connect para notebooks na extensão do Databricks para Visual Studio Code, você precisa instalar o Databricks Connect na extensão do Databricks para Visual Studio Code. Consulte Depurar o código usando o Databricks Connect na extensão do Databricks para Visual Studio Code.
Executar células de notebook do Python
Para notebooks com nomes de arquivo que tenham uma extensão .py, quando você abre o notebook no IDE do Visual Studio Code todas as células exibem os botões Executar Célula, Executar Acima e Depurar Célula. À medida que você executa uma célula, seus resultados são mostrados em uma guia separada no IDE. À medida que você as depura, a célula que está sendo depurada mostra os botões Continuar, Parar e Passar por Cima. Ao depurar uma célula, você pode usar recursos de depuração do Visual Studio Code, como observar os estados das variáveis e exibir a pilha de chamadas e o console de depuração.
Para notebooks com nomes de arquivo que tenham uma extensão .ipynb, quando você abre o notebook no IDE do Visual Studio Code o notebook e suas células contêm recursos adicionais. Confira Como executar células e Trabalhar com células de código no Editor de Notebooks.
Para obter mais informações sobre formatos de notebook para nomes de arquivo com as extensões .py e .ipynb, consulte Importar e exportar notebooks do Databricks.
Executar células do notebook Jupyter do Python
Para executar ou depurar um Jupyter Notebook Python (.ipynb):
Em seu projeto, abra o notebook Jupyter do Python que você deseja executar ou depurar. Verifique se o arquivo Python está no formato de Jupyter notebook e tem a extensão
.ipynb.Dica
Você pode criar um novo Jupyter Notebook do Python executando o comando >Criar: Novo Jupyter Notebook de dentro da Paleta de Comandos.
Clique em Executar Todas as Células para executar todas as células sem depuração, Executar Célula para executar uma célula correspondente individual sem depuração ou Executar por Linha para executar uma célula individual linha a linha com depuração limitada, com valores variáveis exibidos no painel Jupyter (Exibir> Abrir Exibição> Jupyter).
Para depuração completa em uma célula individual, defina pontos de interrupção e clique em Depurar Célula no menu ao lado do botão Executar da célula.
Depois de clicar em qualquer uma dessas opções, você poderá ser solicitado a instalar dependências do pacote do Python Jupyter notebook ausentes. Clique para instalar.
Para obter mais informações, consulte Jupyter Notebook em VS Code.
Globais do Notebook
As seguintes variáveis globais de notebook estão habilitadas:
spark, representando uma instância dodatabricks.connect.DatabricksSession, está pré-configurado para instanciarDatabricksSessionobtendo credenciais de autenticação do Azure Databricks da extensão. Se aDatabricksSessionjá estiver instanciada no código de uma célula de notebook, essas configurações deDatabricksSessiondeverão ser usadas. Confira Exemplos de código do Databricks Connect para Python.udf, pré-configurado como um alias parapyspark.sql.functions.udf, que é um alias para UDFs do Python. Confira pyspark.sql.functions.udf.sql, pré-configurado como um alias paraspark.sql.spark, conforme descrito anteriormente, representa uma instância pré-configurada dedatabricks.connect.DatabricksSession. Confira SQL do Spark.dbutils, pré-configurado como uma instância dos Utilitários do Databricks, que é importado dedatabricks-sdke é instanciado obtendo credenciais de autenticação do Azure Databricks da extensão. Confira Usar Utilitários do Databricks.Observação
Somente um subconjunto de Utilitários do Databricks tem suporte para notebooks com o Databricks Connect.
Para habilitar
dbutils.widgets, primeiro você deve instalar o SDK do Databricks para Python executando o seguinte comando no terminal do computador de desenvolvimento local:pip install 'databricks-sdk[notebook]'display, pré-configurado como um alias para oIPython.display.displayinterno do Jupyter. Confira IPython.display.display.displayHTML, pré-configurado como um alias paradbruntime.display.displayHTML, que é um alias paradisplay.HTMLdoipython. Confira IPython.display.html.
Mágicas do notebook
Os seguintes comandos magic de notebook também são habilitados:
%fs, que é o mesmo que fazer chamadasdbutils.fs. Confira Misturar linguagens.%sh, que executa um comando usando a mágica de célula%%scriptno computador local. Isso não executa o comando no workspace remoto do Azure Databricks. Confira Misturar linguagens.%mde%md-sandbox, que executa a mágica de célula%%markdown. Confira Misturar linguagens.%sql, que executaspark.sql. Confira Misturar linguagens.%pip, que é executadopip installno computador local. Isso não executapip installno workspace remoto do Azure Databricks. Consulte Gerenciar bibliotecas com%pipcomandos.%run, que executa outro notebook. Consulte Orquestrar notebooks e modularizar o código nos notebooks.Observação
Para habilitar
%run, primeiro você deve instalar a biblioteca nbformat executando o seguinte comando no terminal do computador de desenvolvimento local:pip install nbformat
Os recursos adicionais que são habilitados incluem:
- Os DataFrames do Spark são convertidos em DataFrames pandas, que são exibidos no formato de tabela Jupyter.
Limitações
As limitações da execução de células em notebooks no Visual Studio Code incluem:
- Não há suporte para os magics
%re%scalados notebooks e, se eles forem chamados, exibirão um erro. Confira Misturar linguagens. - A mágica de notebook
%sqlnão é compatível com alguns comandos DML, como Mostrar Tabelas.