Fabric Data Engineering VS Code 拡張機能は、Microsoft Fabric Lakehouse を探索し、Fabric ノートブックと Spark ジョブ定義を作成するための開発者向けエクスペリエンスをサポートします。
この記事では、必要な前提条件の概要など、拡張機能の詳細について説明します。
Visual Studio Code (VS Code) は、最も一般的な軽量ソース コード エディターの 1 つです。デスクトップ上で実行され、Windows、macOS、Linux で使用できます。 Fabric Data Engineering VS Code 拡張機能をインストールすると、VS Code でノートブックと Spark ジョブ定義をローカルで作成、実行、デバッグできます。 コードを Fabric ワークスペースのリモート Spark コンピューティングにポストして、実行またはデバッグすることもできます。 この拡張機能を使用すると、VS Code でテーブルや生ファイルを含む lakehouse データを参照することもできます。
前提 条件
VS Code 拡張機能の前提条件:
- Visual Studio Code をインストールします。
- VS Code の Jupyter 拡張機能をインストールする
拡張機能をインストールして環境を準備する
VS Code 拡張機能マーケットプレースで Fabric Data Engineering VS Code を検索し、拡張機能をインストールします。
拡張機能のインストールが完了したら、VS Code を再起動します。 VS Code では、アクティビティ バーに拡張機能のアイコンが一覧表示されます。
コマンド パレットにアクセスする
VS Code コマンド パレットを使用して、拡張機能の多くの機能にアクセスできます。 コマンド パレットを開くには:
- Windows/Linux の場合: Ctrl + Shift + P キーを押します
- macOS の場合: Cmd+Shift+P キーを押す
または、[表示]、[>を選択してメニューからアクセスすることもできます。
コマンド パレットが開いたら、コマンド名 ("Fabric Data Engineering" など) の入力を開始して、拡張機能が提供するコマンドをフィルター処理して検索します。
ローカル作業ディレクトリ
ノートブックを編集するには、ノートブック コンテンツのローカル コピーが必要です。 拡張機能のローカル作業ディレクトリは、ダウンロードしたすべてのノートブック (異なるワークスペースのノートブックも含む) のローカル ルート フォルダーとして機能します。 コマンド Fabric Data Engineering: Set Local Work Folderを呼び出すことで、拡張機能のローカル作業ディレクトリとしてフォルダーを指定できます。
セットアップを検証するには、拡張機能の設定を開き、そこで詳細を確認します。
アカウントへのサインインとサインアウト
VS Code コマンド パレットから、
Fabric Data Engineering: Sign Inコマンドを入力して拡張機能にサインインします。 別のブラウザー のサインイン ページが表示されます。ユーザー名とパスワードを入力します。
正常にサインインすると、VS Code ステータス バーにユーザー名が表示され、サインインしていることを示します。
拡張機能からサインアウトするには、
Fabric Data Engineering: Sign Outコマンドを入力します。
作業対象のワークスペースを選択する
ファブリック ワークスペースを選択するには:
ワークスペースを作成する必要があります。 お持ちでない場合は、Fabric ポータルで作成できます。 詳細については、「ワークスペース 作成する」を参照してください。
ワークスペースを作成したら、[ワークスペースの選択] オプション を選びます。 アクセスできるすべてのワークスペースの一覧が表示されます。一覧から目的のものを選択します。
現在の制限事項
- 拡張機能では、"!"で始まるシェル コマンドはサポートされていません。
関連コンテンツ
これで、Fabric Data Engineering VS Code 拡張機能をインストールして設定する方法について基本的な理解が得ることができるようになりました。 次の記事では、VS Code でノートブックと Spark ジョブ定義をローカルで開発する方法について説明します。
- ノートブックの使用を開始するには、「Visual Studio Codeで Microsoft Fabric ノートブックを作成および管理する」を参照してください。
- Spark ジョブ定義の概要については、「Visual Studio Code での Apache Spark ジョブ定義の作成と管理」参照してください。