適用対象:
Databricks SQL
Databricks Runtime
指定した Spark ファイル形式を使用して、ディレクトリ内の既存のデータを新しい値で上書きします。 挿入された行は、値式またはクエリの結果によって指定します。
構文
INSERT OVERWRITE [ LOCAL ] DIRECTORY [ directory_path ]
USING file_format [ OPTIONS ( { key [ = ] val } [ , ... ] ) ]
{ VALUES ( { value | NULL } [ , ... ] ) [ , ( ... ) ] | query }
パラメーター
directory_path
宛先ディレクトリ。 これは、
OPTIONSでpathを使用しても指定できます。LOCALキーワードは、ディレクトリがローカル ファイル システム上にあると指定するために使用します。file_format
挿入に使用するファイル形式。 有効なオプションは、
TEXT、CSV、JSON、JDBC、PARQUET、ORC、HIVE、LIBSVM、またはorg.apache.spark.sql.execution.datasources.FileFormatのカスタム実装の完全修飾クラス名です。OPTIONS ( { key [ = ] val } [ , ... ] )
ファイル形式の書き込みオプションを 1 つ以上指定します。
VALUES({ value | NULL } [ , ... ])[ , ( … )]
挿入される値。 明示的に指定された値または NULL のいずれかを挿入できます。 句の中でそれぞれの値を区切るには、コンマを使用する必要があります。 複数の行を挿入するために、値のセットを複数指定できます。
query
挿入する行を生成するクエリ。 次のいずれかの形式です。
-
SELECTステートメント -
TABLEステートメント -
FROMステートメント
-
例
INSERT OVERWRITE DIRECTORY '/Volumes/my_catalog/my_schema/my_volume/'
USING parquet
OPTIONS (col1 1, col2 2, col3 'test')
SELECT * FROM test_table;
INSERT OVERWRITE DIRECTORY
USING parquet
OPTIONS ('path' '/Volumes/my_catalog/my_schema/my_volume/', col1 1, col2 2, col3 'test')
SELECT * FROM test_table;