Note
この Databricks Runtime バージョンのサポートは終了しました。 サポート終了日については、「サポート終了の履歴」を参照してください。 サポートされている Databricks Runtime のすべてのバージョンについては、「Databricks Runtime リリース ノートのバージョンと互換性」を参照してください。
次のリリース ノートでは、Apache Spark 3.5.0 を搭載した Databricks Runtime 16.1 に関する情報を提供します。
Databricks は、2024 年 12 月にこのバージョンをリリースしました。
動作の変更
破壊的変更: Photon 正規表現の処理が Apache Spark と一致するようになりました
Databricks Runtime 15.4 以降では、Photon での正規表現処理が Apache Spark 正規表現処理の動作に合わせて更新されます。 以前は、split() や regexp_extract()など、Photon によって実行される正規表現関数では、Spark パーサーによって拒否された正規表現がいくつか受け入れられていた。 Apache Spark との一貫性を維持するために、Spark が無効と見なす正規表現に対して Photon クエリが失敗するようになりました。
この変更により、Spark コードに無効な正規表現が含まれている場合、エラーが発生する可能性があります。 たとえば、一致しない中かっこを含む式 split(str_col, '{') は、以前は Photon によって受け入れられていましたが、現在は失敗します。 この式を修正するには、ブレース文字 split(str_col, '\\{')をエスケープすることができます。
また、ASCII 以外の文字の正規表現の一致によっては、Photon と Spark の動作も異なりました。 これは、Photon が Apache Spark の動作と一致するようにも更新されます。
VARIANT データ型は、比較を必要とする操作では使用できなくなりました
Databricks Runtime 16.1 以降では、VARIANT データ型を含むクエリで次の句または演算子を使用することはできません。
DISTINCTINTERSECTEXCEPTUNIONDISTRIBUTE BY
さらに、次の DataFrame 関数を使用することはできません。
df.dropDuplicates()df.repartition()
これらの操作は比較を実行し、VARIANT データ型を使用する比較では未定義の結果が生成され、Databricks ではサポートされません。 Azure Databricks ワークロードまたはテーブルで VARIANT 型を使用する場合、Databricks では次の変更が推奨されます。
- クエリまたは式を更新して、
VARIANT値をVARIANT以外のデータ型に明示的にキャストします。 - 上記のいずれかの操作で使用する必要があるフィールドがある場合は、
VARIANTデータ型からそれらのフィールドを抽出し、VARIANT以外のデータ型を使用して格納します。
詳細については、「クエリバリアントデータ」を参照してください。
新機能と機能強化
- BigQuery コネクタのアップグレード
- Apache Spark での照合順序のサポート (パブリック プレビュー)
- Delta Lake での照合順序のサポート (パブリック プレビュー)
- 掃除機の
LITEモードはパブリックプレビューです -
USE CATALOG with IDENTIFIER句のパラメーター化のサポート - COMMENT ON COLUMN テーブルとビューのサポート
- 新しい SQL 関数
- より多くの関数に対する名前付きパラメーターの呼び出し
-
SYNC METADATAでは、REPAIR TABLE コマンドの パラメーターがサポートされます - 圧縮された Apache Arrow バッチのデータ整合性の強化
- Unity カタログ標準アクセス モード コンピューティング (以前の共有アクセス モード) で Scala メソッドのサポートが追加されました
- 組み込みの Teradata JDBC ドライバー
- Scala での StreamingQueryListener のサポート
- 組み込みの Oracle JDBC ドライバー
- パス でアクセスされたデルタテーブルのより詳細なエラー情報
BigQuery コネクタのアップグレード
Google BigQuery コネクタ は、オープンソース Spark-BigQuery コネクタのバージョン 0.41.0 を使用するようにアップグレードされました。
Lakehouse フェデレーション用の Google BigQuery コネクタで、JDBC ドライバーの代わりに BigQuery Storage API が使用されるようになりました。 この移行により、JDBC ドライバーのパフォーマンスの問題が解決され、オープンソースの Spark-BigQuery コネクタに基づいています。
この変更により、BigQuery ビューと外部テーブルの中間クエリ結果を一時テーブルに書き込む必要があります。 これらのオブジェクトは、BigQuery ストレージに直接格納されません。 一時テーブルは、BigQuery 課金プロジェクトに格納されます。 BigQuery サービス アカウントに適切なアクセス許可が設定されていることを確認します。 詳細については、「Google BigQueryでフェデレーション クエリを実行する」を参照してください。
Apache Spark における照合順序のサポートは現在、パブリックプレビューの段階にあります。
言語対応、大文字と小文字を区別しない、アクセスを区別しない照合順序を、STRING の列と式に割り当てることができるようになりました。 これらの照合順序は、文字列比較、並べ替え、グループ化操作、および多くの文字列関数で使用されます。 「照合順序」をご覧ください。
Delta Lake でのコレーションのサポートはパブリック プレビューです
Delta テーブルを作成または変更するときに、列の照合順序を定義できるようになりました。 Delta Lake の照合サポートを参照してください。
バキュームの LITE モードはパブリック プレビュー段階です
VACUUM table_name LITE を使用して、Delta トランザクション ログのメタデータを活用する軽量のバキューム操作を実行できるようになりました。
フルモードとライトモードとVACUUMを参照してください。
USE CATALOG with IDENTIFIER 句のパラメーター化のサポート
Databricks Runtime 16.1 以降では、IDENTIFIER ステートメントで がサポートされています。 このサポートにより、文字列変数またはパラメーター マーカーに基づいて現在のカタログをパラメーター化できます。
テーブルとビューの COMMENT ONCOLUMN のサポート
Databricks Runtime 16.1 以降では、COMMENT ON ステートメントはビュー列とテーブル列のコメントの変更をサポートしています。
新しい SQL 関数
Databricks Runtime 16.1 以降では、次の新しい組み込み SQL 関数を使用できます。
- dayname(expr) は、指定された日付の曜日の 3 文字の英語頭字語を返します。
- uniform(expr1, expr2 [,seed]) は、 指定された数値範囲内の独立した同じ分散値を持つランダムな値を返します。
-
randstr(length) は、英数字のランダムな文字列
length返します。
より多くの関数のための名前付きパラメーター呼び出し
Databricks Runtime 16.1 以降では、次の関数は名前付きパラメーター呼び出し をサポートしています。
SYNC METADATA コマンドの REPAIR TABLE パラメーターは、Hive メタストアでサポートされています
Databricks Runtime 16.1 以降では、SYNC METADATA コマンドで REPAIR TABLE パラメーターを使用して、Hive メタストア マネージド テーブルのメタデータを更新できます。
REPAIR TABLEを参照してください。
圧縮された Apache Arrow バッチのデータ整合性の強化
Databricks Runtime 16.1 以降では、データの破損からさらに保護するために、すべての LZ4 圧縮 Arrow バッチに LZ4 のコンテンツとブロック チェックサムが含まれるようになりました。 「LZ4 フレームフォーマットの説明
Unity カタログ標準アクセス モード コンピューティング (以前の共有アクセス モード) で Scala メソッドのサポートが追加されました
Databricks Runtime 16.1 以降では、Unity カタログの標準アクセス モード コンピューティングで、Dataset.flatMapGroups()、Dataset.mapGroups()、および DataStreamWriter.foreach()の Scala メソッドのサポートが追加されています。
組み込みの Teradata JDBC ドライバー
Databricks Runtime 16.1 以降では、Teradata JDBC Driver が Azure Databricks に組み込まれています。
DriverManager経由でユーザーがアップロードした JDBC ドライバー JAR を使用する場合は、カスタム JAR を明示的に使用するようにスクリプトを書き換える必要があります。 それ以外の場合は、組み込みのドライバーが使用されます。 このドライバーは、Lakehouse フェデレーションのみをサポートします。 その他のユース ケースでは、独自のドライバーを指定する必要があります。
Scala の StreamingQueryListener のサポート
標準アクセス モードで構成されたコンピューティングで Scala で StreamingQueryListener を使用できるようになりました。
組み込みの Oracle JDBC ドライバー
Databricks Runtime 16.1 以降では、Oracle JDBC Driver は Azure Databricks に組み込まれています。
DriverManager経由でユーザーがアップロードした JDBC ドライバー JAR を使用する場合は、カスタム JAR を明示的に使用するようにスクリプトを書き換える必要があります。 それ以外の場合は、組み込みのドライバーが使用されます。 このドライバーは、Lakehouse フェデレーションのみをサポートします。 その他のユース ケースでは、独自のドライバーを指定する必要があります。
パスを使用してアクセスされた Delta テーブルの詳細なエラー
パスを使用してアクセスされた Delta テーブルの新しいエラー メッセージ エクスペリエンスが利用できるようになりました。 すべての例外がユーザーに転送されるようになりました。 基になるファイルを Delta テーブルとして読み取ることができない場合に、例外 DELTA_MISSING_DELTA_TABLE が予約されるようになりました。
その他の変更
cloudFiles 構造化ストリーミング ソースの名前が変更されたエラー コード
このリリースには、次のエラー コードの名前を変更する変更が含まれています。
-
_LEGACY_ERROR_TEMP_DBR_0143の名前がCF_INCORRECT_STREAM_USAGEに変更されます。 -
_LEGACY_ERROR_TEMP_DBR_0260の名前がCF_INCORRECT_BATCH_USAGEに変更されます。
バグの修正
入れ子になった型が NULL 制約を適切に受け入れるようになりました
このリリースでは、STRUCTなど、入れ子になった型の Delta で生成された列に影響を与えるバグが修正されました。 これらの列は、入れ子になったフィールドの NULL または NOT NULL 制約に基づいて式を誤って拒否することがありました。 これは修正されました。
ライブラリのアップグレード
- アップグレードされた Python ライブラリ:
- 0.0.198 から 0.0.201 までの ipyflow-core
- pyccolo のバージョン 0.0.52 から 0.0.65 へ
- アップグレードされた R ライブラリは次のとおりです。
- アップグレードされた Java ライブラリ:
- io.delta.delta-sharing-client_2.12 バージョン 1.2.1 から 1.2.2 への変更
- org.lz4.lz4-java のバージョンを 1.8.0 から 1.8.0-databricks-1 に変更します
- software.amazon.cryptools.AmazonCorrettoCryptoProvider バージョンを 1.6.2-linux-x86_64 から 2.4.1-linux-x86_64 に変更します。
Apache Spark
Databricks Runtime 16.1 には、Apache Spark 3.5.0 が含まれています。 このリリースには、 Databricks Runtime 16.0 (EoS) に含まれるすべての Spark の修正と機能強化、および Spark に対する次の追加のバグ修正と機能強化が含まれています。
-
[SPARK-50482] [SC-182879][core] 非推奨の no-op
spark.shuffle.spill構成 - [SPARK-50032] [SC-182706][sql][16.x] 完全修飾照合順序名の使用を許可する
-
[SPARK-50467] [SC-182823][python] 組み込み関数の
__all__を追加する - [SPARK-48898] [SC-182828][sql] バリアントの細分化バグを修正
- [SPARK-50441] [SC-182668][sql] CTE を参照するときにパラメーター化された識別子が機能しない問題を修正する
- [SPARK-50446] [SC-182639][python] Arrow 最適化 Python UDF の同時レベル
- [SPARK-50430] [SC-182536][core] 手動複製の代わりに標準の Properties.clone を使用する
- [SPARK-50471] [SC-182790][python] Arrow ベースの Python データ ソース ライターに対応する
- [SPARK-50466] [SC-182791][python] 文字列関数の docstring を絞り込む - パート 1
- [SPARK-50194] [DBR16.x][sc-182593][SS][python] New Timer API と Initial State API と Timer の統合
- [SPARK-50437] [SC-182586][ss] TransformWithStateExec でデシリアライザーを作成するオーバーヘッドを減らす
- [SPARK-49676] [DBR16.x][sc-182538][SS][python] ... のチェーンのサポートを追加
- [SPARK-49294] [SC-182730][ui] シャッフル/書き込み時のチェック ボックスの幅属性を追加します。
- [SPARK-50426] [SC-182540][python] 組み込みまたは Java データ ソースを使用するときに静的な Python データ ソース参照を回避する
- [SPARK-48356] [SC-182603][sql] FOR ステートメントのサポート
-
[SPARK-50333] [SC-182136][sql]
CsvToStructsに対する Codegen のサポート (Invoke と RuntimeReplaceable で) - [SPARK-50285] [SC-182575] StagedTable インスタンスへのコミットのメトリック
-
[SPARK-50081] [SC-182344][sql]
XPath*に対する Codegen のサポート (Invoke と RuntimeReplaceable で) - [SPARK-50440] [SC-182592] [SQL] AttributeSeq.resolveCandidates をリファクターする
- [SPARK-50067] [SC-179648][sql] SchemaOfCsvのコード生成サポート(& RuntimeReplaceableの呼び出しによる)
- [SPARK-49873] [SC-178577][sql] エラー テストでのマージ後のエラーの修正
- [SPARK-50118] [SC-181259][connet] タスクの実行中に分離状態キャッシュをリセットする
- [SPARK-49873] [SC-178577][sql] _LEGACY_ERROR_TEMP_1325に適切なエラー クラスを割り当てる
-
[SPARK-50381] [SC-182197][core]
spark.master.rest.maxThreadsをサポートする - [SPARK-46725] [SC-182448][sql] DAYNAME 関数の追加
- [SPARK-50270] [SC-181179][ss][PYTHON] TransformWithStateInPandas のカスタム状態メトリックを追加しました
- [SPARK-50118] "[SC-181259][connet] タスクの実行中に分離状態キャッシュをリセットする" を元に戻す
- [SPARK-50075] [SC-181820][sql][PYTHON][connect] テーブル値関数の DataFrame API を追加する
- [SPARK-49470] [SC-175736][ui] dataTables のスタイルシートと javascript を 1.13.5 から 1.13.11 に更新する
- [SPARK-50235] "[SC-180786][sql] ColumnarToRowExec のすべての行を処理した後に ColumnVector リソースをクリーンアップする" を元に戻す
-
[SPARK-50324] [SC-182278][python][CONNECT]
createDataFrameトリガーConfigRPC を多くても 1 回行う - [SPARK-50387] [SC-182441][ss] タイマーの有効期限と関連するテストの更新条件
- [SPARK-50287] [SC-182400][sql] FileTable で WriteBuilder を作成するときのテーブルとリレーションシップのマージ オプション
-
[SPARK-50066] [SC-181484][sql]
SchemaOfXmlのコード生成サポート(& RuntimeReplaceable を呼び出す) - [SPARK-50092] [SC-181568][sql] 多次元配列の PostgreSQL コネクタの動作を修正
- [SPARK-50318] [SC-181641][sql] IntervalUtils.makeYearMonthInterval を追加して、interpreted と codegen の間でコードを重複除去する
- [SPARK-50312] [SC-181646][sql] kerberos が true の場合に SparkThriftServer createServer パラメーターを渡すエラー
-
[SPARK-50246] [SC-181468][sql]
_LEGACY_ERROR_TEMP_2167に適切なエラー条件を割り当てる :INVALID_JSON_RECORD_TYPE - [SPARK-50214] [SC-180692][sql] json/xml から特定のスキーマの照合順序を変更しないでください
-
[SPARK-50250] [SC-181466][sql]
_LEGACY_ERROR_TEMP_2075に適切なエラー条件を割り当てます:UNSUPPORTED_FEATURE.WRITE_FOR_BINARY_SOURCE -
[SPARK-50248] [SC-181467][sql]
_LEGACY_ERROR_TEMP_2058に適切なエラー条件を割り当てる :INVALID_PARTITION_VALUE - [SPARK-50118] [SC-181259][connet] タスクの実行中に分離状態キャッシュをリセットする
- [SPARK-50235] [SC-180786][sql] ColumnarToRowExec のすべての行を処理した後に ColumnVector リソースをクリーンアップする
-
[SPARK-50156] [SC-180781][sql]
_LEGACY_ERROR_TEMP_2113をUNRECOGNIZED_STATISTICに統合する -
[SPARK-50069] [SC-180163][sql]
_LEGACY_ERROR_TEMP_0028をUNSUPPORTED_FROM_TO_EXPRESSIONに統合する -
[SPARK-50154] [SC-180663][sql]
_LEGACY_ERROR_TEMP_0043に適切なエラー条件を割り当てる :INVALID_RESET_COMMAND_FORMAT -
[SPARK-49967] [SC-179534][sql]
StructsToJson(to_json) に対する Codegen のサポート - [SPARK-50055] [SC-180978][sql] TryMakeInterval alternative を追加する
-
[SPARK-50397] [SC-182367][core] 非推奨の
--ipおよび-i引数をMaster/Workerから削除します - [SPARK-50238] [SC-181434][python] PySpark UDF/UDF/UDAFs および Python UC UDF でバリアント サポートを追加する
-
[SPARK-50079] [SC-179830][sql]
_LEGACY_ERROR_TEMP_2013に適切なエラー条件を割り当てます:NEGATIVE_VALUES_IN_FREQUENCY_EXPRESSION -
[SPARK-50182] [SC-180346][example]
submit-sql.shREST API の例を追加 -
[SPARK-49966] [SC-179501][sql]
Invokeを使用してJsonToStructs(from_json) を実装する - [SPARK-50302] [SC-182518][ss] TTL を持つ TransformWithState ステートフル変数のセカンダリ インデックス サイズがプライマリ インデックス サイズと等しいことを確認する
- [SPARK-50301] [SC-182241][ss][16.x] TransformWithState メトリックに直感的な意味を反映させる
- [SPARK-50175] [SC-182140][sql] 照合順序の優先順位の計算を変更する
-
[SPARK-50148] [SC-180292][sql]
StaticInvokeを、スロー例外を宣言するメソッドと互換性を持つようにする -
[SPARK-50280] [SC-181214][python]
compute_histでの結果の並べ替えと空のビンの充填をリファクタリングする - [SPARK-50190] [SC-182458][python] ヒストグラムから Numpy の直接依存関係を削除する
- [SPARK-50382] [SC-182368][connect] Spark Connect でのアプリケーション開発に関する一般的な情報のドキュメントを追加する
- [SPARK-50296] [SC-181464][python][CONNECT] Python Connect クライアントのスレッドプールで classproperty を使用しないようにする
- [SPARK-49566] [SC-182239][sql] EXTEND 演算子の SQL パイプ構文を追加する
- [SPARK-50036] [SC-179533][core][PYTHON] REPL シェルのコンテキストにSPARK_LOG_SCHEMAを含める
- [SPARK-49859] [SC-178259][connect] multiprocessing.ThreadPool を ThreadPoolExecutor に置き換える
-
[SPARK-50141] [SC-182378][python]
lpadおよびrpadが列型引数を受け入れるようにする。 - [SPARK-50379] [SC-182142][sql] WindowExecBase での DayTimeIntevalType 処理の修正
- [SPARK-49954] [SC-179110][sql] SchemaOfJsonのコードジェンのサポート (Invoke & RuntimeReplaceable経由で)
-
[SPARK-50398] [SC-182341][core] Spark スクリプトで
0を使用するために ExitCode--helpを使う - [SPARK-50377] [SC-182238][sql] 折りたたみ可能な RuntimeReplaceable の評価を許可する
- [SPARK-50241] [SC-181444][sql] NullIntolerant Mixin を Expression.nullIntolerant メソッドに置き換える
-
[SPARK-50084] [SC-179672][sql]
_LEGACY_ERROR_TEMP_3168に適切なエラー条件を割り当てます:MISSING_TIMEOUT_CONFIGURATION -
[SPARK-50078] [SC-179649][sql]
_LEGACY_ERROR_TEMP_0038に適切なエラー条件を割り当てます:DUPLICATED_CTE_NAMES -
[SPARK-50057] [SC-179573][sql]
_LEGACY_ERROR_TEMP_1049に適切なエラー条件を割り当てる :INVALID_ATTRIBUTE_NAME_SYNTAX -
[SPARK-50070] [SC-179579][sql]
_LEGACY_ERROR_TEMP_0039をUNSUPPORTED_SQL_STATEMENTに統合する - [SPARK-50378] [SC-182235][ss] transformWithState の初期状態処理に要した時間を追跡するためのカスタムメトリックを追加する
-
[SPARK-50029] [SC-179531][sql]
StaticInvokeを返すメソッドとの互換性を持たせるAny -
[SPARK-49990] [SC-179497][sql]
randStrのパフォーマンスを向上させる -
[SPARK-50048] [SC-179528][sql]
_LEGACY_ERROR_TEMP_2114に適切なエラー条件を割り当てる :UNRECOGNIZED_STATISTIC -
[SPARK-50053] [SC-179532][sql]
_LEGACY_ERROR_TEMP_2104をINTERNAL_ERRORにする - [SPARK-49665] [SC-180054][sql] 文字列関数の照合順序のサポートをトリミングする
-
[SPARK-48549] [SC-176472][sql][PYTHON] SQL 関数の
sentencesを改善する -
[SPARK-50022] [SC-179503][core][UI] UI が無効になっているときにアプリ UI リンクを非表示にする
MasterPageを修正 - [SPARK-50087] [SC-182152] MSSqlServer と今後のコネクタに対する CASE WHEN でのブール式の堅牢な処理
- [SPARK-49991] [SC-179481][sql] HadoopMapReduceCommitProtocol に 'mapreduce.output.basename' を考慮してファイル名を生成させる
-
[SPARK-50038] [SC-179521][sql]
_LEGACY_ERROR_TEMP_0008に適切なエラー条件を割り当てる :MERGE_WITHOUT_WHEN -
[SPARK-50236] [SC-181671][sql]
_LEGACY_ERROR_TEMP_1156に適切なエラー条件を割り当てます:COLUMN_NOT_DEFINED_IN_TABLE -
[SPARK-50021] [SC-179500][core][UI] UI が無効になっているときにアプリ UI リンクを非表示にする
ApplicationPageを修正 - [SPARK-49911] [SC-179111][sql] サポート バイナリの等価性のセマンティックを修正
-
[SPARK-50025] [SC-179496][sql]
_LEGACY_ERROR_TEMP_1253をEXPECT_VIEW_NOT_TABLEに統合する - [SPARK-49829] [SC-179480][ss] ストリーム同士の結合における状態ストアへの入力の追加での最適化に関するバグを修正する
-
[SPARK-50004] [SC-179499][sql]
_LEGACY_ERROR_TEMP_3327をFIELD_NOT_FOUNDに統合する - [SPARK-50380] [SC-182210][sql] ReorderAssociativeOperator は ConstantFolding のコントラクトを尊重する必要があります
- [SPARK-50340] [SC-181859][sql] INSERT 入力クエリで UDT をラップ解除
-
[SPARK-50237] [SC-181660][sql]
_LEGACY_ERROR_TEMP_2138-9に適切なエラー条件を割り当てます:CIRCULAR_CLASS_REFERENCE - [SPARK-50258] [SC-181993][sql] AQE 最適化後の出力列の順序変更の問題を修正
-
[SPARK-49773] [SC-178369][sql] 不適切なタイムゾーンの
make_timestamp()から Java 例外をキャッチしない - [SPARK-49977] [SC-179265][sql] スタックベースの反復計算を使用して、ディープ式ツリー用の Scala List オブジェクトが多数作成されないようにする
-
[SPARK-50153] [SC-181591][sql]
nameにRuleExecutorを追加して、QueryExecutionMetricsのログをより明確にする -
[SPARK-50320] [SC-181668][core]
--remote警告を削除して、experimentalを公式オプションにします - [SPARK-49909] [SC-179492] "[SQL] 一部の式のプリティ名を修正" を元に戻す
- [SPARK-50330] [SC-180720][sc-181764][SQL] 並べ替えノードとウィンドウ ノードにヒントを追加する
- [SPARK-50364] [SC-182003][sql] Row.jsonValue に LocalDateTime 型のシリアル化を実装する
-
[SPARK-50016] [SC-182139][sql]
_LEGACY_ERROR_TEMP_2067に適切なエラー条件を割り当てる :UNSUPPORTED_PARTITION_TRANSFORM - [SPARK-49899] [SC-181175][python][SS] TransformWithStateInPandas での deleteIfExists のサポート
- [SPARK-49757] [SC-177824][sql] IDENTIFIERSET ステートメントでの CATALOG 式のサポート
- [SPARK-50315] [SC-181886][sql] V1Fallback 書き込みのカスタム メトリックをサポート
- [SPARK-42838] [SC-181509][sql] エラー クラスに名前を割り当てる_LEGACY_ERROR_TEMP_2000
- [SPARK-50353] [SC-181985][sql] ResolveSQLOnFile をリファクターする
- [SPARK-48344] [SC-181967][sql] 実行フレームワークを追加するための SQL スクリプトの準備
- [SPARK-49345] [SC-174786][connect] 現在実行中の Spark セッションを使用していることを確認します
- [SPARK-49925] [SC-178882][sql] 照合文字列を使用して順序のテストを追加する
- [SPARK-50167] [SC-181199][python][CONNECT] PySpark のプロット エラー メッセージとインポートの改善
- [SPARK-49368] [SC-174999][connect] protobuf lite クラスに直接アクセスしないようにする
- [SPARK-50056] [SC-181378][sql] ParseUrl の Codegen のサポート (Invoke と RuntimeReplaceable で)
- [SPARK-49601] [SC-180770][ss][PYTHON] TransformWithStateInPandas の初期状態処理をサポート
- [SPARK-49908] [SC-178768][sql] _LEGACY_ERROR_TEMP_0044に適切なエラー状態を割り当てる
- [SPARK-50144] [SC-180307][ss] DSv1 ストリーミング ソースでのメトリック計算の制限に対処する
- [SPARK-49874] [SC-178303][sql] trimおよびltrimの照合順序指定子を削除。
- [SPARK-49513] [SC-180339][ss] transformWithStateInPandas API でのタイマーのサポートの追加
-
[SPARK-49119] [SC-175607][sql] v1 と v2 の間の構文
show columnsの不整合を修正する -
[SPARK-49206] [SC-173704][core][UI] マスター
Environment VariablesにEnvironmentPageテーブルを追加する - [SPARK-49934] [SC-179581][sql] リテラルを使用して照合されたマップにアクセスするための暗黙的なキャストを追加する
- [SPARK-50049] [SC-181659][sql] v2 テーブルへの書き込みでのカスタム ドライバー メトリックのサポート
- [SPARK-50171] [SC-180295][python] numpy を KDE プロットで省略可能にする
- [SPARK-49962] [SC-179320][sql] AbstractStringTypes クラス階層を簡略化する
- [SPARK-50226] [SC-181483][sql] MakeDTInterval と MakeYMInterval を修正して Java 例外をキャッチする
- [SPARK-48775] [SC-170801][sql][STS] SQLContext を STS の SparkSession に置き換える
-
[SPARK-49015] [SC-175688][core] Connect Server は
spark.log.structuredLogging.enabledを尊重すべきです - [SPARK-50327] [SC-181667][sql][16.x] 単一パス アナライザーで再利用する関数の解像度を除外する
- [SPARK-49995] [SC-180762][sql] 名前付き引数のサポートをより多くの TVF に追加
- [SPARK-49268] [SC-174903][core] IO 例外を SHS 履歴プロバイダーにログする
- [SPARK-48123] [SC-164989][core] 構造化ログを照会するための定数テーブル スキーマを提供する
- [SPARK-49217] [SC-174904][core] UnsafeShuffleWriter で個別のバッファー サイズ構成をサポート
- [SPARK-50325] [SC-181664][sql][16.x] シングルパス アナライザーで再利用するエイリアス解決を除外する
- [SPARK-50322] [SC-181665][sql] サブクエリのパラメーター化された識別子を修正する
-
[SPARK-48400] [SC-175283][core]
PrometheusServletをDeveloperApiに昇格する - [SPARK-50118] "[SC-181259][connet] タスクの実行中に分離状態キャッシュをリセットする" を元に戻す
- [SPARK-50306] [SC-181564][python][CONNECT] Spark Connect での Python 3.13 のサポート
- [SPARK-50152] [SC-181264][ss] 状態データ ソース リーダーでの handleInitialState のサポート
- [SPARK-50260] [SC-181271][connect] Spark C.. をリファクタリングして最適化します。
- [SPARK-47591] [SC-163090][sql] Hive-thriftserver: 変数を含む logInfo を構造化ログ フレームワークに移行する
-
[SPARK-49312] [SC-174672][python]
assertSchemaEqualのエラー メッセージを改善する -
[SPARK-49439] [SC-175236][sql]
FromProtobuf&ToProtobuf式の美しい名前を修正 - [SPARK-50092] [ES-1258521] 多次元配列の PostgreSQL コネクタの動作を修正する
- [SPARK-49913] [SC-181565][sql] 入れ子になったラベル付きスコープに一意のラベル名のチェックを追加する
- [SPARK-49563] [SC-181465][sql] WINDOW 演算子の SQL パイプ構文を追加する
- [SPARK-49661] [SC-179021][sql] トリム照合のハッシュと比較を実装。
- [SPARK-38912] [SC-181543][python] classmethod とプロパティに関連するコメントを削除します
- [SPARK-49770] [16.x][sc-179802][SC-179270][ss][RocksDB Hardening] RocksDB SST ファイル マッピング管理を改善し、既存のスナップショットを使用して同じバージョンを再読み込みする際の問題を修正
- [SPARK-49002] "[SC-172846][sql] WAREHOUSE/SCHEMA/TABLE/PARTITION/DIRECTORY 内の無効な場所を一貫して処理する" を元に戻す
- [SPARK-49668] [SC-178268][sql] トリム照合順序の照合順序キーのサポートを実装する
- [SPARK-50262] [SC-181193][sql] 照合順序の変更中に複合型の指定を禁止する
- [SPARK-48898] [SC-181435][sql] バリアントシュレッディング関数の追加
- [SPARK-48273] [SC-181381]元に戻す "[SQL] PlanWithUnresolvedIdentifier の遅延書き換えを修正する
-
[SPARK-50222] [SC-180706][core]
spark.submit.appNameをサポートする -
[SPARK-50208] [SC-180662][core]
spark.master.useDriverIdAsAppName.enabledをサポートする - [SPARK-50224] [SC-180689][sql] IsValidUTF8|ValidateUTF8|TryValidateUTF8|MakeValidUTF8 の置換は NullIntolerant でなければならない
-
[SPARK-50247] [SC-180962][core]
BLOCK_MANAGER_REREGISTRATION_FAILEDをExecutorExitCodeとして定義する -
[SPARK-50282] [SC-181221][ml] 単純化
TargetEncoderModel.transform - [SPARK-50112] [SC-180763][sql] TransformWithState 演算子で Avro エンコードを使用できるようにする
-
[SPARK-50267] [SC-181180][ml] DataFrame API を使用した
TargetEncoder.fitの向上 - [SPARK-37178] [SC-180939][ml] ターゲット エンコードを ml.feature に追加する
- [SPARK-50118] [SC-181259][connet] タスクの実行中に分離状態キャッシュをリセットする
-
[SPARK-50085] [BEHAVE-176][sc-179809][PYTHON] np.int8 で
lit(ndarray)を numpy データ型に準拠させる - [SPARK-50256] [SC-181048][sql] 軽量検証を追加して、すべてのオプティマイザー ルールの後に論理プランが未解決になったかどうかを確認する
- [SPARK-50196] [SC-180932][connect] Python エラー コンテキストを修正して適切なコンテキストを使用する
- [SPARK-50274] [SC-181181][core] DirectByteBufferOutputStream でのクローズ後の使用を防止するための保護策
- [SPARK-49999] [SC-180063][python][CONNECT] ボックス、KDE、ヒストグラム プロットで省略可能な "column" パラメーターをサポート
- [SPARK-50273] [SC-181178][ss] RocksDB ロック取得/リリース ケースのログ記録を改善する
- [SPARK-50033] [SC-180720][sc-180659][SQL] logical.Aggregate() ノードにヒントを追加する
- [SPARK-50163] [16.x][sc-180201][SC-180664][ss] 完了リスナーに起因する RocksDB の余分な acquireLock 解放を修正
- [SPARK-50253] [SC-180969][ss] Stream-Stream Join は、サポートされていない場合はチェックポイント ID を取得しません。
-
[SPARK-50255] [SC-180964][python]
compute_histでの不要なキャストを回避 -
[SPARK-50228] [SC-180780][sql]
RewriteCollationJoinルールをFinishAnalysisに移動します - [SPARK-50001] [SC-179524][python][PS][connect] ボックス プロットの kwargs の一部になるように "precision" を調整
- [SPARK-49637] [SC-180160][sql] INVALID_FRACTION_OF_SECONDのエラー メッセージが変更されました
- [SPARK-49530] [SC-180658][python] データフレームからアクティブ なセッションを取得する
-
[SPARK-50195] [SC-180654][core]
StandaloneRestServerが正しくspark.app.nameに伝達されるようにSparkSubmitを修正 - [SPARK-50229] [SC-180773] 論理計画中に作成される AttributeReference オブジェクトの有効期間を短縮することで、広範なスキーマのドライバーのメモリ使用量を削減する
-
[SPARK-50231] [SC-180815][python] 関数
instrで、列substringが受け入れられるようにする - [SPARK-49854] [SC-179812][16.x][SQL] セッション複製中にアーティファクト マネージャーを複製する
-
[SPARK-50219] [SC-180694][sql] ヘルパー メソッドをシングルパス リゾルバーで使用できるように、
ApplyCharTypePaddingをリファクタリングする - [SPARK-50077] [SC-179827][sql] LogicalRelation の新しいパターン オブジェクトを導入して、既定の完全なパラメーター パターンを回避する
- [SPARK-50128] [Backport][16x][SC-180677][ss] Scala で暗黙的なエンコーダーを使用してステートフル プロセッサ ハンドル API を追加する
- [SPARK-50061] [SC-179961][sql] 照合列の分析テーブルを有効にする
- [SPARK-49993] [SC-180084][sql] Sum と Average のエラー メッセージを改善する
- [SPARK-49638] [SC-179665][sql] INVALID_URLの ANSI 構成候補を削除します
-
[SPARK-50204] [SC-180660][sql]
HiveTableRelation読み取りパス解決を分解 - [SPARK-50193] [SC-180651][ss] 時間モードを検証するための例外処理を修正
-
[SPARK-50179] [SC-180342][core] REST API で
spark.app.nameプロパティを省略可能にする -
[SPARK-50068] [SC-180300][sql] 単一ノード変換を分離するために
TypeCoercionとAnsiTypeCoercionをリファクタリングする - [SPARK-49411] [SC-179483][ss] ドライバーとステートフル演算子の間で状態ストア チェックポイント ID をやり取りする
- [SPARK-50124] [SC-180294][sql] LIMIT/OFFSET はデータの順序を保持する必要があります
- [SPARK-49506] [SC-180165][sql] 折りたたみ可能な配列の ArrayBinarySearch を最適化する
-
[SPARK-50097] [SC-179908][sql]
_LEGACY_ERROR_TEMP_1248に適切なエラー条件を割り当てます:ALTER_TABLE_SERDE_FOR_DATASOURCE_TABLE - [SPARK-50071] [SC-180159][sql][PYTHON] try_make_timestamp(_ltzと_ntz) と関連するテストを追加する
- [SPARK-50054] [SC-180228][python][CONNECT] ヒストグラム プロットのサポート
-
[SPARK-50015] [SC-179964][sql]
_LEGACY_ERROR_TEMP_1125に適切なエラー条件を割り当てます:MISSING_DATABASE_FOR_V1_SESSION_CATALOG - [SPARK-50155] [SC-180240][3.5] scala ファイルと java ファイルを既定のフォルダーに移動する
- [SPARK-49980] [SC-180353][core][SQL] 取り消されたタスクの中断によって発生する潜在的なファイル ストリーム リークを修正する
- [SPARK-49010] [SC-172304][sql][XML] XML スキーマ推論の大文字と小文字の区別の単体テストを追加する
- [SPARK-49562] [SC-180211][sql] 集計用の SQL パイプ構文を追加する
- [SPARK-49663] [SC-180239][sql] 照合順序式で RTRIM 候補を有効にする
-
[SPARK-48965] [SC-175926][sql]
Dataset#toJSONで正しいスキーマを使用する - [SPARK-48493] [SC-175893][python] 直接方向バッチをサポートして Python データソース リーダーを強化し、パフォーマンスを向上させる
-
[SPARK-49734] [SC-180226][python] 関数の
seed引数を追加shuffle - [SPARK-50174] [16.x][sc-180253][SQL] UnresolvedCatalogRelation 解決を分解
- [SPARK-49989] [SC-179512][python][CONNECT] kde/density プロットをサポートする
-
[SPARK-49805] [SC-180218][sql][ML] private[xxx] 関数を
function.scalaから削除します - [SPARK-49808] [SC-179490][sql] 遅延 vals によるサブクエリ実行のデッドロックを修正する
- [SPARK-49929] [SC-180144][python][CONNECT] ボックスプロットをサポート
-
[SPARK-50008] [SC-179290][ps][CONNECT]
attach_distributed_sequence_columnで不要な操作を回避する - [SPARK-49767] [SC-180161][ps][CONNECT] 内部関数呼び出しをリファクタリングする
- [SPARK-49683] [SC-178341][sql] トリム照合順序をブロックする
- [SPARK-49939] [SC-178941][sql] json_object_keys の Codegen のサポート (Invoke と RuntimeReplaceable による)
-
[SPARK-50031] [SC-179582][sql]
TryParseUrl式を追加する -
[SPARK-49766] [SC-178933][sql]
json_array_lengthの Codegen のサポート (InvokeとRuntimeReplaceableによる) - [SPARK-50046] [SC-180026][ss] EventTimeWatermark ノードの安定した順序を使用して透かしを計算する
-
[SPARK-49540] [SC-180145][ps]
distributed_sequence_idの使用を統一する - [SPARK-50060] [SC-179965][sql] TypeCoercion と AnsiTypeCoercion の照合された型間の変換が無効になりました
- [SPARK-49004] [SC-173244][connect] Column API の内部関数に別のレジストリを使用する
- [SPARK-49811] [SC-177888][sql]StringTypeAnyCollation の名前を変更する
-
[SPARK-49202] [SC-180059][ps] ヒストグラムに
ArrayBinarySearchを適用する -
[SPARK-49203] [SC-175734][sql]
java.util.Arrays.binarySearchの式を追加する -
[SPARK-50034] [SC-179816][core]
SparkUncaughtExceptionHandlerで致命的なエラーという誤った報告を、キャッチされない例外として修正する - [SPARK-50093] [SC-179836][sql] ICU を使用する照合順序には、使用されている ICU ライブラリのバージョンが必要です
- [SPARK-49985] [SC-179644][sql] バリアントの間隔の種類のサポートを削除する
-
[SPARK-49103] [SC-173066][core]
spark.master.rest.filtersをサポートする - [SPARK-50090] [SC-179819] ResolveBinaryArithmetic をリファクターして単一ノード変換を分離する
-
[SPARK-49902] [SC-179650][sql]
RegExpReplaceで基になるランタイム エラーをキャッチする -
[SPARK-49126] [SC-173342][core]
spark.history.ui.maxApplications構成定義をHistory.scalaに移動する - [SPARK-50094] [SC-179820][python][CONNECT] 行番号のないエディターでメモリ プロファイラーを使用する場合のエラー メッセージの改善
-
[SPARK-50062] [SC-179835][sql]
InSetによる照合順序をサポートする - [SPARK-50035] [Backport][16x][SC-179530][ss] ステートフル プロセッサの明示的な handleExpiredTimer 関数部分のサポートを追加
- [SPARK-49982] [SC-179814][sql] InMemoryRelation での負のキャッシュを修正する
-
[SPARK-49082] [SC-173350][sql]
AvroDeserializerでの型の上位変換の拡大 -
[SPARK-50088] [SC-179680][sql]
UnresolvedStarBase.expandをリファクターする - [SPARK-49802] [SC-179482][ss] ステートフル プロセッサで使用されるマップとリストの種類の読み取り変更フィードのサポートを追加
- [SPARK-49846] [SC-179506][ss] transformWithState 演算子で使用する numUpdatedStateRows メトリックと numRemovedStateRows メトリックを追加する
- [SPARK-50050] [SC-179643][python][CONNECT][16.x] litがstrおよびboolタイプのnumpy ndarrayを受け入れるようにする
- [SPARK-49821] [SC-179527][ss][PYTHON] TransformWithStateInPandas の MapState と TTL のサポートを実装する
- [SPARK-49558] [SC-179485][sql] LIMIT/OFFSET および ORDER/SORT/CLUSTER/DISTRIBUTE BY の SQL パイプ構文を追加します
-
[SPARK-48144] [SC-165725][lc-4080][SQL] シャッフル結合ヒントを尊重する
canPlanAsBroadcastHashJoinを修正 -
[SPARK-50051] [SC-179571][python][CONNECT] 空の numpy ndarray で
litを動作させる - [SPARK-50018] [SC-179488][sql] AbstractStringType をシリアル化可能にする
- [SPARK-50016] [SC-179491][sql] 明示的な照合順序の不一致エラーを改善する
- [SPARK-50010] [SC-179487][sql] 暗黙的な照合順序の不一致エラーを展開する
- [SPARK-48749] [SC-170116][sql] UnaryPositive を簡略化し、RuntimeReplaceable でその Catalyst ルールを排除する
- [SPARK-49857] [SC-178576][sql] データセット localCheckpoint API に storageLevel を追加する
- [SPARK-50058] [SC-179538][sql] プラン正規化関数を組み込み、後でシングルパス アナライザー テストで使用する
- [SPARK-50052] [SC-179535][python][16.X] NumpyArrayConverter で空の str ndarray がサポートされるようにする
- [SPARK-47261] [SC-173665][sql] エラーの_LEGACY_ERROR_TEMP_1172、_LEGACY_ERROR_TEMP_1173、および_LEGACY_ERROR_TEMP_1174に適切な名前を割り当てます
-
[SPARK-49147] [SC-173471][core] DeveloperApi インターフェイスで
KryoRegistratorをマークする - [SPARK-48949] [SC-173070][sql] SPJ: ランタイム パーティション のフィルター処理
- [SPARK-50044] [SC-179523][python] 複数の数学関数のドキュメント文字列を調整する
-
[SPARK-48757] [SC-170113][core]
IndexShuffleBlockResolverに明示的なコンストラクターを設定する - [SPARK-50037] [SQL] AttributeSeq.resolve(...)のリファクタリング
- [SPARK-48782] [SC-177056][sql] カタログでプロシージャを実行するためのサポートを追加
- [SPARK-49057] [SC-173081][sql] クエリ ステージの送信時に AQE ループをブロックしない
- [SPARK-48824] [SC-176772][behave-167][SQL] ID 列の SQL 構文の追加
- [SPARK-48773] [SC-170773] 構成ビルダー フレームワークによる "spark.default.parallelism" のドキュメント構成
- [SPARK-48735] [SC-169810][sql] BIN 関数のパフォーマンス向上
-
[SPARK-48900] [SC-172433] ジョブ/ステージの取り消しのすべての内部呼び出しに
reasonフィールドを追加する -
[SPARK-48488] [SC-167605][core]
log[info|warning|error]でSparkSubmitメソッドを修正する -
[SPARK-48708] [SC-169809][core]
KryoSerializerから 3 つの不要な型登録を削除します - [SPARK-49958] [SC-179312][python] 文字列検証関数の Python API
- [SPARK-49979] [SC-179264][sql] 失敗したプランで 2 回データを収集しようとした際に起こる AQE ハングの問題を修正する
- [SPARK-48729] [SC-169795][sql] SQL 関数を表す UserDefinedFunction インターフェイスを追加する
-
[SPARK-49997] [SC-179279][sql]
_LEGACY_ERROR_TEMP_2165をMALFORMED_RECORD_IN_PARSINGに統合する - [SPARK-49259] [SC-179271][ss]Kafka 読み取り時のサイズベースのパーティション作成
- [SPARK-48129] [SC-165006][python] 構造化ログを照会するための定数テーブル スキーマを PySpark に提供する
- [SPARK-49951] [SC-179259][sql] LEGACY_ERROR_TEMPに適切なエラー状態を割り当てる (1099|3085)
- [SPARK-49971] [SC-179278][sql] _LEGACY_ERROR_TEMP_1097に適切なエラー状態を割り当てる
-
[SPARK-49998] [SC-179277][sql]
_LEGACY_ERROR_TEMP_1252をEXPECT_TABLE_NOT_VIEWに統合する - [SPARK-49876] [SC-179262][connect] Spark Connect Service からグローバル ロックを取り除く
- [SPARK-49957] [SC-179202][sql] 文字列検証関数の Scala API
- [SPARK-48480] [SC-173055][ss][CONNECT] StreamingQueryListener は spark.interrupt() の影響を受けません
- [SPARK-49643] [SC-179239][sql] _LEGACY_ERROR_TEMP_2042を ARITHMETIC_OVERFLOW にマージする
- [SPARK-49959] [SC-179109][sql] 正しいオフセットから null を読み取る ColumnarArray.copy() を修正
- [SPARK-49956] "[SC-179070] collect_set 式で照合順序を無効にする" を元に戻す
-
[SPARK-49987] [SC-179180][sql]
seedExpressionがrandstrで折りたたみ不可能な場合のエラー プロンプトを修正します - [SPARK-49948] [SC-179158][ps][CONNECT] Spark のボックス プロットで Pandas に "precision" パラメーターを追加する
- [SPARK-49970] [SC-179167][sql] _LEGACY_ERROR_TEMP_2069に適切なエラー状態を割り当てる
- [SPARK-49916] [SC-179108][sql] ColumnType と一部の行のデータ型の間の型の不一致に対して適切な例外をスローする
- [SPARK-49956] [SC-179070] collect_set式での照合順序を無効化しました
- [SPARK-49974] [16.x][sc-179071][SQL] Analyzer.scala から resolveRelations(...) を移動する
- [SPARK-47259] [SC-176437][sql] 間隔エラーのエラー条件に名前を割り当てる
- [SPARK-47430] [SC-173679][sql] バインド参照例外を修正するためのマップの種類別のグループのリワーク
- [SPARK-49067] [SC-172616][sql] utf-8 リテラルを UrlCodec クラスの内部メソッドに移動する
- [SPARK-49955] [SC-178989][sql] null 値は、JSON 文字列 RDD の解析時にファイルが破損したという意味ではありません
- [SPARK-49393] [SC-175212][sql] 非推奨のカタログ プラグイン API で既定で失敗する
- [SPARK-49952] [SC-178985][sql] _LEGACY_ERROR_TEMP_1142に適切なエラー状態を割り当てる
- [SPARK-49405] [SC-175224][sql] JsonOptions で文字セットを制限する
- [SPARK-49892] [SC-178975][sql] _LEGACY_ERROR_TEMP_1136に適切なエラー クラスを割り当てる
- [SPARK-49904] [SC-178973][sql] _LEGACY_ERROR_TEMP_2140に適切なエラー状態を割り当てる
- [SPARK-47257] [SC-174244][sql] エラー クラスに名前を割り当てる _LEGACY_ERROR_TEMP_105[3-4] と_LEGACY_ERROR_TEMP_1331
- [SPARK-49915] [SC-178869][sql] ReorderAssociativeOperator で 0 と 1 を処理する
- [SPARK-49891] [SC-178970][sql] _LEGACY_ERROR_TEMP_2271に適切なエラー状態を割り当てる
-
[SPARK-49918] [SC-178748][core] 必要に応じて、
SparkContextで conf への読み取り専用アクセスを使用する - [SPARK-49666] [SC-177891][sql] トリミング照合順序機能の機能フラグを追加する
- [SPARK-48885] [SC-171050][sql] RuntimeReplaceable オーバーライドの一部のサブクラスを lazy val に置き換える
-
[SPARK-49932] [SC-178931][core]
tryWithResourceリリースJsonUtils#toJsonStringリソースを使用してメモリ リークを回避する -
[SPARK-49949] [SC-178978][ps]
attach_sequence_columnで不要な分析タスクを回避する -
[SPARK-49924] [SC-178935][sql] 置換後も
containsNullArrayCompact保持する -
[SPARK-49121] [SC-174787][sql] SQL 関数の
from_protobufとto_protobufのサポート - [SPARK-47496] [SC-160529][sql] Java SPI での動的 JDBC 方言登録のサポート
- [SPARK-49359] [SC-174895][sql] StagedTableCatalog の実装を非アトミック書き込みにフォールバックできるようにする
- [SPARK-49895] [SC-178543][sql][ES-1270338] SELECT 句で末尾のコンマが発生したときのエラーを改善する
- [SPARK-47945] [SC-163457][sql] MsSQLServer: Microsoft SQL Server からの Spark SQL データ型のマッピングドキュメントの作成とテストの追加
- [SPARK-46037] [SC-175495][sql] Codegen なしで残ったシャッフルされたハッシュ結合ビルドの正確性を修正
- [SPARK-47813] [SC-162615][sql] getArrayDimension を updateExtraColumnMeta に置き換える
- [SPARK-49542] [SC-178765][sql] パーティション変換の例外評価エラー
- [SPARK-47172] [SC-169537][core] RPC 暗号化の AES-GCM のサポートを追加
- [SPARK-47666] [SC-161476][sql] mysql ビット配列を LongType として読み取るときに NPE を修正する
- [SPARK-48947] [SC-174239][sql] Charset.forName に存在しないキャッシュを減らすには、小文字の文字セット名を使用します
- [SPARK-49909] [SC-178552][sql] 一部の式の美しい名前を修正
- [SPARK-47647] [SC-161377][sql] MySQL データ ソースが Postgres のような BinaryType として bit(n>1) を読み取ることができるようにする
-
[SPARK-46622] [SC-153004][core]
toStringのo.a.s.network.shuffledb.StoreVersionメソッドをオーバーライドする - [SPARK-48961] [SC-171910][python] PySparkException のパラメーターの名前を JVM と一致させる
-
[SPARK-49889] [SC-178474][python] 関数の引数
trimを追加trim/ltrim/rtrim - [SPARK-47537] [SC-160747][sql] MySQL Connector/J でのエラー データ型マッピングの修正
- [SPARK-47628] [SC-161257][sql] Postgres ビット配列の問題 'ブール値にキャストできません' を修正
- [SPARK-49843] [SC-178084][es-1268164][SQL] char/varchar 列の変更コメントを修正
- [SPARK-49549] [SC-178764][sql] エラー条件に名前を割り当てる_LEGACY_ERROR_TEMP_3055, 3146
- [SPARK-49791] [SC-177730][sql] DelegatingCatalogExtension をより拡張可能にする
- [SPARK-49559] [SC-178551][sql] セット操作の SQL パイプ構文を追加する
- [SPARK-49906] [SC-178536][sql] PartitioningUtils にCONFLICTING_DIRECTORY_STRUCTURES エラーを導入して使用する
- [SPARK-49877] [SC-178392][sql] classifyException 関数シグネチャの変更: isRuntime 引数の追加
- [SPARK-47501] [SC-160532][sql] 既存の convertTimestampToTimestamp for JdbcDialect のように convertDateToDate を追加する
- [SPARK-49044] [SC-175746][sql] ValidateExternalType はエラーで子を返す必要があります
- [SPARK-47462] [SC-160460][sql] MySQLDialect の TINYINT を使用して他の符号なし数値型のマッピングを整列する
- [SPARK-47435] [SC-160129][sql] SPARK-45561 による MySQL UNSIGNED TINYINT のオーバーフローの問題を修正
- [SPARK-49398] [SC-176377][sql] CACHE TABLE と CREATE VIEW のクエリのパラメーターのエラーを改善
- [SPARK-47263] [SC-177012][sql] レガシ条件に名前を割り当てる _LEGACY_ERROR_TEMP_13[44-46]
-
[SPARK-49605] [SC-176605][sql]
ascendingOrderがDataTypeMismatchでSortArrayのときのプロンプトを修正する -
[SPARK-49806] [SC-178304][sql][CONNECT]
blank spaceおよびshowクライアントでScalaした後に冗長なConnectを削除する - [SPARK-47258] [SC-175032][sql] エラー クラスに名前を割り当てる _LEGACY_ERROR_TEMP_127[0-5]
- [SPARK-49564] [SC-178461][sql] JOIN 演算子の SQL パイプ構文を追加する
- [SPARK-49836] [SC-178339][sql][SS] ウィンドウが window/session_window fn に指定されたときにクエリが壊れる可能性がある問題を修正
- [SPARK-47390] [SC-163306][sc-159312][SPARK-47396][sc-159376][SPARK-47406] Postgres と MySQL の SQL タイムスタンプ マッピングを処理する
- [SPARK-49776] [SC-177818][python][CONNECT] 円グラフのサポート
- [SPARK-49824] [SC-178251][ss][CONNECT] SparkConnectStreamingQueryCache でのログ記録の向上
- [SPARK-49894] [SC-178460][python][CONNECT] 列フィールド操作の文字列表現を調整する
- [SPARK-49764] [SC-177491][python][CONNECT] エリアプロットのサポート
- [SPARK-49694] [SC-177376][python][CONNECT] 散布図のサポート
- [SPARK-49744] [SC-178363][ss][PYTHON] TransformWithStateInPandas で ListState の TTL サポートを実装する
-
[SPARK-49879] [SC-178334][core]
TransportCipherUtilを別のファイルに移動して Java コンパイルの警告を排除する - [SPARK-49866] [SC-178353][sql] パーティション列を含む describe テーブルのエラー メッセージを改善
- [SPARK-49867] [SC-178302][es-1260570][SQL] GetColumnByOrdinal を呼び出すときにインデックスが範囲外の場合のエラー メッセージを改善する
- [SPARK-49607] [SC-177373][python] サンプリングベースのプロットのサンプリング アプローチを更新します
- [SPARK-49626] [SC-177276][python][CONNECT] 横棒グラフと縦棒グラフのサポート
- [SPARK-49531] [SC-177770][python][CONNECT] plotly バックエンドで折れ線グラフをサポートする
- [SPARK-49444] [SC-177692][es-1203248][SQL] ユーザー指向メッセージが多い ArrayIndexOutOfBounds によって発生するランタイム例外をスローするように UnivocityParser を変更しました
- [SPARK-49870] [SC-178262][python] Spark クラシックで Python 3.13 のサポートを追加する
- [SPARK-49560] [SC-178121][sql] TABLESAMPLE 演算子の SQL パイプ構文を追加する
- [SPARK-49864] [SC-178305][sql] BINARY_ARITHMETIC_OVERFLOWのメッセージを改善する
- [SPARK-48780] [SC-170274][sql] 関数とプロシージャを処理できるように NamedParametersSupport 内のエラーを一般化する
- [SPARK-49358] [SC-178158][sql] 照合文字列を含むマップ型のモード式
- [SPARK-47341] [SC-178157][sql] RuntimeConfig#get の不正確なドキュメントを修正
- [SPARK-48357] [SC-178153][sql] LOOP ステートメントのサポート
-
[SPARK-49845] [SC-178059][core] REST API で
appArgsとenvironmentVariablesを省略可能にする - [SPARK-49246] [SC-174679][sql] TableCatalog#loadTable は、書き込み用かどうかを示す必要があります
- [SPARK-48048] [SC-177525][sc-164846][CONNECT][ss] Scala のクライアント側リスナーのサポートを追加しました
- [SPARK-48700] [SC-177978][sql] 複合型のモード式 (すべての照合順序)
- [SPARK-48196] [SC-177899][sql] QueryExecution lazy val plans を LazyTry に変換する
- [SPARK-49749] [16.x][sc-177877][CORE] BlockManagerInfo でデバッグするようにログ レベルを変更する
- [SPARK-49561] [SC-177897][sql] PIVOT 演算子と UNPIVOT 演算子の SQL パイプ構文を追加する
- [SPARK-49823] [SC-177885][ss] rocksdb close path でのシャットダウン中にフラッシュを回避する
-
[SPARK-49820] [SC-177855] [PYTHON]
raise IOErrorをraise OSErrorに変更する - [SPARK-49653] [SC-177266][sql] 相関スカラー サブクエリの単一結合
- [SPARK-49552] [SC-177477][python] 新しい 'randstr' および 'uniform' SQL 関数の DataFrame API サポートを追加
- [SPARK-48303] [16.x][sc-166251][CORE] LogKeys を再構成する
- [SPARK-49656] [16x][backport][SS] 値の状態コレクション型と読み取り変更フィード オプションを持つ状態変数のサポートを追加
- [SPARK-48112] [SC-165129][connect] SparkConnectPlanner のセッションをプラグインに公開する
- [SPARK-48126] [16.x][sc-165309][Core] spark.log.structuredLogging.enabled を有効にする
- [SPARK-49505] [SC-176873][sql] 範囲内でランダムな文字列または数値を生成する新しい SQL 関数 "randstr" と "uniform" を作成する
- [SPARK-49463] [SC-177474] TransformWithStateInPandas の ListState をサポート
-
[SPARK-48131] [SC-165007][core] MDC キーの
mdc.taskNameとtask_nameの統合 - [SPARK-49557] [SC-177227][sql] WHERE 演算子の SQL パイプ構文を追加する
- [SPARK-49323] [16.x][sc-174689][CONNECT] Spark Connect Server のテスト フォルダーからサーバーのメイン フォルダーに MockObserver を移動する
- [SPARK-49745] [SC-177501][ss] 状態データ ソース リーダーを使用して登録済みタイマーを読み取る変更を追加する
- [SPARK-49772] [16.x][sc-177478][SC-177214][ss] ColumnFamilyOptions を削除し、RocksDB の dbOptions に直接構成を追加する
Databricks ODBC/JDBC ドライバーのサポート
Databricks では、過去 2 年間にリリースされた ODBC/JDBC ドライバーがサポートされています。 最近リリースされたドライバーをダウンロードしてアップグレードしてください (ODBC のダウンロード、JDBC のダウンロード)。
Databricks Runtime 16.1 メンテナンス更新プログラムのを参照してください。
システム環境
-
オペレーティング システム: Ubuntu 24.04.1 LTS
- 注: これは、Databricks ランタイム コンテナーで使用される Ubuntu バージョンです。 DBR コンテナーは、異なる Ubuntu バージョンまたは Linux ディストリビューションを使用する可能性があるクラウド プロバイダーの仮想マシン上で実行されます。
- Java: Zulu17.54+21-CA
- Scala: 2.12.15
- Python: 3.12.3
- R: 4.4.0
- Delta Lake: 3.2.1
インストールされている Python ライブラリ
| Library | Version | Library | Version | Library | Version |
|---|---|---|---|---|---|
| annotated-types | 0.7.0 | asttokens | 2.0.5 | astunparse | 1.6.3 |
| autocommand | 2.2.2 | azure-core | 1.31.0 | azure-storage-blob | 12.23.0 |
| azure-storage-file-datalake | 12.17.0 | backports.tarfile | 1.2.0 | black | 24.4.2 |
| blinker | 1.7.0 | boto3 | 1.34.69 | botocore | 1.34.69 |
| cachetools | 5.3.3 | certifi | 2024.6.2 | cffi | 1.16.0 |
| chardet | 4.0.0 | charset-normalizer | 2.0.4 | click | 8.1.7 |
| cloudpickle | 2.2.1 | comm | 0.2.1 | contourpy | 1.2.0 |
| 暗号 | 42.0.5 | cycler | 0.11.0 | Cython | 3.0.11 |
| databricks-sdk | 0.30.0 | dbus-python | 1.3.2 | debugpy | 1.6.7 |
| デコレータ | 5.1.1 | Deprecated | 1.2.14 | distlib | 0.3.8 |
| docstring-to-markdown | 0.11 | entrypoints | 0.4 | executing | 0.8.3 |
| facets-overview | 1.1.1 | filelock | 3.15.4 | fonttools | 4.51.0 |
| gitdb | 4.0.11 | GitPython | 3.1.37 | google-api-core | 2.20.0 |
| google-auth | 2.35.0 | google-cloud-core | 2.4.1 | google-cloud-storage | 2.18.2 |
| google-crc32c | 1.6.0 | google-resumable-media | 2.7.2 | googleapis-common-protos | 1.65.0 |
| grpcio | 1.60.0 | grpcio-status | 1.60.0 | httplib2 | 0.20.4 |
| idna | 3.7 | importlib-metadata | 6.0.0 | importlib_resources | 6.4.0 |
| inflect | 7.3.1 | ipyflow-core | 0.0.201 | ipykernel | 6.28.0 |
| ipython | 8.25.0 | ipython-genutils | 0.2.0 | ipywidgets | 7.7.2 |
| isodate | 0.6.1 | jaraco.context | 5.3.0 | jaraco.functools | 4.0.1 |
| jaraco.text | 3.12.1 | jedi | 0.19.1 | jmespath | 1.0.1 |
| joblib | 1.4.2 | jupyter_client | 8.6.0 | jupyter_core | 5.7.2 |
| kiwisolver | 1.4.4 | launchpadlib | 1.11.0 | lazr.restfulclient | 0.14.6 |
| lazr.uri | 1.0.6 | matplotlib | 3.8.4 | matplotlib-inline | 0.1.6 |
| mccabe | 0.7.0 | mlflow-skinny | 2.15.1 | more-itertools | 10.3.0 |
| mypy | 1.10.0 | mypy-extensions | 1.0.0 | nest-asyncio | 1.6.0 |
| nodeenv | 1.9.1 | numpy | 1.26.4 | oauthlib | 3.2.2 |
| opentelemetry-api | 1.27.0 | opentelemetry-sdk | 1.27.0 | opentelemetry-semantic-conventions | 0.48b0 |
| packaging | 24.1 | pandas | 1.5.3 | parso | 0.8.3 |
| pathspec | 0.10.3 | patsy | 0.5.6 | pexpect | 4.8.0 |
| pillow | 10.3.0 | pip | 24.2 | platformdirs | 3.10.0 |
| plotly | 5.22.0 | pluggy | 1.0.0 | prompt-toolkit | 3.0.43 |
| proto-plus | 1.24.0 | protobuf | 4.24.1 | psutil | 5.9.0 |
| psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| pyarrow | 15.0.2 | pyasn1 | 0.4.8 | pyasn1-modules | 0.2.8 |
| pyccolo | 0.0.65 | pycparser | 2.21 | pydantic | 2.8.2 |
| pydantic_core | 2.20.1 | pyflakes | 3.2.0 | Pygments | 2.15.1 |
| PyGObject | 3.48.2 | PyJWT | 2.7.0 | pyodbc | 5.0.1 |
| pyparsing | 3.0.9 | pyright | 1.1.294 | python-dateutil | 2.9.0.post0 |
| python-lsp-jsonrpc | 1.1.2 | python-lsp-server | 1.10.0 | pytoolconfig | 1.2.6 |
| pytz | 2024.1 | PyYAML | 6.0.1 | pyzmq | 25.1.2 |
| requests | 2.32.2 | rope | 1.12.0 | rsa | 4.9 |
| s3transfer | 0.10.2 | scikit-learn | 1.4.2 | scipy | 1.13.1 |
| seaborn | 0.13.2 | setuptools | 74.0.0 | six | 1.16.0 |
| smmap | 5.0.0 | sqlparse | 0.5.1 | ssh-import-id | 5.11 |
| stack-data | 0.2.0 | statsmodels | 0.14.2 | tenacity | 8.2.2 |
| threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 | tomli | 2.0.1 |
| tornado | 6.4.1 | traitlets | 5.14.3 | typeguard | 4.3.0 |
| types-protobuf | 3.20.3 | types-psutil | 5.9.0 | types-pytz | 2023.3.1.1 |
| types-PyYAML | 6.0.0 | types-requests | 2.31.0.0 | types-setuptools | 68.0.0.0 |
| types-six | 1.16.0 | types-urllib3 | 1.26.25.14 | typing_extensions | 4.11.0 |
| ujson | 5.10.0 | unattended-upgrades | 0.1 | urllib3 | 1.26.16 |
| virtualenv | 20.26.2 | wadllib | 1.3.6 | wcwidth | 0.2.5 |
| whatthepatch | 1.0.2 | ホイール | 0.43.0 | wrapt | 1.14.1 |
| yapf | 0.33.0 | zipp | 3.17.0 |
インストールされている R ライブラリ
R ライブラリは、2024-08-04: https://packagemanager.posit.co/cran/2024-08-04/に Posit パッケージ マネージャー CRAN スナップショットからインストールされます。
| Library | Version | Library | Version | Library | Version |
|---|---|---|---|---|---|
| arrow | 16.1.0 | askpass | 1.2.0 | assertthat | 0.2.1 |
| backports | 1.5.0 | ベース | 4.4.0 | base64enc | 0.1-3 |
| bigD | 0.2.0 | bit | 4.0.5 | bit64 | 4.0.5 |
| bitops | 1.0-8 | BLOB | 1.2.4 | boot | 1.3-30 |
| brew | 1.0-10 | brio | 1.1.5 | broom | 1.0.6 |
| bslib | 0.8.0 | cachem | 1.1.0 | callr | 3.7.6 |
| caret | 6.0-94 | cellranger | 1.1.0 | chron | 2.3-61 |
| クラス | 7.3-22 | cli | 3.6.3 | clipr | 0.8.0 |
| clock | 0.7.1 | クラスタ | 2.1.6 | codetools | 0.2-20 |
| colorspace | 2.1-1 | commonmark | 1.9.1 | コンパイラ | 4.4.0 |
| config | 0.3.2 | conflicted | 1.2.0 | cpp11 | 0.4.7 |
| crayon | 1.5.3 | 認証情報 | 2.0.1 | curl | 5.2.1 |
| data.table | 1.15.4 | datasets | 4.4.0 | DBI | 1.2.3 |
| dbplyr | 2.5.0 | desc | 1.4.3 | devtools | 2.4.5 |
| diagram | 1.6.5 | diffobj | 0.3.5 | ダイジェスト | 0.6.36 |
| downlit | 0.4.4 | dplyr | 1.1.4 | dtplyr | 1.3.1 |
| e1071 | 1.7-14 | 省略記号 | 0.3.2 | evaluate | 0.24.0 |
| fansi | 1.0.6 | farver | 2.1.2 | fastmap | 1.2.0 |
| fontawesome | 0.5.2 | forcats | 1.0.0 | foreach | 1.5.2 |
| foreign | 0.8-86 | forge | 0.2.0 | fs | 1.6.4 |
| future | 1.34.0 | future.apply | 1.11.2 | gargle | 1.5.2 |
| ジェネリック | 0.1.3 | gert | 2.1.0 | ggplot2 | 3.5.1 |
| gh | 1.4.1 | git2r | 0.33.0 | gitcreds | 0.1.2 |
| glmnet | 4.1-8 | globals | 0.16.3 | glue | 1.7.0 |
| googledrive | 2.1.1 | googlesheets4 | 1.1.1 | gower | 1.0.1 |
| graphics | 4.4.0 | grDevices | 4.4.0 | グリッド | 4.4.0 |
| gridExtra | 2.3 | gsubfn | 0.7 | gt | 0.11.0 |
| gtable | 0.3.5 | hardhat | 1.4.0 | haven | 2.5.4 |
| highr | 0.11 | hms | 1.1.3 | htmltools | 0.5.8.1 |
| htmlwidgets | 1.6.4 | httpuv | 1.6.15 | httr | 1.4.7 |
| httr2 | 1.0.2 | ids | 1.0.1 | ini | 0.3.1 |
| ipred | 0.9-15 | isoband | 0.2.7 | iterators | 1.0.14 |
| jquerylib | 0.1.4 | jsonlite | 1.8.8 | juicyjuice | 0.1.0 |
| KernSmooth | 2.23-22 | knitr | 1.48 | labeling | 0.4.3 |
| later | 1.3.2 | lattice | 0.22-5 | lava | 1.8.0 |
| ライフサイクル | 1.0.4 | listenv | 0.9.1 | lubridate | 1.9.3 |
| magrittr | 2.0.3 | markdown | 1.13 | MASS | 7.3-60.0.1 |
| Matrix | 1.6-5 | memoise | 2.0.1 | methods | 4.4.0 |
| mgcv | 1.9-1 | mime | 0.12 | miniUI | 0.1.1.1 |
| mlflow | 2.14.1 | ModelMetrics | 1.2.2.2 | modelr | 0.1.11 |
| munsell | 0.5.1 | nlme | 3.1-165 | nnet | 7.3-19 |
| numDeriv | 2016.8-1.1 | openssl | 2.2.0 | parallel | 4.4.0 |
| parallelly | 1.38.0 | pillar | 1.9.0 | pkgbuild | 1.4.4 |
| pkgconfig | 2.0.3 | pkgdown | 2.1.0 | pkgload | 1.4.0 |
| plogr | 0.2.0 | plyr | 1.8.9 | praise | 1.0.0 |
| prettyunits | 1.2.0 | pROC | 1.18.5 | processx | 3.8.4 |
| prodlim | 2024.06.25 | profvis | 0.3.8 | progress | 1.2.3 |
| progressr | 0.14.0 | promises | 1.3.0 | proto | 1.0.0 |
| プロキシ | 0.4-27 | ps | 1.7.7 | purrr | 1.0.2 |
| R6 | 2.5.1 | ragg | 1.3.2 | randomForest | 4.7-1.1 |
| rappdirs | 0.3.3 | rcmdcheck | 1.4.0 | RColorBrewer | 1.1-3 |
| Rcpp | 1.0.13 | RcppEigen | 0.3.4.0.0 | reactable | 0.4.4 |
| reactR | 0.6.0 | readr | 2.1.5 | readxl | 1.4.3 |
| recipes | 1.1.0 | rematch | 2.0.0 | rematch2 | 2.1.2 |
| remotes | 2.5.0 | reprex | 2.1.1 | reshape2 | 1.4.4 |
| rlang | 1.1.4 | rmarkdown | 2.27 | RODBC | 1.3-23 |
| roxygen2 | 7.3.2 | rpart | 4.1.23 | rprojroot | 2.0.4 |
| Rserve | 1.8-13 | RSQLite | 2.3.7 | rstudioapi | 0.16.0 |
| rversions | 2.1.2 | rvest | 1.0.4 | sass | 0.4.9 |
| scales | 1.3.0 | selectr | 0.4-2 | sessioninfo | 1.2.2 |
| シェイプ | 1.4.6.1 | shiny | 1.9.1 | sourcetools | 0.1.7-1 |
| sparklyr | 1.8.6 | SparkR | 3.5.0 | 空間の | 7.3-17 |
| splines | 4.4.0 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
| stats | 4.4.0 | stats4 | 4.4.0 | stringi | 1.8.4 |
| stringr | 1.5.1 | survival | 3.6-4 | swagger | 5.17.14.1 |
| sys | 3.4.2 | systemfonts | 1.1.0 | tcltk | 4.4.0 |
| testthat | 3.2.1.1 | textshaping | 0.4.0 | tibble | 3.2.1 |
| tidyr | 1.3.1 | tidyselect | 1.2.1 | tidyvere | 2.0.0 |
| timechange | 0.3.0 | timeDate | 4032.109 | tinytex | 0.52 |
| tools | 4.4.0 | tzdb | 0.4.0 | urlchecker | 1.0.1 |
| usethis | 3.0.0 | utf8 | 1.2.4 | utils | 4.4.0 |
| uuid | 1.2-1 | V8 | 4.4.2 | vctrs | 0.6.5 |
| viridisLite | 0.4.2 | vroom | 1.6.5 | waldo | 0.5.2 |
| whisker | 0.4.1 | withr | 3.0.1 | xfun | 0.46 |
| xml2 | 1.3.6 | xopen | 1.0.1 | xtable | 1.8-4 |
| yaml | 2.3.10 | zeallot | 0.1.0 | zip | 2.3.1 |
インストールされている Java および Scala ライブラリ (Scala 2.12 クラスター バージョン)
| グループ識別子 | アーティファクト ID | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.638 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.638 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.638 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.638 |
| com.amazonaws | aws-java-sdk-config | 1.12.638 |
| com.amazonaws | aws-java-sdk-core | 1.12.638 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.638 |
| com.amazonaws | aws-java-sdk-directconnect | 1.12.638 |
| com.amazonaws | aws-java-sdk-directory | 1.12.638 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.638 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.638 |
| com.amazonaws | aws-java-sdk-efs | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.638 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.638 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.638 |
| com.amazonaws | aws-java-sdk-emr | 1.12.638 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.638 |
| com.amazonaws | aws-java-sdk-glue | 1.12.638 |
| com.amazonaws | aws-java-sdk-iam | 1.12.638 |
| com.amazonaws | aws-java-sdk-importexport | 1.12.638 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.638 |
| com.amazonaws | aws-java-sdk-kms | 1.12.638 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.638 |
| com.amazonaws | aws-java-sdk-logs | 1.12.638 |
| com.amazonaws | aws-java-sdk-machinelearning | 1.12.638 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.638 |
| com.amazonaws | aws-java-sdk-rds | 1.12.638 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.638 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.638 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.638 |
| com.amazonaws | aws-java-sdk-ses | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.638 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.638 |
| com.amazonaws | aws-java-sdk-sns | 1.12.638 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.638 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.638 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.638 |
| com.amazonaws | aws-java-sdk-sts | 1.12.638 |
| com.amazonaws | aws-java-sdk-support | 1.12.638 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.638 |
| com.amazonaws | jmespath-java | 1.12.638 |
| com.clearspring.analytics | ストリーミング | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | databricks-sdk-java | 0.27.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo-shaded | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | classmate | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.15.2 |
| com.fasterxml.jackson.core | jackson-core | 2.15.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-yaml | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.15.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.16.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.15.2 |
| com.github.ben-manes.caffeine | caffeine | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-natives |
| com.github.fommil.netlib | native_system-java | 1.1 |
| com.github.fommil.netlib | native_system-java | 1.1-natives |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-natives |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-natives |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.10.1 |
| com.google.crypto.tink | tink | 1.9.0 |
| com.google.errorprone | error_prone_annotations | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 23.5.26 |
| com.google.guava | guava | 15.0 |
| com.google.protobuf | protobuf-java | 3.25.1 |
| com.helger | プロファイラ | 1.1.1 |
| com.ibm.icu | icu4j | 75.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.3.jre8 |
| com.ning | compress-lzf | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.4.3 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.16.0 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.13.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | aircompressor | 0.27 |
| io.delta | delta-sharing-client_2.12 | 1.2.2 |
| io.dropwizard.metrics | metrics-annotation | 4.2.19 |
| io.dropwizard.metrics | metrics-core | 4.2.19 |
| io.dropwizard.metrics | metrics-graphite | 4.2.19 |
| io.dropwizard.metrics | metrics-healthchecks | 4.2.19 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.19 |
| io.dropwizard.metrics | metrics-jmx | 4.2.19 |
| io.dropwizard.metrics | metrics-json | 4.2.19 |
| io.dropwizard.metrics | metrics-jvm | 4.2.19 |
| io.dropwizard.metrics | metrics-servlets | 4.2.19 |
| io.netty | netty-all | 4.1.108.Final |
| io.netty | netty-buffer | 4.1.108.Final |
| io.netty | netty-codec | 4.1.108.Final |
| io.netty | netty-codec-http | 4.1.108.Final |
| io.netty | netty-codec-http2 | 4.1.108.Final |
| io.netty | netty-codec-socks | 4.1.108.Final |
| io.netty | netty-common | 4.1.108.Final |
| io.netty | netty-handler | 4.1.108.Final |
| io.netty | netty-handler-proxy | 4.1.108.Final |
| io.netty | netty-resolver | 4.1.108.Final |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-linux-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static | 2.0.61.Final-db-r16-windows-x86_64 |
| io.netty | netty-tcnative-classes | 2.0.61.Final |
| io.netty | netty-transport | 4.1.108.Final |
| io.netty | netty-transport-classes-epoll | 4.1.108.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-riscv64 |
| io.netty | netty-transport-native-epoll | 4.1.108.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.108.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.108.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | コレクター | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | アクティブ化 | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | pickle | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | ant | 1.10.11 |
| org.apache.ant | ant-jsch | 1.10.11 |
| org.apache.ant | ant-launcher | 1.10.11 |
| org.apache.arrow | arrow-format | 15.0.0 |
| org.apache.arrow | arrow-memory-core | 15.0.0 |
| org.apache.arrow | arrow-memory-netty | 15.0.0 |
| org.apache.arrow | arrow-vector | 15.0.0 |
| org.apache.avro | avro | 1.11.3 |
| org.apache.avro | avro-ipc | 1.11.3 |
| org.apache.avro | avro-mapred | 1.11.3 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.23.0 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | commons-text | 1.10.0 |
| org.apache.curator | curator-client | 2.13.0 |
| org.apache.curator | curator-framework | 2.13.0 |
| org.apache.curator | curator-recipes | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory | 2.0.0 |
| org.apache.derby | derby | 10.14.2.0 |
| org.apache.hadoop | hadoop-client-runtime | 3.3.6 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | hive-storage-api | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | ivy | 2.5.2 |
| org.apache.logging.log4j | log4j-1.2-api | 2.22.1 |
| org.apache.logging.log4j | log4j-api | 2.22.1 |
| org.apache.logging.log4j | log4j-core | 2.22.1 |
| org.apache.logging.log4j | log4j-layout-template-json | 2.22.1 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.22.1 |
| org.apache.orc | orc-core | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.9.2-shaded-protobuf |
| org.apache.orc | orc-shims | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.23 |
| org.apache.yetus | audience-annotations | 0.13.0 |
| org.apache.zookeeper | zookeeper | 3.9.2 |
| org.apache.zookeeper | zookeeper-jute | 3.9.2 |
| org.checkerframework | checker-qual | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | commons-compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.collections | eclipse-collections | 11.1.0 |
| org.eclipse.collections | eclipse-collections-api | 11.1.0 |
| org.eclipse.jetty | jetty-client | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-continuation | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-http | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-plus | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-proxy | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-security | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-server | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlets | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-webapp | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-api | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-client | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-server | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.40 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.40 |
| org.glassfish.jersey.core | jersey-client | 2.40 |
| org.glassfish.jersey.core | jersey-common | 2.40 |
| org.glassfish.jersey.core | jersey-server | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | hibernate-validator | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | annotations | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0-databricks-1 |
| org.mlflow | mlflow-spark_2.12 | 2.9.1 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.6.1 |
| org.roaringbitmap | RoaringBitmap | 0.9.45-databricks |
| org.roaringbitmap | shims | 0.9.45-databricks |
| org.rocksdb | rocksdbjni | 9.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-java8-compat_2.12 | 0.9.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | test-interface | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.16 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | scalatest-compatible | 3.2.16 |
| org.scalatest | scalatest-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.16 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.16 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.16 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.16 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.16 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.16 |
| org.scalatest | scalatest_2.12 | 3.2.16 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | slf4j-simple | 1.7.25 |
| org.threeten | threeten-extra | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | snakeyaml | 2.0 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 2.4.1-linux-x86_64 |
| stax | stax-api | 1.0.1 |