注
この Databricks Runtime バージョンのサポートは終了しました。 サポート終了日については、「サポート終了の履歴」を参照してください。 サポートされている Databricks Runtime のすべてのバージョンについては、「Databricks Runtime リリース ノートのバージョンと互換性」を参照してください。
次のリリース ノートには、Apache Spark 3.4.0 で稼働する Databricks Runtime 13.1 に関する情報が記載されています。
Databricks は、2023 年 5 月にこのバージョンをリリースしました。
新機能と機能強化
- JDK 17 のクラスター サポート (パブリック プレビュー)
- ストリーミング テーブルのデータを追加、変更、または削除する
- SQL を使用して Kafka を読み取る
- 新しい SQL 組み込み関数
- クラスター スコープの Python ライブラリに対する Unity Catalog のサポート
- Unity Catalog での最適化された書き込みの既定の有効化の拡張
- 構造化ストリーミング ワークロードでのステートフル オペレーターの高度なサポート
- Unity Catalog のタグ付けはパブリック プレビュー段階です
- 構造化ストリーミングの Pub/Sub のサポート
- 構造化ストリーミングでウォーターマーク内の重複を削除する
- パーティション列が切り捨てられた Apache Iceberg テーブルからのデルタ変換サポートが拡張されました
- Delta Lake での列マッピングを使用したストリーム スキーマの変更
- START VERSION の削除
- Python で使用できる新しい H3 式
JDK 17 のクラスター サポート (パブリック プレビュー)
Databricks は、Java Development Kit (JDK) 17 のクラスター サポートを提供するようになりました。 「Databricks SDK for Java」を参照してください。
ストリーミング テーブルのデータを追加、変更、または削除する
DML ステートメントを使用して、Lakeflow Spark 宣言パイプラインによって Unity カタログに発行されたストリーミング テーブルを変更できるようになりました。 「ストリーミング テーブル内のデータを追加、変更、または削除する」および「 ターゲット ストリーミング テーブルのデータを追加、変更、または削除する」を参照してください。 DML ステートメントを使用して、Databricks SQL で作成されたストリーミング テーブルを変更することもできます。
SQL を使って Kafka を読み取る
これで、read_kafka SQL 関数を使用して Kafka データを読み取ることができます。 SQL を使用したストリーミングは、DLT または Databricks SQL のストリーミング テーブルでのみサポートされます。
テーブル値関数read_kafka参照してください。
新しい SQL 組み込み関数
次の分析関数が追加されました:
-
array_prepend(array, elem) で
arrayが前に付加したelemを返します。 -
try_aes_decrypt(expr, key [, mode [, padding]]) AES 暗号化を使用して生成されたバイナリを復号化し、エラーが発生した場合は
NULLを返します。 - sql_keywords() Azure Databricks SQL キーワードのテーブルを返します。
クラスター スコープの Python ライブラリに対する Unity Catalog のサポート
Unity Catalog には、ライブラリの使用に関するいくつかの制限があります。 Databricks Runtime 13.1 以降では、ワークスペース ファイルとしてアップロードされる Python ホイール ファイルなど、クラスター スコープの Python ライブラリがサポートされています。 DBFS ファイルパスを使用して参照されるライブラリは、DBFS ルート内でも、DBFS にマウントされた外部の場所でもサポートされていません。 Python 以外のライブラリはサポートされていません。 コンピュート範囲ライブラリを参照してください。
Databricks Runtime 13.0 以下では、Unity カタログ対応ワークスペースで標準アクセス モード (以前の共有アクセス モード) を使用するクラスターでは、クラスター スコープライブラリはサポートされていません。
Unity Catalog での最適化された書き込みの既定の有効化の拡張
Unity Catalog に登録されている Delta テーブルの既定の最適化された書き込みサポートは、パーティション テーブルの CTAS ステートメントと INSERT 操作を含むように拡張されました。 この動作は、SQL ウェアハウスの既定値に合わせて調整されます。 「Delta Lake on Azure Databricks の最適化された書き込み」を参照してください。
構造化ストリーミング ワークロードでのステートフル オペレーターの高度なサポート
複数のステートフル演算子を連結できるようになりました。つまり、ウィンドウ集計などの操作の出力を結合などの別のステートフル操作にフィードできます。 「ステートフル ストリーミングとは」を参照してください。
Unity Catalog のタグ付けはパブリック プレビュー段階です
シャロー クローンを使用して、既存の Unity Catalog マネージド テーブルから新しい Unity Catalog マネージド テーブルを作成できるようになりました。 「Unity Catalog テーブルのシャロー クローン」を参照してください。
構造化ストリーミングの Pub/Sub のサポート
組み込みのコネクタを使用して、構造化ストリーミングを使用して Google Pub/Sub にサブスクライブできるようになりました。 「Google Pub/Sub にサブスクライブする」を参照してください。
構造化ストリーミングでウォーターマーク内の重複を削除する
指定したウォーターマークしきい値と組み合わせて dropDuplicatesWithinWatermark を使用して、構造化ストリーミング内のレコードを重複除去できるようになりました。 「ウォーターマーク内の重複をドロップする」を参照してください。
トランケーションされたパーティション列を持つApache Icebergテーブルからのデルタ変換のサポートが拡張されました。
CLONE、CONVERT TO DELTA、およびintの型の切り捨てられた列にパーティションが定義されている Apache Iceberg テーブルで、longとstringを使用できるようになりました。
decimal 型の切り捨てられた列はサポートされていません。
Delta Lake での列マッピングを使用したストリーム スキーマの変更
スキーマ追跡の場所を指定して、列マッピングが有効になっている Delta テーブルからのストリーミングを有効にすることができます。 「列マッピングとスキーマの変更が伴うストリーミング」を参照してください。
START VERSION の削除
START VERSION で ALTER SHARE が非推奨になりました。
Python で使用できる新しい H3 式
h3_coverash3 式と h3_coverash3string 式が Python で使用できます。
バグ修正
Parquet failOnUnknownFields で型の不一致に関するデータが自動的に削除されなくなりました
Parquet ファイルが failOnUnknownFields オプションのみを使用して読み取られた場合、または failOnNewColumns スキーマ展開モードで自動ローダーを使用した場合、異なるデータ型を持つ列は失敗し、rescuedDataColumn を使用することをお勧めします。 Integer 型、Short 型、Byte 型のデータ型のいずれかが指定されている場合は、自動ローダーが正しく読み取られ、型が復旧されなくなりました。 Parquet ファイルでは、他の 2 つの型のいずれかが提案されます。
破壊的変更
CVE-2023-32697 に対処するために sqlite-jdbc バージョンを 3.42.0.0 にアップグレードする
sqlite-jdbc バージョンを 3.8.11.2 から 3.42.0.0 にアップグレードします。 バージョン 3.42.0.0 の API は、3.8.11.2 と完全に互換性がありません。 コードで sqlite-jdbc を使用する場合は、sqlite-jdbc 互換性レポートをチェックして詳細を確認してください。 13.1 に移行して sqlite を使用する場合は、バージョン 3.42.0.0 でメソッドと戻り値の型を確認します。
ライブラリのアップグレード
- アップグレードされた Python ライブラリ:
- facets-overview (1.0.2 から 1.0.3 へ)
- filelock (3.10.7 から 3.12.0 へ)
- pyarrow (7.0.0 から 8.0.0 へ)
- tenacity (8.0.1 から 8.1.0 へ)
- アップグレードされた R ライブラリは次のとおりです。
- アップグレードされた Java ライブラリ:
- com.github.ben-manes.caffeine.caffeine (2.3.4 から 2.9.3 へ)
- io.delta.delta-sharing-spark_2.12 から 0.6.8 から 0.6.4
- net.snowflake.snowflake-jdbc (3.13.29 から 3.13.22)
- org.checkerframework.checker-qual (3.5.0 から 3.19.0 へ)
- org.scalactic.scalactic_2.12 (3.0.8 から 3.2.15 へ)
- org.scalatest.scalatest_2.12 (3.0.8 から 3.2.15 へ)
- org.xerial.sqlite-jdbc (3.8.11.2 から 3.42.0.0 へ)
Apache Spark
Databricks Runtime 13.1 には、Apache Spark 3.4.0 が含まれています。 このリリースには、Databricks Runtime 13.0 (サポート期間終了) に含まれるすべての Spark の修正プログラムおよび機能強化と、Spark に対して行われた次の追加のバグ修正と機能強化が含まれています:
- [SPARK-42719] [DBRRM-199][sc-131578] 元に戻す "[SC-125225] 'MapOutputTracker#getMap...
- [SPARK-39696] [DBRRM-166][sc-130056][CORE] Revert [SC-127830]/
- [SPARK-43331] [SC-130064][connect] Spark Connect の SparkSession.interruptAll メソッドを追加する
- [SPARK-43332] [SC-130051][connect][PYTHON] SparkConnectClient 用の ChannelBuilder を拡張できるようにする
- [SPARK-43323] [SC-129966][sql][PYTHON] 例外を正しく処理するために Arrow を有効にして DataFrame.toPandas を修正する
- [SPARK-42940] [SC-129896][ss][CONNECT] ストリーミング クエリのセッション管理を改善する
- [SPARK-43032] [SC-125756] [CONNECT][ss] ストリーミング クエリ マネージャーの追加
- [SPARK-16484] [SC-129975][sql] Datasketches HllSketch のサポートを追加
- [SPARK-43260] [SC-129281][python] Spark SQL pandas の矢印の種類のエラーをエラー クラスに移行します。
- [SPARK-41766] [SC-129964][core] Executor 登録前に送信された使用停止要求を処理する
- [SPARK-43307] [SC-129971][python] PandasUDF 値エラーをエラー クラスに移行する
- [SPARK-43206] [SC-129903] [SS] [CONNECT] StreamingQuery exception() にスタック トレースが含まれる
- [SPARK-43311] [SC-129905][ss] RocksDB 状態ストア プロバイダーのメモリ管理の機能強化を追加する
- [SPARK-43237] [SC-129898][core] イベント ログで null 例外メッセージを処理する
- [SPARK-43320] [SC-129899][sql][HIVE] Hive 2.3.9 API を直接呼び出す
-
[SPARK-43270] [SC-129897][python] 列を含める
__dir__()にpyspark.sql.dataframe.DataFrameを実装する - [SPARK-43183] 「[SC-128938][ss] 新しいコールバックを導入する」とした変更を元に戻す。
- [SPARK-43143] [SC-129902] [SS] [CONNECT] Scala StreamingQuery 終了待機(awaitTermination)
- [SPARK-43257] [SC-129675][sql] エラー クラス _LEGACY_ERROR_TEMP_2022を内部エラーに置き換える
- [SPARK-43198] [SC-129470][connect] 「Ammoniteクラスを初期化できませんでした…」 フィルター使用時のエラー
- [SPARK-43165] [SC-129777][sql] canWrite を DataTypeUtils に移動する
- [SPARK-43298] [SC-129729][python][ML] スカラー入力のpredict_batch_udfがバッチ サイズ 1 で失敗する
- [SPARK-43298] [SC-129700]「スカラー入力を用いる際に [PYTHON][ml] の predict_batch_udf がバッチサイズ 1 で失敗する」という変更を元に戻す。
- [SPARK-43052] [SC-129663][core] イベント ログで null ファイル名でスタックトレースを処理する
- [SPARK-43183] [SC-128938][ss] StreamingQueryListener に新しいコールバック "onQueryIdle" を導入する
- [SPARK-43209] [SC-129190][connect][PYTHON] 式エラーをエラー クラスに移行する
- [SPARK-42151] [SC-128754][sql] UPDATE の割り当てをテーブル属性に合わせる
- [SPARK-43134] [SC-129468] [CONNECT] [SS] JVM クライアント StreamingQuery exception() API
- [SPARK-43298] [SC-129699][python][ML] スカラー入力のpredict_batch_udfがバッチ サイズ 1 で失敗する
- [SPARK-43248] [SC-129660][sql] 並列収集パーティション統計でのパスの不要なシリアル化/逆シリアル化
-
[SPARK-43274] [SC-129464][spark-43275][PYTHON][connect] の紹介
PySparkNotImplementedError - [SPARK-43146] [SC-128804][connect][PYTHON] repr と repr_html の一括評価を実装する
- [SPARK-42953] [SC-129469][connect][Followup] Scala クライアント UDF テスト用の maven テスト ビルドを修正する
- [SPARK-43144] [SC-129280] Scala Client DataStreamReader table() API
- [SPARK-43136] [SC-129358][connect] groupByKey + mapGroup + coGroup 関数の追加
-
[SPARK-43156] [SC-129672][sc-128532][SQL] 相関スカラー サブクエリの
COUNT(*) is nullバグを修正 - [SPARK-43046] [SC-129110] [SS] [Connect] 実装された Python API dropDuplicatesWithinWatermark for Spark Connect
- [SPARK-43199] [SC-129467][sql] InlineCTEを冪等化する
-
[SPARK-43293] [SC-129657][sql]
__qualified_access_onlyは通常の列では無視する必要がある - [SPARK-43276] [SC-129461][connect][PYTHON] Spark Connect Window のエラーをエラー クラスに移行する
- [SPARK-43174] [SC-129109][sql] SparkSQLCLIDriver completer の修正
- [SPARK-43084] [SC-128654] [SS] spark connect の applyInPandasWithState サポートを追加する
- [SPARK-43119] [SC-129040][sql] JDBC API と TVF を通じて SQL キーワードを動的に取得するサポート
- [SPARK-43082] [SC-129112][connect][PYTHON] Spark Connect での矢印最適化 Python UDF
- [SPARK-43085] [SC-128432][sql] マルチパートテーブル名に対する列のデフォルト割り当てをサポート
- [SPARK-43226] [LC-671] ファイル定数メタデータの抽出器を定義する
-
[SPARK-43210] [SC-129189][connect][PYTHON] の紹介
PySparkAssertionError - [SPARK-43214] [SC-129199][sql] LocalTableScanExec/CommandResultExec のドライバー側メトリックを公開する
- [SPARK-43285] [SC-129347] JDK 17 で ReplE2ESuite が一貫して失敗する問題を修正
- [SPARK-43268] [SC-129249][sql] メッセージで例外が作成されたときに適切なエラー クラスを使用する
- [SPARK-43142] [SC-129299] 特殊文字を持つ属性に対する DSL 式を修正する
- [SPARK-43129] [SC-128896] Spark Connect をストリーミングするための Scala コア API
- [SPARK-43233] [SC-129250] [SS] トピック パーティション、オフセット範囲、タスク ID の Kafka バッチ読み取りにログを追加する
- [SPARK-43249] [SC-129195][connect] SQL コマンドの不足している統計を修正する
- [SPARK-42945] [SC-129188][connect] PYSPARK_JVM_STACKTRACE_ENABLED を Spark Connect でサポートします
- [SPARK-43178] [SC-129197][connect][PYTHON] UDF エラーを PySpark エラー フレームワークに移行する
- [SPARK-43123] [SC-128494][sql] 内部フィールド メタデータをカタログにリークしないようにする
- [SPARK-43217] [SC-129205] findNestedField の入れ子になったマップ/配列を正しく再帰する
- [SPARK-43243] [SC-129294][python][CONNECT] python 用 printSchema にレベル パラメーターを追加する
-
[SPARK-43230] [SC-129191][connect] 簡略化
DataFrameNaFunctions.fillna - [SPARK-43088] [SC-128403][sql] CTAS/RTAS での RequiresDistributionAndOrdering の尊重
-
[SPARK-43234] [SC-129192][connect][PYTHON] Conect DataFrame からエラー クラスに
ValueErrorを移行する - [SPARK-43212] [SC-129187][ss][PYTHON] 構造化ストリーミング エラーをエラー クラスに移行する
-
[SPARK-43239] [SC-129186][ps] info() から
null_countsを削除する - [SPARK-43190] [SC-128930][sql] ListQuery.childOutput は子出力と一致する必要がある
- [SPARK-43191] [SC-128924][core] リフレクションを Hadoop CallerContext の直接呼び出しで置き換える
- [SPARK-43193] [SC-129042][ss] HADOOP-12074 の回避策を削除する
- [SPARK-42657] [SC-128621][connect] クライアント側 REPL クラスファイルをアーティファクトとして検索してサーバーに転送するサポート
- [SPARK-43098] [SC-77059][sql] スカラー サブクエリに group by 句がある場合の COUNT の正確性に関するバグを修正する
-
[SPARK-43213] [SC-129062][python] バニラ PySpark に
DataFrame.offsetを追加する - [SPARK-42982] [SC-128400][connect][PYTHON] 指定されたスキーマ ddl に従って createDataFrame を修正
- [SPARK-43124] [SC-129011][sql] Dataset.show は CommandResults をローカルでプロジェクトする
- [SPARK-42998] [SC-127422][connect][PYTHON] Null 構造体で DataFrame.collect を修正する
- [SPARK-41498] [SC-125343]Revert "Union を介してメタデータを伝達"
- [SPARK-42960] [SC-129010] [CONNECT] [SS] Python でストリーミング クエリ用の await_termination() と exception() API を追加する
- [SPARK-42552] [SC-128824][sql] antlr パーサーの 2 段階解析戦略を修正する
- [SPARK-43207] [SC-128937][connect] リテラル式から値を抽出するヘルパー関数を追加する
- [SPARK-43186] [SC-128841][sql][HIVE] FileSinkDesc の回避策を削除する
- [SPARK-43107] [SC-128533][sql] ブロードキャスト結合のストリーム側でバケットを合併することによる結合
- [SPARK-43195] [SC-128922][core] HadoopFSUtils の不要なシリアル化可能ラッパーを削除する
- [SPARK-43137] [SC-128828][sql] 位置が折り畳み可能で正の場合は ArrayInsert を改善します。
- [SPARK-37829] [SC-128827][sql] Dataframe.joinWith outer-join は、一致しない行の null 値を返す必要があります
- [SPARK-43042] [SC-128602] [SS] [接続] DataStreamReader の table() API サポートを追加する
- [SPARK-43153] [SC-128753][connect] データフレームがローカルのときに Spark の実行をスキップする
- [SPARK-43064] [SC-128496][sql] Spark SQL CLI SQL タブに表示されるステートメントは 1 回だけ
- [SPARK-43126] [SC-128447][sql] 2 つの Hive UDF 式をステートフルとしてマークする
-
[SPARK-43111] [SC-128750][ps][CONNECT][python] 入れ子になった
ifステートメントを単一のifステートメントにマージする - [SPARK-43113] [SC-128749][sql] バインドされた条件のコードを生成するときにストリーム側変数を評価する
- [SPARK-42895] [SC-127258][connect] 停止した Spark セッションのエラー メッセージを改善する
- [SPARK-42884] [SC-126662][connect] アンモナイト REPL 統合の追加
- [SPARK-43168] [SC-128674][sql] Datatype クラスから Get PhysicalDataType メソッドを削除する
-
[SPARK-43121] [SC-128455][sql] 'HiveInspectors で手動コピーの代わりに
BytesWritable.copyBytesを使用する - [SPARK-42916] [SC-128389][sql] JDBCTableCatalog が読み取り側で Char/Varchar メタを保持する
- [SPARK-43050] [SC-128550][sql] グループ化関数を置き換えて集計式を構築する
-
[SPARK-43095] [SC-128549][sql] Once戦略の冪等性がバッチ処理で失われないように避けてください。
Infer Filters - [SPARK-43130] [SC-128597][sql] InternalType を PhysicalDataType に移動する
- [SPARK-43105] [SC-128456][connect] プロトメッセージのバイトと文字列の省略
-
[SPARK-43099] [SC-128596][sql] udf を FunctionRegistry に登録するときに、
getNameの代わりにgetCanonicalNameを使用してビルダー クラス名を取得する - [SPARK-42994] [SC-128586][ml][CONNECT] PyTorch ディストリビューターサポート ローカル モード
- [SPARK-42859] "[SC-127935][connect][PS] Spark Connect での pandas API の基本的なサポート" を元に戻す
-
[SPARK-43021] [SC-128472][sql]
CoalesceBucketsInJoinAQE を使用すると機能しません - [SPARK-43125] [SC-128477][connect] 接続サーバーが Null メッセージで例外を処理できない問題を修正する
- [SPARK-43147] [SC-128594] ローカル チェック用の flake8 リントを修正
- [SPARK-43031] [SC-128360] [SS] [接続] ストリーミングの単体テストと doctest を有効にする
- [SPARK-43039] [LC-67] ファイル source_metadata 列のユーザー設定フィールドをサポートします。
- [SPARK-43120] [SC-128407][ss] RocksDB 状態ストアのピン留めされたブロックのメモリ使用量を追跡するためのサポートを追加
- [SPARK-43110] [SC-128381][sql] asIntegral を PhysicalDataType に移動する
- [SPARK-43118] [SC-128398][ss] KafkaMicroBatchStream の UninterruptibleThread の不要なアサートを削除する
- [SPARK-43055] [SC-128331][connect][PYTHON] 重複する入れ子になったフィールド名をサポート
- [SPARK-42437] [SC-128339][python][CONNECT] PySpark catalog.cacheTable では、ストレージ レベルを指定できます
- [SPARK-42985] [SC-128332][connect][PYTHON] SQL 構成を考慮して createDataFrame を修正
- [SPARK-39696] [SC-127830][core] TaskMetrics.externalAccums へのアクセスでデータ 競合を修正する
- [SPARK-43103] [SC-128335][sql] PhysicalDataType への整数の移動
- [SPARK-42741] [SC-125547][sql] リテラルが null の場合、バイナリ比較でキャストのラップを解除しない
- [SPARK-43057] [SC-127948][connect][PYTHON] Spark Connect 列のエラーをエラー クラスに移行する
- [SPARK-42859] [SC-127935][connect][PS] Spark Connect での pandas API の基本的なサポート
-
[SPARK-43013] [SC-127773][python] DataFrame から
ValueErrorにPySparkValueErrorを移行します。 - [SPARK-43089] [SC-128051][connect] UI でデバッグ文字列を編集する
- [SPARK-43028] [SC-128070][sql] エラー クラスの追加 SQL_CONF_NOT_FOUND
- [SPARK-42999] [SC-127842][connect] Dataset#foreach, foreachPartition
- [SPARK-43066] [SC-127937][sql] JavaDatasetSuite で dropDuplicates のテストを追加する
-
[SPARK-43075] [SC-127939][connect] インストールされていないときに
gRPCをgrpcioに変更します。 - [SPARK-42953] [SC-127809][connect] 型指定されたフィルター、マップ、flatMap、mapPartitions
- [SPARK-42597] [SC-125506][sql] 日付型からタイムスタンプ型へのラップ解除のサポート
- [SPARK-42931] [SC-127933][ss] dropDuplicatesWithinWatermark の導入
- [SPARK-43073] [SC-127943][connect] proto データ型定数を追加する
- [SPARK-43077] [SC-128050][sql] UNRECOGNIZED_SQL_TYPEのエラー メッセージを改善する
- [SPARK-42951] [SC-128030][ss][Connect] DataStreamReader API
- [SPARK-43049] [SC-127846][sql] Oracle JDBC の StringType に VARCHAR(255) の代わりに CLOB を使用する
- [SPARK-43018] [SC-127762][sql] タイムスタンプ リテラルを使用した INSERT コマンドのバグを修正
- [SPARK-42855] [SC-127722][sql] TableOutputResolver でランタイム null チェックを使用する
- [SPARK-43030] [SC-127847][sql] メタデータ列との重複除去関係
- [SPARK-42993] [SC-127829][ml][CONNECT] PyTorch ディストリビューターを Spark Connect と互換性のあるものにする
- [SPARK-43058] [SC-128072][sql] 数値と小数部を PhysicalDataType に移動する
- [SPARK-43056] [SC-127946][ss] RocksDB 状態ストアのコミットが一時停止した場合にのみバックグラウンド処理を続行する必要がある
- [SPARK-43059] [SC-127947][connect][PYTHON] DataFrame(Reader|Writer) の TypeError をエラー クラスに移行する
- [SPARK-43071] [SC-128018][sql] SELECT、ORDER BY、LIMITでOFFSETソースリレーションをDEFAULTでサポートする
- [SPARK-43061] [SC-127956][core][SQL] SQL 演算子の実行に PartitionEvaluator を導入する
- [SPARK-43067] [SC-127938][ss] Kafka コネクタのエラー クラス リソース ファイルの場所を修正する
- [SPARK-43019] [SC-127844][sql] 順序を PhysicalDataType に移動する
- [SPARK-43010] [SC-127759][python] 列エラーをエラー クラスに移行する
-
[SPARK-42840] [SC-127782][sql]
_LEGACY_ERROR_TEMP_2004エラーを内部エラーに変更する - [SPARK-43041] [SC-127765][sql] コネクタ API の互換性のために例外のコンストラクターを復元する
- [SPARK-42939] [SC-127761][ss][CONNECT] Spark Connect 用コア ストリーミング Python API
-
[SPARK-42844] [SC-127766][sql] エラー クラスを更新して
_LEGACY_ERROR_TEMP_2008からINVALID_URLに変更します。 - [SPARK-42316] [SC-127720][sql] _LEGACY_ERROR_TEMP_2044に名前を割り当てる
- [SPARK-42995] [SC-127723][connect][PYTHON] Spark Connect DataFrame エラーをエラー クラスに移行する
- [SPARK-42983] [SC-127717][connect][PYTHON] createDataFrame が 0 dim numpy 配列を正しく処理するように修正
- [SPARK-42955] [SC-127476][sql] SparkThrowable の classifyException と wrap AnalysisException をスキップする
- [SPARK-42949] [SC-127255][sql] NAAJ のコードを簡略化する
-
[SPARK-43011] [SC-127577][sql]
array_insertがインデックス 0 で失敗する必要がある -
[SPARK-42974] [SC-127487][core]
Utils.createTempDirを復元し、ShutdownHookManagerを使ってJavaUtils.createTempDirメソッドをクリーンアップします。 - [SPARK-42964] [SC-127585][sql] PosgresDialect '42P07' はテーブルが既に存在することも意味します
- [SPARK-42978] [SC-127351][sql] DerbyとPostgreSQL: RENAME でスキーマ名で修飾されたnew-table-Nameを指定できません
- [SPARK-37980] [SC-127668][sql] テストで可能であれば、_metadata経由でrow_indexにアクセスする
- [SPARK-42655] [SC-127591][sql] あいまいな列参照エラーが正しくありません
-
[SPARK-43009] [SC-127596][sql]
sql()定数を持つパラメーター化されたAny - [SPARK-43026] [SC-127590][sql] 非交換テーブル キャッシュで AQE を適用する
- [SPARK-42963] [SC-127576][sql] SparkSessionExtensions を拡張して AQE クエリ ステージ オプティマイザーにルールを挿入する
- [SPARK-42918] [SC-127357] FileSourceStrategy でのメタデータ属性の処理を一般化する
-
[SPARK-42806] [SC-127452][spark-42811][CONNECT]
Catalogサポートの追加 - [SPARK-42997] [SC-127535][sql] TableOutputResolver は、配列とマップのエラー メッセージで正しい列パスを使用する必要があります
- [SPARK-43006] [SC-127486][pyspark] StorageLevel eq() の入力ミスを修正
- [SPARK-43005] [SC-127485][pyspark] pyspark/pandas/config.py の入力ミスを修正
- [SPARK-43004] [SC-127457][core] ResourceRequest.equals() の入力ミスを修正
- [SPARK-42907] [SC-126984][connect][PYTHON] Avro 関数を実装する
- [SPARK-42979] [SC-127272][sql] リテラル コンストラクターをキーワードとして定義する
- [SPARK-42946] [SC-127252][sql] 変数の置換によって入れ子になった機密データを編集する
- [SPARK-42952] [SC-127260][sql] アナライザー ルールの PreprocessTableCreation と DataSourceAnalysis のパラメーターを簡略化する
- [SPARK-42683] [LC-75] 競合するメタデータ列の名前を自動的に変更する
- [SPARK-42853] [SC-126101][フォローアップ] 競合の修正
- [SPARK-42929] [SC-126748][connect] mapInPandas / mapInArrow が「is_barrier」をサポートするようにする
- [SPARK-42968] [SC-127271][ss] DSv2 ソース/シンクの StreamingWrite API の一部としてコミット コーディネーターをスキップするオプションを追加
-
[SPARK-42954] [SC-127261][python][CONNECT] PySpark と Spark Connect Python クライアントに
YearMonthIntervalTypeを追加する -
[SPARK-41359] [SC-127256][sql] UnsafeRow で DataType の代わりに
PhysicalDataTypeを使用する - [SPARK-42873] [SC-127262][sql] Spark SQL 型をキーワードとして定義する
-
[SPARK-42808] [SC-126302][core] 毎回 availableProcessors を取得しないようにする
MapOutputTrackerMaster#getStatistics -
[SPARK-42937] [SC-126880][sql]
PlanSubqueriesはInSubqueryExec#shouldBroadcastを true に設定する必要があります -
[SPARK-42896] [SC-126729][sql][PYTHON] バリアモードの実行をサポートできるように
mapInPandas/mapInArrowを対応する - [SPARK-42874] [SC-126442][sql] すべての入力ファイルの分析用に新しいゴールデン ファイル テスト フレームワークを有効にする
- [SPARK-42922] [SC-126850][sql] ランダムから SecureRandom への移行
- [SPARK-42753] [SC-126369] ReusedExchange は存在しないノードを参照します
- [SPARK-40822] [SC-126274][sql] 安定した派生カラムの別名
- [SPARK-42908] [SC-126856][python] SparkContext が必要だが初期化されていないときに RuntimeError を発生させる
- [SPARK-42779] [SC-126042][sql] V2 書き込みに推奨シャッフルパーティションサイズを示すことを許可する
-
[SPARK-42914] [SC-126727][python]
transformUnregisteredFunctionのDistributedSequenceIDを再利用します。 - [SPARK-42878] [SC-126882][connect] DataFrameReader のテーブル API でオプションを受け入れることもできます
-
[SPARK-42927] [SC-126883][core]
o.a.spark.util.Iterators#sizeのアクセス スコープをprivate[util]に変更する - [SPARK-42943] [SC-126879][sql] 有効な長さに StringType に TEXT の代わりに LONGTEXT を使用する
- [SPARK-37677] [SC-126855][core] Unzip はファイルのアクセス許可を保持できます
- [SPARK-42891] [13.x][sc-126458][CONNECT][python] CoGrouped Map API を実装する
- [SPARK-41876] [SC-126849][connect][PYTHON] DataFrame.toLocalIterator を実装する
-
[SPARK-42930] [SC-126761][core][SQL]
ProtobufSerDe関連する実装のアクセス スコープを に変更しますprivate[protobuf] - [SPARK-42819] [SC-125879][ss] ストリーミングで使用される RocksDB のmax_write_buffer_numberとwrite_buffer_sizeの設定のサポートを追加
- [SPARK-42924] [SC-126737][sql][CONNECT][python] パラメーター化された SQL 引数のコメントを明確にする
- [SPARK-42748] [SC-126455][connect] サーバー側アーティファクト管理
- [SPARK-42816] [SC-126365][connect] 最大メッセージ サイズ (最大 128 MB) をサポート
- [SPARK-42850] [SC-126109][sql] オプティマイザーで重複するルール CombineFilter を削除する
- [SPARK-42662] [SC-126355][connect][PS] Spark の既定のインデックスに pandas API の proto メッセージを追加する
- [SPARK-42720] [SC-126136][ps][SQL] プランではなく、分散シーケンスの既定のインデックスに式を使用する
- [SPARK-42790] [SC-126174][sql] 除外されたメソッドを抽象化して、JDBC Docker テストのテストを改善します。
- [SPARK-42900] [SC-126473][connect][PYTHON] 推論と列名を考慮して createDataFrame を修正
- [SPARK-42917] [SC-126657][sql] DerbyDialectにおけるgetUpdateColumnNullabilityQueryの修正
- [SPARK-42684] [SC-125157][sql] v2 カタログでは、既定で列の既定値を許可しない
- [SPARK-42861] [SC-126635][sql] protected[sql] の代わりに private[sql] を使用して API ドキュメントが生成されないようにする
- [SPARK-42920] [SC-126728][connect][PYTHON] UDT を使用して UDF のテストを有効にする
- [SPARK-42791] [SC-126617][sql] 分析用の新しいゴールデン ファイル テスト フレームワークを作成する
- [SPARK-42911] [SC-126652][python] より基本的な例外を導入
- [SPARK-42904] [SC-126634][sql] JDBC カタログの Char/Varchar サポート
-
[SPARK-42901] [SC-126459][connect][PYTHON]
StorageLevelを別のファイルに移動して潜在的な問題を回避するfile recursively imports -
[SPARK-42894] [SC-126451][connect] Spark connect jvm クライアントのサポート
cache/persist/unpersist/storageLevel - [SPARK-42792] [SC-125852][ss] ストリーミング ステートフル演算子で使用される RocksDB のWRITE_FLUSH_BYTESのサポートを追加
- [SPARK-41233] [SC-126441][connect][PYTHON] Spark Connect Python クライアントにarray_prependを追加する
- [SPARK-42681] [SC-125149][sql] ADD|REPLACE 列記述子の順序制約を緩和する
- [SPARK-42889] [SC-126367][connect][PYTHON] キャッシュ、永続化、非パーシスト、storageLevel を実装する
- [SPARK-42824] [SC-125985][connect][PYTHON] サポートされていない JVM 属性の明確なエラー メッセージを提供する
- [SPARK-42340] [SC-126131][connect][PYTHON] グループ化されたマップ API を実装する
- [SPARK-42892] [SC-126454][sql] SameType と関連するメソッドを DataType から移動する
-
[SPARK-42827] [SC-126126][connect] Scala connect クライアントのサポート
functions#array_prepend -
[SPARK-42823] [SC-125987][sql]
spark-sqlシェルでは、初期化のためのマルチパート名前空間がサポートされます - [SPARK-42817] [SC-125960][core] ApplicationMaster でシャッフル サービス名を 1 回ログに記録する
- [SPARK-42786] [SC-126438][connect] 型付き選択
-
[SPARK-42800] [SC-125868][connect][PYTHON][ml] ml 関数を実装する
{array_to_vector, vector_to_array} - [SPARK-42052] [SC-126439][sql] HiveSimpleUDF の Codegen サポート
-
[SPARK-41233] [SC-126110][sql][PYTHON]
array_prepend関数を追加する -
[SPARK-42864] [SC-126268][ml][3.4]
IsotonicRegression.PointsAccumulatorプライベートにする - [SPARK-42876] [SC-126281][sql] DataType の physicalDataType をプライベートにする必要がある [sql]
- [SPARK-42101] [SC-125437][sql] AQE で InMemoryTableScanExec をサポートする
- [SPARK-41290] [SC-124030][sql] create/replace table ステートメントの列に対して GENERATED ALWAYS AS 式をサポート
-
[SPARK-42870] [SC-126220][connect]
toCatalystValueをconnect-commonに移動する - [SPARK-42247] [SC-126107][connect][PYTHON] UserDefinedFunction を returnType に修正
- [SPARK-42875] [SC-126258][connect][PYTHON] タイムゾーンとマップの種類を適切に処理するための toPandas の修正
- [SPARK-42757] [SC-125626][connect] DataFrameReader の textFile を実装する
- [SPARK-42803] [SC-126081][core][SQL][ml] getParameterTypes.length の代わりに getParameterCount 関数を使用する
-
[SPARK-42833] [SC-126043][sql] で
applyExtensionsをリファクタリングするSparkSession - [SPARK-41765] “[SC-123550][sql] v1書き込みメトリックを抽出”を元に戻す...
- [SPARK-42848] [SC-126105][connect][PYTHON] DataFrame.registerTempTable を実装する
- [SPARK-42020] [SC-126103][connect][PYTHON] Spark Connect での UserDefinedType のサポート
- [SPARK-42818] [SC-125861][connect][PYTHON] DataFrameReader/Writer.jdbc を実装する
- [SPARK-42812] [SC-125867][connect] AddArtifactsRequest プロトコルバッファメッセージに client_type を追加する
- [SPARK-42772] [SC-125860][sql] プッシュダウンに関する JDBC オプションの既定値を true に変更する
- [SPARK-42771] [SC-125855][sql] HiveGenericUDF をリファクタリングする
- [SPARK-25050] [SC-123839][sql] Avro: 複雑な共用体の記述
-
[SPARK-42765] [SC-125850][connect][PYTHON] から
pandas_udfのインポートを有効にするpyspark.sql.connect.functions -
[SPARK-42719] [SC-125225][core]
MapOutputTracker#getMapLocationを尊重すべきですspark.shuffle.reduceLocality.enabled - [SPARK-42480] [SC-125173][sql] ドロップ パーティションのパフォーマンスを向上させる
- [SPARK-42689] [SC-125195][core][SHUFFLE] シャッフル データが確実に格納されているかどうかを ShuffleDriverComponent で宣言できるようにする
-
[SPARK-42726] [SC-125279][connect][PYTHON] 実装
DataFrame.mapInArrow - [SPARK-41765] [SC-123550][sql] v1 書き込みメトリックを WriteFiles にプルアウトする
- [SPARK-41171] [SC-124191][sql] partitionSpec が空の場合、ウィンドウ制限を推論し、プッシュダウンを行う
- [SPARK-42686] [SC-125292][core] TaskMemoryManager のデバッグ メッセージの書式設定を延期する
- [SPARK-42756] [SC-125443][connect][PYTHON] Python クライアントで proto リテラルを値に変換するヘルパー関数
-
[SPARK-42793] [SC-125627][connect]
connectモジュールにはbuild_profile_flagsが必要です -
[SPARK-42701] [SC-125192][sql]
try_aes_decrypt()関数を追加する - [SPARK-42679] [SC-125438][connect][PYTHON] createDataFrame が null 非許容スキーマで動作しない
- [SPARK-42733] [SC-125542][connect][Followup] パスまたはテーブルなしの書き込み
- [SPARK-42777] [SC-125525][sql] TimestampNTZ カタログ統計を計画統計に変換するサポート
-
[SPARK-42770] [SC-125558][connect]
truncatedTo(ChronoUnit.MICROS)を追加して、Java 17 の毎日のテスト GA タスク パスでSQLImplicitsTestSuiteを作成する - [SPARK-42752] [SC-125550][pyspark][SQL] 初期化中に PySpark 例外を印刷可能にする
- [SPARK-42732] [SC-125544][pyspark][CONNECT] Spark Connect セッション getActiveSession メソッドのサポート
-
[SPARK-42755] [SC-125442][connect] 係数リテラル値への変換
connect-common - [SPARK-42747] [SC-125399][ml] LoR と AFT の内部状態の誤りを修正する
- [SPARK-42740] [SC-125439][sql] 一部の組み込み方言でプッシュダウン オフセットまたはページングが無効であるというバグを修正する
- [SPARK-42745] [SC-125332][sql] 改善された AliasAwareOutputExpression は DSv2 で動作します
- [SPARK-42743] [SC-125330][sql] TimestampNTZ 列の分析のサポート
- [SPARK-42721] [SC-125371][connect] RPC ログ インターセプター
- [SPARK-42691] [SC-125397][connect][PYTHON] Dataset.semanticHash を実装する
- [SPARK-42688] [SC-124922][connect] connect proto Request client_idの名前を session_id に変更する
- [SPARK-42310] [SC-122792][sql] _LEGACY_ERROR_TEMP_1289に名前を割り当てる
- [SPARK-42685] [SC-125339][core] Utils.bytesToString ルーチンを最適化する
- [SPARK-42725] [SC-125296][connect][PYTHON] LiteralExpression で配列パラメーターをサポートする
- [SPARK-42702] [SC-125293][spark-42623][SQL] サブクエリと CTE でのパラメーター化クエリのサポート
- [SPARK-42697] [SC-125189][webui] 期間フィールドで 0 ではなく合計アップタイムを返すように /api/v1/applications を修正しました
- [SPARK-42733] [SC-125278][connect][PYTHON] パス パラメーターなしで動作するように DataFrameWriter.save を修正する
- [SPARK-42376] [SC-124928][ss] 演算子間でのウォーターマーク伝播の導入を行う
- [SPARK-42710] [SC-125205][connect][PYTHON] FrameMap proto の名前を MapPartitions に変更する
- [SPARK-37099] [SC-123542][sql] 上位 k の計算を最適化するためのランクベースフィルターの Window のグループ制限を導入
- [SPARK-42630] [SC-125207][connect][PYTHON] UnparsedDataType を導入し、SparkConnectClient が使用可能になるまで DDL 文字列の解析を遅延する
- [SPARK-42690] [SC-125193][connect] Scala クライアントの CSV/JSON 解析関数を実装する
-
[SPARK-42709] [SC-125172][python] 使用可能な
__file__の前提条件を削除する - [SPARK-42318] [SC-122648][spark-42319][SQL] LEGACY_ERROR_TEMP(2123|2125) に名前を割り当てる
- [SPARK-42723] [SC-125183][sql] TimestampType としてパーサーデータ型 json "timestamp_ltz" をサポート
- [SPARK-42722] [SC-125175][connect][PYTHON] Python Connect def schema() はスキーマをキャッシュしない
- [SPARK-42643] [SC-125152][connect][PYTHON] Java (集計) ユーザー定義関数を登録する
- [SPARK-42656] [SC-125177][connect][Followup] spark-connect スクリプトを修正する
- [SPARK-41516] [SC-123899] [SQL] jdbc 言語でテーブルの作成に使用されるクエリをオーバーライドできるようにする
- [SPARK-41725] [SC-124396][connect] DF.sql() の一括実行
-
[SPARK-42687] [SC-124896][ss] ストリーミングでのサポートされていない
pivot操作のエラー メッセージの改善 - [SPARK-42676] [SC-124809][ss] 既定の FS が異なる方法で設定されている場合でも、ローカル ファイル システムにクエリをストリーミングするための一時チェックポイントを書き込む
- [SPARK-42303] [SC-122644][sql] _LEGACY_ERROR_TEMP_1326に名前を割り当てる
- [SPARK-42553] [SC-124560][sql] "interval" の後に少なくとも 1 つの時間単位を確保する
- [SPARK-42649] [SC-124576][core] サードパーティのソース ファイルの先頭から標準の Apache License ヘッダーを削除する
- [SPARK-42611] [SC-124395][sql] 解決プロセス中に内部フィールドの char/varchar の長さチェックを挿入する
- [SPARK-42419] [SC-124019][connect][PYTHON] Spark Connect Column API のエラー フレームワークに移行します。
- [SPARK-42637] [SC-124522][connect] SparkSession.stop() の追加
- [SPARK-42647] [SC-124647][python] numpy の非推奨および削除された型のエイリアスを変更する
- [SPARK-42616] [SC-124389][sql] SparkSQLCLIDriver は開始された hive sessionState のみを閉じる必要があります
- [SPARK-42593] [SC-124405][ps] pandas 2.0 で削除される API を非推奨にして削除します。
- [SPARK-41870] [SC-124402][connect][PYTHON] 重複する列名を処理するように createDataFrame を修正
- [SPARK-42569] [SC-124379][connect] サポートされていないセッション API の例外を投げる
- [SPARK-42631] [SC-124526][connect] Scala クライアントでのカスタム拡張機能のサポート
- [SPARK-41868] [SC-124387][connect][PYTHON] 継続時間をサポートするように createDataFrame を修正
- [SPARK-42572] [SC-124171][sql][SS] StateStoreProvider.validateStateRowFormat の動作を修正する
メンテナンスの更新
「Databricks Runtime 13.1 のメンテナンス更新プログラム」を参照してください。
システム環境
- オペレーティング システム: Ubuntu 22.04.2 LTS
- Java: Zulu 8.70.0.23-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.2.2
- Delta Lake: 2.4.0
インストールされている Python ライブラリ
| ライブラリ | バージョン | ライブラリ | バージョン | ライブラリ | バージョン |
|---|---|---|---|---|---|
| アプリケーションディレクトリ (appdirs) | 1.4.4 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
| アストトークン | 2.2.1 | 属性 | 21.4.0 | バックコール (再発信機能) | 0.2.0 |
| beautifulsoup4 | 4.11.1 | 黒い | 22.6.0 | 漂白剤 | 4.1.0 |
| ウインカー | 1.4 | boto3 | 1.24.28 | botocore | 1.27.28 |
| サーティフィ | 2022.9.14 | cffi | 1.15.1 | チャーデット | 4.0.0 |
| charset-normalizer (文字コード正規化ツール) | 2.0.4 | クリックし | 8.0.4 | 暗号 | 37.0.1 |
| サイクリスト | 0.11.0 | Cython | 0.29.32 | dbus-python | 1.2.18 |
| debugpy | 1.5.1 | デコレータ | 5.1.1 | デフューズドXML (defusedxml) | 0.7.1 |
| distlib | 0.3.6 | ドックストリングをMarkdownに変換 | 0.12 | 入口点 | 0.4 |
| 実行 | 1.2.0 | ファセット概要 | 1.0.3 | fastjsonschema | 2.16.3 |
| ファイルロック | 3.12.0 | fonttools(フォントツールズ) | 4.25.0 | Google API 共通プロトコル (googleapis-common-protos) | 1.56.4 |
| grpcio | 1.48.1 | grpcio-status | 1.48.1 | httplib2 | 0.20.2 |
| idna | 3.3 | importlib-metadata | 4.6.4 | ipykernel | 6.17.1 |
| ipython | 8.10.0 | ipython-genutils (IPython用のユーティリティ) | 0.2.0 | ipywidgets (インタラクティブウィジェット) | 7.7.2 |
| ジェダイ | 0.18.1 | ジープニー | 0.7.1 | ジンジャ2 | 2.11.3 |
| jmespath | 0.10.0 | 「joblib」 | 1.2.0 | JSONスキーマ | 4.16.0 |
| ジュピタークライアント | 7.3.4 | jupyter_core(ジュピター・コア) | 4.11.2 | jupyterlab-pygments | 0.1.2 |
| jupyterlab ウィジェット | 1.0.0 | キーホルダー | 23.5.0 | キウィソルバー | 1.4.2 |
| launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 | lazr.uri | 1.0.6 |
| マークアップセーフ | 2.0.1 | matplotlib | 3.5.2 | matplotlib-インライン | 0.1.6 |
| マッケイブ | 0.7.0 | ミスチューン | 0.8.4 | more-itertools | 8.10.0 |
| mypy-extensions (マイパイ拡張機能) | 0.4.3 | nbclient(エヌビー・クライアント) | 0.5.13 | NBコンバート | 6.4.4 |
| nbフォーマット | 5.5.0 | nest-asyncio(ネスト・アサインキオ) | 1.5.5 | nodeenv | 1.7.0 |
| ノートブック | 6.4.12 | NumPy (数値計算ライブラリ) | 1.21.5 | oauthlib | 3.2.0 |
| パッケージング | 21.3 | パンダ | 1.4.4 | パンドックフィルターズ | 1.5.0 |
| パルソ | 0.8.3 | パススペック | 0.9.0 | パッツィ | 0.5.2 |
| ペキスペクト | 4.8.0 | ピクルシェア | 0.7.5 | 枕 | 9.2.0 |
| 種 | 22.2.2 | プラットフォームディレクトリ | 2.5.2 | plotly - データビジュアライゼーションツール | 5.9.0 |
| プラグイン管理ツール | 1.0.0 | prometheus-クライアント | 0.14.1 | prompt-toolkit(プロンプトツールキット) | 3.0.36 |
| プロトバフ | 3.19.4 | psutil | 5.9.0 | psycopg2 | 2.9.3 |
| ptyprocess | 0.7.0 | pure-eval (ピュア・イヴァル) | 0.2.2 | pyarrow (パイアロー) | 8.0.0 |
| pycparser(パイシーパーサー) | 2.21 | Pythonのデータバリデーションライブラリ「pydantic」 | 1.10.6 | パイフレークス | 3.0.1 |
| Pygments | 2.11.2 | PyGObject | 3.42.1 | PyJWT | 2.3.0 |
| pyodbc (Pythonのデータベース接続用ライブラリ) | 4.0.32 | パイパーシング (Pyparsing) | 3.0.9 | pyright | 1.1.294 |
| pyrsistent | 0.18.0 | python-dateutil (Python用の日付処理ライブラリ) | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
| Python LSP サーバー | 1.7.1 | Pytoolconfig | 1.2.2 | pytz | 2022年1月 |
| pyzmq | 23.2.0 | リクエスト | 2.28.1 | ロープ | 1.7.0 |
| s3transfer | 0.6.0 | scikit-learn(サイキット・ラーン) | 1.1.1 | scipy | 1.9.1 |
| seaborn(シーボーン) | 0.11.2 | SecretStorage | 3.3.1 | Send2Trash(センド2トラッシュ) | 1.8.0 |
| setuptools(セットアップツール) | 63.4.1 | 6 | 1.16.0 | スープこし器 (soup strainer) | 2.3.1 |
| ssh-import-id | 5.11 | スタックデータ | 0.6.2 | statsmodels(スタッツモデルズ) | 0.13.2 |
| 粘り強さ | 8.1.0 | 終了しました | 0.13.1 | テストパス (testpath) | 0.6.0 |
| Threadpoolctl | 2.2.0 | トークナイズ-RT | 4.2.1 | tomli | 2.0.1 |
| 竜巻 | 6.1 | traitlets(トレイトレット) | 5.1.1 | タイピングエクステンションズ (typing_extensions) | 4.3.0 |
| ujson | 5.4.0 | 無人アップグレード | 0.1 | urllib3 | 1.26.11 |
| virtualenv | 20.16.3 | wadllib | 1.3.6 | wcwidth(文字の幅を測定するプログラム関数) | 0.2.5 |
| ウェブエンコーディングス | 0.5.1 | whatthepatch(ホワットザパッチ) | 1.0.2 | ホイール | 0.37.1 |
| ウィジェットNBエクステンション | 3.6.1 | yapf (ヤップフ) | 0.31.0 | ジップ | 1.0.0 |
インストールされている R ライブラリ
R ライブラリは、2023-02-10 の Microsoft CRAN スナップショットからインストールされています。
| ライブラリ | バージョン | ライブラリ | バージョン | ライブラリ | バージョン |
|---|---|---|---|---|---|
| 矢印 | 10.0.1 | アスクパス | 1.1 | assertthat(アサートザット関数) | 0.2.1 |
| バックポート(旧バージョンへの機能移植) | 1.4.1 | ベース | 4.2.2 | base64enc | 0.1-3 |
| ビット | 4.0.5 | ビット64 | 4.0.5 | BLOB | 1.2.3 |
| 起動 | 1.3-28 | 醸成 | 1.0 から 8 | 活気 | 1.1.3 |
| 箒 | 1.0.3 | bslib | 0.4.2 | キャシェム | 1.0.6 |
| コールアール | 3.7.3 | キャレット | 6.0-93 | セルレンジャー (cellranger) | 1.1.0 |
| クロノ | 2.3から59まで | クラス | 7.3-21 | CLI | 3.6.0 |
| クリッパー | 0.8.0 | 時計 | 0.6.1 | クラスタ | 2.1.4 |
| コードツール | 0.2-19 | カラー空間 | 2.1-0 | コモンマーク | 1.8.1 |
| コンパイラ | 4.2.2 | 設定 | 0.3.1 | CPP11 | 0.4.3 |
| クレヨン | 1.5.2 | 認証情報 | 1.3.2 | カール | 5.0.0 |
| データテーブル (data.table) | 1.14.6 | データセット | 4.2.2 | DBI | 1.1.3 |
| dbplyr | 2.3.0 | 説明 | 1.4.2 | 開発ツール | 2.4.5 |
| diffobj | 0.3.5 | ダイジェスト | 0.6.31 | ダウンライト | 0.4.2 |
| dplyr | 1.1.0 | dtplyr | 1.2.2 | e1071 | 1.7-13 |
| 省略記号 | 0.3.2 | 評価する | 0.20 | ファンシ | 1.0.4 |
| farver | 2.1.1 | fastmap (ファストマップ) | 1.1.0 | fontawesome (フォントオーサム) | 0.5.0 |
| フォーキャッツ | 1.0.0 | フォーリーチ | 1.5.2 | 外国の | 0.8-82 |
| 鍛冶場 | 0.2.0 | FS | 1.6.1 | 未来 | 1.31.0 |
| future.apply(将来の機能を適用するためのプログラミング関数) | 1.10.0 | うがい | 1.3.0 | ジェネリック | 0.1.3 |
| ゲルト | 1.9.2 | ggplot2 | 3.4.0 | gh | 1.3.1 |
| gitcreds | 0.1.2 | glmnet(英語) | 4.1-6 | グローバル変数 | 0.16.2 |
| 接着剤 | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
| ガウアー | 1.0.1 | グラフィックス | 4.2.2 | grDevices | 4.2.2 |
| グリッド | 4.2.2 | gridExtra | 2.3 | gsubfn | 0.7 |
| gtable | 0.3.1 | 安全帽 | 1.2.0 | 安らぎの場 | 2.5.1 |
| ハイヤー | 0.10 | エイチ・エム・エス | 1.1.2 | HTMLツール | 0.5.4 |
| HTMLウィジェット | 1.6.1 | httpuv | 1.6.8 | 「httr」パッケージ(HTTPリクエストを簡単に送信するためのライブラリ) | 1.4.4 |
| 識別子 | 1.0.1 | ini | 0.3.1 | アイプレッド | 0.9-13 |
| アイソバンド | 0.2.7 | イテレータ | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.4 | カーンスムース | 2.23-20 | ニット | 1.42 |
| ラベリング | 0.4.2 | あとで | 1.3.0 | 格子構造 | 0.20-45 |
| 溶岩 | 1.7.1 | ライフサイクル | 1.0.3 | listenv | 0.9.0 |
| ルブリデート | 1.9.1 | Magrittr | 2.0.3 | 値下げ | 1.5 |
| 質量 | 7.3-58.2 | マトリックス | 1.5-1 | メモ化 | 2.0.1 |
| メソッド | 4.2.2 | mgcv | 1.8-41 | マイム | 0.12 |
| ミニUI | 0.1.1.1 | モデルメトリクス | 1.2.2.2 | モデルル | 0.1.10 |
| munsell | 0.5.0 | nlme | 3.1-162 | ニューラルネットワーク (nnet) | 7.3-18 |
| numDeriv(ヌムデリヴ) | 2016年8月~2016年1月1日 | openssl (オープンソースの暗号化ツール) | 2.0.5 | 並行 | 4.2.2 |
| 平行に | 1.34.0 | 柱 | 1.8.1 | pkgbuild(パッケージビルド) | 1.4.0 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload(パッケージロード) | 1.3.2 |
| plogr | 0.2.0 | プライル | 1.8.8 | 賞賛 | 1.0.0 |
| プリティーユニッツ | 1.1.1 | プロック (pROC) | 1.18.0 | プロセスエックス | 3.8.0 |
| プロッドリム | 2019.11.13 | プロフビス | 0.3.7 | 進捗 | 1.2.2 |
| progressr | 0.13.0 | 約束 | 1.2.0.1 | プロト | 1.0.0 |
| プロキシ | 0.4-27 | PS | 1.7.2 | ゴロゴロ | 1.0.1 |
| R2D3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
| randomForest(ランダムフォレスト) | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorブリューワー | 1.1-3 | Rcpp | 1.0.10 | RcppEigen | 0.3.3.9.3 |
| 読み取り | 2.1.3 | readxl (エクセルファイルの読み取り用パッケージ/関数) | 1.4.2 | レシピ | 1.0.4 |
| 再戦 | 1.0.1 | リマッチ2 | 2.1.2 | リモコン | 2.4.2 |
| 再現可能な例 (reprex) | 2.0.2 | リシェイプ2 | 1.4.4 | rlang | 1.0.6 |
| rmarkdown | 2.20 | RODBC | 1.3-20 | リオキシジェン2 | 7.2.3 |
| rpart(Rプログラミング言語における再帰的分割のためのパッケージ) | 4.1.19 | rprojroot さん | 2.0.3 | Rサーブ | 1.8-12 |
| RSQLite (英語) | 2.2.20 | rstudioapi | 0.14 | アールバージョンズ | 2.1.2 |
| アヴェスト | 1.0.3 | サス | 0.4.5 | 秤 | 1.2.1 |
| セレクター | 0.4-2 | セッション情報 | 1.2.2 | シェイプ | 1.4.6 |
| 光沢がある | 1.7.4 | ソースツール | 0.1.7-1 | スパークラー (sparklyr) | 1.7.9 |
| SparkR | 3.4.0 | 空間の | 7.3-15 | スプライン | 4.2.2 |
| sqldf | 0.4-11 | スクウェアム | 2021年1月 | 統計 | 4.2.2 |
| 統計プログラミングパッケージ「stats4」 | 4.2.2 | ストリンギ | 1.7.12 | stringr | 1.5.0 |
| サバイバル | 3.5-3 | システム | 3.4.1 | systemfonts | 1.0.4 |
| tcltk(ティーシーエルティーケー) | 4.2.2 | テストザット | 3.1.6 | テキスト整形 | 0.3.6 |
| tibble(ティブル) | 3.1.8 | ティディル | 1.3.0 | tidyselect関数 | 1.2.0 |
| tidyverse(タイディバース) | 1.3.2 | 時刻変更 | 0.2.0 | 時刻と日付 | 4022.108 |
| tinytex | 0.44 | ツール | 4.2.2 | tzdb | 0.3.0 |
| URLチェッカー | 1.0.1 | この機能を使う | 2.1.6 | UTF8 | 1.2.3 |
| ユーティリティ | 4.2.2 | UUID(ユニバーサルユニーク識別子) | 1.1-0 | VCTRSの | 0.5.2 |
| ヴィリディスライト | 0.4.1 | ブルーム | 1.6.1 | ワルド | 0.4.0 |
| ウイスカー | 0.4.1 | ウィザー | 2.5.0 | xfun | 0.37 |
| xml2 | 1.3.3 | xopen (エックスオープン) | 1.0.0 | xtable (エクステーブル) | 1.8-4 |
| YAML | 2.3.7 | ジップ | 2.2.2 |
インストールされている Java ライブラリと Scala ライブラリ (Scala 2.12 クラスター バージョン)
| グループ ID | 成果物 ID | バージョン |
|---|---|---|
| アンラル(ANTLR) | アンラル(ANTLR) | 2.7.7 |
| com.amazonaws | amazon-kinesis-client(アマゾン・キネシス・クライアント) | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling (オートスケーリング用Java SDK) | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
| com.amazonaws | AWSのJava SDKパッケージであるCloudFront | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudhsm(AWSのクラウドHSM用Javaソフトウェア開発キット) | 1.12.390 |
| com.amazonaws | AWSのJava SDK - cloudsearch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
| com.amazonaws | aws-java-sdk-codedeploy(AWSのJava SDK用CodeDeployサービス) | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitoidentity (AWS Java SDK コグニトアイデンティティ) | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
| com.amazonaws | aws-java-sdk-config(AWS Java SDK 設定) | 1.12.390 |
| com.amazonaws | aws-java-sdk-core(AWS Java SDKのコア) | 1.12.390 |
| com.amazonaws | aws-java-sdk-datapipeline (AWS Java SDKのデータパイプラインモジュール) | 1.12.390 |
| com.amazonaws | aws-java-sdk-directconnect (AWSのJava SDKのDirect Connect機能) | 1.12.390 |
| com.amazonaws | aws-java-sdk-directory | 1.12.390 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
| com.amazonaws | aws-java-sdk-efs | 1.12.390 |
| com.amazonaws | AWS Java SDK エラスティキャッシュ | 1.12.390 |
| com.amazonaws | AWS Java SDK エラスティックビーンストーク | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
| com.amazonaws | aws-java-sdk-elastictranscoder (AWS用のJava開発ツールキット - Elastic Transcoder) | 1.12.390 |
| com.amazonaws | aws-java-sdk-emr | 1.12.390 |
| com.amazonaws | aws-java-sdk-glacier(AWSのJava SDKのGlacierツール) | 1.12.390 |
| com.amazonaws | aws-java-sdk-glue (AWSのJava用SDKであるGlue) | 1.12.390 |
| com.amazonaws | AWSのJava SDK(IAM用) | 1.12.390 |
| com.amazonaws | AWS Java SDK インポートエクスポート | 1.12.390 |
| com.amazonaws | aws-java-sdk-kinesis (AWS用Java SDKのKinesis) | 1.12.390 |
| com.amazonaws | aws-java-sdk-kms | 1.12.390 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
| com.amazonaws | aws-java-sdk-logs | 1.12.390 |
| com.amazonaws | aws-java-sdk-機械学習 | 1.12.390 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
| com.amazonaws | aws-java-sdk-rds(AWSのJava用RDSソフトウェア開発キット) | 1.12.390 |
| com.amazonaws | AWS Java SDK Redshift | 1.12.390 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ses | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
| com.amazonaws | aws-java-sdk-sns | 1.12.390 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
| com.amazonaws | AWS Java SDK ストレージゲートウェイ | 1.12.390 |
| com.amazonaws | aws-java-sdk-sts | 1.12.390 |
| com.amazonaws | AWS Java SDK サポート | 1.12.390 |
| com.amazonaws | aws-java-sdk-swf-libraries (AWS Java SDK SWFライブラリ) | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspacesとはAWSのワークスペースを管理するためのJava用SDKです。 | 1.12.390 |
| com.amazonaws | jmespath-java | 1.12.390 |
| com.clearspring.analytics | ストリーミング | 2.9.6 |
| com.databricks | Rサーブ | 1.8-3 |
| com.databricks | jets3t (ジェットスリート) | 0.7.1-0 |
| com.databricks.scalapb | コンパイラプラグイン_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo-シェーデッド | 4.0.2 |
| com.esotericsoftware | minlog (ミンログ) | 1.3.0 |
| com.fasterxml | クラスメイト | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations (ジャクソン・アノテーション) | 2.14.2 |
| com.fasterxml.jackson.core | ジャクソン・コア (jackson-core) | 2.14.2 |
| com.fasterxml.jackson.core | ジャクソン・データバインド (jackson-databind) | 2.14.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor(ジャクソンデータフォーマットCBOR) | 2.14.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.14.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.14.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.14.2 |
| com.github.ben-manes.caffeine | カフェイン | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java | 1.1-ネイティブス |
| com.github.fommil.netlib | ネイティブシステム-Java | 1.1 |
| com.github.fommil.netlib | ネイティブシステム-Java | 1.1-ネイティブス |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-ネイティブス |
| com.github.fommil.netlib | netlib-ネイティブシステム-linux-x86_64 | 1.1-ネイティブス |
| com.github.luben | zstd-jni (ゼットスタッドジェイエヌアイ) | 1.5.2-5 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.8.9 |
| com.google.crypto.tink | ティンク | 1.7.0 |
| com.google.errorprone | エラーが発生しやすいアノテーション | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | グアバ | 15.0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 2.1.214 |
| com.helger | プロファイラ | 1.1.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk(アジュール・データ・レイク・ストア・SDK) | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.ning | Compress-LZF (コンプレス-LZF) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| .bind の com.sun.xml | jaxb-core | 2.2.11 |
| .bind の com.sun.xml | jaxb-impl | 2.2.11 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | パラナマー | 2.8 |
| com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
| com.twitter | チル-ジャヴァ | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | 設定 | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.0 |
| com.univocity | univocity-parsers(ユニボシティ・パーサーズ) | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| コモンズ・コーデック | コモンズ・コーデック | 1.15 |
| コモンズ・コレクションズ | コモンズ・コレクションズ | 3.2.2 |
| commons-dbcp(コモンズ-DBCP) | commons-dbcp(コモンズ-DBCP) | 1.4 |
| コモンズ-ファイルアップロード | コモンズ-ファイルアップロード | 1.5 |
| commons-httpclient(コモンズHTTPクライアント) | commons-httpclient(コモンズHTTPクライアント) | 3.1 |
| commons-io | commons-io | 2.11.0 |
| commons-lang (コモンズ・ラン、Javaの汎用ユーティリティライブラリ) | commons-lang (コモンズ・ラン、Javaの汎用ユーティリティライブラリ) | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool(コモンズプール) | commons-pool(コモンズプール) | 1.5.4 |
| dev.ludovic.netlib | アーパック | 3.0.3 |
| dev.ludovic.netlib | ブラス | 3.0.3 |
| dev.ludovic.netlib | ラパック | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | エアコンプレッサー | 0.21 |
| io.delta | delta-sharing-spark_2.12 | 0.6.4 |
| io.dropwizard.metrics | メトリクス・コア | 4.2.10 |
| io.dropwizard.metrics | メトリクス・グラファイト | 4.2.10 |
| io.dropwizard.metrics | メトリクス-ヘルスチェック | 4.2.10 |
| io.dropwizard.metrics | メトリクス-ジェッティ9 | 4.2.10 |
| io.dropwizard.metrics | メトリクス-JMX | 4.2.10 |
| io.dropwizard.metrics | metrics-json | 4.2.10 |
| io.dropwizard.metrics | メトリックス-JVM | 4.2.10 |
| io.dropwizard.metrics | メトリクス-サーブレット | 4.2.10 |
| io.netty | netty-all (ライブラリ名) | 4.1.87.Final |
| io.netty | ネットィバッファー | 4.1.87.Final |
| io.netty | netty-codec | 4.1.87.Final |
| io.netty | netty-codec-http | 4.1.87.Final |
| io.netty | netty-codec-http2(ネットティー・コーデック・HTTP2) | 4.1.87.Final |
| io.netty | netty-codec-socks | 4.1.87.Final |
| io.netty | netty-common | 4.1.87.Final |
| io.netty | ネットティ・ハンドラー | 4.1.87.Final |
| io.netty | ネッティ・ハンドラー・プロキシ | 4.1.87.Final |
| io.netty | ネッティ・リゾルバー | 4.1.87.Final |
| io.netty | netty-transport(ネットティ・トランスポート) | 4.1.87.Final |
| io.netty | netty-transport-classes-epoll | 4.1.87.Final |
| io.netty | netty-トランスポートクラス-kqueue | 4.1.87.Final |
| io.netty | netty-transport-native-epoll | 4.1.87.Final |
| io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common (ネットワーク通信を行うためのユニックス向け共通ライブラリ) | 4.1.87.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | シンプルクライアント_コモン | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | シンプルクライアント_プッシュゲートウェイ | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | コレクター | 0.12.0 |
| jakarta.annotation | ジャカルタ・アノテーションAPI | 1.3.5 |
| ジャカルタ.サーブレット | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | アクティブ化 | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | トランザクションAPI | 1.1 |
| .bind の javax.xml | jaxb-api | 2.2.11 |
| 「ジャボリューション(Javolution)」 | 「ジャボリューション(Javolution)」 | 5.5.1 |
| ジェイライン | ジェイライン | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| ml.combust.mleap | mleap-databricks-runtime_2.12 | v0.20.0-db2 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | 漬物 | 1.3 |
| net.sf.jpam | ジェーパム | 1.1 |
| net.sf.opencsv | opencsv (CSVファイル操作のためのライブラリ) | 2.3 |
| net.sf.supercsv | スーパCSV (スーパーシーエスブイ) | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk(スノーフレーク・インジェスト・SDK) | 0.9.6 |
| net.snowflake | スノーフレーク-JDBC | 3.13.22 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | リモートティー-オンシーRPC | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | ストリングテンプレート | 3.2.1 |
| org.apache.ant | 蟻 | 1.9.16 |
| org.apache.ant | ant-jsch | 1.9.16 |
| org.apache.ant | ant-launcher | 1.9.16 |
| org.apache.arrow | 矢印フォーマット | 11.0.0 |
| org.apache.arrow | アロー・メモリー・コア | 11.0.0 |
| org.apache.arrow | アロー・メモリー・ネッティ | 11.0.0 |
| org.apache.arrow | 矢印ベクトル | 11.0.0 |
| org.apache.avro | アブロ | 1.11.1 |
| org.apache.avro | avro-ipc | 1.11.1 |
| org.apache.avro | avro-mapred | 1.11.1 |
| org.apache.commons | commons-collections4 | 4.4. |
| org.apache.commons | コモンズ・コンプレス | 1.21 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | コモンズテキスト | 1.10.0 |
| org.apache.curator | キュレータークライアント | 2.13.0 |
| org.apache.curator | Curator Framework(キュレーター・フレームワーク) | 2.13.0 |
| org.apache.curator | キュレーターのレシピ | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-memory (データスケッチズ・メモリー) | 2.0.0 |
| org.apache.derby | ダービー | 10.14.2.0 |
| org.apache.hadoop | hadoop-client-runtime (ハドゥープ・クライアント・ランタイム) | 3.3.4 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde (Hiveのシリアライゼーション/デシリアライゼーション) | 2.3.9 |
| org.apache.hive | ハイブシムス | 2.3.9 |
| org.apache.hive | hive-storage-api (ハイブストレージAPI) | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler (ハイブシムススケジューラー) | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | アイビー | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
| org.apache.logging.log4j | log4j-api | 2.19.0 |
| org.apache.logging.log4j | log4j-core | 2.19.0 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.19.0 |
| org.apache.mesos | メソス | 1.11.0-shaded-protobuf |
| org.apache.orc | オーク・コア | 1.8.3-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.8.3-shaded-protobuf |
| org.apache.orc | orc-shims(オーク・シムズ) | 1.8.3 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift (リブスリフト) | 0.12.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.22 |
| org.apache.yetus | オーディエンス注釈 | 0.13.0 |
| org.apache.zookeeper | 動物園の飼育員 | 3.6.3 |
| org.apache.zookeeper | zookeeper-jute(ズーキーパー・ジュート) | 3.6.3 |
| org.checkerframework | チェッカー・クオール | 3.19.0 |
| org.codehaus.jackson | ジャクソンコアASL | 1.9.13 |
| org.codehaus.jackson | ジャクソン・マッパー・ASL | 1.9.13 |
| org.codehaus.janino | コモンズコンパイラー | 3.0.16 |
| org.codehaus.janino | ジャニーノ (janino) | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | データニュクレウス-RDBMS | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.50.v20221201 |
| org.eclipse.jetty | ジェッティ・コンティニュエーション | 9.4.50.v20221201 |
| org.eclipse.jetty | ジェッティ-HTTP | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-io | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-jndi(ジェッティ-JNDI) | 9.4.50.v20221201 |
| org.eclipse.jetty | ジェッティプラス | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-proxy (ジェッティプロキシ) | 9.4.50.v20221201 |
| org.eclipse.jetty | ジェッティ・セキュリティ | 9.4.50.v20221201 |
| org.eclipse.jetty | ジェッティ・サーバー | 9.4.50.v20221201 |
| org.eclipse.jetty | ジェッティ-サーブレット | 9.4.50.v20221201 |
| org.eclipse.jetty | ジェッティ・サーブレット (jetty-servlets) | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-util (ジェッティユーティル) | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-util-ajax (ジェティ・ユーティル・エイジャックス) | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-webapp(ジェッティ・ウェブアプリ) | 9.4.50.v20221201 |
| org.eclipse.jetty | jetty-xml | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | ウェブソケットAPI | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | websocket-client (ウェブソケット・クライアント) | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | ウェブソケット-コモン | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | ウェブソケットサーバー | 9.4.50.v20221201 |
| org.eclipse.jetty.websocket | websocket-サーブレット | 9.4.50.v20221201 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2ユーティリティー | 2.6.1 |
| org.glassfish.hk2 | OSGiリソースロケーター | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-サーブレット | 2.36 |
| org.glassfish.jersey.containers | jersey-container-サーブレット-コア | 2.36 |
| org.glassfish.jersey.core | ジャージー・クライアント | 2.36 |
| org.glassfish.jersey.core | ジャージーコモン | 2.36 |
| org.glassfish.jersey.core | ジャージーサーバー | 2.36 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
| org.hibernate.validator | hibernate-validator (ハイバーネイト検証ツール) | 6.1.7.Final |
| org.javassist | javassist(ジャバアシスト) | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | 注釈 | 17.0.0 |
| org.joda | joda-convert(ジョーダライブラリの日付・時間操作用コンバート) | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mariadb.jdbc | mariadb-java-client(MariaDB用Javaクライアント) | 2.7.4 |
| org.mlflow | mlflow-spark | 2.2.0 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.3.8 |
| org.roaringbitmap | RoaringBitmap | 0.9.39 |
| org.roaringbitmap | シム | 0.9.39 |
| org.rocksdb | rocksdbjni | 7.8.3 |
| org.rosuda.REngine | REngine(アールエンジン) | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | テストインターフェイス | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | スカラテスト互換 | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-over-slf4j | 2.0.6 |
| org.slf4j | jul-to-slf4j | 2.0.6 |
| org.slf4j | slf4j-api | 2.0.6 |
| org.threeten | threeten-extra(スリー・テン・エクストラ) | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | スパイア-プラットフォーム_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | ワイルドフライ-オープンSSL | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.8.4 |
| org.yaml | snakeyaml(スネークヤムル) | 1.33 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays (ジェイラージアレイ) | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| software.amazon.ion | ion-java | 1.0.2 |
| スタックス | stax-api | 1.0.1 |