注
この Databricks Runtime バージョンのサポートは終了しました。 サポート終了日については、「サポート終了の履歴」を参照してください。 サポートされている Databricks Runtime のすべてのバージョンについては、「Databricks Runtime リリース ノートのバージョンと互換性」を参照してください。
次のリリース ノートには、Apache Spark 3.3.1で稼働する Databricks Runtime 12.1 に関する情報が記載されています。
Databricks は、2023 年 1 月にこのバージョンをリリースしました。
新機能と機能強化
- プロトコル管理でサポートされる Delta Lake テーブルの機能
- 更新に対する予測 I/O はパブリック プレビュー段階です
- すべてのペルソナで Catalog Explorer を使用できるようになりました
- 1 つのストリーミング クエリでの複数のステートフル演算子のサポート
- プロトコル バッファーのサポートはパブリック プレビュー段階です
- Confluent スキーマ レジストリ認証のサポート
- Delta Sharing 共有を使用したテーブル履歴の共有のサポート
- Delta Sharing 共有を使用したストリーミングのサポート
- カタログ内の Delta Sharing テーブルでタイムスタンプを使用するテーブルバージョンがサポートされるようになりました
- ソースに一致しない場合のサポート MERGE INTO
- 最適化された統計の収集 CONVERT TO DELTA
- テーブルのドロップ解除に関する Unity Catalog のサポート
プロトコル管理でサポートされる Delta Lake テーブルの機能
Azure Databricks に Delta Lake テーブル機能のサポートが導入されました。この機能は、サポートされる機能を特定のテーブルで指定する詳細なフラグを導入します。 Delta Lake の機能の互換性とプロトコルに関する記事を参照してください。
更新に対する予測 I/O はパブリック プレビュー段階です
予測 I/O が、Photon 対応コンピューティングで削除ベクトルが有効になっている Delta テーブルに対する DELETE、MERGE、および UPDATE 操作を高速化するようになりました。 「予測 I/O とは」を参照してください。
すべてのペルソナで Catalog Explorer を使用できるようになりました
Databricks Runtime 7.3 LTS 以降を使用するときは、すべての Azure Databricks ペルソナで Catalog Explorer を使用できるようになりました。
1 つのストリーミング クエリでの複数のステートフル演算子のサポート
ユーザーが、ストリーミング クエリで追加モードでステートフル演算子をチェーンできるようになりました。 すべての演算子が完全にサポートされているわけではありません。 ストリーム間隔結合とflatMapGroupsWithStateは、他のステートフルオペレーターをチェーンできません。
プロトコル バッファーのサポートはパブリック プレビュー段階です
from_protobuf と to_protobuf 関数を使用して、バイナリと構造体の型の間でデータを交換できます。 「プロトコル バッファーの読み取りと書き込みを行う」を参照してください。
Confluent スキーマ レジストリ認証のサポート
Azure Databricks と Confluent スキーマ レジストリの統合で、認証を使用した外部スキーマ レジストリ アドレスがサポートされるようになりました。 この機能は、from_avro、to_avro、from_protobufおよび 関数でto_protobuf使用できます。
Protobuf または Avro を参照してください。
Delta Sharing 共有を使用したテーブル履歴の共有のサポート
Delta Sharing を使用して全履歴のテーブルを共有できるようになりました。これにより、受信者は Spark 構造化ストリーミングを使用してタイム トラベル クエリの実行と、テーブルに対するクエリ実行を行うことができます。
WITH HISTORY を CHANGE DATA FEED の代わりにお勧めしますが、後者も引き続きサポートされます。 「 ALTER SHARE 」と「 テーブルを共有に追加する」を参照してください。
Delta Sharing 共有を使用したストリーミングのサポート
Spark 構造化ストリーミングが、deltasharing を使用して共有されたソース Delta Sharing テーブル上で、形式 WITH HISTORY で動作するようになりました。
カタログ内の Delta Sharing テーブルでタイムスタンプを使用するテーブルバージョンがサポートされるようになりました
SQL 構文TIMESTAMP AS OFをSELECTステートメント内で使用し、カタログにマウントされているデルタ共有テーブルのバージョンを指定できるようになりました。 テーブルは WITH HISTORY を使用して共有する必要があります。
MERGE INTO にソースと一致しない場合のサポート
WHEN NOT MATCHED BY SOURCEにMERGE INTO句を追加して、マージ条件に基づいてソース テーブルに一致しない行を選択したテーブル内の行を更新または削除できるようになりました。 新しい句は、SQL、Python、Scala、Java で使用できます。
MERGE INTOを参照してください。
CONVERT TO DELTA のための統計収集の最適化
CONVERT TO DELTA 操作の統計収集がはるかに高速になりました。 これにより、効率のために NO STATISTICS を使用する可能性があるワークロードの数が減ります。
テーブルのドロップ解除に関する Unity Catalog のサポート
この機能は、最初はパブリック プレビューでリリースされました。 2023 年 10 月 25 日時点の GA です。
ドロップから 7 日以内に、既存スキーマ内のドロップされたマネージド テーブルまたは外部テーブルをドロップ解除できるようになりました。 UNDROP とSHOW TABLES DROPPEDを参照してください。
ライブラリのアップグレード
- アップグレードされた Python ライブラリ:
- filelock (3.8.0 から 3.8.2 へ)
- platformdirs (2.5.4 から 2.6.0 へ)
- setuptools (58.0.4 から 61.2.0 へ)
- アップグレードされた R ライブラリは次のとおりです。
- アップグレードされた Java ライブラリ:
- io.delta.delta-sharing-spark_2.12 (0.5.2 から 0.6.2 へ)
- org.apache.hive.hive-storage-api (2.7.2 から 2.8.1へ)
- org.apache.parquet.parquet-column (1.12.3-databricks-0001 から 1.12.3-databricks-0002 へ)
- org.apache.parquet.parquet-common (1.12.3-databricks-0001 から 1.12.3-databricks-0002 へ)
- org.apache.parquet.parquet-encoding (1.12.3-databricks-0001 から 1.12.3-databricks-0002 へ)
- org.apache.parquet.parquet-format-structures (1.12.3-databricks-0001 から 1.12.3-databricks-0002 へ)
- org.apache.parquet.parquet-hadoop (1.12.3-databricks-0001 から 1.12.3-databricks-0002 へ)
- org.apache.parquet.parquet-jackson (1.12.3-databricks-0001 から 1.12.3-databricks-0002 へ)
- org.tukaani.xz (1.8 から 1.9 へ)
Apache Spark
Databricks Runtime 12.1 には、Apache Spark 3.3.1 が含まれています。 このリリースには、Databricks Runtime 12.0 (サポート期間終了) に含まれるすべての Spark の修正プログラムおよび機能強化と、Spark に対して行われた次の追加のバグ修正と機能強化が含まれています:
- [SPARK-41405] [SC-119769][12.1.0] "[SC-119411][sql] 列解決ロジックを一元化する" と "[SC-117170][spark-41338][SQL] 同じアナライザー バッチ内の外部参照と通常の列を解決する" を元に戻す
- [SPARK-41405] [SC-119411][sql] 列解決ロジックを一元化する
- [SPARK-41859] [SC-119514][sql] CreateHiveTableAsSelectCommand で上書きフラグを正しく設定する必要がある
- [SPARK-41659] [SC-119526][connect][12.X] pyspark.sql.connect.readwriter で doctests を有効にする
- [SPARK-41858] [SC-119427][sql] 既定値機能による ORC リーダーパフォーマンス回帰を修正
- [SPARK-41807] [SC-119399][core] 存在しないエラー クラスの削除: UNSUPPORTED_FEATURE。DISTRIBUTE_BY
- [SPARK-41578] [12.x][sc-119273][SQL] _LEGACY_ERROR_TEMP_2141に名前を割り当てる
- [SPARK-41571] [SC-119362][sql] _LEGACY_ERROR_TEMP_2310に名前を割り当てる
- [SPARK-41810] [SC-119373][connect] SparkSession.createDataFrame のディクショナリの一覧から名前を推論する
- [SPARK-40993] [SC-119504][spark-41705][CONNECT][12.x] Spark Connect のドキュメントとスクリプトを開発/Python ドキュメントに移動する
- [SPARK-41534] [SC-119456][connect][SQL][12.x] Spark Connect 用の初期クライアント モジュールをセットアップする
- [SPARK-41365] [SC-118498][ui][3.3] 特定の yarn 環境においてプロキシのステージ UI ページの読み込みに失敗する
-
[SPARK-41481] [SC-118150][core][SQL] の代わりに
INVALID_TYPED_LITERALを再利用する_LEGACY_ERROR_TEMP_0020 - [SPARK-41049] [SC-119305][sql] ステートフル式処理の再検討
-
[SPARK-41726] [SC-119248][sql] Remove
OptimizedCreateHiveTableAsSelectCommand -
[SPARK-41271] [SC-118648][sc-118348][SQL] パラメーター化された SQL クエリのサポート
sql() -
[SPARK-41066] [SC-119344][connect][PYTHON]
DataFrame.sampleByとDataFrame.stat.sampleByを実装する - [SPARK-41407] [SC-119402][sc-119012][SQL][すべてのテスト] v1 書き込みを WriteFiles にプルアウトする
-
[SPARK-41565] [SC-118868][sql] エラー クラスを追加する
UNRESOLVED_ROUTINE - [SPARK-41668] [SC-118925][sql] DECODE 関数が NULL を渡すと間違った結果を返す
- [SPARK-41554] [SC-119274] スケールが m... で減少したときの 10 進 スケールの変更を修正しました
-
[SPARK-41065] [SC-119324][connect][PYTHON]
DataFrame.freqItemsとDataFrame.stat.freqItemsを実装する - [SPARK-41742] [SC-119404][spark-41745][CONNECT][12.x] ドキュメントテストを再有効化し、count() に欠けている列のエイリアスを追加する
-
[SPARK-41069] [SC-119310][connect][PYTHON]
DataFrame.approxQuantileとDataFrame.stat.approxQuantileを実装する -
[SPARK-41809] [SC-119367][connect][PYTHON] 関数
from_jsonがDataTypeスキーマをサポートするようにする -
[SPARK-41804] [SC-119382][sql] UDT の配列の
InterpretedUnsafeProjectionで正しい要素サイズを選択する - [SPARK-41786] [SC-119308][connect][PYTHON] 重複除去ヘルパー関数
-
[SPARK-41745] [SC-119378][spark-41789][12.X] 行のサポート リスト
createDataFrame作成する - [SPARK-41344] [SC-119217][sql] SupportsCatalogOptions カタログにテーブルが見つからない場合にエラーを明確にする
-
[SPARK-41803] [SC-119380][connect][PYTHON] 不足している関数を追加する
log(arg1, arg2) - [SPARK-41808] [SC-119356][connect][PYTHON] JSON 関数のサポート オプションを作成する
- [SPARK-41779] [SC-119275][spark-41771][CONNECT][python] フィルターとセレクトのサポートを作成する。
- [SPARK-41783] [SC-119288][spark-41770][CONNECT][python] 列操作がNoneをサポートするようにする
- [SPARK-41440] [SC-119279][connect][PYTHON] 一般的なサンプルのキャッシュ演算子は使用しないでください。
-
[SPARK-41785] [SC-119290][connect][PYTHON] 実装
GroupedData.mean - [SPARK-41629] [SC-119276][connect] 関係と式でのプロトコルの拡張機能のサポート
-
[SPARK-41417] [SC-118000][core][SQL]
_LEGACY_ERROR_TEMP_0019の名前をINVALID_TYPED_LITERALに変更する - [SPARK-41533] [SC-119342][connect][12.X] Spark Connect サーバー/クライアントの適切なエラー処理
- [SPARK-41292] [SC-119357][connect][12.X] pyspark.sql.window 名前空間でウィンドウをサポート
- [SPARK-41493] [SC-119339][connect][PYTHON] csv 関数のサポート オプションを作成する
- [SPARK-39591] [SC-118675][ss] 非同期進捗の追跡
-
[SPARK-41767] [SC-119337][connect][PYTHON][12.x] 実装
Column.{withField, dropFields} -
[SPARK-41068] [SC-119268][connect][PYTHON] 実装
DataFrame.stat.corr - [SPARK-41655] [SC-119323][connect][12.X] pyspark.sql.connect.column で doctests を有効にする
- [SPARK-41738] [SC-119170][connect] SparkSession キャッシュに ClientId を組み合わせる
-
[SPARK-41354] [SC-119194][connect] proto に
RepartitionByExpressionを追加する -
[SPARK-41784] [SC-119289][connect][PYTHON] 列に不足している
__rmod__を追加する - [SPARK-41778] [SC-119262][sql] ArrayAggregate にエイリアス "reduce" を追加する
-
[SPARK-41067] [SC-119171][connect][PYTHON] 実装
DataFrame.stat.cov - [SPARK-41764] [SC-119216][connect][PYTHON] 内部文字列 op 名を FunctionRegistry と一致させる
- [SPARK-41734] [SC-119160][connect] カタログの親メッセージを追加する
- [SPARK-41742] [SC-119263] df.groupBy().agg({"*":"count"}) をサポート
-
[SPARK-41761] [SC-119213][connect][PYTHON] 算術演算の修正:
__neg__、__pow__、__rpow__ -
[SPARK-41062] [SC-118182][sql]
UNSUPPORTED_CORRELATED_REFERENCEの名前をCORRELATED_REFERENCEに変更します -
[SPARK-41751] [SC-119211][コネクト][PYTHON] 修正
Column.{isNull, isNotNull, eqNullSafe} -
[SPARK-41728] [SC-119164][connect][PYTHON][12.x]
unwrap_udt関数を実装する -
[SPARK-41333] [SC-119195][spark-41737] 実装
GroupedData.{min, max, avg, sum} -
[SPARK-41751] [SC-119206][connect][PYTHON] 修正
Column.{bitwiseAND, bitwiseOR, bitwiseXOR} - [SPARK-41631] [SC-101081][sql] 集計での暗黙的な横列エイリアス解決のサポート
- [SPARK-41529] [SC-119207][connect][12.X] SparkSession.stop を実装する
-
[SPARK-41729] [SC-119205][core][SQL][12.x]
_LEGACY_ERROR_TEMP_0011の名前をUNSUPPORTED_FEATURE.COMBINATION_QUERY_RESULT_CLAUSESに変更する - [SPARK-41717] [SC-119078][connect][12.X] LogicalPlan で print関数 と repr_html の重複を排除する
-
[SPARK-41740] [SC-119169][connect][PYTHON] 実装
Column.name - [SPARK-41733] [SC-119163][sql][SS] ルール ResolveWindowTime にツリー パターン ベースの排除を適用する
- [SPARK-41732] [SC-119157][sql][SS] SessionWindowing ルールにツリー パターン ベースの排除を適用する
- [SPARK-41498] [SC-119018] Union を介してメタデータを伝達する
- [SPARK-41731] [SC-119166][connect][PYTHON][12.x] 列アクセサーを実装する
-
[SPARK-41736] [SC-119161][connect][PYTHON]
pyspark_types_to_proto_typesがサポートする必要があるArrayType -
[SPARK-41473] [SC-119092][connect][PYTHON]
format_number関数を実装する - [SPARK-41707] [SC-119141][connect][12.X] Spark Connect にカタログ API を実装する
-
[SPARK-41710] [SC-119062][connect][PYTHON] 実装
Column.between - [SPARK-41235] [SC-119088][sql][PYTHON]高次関数: array_compact実装
-
[SPARK-41518] [SC-118453][sql] エラー クラスに名前を割り当てる
_LEGACY_ERROR_TEMP_2422 -
[SPARK-41723] [SC-119091][connect][PYTHON]
sequence関数を実装する - [SPARK-41703] [SC-119060][connect][PYTHON] NullType と typed_null をリテラルで結合する
- [SPARK-41722] [SC-119090][connect][PYTHON] 3 つの不足している時間枠関数を実装する
- [SPARK-41503] [SC-119043][connect][PYTHON] パーティション変換関数を実装する
- [SPARK-41413] [SC-118968][sql] パーティション キーが一致しないが結合式に互換性がある場合は、Storage-Partitioned Join でシャッフルを避ける
-
[SPARK-41700] [SC-119046][connect][PYTHON]
FunctionBuilderを削除 -
[SPARK-41706] [SC-119094][connect][PYTHON]
pyspark_types_to_proto_typesはサポートする必要がありますMapType - [SPARK-41702] [SC-119049][connect][PYTHON] 無効な列操作を追加する
- [SPARK-41660] [SC-118866][sql] メタデータ列が使用されている場合にのみ伝達されます
- [SPARK-41637] [SC-119003][sql] ORDER BY ALL
- [SPARK-41513] [SC-118945][sql] マッパー行数ごとのメトリックを収集するアキュムレータを実装する
- [SPARK-41647] [SC-119064][connect][12.X] pyspark.sql.connect.functions でドキュメント文字列を重複除去する
-
[SPARK-41701] [SC-119048][connect][PYTHON] 列操作をサポートする
decimal -
[SPARK-41383] [SC-119015][spark-41692][SPARK-41693]
rollup、cube、およびpivotを実装する - [SPARK-41635] [SC-118944][sql] GROUP BY ALL
- [SPARK-41645] [SC-119057][connect][12.X] pyspark.sql.connect.dataframe のドキュメント文字列を重複除去する
- [SPARK-41688] [SC-118951][connect][PYTHON] 式を expressions.py に移動する
- [SPARK-41687] [SC-118949][connect] pyspark.sql.connect.group のドキュメント文字列を重複除去する
- [SPARK-41649] [SC-118950][connect] pyspark.sql.connect.window でドキュメント文字列を重複除去する
- [SPARK-41681] [SC-118939][connect] GroupedDataをgroup.pyに分離する
-
[SPARK-41292] [SC-119038][spark-41640][SPARK-41641][connect][PYTHON][12.x]
Window関数を実装する -
[SPARK-41675] [SC-119031][sc-118934][CONNECT][python][12.X] カラムオペレーションのサポートを追加する
datetime - [SPARK-41672] [SC-118929][connect][PYTHON] 非推奨の関数を有効にする
-
[SPARK-41673] [SC-118932][connect][PYTHON] 実装
Column.astype -
[SPARK-41364] [SC-118865][connect][PYTHON]
broadcast関数を実装する - [SPARK-41648] [SC-118914][connect][12.X] pyspark.sql.connect.readwriter で docstrings を重複除去する
- [SPARK-41646] [SC-118915][connect][12.X] pyspark.sql.connect.session でドキュメント文字列を重複除去する
- [SPARK-41643] [SC-118862][connect][12.X] pyspark.sql.connect.column のドキュメント文字列を重複除去する
- [SPARK-41663] [SC-118936][connect][PYTHON][12.x] ラムダ関数の残りの部分を実装する
- [SPARK-41441] [SC-118557][sql] 外部参照をホストするために必要な子出力なしで生成をサポート
- [SPARK-41669] [SC-118923][sql] canCollapseExpressions 内での早期削減
- [SPARK-41639] [SC-118927][sql][PROTOBUF] : SchemaConverters から ScalaReflectionLock を削除する
-
[SPARK-41464] [SC-118861][connect][PYTHON] 実装
DataFrame.to -
[SPARK-41434] [SC-118857][connect][PYTHON] 初期
LambdaFunction実装 - [SPARK-41539] [SC-118802][sql] LogicalRDD の論理プランの出力に対して統計と制約を再マップする
- [SPARK-41396] [SC-118786][sql][PROTOBUF] OneOf フィールドのサポートと再帰チェック
- [SPARK-41528] [SC-118769][connect][12.X] Spark Connect と PySpark API の名前空間を統合する
- [SPARK-41568] [SC-118715][sql] _LEGACY_ERROR_TEMP_1236に名前を割り当てる
-
[SPARK-41440] [SC-118788][connect][PYTHON] 実装
DataFrame.randomSplit - [SPARK-41583] [SC-118718][sc-118642][CONNECT][protobuf] 依存関係を指定した setup.py に Spark Connect と protobuf を追加する
- [SPARK-27561] [SC-101081][12.x][SQL] Project で暗黙的な横列エイリアス解決をサポート
-
[SPARK-41535] [SC-118645][sql]
InterpretedUnsafeProjectionと のカレンダー間隔フィールドに null を正しく設定するInterpretedMutableProjection - [SPARK-40687] [SC-118439][sql] データ マスク組み込み関数 'mask' をサポート
- [SPARK-41520] [SC-118440][sql] AND_OR TreePattern を分割して AND と OR TreePattern を分離する
- [SPARK-41349] [SC-118668][connect][PYTHON] DataFrame.hint を実装する
-
[SPARK-41546] [SC-118541][connect][PYTHON]
pyspark_types_to_proto_typesは StructType をサポートする必要があります。 -
[SPARK-41334] [SC-118549][connect][PYTHON]
SortOrderproto をリレーションから式に移動する - [SPARK-41387] [SC-118450][ss] Trigger.AvailableNow の Kafka データ ソースからの現在の終了オフセットをアサートする
-
[SPARK-41508] [SC-118445][core][SQL]
_LEGACY_ERROR_TEMP_1180の名前をUNEXPECTED_INPUT_TYPEに変更して削除する_LEGACY_ERROR_TEMP_1179 -
[SPARK-41319] [SC-118441][connect][PYTHON] カラム.when, otherwise メソッドと関数を実装する
whenUnresolvedFunction - [SPARK-41541] [SC-118460][sql] SQLShuffleWriteMetricsReporter.decRecordsWritten() で間違った子メソッドの呼び出しを修正しました
-
[SPARK-41453] [SC-118458][connect][PYTHON] 実装
DataFrame.subtract - [SPARK-41248] [SC-118436][sc-118303][SQL] "spark.sql.json.enablePartialResults" を追加して JSON の部分的な結果を有効または無効にする
- [SPARK-41437] “[SC-117601][sql] v1 書き込みフォールバック用に inputquery を重複して最適化しないようにする変更を元に戻す”
- [SPARK-41472] [SC-118352][connect][PYTHON] 文字列/バイナリ関数の残りの部分を実装する
-
[SPARK-41526] [SC-118355][connect][PYTHON] 実装
Column.isin - [SPARK-32170] [SC-118384] [CORE] ステージ タスク メトリックを通じて投機を改善します。
- [SPARK-41524] [SC-118399][ss] StateStoreConf の SQLConf と extraOptions を RocksDBConf で使用するために区別する
- [SPARK-41465] [SC-118381][sql] エラー クラスに名前を割り当てる_LEGACY_ERROR_TEMP_1235
- [SPARK-41511] [SC-118365][sql] LongToUnsafeRowMap の重複キーを無視するサポート
-
[SPARK-41409] [SC-118302][core][SQL]
_LEGACY_ERROR_TEMP_1043の名前をWRONG_NUM_ARGS.WITHOUT_SUGGESTIONに変更します。 -
[SPARK-41438] [SC-118344][connect][PYTHON] 実装
DataFrame.colRegex - [SPARK-41437] [SC-117601][sql] v1 書き込みフォールバック用に入力クエリを 2 回最適化しない
-
[SPARK-41314] [SC-117172][sql] エラー クラスに名前を割り当てる
_LEGACY_ERROR_TEMP_1094 - [SPARK-41443] [SC-118004][sql] エラー クラスに名前を割り当てる_LEGACY_ERROR_TEMP_1061
- [SPARK-41506] [SC-118241][connect][PYTHON] DataType をサポートするように LiteralExpression をリファクタリングする
- [SPARK-41448] [SC-118046] FileBatchWriter と FileFormatWriter で一貫した MR ジョブ ID を作成する
- [SPARK-41456] [SC-117970][sql] try_castのパフォーマンスを向上させる
-
[SPARK-41495] [SC-118125][connect][PYTHON]
collection関数を実装する: P~Z - [SPARK-41478] [SC-118167][sql] エラー クラスに名前を割り当てる_LEGACY_ERROR_TEMP_1234
-
[SPARK-41406] [SC-118161][sql]
NUM_COLUMNS_MISMATCHのエラー メッセージをリファクタリングして一般的なものにする -
[SPARK-41404] [SC-118016][sql]
ColumnVectorUtils#toBatchをリファクタリングして、ColumnarBatchSuite#testRandomRowsテストのプリミティブ dataType を増やす - [SPARK-41468] [SC-118044][sql] EquivalentExpressions での PlanExpression 処理の修正
- [SPARK-40775] [SC-118045][sql] V2 ファイル スキャンの重複する説明エントリを修正する
- [SPARK-41492] [SC-118042][connect][PYTHON] MISC 関数を実装する
- [SPARK-41459] [SC-118005][sql] thrift サーバー操作ログの出力が空である修正
-
[SPARK-41395] [SC-117899][sql]
InterpretedMutableProjectionsetDecimalを使用して、安全でない行の 10 進数に null 値を設定する必要があります - [SPARK-41376] [SC-117840][core][3.3] Executor 起動時に Netty preferDirectBufs チェック ロジックを修正する
-
[SPARK-41484] [SC-118159][sc-118036][CONNECT][python][12.x]
collection関数を実装する: E~M -
[SPARK-41389] [SC-117426][core][SQL] の代わりに
WRONG_NUM_ARGSを再利用する_LEGACY_ERROR_TEMP_1044 - [SPARK-41462] [SC-117920][sql] 日付とタイムスタンプの種類を TimestampNTZ にキャストできます
-
[SPARK-41435] [SC-117810][sql]
invalidFunctionArgumentsErrorが空でない場合にcurdate()のexpressionsを呼び出す変更 - [SPARK-41187] [SC-118030][core] ExecutorLost が発生したとき、AppStatusListener において LiveExecutor のメモリリークが発生する
- [SPARK-41360] [SC-118083][core] Executor が失われた場合は BlockManager の再登録を避ける
- [SPARK-41378] [SC-117686][sql] DS v2 での列統計のサポート
- [SPARK-41402] [SC-117910][sql][CONNECT][12.x] StringDecode の prettyName をオーバーライドする
- [SPARK-41414] [SC-118041][connect][PYTHON][12.x] 日付/タイムスタンプ関数を実装する
- [SPARK-41329] [SC-117975][connect] Spark Connect での循環インポートを解決する
- [SPARK-41477] [SC-118025][connect][PYTHON] リテラル整数のデータ型を正しく推論する
-
[SPARK-41446] [SC-118024][connect][PYTHON][12.x]
createDataFrameがスキーマとその他の入力データセットの種類をサポートできるようにする - [SPARK-41475] [SC-117997][connect] lint-scala コマンド エラーと入力ミスを修正
- [SPARK-38277] [SC-117799][ss] RocksDB 状態ストアのコミット後に書き込みバッチをクリアする
- [SPARK-41375] [SC-117801][ss] 空の最新 KafkaSourceOffset を回避する
-
[SPARK-41412] [SC-118015][connect] 実装
Column.cast -
[SPARK-41439] [SC-117893][connect][PYTHON]
DataFrame.meltとDataFrame.unpivotを実装する - [SPARK-41399] [SC-118007][sc-117474][CONNECT] 列関連のテストをtest_connect_columnにリファクタリングする
- [SPARK-41351] [SC-117957][sc-117412][CONNECT][12.x] 列で != 演算子をサポートする必要がある
- [SPARK-40697] [SC-117806][sc-112787][SQL] 外部データ ファイルをカバーする読み取り側の文字パディングを追加する
- [SPARK-41349] [SC-117594][connect][12.X] DataFrame.hint を実装する
- [SPARK-41338] [SC-117170][sql] 同じアナライザー バッチ内の外部参照と通常の列を解決する
-
[SPARK-41436] [SC-117805][connect][PYTHON]
collection関数を実装する: A ~ C - [SPARK-41445] [SC-117802][connect] DataFrameReader.parquet を実装する
-
[SPARK-41452] [SC-117865][sql] 形式が null の場合、
to_charは null を返す必要があります - [SPARK-41444] [SC-117796][connect] サポート read.json()
- [SPARK-41398] [SC-117508][sql] ランタイム フィルター処理後のパーティション キーが一致しない場合に Storage-Partitioned 結合の制約を緩和する
-
[SPARK-41228] [SC-117169][sql] 名前の変更と
COLUMN_NOT_IN_GROUP_BY_CLAUSEのエラー メッセージの改善。 -
[SPARK-41381] [SC-117593][connect][PYTHON]
count_distinct関数とsum_distinct関数を実装する - [SPARK-41433] [SC-117596][connect] Max Arrow BatchSize を構成可能にする
- [SPARK-41397] [SC-117590][connect][PYTHON] 文字列/バイナリ関数の一部を実装する
-
[SPARK-41382] [SC-117588][connect][PYTHON]
product関数を実装する -
[SPARK-41403] [SC-117595][connect][PYTHON] 実装
DataFrame.describe - [SPARK-41366] [SC-117580][connect] DF.groupby.agg() に互換性がある必要がある
- [SPARK-41369] [SC-117584][connect] サーバーのシェード化された JAR ファイルに接続共通を追加する
- [SPARK-41411] [SC-117562][ss] 複数状態を持つオペレーターのウォーターマークのサポートにおけるバグ修正
- [SPARK-41176] [SC-116630][sql] エラー クラスに名前を割り当てる_LEGACY_ERROR_TEMP_1042
- [SPARK-41380] [SC-117476][connect][PYTHON][12.x] 集計関数を実装する
- [SPARK-41363] [SC-117470][connect][PYTHON][12.x] 通常の関数を実装する
- [SPARK-41305] [SC-117411][connect] Command proto のドキュメントを改善する
- [SPARK-41372] [SC-117427][connect][PYTHON] DataFrame TempView を実装する
- [SPARK-41379] [SC-117420][ss][PYTHON] PySpark の foreachBatch シンクのユーザー関数で DataFrame に複製された Spark セッションを提供する
- [SPARK-41373] [SC-117405][sql][ERROR] CAST_WITH_FUN_SUGGESTIONの名前をCAST_WITH_FUNC_SUGGESTIONに変更する
-
[SPARK-41358] [SC-117417][sql] 代わりに
ColumnVectorUtils#populateを使用するようにPhysicalDataTypeメソッドをリファクタリングするDataType - [SPARK-41355] [SC-117423][sql] Hive テーブル名の検証問題に対する回避策
-
[SPARK-41390] [SC-117429][sql]
register関数の生成に使用するスクリプトを更新します。UDFRegistration -
[SPARK-41206] [SC-117233][sc-116381][SQL] エラー クラスの名前を
_LEGACY_ERROR_TEMP_1233からCOLUMN_ALREADY_EXISTS - [SPARK-41357] [SC-117310][connect][PYTHON][12.x] 数学関数を実装する
- [SPARK-40970] [SC-117308][connect][PYTHON] Join の on 引数に対するリスト[Column]のサポート
- [SPARK-41345] [SC-117178][connect] Proto の接続にヒントを追加する
- [SPARK-41226] [SC-117194][sql][12.x] 物理型を導入して Spark の種類をリファクタリングする
- [SPARK-41317] [SC-116902][connect][PYTHON][12.x] DataFrameWriter の基本的なサポートを追加する
- [SPARK-41347] [SC-117173][connect] Expressionプロトにキャストを追加する
- [SPARK-41323] [SC-117128][sql] current_schema に対応する
- [SPARK-41339] [SC-117171][sql] 単にクリアするのではなく、RocksDB 書き込みバッチを閉じて再作成する
- [SPARK-41227] [SC-117165][connect][PYTHON] DataFrame クロス結合を実装する
-
[SPARK-41346] [SC-117176][connect][PYTHON]
asc関数とdesc関数を実装する - [SPARK-41343] [SC-117166][connect] FunctionName 解析をサーバー側に移動する
- [SPARK-41321] [SC-117163][connect] UnresolvedStar のサポート ターゲット フィールド
-
[SPARK-41237] [SC-117167][sql] エラー クラスの
UNSUPPORTED_DATATYPEを再利用する_LEGACY_ERROR_TEMP_0030 -
[SPARK-41309] [SC-116916][sql] の代わりに
INVALID_SCHEMA.NON_STRING_LITERALを再利用する_LEGACY_ERROR_TEMP_1093 -
[SPARK-41276] [SC-117136][sql][ML][mllib][PROTOBUF][python][R][ss][AVRO] コンストラクターの使用を最適化する
StructType - [SPARK-41335] [SC-117135][connect][PYTHON] 列での IsNull と IsNotNull のサポート
-
[SPARK-41332] [SC-117131][connect][PYTHON] で
nullOrderingを修正SortOrder - [SPARK-41325] [SC-117132][connect][12.X] DF で GroupBy の avg() が見つからない問題を修正
-
[SPARK-41327] [SC-117137][core] OnHeapとOffHeapのストレージメモリ情報の切り替えによる
SparkStatusTracker.getExecutorInfosの修正 -
[SPARK-41315] [SC-117129][connect][PYTHON]
DataFrame.replaceとDataFrame.na.replaceを実装 - [SPARK-41328] [SC-117125][connect][PYTHON] 列に論理 API と文字列 API を追加する
-
[SPARK-41331] [SC-117127][connect][PYTHON]
orderByとdrop_duplicates -
[SPARK-40987] [SC-117124][core]
BlockManager#removeBlockInternalロックが正常にロック解除されていることを確認する必要がある - [SPARK-41268] [SC-117102][sc-116970][CONNECT][python] API 互換性のために "列" をリファクタリングする
- [SPARK-41312] [SC-116881][connect][PYTHON][12.x] DataFrame.withColumnRenamed を実装する
-
[SPARK-41221] [SC-116607][sql] エラー クラスを追加する
INVALID_FORMAT - [SPARK-41272] [SC-116742][sql] エラー クラスに名前を割り当てる_LEGACY_ERROR_TEMP_2019
-
[SPARK-41180] [SC-116760][sql] の代わりに
INVALID_SCHEMAを再利用する_LEGACY_ERROR_TEMP_1227 - [SPARK-41260] [SC-116880][python][SS][12.x] GroupState 更新で NumPy インスタンスを Python プリミティブ型にキャストする
-
[SPARK-41174] [SC-116609][core][SQL] 無効な
formatのto_binary()に関するエラークラスをユーザーに伝達する - [SPARK-41264] [SC-116971][connect][PYTHON] リテラルをサポートするデータ型を増やす
- [SPARK-41326] [SC-116972] [CONNECT] 重複除去が入力されない問題を修正
- [SPARK-41316] [SC-116900][sql] 可能な限り末尾再帰を有効にする
- [SPARK-41297] [SC-116931] [CONNECT] [PYTHON] フィルターでの文字列式をサポートする。
- [SPARK-41256] [SC-116932][sc-116883][CONNECT] DataFrame.withColumn を実装する
- [SPARK-41182] [SC-116632][sql] エラー クラスに名前を割り当てる_LEGACY_ERROR_TEMP_1102
- [SPARK-41181] [SC-116680][sql] マップ オプションのエラーをエラー クラスに移行する
- [SPARK-40940] [SC-115993][12.x] ストリーミング クエリの複数ステートフル演算子チェッカーを削除します。
- [SPARK-41310] [SC-116885][connect][PYTHON] DataFrame.toDF を実装する
- [SPARK-41179] [SC-116631][sql] エラー クラスに名前を割り当てる_LEGACY_ERROR_TEMP_1092
- [SPARK-41003] [SC-116741][sql] codegen が無効になっている場合、BHJ LeftAnti は numOutputRows を更新しません
-
[SPARK-41148] [SC-116878][connect][PYTHON]
DataFrame.dropnaとDataFrame.na.dropを実装する -
[SPARK-41217] [SC-116380][sql] エラー クラスを追加する
FAILED_FUNCTION_CALL - [SPARK-41308] [SC-116875][connect][PYTHON] DataFrame.count() の向上
- [SPARK-41301] [SC-116786] [CONNECT] SparkSession.range() のホモジナイズ動作
- [SPARK-41306] [SC-116860][connect] Connect Expression プロトのドキュメントを改善する
- [SPARK-41280] [SC-116733][connect] DataFrame.tail を実装する
- [SPARK-41300] [SC-116751] [CONNECT] スキーマの未設定がスキーマとして解釈される
- [SPARK-41255] [SC-116730][sc-116695] [CONNECT] RemoteSparkSession の名前を変更する
- [SPARK-41250] [SC-116788][sc-116633][CONNECT][python] DataFrame。 toPandas はオプションの pandas データフレームを返さないでください
-
[SPARK-41291] [SC-116738][connect][PYTHON]
DataFrame.explain印刷して None を返す必要がある - [SPARK-41278] [SC-116732][connect] Expression.proto で未使用のQualifiedAttribute をクリーンアップする
- [SPARK-41097] [SC-116653][core][SQL][ss][PROTOBUF] Scala 2.13 コードの冗長コレクション変換ベースを削除する
- [SPARK-41261] [SC-116718][python][SS] グループ化キーの列が最も早い順に配置されない場合の applyInPandasWithState の問題を修正しました
- [SPARK-40872] [SC-116717][3.3] プッシュマージされたシャッフル チャンクのサイズが 0 の場合に元のシャッフル ブロックにフォールバックする
- [SPARK-41114] [SC-116628][connect] LocalRelation のローカル データをサポートする
-
[SPARK-41216] [SC-116678][connect][PYTHON] 実装
DataFrame.{isLocal, isStreaming, printSchema, inputFiles} - [SPARK-41238] [SC-116670][connect][PYTHON] より多くの組み込みデータ型をサポート
-
[SPARK-41230] [SC-116674][connect][PYTHON] 集計式の種類から
strを削除する - [SPARK-41224] [SC-116652][spark-41165][SPARK-41184][connect] サーバーからクライアントにストリーム配信するための最適化された方向ベースの収集実装
- [SPARK-41222] [SC-116625][connect][PYTHON] 入力定義を統合する
- [SPARK-41225] [SC-116623] [CONNECT] [PYTHON] サポートされていない関数を無効にします。
-
[SPARK-41201] [SC-116526][connect][PYTHON] Python クライアントで
DataFrame.SelectExprを実装する - [SPARK-41203] [SC-116258] [CONNECT] Python クライアントで Dataframe.tansform をサポートします。
-
[SPARK-41213] [SC-116375][connect][PYTHON]
DataFrame.__repr__とDataFrame.dtypesを実装する -
[SPARK-41169] [SC-116378][connect][PYTHON] 実装
DataFrame.drop - [SPARK-41172] [SC-116245][sql] あいまいな ref エラーをエラー クラスに移行する
- [SPARK-41122] [SC-116141][connect] Explain API はさまざまなモードをサポートできます
- [SPARK-41209] [SC-116584][sc-116376][PYTHON] _merge_typeメソッドでの PySpark 型推論の改善
- [SPARK-41196] [SC-116555][sc-116179] [CONNECT] Spark 接続サーバー全体で protobuf バージョンをホモジナイズして、同じメジャー バージョンを使用します。
- [SPARK-35531] [SC-116409][sql] 不要な変換なしで Hive テーブルの統計を更新する
- [SPARK-41154] [SC-116289][sql] タイム トラベル 仕様のクエリの関係キャッシュが正しくない
-
[SPARK-41212] [SC-116554][sc-116389][CONNECT][python] 実装
DataFrame.isEmpty -
[SPARK-41135] [SC-116400][sql]
UNSUPPORTED_EMPTY_LOCATIONをINVALID_EMPTY_LOCATIONに変更する - [SPARK-41183] [SC-116265][sql] キャッシュの正規化を計画する拡張 API を追加する
- [SPARK-41054] [SC-116447][ui][CORE] ライブ UI での KVStore としての RocksDB のサポート
- [SPARK-38550] [SC-115223]"[SQL][core] ディスク ベースのストアを使用してライブ UI のデバッグ情報をさらに保存する" を元に戻す
-
[SPARK-41173] [SC-116185][sql] 文字列式のコンストラクターから
require()を移動する - [SPARK-41188] [SC-116242][core][ML] Spark Executor JVM プロセスに対して executorEnv OMP_NUM_THREADSを既定で spark.task.cpus に設定する
-
[SPARK-41130] [SC-116155][sql]
OUT_OF_DECIMAL_TYPE_RANGEの名前をNUMERIC_OUT_OF_SUPPORTED_RANGEに変える - [SPARK-41175] [SC-116238][sql] エラー クラスに名前を割り当てる_LEGACY_ERROR_TEMP_1078
- [SPARK-41106] [SC-116073][sql] AttributeMap の作成時のコレクション変換を減らす
-
[SPARK-41139] [SC-115983][sql] エラー クラスを改善する:
PYTHON_UDF_IN_ON_CLAUSE - [SPARK-40657] [SC-115997][protobuf] Java クラス jar のシェーディングを必要とし、エラー処理を改善する
- [SPARK-40999] [SC-116168] サブクエリへのヒント伝達
- [SPARK-41017] [SC-116054][sql] 複数の非決定的フィルターを使用した列の排除のサポート
- [SPARK-40834] [SC-114773][sql] SparkListenerSQLExecutionEnd を使用して UI の最終的な SQL 状態を追跡する
-
[SPARK-41118] [SC-116027][sql]
to_number/try_to_numberは、形式が の場合にnullを返す必要がありますnull - [SPARK-39799] [SC-115984][sql] DataSourceV2: カタログ インターフェイスの表示
- [SPARK-40665] [SC-116210][sc-112300][CONNECT] Apache Spark バイナリ リリースに Spark Connect を埋め込むのを避ける
- [SPARK-41048] [SC-116043][sql] AQE キャッシュを使用した出力のパーティション分割と順序の向上
- [SPARK-41198] [SC-116256][ss] CTE および DSv1 ストリーミング ソースを持つストリーミング クエリのメトリックを修正する
- [SPARK-41199] [SC-116244][ss] DSv1 ストリーミング ソースと DSv2 ストリーミング ソースが共同使用されている場合のメトリックの問題を修正する
- [SPARK-40957] [SC-116261][sc-114706] HDFSMetadataLog のメモリ キャッシュに追加する
- [SPARK-40940] 「[SC-115993]ストリーミング クエリの複数ステートフル演算子チェッカーを削除する」を元に戻します。
-
[SPARK-41090] [SC-116040][sql] データセット API で一時ビューを作成するときに
db_name.view_nameの例外をスローする -
[SPARK-41133] [SC-116085][sql]
UNSCALED_VALUE_TOO_LARGE_FOR_PRECISIONを統合するNUMERIC_VALUE_OUT_OF_RANGE - [SPARK-40557] [SC-116182][sc-111442][CONNECT] コード ダンプ 9 コミット
- [SPARK-40448] [SC-114447][sc-111314][CONNECT] シェーディングされた依存関係を持つドライバー プラグインとしての Spark Connect ビルド
- [SPARK-41096] [SC-115812][sql] parquet の FIXED_LEN_BYTE_ARRAY 型を読み取るサポートを追加する
-
[SPARK-41140] [SC-115879][sql] エラー クラスの名前を
_LEGACY_ERROR_TEMP_2440からINVALID_WHERE_CONDITION - [SPARK-40918] [SC-114438][sql] 列形式出力の生成に関する FileSourceScanExec と Orc と ParquetFileFormat の不一致
- [SPARK-41155] [SC-115991][sql] SchemaColumnConvertNotSupportedException にエラー メッセージを追加する
- [SPARK-40940] [SC-115993] ストリーミング クエリのマルチステートフル演算子チェッカーを削除します。
-
[SPARK-41098] [SC-115790][sql]
GROUP_BY_POS_REFERS_AGG_EXPRの名前をGROUP_BY_POS_AGGREGATEに変更 - [SPARK-40755] [SC-115912][sql] 数値書式の型チェックエラーをエラー クラスに移行する
-
[SPARK-41059] [SC-115658][sql]
_LEGACY_ERROR_TEMP_2420の名前をNESTED_AGGREGATE_FUNCTION - [SPARK-41044] [SC-115662][sql] DATATYPE_MISMATCH.UNSPECIFIED_FRAME を INTERNAL_ERROR に変換します。
-
[SPARK-40973] [SC-115132][sql]
_LEGACY_ERROR_TEMP_0055をUNCLOSED_BRACKETED_COMMENTに名前変更する
メンテナンスの更新
Databricks Runtime 12.1 のメンテナンス更新プログラムに関するページを参照してください。
システム環境
- オペレーティング システム: Ubuntu 20.04.5 LTS
- Java: Zulu 8.64.0.19-CA-linux64
- Scala: 2.12.14
- Python: 3.9.5
- R: 4.2.2
- Delta Lake: 2.2.0
インストールされている Python ライブラリ
| ライブラリ | バージョン | ライブラリ | バージョン | ライブラリ | バージョン |
|---|---|---|---|---|---|
| argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 | アストトークン | 2.0.5 |
| 属性 | 21.4.0 | バックコール (再発信機能) | 0.2.0 | バックポート.entry-points-selectable | 1.2.0 |
| beautifulsoup4 | 4.11.1 | 黒い | 22.3.0 | 漂白剤 | 4.1.0 |
| boto3 | 1.21.32 | botocore | 1.24.32 | サーティフィ | 2021.10.8 |
| cffi | 1.15.0 | チャーデット | 4.0.0 | charset-normalizer (文字コード正規化ツール) | 2.0.4 |
| クリックし | 8.0.4 | 暗号 | 3.4.8 | サイクリスト | 0.11.0 |
| Cython | 0.29.28 | dbus-python | 1.2.16 | debugpy | 1.5.1 |
| デコレータ | 5.1.1 | デフューズドXML (defusedxml) | 0.7.1 | distlib | 0.3.6 |
| ドックストリングをMarkdownに変換 | 0.11 | 入口点 | 0.4 | 実行中 | 0.8.3 |
| ファセット概要 | 1.0.0 | fastjsonschema | 2.16.2 | ファイルロック | 3.8.2 |
| fonttools(フォントツールズ) | 4.25.0 | idna | 3.3 | ipykernel | 6.15.3 |
| ipython | 8.5.0 | ipython-genutils (IPython用のユーティリティ) | 0.2.0 | ipywidgets (インタラクティブウィジェット) | 7.7.2 |
| ジェダイ | 0.18.1 | ジンジャ2 | 2.11.3 | jmespath | 0.10.0 |
| 「joblib」 | 1.1.0 | JSONスキーマ | 4.4.0 | ジュピタークライアント | 6.1.12 |
| jupyter_core(ジュピター・コア) | 4.11.2 | jupyterlab-pygments | 0.1.2 | jupyterlab ウィジェット | 1.0.0 |
| キウィソルバー | 1.3.2 | マークアップセーフ | 2.0.1 | matplotlib | 3.5.1 |
| matplotlib-インライン | 0.1.2 | マッケイブ | 0.7.0 | ミスチューン | 0.8.4 |
| mypy-extensions (マイパイ拡張機能) | 0.4.3 | nbclient(エヌビー・クライアント) | 0.5.13 | NBコンバート | 6.4.4 |
| nbフォーマット | 5.3.0 | nest-asyncio(ネスト・アサインキオ) | 1.5.5 | nodeenv | 1.7.0 |
| ノートブック | 6.4.8 | NumPy (数値計算ライブラリ) | 1.21.5 | パッケージング | 21.3 |
| パンダ | 1.4.2 | パンドックフィルターズ | 1.5.0 | パルソ | 0.8.3 |
| パススペック | 0.9.0 | パッツィ | 0.5.2 | ペキスペクト | 4.8.0 |
| ピクルシェア | 0.7.5 | 枕 | 9.0.1 | 種 | 21.2.4 |
| プラットフォームディレクトリ | 2.6.0 | plotly - データビジュアライゼーションツール | 5.6.0 | プラグイン管理ツール | 1.0.0 |
| prometheus-クライアント | 0.13.1 | prompt-toolkit(プロンプトツールキット) | 3.0.20 | プロトバフ | 3.19.4 |
| psutil | 5.8.0 | psycopg2 | 2.9.3 | ptyprocess | 0.7.0 |
| pure-eval (ピュア・イヴァル) | 0.2.2 | pyarrow (パイアロー) | 7.0.0 | pycparser(パイシーパーサー) | 2.21 |
| パイフレークス | 2.5.0 | Pygments | 2.11.2 | PyGObject | 3.36.0 |
| pyodbc (Pythonのデータベース接続用ライブラリ) | 4.0.32 | パイパーシング (Pyparsing) | 3.0.4 | pyright | 1.1.283 |
| pyrsistent | 0.18.0 | python-dateutil (Python用の日付処理ライブラリ) | 2.8.2 | python-lsp-jsonrpc | 1.0.0 |
| Python LSP サーバー | 1.6.0 | pytz | 2021年3月 | pyzmq | 22.3.0 |
| リクエスト | 2.27.1 | requests-unixsocket | 0.2.0 | ロープ | 0.22.0 |
| s3transfer | 0.5.0 | scikit-learn(サイキット・ラーン) | 1.0.2 | scipy | 1.7.3 |
| seaborn(シーボーン) | 0.11.2 | Send2Trash(センド2トラッシュ) | 1.8.0 | setuptools(セットアップツール) | 61.2.0 |
| 6 | 1.16.0 | スープこし器 (soup strainer) | 2.3.1 | ssh-import-id | 5.10 |
| スタックデータ | 0.2.0 | statsmodels(スタッツモデルズ) | 0.13.2 | 粘り強さ | 8.0.1 |
| 終了しました | 0.13.1 | テストパス (testpath) | 0.5.0 | Threadpoolctl | 2.2.0 |
| トークナイズ-RT | 4.2.1 | tomli | 1.2.2 | 竜巻 | 6.1 |
| traitlets(トレイトレット) | 5.1.1 | タイピングエクステンションズ (typing_extensions) | 4.1.1 | ujson | 5.1.0 |
| 無人アップグレード | 0.1 | urllib3 | 1.26.9 | virtualenv | 20.8.0 |
| wcwidth(文字の幅を測定するプログラム関数) | 0.2.5 | ウェブエンコーディングス | 0.5.1 | whatthepatch(ホワットザパッチ) | 1.0.3 |
| ホイール | 0.37.0 | ウィジェットNBエクステンション | 3.6.1 | yapf (ヤップフ) | 0.31.0 |
インストールされている R ライブラリ
R ライブラリは、2022 年 11 月 11 日に Microsoft CRAN スナップショットからインストールされています。
| ライブラリ | バージョン | ライブラリ | バージョン | ライブラリ | バージョン |
|---|---|---|---|---|---|
| 矢印 | 10.0.0 | アスクパス | 1.1 | assertthat(アサートザット関数) | 0.2.1 |
| バックポート(旧バージョンへの機能移植) | 1.4.1 | ベース | 4.2.2 | base64enc | 0.1-3 |
| ビット | 4.0.4 | ビット64 | 4.0.5 | BLOB | 1.2.3 |
| 起動 | 1.3-28 | 醸成 | 1.0 から 8 | 活気 | 1.1.3 |
| 箒 | 1.0.1 | bslib | 0.4.1 | キャシェム | 1.0.6 |
| コールアール | 3.7.3 | キャレット | 6.0-93 | セルレンジャー (cellranger) | 1.1.0 |
| クロノ | 2.3-58 | クラス | 7.3-20 | CLI | 3.4.1 |
| クリッパー | 0.8.0 | 時計 | 0.6.1 | クラスタ | 2.1.4 |
| コードツール | 0.2-18 | カラー空間 | 2.0-3 | コモンマーク | 1.8.1 |
| コンパイラ | 4.2.2 | 設定 | 0.3.1 | CPP11 | 0.4.3 |
| クレヨン | 1.5.2 | 認証情報 | 1.3.2 | カール | 4.3.3 |
| データテーブル (data.table) | 1.14.4 | データセット | 4.2.2 | DBI | 1.1.3 |
| dbplyr | 2.2.1 | 説明 | 1.4.2 | 開発ツール | 2.4.5 |
| diffobj | 0.3.5 | ダイジェスト | 0.6.30 | ダウンライト | 0.4.2 |
| dplyr | 1.0.10 | dtplyr | 1.2.2 | e1071 | 1.7-12 |
| 省略記号 | 0.3.2 | 評価する | 0.18 | ファンシ | 1.0.3 |
| farver | 2.1.1 | fastmap (ファストマップ) | 1.1.0 | fontawesome (フォントオーサム) | 0.4.0 |
| フォーキャッツ | 0.5.2 | フォーリーチ | 1.5.2 | 外国の | 0.8-82 |
| 鍛冶場 | 0.2.0 | FS | 1.5.2 | 未来 | 1.29.0 |
| future.apply(将来の機能を適用するためのプログラミング関数) | 1.10.0 | うがい | 1.2.1 | ジェネリック | 0.1.3 |
| ゲルト | 1.9.1 | ggplot2 | 3.4.0 | gh | 1.3.1 |
| gitcreds | 0.1.2 | glmnet(英語) | 4.1-4 | グローバル変数 | 0.16.1 |
| 接着剤 | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
| ガウアー | 1.0.0 | グラフィックス | 4.2.2 | grDevices | 4.2.2 |
| グリッド | 4.2.2 | gridExtra | 2.3 | gsubfn | 0.7 |
| gtable | 0.3.1 | 安全帽 | 1.2.0 | 安らぎの場 | 2.5.1 |
| highr | 0.9 | エイチ・エム・エス | 1.1.2 | HTMLツール | 0.5.3 |
| HTMLウィジェット | 1.5.4 | httpuv | 1.6.6 | 「httr」パッケージ(HTTPリクエストを簡単に送信するためのライブラリ) | 1.4.4 |
| 識別子 | 1.0.1 | ini | 0.3.1 | アイプレッド | 0.9-13 |
| アイソバンド | 0.2.6 | イテレータ | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.3 | カーンスムース | 2.23-20 | ニット | 1.40 |
| ラベリング | 0.4.2 | あとで | 1.3.0 | 格子構造 | 0.20-45 |
| 溶岩 | 1.7.0 | ライフサイクル | 1.0.3 | listenv | 0.8.0 |
| ルブリデート | 1.9.0 | Magrittr | 2.0.3 | 値下げ | 1.3 |
| 質量 | 7.3-58 | マトリックス | 1.5-1 | メモ化 | 2.0.1 |
| メソッド | 4.2.2 | mgcv | 1.8-41 | マイム | 0.12 |
| ミニUI | 0.1.1.1 | モデルメトリクス | 1.2.2.2 | モデルル | 0.1.9 |
| munsell | 0.5.0 | nlme | 3.1-160 | ニューラルネットワーク (nnet) | 7.3-18 |
| numDeriv(ヌムデリヴ) | 2016年8月~2016年1月1日 | openssl (オープンソースの暗号化ツール) | 2.0.4 | 並行 | 4.2.2 |
| 平行に | 1.32.1 | 柱 | 1.8.1 | pkgbuild(パッケージビルド) | 1.3.1 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.6 | pkgload(パッケージロード) | 1.3.1 |
| plogr | 0.2.0 | プライル | 1.8.7 | 賞賛 | 1.0.0 |
| プリティーユニッツ | 1.1.1 | プロック (pROC) | 1.18.0 | プロセスエックス | 3.8.0 |
| プロッドリム | 2019.11.13 | プロフビス | 0.3.7 | 進捗 | 1.2.2 |
| progressr | 0.11.0 | 約束 | 1.2.0.1 | プロト | 1.0.0 |
| プロキシ | 0.4-27 | PS | 1.7.2 | ゴロゴロ | 0.3.5 |
| R2D3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.4 |
| randomForest(ランダムフォレスト) | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorブリューワー | 1.1-3 | Rcpp | 1.0.9 | RcppEigen | 0.3.3.9.3 |
| 読み取り | 2.1.3 | readxl (エクセルファイルの読み取り用パッケージ/関数) | 1.4.1 | レシピ | 1.0.3 |
| 再戦 | 1.0.1 | リマッチ2 | 2.1.2 | リモコン | 2.4.2 |
| 再現可能な例 (reprex) | 2.0.2 | リシェイプ2 | 1.4.4 | rlang | 1.0.6 |
| rmarkdown | 2.18 | RODBC | 1.3-19 | リオキシジェン2 | 7.2.1 |
| rpart(Rプログラミング言語における再帰的分割のためのパッケージ) | 4.1.19 | rprojroot さん | 2.0.3 | Rサーブ | 1.8-11 |
| RSQLite (英語) | 2.2.18 | rstudioapi | 0.14 | アールバージョンズ | 2.1.2 |
| アヴェスト | 1.0.3 | サス | 0.4.2 | 秤 | 1.2.1 |
| セレクター | 0.4-2 | セッション情報 | 1.2.2 | シェイプ | 1.4.6 |
| 光沢がある | 1.7.3 | ソースツール | 0.1.7 | スパークラー (sparklyr) | 1.7.8 |
| SparkR | 3.3.1 | 空間の | 7.3-11 | スプライン | 4.2.2 |
| sqldf | 0.4-11 | スクウェアム | 2021年1月 | 統計 | 4.2.2 |
| 統計プログラミングパッケージ「stats4」 | 4.2.2 | ストリンギ | 1.7.8 | stringr | 1.4.1 |
| サバイバル | 3.4-0 | sys | 3.4.1 | systemfonts | 1.0.4 |
| tcltk(ティーシーエルティーケー) | 4.2.2 | テストザット | 3.1.5 | テキスト整形 | 0.3.6 |
| tibble(ティブル) | 3.1.8 | ティディル | 1.2.1 | tidyselect関数 | 1.2.0 |
| tidyverse(タイディバース) | 1.3.2 | 時刻変更 | 0.1.1 | 時刻と日付 | 4021.106 |
| tinytex | 0.42 | ツール | 4.2.2 | tzdb | 0.3.0 |
| URLチェッカー | 1.0.1 | この機能を使う | 2.1.6 | UTF8 | 1.2.2 |
| ユーティリティ | 4.2.2 | UUID(ユニバーサルユニーク識別子) | 1.1-0 | VCTRSの | 0.5.0 |
| ヴィリディスライト | 0.4.1 | ブルーム | 1.6.0 | ワルド | 0.4.0 |
| ウイスカー | 0.4 | ウィザー | 2.5.0 | xfun | 0.34 |
| xml2 | 1.3.3 | xopen (エックスオープン) | 1.0.0 | xtable (エクステーブル) | 1.8-4 |
| YAML | 2.3.6 | ジップ | 2.2.2 |
インストールされている Java ライブラリと Scala ライブラリ (Scala 2.12 クラスター バージョン)
| グループ ID | 成果物 ID | バージョン |
|---|---|---|
| アンラル(ANTLR) | アンラル(ANTLR) | 2.7.7 |
| com.amazonaws | amazon-kinesis-client(アマゾン・キネシス・クライアント) | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling (オートスケーリング用Java SDK) | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.189 |
| com.amazonaws | AWSのJava SDKパッケージであるCloudFront | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudhsm(AWSのクラウドHSM用Javaソフトウェア開発キット) | 1.12.189 |
| com.amazonaws | AWSのJava SDK - cloudsearch | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.189 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.189 |
| com.amazonaws | aws-java-sdk-codedeploy(AWSのJava SDK用CodeDeployサービス) | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitoidentity (AWS Java SDK コグニトアイデンティティ) | 1.12.189 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.189 |
| com.amazonaws | aws-java-sdk-config(AWS Java SDK 設定) | 1.12.189 |
| com.amazonaws | aws-java-sdk-core(AWS Java SDKのコア) | 1.12.189 |
| com.amazonaws | aws-java-sdk-datapipeline (AWS Java SDKのデータパイプラインモジュール) | 1.12.189 |
| com.amazonaws | aws-java-sdk-directconnect (AWSのJava SDKのDirect Connect機能) | 1.12.189 |
| com.amazonaws | aws-java-sdk-directory | 1.12.189 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.189 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.189 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.189 |
| com.amazonaws | aws-java-sdk-efs | 1.12.189 |
| com.amazonaws | AWS Java SDK エラスティキャッシュ | 1.12.189 |
| com.amazonaws | AWS Java SDK エラスティックビーンストーク | 1.12.189 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.189 |
| com.amazonaws | aws-java-sdk-elastictranscoder (AWS用のJava開発ツールキット - Elastic Transcoder) | 1.12.189 |
| com.amazonaws | aws-java-sdk-emr | 1.12.189 |
| com.amazonaws | aws-java-sdk-glacier | 1.12.189 |
| com.amazonaws | aws-java-sdk-glue (AWSのJava用SDKであるGlue) | 1.12.189 |
| com.amazonaws | AWSのJava SDK(IAM用) | 1.12.189 |
| com.amazonaws | AWS Java SDK インポートエクスポート | 1.12.189 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.189 |
| com.amazonaws | aws-java-sdk-kms | 1.12.189 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.189 |
| com.amazonaws | aws-java-sdk-logs | 1.12.189 |
| com.amazonaws | aws-java-sdk-機械学習 | 1.12.189 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.189 |
| com.amazonaws | aws-java-sdk-rds(AWSのJava用RDSソフトウェア開発キット) | 1.12.189 |
| com.amazonaws | AWS Java SDK Redshift | 1.12.189 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.189 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.189 |
| com.amazonaws | aws-java-sdk-ses | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.189 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.189 |
| com.amazonaws | aws-java-sdk-sns | 1.12.189 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.189 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.189 |
| com.amazonaws | AWS Java SDK ストレージゲートウェイ | 1.12.189 |
| com.amazonaws | aws-java-sdk-sts | 1.12.189 |
| com.amazonaws | AWS Java SDK サポート | 1.12.189 |
| com.amazonaws | aws-java-sdk-swf-libraries (AWS Java SDK SWFライブラリ) | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspacesとはAWSのワークスペースを管理するためのJava用SDKです。 | 1.12.189 |
| com.amazonaws | jmespath-java | 1.12.189 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | ストリーミング | 2.9.6 |
| com.databricks | Rサーブ | 1.8-3 |
| com.databricks | jets3t (ジェットスリート) | 0.7.1-0 |
| com.databricks.scalapb | コンパイラプラグイン_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo-シェーデッド | 4.0.2 |
| com.esotericsoftware | minlog (ミンログ) | 1.3.0 |
| com.fasterxml | クラスメイト | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations (ジャクソン・アノテーション) | 2.13.4 |
| com.fasterxml.jackson.core | ジャクソン・コア (jackson-core) | 2.13.4 |
| com.fasterxml.jackson.core | ジャクソン・データバインド (jackson-databind) | 2.13.4.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor(ジャクソンデータフォーマットCBOR) | 2.13.4 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.13.4 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.13.4 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.13.4 |
| com.github.ben-manes.カフェイン | カフェイン | 2.3.4 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | コア | 1.1.2 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-ジャバ-ネイティブス | 1.1 |
| com.github.fommil.netlib | ネイティブシステム-Java | 1.1 |
| com.github.fommil.netlib | ネイティブシステム-Java-ネイティブ | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
| com.github.luben | zstd-jni (ゼットスタッドジェイエヌアイ) | 1.5.2-1 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.8.6 |
| com.google.crypto.tink | ティンク | 1.6.1 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | グアバ | 15.0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 2.0.204 |
| com.helger | プロファイラ | 1.1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk(アジュール・データ・レイク・ストア・SDK) | 2.3.9 |
| com.ning | Compress-LZF (コンプレス-LZF) | 1.1 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | パラナマー | 2.8 |
| com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
| com.twitter | チル-ジャヴァ | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | 設定 | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.0 |
| com.univocity | univocity-parsers(ユニボシティ・パーサーズ) | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| コモンズ・コーデック | コモンズ・コーデック | 1.15 |
| コモンズ・コレクションズ | コモンズ・コレクションズ | 3.2.2 |
| commons-dbcp(コモンズ-DBCP) | commons-dbcp(コモンズ-DBCP) | 1.4 |
| コモンズ-ファイルアップロード | コモンズ-ファイルアップロード | 1.3.3 |
| commons-httpclient(コモンズHTTPクライアント) | commons-httpclient(コモンズHTTPクライアント) | 3.1 |
| commons-io | commons-io | 2.11.0 |
| commons-lang (コモンズ・ラン、Javaの汎用ユーティリティライブラリ) | commons-lang (コモンズ・ラン、Javaの汎用ユーティリティライブラリ) | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool(コモンズプール) | commons-pool(コモンズプール) | 1.5.4 |
| dev.ludovic.netlib | アーパック | 2.2.1 |
| dev.ludovic.netlib | ブラス | 2.2.1 |
| dev.ludovic.netlib | ラパック | 2.2.1 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | エアコンプレッサー | 0.21 |
| io.delta | delta-sharing-spark_2.12 | 0.6.2 |
| io.dropwizard.metrics | メトリクス・コア | 4.1.1 |
| io.dropwizard.metrics | メトリクス・グラファイト | 4.1.1 |
| io.dropwizard.metrics | メトリクス-ヘルスチェック | 4.1.1 |
| io.dropwizard.metrics | メトリクス-ジェッティ9 | 4.1.1 |
| io.dropwizard.metrics | メトリクス-JMX | 4.1.1 |
| io.dropwizard.metrics | metrics-json | 4.1.1 |
| io.dropwizard.metrics | メトリックス-JVM | 4.1.1 |
| io.dropwizard.metrics | メトリクス-サーブレット | 4.1.1 |
| io.netty | netty-all (ライブラリ名) | 4.1.74.Final |
| io.netty | ネットィバッファー | 4.1.74.Final |
| io.netty | netty-codec | 4.1.74.Final |
| io.netty | netty-common | 4.1.74.Final |
| io.netty | ネットティ・ハンドラー | 4.1.74.Final |
| io.netty | ネッティ・リゾルバー | 4.1.74.Final |
| io.netty | netty-tcnative-classes | 2.0.48.Final |
| io.netty | netty-transport(ネットティ・トランスポート) | 4.1.74.Final |
| io.netty | netty-transport-classes-epoll | 4.1.74.Final |
| io.netty | netty-トランスポートクラス-kqueue | 4.1.74.Final |
| io.netty | netty-transport-native-epoll-linux-aarch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-epoll-linux-x86_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-aarch_64 | 4.1.74.Final |
| io.netty | netty-transport-native-kqueue-osx-x86_64 | 4.1.74.Final |
| io.netty | netty-transport-native-unix-common (ネットワーク通信を行うためのユニックス向け共通ライブラリ) | 4.1.74.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | シンプルクライアント_コモン | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | シンプルクライアント_プッシュゲートウェイ | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | コレクター | 0.12.0 |
| jakarta.annotation | ジャカルタ・アノテーションAPI | 1.3.5 |
| ジャカルタ.サーブレット | jakarta.サーブレット-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | アクティブ化 | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | トランザクションAPI | 1.1 |
| .bind の javax.xml | jaxb-api | 2.2.11 |
| 「ジャボリューション(Javolution)」 | 「ジャボリューション(Javolution)」 | 5.5.1 |
| ジェイライン | ジェイライン | 2.14.6 |
| joda-time | joda-time | 2.10.13 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | 漬物 | 1.2 |
| net.sf.jpam | ジェーパム | 1.1 |
| net.sf.opencsv | opencsv (CSVファイル操作のためのライブラリ) | 2.3 |
| net.sf.supercsv | スーパCSV (スーパーシーエスブイ) | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk(スノーフレーク・インジェスト・SDK) | 0.9.6 |
| net.snowflake | スノーフレーク-JDBC | 3.13.22 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.8 |
| org.antlr | ストリングテンプレート | 3.2.1 |
| org.apache.ant | 蟻 | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | ant-launcher | 1.9.2 |
| org.apache.arrow | 矢印フォーマット | 7.0.0 |
| org.apache.arrow | arrow-memory-core | 7.0.0 |
| org.apache.arrow | アロー・メモリー・ネッティ | 7.0.0 |
| org.apache.arrow | 矢印ベクトル | 7.0.0 |
| org.apache.avro | アブロ | 1.11.0 |
| org.apache.avro | avro-ipc | 1.11.0 |
| org.apache.avro | avro-mapred | 1.11.0 |
| org.apache.commons | commons-collections4 | 4.4. |
| org.apache.commons | コモンズ・コンプレス | 1.21 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | コモンズテキスト | 1.10.0 |
| org.apache.curator | キュレータークライアント | 2.13.0 |
| org.apache.curator | Curator Framework(キュレーター・フレームワーク) | 2.13.0 |
| org.apache.curator | キュレーターのレシピ | 2.13.0 |
| org.apache.derby | ダービー | 10.14.2.0 |
| org.apache.hadoop | hadoopクライアントAPI | 3.3.4-databricks |
| org.apache.hadoop | hadoop-client-runtime (ハドゥープ・クライアント・ランタイム) | 3.3.4 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | ハイブセーデ | 2.3.9 |
| org.apache.hive | ハイブシムス | 2.3.9 |
| org.apache.hive | hive-storage-api (ハイブストレージAPI) | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler (ハイブシムススケジューラー) | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.13 |
| org.apache.httpcomponents | httpcore | 4.4.14 |
| org.apache.ivy | アイビー | 2.5.0 |
| org.apache.logging.log4j | log4j-1.2-api | 2.18.0 |
| org.apache.logging.log4j | log4j-api | 2.18.0 |
| org.apache.logging.log4j | log4j-core | 2.18.0 |
| org.apache.logging.log4j | log4j-slf4j-impl | 2.18.0 |
| org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
| org.apache.orc | オーク・コア | 1.7.6 |
| org.apache.orc | orc-mapreduce | 1.7.6 |
| org.apache.orc | orc-shims(オーク・シムズ) | 1.7.6 |
| org.apache.parquet | パーケット列 | 1.12.3-databricks-0002 |
| org.apache.parquet | パーケット・コモン | 1.12.3-databricks-0002 |
| org.apache.parquet | パーケットエンコーディング | 1.12.3-databricks-0002 |
| org.apache.parquet | Parquet-フォーマット構造 | 1.12.3-databricks-0002 |
| org.apache.parquet | parquet-hadoop | 1.12.3-databricks-0002 |
| org.apache.parquet | parquet-jackson | 1.12.3-databricks-0002 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift (リブスリフト) | 0.12.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.20 |
| org.apache.yetus | オーディエンス注釈 | 0.13.0 |
| org.apache.zookeeper | 動物園の飼育員 | 3.6.2 |
| org.apache.zookeeper | zookeeper-jute(ズーキーパー・ジュート) | 3.6.2 |
| org.checkerframework | チェッカー・クオール | 3.5.0 |
| org.codehaus.jackson | ジャクソンコアASL | 1.9.13 |
| org.codehaus.jackson | ジャクソン・マッパー・ASL | 1.9.13 |
| org.codehaus.janino | コモンズコンパイラー | 3.0.16 |
| org.codehaus.janino | ジャニーノ (janino) | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | データニュクレウス-RDBMS | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.46.v20220331 |
| org.eclipse.jetty | ジェッティ・コンティニュエーション | 9.4.46.v20220331 |
| org.eclipse.jetty | ジェッティ-HTTP | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-io | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-jndi(ジェッティ-JNDI) | 9.4.46.v20220331 |
| org.eclipse.jetty | ジェッティプラス | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-proxy (ジェッティプロキシ) | 9.4.46.v20220331 |
| org.eclipse.jetty | ジェッティ・セキュリティ | 9.4.46.v20220331 |
| org.eclipse.jetty | ジェッティ・サーバー | 9.4.46.v20220331 |
| org.eclipse.jetty | ジェッティ-サーブレット | 9.4.46.v20220331 |
| org.eclipse.jetty | ジェッティ・サーブレット (jetty-servlets) | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-util (ジェッティユーティル) | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-util-ajax (ジェティ・ユーティル・エイジャックス) | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-webapp(ジェッティ・ウェブアプリ) | 9.4.46.v20220331 |
| org.eclipse.jetty | jetty-xml | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | ウェブソケットAPI | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-client (ウェブソケット・クライアント) | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | ウェブソケット-コモン | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | ウェブソケットサーバー | 9.4.46.v20220331 |
| org.eclipse.jetty.websocket | websocket-サーブレット | 9.4.46.v20220331 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2ユーティリティー | 2.6.1 |
| org.glassfish.hk2 | OSGiリソースロケーター | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | jersey-container-サーブレット | 2.36 |
| org.glassfish.jersey.containers | jersey-container-サーブレット-コア | 2.36 |
| org.glassfish.jersey.core | jersey-client | 2.36 |
| org.glassfish.jersey.core | ジャージーコモン | 2.36 |
| org.glassfish.jersey.core | jersey-server | 2.36 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
| org.hibernate.validator | hibernate-validator (ハイバーネイト検証ツール) | 6.1.0.Final |
| org.javassist | javassist(ジャバアシスト) | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | 注釈 | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mariadb.jdbc | mariadb-java-client(MariaDB用Javaクライアント) | 2.7.4 |
| org.mlflow | mlflow-spark | 1.27.0 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.3.3 |
| org.roaringbitmap | RoaringBitmap | 0.9.25 |
| org.roaringbitmap | シム | 0.9.25 |
| org.rocksdb | rocksdbjni | 6.24.2 |
| org.rosuda.REngine | REngine(アールエンジン) | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.14 |
| org.scala-lang | scala-library_2.12 | 2.12.14 |
| org.scala-lang | scala-reflect_2.12 | 2.12.14 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | テストインターフェイス | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | breeze-macros_2.12 | 1.2 |
| org.scalanlp | breeze_2.12 | 1.2 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-over-slf4j | 1.7.36 |
| org.slf4j | jul-to-slf4j | 1.7.36 |
| org.slf4j | slf4j-api | 1.7.36 |
| org.spark-project.spark | 未使用 | 1.0.0 |
| org.threeten | threeten-extra(スリー・テン・エクストラ) | 1.5.0 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | macro-compat_2.12 | 1.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | スパイア-プラットフォーム_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | ワイルドフライ-オープンSSL | 1.0.7.Final |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.8.4 |
| org.yaml | snakeyaml(スネークヤムル) | 1.24 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays (ジェイラージアレイ) | 1.5 |
| software.amazon.ion | ion-java | 1.0.2 |
| スタックス | stax-api | 1.0.1 |