Udostępnij przez


Databricks Runtime 15.1 (EoS)

Uwaga

Obsługa tej wersji środowiska Databricks Runtime została zakończona. Aby uzyskać datę zakończenia pomocy technicznej, zobacz Historia zakończenia pomocy technicznej. Wszystkie obsługiwane wersje środowiska Databricks Runtime można znaleźć w temacie Databricks Runtime release notes versions and compatibility (Wersje i zgodność środowiska Databricks Runtime).

Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 15.1 obsługiwanym przez platformę Apache Spark 3.5.0.

Usługa Databricks wydała tę wersję w kwietniu 2024 r.

Zmiany powodujące niezgodność

Obsługa usług Databricks Runtime 15.0 i Databricks Runtime 15.0 dla usługi Machine Learning kończy się 31 maja 2024 r., ponieważ uaktualnienie biblioteki pandas z wersji 1.5.3 do 2.0.3 w wersji 15.0 spowodowało niezgodną zmianę w wielu interfejsach API platformy Apache Spark. Aby uzyskać szczegółowe informacje na temat zmian powodujących niezgodność, zobacz Biblioteka języka Python biblioteki pandas została obniżona do wersji 1.5.3. Aby rozwiązać ten problem z niezgodnością, usługa Databricks wydała środowisko Databricks Runtime 15.1 i środowisko Databricks Runtime 15.1 dla usługi Machine Learning. Funkcje obsługiwane przez te wersje są takie same jak wersje 15.0, ale z wersją biblioteki pandas obniżoną do wersji 1.5.3.

Wszystkie istniejące klastry lub zadania korzystające z wersji środowiska Databricks Runtime 15.0 będą nadal działać, ale nie będą otrzymywać aktualizacji produktów ani zabezpieczeń. W interfejsie użytkownika usługi Databricks Runtime 15.0 lub Databricks Runtime 15.0 ML nie można już skonfigurować nowych zasobów obliczeniowych, które używają środowiska Databricks Runtime 15.0 ML. Jeśli nie używasz funkcji lub interfejsów API, które wymagają biblioteki pandas 2.0 lub nowszej, usługa Databricks zaleca przełączenie tych obciążeń na środowisko Databricks Runtime 15.1.

Jeśli używasz funkcji lub interfejsów API dostępnych tylko w bibliotece pandas 2.0 lub nowszej i nie korzystasz z żadnych funkcji, których dotyczy ta wersja, usługa Databricks zaleca przełączenie do środowiska Databricks Runtime 15.1 i uaktualnienie domyślnego pakietu pandas przy użyciu bibliotek klastra lub bibliotek o zakresie notesu. Aby na przykład uaktualnić bibliotekę pandas w notesie usługi Databricks, użyj następującego polecenia:

%pip install pandas==2.0.3

Biblioteka języka Python biblioteki pandas została obniżona do wersji 1.5.3

W tej wersji biblioteka pandas została obniżona z wersji 2.0.3 do 1.5.3. Ta obniżenie poziomu była wymagana, ponieważ niezgodności w wersji 2.0.3 biblioteki pandas spowodowały błędy w niektórych interfejsach API biblioteki pandas w funkcjach platformy Spark. Poniżej wymieniono funkcje, których dotyczy wersja 2.0.3 biblioteki pandas:

  • pyspark.date_range: Brak parametru closed , powodując błędy, gdy ta funkcja jest wywoływana przez istniejący kod.
  • Funkcjonalność GroupBy z kolumnami MultiIndex jest zmieniana, co powoduje nieoczekiwane zachowanie.
  • Niektóre datetime atrybuty DatetimeIndex (na przykład day, month, yeari tak dalej) zwracają int32 typy danych zamiast int64 typów danych.

Funkcja PySpark spark.sql() kończy się teraz niepowodzeniem dla nieprawidłowych typów argumentów

W środowisku Databricks Runtime 15.1 lub nowszym parametr args dla parametrów nazwanych lub pozycyjnych przekazywanych do funkcji spark.sql() musi być słownikiem lub listą. Jeśli zostanie przekazany jakikolwiek inny typ obiektu, zostanie zgłoszony następujący błąd: PySparkTypeError: [INVALID_TYPE] Argument `args` should not be a <arg_type>.

Przechowywanie bibliotek w katalogu głównym systemu plików DBFS jest domyślnie przestarzałe i wyłączone

Aby zwiększyć bezpieczeństwo bibliotek w obszarze roboczym usługi Azure Databricks, przechowywanie plików bibliotek w katalogu głównym systemu plików DBFS jest domyślnie przestarzałe i wyłączone, począwszy od środowiska Databricks Runtime 15.1. Usługa Databricks zaleca przekazywanie wszystkich zestawów, w tym bibliotek języka Python, plików JAR i łączników platformy Spark, do plików obszaru roboczego, woluminów katalogu Unity lub przy użyciu repozytorium pakietów. Zobacz Zalecenia dotyczące przekazywania bibliotek.

Aby ponownie włączyć przechowywanie bibliotek w katalogu głównym systemu plików DBFS, ustaw następujący parametr konfiguracji platformy Spark: spark.databricks.driver.dbfsLibraryInstallationAllowed true.

Domyślna wersja języka Python jest uaktualniana z wersji 3.10 do wersji 3.11

W przypadku środowiska Databricks Runtime 15.1 domyślna wersja języka Python to 3.11.0. Aby uzyskać listę uaktualnionych bibliotek języka Python, zobacz Uaktualnienia biblioteki.

Usunięto JDK 11

Jak wcześniej ogłoszono, zestaw JDK 11 zostanie usunięty z środowiska Databricks Runtime 15.1 lub nowszego. Usługa Databricks zaleca uaktualnienie do zestawu JDK 17 podczas uaktualniania do środowiska Databricks Runtime 15.1 lub nowszego. Zobacz Zestaw SDK usługi Databricks dla języka Java.

Środowisko REPL języka Python kończy się teraz bezpiecznie

W środowisku Databricks Runtime 15.1 proces REPL notesu kończy się teraz bezpiecznie po zakończeniu pracy. Powoduje to, że wszelkie haki atexit być honorowane. Na przykład w przepływie pracy z wieloma zadaniami notesu języka Python elementy atexit hooks zarejestrowane w pierwszym wykonaniu zadania podrzędnego przed uruchomieniem drugiego zadania notesu języka Python.

Nowe funkcje i ulepszenia

Klauzula * (gwiazdki) jest teraz obsługiwana w klauzuli WHERE

Teraz możesz użyć klauzuli star (*) w klauzuli WHERE, aby odwołać się do wszystkich kolumn z listy SELECT. Na przykład SELECT * FROM VALUES(1, 2) AS T(a1, a2) WHERE 1 IN(T.*).

Konfiguracja spark.sql.json.enablePartialResults jest teraz domyślnie włączona

Konfiguracja spark.sql.json.enablePartialResults platformy Spark jest teraz domyślnie włączona, umożliwiając analizatorowi JSON poprawne obsługę błędów analizowania dla typów złożonych, takich jak struktura, mapa i tablica, bez porzucania pozostałych pól. Ta zmiana rozwiązuje problem ze spójnością źródeł danych JSON przy użyciu oczyszczania kolumn.

Biblioteki klastra obsługują teraz pliki requirements.txt

Biblioteki klastra można teraz zainstalować za pomocą pliku requirements.txt przechowywanego w pliku obszaru roboczego lub woluminie Unity Catalog. W klastrach dedykowanego i standardowego trybu dostępu, plik może odwoływać się do innych plików. W przypadku klastrów trybu dostępu współdzielonego bez izolacji obsługiwane są tylko pakiety PyPI. Zobacz Biblioteki o zakresie obliczeniowym.

Interfejs wiersza polecenia usługi Databricks jest teraz dostępny w terminalu internetowym

Teraz możesz użyć interfejsu wiersza polecenia usługi Databricks z poziomu terminalu internetowego w notesie. Notatnik musi być przypisany do klastra w trybie dedykowanym lub bez izolacji współdzielonego dostępu. Aby uzyskać szczegółowe informacje, zobacz Używanie terminalu internetowego i interfejsu wiersza polecenia usługi Databricks.

Dodawanie domyślnych repozytoriów języka Python do konfiguracji klastra

W środowisku Databricks Runtime 15.1 lub nowszym można skonfigurować globalne parametry pip index-url i extra-index-url dla instalacji bibliotek w klastrze i notesie podczas konfigurowania klastra lub ustalania zasad dotyczących klastra. W tym celu ustaw zmienne środowiskowe DATABRICKS_PIP_INDEX_URL i DATABRICKS_PIP_EXTRA_INDEX_URL.

Terminal sieci Web dostępny w klastrach standardowych

W środowisku Databricks Runtime 15.1 lub nowszym możesz używać terminalu webowego w klastrach z trybem dostępu Standard.

Przekazywanie poświadczeń i kontrole dostępu do tabel w magazynie metadanych systemu Hive są przestarzałe.

przekazywanie poświadczeń i kontrole dostępu do tabel magazynu metadanych Hive są starszymi modelami nadzoru nad danymi. Uaktualnij do Unity Catalog, aby uprościć zabezpieczenia i zarządzanie danymi, zapewniając centralne miejsce do administrowania i audytu dostępu do danych w wielu obszarach roboczych w twoim koncie. Zobacz Co to jest Unity Catalog?.

Obsługa przekazywania poświadczeń i kontroli dostępu do tabel magazynu metadanych Hive zostanie usunięta w nadchodzącej wersji DBR.

Uaktualnienia biblioteki

  • Uaktualnione biblioteki języka Python:
    • od 22.6.0 do 23.3.0
    • boto3 z 1.24.28 do 1.34.39
    • botocore z wersji 1.27.96 do 1.34.39
    • certifi od 2022.12.7 do 2023.7.22
    • Kryptografia z wersji 39.0.1 do 41.0.3
    • databricks-sdk z wersji 0.1.6 do 0.20.0
    • distlib z 0.3.7 do 0.3.8
    • googleapis-common-protos z 1.62.0 do 1.63.0
    • grpcio z 1.48.2 do 1.60.0
    • stan grpcio z 1.48.1 do 1.60.0
    • importlib-metadata z wersji 4.6.4 do 6.0.0
    • ipykernel z 6.25.0 do 6.25.1
    • ipython z 8.14.0 do 8.15.0
    • ipywidgets z 7.7.2 do 8.0.4
    • jupyter_core z wersji 5.2.0 do 5.3.0
    • jupyterlab-widgets z wersji 1.0.0 do 3.0.5
    • matplotlib z wersji 3.7.0 do 3.7.2
    • z 22.3.1 do 23.2.1
    • platformdirs z wersji 2.5.2 do 3.10.0
    • protobuf z 4.24.0 do 4.24.1
    • pyarrow z 8.0.0 do 14.0.1
    • Pygments z 2.11.2 do 2.15.1
    • pyodbc z wersji 4.0.32 do 4.0.38
    • żądania z wersji 2.28.1 do 2.31.0
    • s3transfer z 0.6.2 do 0.10.0
    • scikit-learn z wersji 1.1.1 do 1.3.0
    • scipy z 1.10.0 do 1.11.1
    • setuptools z 65.6.3 do 68.0.0
    • statsmodels z 0.13.5 do 0.14.0
    • wytrwałość z zakresu od 8.1.0 do 8.2.2
    • tornado z 6.1 do 6.3.2
    • typing_extensions z wersji 4.4.0 do 4.7.1
    • urllib3 z 1.26.14 do 1.26.16
    • virtualenv z wersji 20.16.7 do 20.24.2
    • widgetsnbextension z 3.6.1 do 4.0.5
    • zipp z 1.0.0 do 3.11.0
  • Uaktualnione biblioteki języka R:
    • strzałka z 12.0.1 do 14.0.0.2
    • askpass z 1.1 do 1.2.0
    • od 4.3.1 do 4.3.2
    • warzenie od 1.0-8 do 1.0-10
    • brio z 1.1.3 do 1.1.4
    • bslib z 0.5.0 do 0.6.1
    • interfejs wiersza polecenia z wersji 3.6.1 do 3.6.2
    • commonmark od 1.9.0 do 1.9.1
    • kompilator z wersji 4.3.1 do 4.3.2
    • konfiguracja z wersji 0.3.1 do 0.3.2
    • cpp11 z 0.4.4 do 0.4.7
    • poświadczenia z wersji 1.3.2 do 2.0.1
    • curl z 5.0.1 do 5.2.0
    • aktualizacja data.table z wersji 1.14.8 do 1.15.0
    • zestawy danych z wersji 4.3.1 do 4.3.2
    • DbI z wersji 1.1.3 do 1.2.1
    • dbplyr z wersji 2.3.3 do 2.4.0
    • desc z 1.4.2 do 1.4.3
    • skrót z 0.6.33 do 0.6.34
    • dplyr z wersji 1.1.2 do 1.1.4
    • e1071 z 1.7-13 do 1.7-14
    • ocena z zakresu od 0,21 do 0,23
    • fani od 1.0.4 do 1.0.6
    • fontawesome z 0.5.1 do 0.5.2
    • fs z 1.6.2 do 1.6.3
    • przyszłość z wersji 1.33.0 do 1.33.1
    • future.apply z wersji 1.11.0 do 1.11.1
    • gargle z 1.5.1 do 1.5.2
    • gert z 1.9.2 do 2.0.1
    • ggplot2 z wersji 3.4.2 do 3.4.4
    • glmnet z 4.1-7 do 4.1-8
    • klej z 1.6.2 do 1.7.0
    • grafika z wersji 4.3.1 do 4.3.2
    • grDevices z wersji 4.3.1 do 4.3.2
    • siatka z 4.3.1 do 4.3.2
    • z wersji 0.3.3 do 0.3.4
    • hardhat z 1.3.0 do 1.3.1
    • przystanek od 2.5.3 do 2.5.4
    • htmltools z 0.5.5 do 0.5.7
    • htmlwidgets z wersji 1.6.2 do 1.6.4
    • httpuv z wersji 1.6.11 do 1.6.14
    • httr z 1.4.6 do 1.4.7
    • httr2 z 0.2.3 do 1.0.0
    • jsonlite z wersji 1.8.7 do 1.8.8
    • knitr z 1.43 do 1.45
    • etykietowanie z wersji 0.4.2 do 0.4.3
    • nowsze z wersji 1.3.1 do 1.3.2
    • lawa z 1.7.2.1 do 1.7.3
    • cykl życia od 1.0.3 do 1.0.4
    • od 0.9.0 do 0.9.1
    • lubridate from 1.9.2 to 1.9.3 (lubridate from 1.9.2 to 1.9.3)
    • markdown od 1.7 do 1.12
    • metody z wersji 4.3.1 do 4.3.2
    • openssl z 2.0.6 do 2.1.1
    • równoległe z wersji 4.3.1 do 4.3.2
    • pkgbuild z 1.4.2 do 1.4.3
    • pkgload z wersji 1.3.2.1 do 1.3.4
    • plyr od 1.8.8 do 1.8.9
    • prettyunits z 1.1.1 do 1.2.0
    • pROC z 1.18.4 do 1.18.5
    • processx z wersji 3.8.2 do 3.8.3
    • prodlim od 2023.03.31 do 2023.08.28
    • postęp z wersji 1.2.2 do 1.2.3
    • progressr z 0.13.0 do 0.14.0
    • obietnice z 1.2.0.1 do 1.2.1
    • ps z 1.7.5 do 1.7.6
    • purrr z wersji 1.0.1 do 1.0.2
    • ragg z 1.2.5 do 1.2.7
    • Program Rcpp z wersji 1.0.11 do 1.0.12
    • RcppEigen z 0.3.3.9.3 do 0.3.3.9.4
    • readr z wersji 2.1.4 do 2.1.5
    • przepisy od 1.0.6 do 1.0.9
    • rewanż z 1.0.1 do 2.0.0
    • zdalne z wersji 2.4.2 do 2.4.2.1
    • reprex z 2.0.2 do 2.1.0
    • rlang z wersji 1.1.1 do 1.1.3
    • rmarkdown z 2.23 do 2.25
    • RODBC od 1.3-20 do 1.3-23
    • roxygen2 z 7.2.3 do 7.3.1
    • rprojroot z wersji 2.0.3 do 2.0.4
    • Rserve z 1.8-11 do 1.8-13
    • RSQLite z wersji 2.3.1 do 2.3.5
    • sygnatury dostępu współdzielonego z wersji 0.4.6 do 0.4.8
    • skaluje z wersji 1.2.1 do 1.3.0
    • błyszczące z wersji 1.7.4.1 do 1.8.0
    • sparklyr z 1.8.1 do 1.8.4
    • linie od 4.3.1 do 4.3.2
    • statystyki z 4.3.1 do 4.3.2
    • stats4 z 4.3.1 do 4.3.2
    • stringi z wersji 1.7.12 do 1.8.3
    • stringr z wersji 1.5.0 do 1.5.1
    • systemfonts z 1.0.4 do 1.0.5
    • tcltk z wersji 4.3.1 do 4.3.2
    • testthat z 3.1.10 do 3.2.1
    • textshaping z 0.3.6 do 0.3.7
    • od 1.3.0 do 1.3.1
    • timechange z 0.2.0 do 0.3.0
    • timeDate z 4022.108 do 4032.109
    • tinytex z 0.45 do 0.49
    • narzędzia z wersji 4.3.1 do 4.3.2
    • utf8 z wersji 1.2.3 do 1.2.4
    • Narzędzia z wersji 4.3.1 do 4.3.2
    • uuid z 1.1-0 do 1.2-0
    • vctrs z 0.6.3 do 0.6.5
    • vroom od 1.6.3 do 1.6.5
    • waldo od 0.5.1 do 0.5.2
    • withr z 2.5.0 do 3.0.0
    • xfun od 0.39 do 0.41
    • xml2 z 1.3.5 do 1.3.6
    • yaml z wersji 2.3.7 do 2.3.8
    • zip z wersji 2.3.0 do 2.3.1
  • Uaktualnione biblioteki Java:
    • com.fasterxml.jackson.datatype.jackson-datatype-jsr310 z wersji 2.15.1 do 2.16.0
    • com.google.flatbuffers.flatbuffers-java z wersji 1.12.0 do 23.5.26
    • com.typesafe.config z wersji 1.2.1 do 1.4.3
    • org.apache.ant.ant od 1.9.16 do 1.10.11
    • org.apache.ant.ant-jsch z wersji 1.9.16 do 1.10.11
    • org.apache.ant.ant-launcher z wersji 1.9.16 do 1.10.11
    • org.apache.arrow.arrow-format z zakresu od 12.0.1 do 15.0.0
    • org.apache.arrow.arrow-memory-core z 12.0.1 do 15.0.0
    • org.apache.arrow.arrow-memory-netty od 12.0.1 do 15.0.0
    • org.apache.arrow.arrow-vector z 12.0.1 do 15.0.0
    • org.apache.avro.avro z wersji 1.11.2 do 1.11.3
    • org.apache.avro.avro-ipc z wersji 1.11.2 do 1.11.3
    • org.apache.avro.avro-mapred z wersji 1.11.2 do 1.11.3
    • org.apache.logging.log4j.log4j-1.2-api z wersji 2.20.0 do 2.22.1
    • org.apache.logging.log4j.log4j-api z wersji 2.20.0 do 2.22.1
    • org.apache.logging.log4j.log4j-core z wersji 2.20.0 do 2.22.1
    • org.apache.logging.log4j.log4j-slf4j2-impl z wersji 2.20.0 do 2.22.1
    • org.postgresql.postgresql z 42.6.0 do 42.6.1

Apache Spark

Środowisko Databricks Runtime 15.1 obejmuje platformę Apache Spark 3.5.0. Ta wersja zawiera wszystkie poprawki i ulepszenia platformy Spark zawarte w środowisku Databricks Runtime 14.3 LTS, a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:

  • [SPARK-45527] [DBRRM-805][es-1073714] Cofnij “[SC-151626][core] Użyj ułamka do obliczeń zasobów”
  • [SPARK-47102] [DBRRM-803][sc-158253][SQL] Dodawanie COLLATION_ENABLED flagi konfiguracji
  • [SPARK-46973] [SC-158140][dbrrm-777][SQL] Pomiń wyszukiwanie tabeli w wersji 2, gdy tabela znajduje się w pamięci podręcznej tabeli w wersji 1
  • [SPARK-46808] [ SC-154113][python] Uściślij klasy błędów w języku Python za pomocą funkcji automatycznego sortowania
  • [SPARK-47251] [SC-158291][python] Blokuj nieprawidłowe typy z argumentu args polecenia sql
  • [SPARK-47251] [SC-158121][python] Blokuj nieprawidłowe typy z argumentu args polecenia sql
  • [c0][SPARK-47108] [SC-157204][core] Ustaw jawnie na derby.connection.requireAuthentication w interfejsach wiersza poleceń
  • [SPARK-45599] [SC-157537][core] Użycie równości obiektów w OpenHashSet
  • [SPARK-47099] [ SC-157352][sql] Użyj ordinalNumber , aby równomiernie ustawić wartość paramIndex dla klasy błędów UNEXPECTED_INPUT_TYPE
  • [SPARK-46558] [SC-151363][connect] Wyodrębnij funkcję pomocniczą, aby wyeliminować zduplikowany kod, który pobiera MessageParameters z ErrorParams w GrpcExceptionConverter
  • [SPARK-43117] [ SC-156177][connect] Umożliwić ProtoUtils.abbreviate obsługę dla powtarzających się pól
  • [SPARK-46342] [SC-150283][sql] Zastąp IllegalStateException przez SparkException.internalError w SQL
  • [SPARK-47123] [SC-157412][core] JDBCRDD nieprawidłowo przetwarza błędy w getQueryOutputSchema
  • [SPARK-47189] [SC-157667][sql] Dostosowywanie nazw błędów kolumn i tekstu
  • [SPARK-45789] [SC-157101][sql] Obsługa DESCRIBE TABLE kolumn klastrowania
  • [SPARK-43256] [SC-157699][sql] Usuwanie klasy błędów _LEGACY_ERROR_TEMP_2021
  • [SPARK-47201] [SC-157782][python][CONNECT] sameSemantics sprawdza typy danych wejściowych
  • [SPARK-47183] [ SC-157660][python] Poprawka klasy błędu dla sameSemantics
  • [SPARK-47179] [SC-157663][sql] Ulepszanie komunikatu o błędzie z aplikacji SparkThrowableSuite w celu uzyskania lepszej możliwości debugowania
  • [SPARK-46965] [SC-155791][core] Sprawdź logType w Utils.getLog
  • [SPARK-46832] [SC-156774][sql] Wprowadzenie wyrażeń klasyfikacji i porządkowania
  • [SPARK-46946] [SC-155721][sql] Obsługa przesyłu wielu kluczy filtrowania w dynamicznym przycinaniu
  • [SPARK-47079] [VARIANT-22 ][sc-157598][PYTHON][sql][CONNECT] Dodawanie informacji o typie wariantu do PySpark
  • [SPARK-47101] [SC-157360][sql] Zezwalaj na używanie przecinka w nazwach kolumn najwyższego poziomu i usuń sprawdzanie zagnieżdżonych definicji typów w HiveExternalCatalog.verifyDataSchema
  • [SPARK-47173] [SC-157571][ss][UI] Poprawka literówki w objaśnieniach interfejsu użytkownika przesyłania strumieniowego
  • [SPARK-47113] [SC-157348][core] Przywracanie logiki naprawy punktu końcowego S3A platformy SPARK-35878
  • [SPARK-47130] [SC-157462][core] Użyj metody listStatus, aby pominąć informacje o lokalizacji bloku podczas czyszczenia logów sterownika
  • [SPARK-43259] [ SC-157368][sql] Przypisz nazwę do klasy błędów _LEGACY_ERROR_TEMP_2024
  • [SPARK-47104] [ SC-157355][sql] TakeOrderedAndProjectExec powinien zainicjować niebezpieczną projekcję
  • [SPARK-47137] [SC-157463][python][CONNECT] Dodaj getAll do spark.conf, aby osiągnąć zgodność funkcji ze Scalą
  • [SPARK-46924] [ SC-154905][core] Napraw przycisk Load New w interfejsie użytkownika Master/HistoryServer logów
  • [SPARK-47069] [ SC-157370][python][CONNECT] Wprowadzenie spark.profile.show/dump do profilowania opartego na platformie SparkSession
  • [SPARK-46812] [SC-157075][sql][PYTHON] Zadbać, aby mapInPandas / mapInArrow wspierały ResourceProfile
  • [SPARK-46833] [SC-155866][sql] — Wprowadzenie do funkcji CollationFactory, która zapewnia zasady porównania i reguły tworzenia skrótów dla obsługiwanych kolacji
  • [SPARK-47057] [SC-157036][python] Ponowne włączenie testu danych MyPy
  • [SPARK-46934] [SC-157084][sql] Pełny proces odczytu i zapisu dla typu struktury ze znakami specjalnymi przy użyciu HMS
  • [SPARK-46727] [ SC-153472][sql] Port classifyException() w dialektach JDBC w klasach błędów
  • [SPARK-46964] [ SC-155740][sql] Zmień sygnaturę błędu wykonywania zapytania hllInvalidLgK, aby podjąć liczbę całkowitą jako 4. argument
  • [SPARK-46949] [SC-155719][sql] Wsparcie dla CHAR/VARCHAR za pomocą ResolveDefaultColumns
  • [SPARK-46972] [SC-155888][sql] Naprawa asymetrycznego zastąpienia char/varchar w V2SessionCatalog.createTable
  • [SPARK-47014] [SC-156778][python][CONNECT] Zaimplementuj metody dumpPerfProfiles i dumpMemoryProfiles dla SparkSession
  • [SPARK-46689] [SC-156221][spark-46690][PYTHON][connect] Obsługa profilowania w wersji 2 w grupie/cogroup applyInPandas/applyInArrow
  • [SPARK-47040] [SC-156773][connect] Umożliwienie oczekiwania skryptu serwera Spark Connect
  • [SPARK-46688] [SC-156113][spark-46691][PYTHON][connect] Obsługa profilowania w wersji 2 w agregacji zdefiniowanych przez użytkownika biblioteki Pandas
  • [SPARK-47004] [SC-156499][connect] Dodano więcej testów do ClientStreamingQuerySuite, aby zwiększyć pokrycie testowe klienta Scala
  • [SPARK-46994] [SC-156169][python] Refaktoryzacja komponentu PythonWrite w celu przygotowania go dla obsługi strumieniowego zapisu źródła danych w Pythonie
  • [SPARK-46979] [SC-156587][ss] Dodaj obsługę określania enkodera klucza i wartości oddzielnie oraz dla każdej rodziny kolumn w dostawcy pamięci stanu RocksDB
  • [SPARK-46960] [ SC-155940][ss] Testowanie wielu strumieni wejściowych za pomocą operatora TransformWithState
  • [SPARK-46966] [SC-156112][python] Dodaj interfejs API UDTF dla metody "analyze", aby wskazać podzbiór kolumn z tabeli wejściowej do wyboru
  • [SPARK-46895] [SC-155950][core] Zastąp Timer jednowątkowym planowanym wykonawcą
  • [SPARK-46967] [SC-155815][core][UI] Ukryj Thread Dump i Heap Histogram funkcje Dead wykonawcze w interfejsie Executors użytkownika
  • [SPARK-46512] [ SC-155826][core] Optymalizacja odczytu przydzielania, gdy sortowanie i kombinowanie są używane jednocześnie.
  • [SPARK-46958] [SC-155942][sql] Dodaj brakującą strefę czasową do wymuszania wartości domyślnych
  • [SPARK-46754] [SC-153830][sql][AVRO] Naprawianie rozpoznawania kodu kompresji w definicjach tabeli avro i opcjach zapisu
  • [SPARK-46728] [SC-154207][python] Sprawdź prawidłową instalację biblioteki Pandas
  • [SPARK-43403] [ SC-154216][ui] Upewnij się, że stary interfejs SparkUI na serwerze HistoryServer został odłączony przed załadowaniem nowego
  • [SPARK-39910] [ SC-156203][sql] Delegowanie kwalifikacji ścieżki do systemu plików podczas tworzenia globbingu ścieżki pliku źródła danych
  • [SPARK-47000] [SC-156123] Cofnij “[SC-156123][core] Użyj getTotalMemorySize...
  • [SPARK-46819] [SC-154560][core] Przenoszenie kategorii błędów i stanów do formatu JSON
  • [SPARK-46997] [ SC-156175][core] Włącz spark.worker.cleanup.enabled domyślnie
  • [SPARK-46865] [SC-156168][ss] Dodaj obsługę partii dla operatora TransformWithState
  • [SPARK-46987] [SC-156040][connect] ProtoUtils.abbreviate unikaj niepotrzebnej setField operacji
  • [SPARK-46970] [SC-155816][core] Zapisz ponownie OpenHashSet#hasher za pomocą pattern matching
  • [SPARK-46984] [SC-156024][python] Usuń pyspark.copy_func
  • [SPARK-47000] [ SC-156123][core] Użyj getTotalMemorySize w WorkerArguments
  • [SPARK-46980] [SC-155914][sql][MINOR] Unikaj używania wewnętrznych interfejsów API w testach kompleksowych dataframe'ów
  • [SPARK-46931] Przywróć "[SC-155661][ps] Implement {Frame, Series}.to_hdf"
  • [SPARK-46618] [ SC-153828][sql] Ulepszanie komunikatów o błędach dla błędu DATA_SOURCE_NOT_FOUND
  • [SPARK-46849] [SC-154586][sql] Uruchamianie optymalizatora dla CREATE TABLE wartości domyślnych kolumn
  • [SPARK-46911] [SC-155724][ss] Dodawanie operatora deleteIfExists do klasy StatefulProcessorHandleImpl
  • [SPARK-43273] [SQL] Obsługa lz4raw kodera kompresji dla parquet
  • [SPARK-47002] [ SC-156223][python] Zwróć lepszy komunikat o błędzie, jeśli pole 'orderBy' metody 'analyze' przypadkowo zwraca listę ciągów znaków
  • [SPARK-46890] [SC-155802][sql] Naprawiono usterkę analizowania plików CSV z wartościami domyślnymi i przycinaniem kolumn
  • [SPARK-46977] [SC-155892][core] Nieudane żądanie uzyskania tokenu z jednego węzła NameNode nie powinno pomijać kolejnych żądań tokenu
  • [SPARK-46608] [SC-151806][sql] Przywróć zgodność z poprzednimi wersjami JdbcDialect.classifyException
  • [SPARK-46908] [SC-155702][sql] Obsługa klauzuli gwiazdki w klauzuli WHERE
  • [SPARK-46908] [SC-155702][sql] Obsługa klauzuli gwiazdki w klauzuli WHERE
  • [SPARK-46852] [ SC-155665][ss] Usuń użycie kodera klucza jawnego i przekaż go niejawnie do transformWithState operatora.
  • [SPARK-46864] [SC-155669][ss] Dołączanie dowolnego stanuV2 do nowej struktury klas błędów
  • [SPARK-45807] [SC-155706][sql] Return View after calling replaceView(.)
  • [SPARK-46899] [SC-154651][core] Usuwanie POST interfejsów API z MasterWebUI gdy spark.ui.killEnabled jest false
  • [SPARK-46868] [SC-154539][core] Obsługa interfejsu użytkownika dziennika pracownika Spark
  • [SPARK-46931] [SC-155661][ps] Zaimplementuj {Frame, Series}.to_hdf
  • [SPARK-46940] [ SC-155667][core] Usuń nieużywane updateSparkConfigFromProperties i isAbsoluteURI w o.a.s.u.Utils
  • [SPARK-46929] [SC-155659][core][CONNECT][ss] Użyj narzędzia ThreadUtils.shutdown, aby zamknąć pule wątków
  • [SPARK-46400] [ SC-155658][core][SQL] Gdy w lokalnym repozytorium maven są uszkodzone pliki, pomiń tę pamięć podręczną i spróbuj ponownie
  • [SPARK-46932] [SC-155655] Czyszczenie importu w programie pyspark.pandas.test_*
  • [SPARK-46683] [SC-154120] Pisanie generatora podzapytania, który generuje permutacje podzapytania w celu zwiększenia pokrycia testowania
  • [SPARK-46914] [ SC-154776][ui] Skróć nazwę aplikacji w tabeli podsumowania na stronie historii
  • [SPARK-46831] [ SC-154699][sql] — rozszerzanie typów StringType i PhysicalStringType o pole collationId
  • pl-PL: [SPARK-46816] [SC-154415][ss] Dodanie podstawowej obsługi nowego dowolnego operatora zarządzania stanem, pojedynczego typu valueState, wielu zmiennych stanu oraz podstawowej obsługi rodzin kolumn dla RocksDBStateStoreProvider z/bez punktów kontrolnych dziennika zmian
  • [SPARK-46925] [ SC-154890][python][CONNECT] Dodaj ostrzeżenie informujące o zainstalowaniu memory_profiler na potrzeby profilowania pamięci
  • [SPARK-46927] [SC-154904][python] Wykonaj assertDataFrameEqual prawidłowe działanie bez PyArrow
  • [SPARK-46021] [SC-148987][core] Obsługa anulowania zadań w przyszłości należących do grupy zadań
  • [SPARK-46747] [SC-154789][sql] Unikaj skanowania w getTableExistsQuery dla dialektów JDBC
  • [SPARK-46904] [SC-154704][ui] Naprawiono problem z wyświetlaniem podsumowania w interfejsie użytkownika historii
  • [SPARK-46870] [SC-154541][core] Obsługa interfejsu użytkownika dziennika Master platformy Spark
  • [SPARK-46893] [SC-154780][ui] Usuwanie skryptów wbudowanych z opisów interfejsu użytkownika
  • [SPARK-46910] [ SC-154760][python] Eliminowanie wymagania zestawu JDK w instalacji PySpark
  • [SPARK-46907] [ SC-154736][core] Pokaż lokalizację dziennika sterowników na serwerze historii platformy Spark
  • [SPARK-46902] [SC-154661][ui] Naprawa interfejsu użytkownika Spark History Server w celu użycia nieeksportowanego setAppLimit
  • [SPARK-46687] [ SC-154725][python][CONNECT] Podstawowa obsługa profilera pamięci opartego na usłudze SparkSession
  • [SPARK-46623] [ SC-153831][core][MLLIB][sql] Zamień simpleDateFormat na DateTimeFormatter
  • [SPARK-46875] [ SC-154627][sql] Gdy parametr mode ma wartość null, NullPointException element powinien not zostać zgłoszony
  • [SPARK-46872] [SC-154543][core] Przywrócenie log-view.js do stanu niemodułowego
  • [SPARK-46883] [SC-154629][core] Obsługa /json/clusterutilization API
  • [SPARK-46886] [SC-154630][core] Włącz spark.ui.prometheus.enabled domyślnie
  • [SPARK-46873] [SC-154638][ss] Nie odtwarzaj nowego obiektu StreamingQueryManager dla tej samej sesji Spark
  • [SPARK-46829] [SC-154419][core] Usuń element createExecutorEnv z platformy SparkEnv
  • [SPARK-46827] [ SC-154280][core] Dostosuj RocksDBPersistenceEngine, aby obsługiwało łącze symboliczne
  • [SPARK-46903] [SC-154662][core] Obsługa interfejsu użytkownika dziennika serwera historii platformy Spark
  • [SPARK-46874] [SC-154646][python] Usuwanie pyspark.pandas zależności z assertDataFrameEqual
  • [SPARK-46889] [SC-154639][core] Sprawdzanie poprawności spark.master.ui.decommission.allow.mode ustawienia
  • [SPARK-46850] [SC-154443][sql] Convert _LEGACY_ERROR_TEMP_2102 to UNSUPPORTED_DATATYPE
  • [SPARK-46704] [SC-153323][core][UI] Poprawka MasterPage w celu poprawnego sortowania Running Drivers tabeli według Duration kolumny
  • [SPARK-46796] [ SC-154279][ss] Upewnij się, że prawidłowe pliki zdalne (wymienione w metadata.zip) są używane w obciążeniu wersji bazy danych RocksDB
  • [SPARK-46888] [SC-154636][core] Poprawka Master w celu odrzucenia /workers/kill/ żądań, jeśli likwidacja jest wyłączona
  • [SPARK-46818] [ SC-154422][sql] Ulepszanie komunikatów o błędach dla zakresu z nieskładanymi danymi wejściowymi
  • [SPARK-46898] [SC-154649][connect] Uproszczenie przekształcenia funkcji protobuf w Plannerze
  • [SPARK-46828] [ SC-154413][sql] Usuń nieprawidłowe potwierdzenie trybu zdalnego dla powłoki sql platformy Spark
  • [SPARK-46733] [SC-154274][core] Uprość BlockManager przez operację wyjścia polegającą wyłącznie na wątku przerwania.
  • [SPARK-46777] [SC-154016][ss] Refaktoryzacja struktury katalizatora, aby była bardziej zgodna z wersją wsadową
  • [SPARK-46515] [SC-151716] Dodawanie funkcji MONTHNAME
  • [SPARK-46823] [ SC-154276][connect][PYTHON] LocalDataToArrowConversion powinno sprawdzać możliwość bycia null
  • [SPARK-46787] [ SC-154404][connect] bloomFilter funkcja powinna zgłaszać AnalysisException nieprawidłowe dane wejściowe
  • [SPARK-46779] [SC-154045][sql] InMemoryRelation wystąpienia tego samego buforowanego planu powinny być semantycznie równoważne
  • [SPARK-45827] [SC-153973] Nie zezwalaj na partycjonowanie w kolumnie Wariant
  • [SPARK-46797] [SC-154085][core] Zmień nazwę spark.deploy.spreadOut na spark.deploy.spreadOutApps
  • [SPARK-46094] [SC-153421] Obsługa profilowania funkcji wykonawczej JVM
  • [SPARK-46746] [SC-153557][sql][AVRO] Dołączanie rozszerzenia codec do plików źródła danych avro
  • [SPARK-46698] [SC-153288][core] Zastąp czasomierz jednordzeniowym planowanym wykonawcą dla ConsoleProgressBar.
  • [SPARK-46629] [SC-153835] Poprawka dotycząca niezbierania wartości null i komentarza typu STRUCT
  • [SPARK-46750] [SC-153772][connect][PYTHON] Czyszczenie kodu API ramki danych
  • [SPARK-46769] [ SC-153979][sql] Uściślij wnioskowanie schematu powiązanego ze znacznikiem czasu
  • [SPARK-46765] [ SC-153904][python][CONNECT] Określ shuffle typ danych seed
  • [SPARK-46579] [SC-151481][sql] Ukryj adres URL JDBC w błędach i logach
  • [SPARK-46686] [SC-153875][python][CONNECT] Podstawowa obsługa profilera UDF platformy SparkSession
  • [SPARK-46748] Przywróć „[SC-153800][core] Usuń *slav**.sh scri...”
  • [SPARK-46707] [ SC-153833][sql] Dodano pole zwracane do wyrażeń w celu ulepszenia wypychania predykatu
  • [SPARK-46519] [SC-151278][sql] Wyczyść nieużywane klasy błędów z error-classes.json pliku
  • [SPARK-46677] [SC-153426][sql][CONNECT] Poprawa rozdzielczości dataframe["*"]
  • [SPARK-46317] [SC-150184][python][CONNECT] Dopasowanie drobnych zachowań w SparkSession z pełnym pokryciem testowym
  • [SPARK-46748] [SC-153800][core] Usuwanie *slav**.sh skryptów
  • [SPARK-46663] [SC-153490][python] Wyłącz profiler pamięci dla funkcji UDF biblioteki pandas używających iteratorów
  • [SPARK-46410] [ SC-150776][sql] Przypisanie klas/podklas błędów do JdbcUtils.classifyException
  • [SPARK-46277] [ SC-150126][python] Sprawdzanie poprawności adresów URL startowych przy użyciu ustawionej konfiguracji
  • [SPARK-46612] [ SC-153536][sql] Nie konwertuj ciągu typu tablicy pobranego ze sterownika jdbc
  • [SPARK-46254] [SC-149788][python] Usuń nieaktualne sprawdzanie wersji Python 3.8/3.7
  • [SPARK-46490] [ SC-151335][sql] Wymagaj obecności klas błędów w SparkThrowable podklasach
  • [SPARK-46383] [SC-153274][sc-147443][WARMFIX] Zmniejszenie użycia stosu sterownika przez skracanie cyklu życia TaskInfo.accumulables()
  • [SPARK-46541] [SC-153109][sql][CONNECT] Naprawiono niejednoznaczne odwołanie do kolumny w łączeniu własnym
  • [SPARK-46381] [ SC-150495][sql] Migrowanie podrzędnych AnalysisException klas do klas błędów
  • [SPARK-46351] [SC-150335][sql] Wymagaj klasy błędów w AnalysisException
  • [SPARK-46220] [SC-149689][sql] Ogranicz zestawy znaków w decode()
  • [SPARK-46369] [SC-150340][core] Usuń łącze z sterowników w kill
  • [SPARK-46052] [SC-153284][core] Usuń funkcję TaskScheduler.killAllTaskAttempts
  • [SPARK-46536] [SC-153164][sql] Wsparcie dla GROUP BY typu calendar_interval_type
  • [SPARK-46675] [SC-153209][sql] Usuń nieużywane inferTimestampNTZ w ParquetReadSupport
  • [SPARK-46717] [ SC-153423][core] Upraszczanie ReloadingX509TrustManager operacji zakończenia zależy tylko od wątku przerwania.
  • [SPARK-46722] [SC-153438][connect] Dodanie testu dotyczącego sprawdzania kompatybilności wstecznej dla elementu StreamingQueryListener w Spark Connect (Scala/PySpark)
  • [SPARK-46187] [SC-149580][sql] Wyrównaj implementację codegen i non-codegen StringDecode
  • [SPARK-46258] [SC-149799][core] Dodaj RocksDBPersistenceEngine
  • [SPARK-46216] [SC-149676][core] Ulepszyć FileSystemPersistenceEngine w celu wspierania kompresji
  • [SPARK-46189] [ SC-149567][ps][SQL] Wykonywanie operacji porównań i arytmetycznych na tych samych typach danych w różnych funkcjach agregujących Pandas, aby uniknąć błędów trybu interpretowanego
  • [SPARK-46184] [SC-149563][core][SQL][connect][MLLIB] Zmniejsz głębokość stosu przez zamianę Option.isDefined na Option.isEmpty
  • [SPARK-46700] [SC-153329][core] Zlicz ostatnie rozlanie dla metryki rozlania bajtów na dysk
  • [SPARK-45642] [SC-150286][core][SQL] Fix FileSystem.isFile & FileSystem.isDirectory is deprecated
  • [SPARK-46640] [SC-153272][sql] Poprawiono RemoveRedundantAlias poprzez wykluczenie atrybutów podzapytania
  • [SPARK-46681] [ SC-153287][core] Refaktoryzacja ExecutorFailureTracker#maxNumExecutorFailures, aby uniknąć obliczania defaultMaxNumExecutorFailures gdy MAX_EXECUTOR_FAILURES jest skonfigurowany
  • [SPARK-46695] [SC-153289][sql][HIVE] Zawsze ustawianie hive.execution.engine na mr
  • [SPARK-46325] [ SC-150228][connect] Usuń niepotrzebne funkcje przesłonięcia podczas konstruowania WrappedCloseableIterator w ResponseValidator#wrapIterator
  • [SPARK-46232] [SC-149699][python] Przeniesienie wszystkich pozostałych ValueError do systemu obsługi błędów PySpark.
  • [SPARK-46547] [SC-153174][ss] Rezygnacja z generowania niekrytycznego wyjątku w zadaniu konserwacyjnym, aby uniknąć zakleszczenia pomiędzy wątkiem konserwacyjnym a operatorem agregacji strumieniowej.
  • [SPARK-46169] [ SC-149373][ps] Przypisz odpowiednie numery JIRA dla brakujących parametrów z DataFrame interfejsu API.
  • [SPARK-45857] [ SC-148096][sql] Egzekwowanie klas błędów w podklasach AnalysisException

Obsługa sterowników ODBC/JDBC usługi Databricks

Usługa Databricks obsługuje sterowniki ODBC/JDBC wydane w ciągu ostatnich 2 lat. Pobierz ostatnio wydane sterowniki i uaktualnij (pobierz plik ODBC, pobierz plik JDBC).

Aktualizacje konserwacyjne

Zobacz Aktualizacje konserwacji środowiska Databricks Runtime 15.1.

Środowisko systemu

  • System operacyjny: Ubuntu 22.04.4 LTS
  • Java: Zulu 8.74.0.17-CA-linux64
  • Scala: 2.12.15
  • Python: 3.11.0
  • R: 4.3.2
  • Delta Lake: 3.1.0

Zainstalowane biblioteki języka Python

Biblioteka Wersja Biblioteka Wersja Biblioteka Wersja
asttokens 2.0.5 astunparse 1.6.3 azure-core 1.30.1
Azure Storage Blob 12.19.1 Usługa przechowywania w chmurze Azure (azure-storage-file-datalake) 12.14.0 Wezwanie zwrotne 0.2.0
black (czarny) 23.3.0 kierunkowskaz 1.4 boto3 1.34.39
botocore 1.34.39 cachetools (narzędzia do zarządzania pamięcią podręczną) 5.3.3 certyfikat 2023.7.22
cffi 1.15.1 chardet 4.0.0 normalizator zestawu znaków 2.0.4
kliknięcie 8.0.4 cloudpickle (biblioteka Python do serializacji obiektów) 2.2.1 Comm 0.1.2
konturowy 1.0.5 kryptografia 41.0.3 rowerzysta 0.11.0
Cython 0.29.32 databricks-sdk 0.20.0 dbus-python 1.2.18
debugpy 1.6.7 dekorator 5.1.1 distlib 0.3.8
punkty wejścia 0,4 Wykonywanie 0.8.3 aspekty — omówienie 1.1.1
blokada plików 3.13.1 fonttools 4.25.0 gitdb (baza danych Git) 4.0.11
GitPython 3.1.42 google-api-core 2.17.1 google-auth (autoryzacja Google) 2.28.2
google-cloud-core 2.4.1 Google Cloud Storage (usługa przechowywania danych w chmurze od Google) 2.15.0 google-crc32c (biblioteka do obsługi algorytmu crc32c od Google) 1.5.0
Google Media z Możliwością Wznowienia 2.7.0 googleapis-common-protos 1.63.0 grpcio 1.60.0
stan obiektu grpcio 1.60.0 httplib2 0.20.2 IDNA 3.4
importlib-metadata 6.0.0 ipyflow-core 0.0.198 ipykernel 6.25.1
ipython 8.15.0 ipywidgets 8.0.4 isodate 0.6.1
Jedi 0.18.1 Jeepney 0.7.1 jmespath 0.10.0
joblib 1.2.0 jupyter_client 7.4.9 jupyter_core 5.3.0
Widżety JupyterLab 3.0.5 breloczek 23.5.0 kiwisolver 1.4.4
launchpadlib 1.10.16 lazr.restfulclient 0.14.4 lazr.uri 1.0.6
biblioteka matplotlib 3.7.2 biblioteka matplotlib-inline 0.1.6 mlflow-skinny 2.11.1
więcej itertools 8.10.0 mypy-extensions 0.4.3 nest-asyncio 1.5.6
numpy 1.23.5 oauthlib 3.2.0 opakowanie 23.2
Pandas 1.5.3 parso 0.8.3 specyfikacja ścieżki 0.10.3
Patsy 0.5.3 pexpect 4.8.0 pickleshare (jeśli to nazwa własna, nie trzeba tłumaczyć) 0.7.5
Poduszka 9.4.0 pip (menedżer pakietów Pythona) 23.2.1 platformdirs 3.10.0
kreślenie 5.9.0 zestaw narzędzi prompt 3.0.36 Protobuf (w skrócie od Protocol Buffers) 4.24.1
psutil 5.9.0 psycopg2 2.9.3 ptyprocess 0.7.0
pure-eval 0.2.2 pyarrow 14.0.1 pyasn1 0.4.8
pyasn1-modules 0.2.8 pyccolo 0.0.52 pycparser 2.21
pydantic (biblioteka Python do walidacji danych i zarządzania ustawieniami) 1.10.6 Pygments 2.15.1 PyGObject 3.42.1
PyJWT 2.3.0 pyodbc 4.0.38 pyparsing – biblioteka do przetwarzania tekstu w Pythonie 3.0.9
python-dateutil (biblioteka Pythona do zarządzania datami) 2.8.2 python-lsp-jsonrpc 1.1.1 pytz (biblioteka Pythona do obliczeń stref czasowych) 2022.7
PyYAML 6.0 pyzmq 23.2.0 żądania 2.31.0
RSA 4.9 s3transfer 0.10.0 scikit-learn 1.3.0
scipy (biblioteka naukowa dla Pythona) 1.11.1 urodzony na morzu 0.12.2 SecretStorage 3.3.1
setuptools 68.0.0 Sześć 1.16.0 smmap 5.0.1
sqlparse 0.4.4 ssh-import-id (narzędzie do importowania kluczy SSH) 5,11 stos danych 0.2.0
statsmodels - biblioteka do modelowania statystycznego 0.14.0 Wytrzymałość 8.2.2 threadpoolctl 2.2.0
tokenize-rt 4.2.1 tornado 6.3.2 traitlety 5.7.1
moduł typing_extensions 4.7.1 tzdata 2022.1 ujson (szybka biblioteka do obsługi formatu JSON) 5.4.0
nienadzorowane uaktualnienia 0.1 urllib3 1.26.16 virtualenv 20.24.2
wadllib 1.3.6 szerokość(wcwidth) 0.2.5 wheel 0.38.4
widgetsnbextension 4.0.5 zamek błyskawiczny 3.11.0

Zainstalowane biblioteki języka R

Biblioteki języka R są instalowane z migawki CRAN posit Menedżer pakietów 2023-02-10.

Biblioteka Wersja Biblioteka Wersja Biblioteka Wersja
strzałkę 14.0.0.2 askpass 1.2.0 potwierdzić to 0.2.1
backports (backports) 1.4.1 baza 4.3.2 base64enc 0.1-3
bigD 0.2.0 bitowe 4.0.5 bit-64 4.0.5
bitops 1.0-7 blob 1.2.4 rozruch 1.3-28
warzyć 1.0-10 Brio 1.1.4 miotła 1.0.5
bslib 0.6.1 kaszmir 1.0.8 obiekt wywołujący 3.7.3
karetka 6.0-94 cellranger 1.1.0 Chroń 2.3-61
klasa 7.3-22 CLI 3.6.2 clipr 0.8.0
zegar 0.7.0 klaster 2.1.4 codetools 0.2-19
przestrzeń kolorów 2.1-0 commonmark 1.9.1 kompilator 4.3.2
konfig 0.3.2 Konflikt 1.2.0 cpp11 0.4.7
kredka 1.5.2 dane logowania 2.0.1 lok 5.2.0
pakiet data.table do przetwarzania danych 1.15.0 usługi Power BI 4.3.2 DBI 1.2.1
dbplyr 2.4.0 Desc 1.4.3 devtools 2.4.5
schemat 1.6.5 diffobj 0.3.5 skrót 0.6.34
downlit (wyłączony) 0.4.3 dplyr 1.1.4 dtplyr 1.3.1
e1071 1.7-14 wielokropek 0.3.2 ocenić 0.23
fani 1.0.6 kolory 2.1.1 szybka mapa 1.1.1
Font Awesome 0.5.2 dla kotów 1.0.0 foreach 1.5.2
zagraniczny 0.8-85 kuźnia 0.2.0 Fs 1.6.3
przyszłość 1.33.1 wprowadź przyszłość 1.11.1 płukać gardło 1.5.2
typy ogólne 0.1.3 Gert 2.0.1 ggplot2 3.4.4
Gh 1.4.0 git2r 0.33.0 gitcreds 0.1.2
glmnet 4.1-8 globalna 0.16.2 klej 1.7.0
googledrive 2.1.1 googlesheets4 1.1.1 Gower 1.0.1
grafika 4.3.2 grDevices 4.3.2 siatka 4.3.2
gridExtra 2.3 gsubfn 0,7 Gt 0.10.1
gtabela 0.3.4 hełm ochronny 1.3.1 przystań 2.5.4
wysoki 0.10 Hms 1.1.3 htmltools – narzędzie do tworzenia stron internetowych 0.5.7
widżety HTML 1.6.4 httpuv 1.6.14 httr 1.4.7
httr2 1.0.0 Identyfikatory 1.0.1 ini 0.3.1
ipred 0.9-14 isoband 0.2.7 Iteratory 1.0.14
jquerylib 0.1.4 jsonlite 1.8.8 soicyjuice 0.1.0
KernSmooth 2.23-21 knitr (narzędzie do generowania dynamicznych raportów w R) 1,45 Etykietowania 0.4.3
później 1.3.2 krata 0.21-8 lawa 1.7.3
cykl życia 1.0.4 nasłuchiwanie 0.9.1 lubridate 1.9.3
magrittr 2.0.3 Markdown 1.12 MASA 7.3-60
Macierz 1.5-4.1 zapamiętywanie 2.0.1 metody 4.3.2
mgcv 1.8-42 mim 0,12 miniUI (interfejs użytkownika) 0.1.1.1
mlflow 2.10.0 Metryki modelu 1.2.2.2 modeler 0.1.11
munsell 0.5.0 nlme 3.1-163 sieć neuronowa (nnet) 7.3-19
numDeriv 2016.8-1.1 openssl 2.1.1 równoległy 4.3.2
równolegle 1.36.0 filar 1.9.0 pkgbuild 1.4.3
pkgconfig 2.0.3 pkgdown 2.0.7 pkgload 1.3.4
plogr 0.2.0 plyr 1.8.9 pochwała 1.0.0
prettyunits 1.2.0 Proc 1.18.5 Procesx 3.8.3
prodlim 2023.08.28 profvis 0.3.8 Postęp 1.2.3
progressr 0.14.0 Obietnice 1.2.1 Proto 1.0.0
serwer proxy 0.4-27 PS 1.7.6 mruczenie 1.0.2
R6 2.5.1 ragg 1.2.7 "randomForest" 4.7-1.1
rappdirs 0.3.3 rcmdcheck 1.4.0 RColorBrewer 1.1-3
Rcpp 1.0.12 RcppEigen 0.3.3.9.4 z możliwością reagowania 0.4.4
ReactR 0.5.0 czytnik 2.1.5 readxl (biblioteka do odczytu plików Excel) 1.4.3
przepisy 1.0.9 rewanż 2.0.0 rewanż2 2.1.2
Piloty 2.4.2.1 przykład powtarzalny 2.1.0 zmień kształt2 1.4.4
rlang 1.1.3 rmarkdown (narzędzie do tworzenia dokumentów w R) 2,25 RODBC 1.3-23
roxygen2 7.3.1 rpart 4.1.21 rprojroot 2.0.4
Rserve 1.8-13 RSQLite 2.3.5 rstudioapi 0.15.0
rversions (rversions) 2.1.2 rvest 1.0.3 Sass 0.4.8
waga 1.3.0 selektor 0.4-2 Informacje o sesji 1.2.2
kształt 1.4.6 błyszczący 1.8.0 sourcetools 0.1.7-1
sparklyr 1.8.4 przestrzenny 7.3-15 Splajnów 4.3.2
sqldf 0.4-11 KWADRAT 2021.1 Statystyki 4.3.2
statystyki4 4.3.2 łańcuchy 1.8.3 stringr 1.5.1
przetrwanie 3.5-5 pewność siebie 3.33.1 sys 3.4.2
systemfonts 1.0.5 tcltk 4.3.2 testthat 3.2.1
kształtowanie tekstu 0.3.7 tibble 3.2.1 tidyr 1.3.1
tidyselect 1.2.0 tidyverse 2.0.0 zmiana czasu 0.3.0
czasData 4032.109 tinytex 0,49 narzędzia 4.3.2
Baza Danych Stref Czasowych (tzdb) 0.4.0 sprawdzacz URL 1.0.1 użyj tego 2.2.2
utf8 1.2.4 narzędzia 4.3.2 UUID (Uniwersalnie Unikalny Identyfikator) 1.2-0
Wersja 8 4.4.1 vctrs 0.6.5 viridisLite 0.4.2
Vroom 1.6.5 Waldo 0.5.2 wąs 0.4.1
Withr 3.0.0 xfun 0.41 xml2 1.3.6
xopen 1.0.0 Xtable 1.8-4 yaml 2.3.8
gorliwość 0.1.0 zamek 2.3.1

Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.12)

Identyfikator grupy Identyfikator artefaktu Wersja
antlr antlr 2.7.7
com.amazonaws Klient Amazon Kinesis 1.12.0
com.amazonaws aws-java-sdk-automatyczne-skalowanie 1.12.390
com.amazonaws aws-java-sdk-cloudformation 1.12.390
com.amazonaws aws-java-sdk-cloudfront 1.12.390
com.amazonaws aws-java-sdk-cloudhsm (zestaw narzędzi Java dla usługi CloudHSM) 1.12.390
com.amazonaws aws-java-sdk-cloudsearch 1.12.390
com.amazonaws aws-java-sdk-cloudtrail 1.12.390
com.amazonaws aws-java-sdk-cloudwatch 1.12.390
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.12.390
com.amazonaws aws-java-sdk-codedeploy (biblioteka do zarządzania wdrażaniem kodu w AWS) 1.12.390
com.amazonaws aws-java-sdk-cognitoidentity 1.12.390
com.amazonaws aws-java-sdk-cognitosync 1.12.390
com.amazonaws aws-java-sdk-config (konfiguracja aws-java-sdk) 1.12.390
com.amazonaws aws-java-sdk-core 1.12.390
com.amazonaws aws-java-sdk-datapipeline 1.12.390
com.amazonaws aws-java-sdk-directconnect (pakiet narzędzi programistycznych dla Java do współpracy z AWS Direct Connect) 1.12.390
com.amazonaws aws-java-sdk-directory 1.12.390
com.amazonaws aws-java-sdk-dynamodb 1.12.390
com.amazonaws aws-java-sdk-ec2 1.12.390
com.amazonaws aws-java-sdk-ecs 1.12.390
com.amazonaws aws-java-sdk-efs 1.12.390
com.amazonaws aws-java-sdk-elasticache 1.12.390
com.amazonaws aws-java-sdk-elasticbeanstalk 1.12.390
com.amazonaws aws-java-sdk-elasticloadbalancing 1.12.390
com.amazonaws aws-java-sdk-elastictranscoder 1.12.390
com.amazonaws aws-java-sdk-emr (biblioteka SDK Java dla usługi Amazon EMR) 1.12.390
com.amazonaws AWS Java SDK dla Glacier 1.12.390
com.amazonaws aws-java-sdk-klej 1.12.390
com.amazonaws aws-java-sdk-iam 1.12.390
com.amazonaws AWS-Java-SDK-ImportExport 1.12.390
com.amazonaws AWS SDK dla Javy - Kinesis 1.12.390
com.amazonaws aws-java-sdk-kms 1.12.390
com.amazonaws aws-java-sdk-lambda 1.12.390
com.amazonaws aws-java-sdk-logs 1.12.390
com.amazonaws aws-java-sdk-uczenie-maszynowe 1.12.390
com.amazonaws aws-java-sdk-opsworks 1.12.390
com.amazonaws aws-java-sdk-rds (pakiet programistyczny Java dla AWS RDS) 1.12.390
com.amazonaws aws-java-sdk-redshift 1.12.390
com.amazonaws aws-java-sdk-route53 1.12.390
com.amazonaws aws-java-sdk-s3 1.12.390
com.amazonaws aws-java-sdk-ses 1.12.390
com.amazonaws aws-java-sdk-simpledb 1.12.390
com.amazonaws aws-java-sdk-simpleworkflow 1.12.390
com.amazonaws aws-java-sdk-sns 1.12.390
com.amazonaws aws-java-sdk-sqs 1.12.390
com.amazonaws aws-java-sdk-ssm 1.12.390
com.amazonaws aws-java-sdk-storagegateway 1.12.390
com.amazonaws aws-java-sdk-sts (pakiet programistyczny Java dla AWS STS) 1.12.390
com.amazonaws wsparcie dla aws-java-sdk 1.12.390
com.amazonaws aws-java-sdk-biblioteka-biblioteka 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.12.390
com.amazonaws jmespath-java 1.12.390
com.clearspring.analytics odtwarzać strumieniowo 2.9.6
com.databricks Rserve 1.8-3
com.databricks databricks-sdk-java 0.17.1
com.databricks jets3t 0.7.1-0
com.databricks.scalapb compilerplugin_2.12 0.4.15-10
com.databricks.scalapb scalapb-runtime_2.12 0.4.15-10
com.esotericsoftware kryo-cieniowane 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml kolega z klasy 1.3.4
com.fasterxml.jackson.core adnotacje jackson 2.15.2
com.fasterxml.jackson.core jackson-core 2.15.2
com.fasterxml.jackson.core jackson-databind 2.15.2
com.fasterxml.jackson.dataformat Jackson-format-danych-CBOR 2.15.2
com.fasterxml.jackson.dataformat jackson-dataformat-yaml 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-joda 2.15.2
com.fasterxml.jackson.datatype jackson-datatype-jsr310 2.16.0
com.fasterxml.jackson.module jackson-module-paranamer 2.15.2
com.fasterxml.jackson.module jackson-module-scala_2.12 2.15.2
com.github.ben-manes.kofeina kofeina 2.9.3
com.github.fommil jniloader 1.1
com.github.fommil.netlib natywne_odniesienie-java 1.1
com.github.fommil.netlib natywne_odniesienie-java 1.1-rodzimi
com.github.fommil.netlib native_system java 1.1
com.github.fommil.netlib native_system java 1.1-rodzimi
com.github.fommil.netlib netlib-native_ref-linux-x86_64 1.1-rodzimi
com.github.fommil.netlib netlib-native_system-linux-x86_64 1.1-rodzimi
com.github.luben zstd-jni 1.5.5-4
com.github.wendykierp JTransforms 3.1
com.google.code.findbugs jsr305 3.0.0
com.google.code.gson gson 2.10.1
com.google.crypto.tink Tink 1.9.0
com.google.errorprone adnotacje podatne na błędy 2.10.0
com.google.flatbuffers flatbuffers-java 26.05.23
com.google.guava guawa 15,0
com.google.protobuf protobuf-java 2.6.1
com.helger profiler 1.1.1
com.jcraft jsch 0.1.55
com.jolbox bonecp 0.8.0.WYDANIE
com.lihaoyi kodźródłowy_2.12 0.1.9
com.microsoft.azure azure-data-lake-store-sdk (SDK do przechowywania danych Azure Data Lake) 2.3.9
com.microsoft.sqlserver mssql-jdbc 11.2.2.jre8
com.ning compress-lzf (biblioteka do kompresji danych) 1.1.2
com.sun.mail javax.mail 1.5.2
com.sun.xml.bind jaxb-core 2.2.11
com.sun.xml.bind jaxb-impl 2.2.11
com.tdunning JSON 1.8
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses soczewki_2.12 0.4.12
com.twitter chill-java 0.10.0
com.twitter chill_2.12 0.10.0
com.twitter util-app_2.12 7.1.0
com.twitter util-core_2.12 7.1.0
com.twitter util-function_2.12 7.1.0
com.twitter util-jvm_2.12 7.1.0
com.twitter util-lint_2.12 7.1.0
com.twitter util-registry_2.12 7.1.0
com.twitter util-stats_2.12 7.1.0
com.typesafe konfig 1.4.3
com.typesafe.scala-logging scala-logging_2.12 3.7.2
com.uber h3 3.7.3
com.univocity parsery jednowołciowości 2.9.1
com.zaxxer HikariCP 4.0.3
commons-cli commons-cli 1.5.0
commons-codec commons-codec 1.16.0
Zbiory Commons Zbiory Commons 3.2.2
commons-dbcp commons-dbcp 1.4
wspólne przesyłanie plików wspólne przesyłanie plików 1.5
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2.13.0
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-pool commons-pool 1.5.4
dev.ludovic.netlib arpack 3.0.3
dev.ludovic.netlib Blas 3.0.3
dev.ludovic.netlib lapack 3.0.3
info.ganglia.gmetric4j gmetric4j 1.0.10
io.airlift kompresor powietrza 0.25
io.delta delta-sharing-client_2.12 1.0.4
io.dropwizard.metrics adnotacja metryk 4.2.19
io.dropwizard.metrics metryki —rdzeń 4.2.19
io.dropwizard.metrics metrics-graphite 4.2.19
io.dropwizard.metrics wskaźniki-kontrole zdrowia 4.2.19
io.dropwizard.metrics metrics-jetty9 4.2.19
io.dropwizard.metrics metrics-jmx 4.2.19
io.dropwizard.metrics metryki w formacie JSON 4.2.19
io.dropwizard.metrics metryki-JVM 4.2.19
io.dropwizard.metrics serwlety metrics-servlets 4.2.19
io.netty netty-all 4.1.96.Final
io.netty Netty-buffer 4.1.96.Final
io.netty netty-codec 4.1.96.Final
io.netty netty-codec-http 4.1.96.Final
io.netty netty-codec-http2 4.1.96.Final
io.netty netty-codec-socks 4.1.96.Final
io.netty netty-common (element wspólny) 4.1.96.Final
io.netty "netty-handler" 4.1.96.Final
io.netty netty-handler-proxy 4.1.96.Final
io.netty rozwiązywacz netty 4.1.96.Final
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-linux-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-aarch_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-osx-x86_64
io.netty netty-tcnative-boringssl-static 2.0.61.Final-windows-x86_64
io.netty Klasy netty-tcnative 2.0.61.Final
io.netty transport netto 4.1.96.Final
io.netty netty-transport-classes-epoll 4.1.96.Final
io.netty netty-transport-classes-kqueue 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final
io.netty netty-transport-native-epoll 4.1.96.Final-linux-aarch_64
io.netty netty-transport-native-epoll 4.1.96.Final-linux-x86_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-aarch_64
io.netty netty-transport-native-kqueue 4.1.96.Final-osx-x86_64
io.netty netty-transport-native-unix-common 4.1.96.Final
io.prometheus simpleclient 0.7.0
io.prometheus simpleclient_common 0.7.0
io.prometheus simpleclient_dropwizard 0.7.0
io.prometheus simpleclient_pushgateway 0.7.0
io.prometheus simpleclient_servlet 0.7.0
io.prometheus.jmx moduł zbierający 0.12.0
jakarta.adnotacja jakarta.annotation-api 1.3.5
jakarta.servlet jakarta.servlet-api 4.0.3
\ jakarta.validation jakarta.validation-api 2.0.2
jakarta.ws.rs jakarta.ws.rs-api 2.1.6
javax.activation aktywacja 1.1.1
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.transaction jta 1.1
javax.transaction interfejs programistyczny transakcji 1.1
javax.xml.bind jaxb-api 2.2.11
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.12.1
net.java.dev.jna jna 5.8.0
net.razorvine Pickle 1.3
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake SDK do pobierania danych Snowflake 0.9.6
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt.remotetea remotetea-oncrpc (niedostępne w lokalnym języku) 1.1.2
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.5.2
org.antlr antlr4-runtime 4.9.3
org.antlr Szablon łańcucha 3.2.1
org.apache.ant tat 1.10.11
org.apache.ant ant-jsch 1.10.11
org.apache.ant program uruchamiający Ant 1.10.11
org.apache.arrow format strzałki 15.0.0
org.apache.arrow strzałka-pamięć-rdzeń 15.0.0
org.apache.arrow arrow-memory-netty 15.0.0
org.apache.arrow wektor strzałki 15.0.0
org.apache.avro avro 1.11.3
org.apache.avro avro-ipc 1.11.3
org.apache.avro avro-mapred 1.11.3
org.apache.commons commons-collections4 4.4
org.apache.commons commons-compress 1.23.0
org.apache.commons commons-crypto 1.1.0
org.apache.commons commons-lang3 3.12.0
org.apache.commons commons-math3 3.6.1
org.apache.commons tekst wspólny 1.10.0
org.apache.curator kurator-klient 2.13.0
org.apache.curator struktura kuratora 2.13.0
org.apache.curator przepisy kuratora 2.13.0
org.apache.datasketches datasketches-java 3.1.0
org.apache.datasketches datasketches-pamięć 2.0.0
org.apache.derby Derby 10.14.2.0
org.apache.hadoop środowisko uruchomieniowe klienta Hadoop 3.3.6
org.apache.hive hive-beeline (narzędzie do interakcji z bazą danych Hive) 2.3.9
org.apache.hive hive-cli 2.3.9
org.apache.hive hive-jdbc 2.3.9
org.apache.hive Klient hive-llap 2.3.9
org.apache.hive hive-llap-common 2.3.9
org.apache.hive hive-serde 2.3.9
org.apache.hive podkładki hive 2.3.9
org.apache.hive hive-storage-api (interfejs do przechowywania danych hive) 2.8.1
org.apache.hive.shims hive-shims-0.23 2.3.9
org.apache.hive.shims hive-shims-common 2.3.9
org.apache.hive.shims harmonogram osłon/imitacji ula 2.3.9
org.apache.httpcomponents httpclient 4.5.14
org.apache.httpcomponents httpcore 4.4.16
org.apache.ivy bluszcz 2.5.1
org.apache.logging.log4j log4j-1.2-api 2.22.1
org.apache.logging.log4j log4j-api 2.22.1
org.apache.logging.log4j log4j-core 2.22.1
org.apache.logging.log4j log4j-slf4j2-impl 2.22.1
org.apache.orc orc-core 1.9.2-shaded-protobuf
org.apache.orc orc-mapreduce 1.9.2-shaded-protobuf
org.apache.orc podkładki orc-shim 1.9.2
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.12.0
org.apache.ws.xmlschema xmlschema-core 2.3.0
org.apache.xbean xbean-asm9-cieniowane 4.23
org.apache.yetus adnotacje odbiorców 0.13.0
org.apache.zookeeper - system do zarządzania konfiguracją i synchronizacją dla aplikacji rozproszonych. opiekun zoo 3.6.3
org.apache.zookeeper - system do zarządzania konfiguracją i synchronizacją dla aplikacji rozproszonych. jute dozorców 3.6.3
org.checkerframework checker-qual 3.31.0
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-mapujący-ASL 1.9.13
org.codehaus.janino commons-kompilator 3.0.16
org.codehaus.janino Janino 3.0.16
org.datanucleus datanucleus-api-jdo 4.2.4
org.datanucleus datanucleus-core 4.1.17
org.datanucleus datanucleus-rdbms 4.1.19
org.datanucleus javax.jdo 3.2.0-m3
org.eclipse.collections kolekcje eclipse 11.1.0
org.eclipse.collections API kolekcji Eclipse 11.1.0
org.eclipse.jetty jetty-client 9.4.52.v20230823
org.eclipse.jetty jetty-kontynuacja 9.4.52.v20230823
org.eclipse.jetty jetty-http 9.4.52.v20230823
org.eclipse.jetty jetty-io 9.4.52.v20230823
org.eclipse.jetty jetty-jndi 9.4.52.v20230823
org.eclipse.jetty Jetty-plus 9.4.52.v20230823
org.eclipse.jetty serwer pośredniczący Jetty 9.4.52.v20230823
org.eclipse.jetty moduł bezpieczeństwa Jetty 9.4.52.v20230823
org.eclipse.jetty serwer aplikacji Jetty 9.4.52.v20230823
org.eclipse.jetty jetty-servlet 9.4.52.v20230823
org.eclipse.jetty jetty-servlets 9.4.52.v20230823
org.eclipse.jetty jetty-util 9.4.52.v20230823
org.eclipse.jetty jetty-util-ajax 9.4.52.v20230823
org.eclipse.jetty Jetty-aplikacja internetowa 9.4.52.v20230823
org.eclipse.jetty jetty-xml 9.4.52.v20230823
org.eclipse.jetty.websocket WebSocket API 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-klient 9.4.52.v20230823
org.eclipse.jetty.websocket websocket —wspólne 9.4.52.v20230823
org.eclipse.jetty.websocket serwer WebSocket 9.4.52.v20230823
org.eclipse.jetty.websocket websocket-servlet 9.4.52.v20230823
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.6.1
org.glassfish.hk2 lokalizator hk2 2.6.1
org.glassfish.hk2 hk2-utils 2.6.1
org.glassfish.hk2 osgi-lokalizator-zasobów 1.0.3
org.glassfish.hk2.external aopalliance-zapakowane ponownie 2.6.1
org.glassfish.hk2.external jakarta.inject 2.6.1
org.glassfish.jersey.containers serwlet kontenerowy Jersey 2.40
org.glassfish.jersey.containers jersey-container-servlet-core 2.40
org.glassfish.jersey.core jersey-client 2.40
org.glassfish.jersey.core dzianina-zwykła 2.40
org.glassfish.jersey.core serwer jersey 2.40
org.glassfish.jersey.inject jersey-hk2 2.40
org.hibernate.validator moduł sprawdzania poprawności hibernacji 6.1.7.Final
org.ini4j ini4j 0.5.4
org.javassist javassist 3.29.2-GA
org.jboss.logging jboss-logging (narzędzie do rejestrowania zdarzeń w JBoss) 3.3.2.Final
org.jdbi jdbi 2.63.1
org.jetbrains Adnotacje 17.0.0
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.12 3.7.0-M11
org.json4s json4s-core_2.12 3.7.0-M11
org.json4s json4s-jackson_2.12 3.7.0-M11
org.json4s json4s-scalap_2.12 3.7.0-M11
org.lz4 lz4-java 1.8.0
org.mlflow mlflow-spark_2.12 2.9.1
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.6.1
org.roaringbitmap RoaringBitmap 0.9.45
org.roaringbitmap Podkładki 0.9.45
org.rocksdb rocksdbjni 8.3.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.12 2.12.15
org.scala-lang scala-library_2.12 2.12.15
org.scala-lang scala-reflect_2.12 2.12.15
org.scala-lang.modules scala-collection-compat_2.12 2.11.0
org.scala-lang.modules scala-parser-combinators_2.12 1.1.2
org.scala-lang.modules scala-xml_2.12 1.2.0
org.scala-sbt interfejs testowy 1.0
org.scalacheck scalacheck_2.12 1.14.2
org.scalactic scalactic_2.12 3.2.15
org.scalanlp breeze-macros_2.12 2.1.0
org.scalanlp breeze_2.12 2.1.0
org.scalatest zgodny ze standardem scalatest 3.2.15
org.scalatest scalatest-core_2.12 3.2.15
org.scalatest scalatest-diagrams_2.12 3.2.15
org.scalatest scalatest-featurespec_2.12 3.2.15
org.scalatest scalatest-flatspec_2.12 3.2.15
org.scalatest scalatest-freespec_2.12 3.2.15
org.scalatest scalatest-funspec_2.12 3.2.15
org.scalatest scalatest-funsuite_2.12 3.2.15
org.scalatest scalatest-matchers-core_2.12 3.2.15
org.scalatest scalatest-mustmatchers_2.12 3.2.15
org.scalatest scalatest-propspec_2.12 3.2.15
org.scalatest scalatest-refspec_2.12 3.2.15
org.scalatest scalatest-shouldmatchers_2.12 3.2.15
org.scalatest scalatest-wordspec_2.12 3.2.15
org.scalatest scalatest_2.12 3.2.15
org.slf4j jcl-over-slf4j 2.0.7
org.slf4j jul-to-slf4j 2.0.7
org.slf4j slf4j-api 2.0.7
org.slf4j slf4j-simple 1.7.25
org.threeten trzydostępne dodatkowe 1.7.1
org.tukaani xz 1,9
org.typelevel algebra_2.12 2.0.1
org.typelevel cats-kernel_2.12 2.1.1
org.typelevel spire-macros_2.12 0.17.0
org.typelevel spire-platform_2.12 0.17.0
org.typelevel spire-util_2.12 0.17.0
org.typelevel spire_2.12 0.17.0
org.wildfly.openssl wildfly-openssl 1.1.3.Final
org.xerial sqlite-jdbc 3.42.0.0
org.xerial.snappy snappy-java 1.1.10.3
org.yaml snakeyaml 2.0
oro oro 2.0.8
pl.edu.icm JLargeArrays 1.5
software.amazon.cryptools AmazonCorrettoCryptoProvider 1.6.1-linux-x86_64
oprogramowanie.amazon.ion ion-java 1.0.2
Stax stax-api 1.0.1