Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Uwaga
Obsługa tej wersji środowiska Databricks Runtime została zakończona. Aby uzyskać datę zakończenia pomocy technicznej, zobacz Historia zakończenia pomocy technicznej. Aby zapoznać się ze wszystkimi obsługiwanymi wersjami środowiska Databricks Runtime, zobacz uwagi dotyczące wersji i zgodności Databricks Runtime.
Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 13.2 obsługiwanym przez platformę Apache Spark 3.4.0.
Usługa Databricks wydała tę wersję w lipcu 2023 r.
Nowe funkcje i ulepszenia
- Punkt kontrolny dziennika zmian dla magazynu stanów bazy danych RocksDB
- Zwiększona niezawodność dla VACUUM z płytkim klonem w katalogu Unity.
- Obsługa funkcji UDF języka Python w języku SQL
- Aplikacja Delta Lake UniForm dla platformy Apache Iceberg jest dostępna w publicznej wersji zapoznawczej
- Dynamiczne klastrowanie Delta Lake jest w publicznej wersji wstępnej
- Obsługa archiwizacji w usłudze Azure Databricks
- Wsparcie klauzuli IDENTIFIER
- Obsługa Unity Catalog dla funkcji definiowanych przez użytkownika (UDF-y) w Pythonie i Pandas.
- Udostępnij schematy za pomocą Delta Sharing
- Poprawki błędów
Punkt kontrolny dziennika zmian dla magazynu stanów bazy danych RocksDB
Możesz włączyć punktowanie kontrolne zmian, aby zmniejszyć czas trwania punktu kontrolnego i opóźnienie od końca do końca dla stanowych obciążeń przesyłania strumieniowego ze strukturą. Usługa Databricks zaleca włączenie punktów kontrolnych dziennika zmian dla wszystkich zapytań stanowych przesyłania strumieniowego ze strukturą. Zobacz Włączanie punktu kontrolnego dziennika zmian.
Zwiększona niezawodność VACUUM dzięki płytkiemu klonowi w Katalogu Unity.
Gdy używasz tabel zarządzanych przez Unity Catalog jako źródła i celu dla płytkiej operacji klonowania, Unity Catalog zarządza podstawowymi plikami danych, aby zwiększyć niezawodność zarówno dla źródła, jak i celu operacji klonowania. Uruchomienie VACUUM na źródle płytkiego klonu nie powoduje uszkodzenia sklonowanej tabeli. Zobacz Vacuum and Unity Catalog płytkie klony.
Obsługa funkcji UDF języka Python w języku SQL
Teraz można deklarować funkcje zdefiniowane przez użytkownika w Pythonie w instrukcjach SQL CREATE FUNCTION w katalogu Unity. Zobacz funkcje zdefiniowane przez użytkownika (UDF) w Unity Catalog.
Aplikacja Delta Lake UniForm dla platformy Apache Iceberg jest dostępna w publicznej wersji zapoznawczej
Format Delta Lake Universal (UniForm) umożliwia odczytywanie tabel Delta z klientami Apache Iceberg. Zobacz Odczytywanie tabel delty przy użyciu klientów Iceberg.
Klasteryzacja płynna w Delta Lake jest teraz dostępna w publicznej wersji zapoznawczej.
Klastrowanie liquid Delta Lake zastępuje partycjonowanie tabel i ZORDER, aby uprościć decyzje dotyczące układu danych i zoptymalizować wydajność zapytań. Zobacz Używaj płynnego grupowania dla tabel.
Obsługa archiwizacji w usłudze Azure Databricks
Obsługa archiwizacji w usłudze Azure Databricks wprowadza zestaw funkcji umożliwiających stosowanie zasad cyklu życia w chmurze w magazynie obiektów w chmurze zawierających Tabele Delta w celu przenoszenia plików do archiwalnych poziomów magazynowania. Zobacz Obsługa archiwizacji w usłudze Azure Databricks.
Obsługa klauzuli IDENTIFIER
Użyj IDENTIFIER(:mytable), aby bezpiecznie sparametryzować nazwy tabel, kolumn, funkcji i schematów w wielu instrukcjach SQL.
Obsługa katalogu Unity dla Python i Pandas User-Defined Functions (UDFs)
Na środowisku Databricks Runtime 13.2 lub nowszym funkcje zdefiniowane przez użytkownika (UDF) napisane w języku Python są dostępne na klastrach używających standardowego trybu dostępu (dawniej trybu dostępu współdzielonego) w obszarze roboczym z włączonym Unity Catalog. Obejmuje to funkcje UDF języka Python i biblioteki Pandas. Aby uzyskać szczegółowe informacje na temat funkcji zdefiniowanych przez użytkownika, zobacz Funkcje skalarne zdefiniowane przez użytkownika — Python.
Udostępnianie schematów za pomocą Delta Sharing
Środowisko Databricks Runtime 13.2 dodaje możliwość używania ALTER SHARE <share-name> ADD SCHEMA <schema-name> do udostępnienia całego schematu za pomocą Delta Sharing, zapewniając odbiorcy dostęp do wszystkich tabel i widoków w schemacie w momencie udostępnienia oraz do wszelkich tabel i widoków, które zostaną dodane do schematu w przyszłości. Zobacz Dodawanie schematów do udziału i ALTER SHARE.
Poprawki błędów
- Usunięto usterkę z czytnikiem JSON, w którym rekordy były analizowane w trybie
PERMISSIVE, jeślifailOnUnknownFieldsmodezostała włączona. Rekordy są teraz odrzucane w trybieDROPMALFORMEDparserlub zapisywane dobadRecordsPath, jeśli którąkolwiek z tych opcji ustawiono.FAILFASTzgłasza błąd, jeśli typ kolumny nie jest zgodny.
Uaktualnienia biblioteki
- Uaktualnione biblioteki języka Python:
- nodeenv z wersji 1.7.0 do 1.8.0
- Uaktualnione biblioteki języka R:
- Uaktualnione biblioteki Java:
- io.delta.delta-sharing-spark_2.12 z 0.6.7 do 0.7.0
Apache Spark
Środowisko Databricks Runtime 13.2 obejmuje platformę Apache Spark 3.4.0. Ta wersja zawiera wszystkie poprawki i ulepszenia platformy Spark zawarte w środowisku Databricks Runtime 13.1 (EoS), a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:
- [SPARK-42750] [SC-133452][dbrrm-273] Obsługa instrukcji Insert By Name
- [SPARK-43133] [SC-133728] Obsługa programu Scala Client DataStreamWriter Foreach
-
[SPARK-43663] [SC-134135][connect][PS] Włącz
SeriesParityTests.test_compare -
[SPARK-43684] [SC-134162][spark-43685][SPARK-43686][spark-43691][CONNECT][ps] Poprawka
(NullOps|NumOps).(eq|ne)dla programu Spark Connect. - [SPARK-44021] [SC-134109][sql] Dodaj spark.sql.files.maxPartitionNum
-
[SPARK-43910] [ SC-132936][sql] Usuwanie
__auto_generated_subquery_namez identyfikatorów w błędach - [SPARK-43976] [ SC-133375][core] Obsługa przypadku, w którym "modifiedConfigs" nie istnieją w dziennikach zdarzeń
- [SPARK-32559] [SC-133992][sql] Poprawka logiki przycinania nie obsłużyła poprawnie znaków sterujących ASCII
- [SPARK-43421] [ SC-132930][ss] Wdrażanie punktów kontrolnych opartych na dzienniku zmian dla dostawcy systemu magazynowania stanów RocksDB
- [SPARK-43594] [SC-133851][sql] Add LocalDateTime to anyToMicros
- [SPARK-43884] [SC-133867] Znaczniki parametrów w DDL
- [SPARK-43398] [ SC-133894][core] Limit czasu wykonawcy powinien być maksymalnym z limitu czasu bezczynności tasowania oraz limitu czasu rdd
-
[SPARK-43610] [SC-133892][connect][PS] Włącz
InternalFrame.attach_distributed_columnw programie Spark Connect. - [SPARK-43971] [ SC-133826][connect][PYTHON] Obsługa funkcji createDataFrame języka Python w sposób przesyłania strumieniowego
- [SPARK-44006] [SC-133652][connect][PYTHON] Obsługa artefaktów pamięci podręcznej
-
[SPARK-43790] [SC-133468][python][CONNECT][ml] Dodawanie
copyFromLocalToFsinterfejsu API - [SPARK-43921] [SC-133461][protobuf] Generowanie plików deskryptora Protobuf w czasie kompilacji
- [SPARK-43906] [SC-133638][sc-133404][PYTHON][connect] Implementowanie obsługi plików w usłudze SparkSession.addArtifacts
- [SPARK-44010] [SC-133744][python][SS][minor] Poprawka typu dla Python StreamingQueryProgress rowsPerSecond
- [SPARK-43768] [SC-132398][python][CONNECT] Obsługa zarządzania zależnościami języka Python w programie Python Spark Connect
- [SPARK-43979] [13.X] Przywróć wartość "[SC-133456][sql] CollectedMetrics powinna być traktowana jako ta sama dla siebie"
- [SPARK-42290] [SC-133696][sql] Napraw błąd niemożności zgłaszania błędu OOM, gdy AQE jest włączone
- [SPARK-43943] [SC-133648][sql][PYTHON][connect] Dodawanie funkcji matematycznych SQL do języków Scala i Python
- [SPARK-43747] [ SC-132047][python][CONNECT] Dodanie obsługi pliku pyfile w SparkSession.addArtifacts
-
[SPARK-43700] [SC-133726][spark-43701][CONNECT][ps] Umożliwienie
TimedeltaOps.(sub|rsub)za pomocą Spark Connect -
[SPARK-43712] [SC-133641][spark-43713][CONNECT][ps] Włącz test parzystości:
test_line_plot,test_pie_plot. - [SPARK-43867] [SC-132895][sql] Ulepszanie sugerowanych kandydatów do nierozwiązanego atrybutu
- [SPARK-43901] [SC-133454][sql] Avro będzie obsługiwał niestandardowy typ dziesiętny oparty o Long
- [SPARK-43267] [ SC-133024][jdbc] Traktowanie nieznanych kolumn zdefiniowanych przez użytkownika w PostgreSQL jako ciągi znaków w tablicach
- [SPARK-43935] [ SC-133637][sql][PYTHON][connect] Dodawanie funkcji xpath_* do języków Scala i Python
- [SPARK-43916] [SC-133647][sql][PYTHON][connect] Dodaj percentyl do interfejsu API języka Scala i Python
- [SPARK-43717] [ SC-133455][connect] Program Scala client reduce agg nie może obsłużyć partycji null dla danych wejściowych pierwotnych scala
-
[SPARK-43984] [SC-133469][sql][PROTOBUF] Zmiana w celu użycia
foreach, gdymapnie generuje wyników - [SPARK-43612] [SC-132011][connect][PYTHON] Implement SparkSession.addArtifact(s) w kliencie języka Python
- [SPARK-44002] [ SC-133606][connect] Napraw obsługę statusów artefaktów
- [SPARK-43933] [SC-133470][sql][PYTHON][connect] Dodawanie funkcji agregacji liniowej do języka Scala i Python
- [SPARK-43920] [SC-133614][sql][CONNECT] Tworzenie modułu sql/api
- [SPARK-43979] [SC-133456][sql] CollectedMetrics powinny być traktowane jako takie same dla samołączenia
-
[SPARK-43977] [SC-133373][connect] Napraw nieoczekiwany wynik sprawdzania
dev/connect-jvm-client-mima-check - [SPARK-43985] [SC-133412][protobuf] spark protobuf: poprawa błędu z enumami jako liczbami całkowitymi
- [SPARK-43930] [SC-133406][sql][PYTHON][connect] Dodawanie funkcji unix_* do języków Scala i Python
- [SPARK-43807] [SC-132545][sql] Przeniesienie _LEGACY_ERROR_TEMP_1269 do PARTITION_SCHEMA_IS_EMPTY
- [SPARK-43956] [ SC-133123][sql] Poprawka błędu nie wyświetla sql kolumny dla percentylu[Cont|Dysk]
- [SPARK-42626] [ SC-133248][connect] Dodaj niszczący iterator dla SparkResult
- [SPARK-43333] [SC-132898][sql] Pozwól Avro na konwersję typu związkowego na SQL z nazwą pola stabilną względem typu.
-
[SPARK-43953] [SC-133134][connect] Usuń
pass - [SPARK-43970] [ SC-133403][python][CONNECT] Ukryj nieobsługiwane metody ramki danych przed automatycznym uzupełnianiem
- [SPARK-43973] [SC-133272][ss][UI] Interfejs użytkownika Strukturalnego przesyłania strumieniowego powinien prawidłowo wyświetlać nieudane zapytania.
- [SPARK-42577] [ SC-125445][core] Dodaj ograniczenie maksymalnej liczby prób dla etapów, aby uniknąć potencjalnego nieskończonego ponawiania próby
-
[SPARK-43841] [SC-132699][sql] Obsługa atrybutów kandydata bez prefiksu w
StringUtils#orderSuggestedIdentifiersBySimilarity - [SPARK-41497] [SC-124795][core][Dalsze działania] Zmodyfikować obsługę konfiguracji do wersji 3.5.0
- [SPARK-37942] [SC-130983][core][SQL] Migrowanie klas błędów
-
[SPARK-43898] [ SC-132926][core] Automatycznie zarejestruj
immutable.ArraySeq$ofRefdlaKryoSerializerScala 2.13 - [SPARK-43775] [ SC-132891][sql] DataSource V2: Zezwalaj na reprezentowanie aktualizacji jako operacji usuwania i wstawiania
- [SPARK-43817] [ SC-132662][spark-43702][PYTHON] Obsługa UserDefinedType w createDataFrame z pandas DataFrame i toPandas
- [SPARK-43418] [SC-132753][sc-130685][CONNECT] Dodanie funkcji SparkSession.Builder.getOrCreate, umożliwiającej utworzenie lub pobranie istniejącej sesji Spark.
- [SPARK-43549] [SC-132383][sql] Konwertuj _LEGACY_ERROR_TEMP_0036 na INVALID_SQL_SYNTAX. ANALYZE_TABLE_UNEXPECTED_NOSCAN
- [SPARK-41497] [ SC-124644][core] Naprawa niedoliczania akumulatora w przypadku ponownego uruchamiania zadania z cache RDD
-
[SPARK-43892] [ SC-133006][python] Dodaj obsługę autouzupełniania dla
df[|]wpyspark.sql.dataframe.DataFrame - [SPARK-43881] [SC-133140][sql][PYTHON][connect] Dodaj opcjonalny wzorzec dla Catalog.listDatabases
- [SPARK-43205] [SC-132623] klauzula IDENTIFIER
- [SPARK-43545] [SC-132378][sql][PYTHON] Obsługa typu zagnieżdżonego znacznika czasu
- [SPARK-43949] [SC-133048][python] Uaktualnianie pakietu cloudpickle do wersji 2.2.1
- [SPARK-43760] [ SC-132809][sql] Nullowalność wyników podzapytań skalarowych
-
[SPARK-43696] [SC-132737][spark-43697][SPARK-43698][spark-43699][PS] Fix
TimedeltaOpsfor Spark Connect - [SPARK-43895] [SC-132897][connect][GO] Przygotować ścieżkę pakietu Go
- [SPARK-43894] [SC-132892][python] Poprawka usterki w df.cache()
- [SPARK-43509] [SC-131625][connect] Obsługa tworzenia wielu sesji programu Spark Connect
- [SPARK-43882] [SC-132888][sql] Przypisz nazwę do _LEGACY_ERROR_TEMP_2122
-
[SPARK-43687] [SC-132747][spark-43688][SPARK-43689][spark-43690][PS] Naprawa
NumOpsdla Spark Connect -
[SPARK-43604] [ SC-132165][sql] Refaktoryzacja
INVALID_SQL_SYNTAXw celu uniknięcia osadzania tekstu błędu w kodzie źródłowym - [SPARK-43859] [SC-132883][sql] Przesłoń toString w LateralColumnAliasReference
- [SPARK-43792] [SC-132939][sql][PYTHON][connect] Dodaj opcjonalny wzorzec dla Catalog.listCatalogs
- [SPARK-43353] Cofnij “[SC-132734][python] Migracja pozostałych błędów sesji do klasy błędów”
- [SPARK-43375] [SC-130309][connect] Ulepszyć komunikaty o błędach dla INVALID_CONNECT_URL
-
[SPARK-43863] [SC-132721][connect] Usuń zbędny
toSeqzSparkConnectPlannerdla Scala 2.13 -
[SPARK-43676] [SC-132708][spark-43677][SPARK-43678][spark-43679][PS] Naprawa
DatetimeOpsdla Spark Connect -
[SPARK-43666] [SC-132689][spark-43667][SPARK-43668][spark-43669][PS] Napraw
BinaryOpsdla Spark Connect -
[SPARK-43680] [SC-132709][spark-43681][SPARK-43682][spark-43683][PS] Naprawa
NullOpsdla Spark Connect - [SPARK-43782] [SC-132885][core] Obsługa konfiguracji poziomu logów ze statyczną konfiguracją Spark
- [SPARK-43132] [SC-131623] [SS] [CONNECT] Python Client DataStreamWriter foreach() API
- [SPARK-43290] [SC-131961][sql] Dodaje obsługę AES IV i AAD do narzędzi ExpressionImplUtils
- [SPARK-43795] [ SC-132532][connect] Usuń parametry nieużytowane dla sparkConnectPlanner
- [SPARK-42317] [ SC-129194][sql] Nadaj nazwę do _LEGACY_ERROR_TEMP_2247: CANNOT_MERGE_SCHEMAS
- [SPARK-43597] [ SC-131960][sql] Przypisz nazwę do klasy błędów _LEGACY_ERROR_TEMP_0017
-
[SPARK-43834] [SC-132679][sql] Użyj klas błędów w błędach kompilacji
ResolveDefaultColumns - [SPARK-43749] [SC-132423][spark-43750][SQL] Przypisywanie nazw do klasy błędów _LEGACY_ERROR_TEMP_240[4-5]
- [SPARK-43576] [ SC-132533][core] Usuń nieużywane deklaracje z modułu Core
- [SPARK-43314] [ SC-129970][connect][PYTHON] Migrowanie błędów klienta programu Spark Connect do klasy błędów
- [SPARK-43799] [SC-132715][python] Dodanie opcji binarnej deskryptora do API PySpark Protobuf
- [SPARK-43837] [SC-132678][sql] Przypisz nazwę do klasy błędów _LEGACY_ERROR_TEMP_103[1–2]
- [SPARK-43862] [ SC-132750][sql] Przypisz nazwę do klasy błędów LEGACY_ERROR_TEMP(1254 i 1315)
- [SPARK-43886] [SC-132808][python] Akceptuj krotki generyczne jako wskazówki typowania w funkcji UDF w bibliotece Pandas
- [SPARK-43530] [SC-132653][protobuf] Odczyt pliku deskryptora tylko raz
- [SPARK-43820] [SC-132676][spark-43822][SPARK-43823][spark-43826][SPARK-43827] Przypisz nazwy do klasy błędów _LEGACY_ERROR_TEMP_241[1-7]
-
[SPARK-43671] [SC-132519][spark-43672][SPARK-43673][spark-43674][PS] Napraw
CategoricalOpsdla Spark Connect - [SPARK-39979] [SC-132685][sql] Dodaj opcję używania dużych wektorów szerokości zmiennych dla operacji UDF strzałki
-
[SPARK-43692] [SC-132660][spark-43693][SPARK-43694][spark-43695][PS] Fix
StringOpsfor Spark Connect - [SPARK-43353] [SC-132734][python] Migrowanie pozostałych błędów sesji do klasy błędów
-
[SPARK-43815] [SC-132781][sql] Dodaj
to_varcharalias dlato_char - [SPARK-43543] [13.x][sc-131839][PYTHON] Poprawka zachowania typu zagnieżdżonego MapType w funkcji Pandas UDF
- [SPARK-43361] [SC-131789][protobuf] aktualizacja dokumentacji dotyczącej błędów związanych z serializacją enumów
-
[SPARK-43740] [SC-132035][python][CONNECT] Ukryj nieobsługiwane
sessionmetody przed automatycznym uzupełnianiem - [SPARK-43022] [SC-131681][connect] Wsparcie dla funkcji protobuf dla klienta Scala
-
[SPARK-43304] [13.x][sc-129969][CONNECT][python] Migrate
NotImplementedErrorintoPySparkNotImplementedError - [SPARK-43860] [ SC-132713][sql] Włącz rekursję ogonową wszędzie tam, gdzie to możliwe
- [SPARK-42421] [ SC-132695][core] Użyj narzędzi, aby uzyskać przełącznik dynamicznej alokacji używanej w lokalnym punkcie kontrolnym
-
[SPARK-43590] [SC-132012][connect] Zrobić, aby wspierać kontrolę mima z modułem
connect-jvm-client-mima-check - [SPARK-43315] [13.x][connect][PYTHON][ss] Przenieś pozostałe błędy z DataFrame(Reader|Writer) do klasy błędów
- [SPARK-43361] [SC-130980][protobuf] spark-protobuf: umożliwia serde z enumami jako inty
- [SPARK-43789] [ SC-132397][r] Domyślnie używa parametru "spark.sql.execution.arrow.maxRecordsPerBatch" w ramce danych tworzonych w R za pomocą biblioteki Arrow
- [SPARK-43596] [SC-126994][sql] Obsługa predykatu IsNull w rewriteDomainJoins
- [SPARK-42249] [SC-122565][sql] Poprawianie linku HTML do dokumentacji w komunikatach o błędach.
-
[SPARK-43128] [SC-131628][connect][SS] Spraw, aby
recentProgressilastProgresszwracałyStreamingQueryProgresszgodnie z natywnym interfejsem API Scala - [SPARK-43387] [ SC-130448][sql] Podaj czytelny dla człowieka kod błędu dla _LEGACY_ERROR_TEMP_1168.
- [SPARK-43334] [SC-132358] [Interfejs użytkownika] Napraw błąd podczas serializacji ExecutorPeakMetricsDistributions w odpowiedzi interfejsu API
-
[SPARK-42958] [SC-131475][connect] Refaktoryzacja
connect-jvm-client-mima-checkw celu obsługi sprawdzania zgodności mima w module avro - [SPARK-43591] [ SC-131977][sql] Przypisz nazwę do klasy błędów _LEGACY_ERROR_TEMP_0013
- [SPARK-38464] [ SC-132211][core] Użyj klas błędów w org.apache.spark.io
- [SPARK-43759] [SC-132189][sql][PYTHON] Uwidacznia typ TimestampNTZType w pyspark.sql.types
- [SPARK-43649] [SC-132036][spark-43650][SPARK-43651][sql] Przypisz nazwy do klasy błędów _LEGACY_ERROR_TEMP_240[1-3]
-
[SPARK-43719] [SC-132016][webui] Obsługa pola
missing row.excludedInStages - [SPARK-42956] [SC-127257][connect] Wspieranie funkcji avro dla klienta Scala
- [SPARK-43487] [ SC-131975][sql] Poprawka zagnieżdżonego komunikatu o błędzie CTE
- [SPARK-43265] [SC-129653] Przenoszenie struktury błędów do wspólnego modułu narzędzi
- [SPARK-40912] [SC-131547][core]Obciążenie wyjątków w kryoDeserializationStream
- [SPARK-43583] [SC-131976][core] pobierz MergedBlockedMetaReqHandler od delegata zamiast wystąpienia programu SaslRpcHandler
- [SPARK-42996] [SC-131997][connect][PS][ml] Tworzenie i przypisywanie odpowiednich biletów JIRA dla wszystkich testów zakończonych niepowodzeniem.
- [SPARK-38469] [SC-131425][core] Użyj klasy błędów w org.apache.spark.network
- [SPARK-43718] [ SC-132014][sql] Poprawne ustawienie wartości null dla kluczy w łączeniach USING
-
[SPARK-43502] [SC-131419][python][CONNECT]
DataFrame.droppowinna zaakceptować pustą kolumnę - [SPARK-43743] [SC-132038][sql] Port HIVE-12188(DoAs nie działa prawidłowo w zabezpieczonym środowisku HS2 bez protokołu Kerberos)
- [SPARK-43598] [SC-131929][sql] Przypisz nazwę do klasy błędów _LEGACY_ERROR_TEMP_2400
- [SPARK-43138] [SC-131031][core] Fix ClassNotFoundException podczas migracji
- [SPARK-43360] [SC-131526][ss][CONNECT] Scala client StreamingQueryManager
- [SPARK-38467] [ SC-131025][core] Użyj klas błędów w org.apache.spark.memory
- [SPARK-43345] [SC-131790][spark-43346][SQL] Zmień nazwę klas błędów LEGACY_ERROR_TEMP[0041|1206]
- [SPARK-42815] [SC-126450][sql] Wsparcie eliminacji podwyrażenia dla wyrażeń skróconych
- [SPARK-38462] [SC-130449][core] Dodaj klasę błędów INTERNAL_ERROR_EXECUTOR
-
[SPARK-43589] [SC-131798][sql] Poprawka
cannotBroadcastTableOverMaxTableBytesErrordo użyciabytesToString - [SPARK-43539] [SC-131830][sql] Przypisz nazwę do klasy błędów _LEGACY_ERROR_TEMP_0003
- [SPARK-43157] [ SC-131688][sql] Skopiuj pamięci podręcznej planu InMemoryRelation, aby zapobiec odwoływaniu się sklonowanego planu do tych samych obiektów
- [SPARK-43309] [SC-129746][spark-38461][CORE] Rozszerzyć INTERNAL_ERROR o kategorie i dodać klasę błędów INTERNAL_ERROR_BROADCAST
- [SPARK-43281] [SC-131370][sql] Poprawka współbieżnego składnika zapisywania nie aktualizuje metryk plików
-
[SPARK-43383] [SC-130660][sql] Dodawanie
rowCountstatystyk do relacji lokalnej - [SPARK-43574] [SC-131739][python][SQL] Obsługa ustawienia pliku wykonywalnego Pythona dla API funkcji UDF i funkcji pandas w procesie wykonywania w środowisku roboczym
- [SPARK-43569] [SC-131694][sql] Usuń obejście dla HADOOP-14067
- [SPARK-43183] [ SC-128938][ss][13.x] Wprowadzenie nowego wywołania zwrotnego "onQueryIdle" do modułu StreamingQueryListener
- [SPARK-43528] [SC-131531][sql][PYTHON] Obsługa zduplikowanych nazw pól w createDataFrame z ramkami danych biblioteki pandas
- [SPARK-43548] [SC-131686][ss] Usuń obejście dla HADOOP-16255
-
[SPARK-43494] [ SC-131272][core] Bezpośrednie wywołanie
replicate()dlaHdfsDataOutputStreamBuilderzamiast używania refleksji wSparkHadoopUtil#createFile - [SPARK-43471] [ SC-131063][core] Obsługa brakujących właściwości hadoopProperties i metricsProperties
- [SPARK-42899] [ SC-126456][sql] Poprawka DataFrame.to(schemat) w celu obsługi przypadku, gdy w polu dopuszczanym do wartości null istnieje pole niezagnieżdżone
- [SPARK-43302] [SC-129747][sql] Przekształć Python UDAF w funkcję agregującą
- [SPARK-43223] [ SC-131270][connect] Typizowana agregacja, funkcje redukcyjne, RelationalGroupedDataset#as
- [SPARK-43482] [ SC-131375][ss] Rozszerz QueryTerminatedEvent, aby zawierał klasę błędu, jeśli istnieje w wyjątku
- [SPARK-43359] [SC-131463][sql] Usunięcie z tabeli Hive powinno zgłaszać "UNSUPPORTED_FEATURE.TABLE_OPERATION"
- [SPARK-43284] [SC-130313] Przełącz się z powrotem do ciągów zakodowanych w adresie URL
-
[SPARK-43492] [ SC-131227][sql] Dodaj trzyargumentowe aliasy funkcji
DATE_ADDiDATE_DIFF - [SPARK-43473] [SC-131372][python] Obsługa typu struct w createDataFrame z pandas DataFrame
-
[SPARK-43386] [SC-131110][sql] Ulepszanie listy sugerowanych kolumn/atrybutów w
UNRESOLVED_COLUMN.WITH_SUGGESTIONklasie błędów - [SPARK-43443] [ SC-131332][sql] Dodawanie testu porównawczego dla wnioskowania typu sygnatury czasowej w przypadku użycia nieprawidłowej wartości
-
[SPARK-43518] [SC-131420][sql] Przekształć
_LEGACY_ERROR_TEMP_2029na WEWNĘTRZNY_BŁĄD - [SPARK-42604] [SC-130648][connect] Implementacja funkcji typedlit
-
[SPARK-42323] [ES-669513] Przywróć "[SC-123479][sql] Przypisz nazwę do
_LEGACY_ERROR_TEMP_2332" - [SPARK-43357] [SC-130649][sql] Typ daty filtru cudzysłowu
- [SPARK-43410] [SC-130526][sql] Poprawa pętli wektoryzowanej dla spakowanych skipValues
-
[SPARK-43441] [ SC-130995][core]
makeDotNodenie powinien zawieść, gdy DeterministicLevel jest nieobecny - [SPARK-43324] [SC-130455][sql] Obsługa poleceń UPDATE dla źródeł opartych na delta
-
[SPARK-43272] [ SC-131168][core] Bezpośrednie wywołanie
createFilezamiast refleksji - [SPARK-43296] [13.x][sc-130627][CONNECT][python] Migrowanie błędów sesji programu Spark Connect do klasy błędów
-
[SPARK-43405] [SC-130987][sql] Usuń bezużyteczne
getRowFormatSQL, ,inputRowFormatSQLoutputRowFormatSQLmetoda - [SPARK-43447] [SC-131017][r] Obsługa języka R 4.3.0
-
[SPARK-43425] [SC-130981][sql] Dodaj
TimestampNTZTypedoColumnarBatchRow - [SPARK-41532] [SC-130523][connect][CLIENT] Dodaj sprawdzenie dla operacji obejmujących wiele ramek danych
- [SPARK-43262] [SC-129270][connect][SS][python] Migrowanie błędów strumieniowego przesyłania danych w Spark Connect do klasy błędów
- [SPARK-42992] [13.x][sc-129465][PYTHON] Wprowadzenie błędu PySparkRuntimeError
- [SPARK-43422] [ SC-130982][sql] Zachowaj tagi w LogicalRelation z wyjściem metadanych
- [SPARK-43390] [SC-130646][sql] DSv2 umożliwia CTAS/RTAS rezerwowanie wartości null schematu
- [SPARK-43430] [ SC-130989][connect][PROTO] ExecutePlanRequest obsługuje dowolne opcje żądania.
- [SPARK-43313] [SC-130254][sql] Dodawanie brakujących wartości domyślnych kolumn dla akcji MERGE INSERT
- [SPARK-42842] [SC-130438][sql] Połącz klasę błędów _LEGACY_ERROR_TEMP_2006 z REGEX_GROUP_INDEX
-
[SPARK-43377] [SC-130405][sql] Włącz
spark.sql.thriftServer.interruptOnCanceldomyślnie -
[SPARK-43292] [SC-130525][core][CONNECT] Przenoszenie
ExecutorClassLoaderdo modułucorei uproszczenieExecutor#addReplClassLoaderIfNeeded - [SPARK-43040] [SC-130310][sql] Poprawa obsługi typu TimestampNTZ w źródle danych JDBC
- [SPARK-43343] [ SC-130629][ss] FileStreamSource powinien wyłączyć dodatkowe sprawdzanie globu pliku podczas tworzenia źródła danych
- [SPARK-43312] [ SC-130294][protobuf] Opcja konwertowania dowolnych pól na format JSON
- [SPARK-43404] [SC-130586][ss] Pomiń ponowne korzystanie z pliku sst dla tej samej wersji magazynu stanów bazy danych RocksDB, aby uniknąć błędu niezgodności identyfikatorów
-
[SPARK-43397] [SC-130614][core] Zaloguj czas wycofywania wykonawcy w metodzie
executorLost - [SPARK-42388] [SC-128568][sql] Unikaj dwukrotnego odczytywania stopki parquet w wektoryzowanym czytniku
- [SPARK-43306] [13.x][sc-130320][PYTHON] Przenieść ValueError z typów Spark SQL do klasy typów błędów
- [SPARK-43337] [SC-130353][ui][3.4] Ikony strzałek Asc/desc dla kolumny sortowania nie są wyświetlane w kolumnie tabeli
-
[SPARK-43279] [ SC-130351][core] Oczyszczenie nieużywanych członków z
SparkHadoopUtil - [SPARK-43250] [SC-130147][sql] Zastąp klasę błędów błędem wewnętrznym
-
[SPARK-43363] [ SC-130299][sql][PYTHON] Wykonaj wywołanie
astypetypu kategorii tylko wtedy, gdy nie podano typu strzałki -
[SPARK-43261] [ SC-130154][python] Migrowanie
TypeErrorz typów Spark SQL do klasy błędów - [SPARK-41971] [SC-130230][sql][PYTHON] Dodać konfigurację konwersji pandas, jak obsługiwać typy strukturalne
- [SPARK-43381] [SC-130464][connect] Utwórz "transformStatCov" leniwy
- [SPARK-43362] [SC-130481][sql] Specjalna obsługa typu JSON dla łącznika MySQL
- [SPARK-42843] [SC-130196][sql] Zaktualizuj klasę błędów _LEGACY_ERROR_TEMP_2007 na REGEX_GROUP_INDEX
- [SPARK-42585] [SC-129968][connect] Przesyłanie strumieniowe relacji lokalnych
-
[SPARK-43181] [SC-130476][sql] Pokaż adres URL interfejsu użytkownika w powłoce
spark-sql - [SPARK-43051] [ SC-130194][connect] Dodaj opcję emitowania wartości domyślnych
- [SPARK-43204] [ SC-129296][sql] Wyrównaj przypisania MERGE z atrybutami tabeli
-
[SPARK-43348] [SC-130082][python] Wsparcie
Python 3.8w PyPy3 - [SPARK-42845] [ SC-130078][sql] Zaktualizuj klasę błędów _LEGACY_ERROR_TEMP_2010 na InternalError
- [SPARK-43211] [SC-128978][hive] Usuwanie obsługi usługi Hadoop2 w module IsolatedClientLoader
Środowisko systemu
- System operacyjny: Ubuntu 22.04.2 LTS
- Java: Zulu 8.70.0.23-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.2.2
- Delta Lake: 2.4.0
Zainstalowane biblioteki języka Python
| Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
|---|---|---|---|---|---|
| appdirs | 1.4.4 | argon2-cffi | 21.3.0 | argon2-cffi-bindings | 21.2.0 |
| asttokens | 2.2.1 | attrs | 21.4.0 | Wezwanie zwrotne | 0.2.0 |
| beautifulsoup4 | 4.11.1 | czarny | 22.6.0 | wybielacz | 4.1.0 |
| kierunkowskaz | 1.4 | boto3 | 1.24.28 | botocore | 1.27.28 |
| certyfikat | 2022.9.14 | cffi | 1.15.1 | chardet | 4.0.0 |
| normalizator zestawu znaków | 2.0.4 | kliknij | 8.0.4 | kryptografia | 37.0.1 |
| rowerzysta | 0.11.0 | Cython | 0.29.32 | databricks-sdk | 0.1.6 |
| dbus-python | 1.2.18 | debugpy | 1.5.1 | dekorator | 5.1.1 |
| defusedxml (biblioteka zabezpieczająca przetwarzanie XML) | 0.7.1 | distlib | 0.3.6 | Konwersja docstring na Markdown | 0,12 |
| punkty wejścia | 0,4 | Wykonywanie | 1.2.0 | aspekty — omówienie | 1.0.3 |
| fastjsonschema | 2.16.3 | blokada plików | 3.12.0 | fonttools | 4.25.0 |
| googleapis-common-protos | 1.56.4 | grpcio | 1.48.1 | status grpcio | 1.48.1 |
| httplib2 | 0.20.2 | IDNA | 3.3 | importlib-metadata | 4.6.4 |
| ipykernel | 6.17.1 | ipython | 8.10.0 | ipython-genutils | 0.2.0 |
| ipywidgets | 7.7.2 | Jedi | 0.18.1 | Jeepney | 0.7.1 |
| Jinja2 | 2.11.3 | jmespath | 0.10.0 | joblib | 1.2.0 |
| jsonschema | 4.16.0 | jupyter-client | 7.3.4 | jupyter_core | 4.11.2 |
| jupyterlab-pygments | 0.1.2 | Widżety JupyterLab | 1.0.0 | brelok do kluczy | 23.5.0 |
| kiwisolver | 1.4.2 | launchpadlib | 1.10.16 | lazr.restfulclient | 0.14.4 |
| lazr.uri | 1.0.6 | MarkupSafe | 2.0.1 | biblioteka matplotlib | 3.5.2 |
| moduł matplotlib-inline | 0.1.6 | Mccabe | 0.7.0 | Mistune | 0.8.4 |
| więcej itertools | 8.10.0 | mypy-extensions | 0.4.3 | NBClient | 0.5.13 |
| nbconvert - narzędzie do konwersji plików Jupyter Notebook | 6.4.4 | nbformat | 5.5.0 | nest-asyncio | 1.5.5 |
| nodeenv | 1.8.0 | notes | 6.4.12 | numpy | 1.21.5 |
| oauthlib | 3.2.0 | opakowanie | 21,3 | Pandas | 1.4.4 |
| pandocfilters | 1.5.0 | parso | 0.8.3 | specyfikacja ścieżki | 0.9.0 |
| frajer | 0.5.2 | pexpect | 4.8.0 | pickleshare (jeśli to nazwa własna, nie trzeba tłumaczyć) | 0.7.5 |
| Poduszka | 9.2.0 | pip (menedżer pakietów Pythona) | 22.2.2 | platformdirs | 2.5.2 |
| kreślenie | 5.9.0 | wtyczka | 1.0.0 | prometheus-client | 0.14.1 |
| zestaw narzędzi prompt | 3.0.36 | Protobuf (w skrócie od Protocol Buffers) | 3.19.4 | psutil | 5.9.0 |
| psycopg2 | 2.9.3 | ptyprocess | 0.7.0 | pure-eval | 0.2.2 |
| pyarrow | 8.0.0 | pycparser | 2.21 | pydantic (biblioteka Python do walidacji danych i zarządzania ustawieniami) | 1.10.6 |
| pyflakes (narzędzie do analizy statycznej kodu Python) | 3.0.1 | Pygments | 2.11.2 | PyGObject | 3.42.1 |
| PyJWT | 2.3.0 | pyodbc | 4.0.32 | pyparsing – biblioteka do przetwarzania tekstu w Pythonie | 3.0.9 |
| pyright | 1.1.294 | pirstent | 0.18.0 | python-dateutil (biblioteka Pythona do zarządzania datami) | 2.8.2 |
| python-lsp-jsonrpc | 1.0.0 | python-lsp-server | 1.7.1 | pytoolconfig | 1.2.2 |
| pytz (biblioteka Pythona do obliczeń stref czasowych) | 2022.1 | pyzmq | 23.2.0 | żądania | 2.28.1 |
| lina | 1.7.0 | s3transfer | 0.6.0 | scikit-learn | 1.1.1 |
| scipy (biblioteka naukowa dla Pythona) | 1.9.1 | urodzony na morzu | 0.11.2 | SecretStorage | 3.3.1 |
| Send2Trash | 1.8.0 | setuptools | 63.4.1 | Sześć | 1.16.0 |
| sito do zupy | 2.3.1 | ssh-import-id (narzędzie do importowania kluczy SSH) | 5,11 | stos danych | 0.6.2 |
| statsmodels - biblioteka do modelowania statystycznego | 0.13.2 | Wytrzymałość | 8.1.0 | zakończony | 0.13.1 |
| ścieżka testowa | 0.6.0 | threadpoolctl | 2.2.0 | tokenize-rt | 4.2.1 |
| tomli | 2.0.1 | tornado | 6.1 | traitlety | 5.1.1 |
| moduł typing_extensions | 4.3.0 | ujson (szybka biblioteka do obsługi formatu JSON) | 5.4.0 | nienadzorowane uaktualnienia | 0.1 |
| urllib3 | 1.26.11 | virtualenv | 20.16.3 | wadllib | 1.3.6 |
| szerokość(wcwidth) | 0.2.5 | kodowania webowe | 0.5.1 | czymjestłatka | 1.0.2 |
| wheel | 0.37.1 | widgetsnbextension | 3.6.1 | yapf (Yet Another Python Formatter - Kolejny Formatator Pythona) | 0.31.0 |
| zamek błyskawiczny | 1.0.0 |
Zainstalowane biblioteki języka R
Biblioteki języka R są instalowane z migawki usługi Microsoft CRAN w wersji 2023-02-10.
| Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
|---|---|---|---|---|---|
| strzałka | 10.0.1 | askpass | 1.1 | potwierdzić to | 0.2.1 |
| backporty (funkcje przeniesione do starszych wersji oprogramowania) | 1.4.1 | baza | 4.2.2 | base64enc | 0.1-3 |
| odrobina | 4.0.5 | bit-64 | 4.0.5 | blob | 1.2.3 |
| uruchamianie | 1.3-28 | warzyć | 1.0-8 | Brio | 1.1.3 |
| miotła | 1.0.3 | bslib | 0.4.2 | kaszmir | 1.0.6 |
| obiekt wywołujący | 3.7.3 | karetka | 6.0-93 | cellranger | 1.1.0 |
| Chroń | 2.3-59 | klasa | 7.3-21 | CLI | 3.6.0 |
| clipr | 0.8.0 | zegar | 0.6.1 | klaster | 2.1.4 |
| codetools | 0.2-19 | przestrzeń kolorów | 2.1-0 | commonmark | 1.8.1 |
| kompilator | 4.2.2 | konfiguracja | 0.3.1 | cpp11 | 0.4.3 |
| kredka | 1.5.2 | dane logowania | 1.3.2 | skręt | 5.0.0 |
| tabela danych | 1.14.6 | zbiory danych | 4.2.2 | DBI | 1.1.3 |
| dbplyr | 2.3.0 | Opis | 1.4.2 | devtools | 2.4.5 |
| diffobj | 0.3.5 | skrót | 0.6.31 | oświetlenie skierowane w dół | 0.4.2 |
| dplyr | 1.1.0 | dtplyr | 1.2.2 | e1071 | 1.7-13 |
| wielokropek | 0.3.2 | ocenić | 0,20 | fani | 1.0.4 |
| kolory | 2.1.1 | szybka mapa | 1.1.0 | Font Awesome | 0.5.0 |
| dla kotów | 1.0.0 | foreach | 1.5.2 | zagraniczny | 0.8-82 |
| kuźnia | 0.2.0 | Fs | 1.6.1 | przyszłość | 1.31.0 |
| wprowadź przyszłość | 1.10.0 | płukać gardło | 1.3.0 | typy ogólne | 0.1.3 |
| Gert | 1.9.2 | ggplot2 | 3.4.0 | Gh | 1.3.1 |
| gitcreds | 0.1.2 | glmnet | 4.1-6 | globalna | 0.16.2 |
| klej | 1.6.2 | googledrive | 2.0.0 | googlesheets4 | 1.0.1 |
| Gower | 1.0.1 | grafika | 4.2.2 | grDevices | 4.2.2 |
| siatka | 4.2.2 | gridExtra | 2.3 | gsubfn | 0,7 |
| gtabela | 0.3.1 | hełm ochronny | 1.2.0 | przystań | 2.5.1 |
| wyższy | 0.10 | HMS | 1.1.2 | htmltools – narzędzie do tworzenia stron internetowych | 0.5.4 |
| widżety HTML | 1.6.1 | httpuv | 1.6.8 | httr | 1.4.4 |
| Identyfikatory | 1.0.1 | ini | 0.3.1 | ipred | 0.9-13 |
| isoband | 0.2.7 | Iteratory | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.4 | KernSmooth | 2.23-20 | knitr (narzędzie do generowania dynamicznych raportów w R) | 1.42 |
| Etykietowanie | 0.4.2 | później | 1.3.0 | krata | 0.20-45 |
| lawa | 1.7.1 | cykl życia | 1.0.3 | nasłuchiwanie | 0.9.0 |
| lubridate | 1.9.1 | magrittr | 2.0.3 | Markdown | 1.5 |
| MASA | 7.3-58.2 | Macierz | 1.5-1 | zapamiętywanie | 2.0.1 |
| metody | 4.2.2 | mgcv | 1.8-41 | mim | 0,12 |
| miniUI (interfejs użytkownika) | 0.1.1.1 | Metryki modelu | 1.2.2.2 | modeler | 0.1.10 |
| munsell | 0.5.0 | nlme | 3.1-162 | sieć neuronowa (nnet) | 7.3-18 |
| numDeriv | 2016.8-1.1 | openssl | 2.0.5 | równoległy | 4.2.2 |
| równolegle | 1.34.0 | filar | 1.8.1 | pkgbuild | 1.4.0 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2 |
| plogr | 0.2.0 | plyr | 1.8.8 | pochwała | 1.0.0 |
| prettyunits | 1.1.1 | Proc | 1.18.0 | Procesx | 3.8.0 |
| prodlim | 2019.11.13 | profvis | 0.3.7 | Postęp | 1.2.2 |
| progressr | 0.13.0 | Obietnice | 1.2.0.1 | Prototyp | 1.0.0 |
| serwer proxy | 0.4-27 | PS | 1.7.2 | mruczenie | 1.0.1 |
| r2d3 | 0.2.6 | R6 | 2.5.1 | ragg | 1.2.5 |
| "randomForest" | 4.7-1.1 | rappdirs | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrewer | 1.1-3 | Rcpp | 1.0.10 | RcppEigen | 0.3.3.9.3 |
| czytnik | 2.1.3 | readxl (biblioteka do odczytu plików Excel) | 1.4.2 | przepisy | 1.0.4 |
| rewanż | 1.0.1 | rewanż2 | 2.1.2 | Piloty | 2.4.2 |
| przykład powtarzalny | 2.0.2 | zmień kształt2 | 1.4.4 | rlang | 1.0.6 |
| rmarkdown (narzędzie do tworzenia dokumentów w R) | 2,20 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
| rpart | 4.1.19 | rprojroot | 2.0.3 | Rserve | 1.8-12 |
| RSQLite | 2.2.20 | rstudioapi | 0,14 | rversions (rversions) | 2.1.2 |
| rvest | 1.0.3 | Sass | 0.4.5 | waga | 1.2.1 |
| selektor | 0.4-2 | informacje o sesji | 1.2.2 | kształt | 1.4.6 |
| błyszczący | 1.7.4 | sourcetools | 0.1.7-1 | sparklyr | 1.7.9 |
| SparkR | 3.4.0 | przestrzenny | 7.3-15 | Splajny | 4.2.2 |
| sqldf | 0.4-11 | KWADRAT | 2021.1 | Statystyki | 4.2.2 |
| statystyki4 | 4.2.2 | łańcuchy | 1.7.12 | stringr | 1.5.0 |
| przetrwanie | 3.5-3 | sys | 3.4.1 | systemfonts | 1.0.4 |
| tcltk | 4.2.2 | testthat | 3.1.6 | kształtowanie tekstu | 0.3.6 |
| tibble | 3.1.8 | tidyr | 1.3.0 | tidyselect | 1.2.0 |
| tidyverse | 1.3.2 | zmiana czasu | 0.2.0 | czasData | 4022.108 |
| tinytex | 0.44 | narzędzia | 4.2.2 | Baza Danych Stref Czasowych (tzdb) | 0.3.0 |
| sprawdzacz URL | 1.0.1 | użyj tego | 2.1.6 | utf8 | 1.2.3 |
| oprogramowanie użytkowe | 4.2.2 | UUID (Uniwersalnie Unikalny Identyfikator) | 1.1-0 | vctrs | 0.5.2 |
| viridisLite | 0.4.1 | Vroom | 1.6.1 | Waldo | 0.4.0 |
| wąs | 0.4.1 | Withr | 2.5.0 | xfun | 0,37 |
| xml2 | 1.3.3 | xopen | 1.0.0 | Xtable | 1.8-4 |
| yaml | 2.3.7 | zamek błyskawiczny | 2.2.2 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.12)
| Identyfikator grupy | Identyfikator artefaktu | Wersja |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Klient Amazon Kinesis | 1.12.0 |
| com.amazonaws | aws-java-sdk-automatyczne-skalowanie | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudhsm (zestaw narzędzi Java dla usługi CloudHSM) | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
| com.amazonaws | aws-java-sdk-codedeploy (biblioteka do zarządzania wdrażaniem kodu w AWS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
| com.amazonaws | aws-java-sdk-config (konfiguracja aws-java-sdk) | 1.12.390 |
| com.amazonaws | aws-java-sdk-core | 1.12.390 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.12.390 |
| com.amazonaws | aws-java-sdk-directconnect (pakiet narzędzi programistycznych dla Java do współpracy z AWS Direct Connect) | 1.12.390 |
| com.amazonaws | aws-java-sdk-directory | 1.12.390 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ecs | 1.12.390 |
| com.amazonaws | aws-java-sdk-efs | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticache | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.12.390 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.12.390 |
| com.amazonaws | aws-java-sdk-emr (biblioteka SDK Java dla usługi Amazon EMR) | 1.12.390 |
| com.amazonaws | AWS Java SDK dla Glacier | 1.12.390 |
| com.amazonaws | aws-java-sdk-klej | 1.12.390 |
| com.amazonaws | aws-java-sdk-iam | 1.12.390 |
| com.amazonaws | AWS-Java-SDK-ImportExport | 1.12.390 |
| com.amazonaws | AWS SDK dla Javy - Kinesis | 1.12.390 |
| com.amazonaws | aws-java-sdk-kms | 1.12.390 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
| com.amazonaws | aws-java-sdk-logs | 1.12.390 |
| com.amazonaws | aws-java-sdk-uczenie-maszynowe | 1.12.390 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
| com.amazonaws | aws-java-sdk-rds (pakiet programistyczny Java dla AWS RDS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-redshift | 1.12.390 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ses | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
| com.amazonaws | aws-java-sdk-sns | 1.12.390 |
| com.amazonaws | aws-java-sdk-sqs | 1.12.390 |
| com.amazonaws | aws-java-sdk-ssm | 1.12.390 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.12.390 |
| com.amazonaws | aws-java-sdk-sts (pakiet programistyczny Java dla AWS STS) | 1.12.390 |
| com.amazonaws | wsparcie dla aws-java-sdk | 1.12.390 |
| com.amazonaws | aws-java-sdk-swf-biblioteki | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.12.390 |
| com.amazonaws | jmespath-java | 1.12.390 |
| com.clearspring.analytics | odtwarzać strumieniowo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kriogenicznie cieniowane | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | kolega z klasy | 1.3.4 |
| com.fasterxml.jackson.core | adnotacje jackson | 2.14.2 |
| com.fasterxml.jackson.core | jackson-core | 2.14.2 |
| com.fasterxml.jackson.core | jackson-databind | 2.14.2 |
| com.fasterxml.jackson.dataformat | Jackson-format-danych-CBOR | 2.14.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.14.2 |
| com.fasterxml.jackson.datatype | jackson-datatype-jsr310 | 2.13.4 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.14.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.14.2 |
| com.github.ben-manes.kofeina | kofeina | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | natywne_odniesienie-java | 1.1 |
| com.github.fommil.netlib | natywne_odniesienie-java | 1.1-rdzenni mieszkańcy |
| com.github.fommil.netlib | natywny_system java | 1.1 |
| com.github.fommil.netlib | natywny_system java | 1.1-rdzenni mieszkańcy |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-rdzenni mieszkańcy |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 | 1.1-rdzenni mieszkańcy |
| com.github.luben | zstd-jni | 1.5.2-5 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.8.9 |
| com.google.crypto.tink | Tink | 1.7.0 |
| com.google.errorprone | adnotacje podatne na błędy | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | guawa | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 2.1.214 |
| com.helger | profiler | 1.1.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.WYDANIE |
| com.lihaoyi | kodźródłowy_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK do przechowywania danych Azure Data Lake) | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 11.2.2.jre8 |
| com.ning | compress-lzf (biblioteka do kompresji danych) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | soczewki_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | konfiguracja | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.0 |
| com.univocity | parsery jednoznaczności | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec | commons-codec | 1.15 |
| Zbiory Commons | Zbiory Commons | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| wspólne przesyłanie plików | wspólne przesyłanie plików | 1.5 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.11.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 3.0.3 |
| dev.ludovic.netlib | Blas | 3.0.3 |
| dev.ludovic.netlib | lapack | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | sprężarka powietrza | 0.21 |
| io.delta | delta-sharing-spark_2.12 | 0.7.0 |
| io.dropwizard.metrics | metryki —rdzeń | 4.2.10 |
| io.dropwizard.metrics | metrics-graphite | 4.2.10 |
| io.dropwizard.metrics | metryki-kontrole stanu | 4.2.10 |
| io.dropwizard.metrics | metrics-jetty9 | 4.2.10 |
| io.dropwizard.metrics | metrics-jmx | 4.2.10 |
| io.dropwizard.metrics | metryki-json | 4.2.10 |
| io.dropwizard.metrics | metryki-JVM | 4.2.10 |
| io.dropwizard.metrics | serwlety do monitorowania metryk | 4.2.10 |
| io.netty | netty-all | 4.1.87.Final |
| io.netty | Netty-buffer | 4.1.87.Final |
| io.netty | netty-codec | 4.1.87.Final |
| io.netty | netty-codec-http | 4.1.87.Final |
| io.netty | netty-codec-http2 | 4.1.87.Final |
| io.netty | netty-codec-socks | 4.1.87.Final |
| io.netty | netty-common (element wspólny) | 4.1.87.Final |
| io.netty | "netty-handler" | 4.1.87.Final |
| io.netty | netty-handler-proxy | 4.1.87.Final |
| io.netty | rozwiązywacz netty | 4.1.87.Final |
| io.netty | transport sieciowy | 4.1.87.Final |
| io.netty | netty-transport-classes-epoll | 4.1.87.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.87.Final |
| io.netty | netty-transport-native-epoll | 4.1.87.Final |
| io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll | 4.1.87.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.87.Final-osx-x86_64 |
| io.netty | netty-transport-native-unix-common | 4.1.87.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | moduł zbierający | 0.12.0 |
| jakarta.adnotacja | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| \ jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktywacja | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | interfejs programistyczny transakcji | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| ml.combust.mleap | mleap-databricks-runtime_2.12 | v0.20.0-db2 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | kiszonka | 1.3 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | SDK do pobierania danych Snowflake | 0.9.6 |
| net.snowflake | snowflake-jdbc | 3.13.29 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc (niedostępne w lokalnym języku) | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | szablon łańcuchowy | 3.2.1 |
| org.apache.ant | mrówka | 1.9.16 |
| org.apache.ant | ant-jsch | 1.9.16 |
| org.apache.ant | program uruchamiający Ant | 1.9.16 |
| org.apache.arrow | format strzałki | 11.0.0 |
| org.apache.arrow | strzałka-pamięć-rdzeń | 11.0.0 |
| org.apache.arrow | arrow-memory-netty | 11.0.0 |
| org.apache.arrow | wektor strzałki | 11.0.0 |
| org.apache.avro | avro | 1.11.1 |
| org.apache.avro | avro-ipc | 1.11.1 |
| org.apache.avro | avro-mapred | 1.11.1 |
| org.apache.commons | commons-collections4 | 4.4 |
| org.apache.commons | commons-compress | 1.21 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.6.1 |
| org.apache.commons | tekst wspólny | 1.10.0 |
| org.apache.curator | kurator-klient | 2.13.0 |
| org.apache.curator | struktura kuratora | 2.13.0 |
| org.apache.curator | przepisy wyselekcjonowane przez kuratora | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | datasketches-pamięć | 2.0.0 |
| org.apache.derby | Derby | 10.14.2.0 |
| org.apache.hadoop | środowisko uruchomieniowe klienta Hadoop | 3.3.4 |
| org.apache.hive | hive-beeline (narzędzie do interakcji z bazą danych Hive) | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | Klient hive-llap | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | podkładki hive | 2.3.9 |
| org.apache.hive | hive-storage-api (interfejs do przechowywania danych hive) | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | harmonogram osłon/imitacji ula | 2.3.9 |
| org.apache.httpcomponents | httpclient | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | bluszcz | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.19.0 |
| org.apache.logging.log4j | log4j-api | 2.19.0 |
| org.apache.logging.log4j | log4j-core | 2.19.0 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.19.0 |
| org.apache.mesos | Mesos | 1.11.0-shaded-protobuf |
| org.apache.orc | orc-core | 1.8.3-shaded-protobuf |
| org.apache.orc | orc-mapreduce | 1.8.3-shaded-protobuf |
| org.apache.orc | podkładki orc-shim | 1.8.3 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-cieniowane | 4.22 |
| org.apache.yetus | adnotacje odbiorców | 0.13.0 |
| org.apache.zookeeper - system do zarządzania konfiguracją i synchronizacją dla aplikacji rozproszonych. | opiekun zwierząt w zoo | 3.6.3 |
| org.apache.zookeeper - system do zarządzania konfiguracją i synchronizacją dla aplikacji rozproszonych. | juta dozorcy | 3.6.3 |
| org.checkerframework | checker-qual | 3.19.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapujący-ASL | 1.9.13 |
| org.codehaus.janino | commons-kompilator | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.50.v2021201 |
| org.eclipse.jetty | jetty-kontynuacja | 9.4.50.v2021201 |
| org.eclipse.jetty | jetty-http | 9.4.50.v2021201 |
| org.eclipse.jetty | jetty-io | 9.4.50.v2021201 |
| org.eclipse.jetty | jetty-jndi | 9.4.50.v2021201 |
| org.eclipse.jetty | Jetty-plus | 9.4.50.v2021201 |
| org.eclipse.jetty | serwer pośredniczący Jetty | 9.4.50.v2021201 |
| org.eclipse.jetty | moduł bezpieczeństwa Jetty | 9.4.50.v2021201 |
| org.eclipse.jetty | serwer Jetty | 9.4.50.v2021201 |
| org.eclipse.jetty | jetty-servlet | 9.4.50.v2021201 |
| org.eclipse.jetty | jetty-servlets | 9.4.50.v2021201 |
| org.eclipse.jetty | jetty-util | 9.4.50.v2021201 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.50.v2021201 |
| org.eclipse.jetty | Jetty-aplikacja internetowa | 9.4.50.v2021201 |
| org.eclipse.jetty | jetty-xml | 9.4.50.v2021201 |
| org.eclipse.jetty.websocket | WebSocket API | 9.4.50.v2021201 |
| org.eclipse.jetty.websocket | websocket-klient | 9.4.50.v2021201 |
| org.eclipse.jetty.websocket | websocket —wspólne | 9.4.50.v2021201 |
| org.eclipse.jetty.websocket | serwer websocket | 9.4.50.v2021201 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.50.v2021201 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | lokalizator hk2 | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-lokalizator-zasobów | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-zapakowane ponownie | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | serwlet kontenerowy Jersey | 2.36 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.36 |
| org.glassfish.jersey.core | jersey-client | 2.36 |
| org.glassfish.jersey.core | dzianina-zwykła | 2.36 |
| org.glassfish.jersey.core | serwer jersey | 2.36 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.36 |
| org.hibernate.validator | moduł sprawdzania poprawności hibernacji | 6.1.7.Final |
| org.javassist | javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging (narzędzie do rejestrowania zdarzeń w JBoss) | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | Adnotacje | 17.0.0 |
| org.joda | joda-convert | 1,7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mariadb.jdbc | mariadb-java-client | 2.7.4 |
| org.mlflow | mlflow-spark | 2.2.0 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.3.8 |
| org.roaringbitmap | RoaringBitmap | 0.9.39 |
| org.roaringbitmap | Podkładki regulacyjne | 0.9.39 |
| org.rocksdb | rocksdbjni | 7.8.3 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interfejs testowy | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | zgodny ze standardem scalatest | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-over-slf4j | 2.0.6 |
| org.slf4j | jul-to-slf4j | 2.0.6 |
| org.slf4j | slf4j-api | 2.0.6 |
| org.threeten | ThreeTen Extra | 1.7.1 |
| org.tukaani | xz | 1,9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.8.4 |
| org.yaml | snakeyaml | 1,33 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider | 1.6.1-linux-x86_64 |
| oprogramowanie.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |