Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Note
Obsługa tej wersji środowiska Databricks Runtime została zakończona. Aby uzyskać datę zakończenia pomocy technicznej, zobacz Historia zakończenia pomocy technicznej. Wszystkie obsługiwane wersje środowiska Databricks Runtime można znaleźć w sekcji Notatki o wersjach i zgodności środowiska Databricks Runtime.
Poniższe informacje o wydaniu zawierają informacje o środowiskach Databricks Runtime 10.4 i Databricks Runtime 10.4 Photon działających na Apache Spark 3.2.1. Photon jest w publicznej wersji zapoznawczej. Usługa Databricks wydała tę wersję w marcu 2022 r.
Nowe funkcje i ulepszenia
- Konwerter tabel Apache Iceberg to Delta (publiczna wersja zapoznawcza)
- Automatyczne wycofywanie kompaktowania jest teraz domyślnie włączone
- Funkcja Low Shuffle Merge jest teraz domyślnie włączona
-
Tagi kolejności wstawiania są teraz zachowywane dla
UPDATEs iDELETEs - HikariCP jest teraz domyślną pulą połączeń magazynu metadanych Hive
- Łącznik usługi Azure Synapse umożliwia teraz ustawienie maksymalnej liczby dozwolonych wierszy odrzucania
- Asynchroniczne sprawdzanie stanu jest teraz ogólnie dostępne
- Wartości domyślne parametrów można teraz określić dla funkcji zdefiniowanych przez użytkownika SQL
- Nowe funkcje Spark SQL
- Nowy katalog roboczy dla klastrów o wysokiej współbieżności
- Obsługa kolumn Identity w tabelach Delta jest teraz ogólnie dostępna
Konwerter tabel Apache Iceberg to Delta (publiczna wersja zapoznawcza)
Funkcja Konwertuj na funkcję Delta obsługuje teraz konwertowanie tabeli Apache Iceberg na tabelę delty. Robi to przy użyciu natywnych metadanych i manifestów plików Iceberg. Zobacz Konwersja na Delta Lake.
Automatyczne wycofywanie kompaktowania jest teraz domyślnie włączone
Ta wersja poprawia zachowanie zapisów usługi Delta Lake, które zatwierdzają się w przypadku równoczesnych transakcji automatycznego kompaktowania. Przed tą wersją takie operacje zapisu często kończyłyby się z powodu współbieżnych modyfikacji tabeli. Operacje zapisu powiedzą się teraz nawet wtedy, gdy istnieją współbieżne transakcje autokompaktacji.
Funkcja Low Shuffle Merge jest teraz domyślnie włączona
Polecenie MERGE INTO zawsze korzysta teraz z nowej implementacji low-shuffle. To zachowanie znacznie poprawia wydajność MERGE INTO polecenia dla większości obciążeń. Ustawienie konfiguracji, które zostało wcześniej użyte do włączenia tej funkcji, zostało usunięte. Zobacz Scalanie z niskim przełączaniem na platformie Azure Databricks.
Tagi kolejności wstawiania są teraz zachowywane dla UPDATE i DELETE.
Polecenia UPDATE i DELETE zachowują teraz istniejące informacje klastrowania (w tym kolejność Z) dla plików, które są aktualizowane lub usuwane. Takie zachowanie jest najlepszym rozwiązaniem i takie podejście nie ma zastosowania do przypadków, gdy pliki są tak małe, że te pliki są łączone podczas aktualizacji lub usuwania.
HikariCP jest teraz domyślną pulą połączeń magazynu metadanych Hive
HikariCP zapewnia wiele ulepszeń stabilności dostępu do magazynu metadanych Hive przy zachowaniu mniejszej liczby połączeń w porównaniu z poprzednią implementacją puli połączeń BoneCP. Funkcja HikariCP jest domyślnie włączona w dowolnym klastrze środowiska Databricks Runtime używającym magazynu metadanych Hive usługi Databricks (na przykład, gdy spark.sql.hive.metastore.jars nie jest ustawiona). Można również jawnie przełączyć się do innych implementacji puli połączeń, na przykład BoneCP, ustawiając wartość spark.databricks.hive.metastore.client.pool.type.
Łącznik usługi Azure Synapse umożliwia teraz ustawienie maksymalnej liczby dozwolonych wierszy odrzucania
Łącznik usługi Azure Synapse teraz obsługuje opcję maxErrors dla DataFrame. Ta aktualizacja umożliwia skonfigurowanie maksymalnej liczby odrzuconych wierszy, które są dozwolone podczas operacji odczytu i zapisu przed anulowaniem operacji ładowania. Wszystkie odrzucone wiersze są ignorowane. Jeśli na przykład dwa z dziesięciu rekordów zawierają błędy, przetwarzane są tylko osiem rekordów.
Ta opcja odpowiada bezpośrednio opcji REJECT_VALUE dla polecenia CREATE EXTERNAL TABLE w programie PolyBase oraz opcji MAXERRORS polecenia COPY dla łącznika usługi Azure Synapse.
Domyślnie maxErrors wartość jest ustawiona na 0wartość : wszystkie rekordy powinny być prawidłowe.
Asynchroniczne sprawdzanie stanu jest teraz ogólnie dostępne
Możesz włączyć asynchroniczne tworzenie punktów kontrolnych stanu w stanowych zapytaniach przesyłania strumieniowego z dużymi aktualizacjami stanu. Może to zmniejszyć kompleksowe opóźnienie mikrosadowe. Ta funkcja jest teraz ogólnie dostępna. Zobacz Asynchroniczne punkty kontrolne stanu dla zapytań stanowych.
Wartości domyślne parametrów można teraz określić dla funkcji zdefiniowanych przez użytkownika SQL
Podczas tworzenia funkcji zdefiniowanej przez użytkownika SQL (SQL UDF) można teraz określić wyrażenia domyślne dla parametrów funkcji zdefiniowanej przez użytkownika SQL. Następnie można wywołać funkcję zdefiniowanej przez użytkownika SQL bez podawania argumentów dla tych parametrów, a usługa Databricks wypełni wartości domyślne dla tych parametrów. Zobacz CREATE FUNCTION (SQL i Python).
Nowe funkcje Spark SQL
Następujące funkcje Spark SQL są teraz dostępne w tej wersji:
-
try_multiply: zwraca
multiplierwartość pomnożona przezmultiplicandwartość lubNULLprzy przepełnieniu. -
try_subtract: zwraca odejmowanie
expr2wartości zexpr1, lubNULLna przepełnieniu.
Nowy katalog roboczy dla klastrów o wysokiej współbieżności
W klastrach High Concurrency o wysokiej współbieżności z włączoną kontrolą dostępu do tabel lub przekazywaniem poświadczeń, bieżący katalog roboczy notebooków jest teraz katalogiem macierzystym użytkownika. Wcześniej katalog roboczy był /databricks/driver.
Obsługa kolumn tożsamości w tabelach delty jest teraz ogólnie dostępna
Usługa Delta Lake obsługuje teraz kolumny identyfikacyjne. Gdy zapisujesz do tabeli Delta, która definiuje kolumnę tożsamości i nie podajesz wartości dla tej kolumny, Delta automatycznie przypisuje unikatową oraz statystycznie rosnącą lub malejącą wartość. Zobacz CREATE TABLE [USING].
Uaktualnienia biblioteki
- Uaktualnione biblioteki języka Python:
- filelock z wersji 3.4.2 do 3.6.0
- Uaktualnione biblioteki języka R:
- warzenie od 1.0-6 do 1.0-7
- broom z wersji 0.7.11 do 0.7.12
- interfejs wiersza polecenia z wersji 3.1.0 do 3.2.0
- program clipr z wersji 0.7.1 do 0.8.0
- przestrzeń kolorów z zakresu od 2.0 do 2.0-3
- crayon od wersji 1.4.2 do wersji 1.5.0
- dplyr z wersji 1.0.7 do 1.0.8
- dtplyr z wersji 1.2.0 do 1.2.1
- oceniaj od 0,14 do 0,15
- foreach z wersji 1.5.1 do 1.5.2
- przyszłość z wersji 1.23.0 do 1.24.0
- typy ogólne od 0.1.1 do 0.1.2
- aktualizacja glue z wersji 1.6.0 do 1.6.1
- Zaktualizuj gower z wersji 0.2.2 do 1.0.0
- iteratory z wersji 1.0.13 do 1.0.14
- jsonlite z wersji 1.7.3 do 1.8.0
- magrittr z wersji 2.0.1 do 2.0.2
- mgcv z 1.8-38 do 1.8-39
- filar od 1.6.4 do 1.7.0
- randomForest z 4.6-14 do 4.7-1
- aktualizacja readr z wersji 2.1.1 do 2.1.2
- przepisy od 0.1.17 do 0.2.0
- rlang z wersji 0.4.12 do 1.0.1
- rpart z 4.1-15 do 4.1.16
- RSQLite z wersji 2.2.9 do 2.2.10
- sparklyr z 1.7.4 do 1.7.5
- testthat z 3.1.1 do 3.1.2
- tidyr od wersji 1.1.4 do wersji 1.2.0
- tidyselect z wersji 1.1.1 do 1.1.2
- tinytex z 0.36 do 0.37
- yaml z wersji 2.2.1 do 2.3.5
- Uaktualnione biblioteki Java:
- io.delta.delta-sharing-spark_2.12 z wersji 0.3.0 do 0.4.0
Apache Spark
Środowisko Databricks Runtime 10.4 LTS obejmuje platformę Apache Spark 3.2.1. Ta wersja zawiera wszystkie poprawki i ulepszenia platformy Spark zawarte w środowisku Databricks Runtime 10.3 (EoS), a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:
- [SPARK-38322] [SQL] Etap zapytania pomocy technicznej pokazuje statystyki środowiska uruchomieniowego w trybie objaśnienia sformatowanego
- [SPARK-38162] [SQL] Optymalizowanie planu jednego wiersza w normalnym i optymalizatorze AQE
- [SPARK-38229] [SQL] Nie należy sprawdzać temp/external/ifNotExists z użyciem visitReplaceTable podczas parsowania
- [SPARK-34183] [SS] DataSource V2: wymagana dystrybucja i kolejność przy wykonaniu mikropartiami
- [SPARK-37932] [SQL]Poczekaj na rozwiązanie problemu z brakującymi atrybutami przed zastosowaniem DeduplicateRelations
- [SPARK-37904] [SQL] Ulepsz RebalancePartitions w regułach optymalizatora
- [SPARK-38236] [SQL][3.2][3.1] Sprawdź, czy lokalizacja tabeli jest bezwzględna według wartości "new Path(locationUri).isAbsolute" w tabeli create/alter
- [SPARK-38035] [SQL] Dodaj testy platformy Docker dla wbudowanego dialektu JDBC
- [SPARK-38042] [SQL] Upewnij się, że funkcja ScalaReflection.dataTypeFor działa w przypadku aliasowanych typów tablic
- [SPARK-38273] Iteratory SQL powinny zamknąć bazowe strumienie wejściowe
- [SPARK-38311] [SQL] Naprawiono DynamicPartitionPruning/BucketedReadSuite/ExpressionInfoSuite w trybie ANSI
- [SPARK-38305] [CORE] Jawne sprawdzanie, czy źródło istnieje w unpack() przed wywołaniem metod FileUtil
- [SPARK-38275] [ SS] Uwzględnij użycie pamięci writeBatch jako całkowite użycie pamięci magazynu stanów bazy danych RocksDB
-
[SPARK-38132] [SQL] Usuń
NotPropagationregułę - [SPARK-38286] [ SQL] Parametry MaxRows i maxRowsPerPartition mogą ulec przepełnieniu
- [SPARK-38306] [SQL] Fix ExplainSuite,StatisticsCollectionSuite i StringFunctionsSuite w trybie ANSI
- [SPARK-38281] [SQL][testy] Popraw AnalysisSuite w trybie ANSI
- [SPARK-38307] [SQL][testy] Naprawa ExpressionTypeCheckingSuite i CollectionExpressionsSuite w trybie ANSI
-
[SPARK-38300] [SQL] Użyj
ByteStreams.toByteArray, aby uprościćfileToStringiresourceToBytesw catalyst.util - [SPARK-38304] [SQL] Funkcja Elt() powinna zwracać wartość null, jeśli indeks ma wartość null w trybie ANSI
- [SPARK-38271] PoissonSampler może zwracać więcej wierszy niż MaxRows
- [SPARK-38297] [PYTHON] Jawne rzutowanie wartości zwracanej na DataFrame.to_numpy w kontekście POS
- [SPARK-38295] [SQL][test] Napraw ArithmeticExpressionSuite w trybie ANSI
- [SPARK-38290] [SQL] Naprawianie aplikacji JsonSuite i ParquetIOSuite w trybie ANSI
-
[SPARK-38299] [SQL] Usunięcie przestarzałych elementów
StringBuilder.newBuilder - [SPARK-38060] [SQL] Uwzględnianie wartości allowNonNumericNumber podczas analizowania cytowanych wartości NaN i Infinity w czytniku JSON
- [SPARK-38276] [SQL] Dodawanie zatwierdzonych planów TPCDS w trybie ANSI
- [SPARK-38206] [SS] Ignoruj wartość null podczas porównywania typu danych kluczy sprzężenia w sprzężeniu strumienia
- [SPARK-37290] [SQL] — czas planowania wykładniczego w przypadku funkcji niedeterministycznej
- [SPARK-38232] [SQL] Formatowane wyjaśnienie nie uwzględnia podzapytań na etapie zapytania w AQE
- [SPARK-38283] [SQL] Testowanie nieprawidłowej analizy daty/godziny w trybie ANSI
- [SPARK-38140] [SQL] Statystyki kolumn desc (min, max) dla typu znacznika czasu nie są zgodne z wartościami z powodu różnicy strefy czasowej
- [SPARK-38227] [SQL][ss] Zastosowanie ścisłej nullowalności kolumn zagnieżdżonych w oknach czasowych i sesyjnych
- [SPARK-38221] [SQL] Efektywnie iteruje wyrażenia grupujące podczas przenoszenia złożonych wyrażeń grupowania z węzła agregacji
- [SPARK-38216] [SQL] Niepowodzenie na wczesnym etapie, jeśli wszystkie kolumny są partycjonowane podczas tworzenia tabeli Programu Hive
- [SPARK-38214] [SS]Nie trzeba filtrować okien, gdy funkcja windowDuration jest wielokrotną wartością slideDuration
- [SPARK-38182] [SQL] Napraw wyjątek NoSuchElementException, jeśli wypchnięty filtr nie zawiera żadnych odwołań
- [SPARK-38159] [SQL] Dodawanie nowego atrybutu FileSourceMetadataAttribute dla metadanych pliku ukrytego
-
[SPARK-38123] [SQL] Ujednolicone użycie
DataTypejakotargetTypeQueryExecutionErrors#castingCauseOverflowError - [SPARK-38118] [SQL] Func(nieprawidłowy typ danych) w klauzuli HAVING powinien zgłaszać błąd niezgodności danych
- [SPARK-35173] [ SQL][python] Dodaj wsparcie dla dodawania wielu kolumn
- [SPARK-38177] [SQL] Naprawa nieprawidłowych przekształceń w optymalizatorze
- [SPARK-38228] [SQL] Starsze przypisanie pamięci masowej nie powinno się nie udać w przypadku błędu w trybie ANSI
- [SPARK-38173] [SQL] Nie można poprawnie rozpoznać cytowanej kolumny, gdy używana jest opcja quotedRegexColumnNa...
- [SPARK-38130] [SQL] Usuń sprawdzanie posortowania wpisów przez array_sort
-
[SPARK-38199] [SQL] Usuń nieużywane
dataTypeokreślone w definicjiIntervalColumnAccessor - [SPARK-38203] [SQL] Naprawianie aplikacji SQLInsertTestSuite i SchemaPruningSuite w trybie ANSI
-
[SPARK-38163] [SQL] Zachowaj klasę
SparkThrowablebłędów podczas konstruowania konstruktora funkcji - [SPARK-38157] [SQL] Jawne ustawienie anSI na wartość false w teście timestampNTZ/timestamp.sql i SQLQueryTestSuite w celu dopasowania do oczekiwanych złotych wyników
- [SPARK-38069] [SQL][ss] Ulepszanie obliczania przedziału czasu
- [SPARK-38164] [SQL] Nowe funkcje SQL: try_subtract i try_multiply
- [SPARK-38176] [SQL] Tryb ANSI: zezwalaj na niejawne rzutowanie ciągu do innych prostych typów
- [SPARK-37498] [PYTHON] Dodaj w końcu dla test_reuse_worker_of_parallelize_range
- [SPARK-38198] [SQL][3.2] Naprawa działania QueryExecution.debug#toFile, użycie przekazanego parametru maxFields, gdy explainMode jest ustawiony na CodegenMode.
- [SPARK-38131] [SQL] Używanie klas błędów tylko w wyjątkach napotykanych przez użytkownika
- [SPARK-37652] [SQL] Dodaj test optymalizacji przesuniętego sprzężenia za pomocą operatora UNION
- [SPARK-37585] [SQL] Aktualizowanie metryki wejściowej w źródle danychRDD za pomocą elementu TaskCompletionListener
- [SPARK-38113] [SQL] Używanie klas błędów w błędach wykonywania przestawnych
- [SPARK-38178] [SS] Poprawianie logiki w celu mierzenia użycia pamięci bazy danych RocksDB
- [SPARK-37969] [SQL] HiveFileFormat powinien sprawdzać nazwę pola
- [SPARK-37652] Przywróć "[SQL]Dodaj test optymalizacji niesymetrycznego sprzężenia za pomocą unii"
- [SPARK-38124] [SQL][ss] Wprowadzenie StatefulOpClusteredDistribution i zastosowanie do łączenia strumień-strumień
- [SPARK-38030] [SQL] Canonicalization nie powinna usuwać wartości null atrybutu AttributeReference dataType
- [SPARK-37907] [SQL] Obsługa metody InvokeLike — stałefoldowanie
- [SPARK-37891] [CORE] Dodaj kontrolę scalastyle, aby wyłączyć scala.concurrent.ExecutionContext.Implicits.global
- [SPARK-38150] [SQL] Aktualizacja komentarza dla RelationConversions
- [SPARK-37943] [SQL] Używanie klas błędów w błędach kompilacji grupowania
- [SPARK-37652] [SQL]Dodawanie testu optymalizacji niesymetrycznego sprzężenia za pomocą unii
- [SPARK-38056] [Internetowy interfejs użytkownika][3.2] Rozwiązano problem polegający na tym, że przesyłanie strumieniowe ze strukturą nie działało na serwerze historii podczas korzystania z bazy danych LevelDB
-
[SPARK-38144] [CORE] Usuń nieużywaną
spark.storage.safetyFractionkonfigurację - [SPARK-38120] [SQL] Napraw HiveExternalCatalog.listPartitions, gdy nazwa kolumny partycji jest wielką literą i jest kropka w wartości partycji
- [SPARK-38122] [Docs] Aktualizowanie klucza aplikacji w usłudze DocSearch
- [SPARK-37479] [SQL] Migracja przestrzeni nazw DROP do domyślnego użycia polecenia V2
- [SPARK-35703] [SQL] Złagodzenie ograniczenia dla łącznia wiaderkowego i usunięcie HashClusteredDistribution
- [SPARK-37983] [SQL] Wycofaj metryki czasu kompilacji agg z agregacji sortowania
- [SPARK-37915] [SQL] Łączenie związków, jeśli istnieje projekt między nimi
- [SPARK-38105] [SQL] Używanie klas błędów w błędach analizowania sprzężeń
- [SPARK-38073] [PYTHON] Aktualizowanie funkcji atexit w celu uniknięcia problemów z późnym powiązaniem
- [SPARK-37941] [SQL] Używanie klas błędów w błędach kompilacji rzutowania
- [SPARK-37937] [SQL] Używanie klas błędów w błędach analizowania sprzężenia bocznego
-
[SPARK-38100] [SQL] Usuń nieużywaną metodę prywatną w
Decimal - [SPARK-37987] [SS] Naprawianie niestabilnego testu StreamingAggregationSuite.zmiana schematu stanu podczas ponownego uruchamiania zapytania
- [SPARK-38003] [SQL] Reguła LookupFunctions powinna wyszukiwać tylko funkcje z rejestru funkcji skalarnych
-
[SPARK-38075] [ SQL] Naprawa błędu
hasNextw iteratorze danych wyjściowych procesuHiveScriptTransformationExec - [SPARK-37965] [SQL] Usuwanie nazwy pola wyboru podczas odczytywania/zapisywania istniejących danych w orc
- [SPARK-37922] [SQL] Połącz do jednego rzutowania, jeśli możemy bezpiecznie połączyć dwa rzutowania (dla dbr-branch-10.x)
- [SPARK-37675] [SPARK-37793] Zapobiegaj nadpisywaniu scalonych plików wypychanych po sfinalizowaniu mieszania
- [SPARK-38011] [SQL] Usuwanie zduplikowanej i bezużytecznej konfiguracji w pliku ParquetFileFormat
-
[SPARK-37929] [SQL] Obsługa trybu kaskadowego dla interfejsu
dropNamespaceAPI - [SPARK-37931] [SQL] W razie potrzeby podaj nazwę kolumny
- [SPARK-37990] [SQL] Obsługa funkcji TimestampNTZ w obiekcie RowToColumnConverter
-
[SPARK-38001] [SQL] Zastąp klasy błędów dotyczące nieobsługiwanych funkcji przez
UNSUPPORTED_FEATURE -
[SPARK-37839] [SQL] Ds v2 obsługuje częściowe wypychanie agregacji
AVG - [SPARK-37878] [SQL] Migruj SHOW CREATE TABLE na domyślne użycie polecenia w wersji 2
- [SPARK-37731] [SQL] Refaktoryzacja i uporządkowanie wyszukiwania funkcji w analizatorze
- [SPARK-37979] [SQL] Przełączanie do bardziej ogólnych klas błędów w funkcjach AES
- [SPARK-37867] [SQL] Kompilowanie funkcji agregujących wbudowanego dialektu JDBC
- [SPARK-38028] [SQL] Uwidaczniaj wektor strzałki ze strzałkiKolumnVector
- [SPARK-30062] [SQL] Dodaj instrukcję IMMEDIATE do implementacji skracania w dialekcie DB2
-
[SPARK-36649] [SQL] Obsługa
Trigger.AvailableNowźródła danych platformy Kafka - [SPARK-38018] [SQL] Napraw funkcję ColumnVectorUtils.populate w celu poprawnej obsługi typu CalendarIntervalType
-
[SPARK-38023] [CORE]
ExecutorMonitor.onExecutorRemovedpowinno obsłużyćExecutorDecommissionjako zakończone -
[SPARK-38019] [CORE] Uczynienie
ExecutorMonitor.timedOutExecutorsdeterministycznym - [SPARK-37957] [SQL] Poprawnie przekaż flagę deterministyczną dla skalarowych funkcji V2
- [SPARK-37985] [SQL] Napraw niestabilny test dla SPARK-37578
- [SPARK-37986] [SQL] Obsługa funkcji TimestampNTZ w sortowaniu promieniowym
- [SPARK-37967] [SQL] Literal.create obsługuje ObjectType
- [SPARK-37827] [SQL] Umieść kilka wbudowanych właściwości tabeli w V1Table.propertie, aby dostosować je do polecenia V2
- [SPARK-37963] [SQL] Należy zaktualizować identyfikator URI partycji po zmianie nazwy tabeli w inMemoryCatalog
- [SPARK-35442] [SQL] Obsługa propagacji pustej relacji za pomocą agregacji/unii
- [SPARK-37933] [SQL] Zmiana metody przechodzenia reguł wypychania V2ScanRelationPushDown
- [SPARK-37917] [SQL] Przenieś limit 1 dla prawej strony lewego połączenia częściowego/anty, jeśli warunek połączenia jest pusty
- [SPARK-37959] [ML] Naprawa UT sprawdzania norm w KMeans i BiKMeans
- [SPARK-37906] [SQL] spark-sql nie powinien przekazywać ostatniego komentarza do zaplecza
- [SPARK-37627] [SQL] Dodawanie posortowanej kolumny w bucketTransform
Aktualizacje konserwacyjne
Zobacz konserwacyjne aktualizacje środowiska Databricks Runtime 10.4 LTS.
Środowisko systemu
-
System operacyjny: Ubuntu 20.04.4 LTS
- Uwaga: jest to wersja systemu Ubuntu używana przez kontenery środowiska Databricks Runtime. Kontenery DBR działają na maszynach wirtualnych dostawcy usług w chmurze, które mogą używać innej wersji systemu Ubuntu lub dystrybucji systemu Linux.
- Java: Zulu 8.56.0.21-CA-linux64
- Scala: 2.12.14
- Python: 3.8.10
- R: 4.1.2
- Delta Lake: 1.1.0
Zainstalowane biblioteki języka Python
| Library | Version | Library | Version | Library | Version |
|---|---|---|---|---|---|
| Antergos Linux | 2015.10 (ISO w trybie ciągłym) | appdirs | 1.4.4 | argon2-cffi | 20.1.0 |
| async-generator | 1.10 | attrs | 20.3.0 | backcall | 0.2.0 |
| bidict | 0.21.4 | bleach | 3.3.0 | boto3 | 1.16.7 |
| botocore | 1.19.7 | certifi | 2020.12.5 | cffi | 1.14.5 |
| chardet | 4.0.0 | cycler | 0.10.0 | Cython | 0.29.23 |
| dbus-python | 1.2.16 | dekorator | 5.0.6 | defusedxml | 0.7.1 |
| distlib | 0.3.4 | distro-info | 0.23ubuntu1 | entrypoints | 0.3 |
| facets-overview | 1.0.0 | filelock | 3.6.0 | idna | 2.10 |
| ipykernel | 5.3.4 | ipython | 7.22.0 | ipython-genutils | 0.2.0 |
| ipywidgets | 7.6.3 | jedi | 0.17.2 | Jinja2 | 2.11.3 |
| jmespath | 0.10.0 | joblib | 1.0.1 | jsonschema | 3.2.0 |
| jupyter-client | 6.1.12 | jupyter-core | 4.7.1 | jupyterlab-pygments | 0.1.2 |
| jupyterlab-widgets | 1.0.0 | kiwisolver | 1.3.1 | koalas | 1.8.2 |
| MarkupSafe | 2.0.1 | matplotlib | 3.4.2 | mistune | 0.8.4 |
| nbclient | 0.5.3 | nbconvert | 6.0.7 | nbformat | 5.1.3 |
| nest-asyncio | 1.5.1 | notes | 6.3.0 | numpy | 1.20.1 |
| packaging | 20.9 | pandas | 1.2.4 | pandocfilters | 1.4.3 |
| parso | 0.7.0 | patsy | 0.5.1 | pexpect | 4.8.0 |
| pickleshare | 0.7.5 | Pillow | 8.2.0 | pip | 21.0.1 |
| plotly | 5.5.0 | prometheus-client | 0.10.1 | prompt-toolkit | 3.0.17 |
| protobuf | 3.17.2 | psycopg2 | 2.8.5 | ptyprocess | 0.7.0 |
| pyarrow | 4.0.0 | pycparser | 2.20 | Pygments | 2.8.1 |
| PyGObject | 3.36.0 | pyparsing | 2.4.7 | pyrsistent | 0.17.3 |
| python-apt | 2.0.0+ubuntu0.20.4.7 | python-dateutil | 2.8.1 | python-engineio | 4.3.0 |
| python-socketio | 5.4.1 | pytz | 2020.5 | pyzmq | 20.0.0 |
| requests | 2.25.1 | requests-unixsocket | 0.2.0 | s3transfer | 0.3.7 |
| scikit-learn | 0.24.1 | scipy | 1.6.2 | seaborn | 0.11.1 |
| Send2Trash | 1.5.0 | setuptools | 52.0.0 | six | 1.15.0 |
| ssh-import-id | 5.10 | statsmodels | 0.12.2 | tenacity | 8.0.1 |
| terminado | 0.9.4 | testpath | 0.4.4 | threadpoolctl | 2.1.0 |
| tornado | 6.1 | traitlets | 5.0.5 | unattended-upgrades | 0.1 |
| urllib3 | 1.25.11 | virtualenv | 20.4.1 | wcwidth | 0.2.5 |
| webencodings | 0.5.1 | wheel | 0.36.2 | widgetsnbextension | 3.5.1 |
Zainstalowane biblioteki języka R
Biblioteki języka R są instalowane z migawki CRAN wykonanej przez Microsoft z dnia 2022-02-24. Migawka nie jest już dostępna.
| Library | Version | Library | Version | Library | Version |
|---|---|---|---|---|---|
| askpass | 1.1 | assertthat | 0.2.1 | backports | 1.4.1 |
| baza | 4.1.2 | base64enc | 0.1-3 | bit | 4.0.4 |
| bit64 | 4.0.5 | blob | 1.2.2 | boot | 1.3-28 |
| brew | 1.0-7 | brio | 1.1.3 | broom | 0.7.12 |
| bslib | 0.3.1 | cachem | 1.0.6 | callr | 3.7.0 |
| karetka | 6.0-90 | cellranger | 1.1.0 | chron | 2.3-56 |
| klasa | 7.3-20 | cli | 3.2.0 | clipr | 0.8.0 |
| klaster | 2.1.2 | codetools | 0.2-18 | colorspace | 2.0-3 |
| commonmark | 1.7 | kompilator | 4.1.2 | config | 0.3.1 |
| cpp11 | 0.4.2 | crayon | 1.5.0 | dane logowania | 1.3.2 |
| curl | 4.3.2 | data.table | 1.14.2 | datasets | 4.1.2 |
| DBI | 1.1.2 | dbplyr | 2.1.1 | desc | 1.4.0 |
| devtools | 2.4.3 | diffobj | 0.3.5 | skrót | 0.6.29 |
| dplyr | 1.0.8 | dtplyr | 1.2.1 | e1071 | 1.7-9 |
| wielokropek | 0.3.2 | evaluate | 0.15 | fansi | 1.0.2 |
| farver | 2.1.0 | fastmap | 1.1.0 | fontawesome | 0.2.2 |
| forcats | 0.5.1 | foreach | 1.5.2 | foreign | 0.8-82 |
| forge | 0.2.0 | fs | 1.5.2 | future | 1.24.0 |
| future.apply | 1.8.1 | gargle | 1.2.0 | typy ogólne | 0.1.2 |
| gert | 1.5.0 | ggplot2 | 3.3.5 | gh | 1.3.0 |
| gitcreds | 0.1.1 | glmnet | 4.1-3 | globals | 0.14.0 |
| glue | 1.6.1 | googledrive | 2.0.0 | googlesheets4 | 1.0.0 |
| gower | 1.0.0 | graphics | 4.1.2 | grDevices | 4.1.2 |
| siatka | 4.1.2 | gridExtra | 2.3 | gsubfn | 0.7 |
| gtable | 0.3.0 | hardhat | 0.2.0 | haven | 2.4.3 |
| highr | 0.9 | hms | 1.1.1 | htmltools | 0.5.2 |
| htmlwidgets | 1.5.4 | httpuv | 1.6.5 | httr | 1.4.2 |
| hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ids | 1.0.1 |
| ini | 0.3.1 | ipred | 0.9-12 | isoband | 0.2.5 |
| iterators | 1.0.14 | jquerylib | 0.1.4 | jsonlite | 1.8.0 |
| KernSmooth | 2.23-20 | knitr | 1.37 | labeling | 0.4.2 |
| later | 1.3.0 | lattice | 0.20-45 | lava | 1.6.10 |
| cykl życia | 1.0.1 | listenv | 0.8.0 | lubridate | 1.8.0 |
| magrittr | 2.0.2 | markdown | 1.1 | MASS | 7.3-55 |
| Matrix | 1.4-0 | memoise | 2.0.1 | methods | 4.1.2 |
| mgcv | 1.8-39 | mime | 0.12 | ModelMetrics | 1.2.2.2 |
| modelr | 0.1.8 | munsell | 0.5.0 | nlme | 3.1-155 |
| nnet | 7.3-17 | numDeriv | 2016.8-1.1 | openssl | 1.4.6 |
| parallel | 4.1.2 | parallelly | 1.30.0 | pillar | 1.7.0 |
| pkgbuild | 1.3.1 | pkgconfig | 2.0.3 | pkgload | 1.2.4 |
| plogr | 0.2.0 | plyr | 1.8.6 | praise | 1.0.0 |
| prettyunits | 1.1.1 | pROC | 1.18.0 | processx | 3.5.2 |
| prodlim | 2019.11.13 | progress | 1.2.2 | progressr | 0.10.0 |
| promises | 1.2.0.1 | proto | 1.0.0 | serwer proxy | 0.4-26 |
| ps | 1.6.0 | purrr | 0.3.4 | r2d3 | 0.2.5 |
| R6 | 2.5.1 | randomForest | 4.7-1 | rappdirs | 0.3.3 |
| rcmdcheck | 1.4.0 | RColorBrewer | 1.1-2 | Rcpp | 1.0.8 |
| RcppEigen | 0.3.3.9.1 | readr | 2.1.2 | readxl | 1.3.1 |
| recipes | 0.2.0 | rematch | 1.0.1 | rematch2 | 2.1.2 |
| remotes | 2.4.2 | reprex | 2.0.1 | reshape2 | 1.4.4 |
| rlang | 1.0.1 | rmarkdown | 2.11 | RODBC | 1.3-19 |
| roxygen2 | 7.1.2 | rpart | 4.1.16 | rprojroot | 2.0.2 |
| Rserve | 1.8-10 | RSQLite | 2.2.10 | rstudioapi | 0.13 |
| rversions | 2.1.1 | rvest | 1.0.2 | sass | 0.4.0 |
| scales | 1.1.1 | selectr | 0.4-2 | sessioninfo | 1.2.2 |
| kształt | 1.4.6 | shiny | 1.7.1 | sourcetools | 0.1.7 |
| sparklyr | 1.7.5 | SparkR | 3.2.0 | przestrzenny | 7.3-11 |
| splines | 4.1.2 | sqldf | 0.4-11 | SQUAREM | 2021.1 |
| stats | 4.1.2 | stats4 | 4.1.2 | stringi | 1.7.6 |
| stringr | 1.4.0 | survival | 3.2-13 | sys | 3.4 |
| tcltk | 4.1.2 | TeachingDemos | 2.10 | testthat | 3.1.2 |
| tibble | 3.1.6 | tidyr | 1.2.0 | tidyselect | 1.1.2 |
| tidyverse | 1.3.1 | timeDate | 3043.102 | tinytex | 0.37 |
| tools | 4.1.2 | tzdb | 0.2.0 | usethis | 2.1.5 |
| utf8 | 1.2.2 | utils | 4.1.2 | uuid | 1.0-3 |
| vctrs | 0.3.8 | viridisLite | 0.4.0 | vroom | 1.5.7 |
| waldo | 0.3.1 | whisker | 0.4 | withr | 2.4.3 |
| xfun | 0.29 | xml2 | 1.3.3 | xopen | 1.0.0 |
| xtable | 1.8-4 | yaml | 2.3.5 | zip | 2.2.0 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.12)
| Identyfikator grupy | Identyfikator artefaktu | Version |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | amazon-kinesis-client | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudhsm | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.655 |
| com.amazonaws | aws-java-sdk-codedeploy | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.11.655 |
| com.amazonaws | aws-java-sdk-config | 1.11.655 |
| com.amazonaws | aws-java-sdk-core | 1.11.655 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.11.655 |
| com.amazonaws | aws-java-sdk-directconnect | 1.11.655 |
| com.amazonaws | aws-java-sdk-directory | 1.11.655 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.11.655 |
| com.amazonaws | aws-java-sdk-ec2 | 1.11.655 |
| com.amazonaws | aws-java-sdk-ecs | 1.11.655 |
| com.amazonaws | aws-java-sdk-efs | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticache | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.655 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.655 |
| com.amazonaws | aws-java-sdk-emr | 1.11.655 |
| com.amazonaws | aws-java-sdk-glacier | 1.11.655 |
| com.amazonaws | aws-java-sdk-glue | 1.11.655 |
| com.amazonaws | aws-java-sdk-iam | 1.11.655 |
| com.amazonaws | aws-java-sdk-importexport | 1.11.655 |
| com.amazonaws | aws-java-sdk-kinesis | 1.11.655 |
| com.amazonaws | aws-java-sdk-kms | 1.11.655 |
| com.amazonaws | aws-java-sdk-lambda | 1.11.655 |
| com.amazonaws | aws-java-sdk-logs | 1.11.655 |
| com.amazonaws | aws-java-sdk-machinelearning | 1.11.655 |
| com.amazonaws | aws-java-sdk-opsworks | 1.11.655 |
| com.amazonaws | aws-java-sdk-rds | 1.11.655 |
| com.amazonaws | aws-java-sdk-redshift | 1.11.655 |
| com.amazonaws | aws-java-sdk-route53 | 1.11.655 |
| com.amazonaws | aws-java-sdk-s3 | 1.11.655 |
| com.amazonaws | aws-java-sdk-ses | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpledb | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.655 |
| com.amazonaws | aws-java-sdk-sns | 1.11.655 |
| com.amazonaws | aws-java-sdk-sqs | 1.11.655 |
| com.amazonaws | aws-java-sdk-ssm | 1.11.655 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.11.655 |
| com.amazonaws | aws-java-sdk-sts | 1.11.655 |
| com.amazonaws | aws-java-sdk-support | 1.11.655 |
| com.amazonaws | aws-java-sdk-swf-libraries | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.11.655 |
| com.amazonaws | jmespath-java | 1.11.655 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | odtwarzać strumieniowo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo-shaded | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | classmate | 1.3.4 |
| com.fasterxml.jackson.core | jackson-annotations | 2.12.3 |
| com.fasterxml.jackson.core | jackson-core | 2.12.3 |
| com.fasterxml.jackson.core | jackson-databind | 2.12.3 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor | 2.12.3 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.12.3 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.12.3 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.12.3 |
| com.github.ben-manes.caffeine | caffeine | 2.3.4 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | rdzeń | 1.1.2 |
| com.github.fommil.netlib | native_ref-java | 1.1 |
| com.github.fommil.netlib | native_ref-java-natives | 1.1 |
| com.github.fommil.netlib | native_system-java | 1.1 |
| com.github.fommil.netlib | native_system-java-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64-natives | 1.1 |
| com.github.luben | zstd-jni | 1.5.0-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.8.6 |
| com.google.crypto.tink | tink | 1.6.0 |
| com.google.flatbuffers | flatbuffers-java | 1.9.0 |
| com.google.guava | guava | 15.0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 1.4.195 |
| com.helger | profiler | 1.1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | bonecp | 0.8.0.RELEASE |
| com.lihaoyi | sourcecode_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 9.2.1.jre8 |
| com.ning | compress-lzf | 1.0.3 |
| com.sun.istack | istack-commons-runtime | 3.0.8 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | json | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.10.0 |
| com.twitter | chill_2.12 | 0.10.0 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | config | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.univocity | univocity-parsers | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.2 |
| commons-codec | commons-codec | 1.15 |
| commons-collections | commons-collections | 3.2.2 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-fileupload | commons-fileupload | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2.8.0 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-net | commons-net | 3.1 |
| commons-pool | commons-pool | 1.5.4 |
| dev.ludovic.netlib | arpack | 2.2.1 |
| dev.ludovic.netlib | blas | 2.2.1 |
| dev.ludovic.netlib | lapack | 2.2.1 |
| hive-2.3__hadoop-3.2 | jets3t-0.7 | liball_deps_2.12 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | aircompressor | 0.21 |
| io.delta | delta-sharing-spark_2.12 | 0.4.0 |
| io.dropwizard.metrics | metrics-core | 4.1.1 |
| io.dropwizard.metrics | metrics-graphite | 4.1.1 |
| io.dropwizard.metrics | metrics-healthchecks | 4.1.1 |
| io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
| io.dropwizard.metrics | metrics-jmx | 4.1.1 |
| io.dropwizard.metrics | metrics-json | 4.1.1 |
| io.dropwizard.metrics | metrics-jvm | 4.1.1 |
| io.dropwizard.metrics | metrics-servlets | 4.1.1 |
| io.netty | netty-all | 4.1.68.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | moduł zbierający | 0.12.0 |
| jakarta.annotation | jakarta.annotation-api | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api | 4.0.3 |
| jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktywacja | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.3.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | transaction-api | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.2 |
| javax.xml.stream | stax-api | 1.0-2 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.10.10 |
| log4j | apache-log4j-extras | 1.2.17 |
| log4j | log4j | 1.2.17 |
| maven-trees | hive-2.3__hadoop-3.2 | liball_deps_2.12 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | pyrolite | 4.30 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-ingest-sdk | 0.9.6 |
| net.snowflake | snowflake-jdbc | 3.13.3 |
| net.snowflake | spark-snowflake_2.12 | 2.9.0-spark_3.1 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.8 |
| org.antlr | stringtemplate | 3.2.1 |
| org.apache.ant | ant | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | ant-launcher | 1.9.2 |
| org.apache.arrow | arrow-format | 2.0.0 |
| org.apache.arrow | arrow-memory-core | 2.0.0 |
| org.apache.arrow | arrow-memory-netty | 2.0.0 |
| org.apache.arrow | arrow-vector | 2.0.0 |
| org.apache.avro | avro | 1.10.2 |
| org.apache.avro | avro-ipc | 1.10.2 |
| org.apache.avro | avro-mapred | 1.10.2 |
| org.apache.commons | commons-compress | 1.21 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3.12.0 |
| org.apache.commons | commons-math3 | 3.4.1 |
| org.apache.commons | commons-text | 1.6 |
| org.apache.curator | curator-client | 2.13.0 |
| org.apache.curator | curator-framework | 2.13.0 |
| org.apache.curator | curator-recipes | 2.13.0 |
| org.apache.derby | derby | 10.14.2.0 |
| org.apache.hadoop | hadoop-client-api | 3.3.1-databricks |
| org.apache.hadoop | hadoop-client-runtime | 3.3.1 |
| org.apache.hive | hive-beeline | 2.3.9 |
| org.apache.hive | hive-cli | 2.3.9 |
| org.apache.hive | hive-jdbc | 2.3.9 |
| org.apache.hive | hive-llap-client | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | hive-serde | 2.3.9 |
| org.apache.hive | hive-shims | 2.3.9 |
| org.apache.hive | hive-storage-api | 2.7.2 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | hive-shims-common | 2.3.9 |
| org.apache.hive.shims | hive-shims-scheduler | 2.3.9 |
| org.apache.htrace | htrace-core4 | 4.1.0-incubating |
| org.apache.httpcomponents | httpclient | 4.5.13 |
| org.apache.httpcomponents | httpcore | 4.4.12 |
| org.apache.ivy | ivy | 2.5.0 |
| org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
| org.apache.orc | orc-core | 1.6.12 |
| org.apache.orc | orc-mapreduce | 1.6.12 |
| org.apache.orc | orc-shims | 1.6.12 |
| org.apache.parquet | parquet-column | 1.12.0-databricks-0003 |
| org.apache.parquet | parquet-common | 1.12.0-databricks-0003 |
| org.apache.parquet | parquet-encoding | 1.12.0-databricks-0003 |
| org.apache.parquet | parquet-format-structures | 1.12.0-databricks-0003 |
| org.apache.parquet | parquet-hadoop | 1.12.0-databricks-0003 |
| org.apache.parquet | parquet-jackson | 1.12.0-databricks-0003 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm9-shaded | 4.20 |
| org.apache.yetus | audience-annotations | 0.5.0 |
| org.apache.zookeeper | zookeeper | 3.6.2 |
| org.apache.zookeeper | zookeeper-jute | 3.6.2 |
| org.checkerframework | checker-qual | 3.5.0 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl | 1.9.13 |
| org.codehaus.janino | commons-compiler | 3.0.16 |
| org.codehaus.janino | janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-continuation | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-http | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-io | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-jndi | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-plus | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-proxy | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-security | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-server | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-servlet | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-servlets | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-util | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-webapp | 9.4.43.v20210629 |
| org.eclipse.jetty | jetty-xml | 9.4.43.v20210629 |
| org.eclipse.jetty.websocket | websocket-api | 9.4.43.v20210629 |
| org.eclipse.jetty.websocket | websocket-client | 9.4.43.v20210629 |
| org.eclipse.jetty.websocket | websocket-common | 9.4.43.v20210629 |
| org.eclipse.jetty.websocket | websocket-server | 9.4.43.v20210629 |
| org.eclipse.jetty.websocket | websocket-servlet | 9.4.43.v20210629 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2-locator | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-resource-locator | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-repackaged | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jaxb | jaxb-runtime | 2.3.2 |
| org.glassfish.jersey.containers | jersey-container-servlet | 2.34 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.34 |
| org.glassfish.jersey.core | jersey-client | 2.34 |
| org.glassfish.jersey.core | jersey-common | 2.34 |
| org.glassfish.jersey.core | jersey-server | 2.34 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.34 |
| org.hibernate.validator | hibernate-validator | 6.1.0.Final |
| org.javassist | javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | annotations | 17.0.0 |
| org.joda | joda-convert | 1.7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.7.1 |
| org.mariadb.jdbc | mariadb-java-client | 2.2.5 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.2.19 |
| org.roaringbitmap | RoaringBitmap | 0.9.14 |
| org.roaringbitmap | shims | 0.9.14 |
| org.rocksdb | rocksdbjni | 6.20.3 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.14 |
| org.scala-lang | scala-library_2.12 | 2.12.14 |
| org.scala-lang | scala-reflect_2.12 | 2.12.14 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.4.3 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | test-interface | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | breeze-macros_2.12 | 1.2 |
| org.scalanlp | breeze_2.12 | 1.2 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-over-slf4j | 1.7.30 |
| org.slf4j | jul-to-slf4j | 1.7.30 |
| org.slf4j | slf4j-api | 1.7.30 |
| org.slf4j | slf4j-log4j12 | 1.7.30 |
| org.spark-project.spark | unused | 1.0.0 |
| org.threeten | threeten-extra | 1.5.0 |
| org.tukaani | xz | 1.8 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | macro-compat_2.12 | 1.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | spire-util_2.12 | 0.17.0 |
| org.typelevel | spire_2.12 | 0.17.0 |
| org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.8.4 |
| org.yaml | snakeyaml | 1.24 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| software.amazon.ion | ion-java | 1.0.2 |
| stax | stax-api | 1.0.1 |