Udostępnij przez


Databricks Runtime 6.0 (EoS)

Uwaga

Obsługa tej wersji środowiska Databricks Runtime została zakończona. Aby uzyskać datę zakończenia pomocy technicznej, zobacz Historia zakończenia pomocy technicznej. Wszystkie obsługiwane wersje środowiska Databricks Runtime można znaleźć w temacie Databricks Runtime release notes versions and compatibility (Wersje i zgodność środowiska Databricks Runtime).

Usługa Databricks wydała tę wersję w październiku 2019 r.

Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 6.0 obsługiwanym przez platformę Apache Spark.

Nowe funkcje

Środowisko języka Python

Środowisko Databricks Runtime 6.0 zawiera istotne zmiany w języku Python i sposób konfigurowania środowisk języka Python, w tym uaktualnianie języka Python do wersji 3.7.3, uściślinie listy zainstalowanych pakietów języka Python i uaktualnianie zainstalowanych pakietów do nowszych wersji. Aby uzyskać szczegółowe informacje, zobacz Zainstalowane biblioteki języka Python.

Ponadto, jak wcześniej ogłoszono, środowisko Databricks Runtime 6.0 nie obsługuje języka Python 2.

Główne zmiany obejmują:

  • Uaktualniono język Python z wersji 3.5.2 do wersji 3.7.3. Niektóre stare wersje pakietów języka Python mogą nie być zgodne z językiem Python 3.7, ponieważ zależą one od starych wersji narzędzia Cython, które nie są zgodne z językiem Python 3.7. Instalowanie takiego pakietu może wyzwalać błędy podobne do 'PyThreadState' {'struct _ts'} has no member named 'exc_type' (zobacz problem z usługą GitHub 1978 , aby uzyskać szczegółowe informacje). Zamiast tego, zainstaluj wersje pakietów Pythona zgodne z wersją 3.7.
  • Uaktualnienia głównych pakietów:
    • boto3 do 1.9.162
    • ipython do wersji 7.4.0
    • matplotlib do wersji 3.0.3
    • aktualizacja numpy do wersji 1.16.2
    • biblioteka pandas wersja 0.24.2
    • pyarrow do 0.13.0
  • W porównaniu z środowiskiem Databricks Runtime 5.5 LTS (EoS) następujące pakiety języka Python zostały dodane: asn1crypto, backcall, jedi, kiwisolver, parso i PySocks.
  • W porównaniu z środowiskiem Databricks Runtime 5.5 LTS (EoS) następujące pakiety języka Python nie są zainstalowane: ansi2html, brewer2mpl, colorama, configobj, enum34, et-xmlfile, freetype-py, funcsigs, fusepy, ggplot, html5lib, ipaddress, jdcal, Jinja2, llvmlite, lxml, MarkupSafe, mpld3, msgpack-python, ndg-httpsclient, numba, openpyxl, pathlib2, Pillow, ply, pyasn1, pypng, python-geohash, scour, simplejson i singledispatch.
  • Funkcja display obiektów ggplot języka Python nie jest już obsługiwana, ponieważ pakiet ggplot nie jest zgodny z nowszą wersją biblioteki pandas.
  • Ustawienie PYSPARK_PYTHON na /databricks/python2/bin/python nie jest obsługiwane, ponieważ środowisko Databricks Runtime 6.0 nie obsługuje języka Python 2. Klaster z takim ustawieniem nadal może się uruchomić. Jednak notesy języka Python i polecenia języka Python nie będą działać, czyli komórki poleceń języka Python zakończą się niepowodzeniem z komunikatem "Błąd: 'Anulowano'", a w dziennikach sterowników pojawi się komunikat o błędzie Python shell failed to start.
  • Jeśli PYSPARK_PYTHON wskazuje plik wykonywalny języka Python, który znajduje się w środowisku zarządzanym przez usługę Virtualenv , to środowisko zostanie aktywowane dla skryptów inicjowania i notesów. Można użyć python i pip poleceń zdefiniowanych bezpośrednio w aktywowanym środowisku bez konieczności określania bezwzględnych lokalizacji tych poleceń. Domyślnie PYSPARK_PYTHON jest ustawiona na wartość /databricks/python3/bin/python. W związku z tym domyślnie python wskazuje na /databricks/python3/bin/python, a pip wskazuje na /databricks/python3/bin/pip w przypadku skryptów inicjalizacyjnych i notesów. Jeśli PYSPARK_PYTHON wskazuje na plik wykonywalny Python, który nie znajduje się w środowisku zarządzanym przez Virtualenv lub jeśli piszesz skrypt inicjowania w celu utworzenia Pythona określonego przez PYSPARK_PYTHON, należy użyć ścieżek bezwzględnych w celu uzyskania dostępu do poprawnego python i pip. Po włączeniu izolacji biblioteki języka Python (jest ona domyślnie włączona), aktywowane środowisko jest nadal środowiskiem PYSPARK_PYTHON skojarzonym z. Zalecamy użycie narzędzia biblioteka (dbutils.library) (starsza wersja) w celu zmodyfikowania środowiska izolowanego skojarzonego z notesem języka Python.

API języka Scala i Java dla poleceń DML platformy Delta Lake

Teraz można modyfikować dane w tabelach delty przy użyciu programowych interfejsów API do usuwania, aktualizowania i scalania. Te interfejsy API odzwierciedlają składnię i semantykę odpowiadających im poleceń SQL i są doskonałe dla wielu obciążeń, na przykład operacji dotyczących wolno zmieniających się wymiarów (SCD), scalania danych zmian na potrzeby replikacji oraz operacji typu upsert wynikających z zapytań strumieniowych.

Aby uzyskać szczegółowe informacje, zobacz Co to jest usługa Delta Lake w usłudze Azure Databricks?.

API Scala i Java dla poleceń narzędziowych Delta Lake

Środowisko Databricks Runtime ma teraz programowe interfejsy API dla poleceń narzędziowych vacuum i history. Te interfejsy API dublują składnię i semantyki odpowiednich poleceń SQL dostępnych we wcześniejszych wersjach środowiska Databricks Runtime.

Możesz wyczyścić pliki, do których nie odwołuje się już tabela Delta i które są starsze niż próg przechowywania, uruchamiając vacuum na tabeli. Uruchomienie polecenia vacuum w tabeli rekursywnie opróżnia katalogi skojarzone z tabelą delty. Domyślny próg przechowywania dla plików wynosi 7 dni. Możliwość powrotu do wersji starszej niż okres przechowywania zostanie utracona po uruchomieniu programu vacuum. Polecenie vacuum nie jest wyzwalane automatycznie.

Informacje na temat operacji, użytkownika, znacznika czasu itd. dla każdego zapisu w tabeli delty można pobrać, uruchamiając polecenie history. Operacje są zwracane w odwrotnej kolejności chronologicznej. Domyślnie historia tabel jest przechowywana przez 30 dni.

Aby uzyskać szczegółowe informacje, zobacz Co to jest usługa Delta Lake w usłudze Azure Databricks?.

Buforowanie pamięci masowej dostępne dla instancji Azure Lsv2

buforowanie dysków jest teraz domyślnie włączone dla wszystkich wystąpień Lsv2.

Zoptymalizowane przechowywanie przy użyciu lokalnych interfejsów API plików

Lokalne interfejsy API plików są przydatne, ponieważ umożliwiają one dostęp do plików z bazowego rozproszonego magazynu obiektów jako plików lokalnych. W Databricks Runtime 6.0 ulepszyliśmy montowanie FUSE, które umożliwia użycie lokalnych API plików, aby rozwiązywać kluczowe ograniczenia. Środowisko Databricks Runtime 6.0 znacznie poprawia szybkość odczytu i zapisu oraz obsługuje pliki większe niż 2 GB. Jeśli potrzebujesz szybszych i bardziej niezawodnych operacji odczytu i zapisu, takich jak na potrzeby trenowania modelu rozproszonego, możesz znaleźć to ulepszenie szczególnie przydatne. Ponadto nie trzeba ładować danych do lokalnej pamięci dla obciążenia roboczego, co pozwala zaoszczędzić koszty i zwiększyć produktywność.

Aby uzyskać szczegółowe informacje, zobacz Co to jest system plików DBFS?.

Wiele wykresów matplotlib w jednej komórce notatnika

Teraz można wyświetlić wiele wykresów matplotlib w jednej komórce zeszytu.

Wiele wykresów matplotlib w komórce

Poświadczenia usługi dla wielu kont usługi Azure Data Lake Storage Gen1

Teraz można skonfigurować poświadczenia usługi dla wielu kont magazynu platformy Azure do użycia w ramach jednej sesji platformy Apache Spark. W tym celu dodaj account.<account-name> do kluczy konfiguracji. Jeśli na przykład chcesz skonfigurować poświadczenia dla kont w celu uzyskania dostępu do adl://example1.azuredatalakestore.net i adl://example2.azuredatalakestore.net, możesz to zrobić w następujący sposób:

spark.conf.set("fs.adl.oauth2.access.token.provider.type", "ClientCredential")

spark.conf.set("fs.adl.account.example1.oauth2.client.id", "<application-id-example1>")
spark.conf.set("fs.adl.account.example1.oauth2.credential", dbutils.secrets.get(scope = "<scope-name>", key = "<key-name-for-service-credential-example1>"))
spark.conf.set("fs.adl.account.example1.oauth2.refresh.url", "https://login.microsoftonline.com/<directory-id-example1>/oauth2/token")

spark.conf.set("fs.adl.account.example2.oauth2.client.id", "<application-id-example2>")
spark.conf.set("fs.adl.account.example2.oauth2.credential", dbutils.secrets.get(scope = "<scope-name>", key = "<key-name-for-service-credential-example2>"))
spark.conf.set("fs.adl.account.example2.oauth2.refresh.url", "https://login.microsoftonline.com/<directory-id-example2>/oauth2/token")

Ulepszenia

  • Uaktualniono zestaw AWS SDK do wersji 1.11.596.
  • Uaktualniono zestaw AZURE Storage SDK w sterowniku WASB do wersji 7.0.
  • OPTIMIZE Teraz zawiera podsumowanie metryk, takich jak liczba dodanych plików, liczba usuniętych plików oraz maksymalny i minimalny rozmiar pliku. Zobacz Optymalizowanie układu pliku danych.

Usunięcie

Eksportowanie modelu uczenia maszynowego w usłudze Databricks zostało usunięte. Zamiast tego użyj narzędzia MLeap do importowania i eksportowania modeli.

Apache Spark

Uwaga

Ten artykuł zawiera odwołania do terminu podrzędnego — terminu, którego usługa Azure Databricks nie używa. Po usunięciu terminu z oprogramowania usuniemy go z tego artykułu.

Środowisko Databricks Runtime 6.0 obejmuje platformę Apache Spark 2.4.3. Ta wersja zawiera wszystkie poprawki i ulepszenia platformy Spark zawarte w środowisku Databricks Runtime 5.5 LTS (EoS), a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:

  • [SPARK-27992][SPARK-28881][PYTHON] Pozwól językowi Python dołączyć do wątku połączenia, aby propagować błędy
  • [SPARK-27330][SS]obsługa przerywania zadań w foreach writerze (6.0, 5.x)
  • [SPARK-28642][SQL] Ukryj poświadczenia w SHOW CREATE TABLE
  • [SPARK-28699][CORE] Naprawiono szczególny przypadek przerywania etapu nieokreślonego
  • [SPARK-28647][WEBUI] Przywrócenie dodatkowych funkcji metryki
  • [SPARK-28766][R][DOC] Naprawiono ostrzeżenie dotyczące wykonalności przychodzącej usługi CRAN dotyczące nieprawidłowego adresu URL
  • [SPARK-28486][CORE][PYTHON] Mapuj plik danych PythonBroadcast na BroadcastBlock, aby uniknąć usunięcia przez GC
  • [SPARK-25035][CORE] Unikanie mapowania pamięci w replikacji bloków przechowywanych na dysku
  • [SPARK-27234][SS][PYTHON] Użyj InheritableThreadLocal dla aktualnej epoki w klasie EpochTracker (aby obsługiwać Python UDF)
  • [SPARK-28638][WEBUI] Podsumowanie zadań powinno zawierać tylko metryki zadań zakończonych powodzeniem
  • [SPARK-28153][PYTHON] Użyj AtomicReference w InputFileBlockHolder (aby obsługiwać input_file_name z funkcją UDF w Pythonie)
  • [SPARK-28564][CORE] Aplikacja historii dostępu domyślnie używa identyfikatora ostatniej próby
  • [SPARK-28260] Klaster może zakończyć się automatycznie, gdy zapytanie thriftserver nadal pobiera wyniki
  • [SPARK-26152][CORE] Synchronizowanie oczyszczania procesu roboczego z zamykaniem procesu roboczego
  • [SPARK-28545][SQL] Dodaj rozmiar mapy skrótu do dziennika kierunkowego obiektu ObjectAggregationIterator
  • [SPARK-28489][SS] Naprawiono błąd powodujący, że KafkaOffsetRangeCalculator.getRanges może pomijać przesunięcia.
  • [SPARK-28421][ML] Optymalizacja wydajności SparseVector.apply
  • [SPARK-28156][SQL] Samołączenie nie powinno ignorować widoków z pamięci podręcznej
  • [SPARK-28152][SQL] Mapowanie typu ShortType na SMALLINT i FloatType na REAL dla MsSqlServerDialect
  • [SPARK-28054][SQL] Napraw błąd podczas dynamicznego wstawiania partycjonowanej tabeli Hive, gdzie nazwa partycji ma wielką literę
  • [SPARK-27159][SQL] aktualizacja dialektu serwera mssql w celu obsługi typu binarnego
  • [SPARK-28355][CORE][PYTHON] Użyj conf platformy Spark dla progu, w którym com...
  • [SPARK-27989][CORE] Dodano ponawianie prób połączenia z sterownikiem dla k8s
  • [SPARK-27416][SQL] UnsafeMapData i UnsafeArrayData serializacji Kryo ...
  • [SPARK-28430][Interfejs użytkownika] Naprawianie renderowania tabeli etapów, gdy brakuje metryk niektórych zadań
  • [SPARK-27485] Upewnij się, że Requirements.reorder powinna obsługiwać zduplikowane wyrażenia w sposób bezproblemowy
  • [SPARK-28404][SS] Naprawianie ujemnej wartości limitu czasu w parametrze RateStreamContinuousPartitionReader
  • [SPARK-28378][PYTHON] Usuń użycie cgi.escape
  • [SPARK-28371][SQL] Uczynienie filtrowania Parquet "StartsWith" bezpiecznym dla wartości null
  • [SPARK-28015][SQL] Sprawdzenie, czy funkcja stringToDate() zużywa całe dane wejściowe dla formatów rrrr oraz rrrr-[m]m
  • [SPARK-28302][CORE] Upewnij się, aby wygenerować unikatowy plik wyjściowy dla SparkLauncher na Windowsie
  • [SPARK-28308][CORE] Część poniżej sekundy CalendarInterval powinna być dopełniona przed parsowaniem.
  • [SPARK-28170][ML][PYTHON] Dokumentacja ujednoliconych wektorów i macierzy
  • [SPARK-28160][CORE] Poprawiono usterkę, która mogła powodować zawieszenie funkcji zwrotnej w przypadku pominięcia niezaznaczonego wyjątku.
  • [SPARK-27839][SQL] Zmień wartość UTF8String.replace() na działanie na bajtach UTF8
  • [SPARK-28157][CORE] Wyczyść KVStore LogInfo shS dla wpisów na czarnej liście
  • [SPARK-28128][PYTHON][SQL] Grupowane UDF pandas pomijają puste partycje
  • [SPARK-28012][SQL] Funkcja UDF programu Hive obsługuje wyrażenie typu strukturalnego możliwe do uproszczenia.
  • [SPARK-28164] Napraw opis użycia start-slave.sh
  • [SPARK-27100][SQL] Użyj Array zamiast Seq w FilePartition, aby zapobiec błędowi StackOverflowError
  • [SPARK-28154][ML] GMM naprawa podwójnego buforowania

Aktualizacje konserwacyjne

Zobacz Aktualizacje związane z konserwacją środowiska Databricks Runtime 6.0.

Środowisko systemu

  • System operacyjny: Ubuntu 16.04.6 LTS
  • Java: 1.8.0_232
  • Scala: 2.11.12
  • Python: 3.7.3
  • R: R w wersji 3.6.1 (2019-07-05)
  • Delta Lake: 0.3.0

Uwaga

Mimo że język Scala 2.12 jest dostępny jako funkcja eksperymentalna w systemie Apache Spark 2.4, nie jest obsługiwany w środowisku Databricks Runtime 6.0.

Zainstalowane biblioteki języka Python

Biblioteka Wersja Biblioteka Wersja Biblioteka Wersja
asn1crypto 0.24.0 wywołanie zwrotne 0.1.0 boto 2.49.0
boto3 1.9.162 botocore 1.12.163 certyfikat 2019.3.9
cffi 1.12.2 chardet 3.0.4 kryptografia 2.6.1
rowerzysta 0.10.0 Cython 0.29.6 dekorator 4.4.0
docutils 0,14 IDNA 2.8 ipython 7.4.0
ipython-genutils 0.2.0 Jedi 0.13.3 jmespath 0.9.4
kiwisolver 1.1.0 biblioteka matplotlib 3.0.3 numpy 1.16.2
Pandas 0.24.2 parso 0.3.4 Patsy 0.5.1
pexpect 4.6.0 pickleshare (jeśli to nazwa własna, nie trzeba tłumaczyć) 0.7.5 pip (menedżer pakietów Pythona) 19.0.3
zestaw narzędzi prompt 2.0.9 psycopg2 2.7.6.1 ptyprocess 0.6.0
pyarrow 0.13.0 pycparser 2.19 pycurl 7.43.0
Pygments 2.3.1 PyGObject 3.20.0 pyOpenSSL 19.0.0
pyparsing – biblioteka do przetwarzania tekstu w Pythonie 2.4.2 PySocks 1.6.8 python-apt 1.1.0.b1+ubuntu0.16.04.5
python-dateutil (biblioteka Pythona do zarządzania datami) 2.8.0 pytz (biblioteka Pythona do obliczeń stref czasowych) 2018.9 żądania 2.21.0
s3transfer 0.2.1 scikit-learn 0.20.3 scipy (biblioteka naukowa dla Pythona) 1.2.1
seaborn - biblioteka wizualizacji danych w Pythonie 0.9.0 setuptools 40.8.0 Sześć 1.12.0
ssh-import-id (narzędzie do importowania kluczy SSH) 5,5 statsmodels - biblioteka do modelowania statystycznego 0.9.0 traitlety 4.3.2
nienadzorowane uaktualnienia 0.1 urllib3 1.24.1 virtualenv 16.4.1
szerokość(wcwidth) 0.1.7 wheel 0.33.1

Zainstalowane biblioteki języka R

Biblioteka Wersja Biblioteka Wersja Biblioteka Wersja
abind 1.4-5 askpass 1.1 potwierdzić to 0.2.1
backporty 1.1.3 baza 3.6.1 base64enc 0.1-3
BH 1.69.0-1 odrobina 1.1-14 bit-64 0.9-7
bitops 1.0-6 blob 1.1.1 uruchomienie 1.3-23
warzyć 1.0-6 obiekt wywołujący 3.2.0 samochód 3.0-2
dane samochodowe 3.0-2 karetka 6.0-82 cellranger 1.1.0
Chroń 2.3-53 klasa 7.3-15 CLI 1.1.0
clipr 0.5.0 clisymbols 1.2.0 klaster 2.1.0
codetools 0.2-16 przestrzeń kolorów 1.4-1 commonmark 1,7
kompilator 3.6.1 konfiguracja 0,3 kredka 1.3.4
skręt 3.3 tabela danych 1.12.0 zestawy danych 3.6.1
DBI 1.0.0 dbplyr 1.3.0 Opis 1.2.0
devtools 2.0.1 skrót 0.6.18 DoMC 1.3.5
dplyr 0.8.0.1 wielokropek 0.1.0 fani 0.4.0
dla kotów 0.4.0 foreach 1.4.4 zagraniczny 0.8-72
kuźnia 0.2.0 Fs 1.2.7 Gbm 2.1.5
typy ogólne 0.0.2 ggplot2 3.1.0 Gh 1.0.1
git2r 0.25.2 glmnet 2.0-16 klej 1.3.1
Gower 0.2.0 grafika 3.6.1 grDevices 3.6.1
siatka 3.6.1 gridExtra 2.3 gsubfn 0,7
gtabela 0.3.0 H2O 3.22.1.1 przystań 2.1.0
HMS 0.4.2 htmltools – narzędzie do tworzenia stron internetowych 0.3.6 widżety HTML 1.3
httr 1.4.0 hwriter 1.3.2 hwriterPlus 1.0-3
ini 0.3.1 ipred 0.9-8 Iteratory 1.0.10
jsonlite 1.6 KernSmooth 2.23-15 Etykietowanie 0,3
krata 0.20-38 lawa 1.6.5 opóźnienie 0.2.2
mniejszy 0.3.7 lme4 1.1-21 lubridate 1.7.4
magrittr 1.5 mapproj 1.2.6 Mapy 3.3.0
maptools 0.9-5 MASA 7.3-51.4 Macierz 1.2-17
MatrixModels 0.4-1 zapamiętywanie 1.1.0 metody 3.6.1
mgcv 1.8-28 mim 0,6 minqa 1.2.4
Metryki modelu 1.2.2 munsell 0.5.0 mvtnorm 1.0-10
nlme 3.1-141 nloptr 1.2.1 sieć neuronowa (nnet) 7.3-12
numDeriv 2016.8-1 openssl 1.3 openxlsxx 4.1.0
równoległy 3.6.1 pbkrtest 0.4-7 filar 1.3.1
pkgbuild 1.0.3 pkgconfig 2.0.2 pkgKitten 0.1.4
pkgload 1.0.2 plogr 0.2.0 plyr 1.8.4
pochwała 1.0.0 prettyunits 1.0.2 Proc 1.14.0
Procesx 3.3.0 prodlim 2018.04.18 Postęp 1.2.0
Proto 1.0.0 PS 1.3.0 mruczenie 0.3.2
quantreg 5.38 R.methodsS3 1.7.1 R.oo 1.22.0
R.utils 2.8.0 r2d3 0.2.3 R6 2.4.0
"randomForest" 4.6-14 rappdirs 0.3.1 rcmdcheck 1.3.2
RColorBrewer 1.1-2 Rcpp 1.0.1 RcppEigen 0.3.3.5.0
RcppRoll 0.3.0 RCurl 1.95-4.12 czytnik 1.3.1
readxl (biblioteka do odczytu plików Excel) 1.3.1 przepisy 0.1.5 rewanż 1.0.1
Piloty 2.0.2 zmień kształt2 1.4.3 Rio 0.5.16
rlang 0.3.3 RODBC 1.3-15 roxygen2 6.1.1
rpart 4.1-15 rprojroot 1.3-2 Rserve 1.8-6
RSQLite 2.1.1 rstudioapi 0.10 wagi 1.0.0
informacje o sesji 1.1.1 Sp 1.3-1 sparklyr 1.0.0
SparkR 2.4.4 Rozrzednia 1.77 przestrzenny 7.3-11
Splajnów 3.6.1 sqldf 0.4-11 KWADRAT 2017.10-1
statmod 1.4.30 Statystyki 3.6.1 statystyki4 3.6.1
łańcuchy 1.4.3 stringr 1.4.0 przetrwanie 2.44-1.1
sys 3.1 tcltk 3.6.1 Demonstracje nauczania 2.10
testthat 2.0.1 tibble 2.1.1 tidyr 0.8.3
tidyselect 0.2.5 czasData 3043.102 narzędzia 3.6.1
Użyj tego 1.4.0 utf8 1.1.4 narzędzia 3.6.1
viridisLite 0.3.0 wąs 0.3-2 Withr 2.1.2
xml2 1.2.0 xopen 1.0.0 yaml 2.2.0
suwak 2.0.1

Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.11)

Identyfikator grupy Identyfikator artefaktu Wersja
antlr antlr 2.7.7
com.amazonaws Klient Amazon Kinesis 1.8.10
com.amazonaws aws-java-sdk-automatyczne-skalowanie 1.11.595
com.amazonaws aws-java-sdk-cloudformation 1.11.595
com.amazonaws aws-java-sdk-cloudfront 1.11.595
com.amazonaws aws-java-sdk-cloudhsm (zestaw narzędzi Java dla usługi CloudHSM) 1.11.595
com.amazonaws aws-java-sdk-cloudsearch 1.11.595
com.amazonaws aws-java-sdk-cloudtrail 1.11.595
com.amazonaws aws-java-sdk-cloudwatch 1.11.595
com.amazonaws aws-java-sdk-cloudwatchmetrics 1.11.595
com.amazonaws aws-java-sdk-codedeploy (biblioteka do zarządzania wdrażaniem kodu w AWS) 1.11.595
com.amazonaws aws-java-sdk-cognitoidentity 1.11.595
com.amazonaws aws-java-sdk-cognitosync 1.11.595
com.amazonaws aws-java-sdk-config (konfiguracja aws-java-sdk) 1.11.595
com.amazonaws aws-java-sdk-core 1.11.595
com.amazonaws aws-java-sdk-datapipeline 1.11.595
com.amazonaws aws-java-sdk-directconnect (pakiet narzędzi programistycznych dla Java do współpracy z AWS Direct Connect) 1.11.595
com.amazonaws aws-java-sdk-directory 1.11.595
com.amazonaws aws-java-sdk-dynamodb 1.11.595
com.amazonaws aws-java-sdk-ec2 1.11.595
com.amazonaws aws-java-sdk-ecs 1.11.595
com.amazonaws aws-java-sdk-efs 1.11.595
com.amazonaws aws-java-sdk-elasticache 1.11.595
com.amazonaws aws-java-sdk-elasticbeanstalk 1.11.595
com.amazonaws aws-java-sdk-elasticloadbalancing 1.11.595
com.amazonaws aws-java-sdk-elastictranscoder 1.11.595
com.amazonaws aws-java-sdk-emr (biblioteka SDK Java dla usługi Amazon EMR) 1.11.595
com.amazonaws AWS Java SDK dla Glacier 1.11.595
com.amazonaws aws-java-sdk-klej 1.11.595
com.amazonaws aws-java-sdk-iam 1.11.595
com.amazonaws AWS-Java-SDK-ImportExport 1.11.595
com.amazonaws AWS SDK dla Javy - Kinesis 1.11.595
com.amazonaws aws-java-sdk-kms 1.11.595
com.amazonaws aws-java-sdk-lambda 1.11.595
com.amazonaws aws-java-sdk-logs 1.11.595
com.amazonaws aws-java-sdk-uczenie-maszynowe 1.11.595
com.amazonaws aws-java-sdk-opsworks 1.11.595
com.amazonaws aws-java-sdk-rds (pakiet programistyczny Java dla AWS RDS) 1.11.595
com.amazonaws aws-java-sdk-redshift 1.11.595
com.amazonaws aws-java-sdk-route53 1.11.595
com.amazonaws aws-java-sdk-s3 1.11.595
com.amazonaws aws-java-sdk-ses 1.11.595
com.amazonaws aws-java-sdk-simpledb 1.11.595
com.amazonaws aws-java-sdk-simpleworkflow 1.11.595
com.amazonaws aws-java-sdk-sns 1.11.595
com.amazonaws aws-java-sdk-sqs 1.11.595
com.amazonaws aws-java-sdk-ssm 1.11.595
com.amazonaws aws-java-sdk-storagegateway 1.11.595
com.amazonaws aws-java-sdk-sts (pakiet programistyczny Java dla AWS STS) 1.11.595
com.amazonaws wsparcie dla aws-java-sdk 1.11.595
com.amazonaws aws-java-sdk-swf-biblioteki 1.11.22
com.amazonaws aws-java-sdk-workspaces 1.11.595
com.amazonaws jmespath-java 1.11.595
com.carrotsearch hppc 0.7.2
com.chuusai shapeless_2.11 2.3.2
com.clearspring.analytics odtwarzać strumieniowo 2.7.0
com.databricks Rserve 1.8-3
com.databricks dbml-local_2.11 0.5.0-db8-spark2.4
com.databricks dbml-local_2.11-tests 0.5.0-db8-spark2.4
com.databricks jets3t 0.7.1-0
com.databricks.scalapb kompilatorwtyczka_2.11 0.4.15-9
com.databricks.scalapb scalapb-runtime_2.11 0.4.15-9
com.esotericsoftware kriogenicznie cieniowane 4.0.2
com.esotericsoftware minlog 1.3.0
com.fasterxml kolega z klasy 1.0.0
com.fasterxml.jackson.core adnotacje Jackson 2.6.7
com.fasterxml.jackson.core jackson-core 2.6.7
com.fasterxml.jackson.core jackson-databind 2.6.7.1
com.fasterxml.jackson.dataformat Jackson-format-danych-CBOR 2.6.7
com.fasterxml.jackson.datatype jackson-datatype-joda 2.6.7
com.fasterxml.jackson.module jackson-module-paranamer 2.6.7
com.fasterxml.jackson.module jackson-module-scala_2.11 2.6.7.1
com.github.fommil jniloader 1.1
com.github.fommil.netlib rdzeń 1.1.2
com.github.fommil.netlib natywne_odniesienie-java 1.1
com.github.fommil.netlib native_ref-java-natives 1.1
com.github.fommil.netlib natywny_system java 1.1
com.github.fommil.netlib system_natywny-java-natywne 1.1
com.github.fommil.netlib netlib-native_ref-linux-x86_64-natives 1.1
com.github.fommil.netlib "netlib-native_system-linux-x86_64-natives" 1.1
com.github.luben zstd-jni 1.3.2-2
com.github.rwl jtransforms 2.4.0
com.google.code.findbugs jsr305 2.0.1
com.google.code.gson gson 2.2.4
com.google.guava guawa 15,0
com.google.protobuf protobuf-java 2.6.1
com.googlecode.javaewah JavaEWAH 0.3.2
com.h2database h2 1.3.174
com.jcraft jsch 0.1.50
com.jolbox bonecp 0.8.0.WYDANIE
com.microsoft.azure azure-data-lake-store-sdk (SDK do przechowywania danych Azure Data Lake) 2.2.8
com.microsoft.azure Azure Storage 7.0.0
com.microsoft.sqlserver mssql-jdbc 6.2.2.jre8
com.ning compress-lzf (biblioteka do kompresji danych) 1.0.3
com.sun.mail javax.mail 1.5.2
com.thoughtworks.paranamer paranamer 2.8
com.trueaccord.lenses lenses_2.11 0,3
com.twitter chill-java 0.9.3
com.twitter relaks_2.11 0.9.3
com.twitter pakiet parquet-hadoop 1.6.0
com.twitter util-app_2.11 6.23.0
com.twitter util-core_2.11 6.23.0
com.twitter util-jvm_2.11 6.23.0
com.typesafe konfiguracja 1.2.1
com.typesafe.scala-logging scala-logging-api_2.11 2.1.2
com.typesafe.scala-logging scala-logging-slf4j_2.11 2.1.2
com.univocity parsery jednowołciowości 2.7.3
com.vlkan flatbuffers 1.2.0-3f79e055
com.zaxxer HikariCP 3.1.0
commons-beanutils commons-beanutils 1.9.3
commons-cli commons-cli 1.2
commons-codec commons-codec 1.10
Zbiory Commons Zbiory Commons 3.2.2
commons-configuration commons-configuration 1.6
commons-dbcp commons-dbcp 1.4
commons-digester commons-digester 1.8
commons-httpclient commons-httpclient 3.1
commons-io commons-io 2,4
commons-lang commons-lang 2.6
commons-logging commons-logging 1.1.3
commons-net commons-net 3.1
commons-pool commons-pool 1.5.4
info.ganglia.gmetric4j gmetric4j 1.0.7
io.airlift kompresor powietrza 0.10
io.dropwizard.metrics metryki —rdzeń 3.1.5
io.dropwizard.metrics metrics-ganglia 3.1.5
io.dropwizard.metrics metrics-graphite 3.1.5
io.dropwizard.metrics wskaźniki-kontrole zdrowia 3.1.5
io.dropwizard.metrics metrics-jetty9 3.1.5
io.dropwizard.metrics metryki w formacie JSON 3.1.5
io.dropwizard.metrics metryki-JVM 3.1.5
io.dropwizard.metrics metrics-log4j 3.1.5
io.dropwizard.metrics serwlety metryk 3.1.5
io.netty Netty 3.9.9.Final
io.netty netty-all 4.1.17.Final
javax.activation aktywacja 1.1.1
javax.annotation javax.annotation-api 1.2
javax.el javax.el-api 2.2.4
javax.jdo jdo-api 3.0.1
javax.servlet javax.servlet-api 3.1.0
javax.servlet.jsp jsp-api 2.1
javax.transaction jta 1.1
javax.validation validation-api 1.1.0.Final
javax.ws.rs javax.ws.rs-api 2.0.1
javax.xml.bind jaxb-api 2.2.2
javax.xml.stream stax-api 1.0-2
javolution javolution 5.5.1
jline jline 2.14.6
joda-time joda-time 2.9.3
junit junit 4.12
log4j apache-log4j-extras 1.2.17
log4j log4j 1.2.17
net.hydromatic eigenbase-properties 1.1.5
net.razorvine pirolit 4.13
net.sf.jpam jpam 1.1
net.sf.opencsv opencsv 2.3
net.sf.supercsv super-csv 2.2.0
net.snowflake SDK do pobierania danych Snowflake 0.9.5
net.snowflake snowflake-jdbc 3.6.15
net.snowflake spark-snowflake_2.11 2.4.10-spark_2.4
net.sourceforge.f2j arpack_combined_all 0.1
org.acplt oncrpc 1.0.7
org.antlr ST4 4.0.4
org.antlr antlr-runtime 3.4
org.antlr antlr4-runtime 4.7
org.antlr Szablon łańcucha 3.2.1
org.apache.ant mrówka 1.9.2
org.apache.ant ant-jsch 1.9.2
org.apache.ant program uruchamiający Ant 1.9.2
org.apache.arrow format strzałki 0.10.0
org.apache.arrow strzałka w pamięci 0.10.0
org.apache.arrow wektor strzałki 0.10.0
org.apache.avro avro 1.8.2
org.apache.avro avro-ipc 1.8.2
org.apache.avro avro-mapred-hadoop2 1.8.2
org.apache.calcite calcite-avatica 1.2.0 inkubacja
org.apache.calcite rdzeń kalcytowy 1.2.0 inkubacja
org.apache.calcite calcite-linq4j 1.2.0 inkubacja
org.apache.commons commons-compress 1.8.1
org.apache.commons commons-crypto 1.0.0
org.apache.commons commons-lang3 3.5
org.apache.commons commons-math3 3.4.1
org.apache.curator kurator-klient 2.7.1
org.apache.curator struktura kuratora 2.7.1
org.apache.curator przepisy kuratora kulinarnego 2.7.1
org.apache.derby Derby 10.12.1.1
org.apache.directory.api api-asn1-api 1.0.0-M20
org.apache.directory.api api-util 1.0.0-M20
org.apache.directory.server apacheds-i18n 2.0.0-M15
org.apache.directory.server apacheds-kerberos-codec 2.0.0-M15
org.apache.hadoop adnotacje hadoop 2.7.3
org.apache.hadoop hadoop-auth 2.7.3
org.apache.hadoop hadoop-klient 2.7.3
org.apache.hadoop hadoop-common 2.7.3
org.apache.hadoop Hadoop-HDFS (Hadoop Distributed File System) 2.7.3
org.apache.hadoop Klient aplikacji Hadoop MapReduce 2.7.3
org.apache.hadoop hadoop-mapreduce-client-common 2.7.3
org.apache.hadoop hadoop-mapreduce-client-core 2.7.3
org.apache.hadoop hadoop-mapreduce-client-jobclient 2.7.3
org.apache.hadoop hadoop-mapreduce-client-shuffle (moduł mieszający klienta w Hadoop MapReduce) 2.7.3
org.apache.hadoop hadoop-yarn-api 2.7.3
org.apache.hadoop hadoop-yarn-client (klient Hadoop YARN) 2.7.3
org.apache.hadoop hadoop-yarn-common 2.7.3
org.apache.hadoop hadoop-yarn-server-common (Wspólne komponenty serwera Hadoop YARN) 2.7.3
org.apache.htrace htrace-core 3.1.0 inkubacja
org.apache.httpcomponents httpclient 4.5.6
org.apache.httpcomponents httpcore 4.4.10
org.apache.ivy bluszcz 2.4.0
org.apache.orc orc-core-nohive 1.5.5
org.apache.orc orc-mapreduce-nohive 1.5.5
org.apache.orc podkładki orc-shim 1.5.5
org.apache.parquet kolumna parkietowa 1.10.1.2-databricks3
org.apache.parquet parquet-wspólny 1.10.1.2-databricks3
org.apache.parquet kodowanie Parquet 1.10.1.2-databricks3
org.apache.parquet format typu parquet 2.4.0
org.apache.parquet Parquet-Hadoop (framework do analizy danych) 1.10.1.2-databricks3
org.apache.parquet parquet-jackson 1.10.1.2-databricks3
org.apache.thrift libfb303 0.9.3
org.apache.thrift libthrift 0.9.3
org.apache.xbean xbean-asm6-cieniowany 4.8
org.apache.zookeeper - system do zarządzania konfiguracją i synchronizacją dla aplikacji rozproszonych. opiekun zwierząt 3.4.6
org.codehaus.jackson jackson-core-asl 1.9.13
org.codehaus.jackson jackson-jaxrs 1.9.13
org.codehaus.jackson jackson-mapujący-ASL 1.9.13
org.codehaus.jackson jackson-xc 1.9.13
org.codehaus.janino commons-kompilator 3.0.10
org.codehaus.janino Janino 3.0.10
org.datanucleus datanucleus-api-jdo 3.2.6
org.datanucleus datanucleus-core 3.2.10
org.datanucleus datanucleus-rdbms 3.2.9
org.eclipse.jetty jetty-client 9.3.27.v20190418
org.eclipse.jetty jetty-kontynuacja 9.3.27.v20190418
org.eclipse.jetty jetty-http 9.3.27.v20190418
org.eclipse.jetty jetty-io 9.3.27.v20190418
org.eclipse.jetty jetty-jndi 9.3.27.v20190418
org.eclipse.jetty Jetty-plus 9.3.27.v20190418
org.eclipse.jetty serwer pośredniczący Jetty 9.3.27.v20190418
org.eclipse.jetty moduł bezpieczeństwa Jetty 9.3.27.v20190418
org.eclipse.jetty serwer aplikacji Jetty 9.3.27.v20190418
org.eclipse.jetty jetty-servlet 9.3.27.v20190418
org.eclipse.jetty jetty-servlets 9.3.27.v20190418
org.eclipse.jetty jetty-util 9.3.27.v20190418
org.eclipse.jetty Jetty-aplikacja internetowa 9.3.27.v20190418
org.eclipse.jetty jetty-xml 9.3.27.v20190418
org.fusesource.leveldbjni leveldbjni-all 1.8
org.glassfish.hk2 hk2-api 2.4.0-b34
org.glassfish.hk2 lokalizator hk2 2.4.0-b34
org.glassfish.hk2 hk2-utils 2.4.0-b34
org.glassfish.hk2 lokalizator zasobów OSGi 1.0.1
org.glassfish.hk2.external aopalliance-zapakowane ponownie 2.4.0-b34
org.glassfish.hk2.external javax.inject (pakiet w języku Java) 2.4.0-b34
org.glassfish.jersey.bundles.repackaged jersey-guawa 2.22.2
org.glassfish.jersey.containers serwlet kontenerowy Jersey 2.22.2
org.glassfish.jersey.containers jersey-container-servlet-core 2.22.2
org.glassfish.jersey.core jersey-client 2.22.2
org.glassfish.jersey.core dzianina-zwykła 2.22.2
org.glassfish.jersey.core serwer jersey 2.22.2
org.glassfish.jersey.media - "jersey-media-jaxb" не wymaga tłumaczenia, gdyż jest to nazwa techniczna, ale dla polskich odbiorców warto dodać opis lub kontynuować bez zmian, jeżeli nazwa już jako taka przyjęła się w lokalnym użyciu. 2.22.2
org.hamcrest hamcrest-core 1.3
org.hamcrest hamcrest-biblioteka 1.3
org.hibernate moduł sprawdzania poprawności hibernacji 5.1.1.Ostateczna
org.iq80.snappy Żwawy 0,2
org.javassist javassist 3.18.1-GA
org.jboss.logging jboss-logging (narzędzie do rejestrowania zdarzeń w JBoss) 3.1.3.GA
org.jdbi jdbi 2.63.1
org.joda joda-convert 1,7
org.jodd jodd-core 3.5.2
org.json4s json4s-ast_2.11 3.5.3
org.json4s json4s-core_2.11 3.5.3
org.json4s json4s-jackson_2.11 3.5.3
org.json4s json4s-scalap_2.11 3.5.3
org.lz4 lz4-java 1.4.0
org.mariadb.jdbc mariadb-java-client 2.1.2
org.mockito mockito-core 1.10.19
org.objenesis objenesis 2.5.1
org.postgresql postgresql 42.1.4
org.roaringbitmap RoaringBitmap 0.7.45
org.roaringbitmap Podkładki 0.7.45
org.rocksdb rocksdbjni 6.2.2
org.rosuda.REngine REngine 2.1.0
org.scala-lang scala-compiler_2.11 2.11.12
org.scala-lang scala-library_2.11 2.11.12
org.scala-lang scala-reflect_2.11 2.11.12
org.scala-lang.modules scala-parser-combinators_2.11 1.1.0
org.scala-lang.modules scala-xml_2.11 1.0.5
org.scala-sbt interfejs testowy 1.0
org.scalacheck scalacheck_2.11 1.12.5
org.scalactic scalactic_2.11 3.0.3
org.scalanlp breeze-macros_2.11 0.13.2
org.scalanlp breeze_2.11 0.13.2
org.scalatest scalatest_2.11 3.0.3
org.slf4j jcl-over-slf4j 1.7.16
org.slf4j jul-to-slf4j 1.7.16
org.slf4j slf4j-api 1.7.16
org.slf4j slf4j-log4j12 1.7.16
org.spark-project.hive hive-beeline (narzędzie do interakcji z bazą danych Hive) 1.2.1.spark2
org.spark-project.hive hive-cli 1.2.1.spark2
org.spark-project.hive hive-jdbc 1.2.1.spark2
org.spark-project.hive magazyn metadanych Hive 1.2.1.spark2
org.spark-project.spark.spark Nieużywane 1.0.0
org.spire-math spire-macros_2.11 0.13.0
org.spire-math spire_2.11 0.13.0
org.springframework spring-core (podstawowy moduł Spring) 4.1.4.WYDANIE
org.springframework test sprężynowy 4.1.4.WYDANIE
org.tukaani xz 1.5
org.typelevel mechanik_2.11 0.6.1
org.typelevel macro-compat_2.11 1.1.1
org.xerial sqlite-jdbc 3.8.11.2
org.xerial.snappy snappy-java 1.1.7.3
org.yaml snakeyaml 1.16
oro oro 2.0.8
oprogramowanie.amazon.ion ion-java 1.0.2
Stax stax-api 1.0.1
xmlenc (standard szyfrowania XML) xmlenc (standard szyfrowania XML) 0.52