Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Uwaga
Obsługa tej wersji środowiska Databricks Runtime została zakończona. Aby uzyskać datę zakończenia pomocy technicznej, zobacz Historia zakończenia pomocy technicznej. Wszystkie obsługiwane wersje środowiska Databricks Runtime można znaleźć w temacie Databricks Runtime release notes versions and compatibility (Wersje i zgodność środowiska Databricks Runtime).
Usługa Databricks wydała tę wersję w marcu 2021 r.
Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 8.0 obsługiwanym przez platformę Apache Spark 3.1.1.
Nowe funkcje
Środowisko Databricks Runtime 8.0 zawiera platformę Apache Spark 3.1.1. Aby uzyskać szczegółowe informacje, zobacz Apache Spark.
Ulepszenia
Funkcja Delta jest teraz formatem domyślnym, gdy nie określono formatu
Środowisko Databricks Runtime 8.0 zmienia domyślny format, aby delta ułatwić tworzenie tabeli delty. Podczas tworzenia tabeli przy użyciu poleceń SQL lub {Dataset|DataFrame}.{read|readStream|write|writeTo|writeStream} interfejsów API i nie określasz formatu, domyślnym formatem jest delta.
Dzięki usłudze Delta Lake uzyskasz lepszą wydajność za pośrednictwem parquet, lepszą niezawodność danych dzięki rozbudowanej weryfikacji schematu, ograniczeniom jakości i gwarancji transakcyjnych. Usługa Delta Lake pozwala uprościć potoki danych dzięki ujednoliconemu przetwarzaniu strumieniowemu ze strukturą i przetwarzaniu wsadowemu w jednym źródle danych.
Usługa Databricks zaleca używanie usługi Delta Lake do przechowywania danych, ale mogą istnieć starsze przepływy pracy, które wymagają migracji do usługi Delta Lake. Aby uzyskać informacje na temat migrowania istniejących przepływów pracy, zobacz Co to jest usługa Delta Lake w usłudze Azure Databricks?.
Nowy domyślny interwał wyzwalacza przesyłania strumieniowego ze strukturą zmniejsza koszty
Jeśli nie ustawisz interwału wyzwalacza przy użyciu Trigger.ProcessingTime zapytania przesyłania strumieniowego, interwał zostanie ustawiony na 500 ms. Wcześniej domyślny interwał wynosił 0 ms. Ta zmiana powinna zmniejszyć liczbę pustych wyzwalaczy i zmniejszyć koszty magazynowania w chmurze, takie jak lista.
Używanie funkcji przekształcania LDA z przekazywaniem poświadczeń (publiczna wersja zapoznawcza)
Teraz możesz użyć funkcji przekształcania LDA w klastrze skonfigurowanym do używania przekazywania poświadczeń do uwierzytelniania.
Klastry pojedynczego użytkownika skonfigurowane z przekazywaniem poświadczeń nie wymagają już zaufanych systemów plików (publiczna wersja zapoznawcza)
Nie trzeba już konfigurować lokalnych systemów plików jako zaufanych systemów plików w przypadku korzystania ze standardowego lub klastra zadań skonfigurowanego do przekazywania poświadczeń z jednym użytkownikiem. Ta zmiana powoduje usunięcie niepotrzebnych ograniczeń systemu plików podczas uruchamiania zadań w klastrze pojedynczego użytkownika.
Uaktualnienia biblioteki
- Uaktualniono kilka bibliotek Java i Scala. Zobacz Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.12).
- Uaktualniono język Python do wersji 3.8.6.
- Uaktualniono kilka zainstalowanych bibliotek języka Python. Zobacz Zainstalowane biblioteki języka Python.
- Uaktualniono język R do wersji 4.0.3.
- Uaktualniono kilka zainstalowanych bibliotek języka R. Zobacz Zainstalowane biblioteki języka R.
Apache Spark
Środowisko Databricks Runtime 8.0 zawiera platformę Apache Spark 3.1.1.
W tej sekcji:
Core i Spark SQL
Wyróżnienie
- Ujednolicenie składni SQL tabeli (SPARK-31257)
- Ulepszenie sprzężenia skrótu (SPARK-32461)
- Ulepszona eliminacja podrażenia (SPARK-33092, SPARK-33337, SPARK-33427, SPARK-33540)
- Kubernetes GA (SPARK-33005)
Ulepszenia zgodności usługi ANSI SQL
- Obsługa typu danych char/varchar (SPARK-33480)
- Tryb ANSI: błędy środowiska uruchomieniowego zamiast zwracać wartość null (SPARK-33275)
- Tryb ANSI: nowe jawne reguły składni rzutowania (SPARK-33354)
- Dodawanie standardowego polecenia
SET TIME ZONESQL (SPARK-32272) - Ujednolicenie składni SQL tabeli (SPARK-31257)
- Ujednolicenie zachowania widoku tymczasowego i widoku trwałego (SPARK-33138)
- Obsługa listy kolumn w
INSERTinstrukcji (SPARK-32976) - Obsługa zagnieżdżonych komentarzy w nawiasach ANSI (SPARK-28880)
Ulepszenia wydajności
- Odczytywanie danych lokalnych bez mieszania usługi (SPARK-32077)
- Usuń nadmiarowe sortowania przed ponownym partycjonowanie węzłów (SPARK-32276)
- Częściowo wypychane predykaty (SPARK-32302, SPARK-32352)
- Wypychanie filtrów przez rozszerzenie (SPARK-33302)
- Wypychanie bardziej możliwych predykatów przez sprzężenie za pośrednictwem konwersji CNF (SPARK-31705)
- Usuń mieszania, zachowując partycjonowanie danych wyjściowych sprzężenia skrótu emisji (SPARK-31869)
- Usuń mieszania, poprawiając kolejność kluczy sprzężenia (SPARK-32282)
- Usuń mieszania, normalizując partycjonowanie danych wyjściowych i kolejność sortowania (SPARK-33399)
- Ulepszenie sprzężenia skrótu (SPARK-32461)
- Zachowaj partycjonowanie po stronie kompilacji po stronie skrótu (SPARK-32330)
- Zachowywanie sprzężenia skrótu (BHJ i SHJ) po stronie strumienia (SPARK-32383)
- Tabele zasobnikowe łączenia dla sprzężenia scalania sortowania (SPARK-32286)
- Dodawanie funkcji code-gen do sprzężenia skrótów potasowanych (SPARK-32421)
- Obsługa pełnego sprzężenia zewnętrznego w sprzężeniu skrótów mieszanych (SPARK-32399)
- Obsługa eliminacji podwyrażenia w projekcie przy użyciu modułu codegen całego etapu (SPARK-33092)
- Obsługa eliminacji podrażenia w wyrażeniach warunkowych (SPARK-33337)
- Obsługa eliminacji podrażenia dla oceny wyrażeń interpretowanych (SPARK-33427)
- Obsługa eliminacji podwyrażenia dla interpretowanego predykatu (SPARK-33540)
- Inne reguły optymalizatora
- Reguła
ExtractSingleColumnNullAwareAntiJoin(SPARK-32290) - Reguła
EliminateNullAwareAntiJoin(SPARK-32573) - Reguła
EliminateAggregateFilter(SPARK-32540) - Reguła
UnwrapCastInBinaryComparison(SPARK-32858) - Reguła
DisableUnnecessaryBucketedScan(SPARK-32859) - Reguła
CoalesceBucketsInJoin(SPARK-31350) - Przycinanie niepotrzebnych zagnieżdżonych pól z generowania bez projektu (SPARK-29721)
- Przycinanie niepotrzebnych zagnieżdżonych pól z agregacji i rozszerzania (SPARK-27217)
- Przycinanie niepotrzebnych zagnieżdżonych pól z wyrażenia i sprzężenia (SPARK-31736)
- Przycinanie niepotrzebnych zagnieżdżonych pól nad odmianami kosmetycznymi (SPARK-32163)
- Przycinanie niepotrzebnych zagnieżdżonych pól z okna i sortowania (SPARK-32059)
- Zoptymalizuj rozmiar elementu CreateArray/CreateMap, aby był rozmiarem elementów podrzędnych (SPARK-33544)
- Reguła
Ulepszenia rozszerzalności
- Dodawanie
SupportsPartitionsinterfejsów API w usłudze DataSourceV2 (SPARK-31694) - Dodawanie
SupportsMetadataColumnsinterfejsu API w usłudze DataSourceV2 (SPARK-31255) - Podłączaj pamięć podręczną SQL Cache (SPARK-32274)
-
purgeWprowadzenie opcji w katalogu wTableCatalog.dropTablewersji 2 (SPARK-33364)
Ulepszenia łącznika
- Ulepszenie wypychania filtru partycji magazynu metadanych Hive (SPARK-33537)
- Obsługa zawiera filtry rozpoczynające się od i kończące się filtrami (SPARK-33458)
- Obsługa filtru według typu daty (SPARK-33477)
- Obsługa filtru według wartości niezrównowanych (SPARK-33582)
- Parkiet
- Zezwalaj na złożony typ w kluczach map w systemie Parquet (SPARK-32639)
- Zezwalaj na zapisywanie i ładowanie inT96 w parquet bez ponownej analizy (SPARK-33160)
- ORK
- Zagnieżdżone wypychanie kolumn dla ORC (SPARK-25557)
- Uaktualnianie usługi Apache ORC do wersji 1.5.12 (SPARK-33050)
- CSV
- Korzystanie ze źródła danych tekstowych SQL podczas wnioskowania schematu CSV (SPARK-32270)
- Notacja JSON
- Obsługa wypychania filtrów w źródle danych JSON (SPARK-30648)
- JDBC
- Implementowanie interfejsów API wykazu dla JDBC (SPARK-32375, SPARK-32579, SPARK-32402, SPARK-33130)
- Tworzenie interfejsu API dewelopera dostawcy uwierzytelniania JDBC (SPARK-32001)
- Dodawanie możliwości wyłączenia dostawcy połączenia JDBC (SPARK-32047)
- Avro
- Obsługa wypychania filtrów w źródle danych Avro (SPARK-32346)
Ulepszenia funkcji
- Likwidowanie węzłów (SPARK-20624)
- Podstawowa struktura (SPARK-20628)
- Migrowanie bloków RDD podczas likwidowania (SPARK-20732)
- Bezpieczne likwidowanie w ramach dynamicznego skalowania (SPARK-31198)
- Migrowanie bloków mieszania podczas likwidowania (SPARK-20629)
- Zakończ funkcję wykonawczą tylko wtedy, gdy zadania i migracja bloków zostaną zakończone (SPARK-31197)
- Obsługa rezerwowego magazynu podczas likwidowania (SPARK-33545)
- Nowe wbudowane funkcje
- json_array_length (SPARK-31008)
- json_object_keys (SPARK-31009)
- current_catalog (SPARK-30352)
- timestamp_seconds, timestamp_millis, timestamp_micros (SPARK-31710)
- width_bucket (SPARK-21117)
- regexp_extract_all (SPARK-24884)
- nth_value (SPARK-27951)
- raise_error (SPARK-32793)
- unix_seconds, unix_millis i unix_micros (SPARK-33627)
- date_from_unix_date i unix_date (SPARK-33646)
- current_timezone (SPARK-33469)
- EXPLAIN ulepszenia poleceń (SPARK-32337, SPARK-31325)
- Podaj opcję wyłączenia wskazówek dostarczonych przez użytkownika (SPARK-31875)
- Obsługa składni COLUMNS replace stylu hive (SPARK-30613)
- Obsługa
LIKE ANYiLIKE ALLoperatory (SPARK-30724) - Obsługa nieograniczonego
MATCHEDiNOT MATCHEDinMERGE INTO(SPARK-32030) - Obsługa
Fliterałów zmiennoprzecinkowych z sufiksem (SPARK-32207) - Obsługa
RESETskładni resetowania pojedynczej konfiguracji (SPARK-32406) - Wyrażenie filtru
DISTINCTobsługi umożliwia jednoczesne użycie (SPARK-30276) - Obsługa polecenia alter table add/drop partition dla DSv2 (SPARK-32512)
- Obsługa
NOT INpodzapytania wewnątrz zagnieżdżonychORwarunków (SPARK-25154) - Polecenie obsługi
REFRESH FUNCTION(SPARK-31999) - Dodawanie
sameSemanticsmetod isementicHashw zestawie danych (SPARK-30791) - Obsługa typu klasy przypadków w funkcji UDF (SPARK-31826)
- Obsługa wyliczenia w koderach (SPARK-32585)
- Obsługa zagnieżdżonych interfejsów
withFieldAPI pól idropFields(SPARK-31317, SPARK-32511) - Obsługa wypełniania wartości null dla brakujących kolumn w programie
unionByName(SPARK-29358) - Obsługa
DataFrameReader.tablepodejmowania określonych opcji (SPARK-32592, SPARK-32844) - Obsługa lokalizacji systemu plików HDFS w systemie
spark.sql.hive.metastore.jars(SPARK-32852) - Opcja obsługi
--archivesnatywnie (SPARK-33530, SPARK-33615) - Ulepszanie
ExecutorPlugininterfejsu API w celu uwzględnienia metod uruchamiania i kończenia zadań (SPARK-33088)
Inne istotne zmiany
- Zapewnianie funkcji wyszukiwania w witrynie dokumentacji platformy Spark (SPARK-33166)
- Uaktualnianie narzędzia Apache Arrow do wersji 2.0.0 (SPARK-33213)
- Włączanie interfejsu API 8-czasowego języka Java na serwerze thrift (SPARK-31910)
- Włączanie interfejsu API 8-czasowego języka Java w funkcjach zdefiniowanych przez użytkownika (SPARK-32154)
- Sprawdzanie przepełnienia pod kątem sumy agregującej z liczbami dziesiętnymi (SPARK-28067)
- Napraw kolizję zatwierdzenia w trybie zastępowania partycji dynamicznej (SPARK-27194, SPARK-29302)
- Usunięto odwołania do elementu podrzędnego, czarnej listy i listy dozwolonych (SPARK-32004, SPARK-32036, SPARK-32037)
- Usuwanie sprawdzania rozmiaru wyniku zadania dla etapu mapy shuffle (SPARK-32470)
- Uogólnij
ExecutorSource, aby uwidocznić schematy systemu plików podane przez użytkownika (SPARK-33476) - Dodawanie
StorageLevel.DISK_ONLY_3(SPARK-32517) - Uwidacznianie metryk pamięci funkcji wykonawczej w internetowym interfejsie użytkownika dla funkcji wykonawczych (SPARK-23432)
- Uwidaczniaj metryki pamięci funkcji wykonawczej na poziomie etapu na karcie Etapy (SPARK-26341)
- Poprawka jawnego
spark.ui.portzestawu w trybie klastra YARN (SPARK-29465) - Dodawanie
spark.submit.waitForCompletionkonfiguracji w celu kontrolowania zakończenia przesyłania platformy Spark w trybie klastra autonomicznego (SPARK-31486) -
yarn.ClientKonfigurowanie drukowania bezpośrednich linków do sterownika stdout/stderr (SPARK-33185) - Napraw przeciek pamięci, gdy nie można przechowywać fragmentów emisji (SPARK-32715)
- Konfigurowanie
BlockManagerMasterlimitu czasu pulsu sterownika (SPARK-34278) - Ujednolicenie i pełne zachowanie pamięci podręcznej (SPARK-33507)
PySpark (biblioteka używana w Apache Spark do przetwarzania dużych zbiorów danych)
Projekt Zen
- Projekt Zen: ulepszanie użyteczności języka Python (SPARK-32082)
- Obsługa wskazówek dotyczących typów PySpark (SPARK-32681)
- Przeprojektuj dokumentację PySpark (SPARK-31851)
- Migrowanie do stylu dokumentacji biblioteki NumPy (SPARK-32085)
- Opcja instalacji dla użytkowników PyPI (SPARK-32017)
- Cofnij wycofywanie schematu ramki danych z listy dykt (SPARK-32686)
- Uproszczenie komunikatu o wyjątku z funkcji zdefiniowanych przez użytkownika języka Python (SPARK-33407)
Inne istotne zmiany
- Deduplikacja deterministycznych wywołań języka PythonUDF (SPARK-33303)
- Obsługa funkcji wyższego porządku w funkcjach PySpark (SPARK-30681)
- Obsługa interfejsów API zapisu w wersji 2x źródła danych (SPARK-29157)
- Obsługa
percentile_approxfunkcji PySpark (SPARK-30569) - Obsługa
inputFilesramki danych PySpark (SPARK-31763) - Obsługa
withFieldw kolumnie PySpark (SPARK-32835) - Obsługa
dropFieldskolumny PySpark (SPARK-32511) - Obsługa
nth_valuefunkcji PySpark (SPARK-33020) - Obsługa
acoshelementów iasinh(atanh) - Metoda obsługi
getCheckpointDirw narzędziu PySpark SparkContext (SPARK-33017) - Obsługa wypełniania wartości null dla brakujących kolumn w programie
unionByName(SPARK-32798) - Aktualizacja
cloudpickledo wersji 1.5.0 (SPARK-32094) - Dodano
MapTypeobsługę narzędzia PySpark za pomocą strzałki (SPARK-24554) -
DataStreamReader.tableandDataStreamWriter.toTable(SPARK-33836)
Przesyłanie strumieniowe ze strukturą
Ulepszenia wydajności
- Pobrana w pamięci podręcznej lista plików poza maxFilesPerTrigger jako nieprzeczytany plik (SPARK-30866)
- Usprawnij logikę w dzienniku metadanych strumienia plików i ujścia (SPARK-30462)
- Unikaj dwukrotnego odczytywania kompaktowych dzienników metadanych, jeśli zapytanie zostanie uruchomione ponownie z kompaktowej partii (SPARK-30900)
Ulepszenia funkcji
- Dodawanie
DataStreamReader.tableinterfejsu API (SPARK-32885) - Dodawanie
DataStreamWriter.toTableinterfejsu API (SPARK-32896) - Sprzężenie ze strumieniem w lewo (SPARK-32862)
- Pełne sprzężenie strumienia zewnętrznego (SPARK-32863)
- Podaj nową opcję przechowywania plików wyjściowych (SPARK-27188)
- Dodawanie obsługi serwera historii przesyłania strumieniowego ze strukturą platformy Spark (SPARK-31953)
- Wprowadzenie weryfikacji schematu stanu wśród ponownego uruchomienia zapytania (SPARK-27237)
Inne istotne zmiany
- Wprowadzenie weryfikacji schematu dla magazynu stanów przesyłania strumieniowego (SPARK-31894)
- Obsługa używania innego kodera kodera kompresji w magazynie stanów (SPARK-33263)
- Nieskończone oczekiwanie łącznika platformy Kafka, ponieważ metadane nigdy nie zostały zaktualizowane (SPARK-28367)
- Uaktualnianie platformy Kafka do wersji 2.6.0 (SPARK-32568)
- Obsługa stronicowania dla stron interfejsu użytkownika przesyłania strumieniowego ze strukturą (SPARK-31642, SPARK-30119)
- Informacje o stanie w interfejsie użytkownika przesyłania strumieniowego ze strukturą (SPARK-33223)
- Informacje o lukach w znakach w interfejsie użytkownika przesyłania strumieniowego ze strukturą (SPARK-33224)
- Uwidacznij informacje o metrykach niestandardowych stanu w interfejsie użytkownika SS (SPARK-33287)
- Dodaj nową metrykę dotyczącą liczby wierszy później niż limit wodny (SPARK-24634)
MLlib
Najważniejsze informacje
- LinearSVC blokuj wektory wejściowe (SPARK-30642)
- LogisticsRegression blokuj wektory wejściowe (SPARK-30659)
- LinearRegression blokuj wektory wejściowe (SPARK-30660)
- AFT blokuj wektory wejściowe (SPARK-31656)
- Dodawanie obsługi reguł skojarzeń w usłudze ML (SPARK-19939)
- Dodawanie podsumowania trenowania dla modelu LinearSVCModel (SPARK-20249)
- Dodawanie podsumowania do elementu RandomForestClassificationModel (SPARK-23631)
- Dodawanie podsumowania trenowania do modelu FMClassificationModel (SPARK-32140)
- Dodawanie podsumowania do klasy MultilayerPerceptronClassificationModel (SPARK-32449)
- Dodawanie klasyfikatora FMClassifier do platformy SparkR (SPARK-30820)
- Dodawanie otoki LinearRegression platformy SparkR (SPARK-30818)
- Dodawanie otoki FMRegressor do platformy SparkR (SPARK-30819)
- Dodawanie otoki SparkR dla
vector_to_array(SPARK-33040) - adaptacyjne blokowanie wystąpień — LinearSVC (SPARK-32907)
- Spraw, aby CrossValidator/TrainValidateSplit/OneVsRest Reader/Writer wspierały estymator/ewaluator dla backendu w Pythonie (SPARK-33520)
- Zwiększanie wydajności rekomendacji ML ALSForAll by GEMV (SPARK-33518)
- Dodawanie univariateFeatureSelector (SPARK-34080)
Inne istotne zmiany
- Podsumowanie i dystrybucja aktualizacji obliczeń GMM w jednym zadaniu (SPARK-31032)
- Usuń zależność ChiSqSelector od biblioteki mllib. ChiSqSelectorModel (SPARK-31077)
- Spłaszczanie ramki danych wyniku testów w testChiSquare (SPARK-31301)
- Optymalizacja klucza MinHash (SPARK-31436)
- Optymalizacja KMeans na podstawie nierówności trójkątów (SPARK-31007)
- Dodano obsługę wagi w klastrzeKlaingEvaluator (SPARK-31734)
- Dodawanie funkcji getMetrics w ewaluatorach (SPARK-31768)
- Dodano obsługę wagi wystąpień w elemecie LinearRegressionSummary (SPARK-31944)
- Dodawanie kolumny złożonej określonej przez użytkownika do elementu CrossValidator (SPARK-31777)
- Parzystość wartości domyślnych uczenia maszynowego w funkcji i dostrajaniu (SPARK-32310)
- Naprawiono podwójne buforowanie w KMeans/BiKMeans (SPARK-32676)
- Optymalizacja przekształcania odręczny (SPARK-33111)
- Optymalizacja transformacji FeatureHasher (SPARK-32974)
- Dodawanie funkcji array_to_vector dla kolumny ramki danych (SPARK-33556)
- Parzystość wartości domyślnych w klasyfikacji, regresji, klastrowaniu i fpm (SPARK-32310)
- Summary.totalIterations większe niż maxIters (SPARK-31925)
- optymalizacja przewidywania modeli drzewa (SPARK-32298)
SparkR
- Dodawanie interfejsu SparkR dla funkcji wyższego zamówienia (SPARK-30682)
- Obsługa wypełniania wartości null dla brakujących kolumn w unionByName (SPARK-32798)
- Obsługa funkcjiColumn w usłudze SparkR (SPARK-32946)
- Obsługa timestamp_seconds w funkcjach SparkR (SPARK-32949)
- Obsługa nth_value w funkcjach SparkR (SPARK-33030)
- Minimalna wersja strzałki przekroczyła 1.0.0 (SPARK-32452)
- Obsługa array_to_vector w funkcjach SparkR (SPARK-33622)
- Obsługa aosh, asinh i atanh (SPARK-33563)
- Obsługa from_avro i to_avro (SPARK-33304)
Aktualizacje konserwacyjne
Zobacz Aktualizacje konserwacji środowiska Databricks Runtime 8.0.
Środowisko systemu
- System operacyjny: Ubuntu 18.04.5 LTS
- Java: Zulu 8.50.0.51-CA-linux64 (kompilacja 1.8.0_275-b01)
- Scala: 2.12.10
- Python: 3.8.8 (zaktualizowano z wersji 3.8.6 w maju 26 maja 2021 r.)
- R: R w wersji 4.0.3 (2020-10-10)
- Delta Lake 0.8.0
Zainstalowane biblioteki języka Python
| Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
|---|---|---|---|---|---|
| appdirs | 1.4.4 | asn1crypto | 1.4.0 | Wezwanie zwrotne | 0.2.0 |
| boto3 | 1.16.7 | botocore | 1.19.7 | brotlipy | 0.7.0 |
| certyfikat | 2020.12.5 | cffi | 1.14.3 | chardet | 3.0.4 |
| kryptografia | 3.1.1 | rowerzysta | 0.10.0 | Cython | 0.29.21 |
| dekorator | 4.4.2 | distlib | 0.3.1 | docutils | 0.15.2 |
| punkty wejścia | 0,3 | blokada plików | 3.0.12 | IDNA | 2.10 |
| ipykernel | 5.3.4 | ipython | 7.19.0 | ipython-genutils | 0.2.0 |
| Jedi | 0.17.2 | jmespath | 0.10.0 | joblib | 0.17.0 |
| jupyter-client | 6.1.7 | jupyter-core | 4.6.3 | kiwisolver | 1.3.0 |
| Koale | 1.5.0 | biblioteka matplotlib | 3.2.2 | numpy | 1.19.2 |
| Pandas | 1.1.3 | parso | 0.7.0 | Patsy | 0.5.1 |
| pexpect | 4.8.0 | pickleshare (jeśli to nazwa własna, nie trzeba tłumaczyć) | 0.7.5 | pip (menedżer pakietów Pythona) | 20.2.4 |
| zestaw narzędzi prompt | 3.0.8 | psycopg2 | 2.8.5 | ptyprocess | 0.6.0 |
| pyarrow | 1.0.1 | pycparser | 2,20 | Pygments | 2.7.2 |
| pyOpenSSL | 19.1.0 | pyparsing – biblioteka do przetwarzania tekstu w Pythonie | 2.4.7 | PySocks | 1.7.1 |
| python-dateutil (biblioteka Pythona do zarządzania datami) | 2.8.1 | pytz (biblioteka Pythona do obliczeń stref czasowych) | 2020.1 | pyzmq | 19.0.2 |
| żądania | 2.24.0 | s3transfer | 0.3.3 | scikit-learn | 0.23.2 |
| scipy (biblioteka naukowa dla Pythona) | 1.5.2 | urodzony na morzu | 0.10.0 | setuptools | 50.3.1 |
| Sześć | 1.15.0 | statsmodels - biblioteka do modelowania statystycznego | 0.12.0 | threadpoolctl | 2.1.0 |
| tornado | 6.0.4 | traitlety | 5.0.5 | urllib3 | 1.25.11 |
| virtualenv | 20.2.1 | szerokość(wcwidth) | 0.2.5 | wheel | 0.35.1 |
Zainstalowane biblioteki języka R
Biblioteki języka R są instalowane z migawki usługi Microsoft CRAN w dniach 2020-11-02.
| Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
|---|---|---|---|---|---|
| askpass | 1.1 | potwierdzić to | 0.2.1 | backports (backports) | 1.2.1 |
| baza | 4.0.3 | base64enc | 0.1-3 | BH | 1.72.0-3 |
| bitowe | 4.0.4 | bit-64 | 4.0.5 | blob | 1.2.1 |
| rozruch | 1.3-25 | warzyć | 1.0-6 | Brio | 1.1.0 |
| miotła | 0.7.2 | obiekt wywołujący | 3.5.1 | karetka | 6.0-86 |
| cellranger | 1.1.0 | Chroń | 2.3-56 | klasa | 7.3-17 |
| CLI | 2.2.0 | clipr | 0.7.1 | klaster | 2.1.0 |
| codetools | 0.2-18 | przestrzeń kolorów | 2.0-0 | commonmark | 1,7 |
| kompilator | 4.0.3 | konfig | 0,3 | cover | 3.5.1 |
| cpp11 | 0.2.4 | kredka | 1.3.4 | dane logowania | 1.3.0 |
| Crosstalk | 1.1.0.1 | lok | 4.3 | tabela danych | 1.13.4 |
| usługi Power BI | 4.0.3 | DBI | 1.1.0 | dbplyr | 2.0.0 |
| Desc | 1.2.0 | devtools | 2.3.2 | diffobj | 0.3.2 |
| skrót | 0.6.27 | dplyr | 1.0.2 | DT | 0,16 |
| wielokropek | 0.3.1 | ocenić | 0,14 | fani | 0.4.1 |
| kolory | 2.0.3 | szybka mapa | 1.0.1 | dla kotów | 0.5.0 |
| foreach | 1.5.1 | zagraniczny | 0.8-79 | kuźnia | 0.2.0 |
| Fs | 1.5.0 | przyszłość | 1.21.0 | typy ogólne | 0.1.0 |
| Gert | 1.0.2 | ggplot2 | 3.3.2 | Gh | 1.2.0 |
| gitcreds | 0.1.1 | glmnet | 4.0-2 | globalna | 0.14.0 |
| klej | 1.4.2 | Gower | 0.2.2 | grafika | 4.0.3 |
| grDevices | 4.0.3 | siatka | 4.0.3 | gridExtra | 2.3 |
| gsubfn | 0,7 | gtabela | 0.3.0 | przystań | 2.3.1 |
| wysoki | 0,8 | Hms | 0.5.3 | htmltools – narzędzie do tworzenia stron internetowych | 0.5.0 |
| widżety HTML | 1.5.3 | httpuv | 1.5.4 | httr | 1.4.2 |
| hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ini | 0.3.1 |
| ipred | 0.9-9 | isoband | 0.2.3 | Iteratory | 1.0.13 |
| jsonlite | 1.7.2 | KernSmooth | 2.23-18 | knitr (narzędzie do generowania dynamicznych raportów w R) | 1,30 |
| Etykietowania | 0.4.2 | później | 1.1.0.1 | krata | 0.20-41 |
| lawa | 1.6.8.1 | opóźnienie | 0.2.2 | cykl życia | 0.2.0 |
| nasłuchiwanie | 0.8.0 | lubridate | 1.7.9.2 | magrittr | 2.0.1 |
| Markdown | 1.1 | MASA | 7.3-53 | Macierz | 1.2-18 |
| zapamiętywanie | 1.1.0 | metody | 4.0.3 | mgcv | 1.8-33 |
| mim | 0,9 | Metryki modelu | 1.2.2.2 | modeler | 0.1.8 |
| munsell | 0.5.0 | nlme | 3.1-151 | sieć neuronowa (nnet) | 7.3-14 |
| numDeriv | 2016.8-1.1 | openssl | 1.4.3 | równoległy | 4.0.3 |
| równolegle | 1.22.0 | filar | 1.4.7 | pkgbuild | 1.1.0 |
| pkgconfig | 2.0.3 | pkgload | 1.1.0 | plogr | 0.2.0 |
| plyr | 1.8.6 | pochwała | 1.0.0 | prettyunits | 1.1.1 |
| Proc | 1.16.2 | Procesx | 3.4.5 | prodlim | 2019.11.13 |
| Postęp | 1.2.2 | Obietnice | 1.1.1 | Proto | 1.0.0 |
| PS | 1.5.0 | mruczenie | 0.3.4 | r2d3 | 0.2.3 |
| R6 | 2.5.0 | "randomForest" | 4.6-14 | rappdirs | 0.3.1 |
| rcmdcheck | 1.3.3 | RColorBrewer | 1.1-2 | Rcpp | 1.0.5 |
| czytnik | 1.4.0 | readxl (biblioteka do odczytu plików Excel) | 1.3.1 | przepisy | 0.1.15 |
| rewanż | 1.0.1 | rewanż2 | 2.1.2 | Piloty | 2.2.0 |
| przykład powtarzalny | 0.3.0 | zmień kształt2 | 1.4.4 | Rex | 1.2.0 |
| rlang | 0.4.9 | rmarkdown (narzędzie do tworzenia dokumentów w R) | 2.6 | RODBC | 1.3-17 |
| roxygen2 | 7.1.1 | rpart | 4.1-15 | rprojroot | 2.0.2 |
| Rserve | 1.8-7 | RSQLite | 2.2.1 | rstudioapi | 0,13 |
| rversions (rversions) | 2.0.2 | rvest | 0.3.6 | waga | 1.1.1 |
| selektor | 0.4-2 | Informacje o sesji | 1.1.1 | kształt | 1.4.5 |
| błyszczący | 1.5.0 | sourcetools | 0.1.7 | sparklyr | 1.5.2 |
| SparkR | 3.1.0 | przestrzenny | 7.3-11 | Splajnów | 4.0.3 |
| sqldf | 0.4-11 | KWADRAT | 2020.5 | Statystyki | 4.0.3 |
| statystyki4 | 4.0.3 | łańcuchy | 1.5.3 | stringr | 1.4.0 |
| przetrwanie | 3.2-7 | sys | 3.4 | tcltk | 4.0.3 |
| NauczanieDemos | 2.10 | testthat | 3.0.0 | tibble | 3.0.4 |
| tidyr | 1.1.2 | tidyselect | 1.1.0 | tidyverse | 1.3.0 |
| czasData | 3043.102 | tinytex | 0,28 | narzędzia | 4.0.3 |
| użyj tego | 2.0.0 | utf8 | 1.1.4 | narzędzia | 4.0.3 |
| UUID (Uniwersalnie Unikalny Identyfikator) | 0.1-4 | vctrs | 0.3.5 | viridisLite | 0.3.0 |
| Waldo | 0.2.3 | wąs | 0,4 | Withr | 2.3.0 |
| xfun | 0.19 | xml2 | 1.3.2 | xopen | 1.0.0 |
| Xtable | 1.8-4 | yaml | 2.2.1 | zamek | 2.1.1 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.12)
| Identyfikator grupy | Identyfikator artefaktu | Wersja |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Klient Amazon Kinesis | 1.12.0 |
| com.amazonaws | aws-java-sdk-automatyczne-skalowanie | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudhsm (zestaw narzędzi Java dla usługi CloudHSM) | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.655 |
| com.amazonaws | aws-java-sdk-codedeploy (biblioteka do zarządzania wdrażaniem kodu w AWS) | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.11.655 |
| com.amazonaws | aws-java-sdk-config (konfiguracja aws-java-sdk) | 1.11.655 |
| com.amazonaws | aws-java-sdk-core | 1.11.655 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.11.655 |
| com.amazonaws | aws-java-sdk-directconnect (pakiet narzędzi programistycznych dla Java do współpracy z AWS Direct Connect) | 1.11.655 |
| com.amazonaws | aws-java-sdk-directory | 1.11.655 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.11.655 |
| com.amazonaws | aws-java-sdk-ec2 | 1.11.655 |
| com.amazonaws | aws-java-sdk-ecs | 1.11.655 |
| com.amazonaws | aws-java-sdk-efs | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticache | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.655 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.655 |
| com.amazonaws | aws-java-sdk-emr (biblioteka SDK Java dla usługi Amazon EMR) | 1.11.655 |
| com.amazonaws | AWS Java SDK dla Glacier | 1.11.655 |
| com.amazonaws | aws-java-sdk-iam | 1.11.655 |
| com.amazonaws | AWS-Java-SDK-ImportExport | 1.11.655 |
| com.amazonaws | AWS SDK dla Javy - Kinesis | 1.11.655 |
| com.amazonaws | aws-java-sdk-kms | 1.11.655 |
| com.amazonaws | aws-java-sdk-lambda | 1.11.655 |
| com.amazonaws | aws-java-sdk-logs | 1.11.655 |
| com.amazonaws | aws-java-sdk-uczenie-maszynowe | 1.11.655 |
| com.amazonaws | aws-java-sdk-opsworks | 1.11.655 |
| com.amazonaws | aws-java-sdk-rds (pakiet programistyczny Java dla AWS RDS) | 1.11.655 |
| com.amazonaws | aws-java-sdk-redshift | 1.11.655 |
| com.amazonaws | aws-java-sdk-route53 | 1.11.655 |
| com.amazonaws | aws-java-sdk-s3 | 1.11.655 |
| com.amazonaws | aws-java-sdk-ses | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpledb | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.655 |
| com.amazonaws | aws-java-sdk-sns | 1.11.655 |
| com.amazonaws | aws-java-sdk-sqs | 1.11.655 |
| com.amazonaws | aws-java-sdk-ssm | 1.11.655 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.11.655 |
| com.amazonaws | aws-java-sdk-sts (pakiet programistyczny Java dla AWS STS) | 1.11.655 |
| com.amazonaws | wsparcie dla aws-java-sdk | 1.11.655 |
| com.amazonaws | aws-java-sdk-biblioteka-biblioteka | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.11.655 |
| com.amazonaws | jmespath-java | 1.11.655 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | odtwarzać strumieniowo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo-cieniowane | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | kolega z klasy | 1.3.4 |
| com.fasterxml.jackson.core | adnotacje jackson | 2.10.0 |
| com.fasterxml.jackson.core | jackson-core | 2.10.0 |
| com.fasterxml.jackson.core | jackson-databind | 2.10.0 |
| com.fasterxml.jackson.dataformat | Jackson-format-danych-CBOR | 2.10.0 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.10.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.10.0 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.10.0 |
| com.github.ben-manes.kofeina | kofeina | 2.3.4 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | rdzeń | 1.1.2 |
| com.github.fommil.netlib | natywne_odniesienie-java | 1.1 |
| com.github.fommil.netlib | native_ref-java-natives | 1.1 |
| com.github.fommil.netlib | native_system java | 1.1 |
| com.github.fommil.netlib | system natywny-java-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
| com.github.fommil.netlib | "netlib-native_system-linux-x86_64-natives" | 1.1 |
| com.github.joshelser | dropwizard-metrics-hadoop-metrics2-reporter | 0.1.2 |
| com.github.luben | zstd-jni | 1.4.8-1 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.2.4 |
| com.google.flatbuffers | flatbuffers-java | 1.9.0 |
| com.google.guava | guawa | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 1.4.195 |
| com.helger | profiler | 1.1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | bonecp | 0.8.0.WYDANIE |
| com.lihaoyi | kodźródłowy_2.12 | 0.1.9 |
| com.microsoft.sqlserver | mssql-jdbc | 8.2.1.jre8 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK do przechowywania danych Azure Data Lake) | 2.3.9 |
| com.ning | compress-lzf (biblioteka do kompresji danych) | 1.0.3 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | soczewki_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.9.5 |
| com.twitter | chill_2.12 | 0.9.5 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | konfig | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.univocity | parsery jednowołciowości | 2.9.0 |
| com.zaxxer | HikariCP | 3.1.0 |
| commons-beanutils | commons-beanutils | 1.9.4 |
| commons-cli | commons-cli | 1.2 |
| commons-codec | commons-codec | 1.10 |
| Zbiory Commons | Zbiory Commons | 3.2.2 |
| commons-configuration | commons-configuration | 1.6 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-digester | commons-digester | 1.8 |
| wspólne przesyłanie plików | wspólne przesyłanie plików | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2,4 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-net | commons-net | 3.1 |
| commons-pool | commons-pool | 1.5.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | kompresor powietrza | 0.10 |
| io.dropwizard.metrics | metryki —rdzeń | 4.1.1 |
| io.dropwizard.metrics | metrics-graphite | 4.1.1 |
| io.dropwizard.metrics | wskaźniki-kontrole zdrowia | 4.1.1 |
| io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
| io.dropwizard.metrics | metrics-jmx | 4.1.1 |
| io.dropwizard.metrics | metryki w formacie JSON | 4.1.1 |
| io.dropwizard.metrics | metryki-JVM | 4.1.1 |
| io.dropwizard.metrics | serwlety metrics-servlets | 4.1.1 |
| io.netty | netty-all | 4.1.51.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | moduł zbierający | 0.12.0 |
| jakarta.adnotacja | jakarta.annotation-api | 1.3.5 |
| \ jakarta.validation | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktywacja | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.servlet | javax.servlet-api | 3.1.0 |
| javax.servlet.jsp | jsp-api | 2.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | interfejs programistyczny transakcji | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.2 |
| javax.xml.stream | stax-api | 1.0-2 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.10.5 |
| log4j | apache-log4j-extras | 1.2.17 |
| log4j | log4j | 1.2.17 |
| net.razorvine | pirolit | 4:30 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | SDK do pobierania danych Snowflake | 0.9.6 |
| net.snowflake | snowflake-jdbc | 3.12.8 |
| net.snowflake | spark-snowflake_2.12 | 2.8.1-spark_3.0 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc (niedostępne w lokalnym języku) | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.8-1 |
| org.antlr | Szablon łańcucha | 3.2.1 |
| org.apache.ant | tat | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | program uruchamiający Ant | 1.9.2 |
| org.apache.arrow | format strzałki | 2.0.0 |
| org.apache.arrow | strzałka-pamięć-rdzeń | 2.0.0 |
| org.apache.arrow | arrow-memory-netty | 2.0.0 |
| org.apache.arrow | wektor strzałki | 2.0.0 |
| org.apache.avro | avro | 1.8.2 |
| org.apache.avro | avro-ipc | 1.8.2 |
| org.apache.avro | avro-mapred-hadoop2 | 1.8.2 |
| org.apache.commons | commons-compress | 1,20 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3,10 |
| org.apache.commons | commons-math3 | 3.4.1 |
| org.apache.commons | tekst wspólny | 1.6 |
| org.apache.curator | kurator-klient | 2.7.1 |
| org.apache.curator | struktura kuratora | 2.7.1 |
| org.apache.curator | przepisy kuratora | 2.7.1 |
| org.apache.derby | Derby | 10.12.1.1 |
| org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
| org.apache.directory.api | api-util | 1.0.0-M20 |
| org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
| org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
| org.apache.hadoop | adnotacje hadoop | 2.7.4 |
| org.apache.hadoop | hadoop-auth | 2.7.4 |
| org.apache.hadoop | hadoop-klient | 2.7.4 |
| org.apache.hadoop | hadoop-common | 2.7.4 |
| org.apache.hadoop | Hadoop-HDFS (Hadoop Distributed File System) | 2.7.4 |
| org.apache.hadoop | Klient aplikacji Hadoop MapReduce | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-shuffle (moduł mieszający klienta w Hadoop MapReduce) | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-api | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-client (klient Hadoop YARN) | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-common | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-server-common (Wspólne komponenty serwera Hadoop YARN) | 2.7.4 |
| org.apache.hive | hive-beeline (narzędzie do interakcji z bazą danych Hive) | 2.3.7 |
| org.apache.hive | hive-cli | 2.3.7 |
| org.apache.hive | hive-common | 2.3.7 |
| org.apache.hive | hive-exec-core | 2.3.7 |
| org.apache.hive | hive-jdbc | 2.3.7 |
| org.apache.hive | Klient hive-llap | 2.3.7 |
| org.apache.hive | hive-llap-common | 2.3.7 |
| org.apache.hive | magazyn metadanych Hive | 2.3.7 |
| org.apache.hive | hive-serde | 2.3.7 |
| org.apache.hive | podkładki hive | 2.3.7 |
| org.apache.hive | hive-storage-api (interfejs do przechowywania danych hive) | 2.7.2 |
| org.apache.hive | hive-vector-code-gen | 2.3.7 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.7 |
| org.apache.hive.shims | hive-shims-common | 2.3.7 |
| org.apache.hive.shims | harmonogram osłon/imitacji ula | 2.3.7 |
| org.apache.htrace | htrace-core | 3.1.0 inkubacja |
| org.apache.httpcomponents | httpclient | 4.5.6 |
| org.apache.httpcomponents | httpcore | 4.4.12 |
| org.apache.ivy | bluszcz | 2.4.0 |
| org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
| org.apache.orc | orc-core | 1.5.12 |
| org.apache.orc | orc-mapreduce | 1.5.12 |
| org.apache.orc | podkładki orc-shim | 1.5.12 |
| org.apache.parquet | parquet-kolumna | 1.10.1-databricks6 |
| org.apache.parquet | parquet-wspólny | 1.10.1-databricks6 |
| org.apache.parquet | kodowanie parquet | 1.10.1-databricks6 |
| org.apache.parquet | format parquet | 2.4.0 |
| org.apache.parquet | Parquet-Hadoop (framework do analizy danych) | 1.10.1-databricks6 |
| org.apache.parquet | parquet-jackson | 1.10.1-databricks6 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.velocity | szybkość pracy | 1.5 |
| org.apache.xbean | xbean-asm7-cieniowany | 4.15 |
| org.apache.yetus | adnotacje odbiorców | 0.5.0 |
| org.apache.zookeeper - system do zarządzania konfiguracją i synchronizacją dla aplikacji rozproszonych. | opiekun zoo | 3.4.14 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
| org.codehaus.jackson | jackson-mapujący-ASL | 1.9.13 |
| org.codehaus.jackson | jackson-xc | 1.9.13 |
| org.codehaus.janino | commons-kompilator | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.34.v20201102 |
| org.eclipse.jetty | jetty-kontynuacja | 9.4.34.v20201102 |
| org.eclipse.jetty | jetty-http | 9.4.34.v20201102 |
| org.eclipse.jetty | jetty-io | 9.4.34.v20201102 |
| org.eclipse.jetty | jetty-jndi | 9.4.34.v20201102 |
| org.eclipse.jetty | Jetty-plus | 9.4.34.v20201102 |
| org.eclipse.jetty | serwer pośredniczący Jetty | 9.4.34.v20201102 |
| org.eclipse.jetty | moduł bezpieczeństwa Jetty | 9.4.34.v20201102 |
| org.eclipse.jetty | serwer aplikacji Jetty | 9.4.34.v20201102 |
| org.eclipse.jetty | jetty-servlet | 9.4.34.v20201102 |
| org.eclipse.jetty | jetty-servlets | 9.4.34.v20201102 |
| org.eclipse.jetty | jetty-util | 9.4.34.v20201102 |
| org.eclipse.jetty | Jetty-aplikacja internetowa | 9.4.34.v20201102 |
| org.eclipse.jetty | jetty-xml | 9.4.34.v20201102 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | lokalizator hk2 | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-lokalizator-zasobów | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-zapakowane ponownie | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | serwlet kontenerowy Jersey | 2.30 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.30 |
| org.glassfish.jersey.core | jersey-client | 2.30 |
| org.glassfish.jersey.core | dzianina-zwykła | 2.30 |
| org.glassfish.jersey.core | serwer jersey | 2.30 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.30 |
| org.glassfish.jersey.media | - "jersey-media-jaxb" не wymaga tłumaczenia, gdyż jest to nazwa techniczna, ale dla polskich odbiorców warto dodać opis lub kontynuować bez zmian, jeżeli nazwa już jako taka przyjęła się w lokalnym użyciu. | 2.30 |
| org.hibernate.validator | moduł sprawdzania poprawności hibernacji | 6.1.0 Final |
| org.javassist | javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging (narzędzie do rejestrowania zdarzeń w JBoss) | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.joda | joda-convert | 1,7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M5 |
| org.json4s | json4s-core_2.12 | 3.7.0-M5 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M5 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M5 |
| org.lz4 | lz4-java | 1.7.1 |
| org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.1.4 |
| org.roaringbitmap | RoaringBitmap | 0.9.0 |
| org.roaringbitmap | Podkładki | 0.9.0 |
| org.rocksdb | rocksdbjni | 6.2.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.10 |
| org.scala-lang | scala-library_2.12 | 2.12.10 |
| org.scala-lang | scala-reflect_2.12 | 2.12.10 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.1.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interfejs testowy | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | breeze-macros_2.12 | 1.0 |
| org.scalanlp | breeze_2.12 | 1.0 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-over-slf4j | 1.7.30 |
| org.slf4j | jul-to-slf4j | 1.7.30 |
| org.slf4j | slf4j-api | 1.7.30 |
| org.slf4j | slf4j-log4j12 | 1.7.30 |
| org.spark-project.spark.spark | Nieużywane | 1.0.0 |
| org.springframework | spring-core (podstawowy moduł Spring) | 4.1.4.WYDANIE |
| org.springframework | test sprężynowy | 4.1.4.WYDANIE |
| org.threeten | trzydostępne dodatkowe | 1.5.0 |
| org.tukaani | xz | 1.5 |
| org.typelevel | algebra_2.12 | 2.0.0-M2 |
| org.typelevel | cats-kernel_2.12 | 2.0.0-M4 |
| org.typelevel | machinista_2.12 | 0.6.8 |
| org.typelevel | macro-compat_2.12 | 1.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0-M1 |
| org.typelevel | spire-platform_2.12 | 0.17.0-M1 |
| org.typelevel | spire-util_2.12 | 0.17.0-M1 |
| org.typelevel | spire_2.12 | 0.17.0-M1 |
| org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.8.2 |
| org.yaml | snakeyaml | 1.24 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| oprogramowanie.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |
| xmlenc (standard szyfrowania XML) | xmlenc (standard szyfrowania XML) | 0.52 |