Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Uwaga
Obsługa tej wersji środowiska Databricks Runtime została zakończona. Aby uzyskać datę zakończenia pomocy technicznej, zobacz Historia zakończenia pomocy technicznej. Wszystkie obsługiwane wersje środowiska Databricks Runtime można znaleźć w dokumentacji wersji i zgodności Databricks Runtime.
Usługa Databricks wydała tę wersję w listopadzie 2018 r.
Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 5.0 obsługiwanym przez platformę Apache Spark.
Nowe funkcje
- Delta Lake
- Teraz obsługiwane są podzapytania w klauzuli
WHEREdla obsługi poleceńDELETEiUPDATE. - Nowa skalowalna implementacja poleceń
MERGE.- Brak limitu liczby wstawiania i aktualizacji.
- Może służyć do obsługi zapytań typu SCD 1 i typu 2.
- Może być wykonywane wstawianie lub aktualizowanie danych z zapytań przesyłanych strumieniowo w trybie aktualizacji (na przykład zapisywanie danych wyjściowych agregacji przesyłania strumieniowego do tabeli Delta). Zobacz przykład Zapisywanie agregacji przesyłania strumieniowego w Databricks Delta za pomocą MERGE i notebooku foreachBatch.
- Teraz obsługiwane są podzapytania w klauzuli
- Przesyłanie strumieniowe ze strukturą
- Źródło przesyłania strumieniowego opartego na powiadomieniach plików w usłudze Azure Blob Storage. Może to znacznie zmniejszyć koszty listingu podczas uruchamiania zapytania Structured Streaming na plikach w usłudze Azure Blob Storage. Zamiast znajdować nowe pliki do przetwarzania za pomocą listy, to źródło przesyłania strumieniowego może bezpośrednio odczytywać powiadomienia o zdarzeniach plików w celu znalezienia nowych plików. Zobacz Źródło pliku usługi Azure Blob Storage za pomocą usługi Azure Queue Storage (starsza wersja).
- Dodano obsługę narzędzia TensorBoard do monitorowania zadań uczenia głębokiego. Zobacz TensorBoard.
Ulepszenia
- Delta Lake
-
OPTIMIZEwydajność i stabilność.- Polecenie
OPTIMIZEzatwierdza partie tak szybko, jak to możliwe, zamiast na końcu. - Zmniejszono domyślną liczbę wątków uruchamianych
OPTIMIZErównolegle. Jest to znaczący wzrost wydajności dla dużych tabel. - Przyspieszono zapisywanie
OPTIMIZEpoprzez unikanie niepotrzebnego sortowania danych podczas zapisu do tabeli podzielonej na partycje. - Przyspieszył
OPTIMIZE ZORDER BY, czyniąc go przyrostowym. Oznacza to, że polecenie pozwala teraz uniknąć ponownego zapisywania plików danych, które zostały już uporządkowane według tych samych kolumn. Zobacz Pomijanie danych w Delta Lake.
- Polecenie
- Izolacja migawkowa podczas wykonywania zapytań względem tabel Delta. Każde zapytanie z wieloma odwołaniami do tabeli delty (na przykład samosprzężenie) odczytuje z tej samej migawki tabeli, nawet jeśli istnieją współbieżne aktualizacje tabeli.
- Ulepszono opóźnienie zapytań podczas odczytywania z małych (< 2000 plików) tabel Delta poprzez buforowanie metadanych na sterowniku.
-
- Zwiększona wydajność regresji logistycznej MLlib.
- Ulepszona wydajność algorytmu drzewa MLlib.
- Uaktualniono kilka bibliotek Java i Scala. Zobacz Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.11).
- Uaktualniono niektóre zainstalowane biblioteki języka Python:
- pip: od 10.0.1 do 18.0
- setuptools: 39.2.0 do 40.4.1
- tornado: 5.0.2 do 5.1.1
- Uaktualniono kilka zainstalowanych bibliotek języka R. Zobacz Zainstalowane biblioteki języka R.
Poprawki błędów
- Delta Lake
- Konfiguracje ustawione w programie SQL Conf są teraz poprawnie stosowane do operacji usługi Delta Lake, które zostały po raz pierwszy załadowane w innym notesie.
- Usunięto usterkę w
DELETEpoleceniu, która niepoprawnie usuwała wiersze, w których warunek ma wartość null. - Strumienie, które zajmują więcej niż dwa dni, aby przetworzyć pierwotną partię (czyli dane, które były w tabeli w momencie uruchomienia strumienia), nie kończą się już niepowodzeniem
FileNotFoundExceptionpodczas próby odzyskiwania z punktu kontrolnego. - Zapobiega sytuacji wyścigu, która prowadzi do
NoClassDefError, podczas ładowania nowej tabeli. - Proponowana poprawka dla
VACUUM, w której operacja może zakończyć się niepowodzeniem z komunikatem AssertionError: "Nie powinno być żadnych bezwzględnych ścieżek do usunięcia tutaj." - Naprawiono
SHOW CREATE TABLEpolecenie, aby nie uwzględniać właściwości magazynu wygenerowanego przez program Hive.
- Funkcje wykonawcze, które zgłaszają wiele
NoClassDefFoundErrorbłędów dla wewnętrznych klas platformy Spark, są teraz automatycznie uruchamiane ponownie, aby rozwiązać ten problem.
Znane problemy
- Nazwy kolumn określone w opcji
replaceWheretrybuoverwritew Delta Lake uwzględniają wielkość liter, nawet jeśli domyślnie włączona jest wrażliwość na wielkość liter. - Łącznik Snowflake dla środowiska Databricks Runtime 5.0 jest w wersji zapoznawczej.
- Jeśli anulujesz uruchomioną komórkę przesyłania strumieniowego w notesie dołączonym do klastra środowiska Databricks Runtime 5.0, nie będziesz mógł uruchomić żadnych kolejnych poleceń w notesie, chyba że wyczyścisz stan notesu lub klaster zostanie ponownie uruchomiony. Aby obejść ten problem, zobacz bazę wiedzy.
Apache Spark
Środowisko Databricks Runtime 5.0 obejmuje platformę Apache Spark 2.4.0.
Core i Spark SQL
Uwaga
Ten artykuł zawiera odwołania do terminu podrzędnego — terminu, którego usługa Azure Databricks nie używa. Po usunięciu terminu z oprogramowania usuniemy go z tego artykułu.
Główne funkcje
- Tryb wykonywania barier: [SPARK-24374] Obsługa trybu wykonywania barier w harmonogramie, aby lepiej zintegrować się z platformami uczenia głębokiego.
- Obsługa języka Scala 2.12: [SPARK-14220] Dodawanie eksperymentalnej obsługi języka Scala 2.12. Teraz możesz skompilować platformę Spark przy użyciu języka Scala 2.12 i napisać aplikacje platformy Spark w języku Scala 2.12.
- Funkcje wyższego porządku: [SPARK-23899] Dodaj wiele nowych wbudowanych funkcji, w tym funkcji o wysokiej kolejności, aby ułatwić pracę ze złożonymi typami danych. Zobacz wbudowane funkcje Apache Spark.
- Wbudowane źródło danych Avro: [SPARK-24768] Wbudowany pakiet Spark-Avro z obsługą typu logicznego, lepszą wydajnością i użytecznością.
API
- [SPARK-24035] Składnia SQL dla tabeli przestawnej
- [SPARK-24940] Wskazówki Coalesce i Repartition dla zapytań SQL
- [SPARK-19602] Obsługa rozwiązywania kolumn na podstawie w pełni kwalifikowanej nazwy kolumny
- [SPARK-21274] Zaimplementuj EXCEPT ALL i INTERSECT ALL
Wydajność i stabilność
- [SPARK-16406] Rozpoznawanie odwołań dla dużej liczby kolumn powinno być szybsze
- [SPARK-23486] Buforowanie nazwy funkcji z katalogu zewnętrznego dla funkcji lookupFunctions
- [SPARK-23803] Obsługa oczyszczania zasobnika
- [SPARK-24802] Wykluczenie reguły optymalizacji
- [SPARK-4502] Przycinanie zagnieżdżonego schematu dla tabel Parquet
- [SPARK-24296] Obsługa replikowania bloków większych niż 2 GB
- [SPARK-24307] Wsparcie wysyłania wiadomości ponad 2 GB z pamięci
- [SPARK-23243] Shuffle+Repartition na RDD może prowadzić do nieprawidłowych wyników
- [SPARK-25181] Ograniczono rozmiar pul wątków głównych i podrzędnych BlockManager, obniżając obciążenie pamięci, gdy sieć działa wolno
Łączniki
- [SPARK-23972] Zaktualizuj parquet z wersji 1.8.2 do wersji 1.10.0
- [SPARK-25419] Poprawa wypychania predykatu Parquet
- [SPARK-23456] Natywny czytnik ORC jest domyślnie włączony
- [SPARK-22279] Domyślnie użycie natywnego czytnika ORC do odczytywania tablic Hive serde
- [SPARK-21783] Domyślnie włącz wypychanie filtru ORC
- [SPARK-24959] Przyspieszenie działania funkcji count() dla plików JSON i CSV
- [SPARK-24244] Analizowanie tylko wymaganych kolumn w analizatorze CSV
- [SPARK-23786] Sprawdzanie poprawności schematu CSV — nazwy kolumn nie są sprawdzane
- [SPARK-24423] Kwerenda opcji określająca zapytanie do odczytu z JDBC
- [SPARK-22814] Obsługa daty/znacznika czasu w kolumnie partycji JDBC
- [SPARK-24771] Aktualizacja avro z wersji 1.7.7 do 1.8
PySpark
- [SPARK-24215] Zaimplementować eager evaluation dla API DataFrame
- [SPARK-22274] - [SPARK-22239] Funkcje agregacji zdefiniowane przez użytkownika za pomocą biblioteki pandas udf
- [SPARK-24396] Dodaj Structured Streaming ForeachWriter dla języka Python
- [SPARK-23874] Uaktualnianie narzędzia Apache Arrow do wersji 0.10.0
- [SPARK-25004] Dodawanie limitu spark.executor.pyspark.memory
- [SPARK-23030] Używanie formatu strumienia Arrow do tworzenia i zbierania ramek danych pandas
- [SPARK-24624] Obsługa mieszanki funkcji Python UDF i skalarnych pandas UDF
Inne istotne zmiany
- [SPARK-24596] Niekaskadowe unieważnianie pamięci podręcznej
- [SPARK-23880] Nie wyzwalaj żadnego zadania buforowania danych
- [SPARK-23510][SPARK-24312] Obsługa magazynu metadanych Hive 2.2 i Hive 2.3
- [SPARK-23711] Dodaj generator rezerwowy dla UnsafeProjection
- [SPARK-24626] Równoległe obliczanie rozmiaru lokalizacji w poleceniu Analizowanie tabeli
Przesyłanie strumieniowe ze strukturą
Główne funkcje
- [SPARK-24565] Uwidocznił wiersze wyjściowe każdego mikrobatcza jako ramkę danych przy użyciu funkcji foreachBatch (Python, Scala i Java)
- [SPARK-24396] Dodano interfejs API języka Python dla foreach i ForeachWriter
- [SPARK-25005] Obsługa polecenia "kafka.isolation.level" w celu odczytu tylko zatwierdzonych rekordów z tematów platformy Kafka napisanych przy użyciu producenta transakcyjnego.
Inne istotne zmiany
- [SPARK-24662] Obsługa operatora LIMIT dla strumieni w trybie dołączania lub całkowitym
- [SPARK-24763] Usuń nadmiarowe dane klucza z wartości podczas agregacji strumieniowej
- [SPARK-24156] Szybsze generowanie wyników wyjściowych i/lub czyszczenie stanu przy użyciu operacji stanowych (mapGroupsWithState, łączenie strumieni, agregacja strumieniowa, usuwanie duplikatów strumieniowych), gdy nie ma danych w strumieniu wejściowym.
- [SPARK-24730] Obsługa wybierania minimalnego lub maksymalnego limitu w przypadku wielu strumieni wejściowych w zapytaniu
- [SPARK-25399] Usunięto usterkę polegającą na tym, że ponowne użycie wątków wykonywania z ciągłego przetwarzania do przesyłania strumieniowego mikropartii może prowadzić do problemu z poprawnością
- [SPARK-18057] Uaktualniono wersję klienta platformy Kafka z wersji 0.10.0.1 do 2.0.0
MLlib
Główne funkcje
- [SPARK-22666] Źródło danych platformy Spark dla formatu obrazu
Inne istotne zmiany
- [SPARK-22119][SPARK-23412][SPARK-23217] Dodanie miary odległości kosinusowej do KMeans/BisectingKMeans/Clustering evaluator
- [SPARK-10697] Obliczanie wskaźnika lift w analizie reguł asocjacyjnych
- [SPARK-14682][SPARK-24231] Podaj metodę "evaluateEachIteration" lub równoważną dla spark.ml GBTs
- [SPARK-7132][SPARK-24333] Dodaj możliwość dopasowania z użyciem zestawu walidacyjnego do spark.ml GBT
- [SPARK-15784][SPARK-19826] Dodawanie klastra iteracji zasilania do spark.ml
- [SPARK-15064] Obsługa ustawień regionalnych w StopWordsRemover
- [SPARK-21741] API Pythona do podsumowania wielomianowego opartego na DataFrame
- [SPARK-21898][SPARK-23751] Parzystość funkcji dla KolmogorovSmirnovTest w MLlib
- [SPARK-10884] Obsługa przewidywania dla pojedynczego wystąpienia dla modeli związanych z regresją i klasyfikacją
- [SPARK-23783] Dodanie nowego ogólnego interfejsu eksportu dla potoków uczenia maszynowego
- [SPARK-11239] Eksport PMML na potrzeby regresji liniowej uczenia maszynowego
SparkR
- [SPARK-25393] Dodawanie nowej funkcji from_csv()
- [SPARK-21291] dodaj API partitionBy R w DataFrame
- [SPARK-25007] Dodać array_intersect/array_except/array_union/shuffle do SparkR
- [SPARK-25234] unikanie przepełnienia liczby całkowitej w funkcji parallelize
- [SPARK-25117] Dodaj obsługę EXCEPT ALL i INTERSECT ALL w R
- [SPARK-24537] Dodaj array_remove/array_zip/map_from_arrays/array_distinct
- [SPARK-24187] Dodaj funkcję array_join do silnika SparkR
- [SPARK-24331] Dodawanie arrays_overlap, array_repeat, map_entries do SparkR
- [SPARK-24198] Dodawanie funkcji fragmentatora do aparatu SparkR
- [SPARK-24197] Dodanie funkcji array_sort do silnika SparkR
- [SPARK-24185] dodaj funkcję spłaszczania do SparkR
- [SPARK-24069] Dodawanie funkcji array_min/array_max
- [SPARK-24054] Dodawanie funkcji array_position/funkcji element_at
- [SPARK-23770] Dodaj repartitionByRange API do SparkR
GraphX
- [SPARK-25268] Uruchomienie równoległego spersonalizowanego PageRank zgłasza wyjątek serializacji
Deprecjacje
- [SPARK-23451] Oznaczyć jako przestarzałe funkcję obliczania kosztu dla KMeans
- [SPARK-25345] Oznaczenie jako przestarzałe interfejsów API readImages z ImageSchema
Zmiany zachowania
- [SPARK-23549] Rzutowanie na znacznik czasu podczas porównywania znacznika czasu z datą
- [SPARK-24324] W funkcji pandas Grouped Map UDF kolumny wyników powinny być przypisywane według nazwy
- [SPARK-25088] Aktualizacje domyślne i dokumentacji serwera REST
- [SPARK-23425] ładowanie danych dla ścieżki pliku hdfs z użyciem symboli wieloznacznych nie działa prawidłowo
- [SPARK-23173] from_json może generować wartości null dla pól oznaczonych jako nienullowalne
- [SPARK-24966] Implementowanie reguł pierwszeństwa dla operacji zestawu
- [SPARK-25708]HAVING bez GROUP BY powinna być agregacją globalną
- [SPARK-24341] Poprawnie obsłuż podzapytanie dla IN z wieloma wartościami
- [SPARK-19724] Utworzenie tabeli zarządzanej z już istniejącą lokalizacją domyślną powinno zgłosić wyjątek
Znane problemy
- [SPARK-25793] Usterki ładowania modelu w bisectingKMeans
- [SPARK-25271] CTAS z tabelami Parquet Hive powinny korzystać z natywnego źródła parquet
- [SPARK-24935] Problem z wykonywaniem funkcji Hive UDAF od wersji Spark 2.2 i późniejszych
Aktualizacje konserwacji
Zobacz aktualizacje konserwacyjne Databricks Runtime 5.0.
Środowisko systemu
- System operacyjny: Ubuntu 16.04.5 LTS
- Java: 1.8.0_162
- Scala: 2.11.8
- Python: 2.7.12 dla klastrów języka Python 2 i 3.5.2 dla klastrów języka Python 3.
- R: R w wersji 3.4.4 (2018-03-15)
-
Klastry procesora GPU: zainstalowane są następujące biblioteki procesora GPU FIRMY NVIDIA:
- Kierowca Tesla 375.66
- CUDA 9.0
- cuDNN 7.0
Uwaga
Mimo że język Scala 2.12 jest obsługiwany w systemie Apache Spark 2.4, nie jest obsługiwany w środowisku Databricks Runtime 5.0.
Zainstalowane biblioteki języka Python
| Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
|---|---|---|---|---|---|
| ansi2html | 1.1.1 | argparse (biblioteka do analizy argumentów w Pythonie) | 1.2.1 | backports-abc | 0,5 |
| boto | 2.42.0 | boto3 | 1.4.1 | botocore | 1.4.70 |
| brewer2mpl | 1.4.1 | certyfikat | 2016.2.28 | cffi | 1.7.0 |
| chardet | 2.3.0 | colorama | 0.3.7 | configobj | 5.0.6 |
| kryptografia | 1.5 | rowerzysta | 0.10.0 | Cython | 0.24.1 |
| dekorator | 4.0.10 | docutils | 0,14 | enum34 | 1.1.6 |
| et-xmlfile | 1.0.1 | freetype-py | 1.0.2 | funcsigs | 1.0.2 |
| fusepy | 2.0.4 | Kontrakty terminowe | 3.2.0 | ggplot | 0.6.8 |
| html5lib | 0,999 | IDNA | 2.1 | ipaddress | 1.0.16 |
| ipython | 2.2.0 | ipython-genutils | 0.1.0 | jdcal | 1.2 |
| Jinja2 | 2.8 | jmespath | 0.9.0 | llvmlite | 0.13.0 |
| lxml jest biblioteką do analizy XML i HTML. | 3.6.4 | MarkupSafe | 0.23 | biblioteka matplotlib | 1.5.3 |
| mpld3 | 0,2 | msgpack-python | 0.4.7 | ndg-httpsclient | 0.3.3 |
| numba | 0.28.1 | numpy | 1.11.1 | openpyxl | 2.3.2 |
| Pandas | 0.19.2 | pathlib2 | 2.1.0 | frajer | 0.4.1 |
| pexpect | 4.0.1 | pickleshare (jeśli to nazwa własna, nie trzeba tłumaczyć) | 0.7.4 | Poduszka | 3.3.1 |
| pip (menedżer pakietów Pythona) | 18,0 | warstwa | 3.9 | zestaw narzędzi prompt | 1.0.7 |
| psycopg2 | 2.6.2 | ptyprocess | 0.5.1 | py4j | 0.10.3 |
| pyarrow | 0.8.0 | pyasn1 | 0.1.9 | pycparser | 2.14 |
| Pygments | 2.1.3 | PyGObject | 3.20.0 | pyOpenSSL | 16.0.0 |
| pyparsing – biblioteka do przetwarzania tekstu w Pythonie | 2.2.0 | pypng | 0.0.18 | Python | 2.7.12 |
| python-dateutil (biblioteka Pythona do zarządzania datami) | 2.5.3 | python-geohash | 0.8.5 | pytz (biblioteka Pythona do obliczeń stref czasowych) | 1.6.2016 |
| żądania | 2.11.1 | s3transfer | 0.1.9 | scikit-learn | 0.18.1 |
| scipy (biblioteka naukowa dla Pythona) | 0.18.1 | Przeszukać | 0.32 | urodzony na morzu | 0.7.1 |
| setuptools | 40.4.1 | simplejson | 3.8.2 | simples3 | 1.0 |
| singledispatch (pojedyncze wywołanie) | 3.4.0.3 | Sześć | 1.10.0 | statsmodels - biblioteka do modelowania statystycznego | 0.6.1 |
| tornado | 5.1.1 | Traitlets | 4.3.0 | urllib3 | 1.19.1 |
| virtualenv | 15.0.1 | szerokość(wcwidth) | 0.1.7 | wheel | 0.31.1 |
| wsgiref | 0.1.2 |
Zainstalowane biblioteki języka R
| Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
|---|---|---|---|---|---|
| abind | 1.4-5 | potwierdzić to | 0.2.0 | porty wsteczne | 1.1.2 |
| baza | 3.4.4 | base64enc | 0.1-3 | BH | 1.66.0-1 |
| bindr | 0.1.1 | bindrcpp | 0.2.2 | odrobina | 1.1-14 |
| bit-64 | 0.9-7 | bitops | 1.0-6 | blob | 1.1.1 |
| uruchamianie | 1.3-20 | warzyć | 1.0-6 | miotła | 0.5.0 |
| obiekt wywołujący | 3.0.0 | samochód | 3.0-2 | dane samochodu | 3.0-1 |
| karetka | 6.0-80 | cellranger | 1.1.0 | Chroń | 2.3-52 |
| klasa | 7.3-14 | CLI | 1.0.0 | klaster | 2.0.7-1 |
| codetools | 0,2-15 | przestrzeń kolorów | 1.3-2 | commonmark | 1.5 |
| kompilator | 3.4.4 | kredka | 1.3.4 | lok | 3.2 |
| Zakrzepica żył mózgowych (CVST) | 0.2-2 | tabela danych | 1.11.4 | zbiory danych | 3.4.4 |
| DBI | 1.0.0 | ddalpha | 1.3.4 | DEoptimR | 1.0-8 |
| Opis | 1.2.0 | devtools | 1.13.6 | skrót | 0.6.16 |
| dimRed | 0.1.0 | DoMC | 1.3.5 | dplyr | 0.7.6 |
| Redukcja ryzyka katastrof | 0.0.3 | fani | 0.3.0 | dla kotów | 0.3.0 |
| foreach | 1.4.4 | zagraniczny | 0.8-70 | Gbm | 2.1.3 |
| geometria | 0.3-6 | ggplot2 | 3.0.0 | git2r | 0.23.0 |
| glmnet | 2.0-16 | klej | 1.3.0 | Gower | 0.1.2 |
| grafika | 3.4.4 | grDevices | 3.4.4 | siatka | 3.4.4 |
| gsubfn | 0,7 | gtabela | 0.2.0 | woda | 3.20.0.2 |
| przystań | 1.1.2 | HMS | 0.4.2 | httr | 1.3.1 |
| hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ipred | 0.9-7 |
| Iteratory | 1.0.10 | jsonlite | 1.5 | kernlab | 0.9-27 |
| KernSmooth | 2.23-15 | Etykietowanie | 0,3 | struktura siatkowa | 0.20-35 |
| lawa | 1.6.3 | opóźnienie | 0.2.1 | mniejszy | 0.3.4 |
| lme4 | 1.1-18-1 | lubridate | 1.7.4 | polecenie magic | 1.5-8 |
| magrittr | 1.5 | mapproj | 1.2.6 | Mapy | 3.3.0 |
| maptools | 0.9-3 | MASA | 7.3-50 | Macierz | 1.2-14 |
| MatrixModels | 0.4-1 | zapamiętywanie | 1.1.0 | metody | 3.4.4 |
| mgcv | 1.8-24 | mim | 0,5 | minqa | 1.2.4 |
| Metryki modelu | 1.2.0 | munsell | 0.5.0 | mvtnorm | 1.0-8 |
| nlme | 3.1-137 | nloptr | 1.0.4 | sieć neuronowa (nnet) | 7.3-12 |
| numDeriv | 2016.8-1 | openssl | 1.0.2 | openxlsxx | 4.1.0 |
| równoległy | 3.4.4 | pbkrtest | 0.4-7 | filar | 1.3.0 |
| pkgbuild | 1.0.0 | pkgconfig | 2.0.2 | pkgKitten | 0.1.4 |
| pkgload | 1.0.0 | plogr | 0.2.0 | plz | 2.7-0 |
| plyr | 1.8.4 | pochwała | 1.0.0 | prettyunits | 1.0.2 |
| Proc | 1.12.1 | Procesx | 3.2.0 | prodlim | 2018.04.18 |
| Proto | 1.0.0 | Postscriptum | 1.1.0 | mruczenie | 0.2.5 |
| quantreg | 5,36 | R.methodsS3 | 1.7.1 | R.oo | 1.22.0 |
| R.utils | 2.7.0 | R6 | 2.2.2 | "randomForest" | 4.6-14 |
| RColorBrewer | 1.1-2 | Rcpp | 0.12.18 | RcppEigen | 0.3.3.4.0 |
| RcppRoll | 0.3.0 | RCurl | 1.95-4.11 | Czytnik | 1.1.1 |
| readxl (biblioteka do odczytu plików Excel) | 1.1.0 | przepisy | 0.1.3 | rewanż | 1.0.1 |
| zmień kształt2 | 1.4.3 | Rio | 0.5.10 | rlang | 0.2.2 |
| robustbase | 0.93-2 | RODBC | 1.3-15 | roxygen2 | 6.1.0 |
| rpart | 4.1-13 | rprojroot | 1.3-2 | Rserve | 1.7-3 |
| RSQLite | 2.1.1 | rstudioapi | 0,7 | skala | 1.0.0 |
| sfsmisc | 1.1-2 | Sp | 1.3-1 | SparkR | 2.4.0 |
| Rozrzednia | 1.77 | przestrzenny | 7.3-11 | Splajny | 3.4.4 |
| sqldf | 0.4-11 | KWADRAT | 2017.10-1 | statmod | 1.4.30 |
| Statystyki | 3.4.4 | statystyki4 | 3.4.4 | łańcuchy | 1.2.4 |
| stringr | 1.3.1 | przetrwanie | 2.42-6 | tcltk | 3.4.4 |
| DemosNauczania | 2.10 | testthat | 2.0.0 | tibble | 1.4.2 |
| tidyr | 0.8.1 | tidyselect | 0.2.4 | czasData | 3043.102 |
| narzędzia | 3.4.4 | utf8 | 1.1.4 | programy narzędziowe | 3.4.4 |
| viridisLite | 0.3.0 | wąs (for human facial hair), włosek czuciowy (for animal whiskers) | 0.3-2 | Withr | 2.1.2 |
| xml2 | 1.2.0 | suwak | 1.0.0 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.11)
| Identyfikator grupy | Identyfikator artefaktu | Wersja |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Klient Amazon Kinesis | 1.8.10 |
| com.amazonaws | aws-java-sdk-automatyczne-skalowanie | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudhsm (zestaw narzędzi Java dla usługi CloudHSM) | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.313 |
| com.amazonaws | aws-java-sdk-codedeploy (biblioteka do zarządzania wdrażaniem kodu w AWS) | 1.11.313 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.313 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.11.313 |
| com.amazonaws | aws-java-sdk-config (konfiguracja aws-java-sdk) | 1.11.313 |
| com.amazonaws | aws-java-sdk-core | 1.11.313 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.11.313 |
| com.amazonaws | aws-java-sdk-directconnect (pakiet narzędzi programistycznych dla Java do współpracy z AWS Direct Connect) | 1.11.313 |
| com.amazonaws | aws-java-sdk-directory | 1.11.313 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.11.313 |
| com.amazonaws | aws-java-sdk-ec2 | 1.11.313 |
| com.amazonaws | aws-java-sdk-ecs | 1.11.313 |
| com.amazonaws | aws-java-sdk-efs | 1.11.313 |
| com.amazonaws | aws-java-sdk-elasticache | 1.11.313 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.313 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.313 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.313 |
| com.amazonaws | aws-java-sdk-emr (biblioteka SDK Java dla usługi Amazon EMR) | 1.11.313 |
| com.amazonaws | AWS Java SDK dla Glacier | 1.11.313 |
| com.amazonaws | aws-java-sdk-iam | 1.11.313 |
| com.amazonaws | AWS-Java-SDK-ImportExport | 1.11.313 |
| com.amazonaws | AWS SDK dla Javy - Kinesis | 1.11.313 |
| com.amazonaws | aws-java-sdk-kms | 1.11.313 |
| com.amazonaws | aws-java-sdk-lambda | 1.11.313 |
| com.amazonaws | aws-java-sdk-logs | 1.11.313 |
| com.amazonaws | aws-java-sdk-uczenie-maszynowe | 1.11.313 |
| com.amazonaws | aws-java-sdk-opsworks | 1.11.313 |
| com.amazonaws | aws-java-sdk-rds (pakiet programistyczny Java dla AWS RDS) | 1.11.313 |
| com.amazonaws | aws-java-sdk-redshift | 1.11.313 |
| com.amazonaws | aws-java-sdk-route53 | 1.11.313 |
| com.amazonaws | aws-java-sdk-s3 | 1.11.313 |
| com.amazonaws | aws-java-sdk-ses | 1.11.313 |
| com.amazonaws | aws-java-sdk-simpledb | 1.11.313 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.313 |
| com.amazonaws | aws-java-sdk-sns | 1.11.313 |
| com.amazonaws | aws-java-sdk-sqs | 1.11.313 |
| com.amazonaws | aws-java-sdk-ssm | 1.11.313 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.11.313 |
| com.amazonaws | aws-java-sdk-sts (pakiet programistyczny Java dla AWS STS) | 1.11.313 |
| com.amazonaws | wsparcie dla aws-java-sdk | 1.11.313 |
| com.amazonaws | aws-java-sdk-swf-biblioteki | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.11.313 |
| com.amazonaws | jmespath-java | 1.11.313 |
| com.carrotsearch | hppc | 0.7.2 |
| com.chuusai | shapeless_2.11 | 2.3.2 |
| com.clearspring.analytics | odtwarzać strumieniowo | 2.7.0 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | dbml-local_2.11 | 0.5.0-db7-spark2.4 |
| com.databricks | dbml-local_2.11-tests | 0.5.0-db7-spark2.4 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | kompilatorplugin_2.11 | 0.4.15-9 |
| com.databricks.scalapb | scalapb-runtime_2.11 | 0.4.15-9 |
| com.esotericsoftware | kriogenicznie zacieniowane | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | kolega z klasy | 1.0.0 |
| com.fasterxml.jackson.core | adnotacje Jackson | 2.6.7 |
| com.fasterxml.jackson.core | jackson-core | 2.6.7 |
| com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
| com.fasterxml.jackson.dataformat | Jackson-format-danych-CBOR | 2.6.7 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.6.7 |
| com.fasterxml.jackson.module | jackson-module-scala_2.11 | 2.6.7.1 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | rdzeń | 1.1.2 |
| com.github.fommil.netlib | natywne_odniesienie-java | 1.1 |
| com.github.fommil.netlib | native_ref-java-natives | 1.1 |
| com.github.fommil.netlib | natywny_system java | 1.1 |
| com.github.fommil.netlib | system natywny-java-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
| com.github.fommil.netlib | "netlib-native_system-linux-x86_64-natives" | 1.1 |
| com.github.luben | zstd-jni | 1.3.2-2 |
| com.github.rwl | jtransforms | 2.4.0 |
| com.google.code.findbugs | jsr305 | 2.0.1 |
| com.google.code.gson | gson | 2.2.4 |
| com.google.guava | guawa | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.googlecode.javaewah | JavaEWAH | 0.3.2 |
| com.h2database | h2 | 1.3.174 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | bonecp | 0.8.0.WYDANIE |
| com.mchange | c3p0 | 0.9.5.1 |
| com.mchange | mchange-commons-java | 0.2.10 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK do przechowywania danych Azure Data Lake) | 2.2.8 |
| com.microsoft.sqlserver | mssql-jdbc | 6.2.2.jre8 |
| com.ning | compress-lzf (biblioteka do kompresji danych) | 1.0.3 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.11 | 0,3 |
| com.twitter | chill-java | 0.9.3 |
| com.twitter | relaks_2.11 | 0.9.3 |
| com.twitter | pakiet parquet-hadoop | 1.6.0 |
| com.twitter | util-app_2.11 | 6.23.0 |
| com.twitter | util-core_2.11 | 6.23.0 |
| com.twitter | util-jvm_2.11 | 6.23.0 |
| com.typesafe | konfiguracja | 1.2.1 |
| com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
| com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
| com.univocity | parsery jednowołciowości | 2.7.3 |
| com.vlkan | flatbuffers | 1.2.0-3f79e055 |
| com.zaxxer | HikariCP | 3.1.0 |
| commons-beanutils | commons-beanutils | 1.7.0 |
| commons-beanutils | commons-beanutils-core | 1.8.0 |
| commons-cli | commons-cli | 1.2 |
| commons-codec | commons-codec | 1.10 |
| Zbiory Commons | Zbiory Commons | 3.2.2 |
| commons-configuration | commons-configuration | 1.6 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-digester | commons-digester | 1.8 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2,4 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-net | commons-net | 3.1 |
| commons-pool | commons-pool | 1.5.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
| io.airlift | sprężarka powietrza | 0.10 |
| io.dropwizard.metrics | metryki —rdzeń | 3.1.5 |
| io.dropwizard.metrics | metrics-ganglia | 3.1.5 |
| io.dropwizard.metrics | metrics-graphite | 3.1.5 |
| io.dropwizard.metrics | metryki-kontrole kondycji | 3.1.5 |
| io.dropwizard.metrics | metrics-jetty9 | 3.1.5 |
| io.dropwizard.metrics | metryki-json | 3.1.5 |
| io.dropwizard.metrics | metryki-JVM | 3.1.5 |
| io.dropwizard.metrics | metrics-log4j | 3.1.5 |
| io.dropwizard.metrics | serwlety metryczne | 3.1.5 |
| io.netty | Netty | 3.9.9.Final |
| io.netty | netty-all | 4.1.17.Final |
| io.prometheus | simpleclient | 0.0.16 |
| io.prometheus | simpleclient_common | 0.0.16 |
| io.prometheus | simpleclient_dropwizard | 0.0.16 |
| io.prometheus | simpleclient_servlet | 0.0.16 |
| io.prometheus.jmx | moduł zbierający | 0,7 |
| javax.activation | aktywacja | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.servlet | javax.servlet-api | 3.1.0 |
| javax.servlet.jsp | jsp-api | 2.1 |
| javax.transaction | jta | 1.1 |
| javax.validation | validation-api | 1.1.0.Final |
| javax.ws.rs | javax.ws.rs-api | 2.0.1 |
| javax.xml.bind | jaxb-api | 2.2.2 |
| javax.xml.stream | stax-api | 1.0-2 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2,11 |
| joda-time | joda-time | 2.9.3 |
| log4j | apache-log4j-extras | 1.2.17 |
| log4j | log4j | 1.2.17 |
| net.hydromatic | eigenbase-properties | 1.1.5 |
| net.razorvine | pirolit | 4.13 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-jdbc | 3.6.3 |
| net.snowflake | spark-snowflake_2.11 | 2.4.1 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt | oncrpc | 1.0.7 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.4 |
| org.antlr | antlr4-runtime | 4.7 |
| org.antlr | StringTemplate | 3.2.1 |
| org.apache.ant | mrówka | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | program uruchamiający Ant | 1.9.2 |
| org.apache.arrow | format strzałki | 0.10.0 |
| org.apache.arrow | strzałka-pamięć | 0.10.0 |
| org.apache.arrow | wektor strzałki | 0.10.0 |
| org.apache.avro | avro | 1.8.2 |
| org.apache.avro | avro-ipc | 1.8.2 |
| org.apache.avro | avro-mapred-hadoop2 | 1.8.2 |
| org.apache.calcite | calcite-avatica | 1.2.0 inkubacja |
| org.apache.calcite | rdzeń kalcytowy | 1.2.0 inkubacja |
| org.apache.calcite | calcite-linq4j | 1.2.0 inkubacja |
| org.apache.commons | commons-compress | 1.8.1 |
| org.apache.commons | commons-crypto | 1.0.0 |
| org.apache.commons | commons-lang3 | 3.5 |
| org.apache.commons | commons-math3 | 3.4.1 |
| org.apache.curator | kurator-klient | 2.7.1 |
| org.apache.curator | struktura kuratora | 2.7.1 |
| org.apache.curator | przepisy kuratora | 2.7.1 |
| org.apache.derby | Derby | 10.12.1.1 |
| org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
| org.apache.directory.api | api-util | 1.0.0-M20 |
| org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
| org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
| org.apache.hadoop | adnotacje hadoop | 2.7.3 |
| org.apache.hadoop | hadoop-auth | 2.7.3 |
| org.apache.hadoop | hadoop-klient | 2.7.3 |
| org.apache.hadoop | hadoop-common | 2.7.3 |
| org.apache.hadoop | Hadoop-HDFS (Hadoop Distributed File System) | 2.7.3 |
| org.apache.hadoop | Klient aplikacji Hadoop MapReduce | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-shuffle (moduł mieszający klienta w Hadoop MapReduce) | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-client (klient Hadoop YARN) | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-common | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-server-common (Wspólne komponenty serwera Hadoop YARN) | 2.7.3 |
| org.apache.htrace | htrace-core | 3.1.0 inkubacja |
| org.apache.httpcomponents | httpclient | 4.5.4 |
| org.apache.httpcomponents | httpcore | 4.4.8 |
| org.apache.ivy | bluszcz | 2.4.0 |
| org.apache.orc | orc-core-nohive | 1.5.2 |
| org.apache.orc | orc-mapreduce-nohive | 1.5.2 |
| org.apache.orc | podkładki orc-shim | 1.5.2 |
| org.apache.parquet | parquet-kolumna | 1.10.1-databricks2 |
| org.apache.parquet | parquet-wspólny | 1.10.1-databricks2 |
| org.apache.parquet | kodowanie parquet | 1.10.1-databricks2 |
| org.apache.parquet | format „parquet” | 2.4.0 |
| org.apache.parquet | Parquet-Hadoop (framework do analizy danych) | 1.10.1-databricks2 |
| org.apache.parquet | parquet-jackson | 1.10.1-databricks2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.9.3 |
| org.apache.xbean | xbean-asm6-cieniowany | 4.8 |
| org.apache.zookeeper - system do zarządzania konfiguracją i synchronizacją dla aplikacji rozproszonych. | opiekun zwierząt | 3.4.6 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
| org.codehaus.jackson | jackson-mapujący-ASL | 1.9.13 |
| org.codehaus.jackson | jackson-xc | 1.9.13 |
| org.codehaus.janino | commons-kompilator | 3.0.9 |
| org.codehaus.janino | Janino | 3.0.9 |
| org.datanucleus | datanucleus-api-jdo | 3.2.6 |
| org.datanucleus | datanucleus-core | 3.2.10 |
| org.datanucleus | datanucleus-rdbms | 3.2.9 |
| org.eclipse.jetty | jetty-client | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-kontynuacja | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-http | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-io | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-jndi | 9.3.20.v20170531 |
| org.eclipse.jetty | Jetty-plus | 9.3.20.v20170531 |
| org.eclipse.jetty | serwer pośredniczący Jetty | 9.3.20.v20170531 |
| org.eclipse.jetty | moduł bezpieczeństwa Jetty | 9.3.20.v20170531 |
| org.eclipse.jetty | serwer aplikacji Jetty | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-servlet | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-servlets | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-util | 9.3.20.v20170531 |
| org.eclipse.jetty | Jetty-aplikacja internetowa | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-xml | 9.3.20.v20170531 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.4.0-b34 |
| org.glassfish.hk2 | lokalizator hk2 | 2.4.0-b34 |
| org.glassfish.hk2 | hk2-utils | 2.4.0-b34 |
| org.glassfish.hk2 | osgi-lokalizator-zasobów | 1.0.1 |
| org.glassfish.hk2.external | aopalliance-zapakowane ponownie | 2.4.0-b34 |
| org.glassfish.hk2.external | javax.inject (pakiet w języku Java) | 2.4.0-b34 |
| org.glassfish.jersey.bundles.repackaged | jersey-guawa | 2.22.2 |
| org.glassfish.jersey.containers | serwlet kontenerowy Jersey | 2.22.2 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
| org.glassfish.jersey.core | jersey-client | 2.22.2 |
| org.glassfish.jersey.core | Jersey-Common | 2.22.2 |
| org.glassfish.jersey.core | serwer jersey | 2.22.2 |
| org.glassfish.jersey.media | - "jersey-media-jaxb" не wymaga tłumaczenia, gdyż jest to nazwa techniczna, ale dla polskich odbiorców warto dodać opis lub kontynuować bez zmian, jeżeli nazwa już jako taka przyjęła się w lokalnym użyciu. | 2.22.2 |
| org.hibernate | moduł sprawdzania poprawności hibernacji | 5.1.1.Ostateczna |
| org.iq80.snappy | Żwawy | 0,2 |
| org.javassist | javassist | 3.18.1-GA |
| org.jboss.logging | jboss-logging (narzędzie do rejestrowania zdarzeń w JBoss) | 3.1.3.GA |
| org.jdbi | jdbi | 2.63.1 |
| org.joda | joda-convert | 1,7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.11 | 3.5.3 |
| org.json4s | json4s-core_2.11 | 3.5.3 |
| org.json4s | json4s-jackson_2.11 | 3.5.3 |
| org.json4s | json4s-scalap_2.11 | 3.5.3 |
| org.lz4 | lz4-java | 1.4.0 |
| org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
| org.mockito | mockito-all | 1.9.5 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.1.4 |
| org.roaringbitmap | RoaringBitmap | 0.5.11 |
| org.rocksdb | rocksdbjni | 5.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.11 | 2.11.8 |
| org.scala-lang | scala-library_2.11 | 2.11.8 |
| org.scala-lang | scala-reflect_2.11 | 2.11.8 |
| org.scala-lang.modules | scala-parser-combinators_2.11 | 1.0.2 |
| org.scala-lang.modules | scala-xml_2.11 | 1.0.5 |
| org.scala-sbt | interfejs testowy | 1.0 |
| org.scalacheck | scalacheck_2.11 | 1.12.5 |
| org.scalactic | scalactic_2.11 | 3.0.3 |
| org.scalanlp | breeze-macros_2.11 | 0.13.2 |
| org.scalanlp | breeze_2.11 | 0.13.2 |
| org.scalatest | scalatest_2.11 | 3.0.3 |
| org.slf4j | jcl-over-slf4j | 1.7.16 |
| org.slf4j | jul-to-slf4j | 1.7.16 |
| org.slf4j | slf4j-api | 1.7.16 |
| org.slf4j | slf4j-log4j12 | 1.7.16 |
| org.spark-project.hive | hive-beeline (narzędzie do interakcji z bazą danych Hive) | 1.2.1.spark2 |
| org.spark-project.hive | hive-cli | 1.2.1.spark2 |
| org.spark-project.hive | hive-exec | 1.2.1.spark2 |
| org.spark-project.hive | hive-jdbc | 1.2.1.spark2 |
| org.spark-project.hive | magazyn metadanych Hive | 1.2.1.spark2 |
| org.spark-project.spark.spark | Nieużywane | 1.0.0 |
| org.spire-math | spire-macros_2.11 | 0.13.0 |
| org.spire-math | spire_2.11 | 0.13.0 |
| org.springframework | spring-core (podstawowy moduł Spring) | 4.1.4.WYDANIE |
| org.springframework | test wiosenny | 4.1.4.WYDANIE |
| org.tukaani | xz | 1.5 |
| org.typelevel | mechanik_2.11 | 0.6.1 |
| org.typelevel | macro-compat_2.11 | 1.1.1 |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.7.1 |
| org.yaml | snakeyaml | 1.16 |
| oro | oro | 2.0.8 |
| oprogramowanie.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |
| xmlenc (standard szyfrowania XML) | xmlenc (standard szyfrowania XML) | 0.52 |