Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Uwaga
Obsługa tej wersji środowiska Databricks Runtime została zakończona. Aby uzyskać datę zakończenia pomocy technicznej, zobacz Historia zakończenia pomocy technicznej. Wszystkie obsługiwane wersje środowiska Databricks Runtime można znaleźć w informacjach o wersjach i zgodności Databricks Runtime.
Usługa Databricks wydała tę wersję w lipcu 2018 roku.
Ważne
Ta wersja została uznana za przestarzałą 5 marca 2019 r. Aby uzyskać więcej informacji na temat zasad i harmonogramu wycofywania środowiska Databricks Runtime, zobacz Cykle życia wsparcia Databricks.
Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 4.2 obsługiwanym przez platformę Apache Spark.
Delta Lake
Środowisko Databricks Runtime 4.2 wprowadza znaczące ulepszenia jakościowe i funkcjonalności dla Delta Lake. Usługa Databricks zdecydowanie zaleca, aby wszyscy klienci usługi Delta Lake uaktualnili środowisko uruchomieniowe do nowego środowiska uruchomieniowego. Ta wersja pozostaje w prywatnej wersji zapoznawczej, ale reprezentuje wersję kandydującą w oczekiwaniu na nadchodzącą ogólną dostępność.
Nowe funkcje
- Strumienie można teraz zapisywać bezpośrednio w tabeli Delta zarejestrowanej w magazynie metadanych Hive przy użyciu
df.writeStream.table(...).
Ulepszenia
Wszystkie polecenia i zapytania Delta Lake obsługują teraz odwoływanie się do tabeli przy użyciu jej ścieżki jako identyfikatora.
delta.`<path-to-table>`Wcześniej wymagane było niestandardowe użycie literałów ciągu przez
OPTIMIZEiVACUUM(czyli'<path-to-table>').DESCRIBE HISTORYteraz zawiera identyfikator zatwierdzenia i jest domyślnie uporządkowany od najnowszego do najstarszego.
Poprawki błędów
- Filtrowanie na podstawie predykatów partycji działa teraz poprawnie nawet wtedy, gdy wielkość liter w predykatach różni się od wielkości liter w tabeli.
- Naprawiono brakujące kolumny
AnalysisExceptionpodczas przeprowadzania sprawdzania równości w kolumnach logicznych w tabelach delty (czylibooleanValue = true). -
CREATE TABLEnie modyfikuje już dziennika transakcji podczas tworzenia wskaźnika do istniejącej tabeli. Zapobiega to niepotrzebnym konfliktom z równoczesnymi strumieniami i umożliwia tworzenie wskaźnika metastore do tabel, gdzie użytkownik ma tylko dostęp do odczytu danych. - Wywołanie strumienia z dużą ilością danych nie powoduje już wywołania
display()funkcji OOM w sterowniku. -
AnalysisExceptionjest teraz zgłaszany, gdy podstawowa ścieżka Delta Lake zostanie usunięta, zamiast zwracania pustych wyników. - Konfiguracje usługi Delta Lake, które wymagają określonej wersji protokołu (na przykład
appendOnly), mogą być stosowane tylko do tabel w odpowiedniej wersji. - Podczas aktualizowania stanu tabeli Delta długie ścieżki zmian są teraz automatycznie skracane, aby uniknąć błędu
StackOverFlowError.
Przesyłanie strumieniowe ze strukturą
Nowe funkcje
- Usługi Delta Lake i Kafka w pełni obsługują Trigger.Once. Wcześniej limity szybkości (na przykład
maxOffsetsPerTriggerlubmaxFilesPerTrigger) określone jako opcje źródła lub wartości domyślne mogą spowodować tylko częściowe wykonanie dostępnych danych. Te opcje są teraz ignorowane, gdyTrigger.Oncejest używany, co umożliwia przetwarzanie wszystkich aktualnie dostępnych danych.
- Dodano nowe przesyłanie strumieniowe
foreachBatch()w języku Scala, gdzie można zdefiniować funkcję do przetwarzania danych wyjściowych każdego mikrobajta przy użyciu operacji ramki danych. Umożliwia to wykonanie następujących czynności:- Używanie istniejących źródeł danych wsadowych do zapisywania danych wyjściowych mikrosadowych w systemach, które nie mają jeszcze źródła danych przesyłanych strumieniowo (na przykład użyj modułu zapisywania wsadowego Cassandra dla każdego danych wyjściowych mikrosadowych).
- Zapisywanie danych wyjściowych mikropartii w wielu miejscach.
- Stosowanie operacji na ramkach danych i tabelach na danych wyjściowych mikropartii, które nie są jeszcze obsługiwane w ramkach danych strumieniowych (na przykład wstawianie/aktualizacja danych wyjściowych mikropartii do tabeli Delta).
- Dodano
from_avro/to_avrofunkcje do odczytywania i zapisywania danych Avro w ramce danych zamiast tylko plików, podobnie jakfrom_json/to_json. Aby uzyskać więcej informacji, zobacz Odczytywanie i zapisywanie danych Avro w dowolnym miejscu . - Dodano obsługę przesyłania strumieniowego
foreach()w języku Python (jest już dostępna w języku Scala). Aby uzyskać więcej informacji, zobacz dokumentację foreach i foreachBatch.
Ulepszenia
- Szybsze generowanie wyników wyjściowych i/lub oczyszczanie stanu przy użyciu operacji stanowych (łączenie strumień-strumień, agregacja strumieniowa, usuwanie duplikatów strumieniowych), jeśli w strumieniu wejściowym nie ma danych.
Poprawki błędów
- Naprawiono usterkę poprawności SPARK-24588 w sprzężeniu strumień-strumień, w którym zgłaszano mniej wyników, gdy występuje jawne ponowne partycjonowanie przed nim (na przykład
df1.repartition("a", "b").join(df, "a")).
Inne zmiany i ulepszenia
- Dodano obsługę polecenia Odmowy SQL dla klastrów z włączoną kontrolą dostępu do tabel. Użytkownicy mogą teraz odrzucać określone uprawnienia w taki sam sposób, jak wcześniej. Odmowa uprawnienia zastąpi przyznane. Administratorzy i właściciele określonego obiektu nadal mogą wykonywać akcje.
- Nowe źródło danych usługi Azure Data Lake Storage korzystające ze sterownika ABFS. Zobacz Nawiązywanie połączenia z usługą Azure Data Lake Storage i usługą Blob Storage
- Uaktualniono niektóre zainstalowane biblioteki języka Python:
- pip: od wersji 10.0.0b2 do 10.0.1
- setuptools: od 39.0.1 do 39.2.0
- tornado: 5.0.1 do 5.0.2
- koło: od 0.31.0 do 0.31.1
- Uaktualniono kilka zainstalowanych bibliotek języka R. Zobacz Zainstalowane biblioteki języka R.
- Ulepszone wsparcie dla Parquet
- Uaktualniono usługę Apache ORC z wersji 1.4.1 do 1.4.3
Apache Spark
Środowisko Databricks Runtime 4.2 obejmuje platformę Apache Spark 2.3.1. Ta wersja zawiera wszystkie poprawki i ulepszenia zawarte w środowisku Databricks Runtime 4.1 (EoS), a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:
- [SPARK-24588][SS] Dołączenie strumieniowe powinno wymagać HashClusteredPartitioning od elementów podrzędnych
-
[SPARK-23931][SQL] Zmodyfikuj
arrays_zipw pliku function.scala@scala.annotation.varargs. - [SPARK-24633][SQL] Naprawiono generowanie kodu, gdy jest wymagany podział dla arrays_zip
- [SPARK-24578][CORE] Rozmiar podregionu limitu zwróconego buforu nio
- [SPARK-24613][SQL] Nie można dopasować pamięci podręcznej z funkcją UDF do kolejnych zależnych pamięci podręcznych
- [SPARK-24583][SQL] Nieprawidłowy typ schematu w insertIntoDataSourceCommand
- [SPARK-24565][SS] Dodawanie interfejsu API dla funkcji przesyłania strumieniowego ze strukturą w celu uwidaczniania wierszy wyjściowych każdego mikrobajta jako ramki danych
- [SPARK-24396][SS][PYSPARK] Dodaj ForeachWriter dla strumieniowania strukturalnego w języku Python.
- [SPARK-24216][SQL] TypdAggregateExpression platformy Spark używa polecenia getSimpleName, który nie jest bezpieczny w języku Scala
- [SPARK-24452][SQL][CORE] Unikaj możliwego przepełnienia przy dodawaniu lub mnożeniu wartości int
- [SPARK-24187][R][SQL] Dodaj funkcję array_join do modułu SparkR
- [SPARK-24525][SS] Podaj opcję ograniczenia liczby wierszy w narzędziu MemorySink
- [SPARK-24331][SPARKR][SQL] Dodawanie arrays_overlap, array_repeat i map_entries do platformy SparkR
- [SPARK-23931][SQL] Dodaje funkcję arrays_zip do usługi Spark SQL
- [SPARK-24186][R][SQL] zmień funkcje odwrotne i concat na funkcje kolekcji w języku R
- [SPARK-24198][SPARKR][SQL] Dodanie funkcji podziału do SparkR
- [SPARK-23920][SQL] dodaj array_remove, aby usunąć wszystkie elementy równe danemu elementowi z tablicy
- [SPARK-24197][SPARKR][SQL] Dodanie funkcji array_sort do SparkR
- [SPARK-24340][CORE] Czyszczenie plików menedżera bloków dysków innych niż shuffle po zakończeniu funkcji wykonawczej w klastrze autonomicznym
- [SPARK-23935][SQL] Dodawanie funkcji map_entries
- [SPARK-24500][SQL] Zadbaj, aby strumienie były zmaterializowane podczas transformacji drzewa.
- [SPARK-24495][SQL] EnsureRequirement zwraca błędny plan podczas zmiany kolejności równych kluczy
- [SPARK-24506][Interfejs użytkownika] Dodawanie filtrów interfejsu użytkownika do kart dodanych po powiązaniu
- [SPARK-24468][SQL] Obsługa skali ujemnej podczas dostosowywania dokładności dla operacji dziesiętnych
- [SPARK-24313][SQL] Naprawianie interpretowanej oceny operacji zbierania dla typów złożonych
- [SPARK-23922][SQL] Dodawanie funkcji arrays_overlap
- [SPARK-24369][SQL] Prawidłowa obsługa wielu odrębnych agregacji mających ten sam zestaw argumentów
- [SPARK-24455][CORE] korekta literówki w komentarzu TaskSchedulerImpl
- [SPARK-24397][PYSPARK] Dodano właściwość TaskContext.getLocalProperty(key) w języku Python
- [SPARK-24117][SQL] Ujednolicenie funkcji getSizePerRow
- [SPARK-24156][SS] Naprawianie błędu odzyskiwania po awarii w partii bez danych
- [SPARK-24414][Interfejs użytkownika] Oblicz prawidłową liczbę zadań dla etapu.
- [SPARK-23754][PYTHON] Ponowne podnoszenie klasy StopIteration w kodzie klienta
- [SPARK-23991][DSTREAMS] Napraw utratę danych, gdy zapis do dziennika WAL kończy się niepowodzeniem podczas przydzielania bloków do partii.
- [SPARK-24373][SQL] Dodawanie elementu AnalysisBarrier do elementu podrzędnego RelationalGroupedDataset i KeyValueGroupedDataset
- [SPARK-24392][PYTHON] Etykieta pandas_udf jako eksperymentalna
- [SPARK-24334] Naprawienie zwarcia wyścigu w ArrowPythonRunner powoduje nieczyste zamknięcie alokatora pamięci Arrow
- [SPARK-19112][CORE] Dodaj brakujące nazwy krótkich kodeków kompresji do konfiguracji.
- [SPARK-24244][SPARK-24368][SQL] Przekazywanie tylko wymaganych kolumn do analizatora CSV
- [SPARK-24366][SQL] Poprawa komunikatów o błędach związanych z konwersją typów
- [SPARK-24371][SQL] Dodano funkcję isInCollection w interfejsie API DataFrame dla języka Scala i...
- [SPARK-23925][SQL] Dodawanie funkcji kolekcji array_repeat
- [DROBNE] Dodaj konfigurację SSL portu w toString i scaladoc
- [SPARK-24378][SQL] Naprawianie niepoprawnych przykładów funkcji date_trunc
- [SPARK-24364][SS] Zapobiegaj awarii indeksu InMemoryFileIndex, jeśli ścieżka pliku nie istnieje
- [SPARK-24257][SQL] LongToUnsafeRowMap oblicza, że nowy rozmiar może być nieprawidłowy
- [SPARK-24348][SQL] element_at" — poprawka błędu
- [SPARK-23930][SQL] Dodaj funkcję wycinka
- [SPARK-23416][SS] Dodaj określoną metodę zatrzymania dla metody ContinuousExecution.
- [SPARK-23852][SQL] Uaktualnianie do wersji Parquet 1.8.3
- [SPARK-24350][SQL] Naprawia ClassCastException w funkcji "array_position"
- [SPARK-24321][SQL] Wyodrębnij wspólny kod z operacji dzielenia i reszty do podstawowej cechy
- [SPARK-24309][CORE] Element AsyncEventQueue powinien zatrzymać się po przerwaniu.
- [SPARK-23850][SQL] Dodaj oddzielną konfigurację dla redagowania opcji SQL.
- [SPARK-22371][CORE] Zwróć wartość None zamiast zgłaszać wyjątek, gdy akumulator jest zbierany jako bezużyteczny.
- [SPARK-24002][SQL] Nie można zserializować zadania z powodu org.apache.parquet.io.api.Binary$ByteBufferBackedBinary.getBytes
- [SPARK-23921][SQL] Dodawanie funkcji array_sort
- [SPARK-23923][SQL] Dodawanie funkcji kardynalności
- [SPARK-24159][SS] Włączanie mikropartii bez danych dla przesyłania strumieniowego mapGroupswithState
- [SPARK-24158][SS] Włączanie partii bez danych dla sprzężeń przesyłanych strumieniowo
- [SPARK-24157][SS] Włączono partie nie zawierające danych w MicroBatchExecution na potrzeby agregacji przesyłania strumieniowego i deduplikacji
- [SPARK-23799][SQL] FilterEstimation.evaluateInSet generuje nieprawidłowe statystyki dla STRING
- [SPARK-17916][SQL] Napraw pusty ciąg, który jest analizowany jako null, gdy ustawiono wartość nullValue.
- [SPARK-23916][SQL] Dodawanie funkcji array_join
- [SPARK-23408][SS] Synchronizowanie kolejnych akcji AddData w usłudze Streaming*JoinSuite
- [SPARK-23780][R] Nie udało się użyć biblioteki googleVis z nową wersją SparkR
- [SPARK-23821][SQL] Funkcja kolekcji: spłaszczanie
- [SPARK-23627][SQL] Udostępnij funkcję isEmpty w DataSet.
- [SPARK-24027][SQL] Obsługa funkcji MapType z typem StringType dla kluczy jako typu głównego według from_json
- [SPARK-24035][SQL] Składnia SQL dla Pivot — naprawa ostrzeżenia antlr
- [SPARK-23736][SQL] Rozszerzanie funkcji concat w celu obsługi kolumn tablicowych
- [SPARK-24246][SQL] Ulepszanie wyjątku analizy przez przypisanie przyczyny, gdy jest dostępna
- [SPARK-24263][R] Przerwy sprawdzania języka Java w środowisku SparkR za pomocą biblioteki openjdk
- [SPARK-24262][PYTHON] Naprawiono literówkę w komunikacie o błędzie dopasowania typu UDF
- [SPARK-24067][STREAMING][KAFKA] Zezwalaj na przesunięcia inne niż kolejne
- [SPARK-10878][CORE] Naprawianie stanu wyścigu, gdy wielu klientów rozwiązuje artefakty w tym samym czasie
- [SPARK-19181][CORE] Naprawa niestabilnych metryk „SparkListenerSuite.local”
- [SPARK-24068]Propagowanie opcji czytnika DataFrameReader na źródło danych tekstowych podczas wnioskowania schematu
- [SPARK-24214][SS] Poprawka toJSON dla StreamingRelationV2/StreamingExecutionRelation/ContinuousExecutionRelation
- [SPARK-23919][SPARK-23924][SPARK-24054][SQL] Dodawanie funkcji array_position/element_at
- [SPARK-23926][SQL] Rozszerzanie funkcji odwrotnej w celu obsługi argumentów ArrayType
- [SPARK-23809][SQL] Aktywne sparkSession należy ustawić za pomocą polecenia getOrCreate
- [SPARK-23094][SPARK-23723][SPARK-23724][SQL] Obsługa kodowania niestandardowego dla plików JSON
- [SPARK-24035][SQL] SQL składnia dla Pivot
- [SPARK-24069][R] Dodawanie funkcji array_min/array_max
- [SPARK-23976][CORE] Wykrywanie przepełnienia długości w pliku UTF8String.concat()/ByteArray.concat()
- [SPARK-24188][CORE] Przywrócenie punktu końcowego interfejsu API „/version”.
- [SPARK-24128][SQL] Wspomnij opcję konfiguracji w przypadku niejawnego błędu CROSS JOIN
- [SPARK-23291][SQL][R] Substring języka R nie powinien zmniejszać pozycji początkowej o 1 podczas wywoływania interfejsu API Scali
- [SPARK-23697][CORE] Starsza wersjaAccumulatorWrapper powinna poprawnie zdefiniować wartość isZero
- [SPARK-24168][SQL] Element WindowExec nie powinien uzyskiwać dostępu do programu SQLConf po stronie wykonawcy
- [SPARK-24143]filtrowanie pustych bloków podczas konwertowania statusu mapy na parę (blockId, size)
- [SPARK-23917][SPARK-23918][SQL] Dodawanie funkcji array_max/array_min
- [SPARK-23905][SQL] Dodaj dzień tygodnia do UDF
- [SPARK-16406][SQL] Zwiększanie wydajności pliku LogicalPlan.resolve
- [SPARK-24013][SQL] Usunięcie niepotrzebnej kompresji w ApproximatePercentile
- [SPARK-23433][CORE] Opóźnione ukończenie zadań zombie aktualizuje wszystkie zestawy zadań
- [SPARK-24169][SQL] Obiekty JsonToStructs nie powinny uzyskiwać dostępu do SQLConf po stronie wykonawcy
- [SPARK-24133][SQL] Backport [SPARK-24133]Sprawdzanie przepełnień całkowitych w trakcie zmiany rozmiaru WritableColumnVectors
- [SPARK-24166][SQL] Element InMemoryTableScanExec nie powinien uzyskiwać dostępu do SQLConf po stronie wykonawcy
- [SPARK-24133][SQL] Sprawdzanie przepełnienia liczb całkowitych podczas zmiany rozmiaru WritableColumnVectors
- [SPARK-24085][SQL] Zapytanie zwraca wyjątek UnsupportedOperationException, gdy podzapytywanie skalarne jest obecne w wyrażeniu partycjonowania
- [SPARK-24062][THRIFT SERVER] Naprawiono problem z niemożnością włączenia szyfrowania SASL w serwerze Thrift
- [SPARK-23004][SS] Upewnij się, że funkcja StateStore.commit jest wywoływana tylko raz w zadaniu agregacji przesyłania strumieniowego
- [SPARK-23188][SQL] Umożliwia skonfigurowanie wektoryzowanego rozmiaru partii czytnika columar
- [SPARK-23375][SPARK-23973][SQL] Eliminowanie niepotrzebnego sortowania w optymalizatorze
- [SPARK-23877][SQL] Używanie predykatów filtru do oczyszczania partycji w zapytaniach tylko metadanych
- [SPARK-24033][SQL] Naprawiono niezgodność określonej ramki oknawindowframe(RowFrame, -1, -1)
- [SPARK-23340][SQL] Uaktualnianie usługi Apache ORC do wersji 1.4.3
- Rozwiązano problem z brakiem sprawdzania wartości null, który jest bardziej prawdopodobny przez usprawnione generowanie kodu wyrażeń i uwidoczniony przez SPARK-23986, ponieważ wygenerowany kod źródłowy był nieco dłuższy i wyzwolił problematyczną ścieżkę kodu (dzielenie kodu przez Expression.reduceCodeSize()).
- [SPARK-23989][SQL] wymiana powinna kopiować dane przed mieszaniem bez serializacji
- [SPARK-24021][CORE] poprawka błędu w aktualizacji BlacklistTrackerBlacklistForFetchFailure
- [SPARK-24014][PYSPARK] Dodawanie metody onStreamingStarted do elementu StreamingListener
- [SPARK-23963][SQL] Prawidłowa obsługa dużej liczby kolumn w zapytaniu w tabeli Hive opartej na tekście
- [SPARK-23948] Wyzwalanie odbiornika zadań mapstage w elemecie submitMissingTasks
- [SPARK-23986][SQL] freshName może generować nazwy inne niż unikatowe
- [SPARK-23835][SQL] Dodanie sprawdzania nie-null do deserializacji argumentów krotek
Aktualizacje konserwacyjne
Zobacz Aktualizacje konserwacyjne środowiska Databricks Runtime 4.2.
Środowisko systemu
- System operacyjny: Ubuntu 16.04.4 LTS
- Java: 1.8.0_162
- Scala: 2.11.8
- Python: 2.7.12 dla klastrów języka Python 2 i 3.5.2 dla klastrów języka Python 3.
- R: R w wersji 3.4.4 (2018-03-15)
-
Klastry procesora GPU: zainstalowane są następujące biblioteki procesora GPU FIRMY NVIDIA:
- Kierowca Tesla 375.66
- CUDA 9.0
- cuDNN 7.0
Zainstalowane biblioteki języka Python
| Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
|---|---|---|---|---|---|
| ansi2html | 1.1.1 | argparse (biblioteka do analizy argumentów w Pythonie) | 1.2.1 | backports-abc | 0,5 |
| boto | 2.42.0 | boto3 | 1.4.1 | botocore | 1.4.70 |
| brewer2mpl | 1.4.1 | certyfikat | 2016.2.28 | cffi | 1.7.0 |
| chardet | 2.3.0 | colorama | 0.3.7 | configobj | 5.0.6 |
| kryptografia | 1.5 | rowerzysta | 0.10.0 | Cython | 0.24.1 |
| dekorator | 4.0.10 | docutils | 0,14 | enum34 | 1.1.6 |
| et-xmlfile | 1.0.1 | freetype-py | 1.0.2 | funcsigs | 1.0.2 |
| fusepy | 2.0.4 | Futures | 3.2.0 | ggplot | 0.6.8 |
| html5lib | 0,999 | IDNA | 2.1 | ipaddress | 1.0.16 |
| ipython | 2.2.0 | ipython-genutils | 0.1.0 | jdcal | 1.2 |
| Jinja2 | 2.8 | jmespath | 0.9.0 | llvmlite | 0.13.0 |
| lxml jest biblioteką do analizy XML i HTML. | 3.6.4 | MarkupSafe | 0.23 | biblioteka matplotlib | 1.5.3 |
| mpld3 | 0,2 | msgpack-python | 0.4.7 | ndg-httpsclient | 0.3.3 |
| numba | 0.28.1 | numpy | 1.11.1 | openpyxl | 2.3.2 |
| Pandas | 0.19.2 | pathlib2 | 2.1.0 | ofiara | 0.4.1 |
| pexpect | 4.0.1 | pickleshare (jeśli to nazwa własna, nie trzeba tłumaczyć) | 0.7.4 | Poduszka | 3.3.1 |
| pip (menedżer pakietów Pythona) | 10.0.1 | warstwa | 3.9 | zestaw narzędzi prompt | 1.0.7 |
| psycopg2 | 2.6.2 | ptyprocess | 0.5.1 | py4j | 0.10.3 |
| pyarrow | 0.8.0 | pyasn1 | 0.1.9 | pycparser | 2.14 |
| Pygments | 2.1.3 | PyGObject | 3.20.0 | pyOpenSSL | 16.0.0 |
| pyparsing – biblioteka do przetwarzania tekstu w Pythonie | 2.2.0 | pypng | 0.0.18 | Python | 2.7.12 |
| python-dateutil (biblioteka Pythona do zarządzania datami) | 2.5.3 | python-geohash | 0.8.5 | pytz (biblioteka Pythona do obliczeń stref czasowych) | 1.06.2016 |
| żądania | 2.11.1 | s3transfer | 0.1.9 | scikit-learn | 0.18.1 |
| scipy (biblioteka naukowa dla Pythona) | 0.18.1 | Przeszukać | 0.32 | urodzony na morzu | 0.7.1 |
| setuptools | 39.2.0 | simplejson | 3.8.2 | simples3 | 1.0 |
| singledispatch (pojedyncze wywołanie) | 3.4.0.3 | Sześć | 1.10.0 | statsmodels - biblioteka do modelowania statystycznego | 0.6.1 |
| tornado | 5.0.2 | "traitlets" | 4.3.0 | urllib3 | 1.19.1 |
| virtualenv | 15.0.1 | szerokość(wcwidth) | 0.1.7 | wheel | 0.31.1 |
| wsgiref | 0.1.2 |
Zainstalowane biblioteki języka R
| Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
|---|---|---|---|---|---|
| abind | 1.4-5 | potwierdzić to | 0.2.0 | porty wsteczne | 1.1.2 |
| baza | 3.4.4 | BH | 1.66.0-1 | bindr | 0.1.1 |
| bindrcpp | 0.2.2 | odrobina | 1.1-12 | bit-64 | 0.9-7 |
| bitops | 1.0-6 | blob | 1.1.1 | rozruch | 1.3-20 |
| warzyć | 1.0-6 | miotła | 0.4.4 | samochód | 3.0-0 |
| dane samochodu | 3.0-1 | karetka | 6.0-79 | cellranger | 1.1.0 |
| Chroń | 2.3-52 | klasa | 7.3-14 | CLI | 1.0.0 |
| klaster | 2.0.7-1 | codetools | 0,2-15 | przestrzeń kolorów | 1.3-2 |
| commonmark | 1.4 | kompilator | 3.4.4 | kredka | 1.3.4 |
| lok | 3.2 | Zakrzepica żył mózgowych (CVST) | 0.2-1 | tabela danych | 1.10.4-3 |
| zbiory danych | 3.4.4 | DBI | 0,8 | ddalpha | 1.3.1.1 |
| DEoptimR | 1.0-8 | opis | 1.1.1 | devtools | 1.13.5 |
| dichromata | 2.0-0 | skrót | 0.6.15 | dimRed | 0.1.0 |
| DoMC | 1.3.5 | dplyr | 0.7.4 | Odzyskiwanie po awarii | 0.0.3 |
| dla kotów | 0.3.0 | foreach | 1.4.4 | zagraniczny | 0.8-70 |
| Gbm | 2.1.3 | ggplot2 | 2.2.1 | git2r | 0.21.0 |
| glmnet | 2.0-16 | klej | 1.2.0 | Gower | 0.1.2 |
| grafika | 3.4.4 | grDevices | 3.4.4 | siatka | 3.4.4 |
| gsubfn | 0,7 | tabela g | 0.2.0 | h2o (woda) | 3.16.0.2 |
| przystań | 1.1.1 | Hms | 0.4.2 | httr | 1.3.1 |
| hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ipred | 0.9-6 |
| Iteratory | 1.0.9 | jsonlite | 1.5 | kernlab | 0.9-25 |
| KernSmooth | 2.23-15 | Etykietowanie | 0,3 | krata | 0.20-35 |
| lawa | 1.6.1 | opóźnienie | 0.2.1 | mniejszy | 0.3.3 |
| lme4 | 1.1-17 | lubridate | 1.7.3 | magrittr | 1.5 |
| mapproj | 1.2.6 | Mapy | 3.3.0 | maptools | 0.9-2 |
| MASA | 7.3-50 | Macierz | 1.2-14 | MatrixModels | 0.4-1 |
| zapamiętywanie | 1.1.0 | metody | 3.4.4 | mgcv | 1.8-24 |
| mim | 0,5 | minqa | 1.2.4 | mnormt | 1.5-5 |
| Metryki modelu | 1.1.0 | munsell | 0.4.3 | mvtnorm | 1.0-7 |
| nlme | 3.1-137 | nloptr | 1.0.4 | sieć neuronowa (nnet) | 7.3-12 |
| numDeriv | 2016.8-1 | openssl | 1.0.1 | openxlsxx | 4.0.17 |
| równoległy | 3.4.4 | pbkrtest | 0.4-7 | kolumna | 1.2.1 |
| pkgconfig | 2.0.1 | pkgKitten | 0.1.4 | plogr | 0.2.0 |
| plyr | 1.8.4 | pochwała | 1.0.0 | prettyunits | 1.0.2 |
| Proc | 1.11.0 | prodlim | 1.6.1 | Proto | 1.0.0 |
| Psych | 1.8.3.3 | mruczenie | 0.2.4 | quantreg | 5.35 |
| R.methodsS3 | 1.7.1 | R.oo | 1.21.0 | R.utils | 2.6.0 |
| R6 | 2.2.2 | "randomForest" | 4.6-14 | RColorBrewer | 1.1-2 |
| Rcpp | 0.12.16 | RcppEigen | 0.3.3.4.0 | RcppRoll | 0.2.2 |
| RCurl | 1.95-4.10 | czytnik | 1.1.1 | readxl (biblioteka do odczytu plików Excel) | 1.0.0 |
| przepisy | 0.1.2 | rewanż | 1.0.1 | zmień kształt2 | 1.4.3 |
| Rio | 0.5.10 | rlang | 0.2.0 | robustbase | 0.92-8 |
| RODBC | 1.3-15 | roxygen2 | 6.0.1 | rpart | 4.1-13 |
| rprojroot | 1.3-2 | Rserve | 1.7-3 | RSQLite | 2.1.0 |
| rstudioapi | 0,7 | waga (urządzenie) | 0.5.0 | sfsmisc | 1.1-2 |
| Sp | 1.2-7 | SparkR | 2.3.1 | Rozrzednia | 1.77 |
| przestrzenny | 7.3-11 | splajnów | 3.4.4 | sqldf | 0.4-11 |
| KWADRAT | 2017.10-1 | statmod | 1.4.30 | Statystyki | 3.4.4 |
| statystyki4 | 3.4.4 | łańcuchy | 1.1.7 | stringr | 1.3.0 |
| przetrwanie | 2.42-3 | tcltk | 3.4.4 | NauczanieDemonstruje | 2.10 |
| testthat | 2.0.0 | tibble | 1.4.2 | tidyr | 0.8.0 |
| tidyselect | 0.2.4 | czasData | 3043.102 | narzędzia | 3.4.4 |
| utf8 | 1.1.3 | narzędzia | 3.4.4 | viridisLite | 0.3.0 |
| wibrys | 0.3-2 | Withr | 2.1.2 | xml2 | 1.2.0 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.11)
| Identyfikator grupy | Identyfikator artefaktu | Wersja |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Klient Amazon Kinesis | 1.7.3 |
| com.amazonaws | aws-java-sdk-automatyczne-skalowanie | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudhsm (zestaw narzędzi Java dla usługi CloudHSM) | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.313 |
| com.amazonaws | aws-java-sdk-codedeploy (biblioteka do zarządzania wdrażaniem kodu w AWS) | 1.11.313 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.313 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.11.313 |
| com.amazonaws | aws-java-sdk-config (konfiguracja aws-java-sdk) | 1.11.313 |
| com.amazonaws | aws-java-sdk-core | 1.11.313 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.11.313 |
| com.amazonaws | aws-java-sdk-directconnect (pakiet narzędzi programistycznych dla Java do współpracy z AWS Direct Connect) | 1.11.313 |
| com.amazonaws | aws-java-sdk-directory | 1.11.313 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.11.313 |
| com.amazonaws | aws-java-sdk-ec2 | 1.11.313 |
| com.amazonaws | aws-java-sdk-ecs | 1.11.313 |
| com.amazonaws | aws-java-sdk-efs | 1.11.313 |
| com.amazonaws | aws-java-sdk-elasticache | 1.11.313 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.313 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.313 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.313 |
| com.amazonaws | aws-java-sdk-emr (biblioteka SDK Java dla usługi Amazon EMR) | 1.11.313 |
| com.amazonaws | AWS Java SDK dla Glacier | 1.11.313 |
| com.amazonaws | aws-java-sdk-iam | 1.11.313 |
| com.amazonaws | AWS-Java-SDK-ImportExport | 1.11.313 |
| com.amazonaws | AWS SDK dla Javy - Kinesis | 1.11.313 |
| com.amazonaws | aws-java-sdk-kms | 1.11.313 |
| com.amazonaws | aws-java-sdk-lambda | 1.11.313 |
| com.amazonaws | aws-java-sdk-logs | 1.11.313 |
| com.amazonaws | aws-java-sdk-uczenie-maszynowe | 1.11.313 |
| com.amazonaws | aws-java-sdk-opsworks | 1.11.313 |
| com.amazonaws | aws-java-sdk-rds (pakiet programistyczny Java dla AWS RDS) | 1.11.313 |
| com.amazonaws | aws-java-sdk-redshift | 1.11.313 |
| com.amazonaws | aws-java-sdk-route53 | 1.11.313 |
| com.amazonaws | aws-java-sdk-s3 | 1.11.313 |
| com.amazonaws | aws-java-sdk-ses | 1.11.313 |
| com.amazonaws | aws-java-sdk-simpledb | 1.11.313 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.313 |
| com.amazonaws | aws-java-sdk-sns | 1.11.313 |
| com.amazonaws | aws-java-sdk-sqs | 1.11.313 |
| com.amazonaws | aws-java-sdk-ssm | 1.11.313 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.11.313 |
| com.amazonaws | aws-java-sdk-sts (pakiet programistyczny Java dla AWS STS) | 1.11.313 |
| com.amazonaws | wsparcie dla aws-java-sdk | 1.11.313 |
| com.amazonaws | aws-java-sdk-swf-biblioteki | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.11.313 |
| com.amazonaws | jmespath-java | 1.11.313 |
| com.carrotsearch | hppc | 0.7.2 |
| com.chuusai | shapeless_2.11 | 2.3.2 |
| com.clearspring.analytics | odtwarzać strumieniowo | 2.7.0 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | dbml-local_2.11 | 0.4.1-db1-spark2.3 |
| com.databricks | dbml-local_2.11-tests | 0.4.1-db1-spark2.3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | kompilatorwtyczka_2.11 | 0.4.15-9 |
| com.databricks.scalapb | scalapb-runtime_2.11 | 0.4.15-9 |
| com.esotericsoftware | kryogenicznie zacienione | 3.0.3 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | kolega z klasy | 1.0.0 |
| com.fasterxml.jackson.core | adnotacje jackson | 2.6.7 |
| com.fasterxml.jackson.core | jackson-core | 2.6.7 |
| com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
| com.fasterxml.jackson.dataformat | Jackson-format-danych-CBOR | 2.6.7 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.6.7 |
| com.fasterxml.jackson.module | jackson-module-scala_2.11 | 2.6.7.1 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | rdzeń | 1.1.2 |
| com.github.fommil.netlib | natywne_odniesienie-java | 1.1 |
| com.github.fommil.netlib | native_ref-java-natives | 1.1 |
| com.github.fommil.netlib | native_system java | 1.1 |
| com.github.fommil.netlib | system natywny-java-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
| com.github.fommil.netlib | "netlib-native_system-linux-x86_64-natives" | 1.1 |
| com.github.luben | zstd-jni | 1.3.2-2 |
| com.github.rwl | jtransforms | 2.4.0 |
| com.google.code.findbugs | jsr305 | 2.0.1 |
| com.google.code.gson | gson | 2.2.4 |
| com.google.guava | guawa | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.googlecode.javaewah | JavaEWAH | 0.3.2 |
| com.h2database | h2 | 1.3.174 |
| com.jamesmurty.utils | java-xmlbuilder | 1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | bonecp | 0.8.0.WYDANIE |
| com.mchange | c3p0 | 0.9.5.1 |
| com.mchange | mchange-commons-java | 0.2.10 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK do przechowywania danych Azure Data Lake) | 2.2.8 |
| com.microsoft.sqlserver | mssql-jdbc | 6.2.2.jre8 |
| com.ning | compress-lzf (biblioteka do kompresji danych) | 1.0.3 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.11 | 0,3 |
| com.twitter | chill-java | 0.8.4 |
| com.twitter | relaks_2.11 | 0.8.4 |
| com.twitter | pakiet parquet-hadoop | 1.6.0 |
| com.twitter | util-app_2.11 | 6.23.0 |
| com.twitter | util-core_2.11 | 6.23.0 |
| com.twitter | util-jvm_2.11 | 6.23.0 |
| com.typesafe | konfiguracja | 1.2.1 |
| com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
| com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
| com.univocity | parsery jednowołciowości | 2.5.9 |
| com.vlkan | flatbuffers | 1.2.0-3f79e055 |
| com.zaxxer | HikariCP | 3.1.0 |
| commons-beanutils | commons-beanutils | 1.7.0 |
| commons-beanutils | commons-beanutils-core | 1.8.0 |
| commons-cli | commons-cli | 1.2 |
| commons-codec | commons-codec | 1.10 |
| Zbiory Commons | Zbiory Commons | 3.2.2 |
| commons-configuration | commons-configuration | 1.6 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-digester | commons-digester | 1.8 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2,4 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-net | commons-net | 2,2 |
| commons-pool | commons-pool | 1.5.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
| io.airlift | sprężarka powietrza | 0,8 |
| io.dropwizard.metrics | metryki —rdzeń | 3.1.5 |
| io.dropwizard.metrics | metrics-ganglia | 3.1.5 |
| io.dropwizard.metrics | metrics-graphite | 3.1.5 |
| io.dropwizard.metrics | metryki-kontrole-zdrowia | 3.1.5 |
| io.dropwizard.metrics | metrics-jetty9 | 3.1.5 |
| io.dropwizard.metrics | metryki-json | 3.1.5 |
| io.dropwizard.metrics | metryki-JVM | 3.1.5 |
| io.dropwizard.metrics | metrics-log4j | 3.1.5 |
| io.dropwizard.metrics | serwlety pomiarowe | 3.1.5 |
| io.netty | Netty | 3.9.9.Final |
| io.netty | netty-all | 4.1.17.Final |
| io.prometheus | simpleclient | 0.0.16 |
| io.prometheus | simpleclient_common | 0.0.16 |
| io.prometheus | simpleclient_dropwizard | 0.0.16 |
| io.prometheus | simpleclient_servlet | 0.0.16 |
| io.prometheus.jmx | moduł zbierający | 0,7 |
| javax.activation | aktywacja | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.servlet | javax.servlet-api | 3.1.0 |
| javax.servlet.jsp | jsp-api | 2.1 |
| javax.transaction | jta | 1.1 |
| javax.validation | validation-api | 1.1.0.Final |
| javax.ws.rs | javax.ws.rs-api | 2.0.1 |
| javax.xml.bind | jaxb-api | 2.2.2 |
| javax.xml.stream | stax-api | 1.0-2 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2,11 |
| joda-time | joda-time | 2.9.3 |
| log4j | apache-log4j-extras | 1.2.17 |
| log4j | log4j | 1.2.17 |
| net.hydromatic | eigenbase-properties | 1.1.5 |
| net.iharder | base64 | 2.3.8 |
| net.java.dev.jets3t | jets3t | 0.9.4 |
| net.razorvine | pirolit | 4.13 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | snowflake-jdbc | 3.6.3 |
| net.snowflake | spark-snowflake_2.11 | 2.3.2 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt | oncrpc | 1.0.7 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.4 |
| org.antlr | antlr4-runtime | 4.7 |
| org.antlr | Szablon łańcucha | 3.2.1 |
| org.apache.ant | mrówka | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | program uruchamiający Ant | 1.9.2 |
| org.apache.arrow | format strzałki | 0.8.0 |
| org.apache.arrow | pamięć strzałkowa | 0.8.0 |
| org.apache.arrow | wektor strzałki | 0.8.0 |
| org.apache.avro | avro | 1.7.7 |
| org.apache.avro | avro-ipc | 1.7.7 |
| org.apache.avro | avro-ipc-tests | 1.7.7 |
| org.apache.avro | avro-mapred-hadoop2 | 1.7.7 |
| org.apache.calcite | calcite-avatica | 1.2.0 inkubacja |
| org.apache.calcite | rdzeń kalcytowy | 1.2.0 inkubacja |
| org.apache.calcite | calcite-linq4j | 1.2.0 inkubacja |
| org.apache.commons | commons-compress | 1.4.1 |
| org.apache.commons | commons-crypto | 1.0.0 |
| org.apache.commons | commons-lang3 | 3.5 |
| org.apache.commons | commons-math3 | 3.4.1 |
| org.apache.curator | kurator-klient | 2.7.1 |
| org.apache.curator | struktura kuratora | 2.7.1 |
| org.apache.curator | przepisy kuratora | 2.7.1 |
| org.apache.derby | Derby | 10.12.1.1 |
| org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
| org.apache.directory.api | api-util | 1.0.0-M20 |
| org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
| org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
| org.apache.hadoop | adnotacje hadoop | 2.7.3 |
| org.apache.hadoop | hadoop-auth | 2.7.3 |
| org.apache.hadoop | hadoop-klient | 2.7.3 |
| org.apache.hadoop | hadoop-common | 2.7.3 |
| org.apache.hadoop | Hadoop-HDFS (Hadoop Distributed File System) | 2.7.3 |
| org.apache.hadoop | Klient aplikacji Hadoop MapReduce | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-shuffle (moduł mieszający klienta w Hadoop MapReduce) | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-client (klient Hadoop YARN) | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-common | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-server-common (Wspólne komponenty serwera Hadoop YARN) | 2.7.3 |
| org.apache.htrace | htrace-core | 3.1.0 inkubacja |
| org.apache.httpcomponents | httpclient | 4.5.4 |
| org.apache.httpcomponents | httpcore | 4.4.8 |
| org.apache.ivy | bluszcz | 2.4.0 |
| org.apache.orc | orc-core-nohive | 1.4.3 |
| org.apache.orc | orc-mapreduce-nohive | 1.4.3 |
| org.apache.parquet | parquet-kolumna | 1.8.3-databricks2 |
| org.apache.parquet | parquet-wspólny | 1.8.3-databricks2 |
| org.apache.parquet | kodowanie parquet | 1.8.3-databricks2 |
| org.apache.parquet | format Parquet | 2.3.1 |
| org.apache.parquet | Parquet-Hadoop (framework do analizy danych) | 1.8.3-databricks2 |
| org.apache.parquet | parquet-jackson | 1.8.3-databricks2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.9.3 |
| org.apache.xbean | xbean-asm5-cieniowany | 4.4 |
| org.apache.zookeeper - system do zarządzania konfiguracją i synchronizacją dla aplikacji rozproszonych. | opiekun zoo | 3.4.6 |
| org.bouncycastle | bcprov-jdk15on | 1.58 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
| org.codehaus.jackson | jackson-mapujący-ASL | 1.9.13 |
| org.codehaus.jackson | jackson-xc | 1.9.13 |
| org.codehaus.janino | commons-kompilator | 3.0.8 |
| org.codehaus.janino | Janino | 3.0.8 |
| org.datanucleus | datanucleus-api-jdo | 3.2.6 |
| org.datanucleus | datanucleus-core | 3.2.10 |
| org.datanucleus | datanucleus-rdbms | 3.2.9 |
| org.eclipse.jetty | jetty-client | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-kontynuacja | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-http | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-io | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-jndi | 9.3.20.v20170531 |
| org.eclipse.jetty | Jetty-plus | 9.3.20.v20170531 |
| org.eclipse.jetty | serwer pośredniczący Jetty | 9.3.20.v20170531 |
| org.eclipse.jetty | moduł bezpieczeństwa Jetty | 9.3.20.v20170531 |
| org.eclipse.jetty | serwer aplikacji Jetty | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-servlet | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-servlets | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-util | 9.3.20.v20170531 |
| org.eclipse.jetty | Jetty-aplikacja internetowa | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-xml | 9.3.20.v20170531 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.4.0-b34 |
| org.glassfish.hk2 | lokalizator hk2 | 2.4.0-b34 |
| org.glassfish.hk2 | hk2-utils | 2.4.0-b34 |
| org.glassfish.hk2 | osgi-lokalizator-zasobów | 1.0.1 |
| org.glassfish.hk2.external | aopalliance-zapakowane ponownie | 2.4.0-b34 |
| org.glassfish.hk2.external | javax.inject (pakiet w języku Java) | 2.4.0-b34 |
| org.glassfish.jersey.bundles.repackaged | jersey-guawa | 2.22.2 |
| org.glassfish.jersey.containers | serwlet kontenerowy Jersey | 2.22.2 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
| org.glassfish.jersey.core | jersey-client | 2.22.2 |
| org.glassfish.jersey.core | dzianina-zwykła | 2.22.2 |
| org.glassfish.jersey.core | serwer jersey | 2.22.2 |
| org.glassfish.jersey.media | - "jersey-media-jaxb" не wymaga tłumaczenia, gdyż jest to nazwa techniczna, ale dla polskich odbiorców warto dodać opis lub kontynuować bez zmian, jeżeli nazwa już jako taka przyjęła się w lokalnym użyciu. | 2.22.2 |
| org.hibernate | moduł sprawdzania poprawności hibernacji | 5.1.1.Ostateczna |
| org.iq80.snappy | Żwawy | 0,2 |
| org.javassist | javassist | 3.18.1-GA |
| org.jboss.logging | jboss-logging (narzędzie do rejestrowania zdarzeń w JBoss) | 3.1.3.GA |
| org.jdbi | jdbi | 2.63.1 |
| org.joda | joda-convert | 1,7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.11 | 3.2.11 |
| org.json4s | json4s-core_2.11 | 3.2.11 |
| org.json4s | json4s-jackson_2.11 | 3.2.11 |
| org.lz4 | lz4-java | 1.4.0 |
| org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
| org.mockito | mockito-all | 1.9.5 |
| org.objenesis | objenesis | 2.1 |
| org.postgresql | postgresql | 42.1.4 |
| org.roaringbitmap | RoaringBitmap | 0.5.11 |
| org.rocksdb | rocksdbjni | 5.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.11 | 2.11.8 |
| org.scala-lang | scala-library_2.11 | 2.11.8 |
| org.scala-lang | scala-reflect_2.11 | 2.11.8 |
| org.scala-lang | scalap_2.11 | 2.11.8 |
| org.scala-lang.modules | scala-parser-combinators_2.11 | 1.0.2 |
| org.scala-lang.modules | scala-xml_2.11 | 1.0.5 |
| org.scala-sbt | interfejs testowy | 1.0 |
| org.scalacheck | scalacheck_2.11 | 1.12.5 |
| org.scalanlp | breeze-macros_2.11 | 0.13.2 |
| org.scalanlp | breeze_2.11 | 0.13.2 |
| org.scalatest | scalatest_2.11 | 2.2.6 |
| org.slf4j | jcl-over-slf4j | 1.7.16 |
| org.slf4j | jul-to-slf4j | 1.7.16 |
| org.slf4j | slf4j-api | 1.7.16 |
| org.slf4j | slf4j-log4j12 | 1.7.16 |
| org.spark-project.hive | hive-beeline (narzędzie do interakcji z bazą danych Hive) | 1.2.1.spark2 |
| org.spark-project.hive | hive-cli | 1.2.1.spark2 |
| org.spark-project.hive | hive-exec | 1.2.1.spark2 |
| org.spark-project.hive | hive-jdbc | 1.2.1.spark2 |
| org.spark-project.hive | Magazyn metadanych Hive | 1.2.1.spark2 |
| org.spark-project.spark.spark | Nieużywane | 1.0.0 |
| org.spire-math | spire-macros_2.11 | 0.13.0 |
| org.spire-math | spire_2.11 | 0.13.0 |
| org.springframework | spring-core (podstawowy moduł Spring) | 4.1.4.WYDANIE |
| org.springframework | test sprężynowy | 4.1.4.WYDANIE |
| org.tukaani | xz | 1.0 |
| org.typelevel | mechanik_2.11 | 0.6.1 |
| org.typelevel | macro-compat_2.11 | 1.1.1 |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.2.6 |
| org.yaml | snakeyaml | 1.16 |
| oro | oro | 2.0.8 |
| oprogramowanie.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |
| xmlenc (standard szyfrowania XML) | xmlenc (standard szyfrowania XML) | 0.52 |