Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Uwaga
Obsługa tej wersji środowiska Databricks Runtime została zakończona. Aby uzyskać datę zakończenia pomocy technicznej, zobacz Historia zakończenia pomocy technicznej. Wszystkie obsługiwane wersje środowiska Databricks Runtime można znaleźć w temacie Databricks Runtime release notes versions and compatibility (Wersje i zgodność środowiska Databricks Runtime).
Usługa Databricks wydała tę wersję w maju 2018 r.
Ważne
Ta wersja została wycofana 17 stycznia 2019 r. Aby uzyskać więcej informacji na temat zasad i harmonogramu wycofywania środowiska Databricks Runtime, zobacz Cykle życia pomocy technicznej usługi Databricks.
Poniższe informacje o wersji zawierają informacje o środowisku Databricks Runtime 4.1 obsługiwanym przez platformę Apache Spark.
Delta Lake
Środowisko Databricks Runtime w wersji 4.1 dodaje główne ulepszenia jakości i funkcjonalność usługi Delta Lake. Usługa Databricks zdecydowanie zaleca, aby wszyscy klienci usługi Delta Lake uaktualnili środowisko uruchomieniowe do nowego środowiska uruchomieniowego. Ta wersja pozostaje w prywatnej wersji zapoznawczej, ale reprezentuje wydanie kandydata w oczekiwaniu na nadchodzące wydanie ogólnie dostępne.
Usługa Delta Lake jest teraz również dostępna w prywatnej wersji zapoznawczej dla użytkowników usługi Azure Databricks. Skontaktuj się z menedżerem konta lub zarejestruj się pod adresem https://databricks.com/product/databricks-delta.
Zmiany powodujące niezgodność
Środowisko Databricks Runtime 4.1 zawiera zmiany w protokole transakcji w celu włączenia nowych funkcji, takich jak walidacja. Tabele utworzone za pomocą środowiska Databricks Runtime 4.1 automatycznie używają nowej wersji i nie mogą być zapisywane w starszych wersjach środowiska Databricks Runtime. Aby skorzystać z tych ulepszeń, należy uaktualnić istniejące tabele. Aby uaktualnić istniejącą tabelę, najpierw uaktualnij wszystkie zadania, które zapisują się w tabeli. Następnie uruchom polecenie:
com.databricks.delta.Delta.upgradeTableProtocol("<path-to-table>" or "<tableName>")Aby uzyskać więcej informacji, zapoznaj się z kompatybilnością funkcji i protokołami Delta Lake.
Operacje zapisu są teraz weryfikowane względem bieżącego schematu tabeli zamiast automatycznego dodawania kolumn, których brakuje w tabeli docelowej. Aby włączyć poprzednie zachowanie, ustaw
mergeSchemaopcję natrue.Jeśli używasz wcześniejszych wersji funkcji delta usługi Databricks, przed użyciem środowiska Databricks Runtime 4.1 należy uaktualnić wszystkie zadania. Jeśli wystąpi jeden z tych błędów, uaktualnij środowisko Databricks Runtime 4.1:
java.lang.NumberFormatException: For input string: "00000000000000....crc" scala.MatchErrorTabele nie mogą już mieć kolumn, które różnią się tylko wielkością liter.
Konfiguracje tabeli specyficzne dla różnicy muszą być teraz poprzedzone prefiksem
delta.
Nowe funkcje
Zarządzanie schematem — funkcja delta usługi Databricks weryfikuje teraz dołączanie i zastępowanie istniejącej tabeli w celu zapewnienia, że zapisywany schemat jest zgodny ze schematem.
- Funkcja delta usługi Databricks nadal obsługuje automatyczną ewolucję schematu.
- Funkcja delta usługi Databricks obsługuje teraz następujący kod DDL w celu jawnego zmodyfikowania schematu:
-
ALTER TABLE ADD COLUMNaby dodać nowe kolumny do tabeli -
ALTER TABLE CHANGE COLUMNSaby zmienić kolejność kolumn ALTER TABLE [SET|UNSET] TBLPROPERTIES
-
Aby uzyskać szczegółowe informacje, zobacz Wymuszanie schematu.
Ulepszona obsługa języka DDL i tabel
- Pełna obsługa tabel DDL i
saveAsTable().save()isaveAsTable()teraz mają identyczne semantyki. - Wszystkie polecenia DDL i DML obsługują zarówno nazwę tabeli, jak i
delta.`<path-to-table>`. SHOW PARTITIONSSHOW COLUMNSDESC TABLE- Szczegółowe informacje o tabeli — bieżące wersje czytników i składników zapisywania tabeli można wyświetlić, uruchamiając polecenie
DESCRIBE DETAIL. Zobacz kompatybilność funkcji i protokoły Delta Lake. - Szczegóły tabeli — informacje o pochodzenia są teraz dostępne dla każdego zapisu w tabeli. Pasek boczny Dane zawiera również szczegółowe informacje o tabeli i historię tabel delty usługi Databricks. Zobacz Przeglądanie szczegółów tabeli usługi Delta Lake z opisem.
- Tabele przesyłania strumieniowego — ramki danych przesyłania strumieniowego można utworzyć przy użyciu polecenia
spark.readStream.format("delta").table("<table-name>"). - Tabele tylko do dołączania — funkcja delta usługi Databricks obsługuje teraz podstawowe zarządzanie danymi. Usunięcie i modyfikacje tabeli można zablokować, ustawiając właściwość
delta.appendOnly=truetabeli . -
MERGE INTOsource — dodaje bardziej kompleksową obsługę specyfikacji zapytania źródłowego .MERGEMożna na przykład określićLIMITelement iORDER BYINLINE TABLEw źródle. - Pełna obsługa list ACL tabel.
- Pełna obsługa tabel DDL i
usprawnienia dotyczące wydajności
- Zmniejszenie obciążenia związanego z zbieraniem statystyk — wydajność zbierania statystyk została ulepszona, a statystyki są teraz zbierane tylko dla konfigurowalnej liczby kolumn ustawionych domyślnie na 32. Wydajność zapisu różnicowego w usłudze Databricks została zwiększona o maksymalnie 2 razy ze względu na zmniejszenie obciążenia związanego z zbieraniem statystyk. Aby skonfigurować liczbę kolumn, ustaw właściwość
delta.dataSkippingNumIndexedCols=<number-of-columns>tabeli . - Obsługa wypychania limitu — statystyki służą do ograniczania liczby plików skanowanych pod kątem zapytań zawierających
LIMITkolumny partycji i predykatów. Dotyczy to zapytań w notesach ze względu na niejawnylimit=1000efekt dla wszystkich poleceń notesu. - Przefiltruj wypychanie w źródle przesyłania strumieniowego — zapytania przesyłane strumieniowo używają teraz partycjonowania podczas uruchamiania nowego strumienia, aby pominąć nieistotne dane.
- Ulepszony równoległość dla
OPTIMIZE-OPTIMIZEteraz działa jako pojedyncze zadanie platformy Spark i będzie używać wszystkich równoległości dostępnych w klastrze (wcześniej było ograniczonych do 100 skompaktowanych plików naraz). - Pomijanie danych w języku DML —
UPDATE,DELETEiMERGEteraz używają statystyk podczas lokalizowania plików, które muszą zostać przepisane. - Zmniejszone przechowywanie punktów kontrolnych — punkty kontrolne są teraz przechowywane przez dwa dni (historia jest nadal przechowywana przez 30), aby zmniejszyć koszty magazynowania dziennika transakcji.
Zachowanie interfejsu API
- Zachowanie funkcji
insertInto(<table-name>)delta usługi Databricks jest takie samo jak inne źródła danych.- Jeśli żaden tryb nie jest określony lub
modemaErrorIfExistswartość ,IgnorelubAppend, dołącza dane w ramce danych do tabeli delty usługi Databricks. - Jeśli
modewartość toOverwrite, usuwa wszystkie dane w istniejącej tabeli i wstawia dane z ramki danych do tabeli delty usługi Databricks.
- Jeśli żaden tryb nie jest określony lub
- W przypadku buforowania tabela docelowa
MERGEobiektu musi być ręcznie niebuforowana.
Ulepszenia użyteczności
- Walidacje migracji obciążeń — typowe błędy występujące podczas migrowania obciążeń do funkcji delta usługi Databricks zgłaszają teraz wyjątek, a nie kończą się niepowodzeniem:
- Używanie
format("parquet")do odczytywania lub zapisywania tabeli. - Odczytywanie lub zapisywanie bezpośrednio w partycji (czyli
/path/to/delta/part=1). - Opróżnianie podkatalogów tabeli.
-
INSERT OVERWRITE DIRECTORYprzy użyciu parquet w tabeli.
- Używanie
- Konfiguracja bez uwzględniania wielkości liter — opcje dla właściwości czytnika/zapisywania i tabeli ramki danych są teraz bez uwzględniania wielkości liter (w tym ścieżki odczytu i ścieżki zapisu).
- Nazwy kolumn — nazwy kolumn tabeli mogą teraz zawierać kropki.
Znane problemy
- Wstawki instrukcji z wieloma wstawianiami znajdują się w różnych jednostkach pracy, a nie w tej samej transakcji.
Poprawki błędów
- Naprawiono pętlę nieskończoną podczas uruchamiania nowego strumienia w tabeli szybkiego aktualizowania.
Przestarzałe elementy
Przesyłanie strumieniowe ze strukturą nie obsługuje danych wejściowych, które nie są dołączane i zgłasza wyjątek, jeśli jakiekolwiek modyfikacje występują w tabeli używanej jako źródło. Wcześniej można było zastąpić to zachowanie za pomocą flagi ignoreFileDeletion , ale jest ona teraz przestarzała. Zamiast tego użyj polecenia ignoreDeletes lub ignoreChanges. Zobacz opcja 2: przesyłanie strumieniowe z tabeli Delta.
Inne zmiany i ulepszenia
- Usługa Watchdog zapytań jest włączona dla wszystkich klastrów ogólnego przeznaczenia utworzonych przy użyciu interfejsu użytkownika.
- Zwiększona wydajność po stronie sterownika dla pamięci podręcznej DBIO
- Zwiększona wydajność dekodowania Parquet za pośrednictwem nowego natywnego dekodera Parquet
- Zwiększona wydajność w przypadku wspólnej eliminacji podwyrażenia
- Ulepszona wydajność pomijania danych dla dużych tabel łączących małe tabele (sprzężenia tabeli faktów)
-
display()teraz renderuje kolumny zawierające typy danych obrazów jako bogaty kod HTML. - Ulepszenia dzienników, ładowania i rejestrowania modeli MLflow
- Uaktualniono plik dbml-local do najnowszej wersji 0.4.1
- Usunięto usterkę z wyeksportowanymi modelami z określonym parametrem
threshold - Dodano obsługę eksportowania
OneVsRestModelelementu ,GBTClassificationModel
- Uaktualniono niektóre zainstalowane biblioteki języka Python:
- : od 9.0.1 do 10.0.0b2
- setuptools: od 38.5.1 do 39.0.1
- tornado: od 4.5.3 do 5.0.1
- koło: od 0.30.0 do 0.31.0
- Uaktualniono kilka zainstalowanych bibliotek języka R. Zobacz Zainstalowane biblioteki języka R.
- Uaktualniono zestaw SDK usługi Azure Data Lake Store z wersji 2.0.11 do 2.2.8.
- Uaktualniono cuda do wersji 9.0 z wersji 8.0 i CUDNN do wersji 7.0 z 6.0 dla klastrów gpu.
Apache Spark
Środowisko Databricks Runtime 4.1 obejmuje platformę Apache Spark 2.3.0. Ta wersja zawiera wszystkie poprawki i ulepszenia zawarte w środowisku Databricks Runtime 4.0 (EoS), a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:
- [SPARK-24007][SQL] Wartość EqualNullSafe dla parametrów FloatType i DoubleType może wygenerować nieprawidłowy wynik przez kodgen.
- [SPARK-23942][PYTHON][SQL] Tworzy zbieranie w narzędziu PySpark jako akcji dla odbiornika funkcji wykonawczej zapytań
- [SPARK-23815][CORE] Tryb zastępowania partycji dynamicznej modułu zapisywania platformy Spark może zakończyć się niepowodzeniem podczas zapisywania danych wyjściowych na partycji wieloeziomowej
- [SPARK-23748][SS] Naprawa problemu z ciągłym procesem SS, który nie obsługuje SubqueryAlias
- [SPARK-23963][SQL] Prawidłowa obsługa dużej liczby kolumn w zapytaniu w tabeli Hive opartej na tekście
- [SPARK-23867][SCHEDULER] użyj wartości droppedCount w logWarning
- [SPARK-23816][CORE] Zabite zadania powinny ignorować FetchFailures.
- [SPARK-23809][SQL] Aktywne sparkSession należy ustawić za pomocą polecenia getOrCreate
- [SPARK-23966][SS] Refaktoryzacja całej logiki zapisywania pliku punktu kontrolnego w typowym interfejsie CheckpointFileManager
- [SPARK-21351][SQL] Aktualizowanie wartości null na podstawie danych wyjściowych elementów podrzędnych
- [SPARK-23847][PYTHON][SQL] Dodawanie asc_nulls_first, asc_nulls_last do programu PySpark
- [SPARK-23822][SQL] Ulepszanie komunikatu o błędzie dotyczącego niezgodności schematu Parquet
- [SPARK-23823][SQL] Zachowaj pochodzenie w transformExpression
- [SPARK-23838][WEBUI] Uruchamianie zapytania SQL jest wyświetlane jako "ukończone" na karcie SQL
- [SPARK-23802][SQL] PropagateEmptyRelation może pozostawić plan zapytania w stanie nierozwiązanym
- [SPARK-23727][SQL] Obsługa wypychania filtrów typu DateType w parquet
- [SPARK-23574][SQL] Zgłoś SinglePartition w DataSourceV2ScanExec, gdy istnieje dokładnie 1 fabryka czytników danych.
- [SPARK-23533][SS] Dodano obsługę zmiany startOffset w ContinuousDataReader
- [SPARK-23491][SS] Usuwanie jawnego anulowania zadania z funkcji ContinuousExecution — ponowne konfigurowanie
- [SPARK-23040][CORE] Zwraca iterator przerwalny dla czytnika mieszania
- [SPARK-23827][SS] StreamingJoinExec powinien upewnić się, że dane wejściowe są podzielone na określoną liczbę partycji
- [SPARK-23639][SQL] Uzyskiwanie tokenu przed uruchomieniem klienta magazynu metadanych w interfejsie wiersza polecenia platformy SparkSQL
- [SPARK-23806]Funkcja Broadcast.unpersist może spowodować wyjątek krytyczny w przypadku użycia...
- [SPARK-23599][SQL] Używanie metody RandomUUIDGenerator w wyrażeniu Uuid
- [SPARK-23599][SQL] Dodawanie generatora UUID z pseudolosowych liczb
- [SPARK-23759][Interfejs użytkownika] Nie można powiązać interfejsu użytkownika platformy Spark z określoną nazwą hosta/adresem IP
- [SPARK-23769][CORE] Usuń komentarze, które niepotrzebnie wyłączają sprawdzanie stylu scala
- [SPARK-23614][SQL] Naprawianie nieprawidłowego ponownego używania wymiany podczas buforowania
- [SPARK-23760][SQL] CodegenContext.withSubExprEliminationExprs powinien poprawnie zapisać/przywrócić stan CSE
- [SPARK-23729][CORE] Uwzględnianie fragmentu identyfikatora URI podczas rozpoznawania globów
- [SPARK-23550][CORE] Narzędzia oczyszczania
- [SPARK-23288][SS] Naprawianie metryk wyjściowych za pomocą ujścia parquet
- [SPARK-23264][SQL] Napraw scala. MatchError w literals.sql.out
- [SPARK-23649][SQL] Pomijanie znaków niedozwolonych w utF-8
- [SPARK-23691][PYTHON] Używanie narzędzia sql_conf w testach PySpark tam, gdzie to możliwe
- [SPARK-23644][CORE][Interfejs użytkownika] Używanie ścieżki bezwzględnej do wywołania REST w usłudze SHS
- [SPARK-23706][PYTHON] spark.conf.get(value, default=None) powinien wygenerować wartość None w PySpark
- [SPARK-23623][SS] Unikaj współbieżnego używania buforowanych użytkowników w pamięci podręcznej CachedKafkaConsumer
- [SPARK-23670][SQL] Naprawianie przecieku pamięci na platformie SparkPlanGraphWrapper
- [SPARK-23608][CORE][WEBUI] Dodawanie synchronizacji w usłudze SHS między funkcjami attachSparkUI i detachSparkUI w celu uniknięcia współbieżnego problemu z modyfikacjami w programie Jetty Handlers
- [SPARK-23671][CORE] Warunek naprawy, aby włączyć pulę wątków SHS.
- [SPARK-23658][LAUNCHER] InProcessAppHandle używa nieprawidłowej klasy w getLogger
- [SPARK-23642][DOCS] Podklasa akumulatorowaV2 isZero scaladoc fix
- [SPARK-22915][MLLIB] Testy przesyłania strumieniowego dla funkcji spark.ml., od N do Z
- [SPARK-23598][SQL] Udostępnij metody w publicznej lokalizacji BufferedRowIterator, aby uniknąć błędu środowiska uruchomieniowego dla dużego zapytania
- [SPARK-23546][SQL] Refaktoryzacja metod/wartości bezstanowych w kodzieGenContext
- [SPARK-23523][SQL] Naprawianie nieprawidłowego wyniku spowodowanego przez regułę OptimizeMetadataOnlyQuery
- [SPARK-23462][SQL] poprawić brakujący komunikat o błędzie pola w StructType
- [SPARK-23624][SQL] Poprawianie dokumentu metody pushFilters w źródle danych w wersji 2
- [SPARK-23173][SQL] Unikaj tworzenia uszkodzonych plików parquet podczas ładowania danych z formatu JSON
- [SPARK-23436][SQL] Wywnioskuj partycję jako datę tylko wtedy, gdy można ją rzutować na datę
- [SPARK-23406][SS] Włączanie samoobsługowych sprzężeń strumienia
- [SPARK-23490][SQL] Sprawdź identyfikator storage.locationUri z istniejącą tabelą w tabeli CreateTable
- [SPARK-23524]Duże lokalne bloki mieszania nie powinny być sprawdzane pod kątem uszkodzenia.
- [SPARK-23525][SQL] Obsługa ALTER TABLE CHANGE COLUMN COMMENT dla zewnętrznej tabeli Hive
- [SPARK-23434][SQL] Platforma Spark nie powinna ostrzegać katalogu metadanych dla ścieżki pliku HDFS
- [SPARK-23457][SQL] Rejestrowanie odbiorników uzupełniania zadań najpierw w pliku ParquetFileFormat
- [SPARK-23329][SQL] Poprawka dokumentacji funkcji trygonometrycznych
- [SPARK-23569][PYTHON] Zezwalaj pandas_udf na pracę z funkcjami z adnotacjami typu python3
- [SPARK-23570][SQL] Dodawanie platformy Spark 2.3.0 w programie HiveExternalCatalogVersionsSuite
- [SPARK-23517][PYTHON] Utwórz pyspark.util._exception_message utworzyć ślad ze strony języka Java przez Py4JavaError
- [SPARK-23508][CORE] Poprawka blockmanagerId w przypadku blockManagerIdCache przyczyna oom
- [SPARK-23448][SQL] Wyjaśnienie zachowania analizatora plików JSON i CSV w dokumencie
- [SPARK-23365][CORE] Nie dopasowuj funkcji wykonawczej liczby podczas zabijania bezczynnych funkcji wykonawczych.
- [SPARK-23438][DSTREAMS] Naprawianie utraty danych DStreams za pomocą pliku WAL w przypadku awarii sterownika
- [SPARK-23475][Interfejs użytkownika] Pokaż również pominięte etapy
- [SPARK-23518][SQL] Unikaj dostępu do magazynu metadanych, gdy użytkownicy chcą tylko odczytywać i zapisywać ramki danych
- [SPARK-23406][SS] Włączanie samoobsługowych sprzężeń strumienia
- [SPARK-23541][SS] Zezwalaj źródle platformy Kafka na odczytywanie danych z większą równoległością niż liczba partycji artykułu
- [SPARK-23097][SQL][SS] Migrowanie źródła gniazda tekstowego do wersji 2
- [SPARK-23362][SS] Migrowanie źródła mikrobatch platformy Kafka do wersji 2
- [SPARK-23445]Refaktoryzacja kolumny ColumnStat
- [SPARK-23092][SQL] Migrowanie strumienia pamięci do interfejsów API dataSourceV2
- [SPARK-23447][SQL] Oczyszczanie szablonu generowania kodu dla literału
- [SPARK-23366]Ulepszanie ścieżki odczytu na gorąco w funkcji ReadAheadInputStream
- [SPARK-22624][PYSPARK] Uwidacznianie mieszania partycjonowania zakresu
Aktualizacje konserwacji
Zobacz Aktualizacje konserwacji środowiska Databricks Runtime 4.1.
Środowisko systemu
- System operacyjny: Ubuntu 16.04.4 LTS
- Java: 1.8.0_162
- Scala: 2.11.8
- Python: 2.7.12 dla klastrów języka Python 2 i 3.5.2 dla klastrów języka Python 3.
- R: R w wersji 3.4.4 (2018-03-15)
-
Klastry procesora GPU: zainstalowane są następujące biblioteki procesora GPU FIRMY NVIDIA:
- Kierowca Tesla 375.66
- CUDA 9.0
- cuDNN 7.0
Zainstalowane biblioteki języka Python
| Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
|---|---|---|---|---|---|
| ansi2html | 1.1.1 | argparse (biblioteka do analizy argumentów w Pythonie) | 1.2.1 | backports-abc | 0,5 |
| boto | 2.42.0 | boto3 | 1.4.1 | botocore | 1.4.70 |
| brewer2mpl | 1.4.1 | certyfikat | 2016.2.28 | cffi | 1.7.0 |
| chardet | 2.3.0 | colorama | 0.3.7 | configobj | 5.0.6 |
| kryptografia | 1.5 | rowerzysta | 0.10.0 | Cython | 0.24.1 |
| dekorator | 4.0.10 | docutils | 0,14 | enum34 | 1.1.6 |
| et-xmlfile | 1.0.1 | freetype-py | 1.0.2 | funcsigs | 1.0.2 |
| fusepy | 2.0.4 | Futures | 3.2.0 | ggplot | 0.6.8 |
| html5lib | 0,999 | IDNA | 2.1 | ipaddress | 1.0.16 |
| ipython | 2.2.0 | ipython-genutils | 0.1.0 | jdcal | 1.2 |
| Jinja2 | 2.8 | jmespath | 0.9.0 | llvmlite | 0.13.0 |
| lxml jest biblioteką do analizy XML i HTML. | 3.6.4 | MarkupSafe | 0.23 | biblioteka matplotlib | 1.5.3 |
| mpld3 | 0,2 | msgpack-python | 0.4.7 | ndg-httpsclient | 0.3.3 |
| numba | 0.28.1 | numpy | 1.11.1 | openpyxl | 2.3.2 |
| Pandas | 0.19.2 | pathlib2 | 2.1.0 | Patsy | 0.4.1 |
| pexpect | 4.0.1 | pickleshare (jeśli to nazwa własna, nie trzeba tłumaczyć) | 0.7.4 | Poduszka | 3.3.1 |
| pip (menedżer pakietów Pythona) | 10.0.0b2 | warstwa | 3.9 | zestaw narzędzi prompt | 1.0.7 |
| psycopg2 | 2.6.2 | ptyprocess | 0.5.1 | py4j | 0.10.3 |
| pyarrow | 0.8.0 | pyasn1 | 0.1.9 | pycparser | 2.14 |
| Pygments | 2.1.3 | PyGObject | 3.20.0 | pyOpenSSL | 16.0.0 |
| pyparsing – biblioteka do przetwarzania tekstu w Pythonie | 2.2.0 | pypng | 0.0.18 | Python | 2.7.12 |
| python-dateutil (biblioteka Pythona do zarządzania datami) | 2.5.3 | python-geohash | 0.8.5 | pytz (biblioteka Pythona do obliczeń stref czasowych) | 1.6.2016 |
| żądania | 2.11.1 | s3transfer | 0.1.9 | scikit-learn | 0.18.1 |
| scipy (biblioteka naukowa dla Pythona) | 0.18.1 | Przeszukać | 0.32 | urodzony na morzu | 0.7.1 |
| setuptools | 39.0.1 | simplejson | 3.8.2 | simples3 | 1.0 |
| singledispatch (pojedyncze wywołanie) | 3.4.0.3 | Sześć | 1.10.0 | statsmodels - biblioteka do modelowania statystycznego | 0.6.1 |
| tornado | 5.0.1 | traitlety | 4.3.0 | urllib3 | 1.19.1 |
| virtualenv | 15.0.1 | szerokość(wcwidth) | 0.1.7 | wheel | 0.31.0 |
| wsgiref | 0.1.2 |
Zainstalowane biblioteki języka R
| Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
|---|---|---|---|---|---|
| abind | 1.4-5 | potwierdzić to | 0.2.0 | backports (backports) | 1.1.2 |
| baza | 3.4.4 | BH | 1.66.0-1 | bindr | 0.1.1 |
| bindrcpp | 0.2.2 | bitowe | 1.1-12 | bit-64 | 0.9-7 |
| bitops | 1.0-6 | blob | 1.1.1 | rozruch | 1.3-20 |
| warzyć | 1.0-6 | miotła | 0.4.4 | samochód | 3.0-0 |
| dane samochodu | 3.0-1 | karetka | 6.0-79 | cellranger | 1.1.0 |
| Chroń | 2.3-52 | klasa | 7.3-14 | CLI | 1.0.0 |
| klaster | 2.0.7 | codetools | 0,2-15 | przestrzeń kolorów | 1.3-2 |
| commonmark | 1.4 | kompilator | 3.4.4 | kredka | 1.3.4 |
| lok | 3.2 | Zakrzepica żył mózgowych (CVST) | 0.2-1 | tabela danych | 1.10.4-3 |
| usługi Power BI | 3.4.4 | DBI | 0,8 | ddalpha | 1.3.1.1 |
| DEoptimR | 1.0-8 | Desc | 1.1.1 | devtools | 1.13.5 |
| dichromata | 2.0-0 | skrót | 0.6.15 | dimRed | 0.1.0 |
| DoMC | 1.3.5 | dplyr | 0.7.4 | Odzyskiwanie po awarii | 0.0.3 |
| dla kotów | 0.3.0 | foreach | 1.4.4 | zagraniczny | 0.8-69 |
| Gbm | 2.1.3 | ggplot2 | 2.2.1 | git2r | 0.21.0 |
| glmnet | 2.0-16 | klej | 1.2.0 | Gower | 0.1.2 |
| grafika | 3.4.4 | grDevices | 3.4.4 | siatka | 3.4.4 |
| gsubfn | 0,7 | gtabela | 0.2.0 | H2O | 3.16.0.2 |
| przystań | 1.1.1 | Hms | 0.4.2 | httr | 1.3.1 |
| hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ipred | 0.9-6 |
| Iteratory | 1.0.9 | jsonlite | 1.5 | kernlab | 0.9-25 |
| KernSmooth | 2.23-15 | Etykietowania | 0,3 | krata | 0.20-35 |
| lawa | 1.6.1 | opóźnienie | 0.2.1 | mniejszy | 0.3.3 |
| lme4 | 1.1-17 | lubridate | 1.7.3 | magrittr | 1.5 |
| mapproj | 1.2.6 | Mapy | 3.3.0 | maptools | 0.9-2 |
| MASA | 7.3-49 | Macierz | 1.2-13 | MatrixModels | 0.4-1 |
| zapamiętywanie | 1.1.0 | metody | 3.4.4 | mgcv | 1.8-23 |
| mim | 0,5 | minqa | 1.2.4 | mnormt | 1.5-5 |
| Metryki modelu | 1.1.0 | munsell | 0.4.3 | mvtnorm | 1.0-7 |
| nlme | 3.1-137 | nloptr | 1.0.4 | sieć neuronowa (nnet) | 7.3-12 |
| numDeriv | 2016.8-1 | openssl | 1.0.1 | openxlsxx | 4.0.17 |
| równoległy | 3.4.4 | pbkrtest | 0.4-7 | filar | 1.2.1 |
| pkgconfig | 2.0.1 | pkgKitten | 0.1.4 | plogr | 0.2.0 |
| plyr | 1.8.4 | pochwała | 1.0.0 | prettyunits | 1.0.2 |
| Proc | 1.11.0 | prodlim | 1.6.1 | Proto | 1.0.0 |
| Psych | 1.8.3.3 | mruczenie | 0.2.4 | quantreg | 5.35 |
| R.methodsS3 | 1.7.1 | R.oo | 1.21.0 | R.utils | 2.6.0 |
| R6 | 2.2.2 | "randomForest" | 4.6-14 | RColorBrewer | 1.1-2 |
| Rcpp | 0.12.16 | RcppEigen | 0.3.3.4.0 | RcppRoll | 0.2.2 |
| RCurl | 1.95-4.10 | czytnik | 1.1.1 | readxl (biblioteka do odczytu plików Excel) | 1.0.0 |
| przepisy | 0.1.2 | rewanż | 1.0.1 | zmień kształt2 | 1.4.3 |
| Rio | 0.5.10 | rlang | 0.2.0 | robustbase | 0.92-8 |
| RODBC | 1.3-15 | roxygen2 | 6.0.1 | rpart | 4.1-13 |
| rprojroot | 1.3-2 | Rserve | 1.7-3 | RSQLite | 2.1.0 |
| rstudioapi | 0,7 | waga | 0.5.0 | sfsmisc | 1.1-2 |
| Sp | 1.2-7 | SparkR | 2.3.0 | Rozrzednia | 1.77 |
| przestrzenny | 7.3-11 | Splajnów | 3.4.4 | sqldf | 0.4-11 |
| KWADRAT | 2017.10-1 | statmod | 1.4.30 | Statystyki | 3.4.4 |
| statystyki4 | 3.4.4 | łańcuchy | 1.1.7 | stringr | 1.3.0 |
| przetrwanie | 2.41-3 | tcltk | 3.4.4 | NauczanieDemos | 2.10 |
| testthat | 2.0.0 | tibble | 1.4.2 | tidyr | 0.8.0 |
| tidyselect | 0.2.4 | czasData | 3043.102 | narzędzia | 3.4.4 |
| utf8 | 1.1.3 | narzędzia | 3.4.4 | viridisLite | 0.3.0 |
| wąs | 0.3-2 | Withr | 2.1.2 | xml2 | 1.2.0 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.11)
| Identyfikator grupy | Identyfikator artefaktu | Wersja |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Klient Amazon Kinesis | 1.7.3 |
| com.amazonaws | aws-java-sdk-automatyczne-skalowanie | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudhsm (zestaw narzędzi Java dla usługi CloudHSM) | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.11.313 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.313 |
| com.amazonaws | aws-java-sdk-codedeploy (biblioteka do zarządzania wdrażaniem kodu w AWS) | 1.11.313 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.313 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.11.313 |
| com.amazonaws | aws-java-sdk-config (konfiguracja aws-java-sdk) | 1.11.313 |
| com.amazonaws | aws-java-sdk-core | 1.11.313 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.11.313 |
| com.amazonaws | aws-java-sdk-directconnect (pakiet narzędzi programistycznych dla Java do współpracy z AWS Direct Connect) | 1.11.313 |
| com.amazonaws | aws-java-sdk-directory | 1.11.313 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.11.313 |
| com.amazonaws | aws-java-sdk-ec2 | 1.11.313 |
| com.amazonaws | aws-java-sdk-ecs | 1.11.313 |
| com.amazonaws | aws-java-sdk-efs | 1.11.313 |
| com.amazonaws | aws-java-sdk-elasticache | 1.11.313 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.313 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.313 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.313 |
| com.amazonaws | aws-java-sdk-emr (biblioteka SDK Java dla usługi Amazon EMR) | 1.11.313 |
| com.amazonaws | AWS Java SDK dla Glacier | 1.11.313 |
| com.amazonaws | aws-java-sdk-iam | 1.11.313 |
| com.amazonaws | AWS-Java-SDK-ImportExport | 1.11.313 |
| com.amazonaws | AWS SDK dla Javy - Kinesis | 1.11.313 |
| com.amazonaws | aws-java-sdk-kms | 1.11.313 |
| com.amazonaws | aws-java-sdk-lambda | 1.11.313 |
| com.amazonaws | aws-java-sdk-logs | 1.11.313 |
| com.amazonaws | aws-java-sdk-uczenie-maszynowe | 1.11.313 |
| com.amazonaws | aws-java-sdk-opsworks | 1.11.313 |
| com.amazonaws | aws-java-sdk-rds (pakiet programistyczny Java dla AWS RDS) | 1.11.313 |
| com.amazonaws | aws-java-sdk-redshift | 1.11.313 |
| com.amazonaws | aws-java-sdk-route53 | 1.11.313 |
| com.amazonaws | aws-java-sdk-s3 | 1.11.313 |
| com.amazonaws | aws-java-sdk-ses | 1.11.313 |
| com.amazonaws | aws-java-sdk-simpledb | 1.11.313 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.313 |
| com.amazonaws | aws-java-sdk-sns | 1.11.313 |
| com.amazonaws | aws-java-sdk-sqs | 1.11.313 |
| com.amazonaws | aws-java-sdk-ssm | 1.11.313 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.11.313 |
| com.amazonaws | aws-java-sdk-sts (pakiet programistyczny Java dla AWS STS) | 1.11.313 |
| com.amazonaws | wsparcie dla aws-java-sdk | 1.11.313 |
| com.amazonaws | aws-java-sdk-biblioteka-biblioteka | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.11.313 |
| com.amazonaws | jmespath-java | 1.11.313 |
| com.carrotsearch | hppc | 0.7.2 |
| com.chuusai | shapeless_2.11 | 2.3.2 |
| com.clearspring.analytics | odtwarzać strumieniowo | 2.7.0 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | dbml-local_2.11 | 0.4.1-db1-spark2.3 |
| com.databricks | dbml-local_2.11-tests | 0.4.1-db1-spark2.3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | kompilatorwtyczka_2.11 | 0.4.15-9 |
| com.databricks.scalapb | scalapb-runtime_2.11 | 0.4.15-9 |
| com.esotericsoftware | kryo-cieniowane | 3.0.3 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | kolega z klasy | 1.0.0 |
| com.fasterxml.jackson.core | adnotacje jackson | 2.6.7 |
| com.fasterxml.jackson.core | jackson-core | 2.6.7 |
| com.fasterxml.jackson.core | jackson-databind | 2.6.7.1 |
| com.fasterxml.jackson.dataformat | Jackson-format-danych-CBOR | 2.6.7 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.6.7 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.6.7 |
| com.fasterxml.jackson.module | jackson-module-scala_2.11 | 2.6.7.1 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | rdzeń | 1.1.2 |
| com.github.fommil.netlib | natywne_odniesienie-java | 1.1 |
| com.github.fommil.netlib | native_ref-java-natives | 1.1 |
| com.github.fommil.netlib | native_system java | 1.1 |
| com.github.fommil.netlib | system natywny-java-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
| com.github.fommil.netlib | "netlib-native_system-linux-x86_64-natives" | 1.1 |
| com.github.luben | zstd-jni | 1.3.2-2 |
| com.github.rwl | jtransforms | 2.4.0 |
| com.google.code.findbugs | jsr305 | 2.0.1 |
| com.google.code.gson | gson | 2.2.4 |
| com.google.guava | guawa | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.googlecode.javaewah | JavaEWAH | 0.3.2 |
| com.h2database | h2 | 1.3.174 |
| com.jamesmurty.utils | java-xmlbuilder | 1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | bonecp | 0.8.0.WYDANIE |
| com.mchange | c3p0 | 0.9.5.1 |
| com.mchange | mchange-commons-java | 0.2.10 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK do przechowywania danych Azure Data Lake) | 2.2.8 |
| com.microsoft.sqlserver | mssql-jdbc | 6.2.2.jre8 |
| com.ning | compress-lzf (biblioteka do kompresji danych) | 1.0.3 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | lenses_2.11 | 0,3 |
| com.twitter | chill-java | 0.8.4 |
| com.twitter | relaks_2.11 | 0.8.4 |
| com.twitter | pakiet parquet-hadoop | 1.6.0 |
| com.twitter | util-app_2.11 | 6.23.0 |
| com.twitter | util-core_2.11 | 6.23.0 |
| com.twitter | util-jvm_2.11 | 6.23.0 |
| com.typesafe | konfig | 1.2.1 |
| com.typesafe.scala-logging | scala-logging-api_2.11 | 2.1.2 |
| com.typesafe.scala-logging | scala-logging-slf4j_2.11 | 2.1.2 |
| com.univocity | parsery jednowołciowości | 2.5.9 |
| com.vlkan | flatbuffers | 1.2.0-3f79e055 |
| com.zaxxer | HikariCP | 2.4.1 |
| commons-beanutils | commons-beanutils | 1.7.0 |
| commons-beanutils | commons-beanutils-core | 1.8.0 |
| commons-cli | commons-cli | 1.2 |
| commons-codec | commons-codec | 1.10 |
| Zbiory Commons | Zbiory Commons | 3.2.2 |
| commons-configuration | commons-configuration | 1.6 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-digester | commons-digester | 1.8 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2,4 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-net | commons-net | 2,2 |
| commons-pool | commons-pool | 1.5.4 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.7 |
| io.airlift | kompresor powietrza | 0,8 |
| io.dropwizard.metrics | metryki —rdzeń | 3.1.5 |
| io.dropwizard.metrics | metrics-ganglia | 3.1.5 |
| io.dropwizard.metrics | metrics-graphite | 3.1.5 |
| io.dropwizard.metrics | wskaźniki-kontrole zdrowia | 3.1.5 |
| io.dropwizard.metrics | metrics-jetty9 | 3.1.5 |
| io.dropwizard.metrics | metryki w formacie JSON | 3.1.5 |
| io.dropwizard.metrics | metryki-JVM | 3.1.5 |
| io.dropwizard.metrics | metrics-log4j | 3.1.5 |
| io.dropwizard.metrics | serwlety metrics-servlets | 3.1.5 |
| io.netty | Netty | 3.9.9.Final |
| io.netty | netty-all | 4.1.17.Final |
| io.prometheus | simpleclient | 0.0.16 |
| io.prometheus | simpleclient_common | 0.0.16 |
| io.prometheus | simpleclient_dropwizard | 0.0.16 |
| io.prometheus | simpleclient_servlet | 0.0.16 |
| io.prometheus.jmx | moduł zbierający | 0,7 |
| javax.activation | aktywacja | 1.1.1 |
| javax.annotation | javax.annotation-api | 1.2 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.servlet | javax.servlet-api | 3.1.0 |
| javax.servlet.jsp | jsp-api | 2.1 |
| javax.transaction | jta | 1.1 |
| javax.validation | validation-api | 1.1.0.Final |
| javax.ws.rs | javax.ws.rs-api | 2.0.1 |
| javax.xml.bind | jaxb-api | 2.2.2 |
| javax.xml.stream | stax-api | 1.0-2 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2,11 |
| joda-time | joda-time | 2.9.3 |
| log4j | apache-log4j-extras | 1.2.17 |
| log4j | log4j | 1.2.17 |
| net.hydromatic | eigenbase-properties | 1.1.5 |
| net.iharder | base64 | 2.3.8 |
| net.java.dev.jets3t | jets3t | 0.9.4 |
| net.razorvine | pirolit | 4.13 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt | oncrpc | 1.0.7 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.4 |
| org.antlr | antlr4-runtime | 4.7 |
| org.antlr | Szablon łańcucha | 3.2.1 |
| org.apache.ant | tat | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | program uruchamiający Ant | 1.9.2 |
| org.apache.arrow | format strzałki | 0.8.0 |
| org.apache.arrow | strzałka w pamięci | 0.8.0 |
| org.apache.arrow | wektor strzałki | 0.8.0 |
| org.apache.avro | avro | 1.7.7 |
| org.apache.avro | avro-ipc | 1.7.7 |
| org.apache.avro | avro-ipc-tests | 1.7.7 |
| org.apache.avro | avro-mapred-hadoop2 | 1.7.7 |
| org.apache.calcite | calcite-avatica | 1.2.0 inkubacja |
| org.apache.calcite | rdzeń kalcytowy | 1.2.0 inkubacja |
| org.apache.calcite | calcite-linq4j | 1.2.0 inkubacja |
| org.apache.commons | commons-compress | 1.4.1 |
| org.apache.commons | commons-crypto | 1.0.0 |
| org.apache.commons | commons-lang3 | 3.5 |
| org.apache.commons | commons-math3 | 3.4.1 |
| org.apache.curator | kurator-klient | 2.7.1 |
| org.apache.curator | struktura kuratora | 2.7.1 |
| org.apache.curator | przepisy kuratora | 2.7.1 |
| org.apache.derby | Derby | 10.12.1.1 |
| org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
| org.apache.directory.api | api-util | 1.0.0-M20 |
| org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
| org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
| org.apache.hadoop | adnotacje hadoop | 2.7.3 |
| org.apache.hadoop | hadoop-auth | 2.7.3 |
| org.apache.hadoop | hadoop-klient | 2.7.3 |
| org.apache.hadoop | hadoop-common | 2.7.3 |
| org.apache.hadoop | Hadoop-HDFS (Hadoop Distributed File System) | 2.7.3 |
| org.apache.hadoop | Klient aplikacji Hadoop MapReduce | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.3 |
| org.apache.hadoop | hadoop-mapreduce-client-shuffle (moduł mieszający klienta w Hadoop MapReduce) | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-api | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-client (klient Hadoop YARN) | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-common | 2.7.3 |
| org.apache.hadoop | hadoop-yarn-server-common (Wspólne komponenty serwera Hadoop YARN) | 2.7.3 |
| org.apache.htrace | htrace-core | 3.1.0 inkubacja |
| org.apache.httpcomponents | httpclient | 4.5.4 |
| org.apache.httpcomponents | httpcore | 4.4.8 |
| org.apache.ivy | bluszcz | 2.4.0 |
| org.apache.orc | orc-core-nohive | 1.4.1 |
| org.apache.orc | orc-mapreduce-nohive | 1.4.1 |
| org.apache.parquet | parquet-kolumna | 1.8.2-databricks1 |
| org.apache.parquet | parquet-wspólny | 1.8.2-databricks1 |
| org.apache.parquet | kodowanie parquet | 1.8.2-databricks1 |
| org.apache.parquet | format parquet | 2.3.1 |
| org.apache.parquet | Parquet-Hadoop (framework do analizy danych) | 1.8.2-databricks1 |
| org.apache.parquet | parquet-jackson | 1.8.2-databricks1 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.9.3 |
| org.apache.xbean | xbean-asm5-cieniowany | 4.4 |
| org.apache.zookeeper - system do zarządzania konfiguracją i synchronizacją dla aplikacji rozproszonych. | opiekun zoo | 3.4.6 |
| org.bouncycastle | bcprov-jdk15on | 1.58 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
| org.codehaus.jackson | jackson-mapujący-ASL | 1.9.13 |
| org.codehaus.jackson | jackson-xc | 1.9.13 |
| org.codehaus.janino | commons-kompilator | 3.0.8 |
| org.codehaus.janino | Janino | 3.0.8 |
| org.datanucleus | datanucleus-api-jdo | 3.2.6 |
| org.datanucleus | datanucleus-core | 3.2.10 |
| org.datanucleus | datanucleus-rdbms | 3.2.9 |
| org.eclipse.jetty | jetty-client | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-kontynuacja | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-http | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-io | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-jndi | 9.3.20.v20170531 |
| org.eclipse.jetty | Jetty-plus | 9.3.20.v20170531 |
| org.eclipse.jetty | serwer pośredniczący Jetty | 9.3.20.v20170531 |
| org.eclipse.jetty | moduł bezpieczeństwa Jetty | 9.3.20.v20170531 |
| org.eclipse.jetty | serwer aplikacji Jetty | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-servlet | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-servlets | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-util | 9.3.20.v20170531 |
| org.eclipse.jetty | Jetty-aplikacja internetowa | 9.3.20.v20170531 |
| org.eclipse.jetty | jetty-xml | 9.3.20.v20170531 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.4.0-b34 |
| org.glassfish.hk2 | lokalizator hk2 | 2.4.0-b34 |
| org.glassfish.hk2 | hk2-utils | 2.4.0-b34 |
| org.glassfish.hk2 | osgi-lokalizator-zasobów | 1.0.1 |
| org.glassfish.hk2.external | aopalliance-zapakowane ponownie | 2.4.0-b34 |
| org.glassfish.hk2.external | javax.inject (pakiet w języku Java) | 2.4.0-b34 |
| org.glassfish.jersey.bundles.repackaged | jersey-guawa | 2.22.2 |
| org.glassfish.jersey.containers | serwlet kontenerowy Jersey | 2.22.2 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.22.2 |
| org.glassfish.jersey.core | jersey-client | 2.22.2 |
| org.glassfish.jersey.core | dzianina-zwykła | 2.22.2 |
| org.glassfish.jersey.core | serwer jersey | 2.22.2 |
| org.glassfish.jersey.media | - "jersey-media-jaxb" не wymaga tłumaczenia, gdyż jest to nazwa techniczna, ale dla polskich odbiorców warto dodać opis lub kontynuować bez zmian, jeżeli nazwa już jako taka przyjęła się w lokalnym użyciu. | 2.22.2 |
| org.hibernate | moduł sprawdzania poprawności hibernacji | 5.1.1.Ostateczna |
| org.iq80.snappy | Żwawy | 0,2 |
| org.javassist | javassist | 3.18.1-GA |
| org.jboss.logging | jboss-logging (narzędzie do rejestrowania zdarzeń w JBoss) | 3.1.3.GA |
| org.jdbi | jdbi | 2.63.1 |
| org.joda | joda-convert | 1,7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.11 | 3.2.11 |
| org.json4s | json4s-core_2.11 | 3.2.11 |
| org.json4s | json4s-jackson_2.11 | 3.2.11 |
| org.lz4 | lz4-java | 1.4.0 |
| org.mariadb.jdbc | mariadb-java-client | 2.1.2 |
| org.mockito | mockito-all | 1.9.5 |
| org.objenesis | objenesis | 2.1 |
| org.postgresql | postgresql | 42.1.4 |
| org.roaringbitmap | RoaringBitmap | 0.5.11 |
| org.rocksdb | rocksdbjni | 5.2.1 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.11 | 2.11.8 |
| org.scala-lang | scala-library_2.11 | 2.11.8 |
| org.scala-lang | scala-reflect_2.11 | 2.11.8 |
| org.scala-lang | scalap_2.11 | 2.11.8 |
| org.scala-lang.modules | scala-parser-combinators_2.11 | 1.0.2 |
| org.scala-lang.modules | scala-xml_2.11 | 1.0.5 |
| org.scala-sbt | interfejs testowy | 1.0 |
| org.scalacheck | scalacheck_2.11 | 1.12.5 |
| org.scalanlp | breeze-macros_2.11 | 0.13.2 |
| org.scalanlp | breeze_2.11 | 0.13.2 |
| org.scalatest | scalatest_2.11 | 2.2.6 |
| org.slf4j | jcl-over-slf4j | 1.7.16 |
| org.slf4j | jul-to-slf4j | 1.7.16 |
| org.slf4j | slf4j-api | 1.7.16 |
| org.slf4j | slf4j-log4j12 | 1.7.16 |
| org.spark-project.hive | hive-beeline (narzędzie do interakcji z bazą danych Hive) | 1.2.1.spark2 |
| org.spark-project.hive | hive-cli | 1.2.1.spark2 |
| org.spark-project.hive | hive-exec | 1.2.1.spark2 |
| org.spark-project.hive | hive-jdbc | 1.2.1.spark2 |
| org.spark-project.hive | magazyn metadanych Hive | 1.2.1.spark2 |
| org.spark-project.spark.spark | Nieużywane | 1.0.0 |
| org.spire-math | spire-macros_2.11 | 0.13.0 |
| org.spire-math | spire_2.11 | 0.13.0 |
| org.springframework | spring-core (podstawowy moduł Spring) | 4.1.4.WYDANIE |
| org.springframework | test sprężynowy | 4.1.4.WYDANIE |
| org.tukaani | xz | 1.0 |
| org.typelevel | mechanik_2.11 | 0.6.1 |
| org.typelevel | macro-compat_2.11 | 1.1.1 |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.2.6 |
| org.yaml | snakeyaml | 1.16 |
| oro | oro | 2.0.8 |
| oprogramowanie.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |
| xmlenc (standard szyfrowania XML) | xmlenc (standard szyfrowania XML) | 0.52 |