Nuta
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować się zalogować lub zmienić katalog.
Dostęp do tej strony wymaga autoryzacji. Możesz spróbować zmienić katalogi.
Uwaga
Obsługa tej wersji środowiska Databricks Runtime została zakończona. Aby uzyskać datę zakończenia pomocy technicznej, zobacz Historia zakończenia pomocy technicznej. Wszystkie obsługiwane wersje środowiska Databricks Runtime można znaleźć w temacie Databricks Runtime release notes versions and compatibility (Wersje i zgodność środowiska Databricks Runtime).
Poniższe informacje o wersji zawierają informacje o środowiskach Databricks Runtime 9.0 i Databricks Runtime 9.0 Photon obsługiwanych przez platformę Apache Spark 3.1.2. Usługa Databricks wydała tę wersję w sierpniu 2021 r. Photon jest w publicznej wersji zapoznawczej.
Korekta
Poprzednia wersja tych informacji o wersji niepoprawnie stwierdziła, że zależności Apache Parquet zostały uaktualnione z wersji 1.10 do 1.12. W rzeczywistości zależności Parquet pozostają w wersji 1.10. Usunięto nieprawidłową notatkę o wersji.
Nowe funkcje i ulepszenia
- Nowy interfejs API do podsumowania statystyk zestawów danych (publiczna wersja zapoznawcza)
- Łatwiejsza konfiguracja zewnętrznego źródła danych dla łącznika usługi Azure Synapse
- Opcjonalnie ogranicz sesję do określonego czasu trwania łącznika Amazon Redshift
- Moduł ładujący automatycznie
- SQL
- Obsługa języka R
- Unikaj ponownego tworzenia, określając stan początkowy przetwarzania stanowego przesyłania strumieniowego ze strukturą
- Implementacja z niskim przetasowaniem komendy Delta MERGE INTO jest teraz dostępna (publiczna wersja zapoznawcza)
Nowy interfejs API do podsumowania statystyk zestawów danych (publiczna wersja zapoznawcza)
Nowe dbutils.data.summarize polecenie w narzędziu Databricks Utilities umożliwia uruchomienie zadania platformy Spark, które automatycznie oblicza statystyki podsumowania kolumn ramki danych platformy Spark, a następnie wyświetla wyniki interaktywnie. Ta funkcja jest dostępna w języku Scala i Python. Zobacz Narzędzie danych (dbutils.data).
Łatwiejsza konfiguracja zewnętrznego źródła danych dla łącznika usługi Azure Synapse
Nowa opcja externalDataSource w łączniku "Wykonywanie zapytań w Azure Synapse Analytics" umożliwia użycie wstępnie aprowizowanego zewnętrznego źródła danych do odczytu z bazy danych Azure Synapse. Opcja externalDataSource usuwa potrzebę wcześniejszego wymaganego CONTROL uprawnienia.
W przypadku ustawienia externalDataSource, zewnętrzne źródło danych i opcja tempDir używana do konfigurowania magazynu tymczasowego muszą odwoływać się do tego samego kontenera w koncie magazynowym.
Opcjonalnie ogranicz sesję do określonego czasu trwania łącznika Amazon Redshift
Nowa fs.s3a.assumed.role.session.duration opcja w łączniku Tworzenie zapytań w Amazon Redshift przy użyciu Azure Databricks pozwala na opcjonalne ustawienie czasu trwania sesji, gdy Redshift uzyskuje dostęp do tymczasowego zasobnika S3 z przyjętą rolą.
Automatyczny ładowacz
- Zoptymalizowana lista plików
- Zoptymalizowany magazyn danych obrazów
- Miniatury obrazów dla plików binarnych (publiczna wersja zapoznawcza)
-
DirectoryRenamezdarzenia umożliwiają atomowe przetwarzanie wielu plików
Zoptymalizowana lista plików
Optymalizacje automatycznego modułu ładującego zapewniają ulepszenia wydajności i oszczędności kosztów podczas wyświetlania katalogów zagnieżdżonych w magazynie w chmurze, w tym AWS S3, Azure Data Lake Storage (ADLS) i Google Cloud Storage (GCS).
Jeśli na przykład pliki byłyby przekazywane jako /some/path/YYYY/MM/DD/HH/fileName, aby znaleźć wszystkie pliki w tych katalogach, Auto Loader przeprowadzał równoległe przeszukiwanie wszystkich podkatalogów, powodując 365 (dziennie) * 24 (na godzinę) = 8760 LIST wywołań interfejsu API do bazowego magazynu dla każdego katalogu rocznego. Po otrzymaniu spłaszczonej odpowiedzi z tych systemów przechowywania, Auto Loader zmniejsza liczbę wywołań interfejsu API do ilości plików w systemie podzielonych przez liczbę wyników zwracanych przez każde wywołanie interfejsu API (1000 dla S3, 5000 dla ADLS i 1024 dla GCS), znacznie zmniejszając koszty chmury.
Zoptymalizowany magazyn danych obrazów
Auto Loader może teraz automatycznie wykrywać dane obrazów, które są pozyskiwane, i optymalizować ich przechowywanie w tabelach Delta w celu zwiększenia wydajności odczytu i zapisu. Zobacz Wprowadzanie obrazów lub danych binarnych do Delta Lake na potrzeby uczenia maszynowego.
Miniatury obrazów dla plików binarnych (publiczna wersja zapoznawcza)
Obrazy w formacie binaryFile załadowanym lub zapisanym jako Tabele Delty przy użyciu Auto Loader mają dołączone adnotacje, dzięki czemu miniatury obrazu są wyświetlane podczas wyświetlania tabeli w notesie usługi Azure Databricks. Aby uzyskać więcej informacji, zobacz Obrazy.
DirectoryRename zdarzenia umożliwiają niepodzielne przetwarzanie wielu plików
Strumienie automatycznego ładowacza utworzone w ramach Databricks Runtime 9.0 lub nowszym w usłudze Azure Data Lake Storage konfigurują powiadomienia o zdarzeniach plików, aby uwzględniać zmiany nazw katalogów oraz nasłuchiwać RenameDirectory zdarzeń. Możesz użyć zmiany nazw katalogów, aby wiele plików było widocznych jednocześnie i atomowo w Auto Loader.
SQL
-
Wykluczanie kolumn w programie
SELECT *(publiczna wersja zapoznawcza) - Funkcje skalarne SQL (publiczna wersja zapoznawcza)
-
Odwołanie do powyższych aliasów i kolumn w
FROMpodzapytaniach (publiczna wersja zapoznawcza)
Wykluczanie kolumn w programie SELECT * (publiczna wersja zapoznawcza)
SELECT * obsługuje teraz słowo kluczowe EXCEPT, które pozwala wykluczyć określone kolumny najwyższego poziomu z rozwijania. Na przykład SELECT * EXCEPT (b) FROM tbl z tabeli ze schematem (a, b, c) rozwija się do (a, c).
Funkcje skalarne SQL (publiczna wersja zapoznawcza)
CREATE FUNCTION teraz obsługuje funkcje skalarne SQL. Można tworzyć funkcje skalarne, które przyjmują zestaw argumentów i zwracają pojedynczą wartość typu skalarnego. Treść funkcji SQL może być dowolnym wyrażeniem. Na przykład:
CREATE FUNCTION square(x DOUBLE) RETURNS DOUBLE RETURN x * x;
SELECT square(2);
Aby uzyskać szczegółowe informacje, zobacz CREATE FUNCTION (SQL i Python).
Odwołanie do wcześniejszych aliasów i kolumn w FROM podzapytaniach (wersja zapoznawcza)
Podzapytania w FROM klauzuli zapytania mogą być teraz poprzedzone LATERAL słowem kluczowym, które umożliwia im odwoływanie się do aliasów i kolumn w poprzednich FROM elementach. Na przykład:
SELECT * FROM t1, LATERAL (SELECT * FROM t2 WHERE t1.c1 = t2.c1)
Słowo kluczowe LATERAL obsługuje INNER, CROSS i LEFT (OUTER) JOIN.
Obsługa języka R
Biblioteki R o zasięgu notesu (wersja przeznaczona do testów)
Biblioteki przypisane do notesu umożliwiają instalowanie bibliotek i tworzenie środowiska na potrzeby sesji notesu. Te biblioteki nie mają wpływu na inne notesy uruchomione w tym samym klastrze. Biblioteki są dostępne zarówno w węzłach sterownika, jak i procesu roboczego, dzięki czemu można odwoływać się do nich w funkcjach zdefiniowanych przez użytkownika. Zobacz Biblioteki języka R o zakresie notesu.
Komunikaty ostrzegawcze w notesach języka R
Domyślna wartość opcji warn jest teraz ustawiona na 1 wewnątrz zeszytów R. W rezultacie wszystkie ostrzeżenia są teraz widoczne jako część wyniku polecenia. Aby dowiedzieć się więcej na temat warn opcji, zobacz Ustawienia opcji.
Unikaj wykonywania na nowo, określając stan początkowy przetwarzania stanowego przesyłania strumieniowego z użyciem struktur
Teraz można określić stan początkowy zdefiniowany przez użytkownika na potrzeby strukturalnego przesyłania strumieniowego przetwarzania stanowego przy użyciu operatora [flat]MapGroupsWithState.
Zobacz Określanie stanu początkowego dla elementu mapGroupsWithState.
Implementacja komendy Delta MERGE INTO z niskim przetasowaniem jest teraz dostępna (wersja przedpremierowa)
Polecenie delty MERGE INTO ma dostępną nową implementację, co zmniejsza przetasowanie niezmodyfikowanych wierszy. Poprawia to wydajność polecenia i pomaga zachować istniejące klastrowanie w tabeli, takie jak porządkowanie Z. Aby włączyć nisko shuffle scalanie, ustaw wartość spark.databricks.delta.merge.enableLowShuffle na true. Zobacz Scalanie z niskim przełączaniem na platformie Azure Databricks.
Poprawki błędów
- Nie można już zastąpić widoku, tworząc widok o tej samej nazwie.
Uaktualnienia biblioteki
- Uaktualnione biblioteki języka Python:
- certifi od 2021.5.30 do 2020.12.5
- chardet od 3.0.4 do 4.0.0
- Cython z 0.29.21 do 0.29.23
- aktualizacja dekoratora z wersji 4.4.2 do 5.0.6
- ipython z 7.19.0 do 7.22.0
- joblib z 0.17.0 do 1.0.1
- klient jupyter-client z wersji 6.1.7 do 6.1.12
- Jupyter-core z wersji 4.6.3 do 4.7.1
- kiwisolver z 1.3.0 do 1.3.1
- matplotlib z wersji 3.2.2 do 3.4.2
- pandas z wersji 1.1.5 do 1.2.4
- pip od 20.2.4 do 21.0.1
- prompt-toolkit z wersji 3.0.8 do 3.0.17
- protobuf z 3.17.3 do 3.17.2
- ptyprocess z 0.6.0 do 0.7.0
- pyarrow z 1.0.1 do 4.0.0
- Pygments, wersja od 2.7.2 do 2.8.1
- pyzmq z 19.0.2 do 20.0.0
- żądania z wersji 2.24.0 do 2.25.1
- s3transfer z 0.3.6 do 0.3.7
- scikit-learn z wersji 0.23.2 do 0.24.1
- scipy z 1.5.2 do 1.6.2
- seaborn od 0.10.0 do 0.11.1
- setuptools z 50.3.1 do 52.0.0
- statsmodels z 0.12.0 do 0.12.2
- tornado z 6.0.4 do 6.1
- virtualenv z wersji 20.2.1 do 20.4.1
- od 0.35.1 do 0.36.2
- Uaktualnione biblioteki języka R:
- Macierz z zakresu od 1.3 do 1.3-4
Apache Spark
Środowisko Databricks Runtime 9.0 obejmuje platformę Apache Spark 3.1.2. Ta wersja zawiera wszystkie poprawki i ulepszenia platformy Spark zawarte w środowisku Databricks Runtime 8.4 (EoS), a także następujące dodatkowe poprawki błędów i ulepszenia wprowadzone na platformie Spark:
- [SPARK-35886] [SQL][3.1] PromotePrecision nie powinno nadpisywać genCode. PromotePrecision nie powinno nadpisywać genCode.
- [SPARK-35879] [ CORE][shuffle] Naprawiono regresję wydajności spowodowaną przez collectFetchRequests
- [SPARK-35817] [SQL][3.1] Przywróć wydajność zapytań dla szerokich tabel Avro
- [SPARK-35841] [ SQL] Rzutowanie ciągu na typ dziesiętny nie działa, jeśli...
- [SPARK-35783] [SQL] Ustaw listę kolumn odczytu w konfiguracji zadania, aby zmniejszyć odczyt danych ORC
- [SPARK-35576] [SQL][3.1] Ukryj poufne informacje w wyniku polecenia Set
- [SPARK-35449] [SQL][3.1] Wyodrębnij tylko typowe wyrażenia z wartości CaseWhen, jeśli parametr elseValue został ustawiony
- [SPARK-35288] [SQL] Funkcja StaticInvoke powinna znaleźć metodę bez dokładnego dopasowania klas argumentów
- [SPARK-34794] [SQL] Rozwiązywanie problemów z nazwą zmiennej lambda w funkcjach zagnieżdżonych ramek danych
- [SPARK-35278] [SQL] Wywołanie powinno znaleźć metodę z poprawną liczbą parametrów
- [SPARK-35226] [SQL] Obsługa opcji refreshKrb5Config w źródłach danych JDBC
- [SPARK-35244] [SQL] Wywołanie powinno zgłaszać oryginalny wyjątek
- [SPARK-35213] [SQL] Zachowaj poprawną kolejność zagnieżdżonych struktur w operacjach połączonych w łańcuchu z użyciem withField.
- [SPARK-35087] [Interfejs użytkownika] Niektóre kolumny w tabeli Zagregowane metryki według wykonawcy na stronie szczegółów etapu wyświetlają się niepoprawnie.
- [SPARK-35168] [SQL] mapred.reduce.tasks powinien być shuffle.partitions, a nie adaptive.coalescePartitions.initialPartitionNum
- [SPARK-35127] [Interfejs użytkownika] Gdy przełączamy się między różnymi stronami szczegółów etapu, element wpisu na nowo otwartej stronie może być pusty
-
[SPARK-35142] [ PYTHON][ml] Poprawiono niepoprawny typ zwracany dla elementu
rawPredictionUDFwOneVsRestModel - [SPARK-35096] [SQL] SchematPruning powinien być zgodny z konfiguracją spark.sql.caseSensitive
- [SPARK-34639] [SQL][3.1] RelalGroupedDataset.alias nie powinien tworzyć unresolvedAlias
- [SPARK-35080] [SQL] Zezwalaj tylko na podzestaw skorelowanych predykatów równości, gdy podzapytywanie jest agregowane
- [SPARK-35117] [Interfejs użytkownika] Zmień pasek postępu z powrotem, aby wyróżnić współczynnik zadań w toku
- [SPARK-35136] Usuń początkową wartość null LiveStage.info
- [SPARK-34834] [NETWORK] Naprawa potencjalnego wycieku pamięci Netty w programie TransportResponseHandler
- [SPARK-35045] [SQL] Dodawanie opcji wewnętrznej w celu kontrolowania buforu wejściowego w jednowołości
- [SPARK-35014] Naprawiono wzorzec physicalAggregation, aby nie przepisać wyrażeń składanych
- [SPARK-35019] [ PYTHON][sql] Wskazówki dotyczące błędów typów poprawek w pyspark.sql.*
- [SPARK-34926] [SQL][3.1] PartitioningUtils.getPathFragment() powinna uwzględniać, że wartość partycji jest null
- [SPARK-34630] [PYTHON] Dodaj typehint dla pyspark.version
- [SPARK-34963] [SQL] Naprawiono zagnieżdżone oczyszczanie kolumn w celu wyodrębnienia pola struktury bez uwzględniania wielkości liter z tablicy struktury
- [SPARK-34988] [CORE][3.1] Uaktualnianie rozwiązania Jetty dla CVE-2021-28165
- [SPARK-34922] [SQL][3.1] Użyj funkcji porównywania kosztów względnych w CBO
- [SPARK-34970] [SQL][security][3.1] Utajnij opcje typu mapy w wynikach funkcji explain()
- [SPARK-34923] [SQL] Dane wyjściowe metadanych powinny być puste dla większej liczby planów
- [SPARK-34949] [CORE] Zapobiegaj ponownemu rejestrowaniu BlockManagera podczas zamykania się Executora
- [SPARK-34939] [CORE] Zgłaszanie wyjątku niepowodzenia pobierania, gdy nie można wykonać deserializacji rozgłaszanych stanów map
- [SPARK-34909] [SQL] Naprawa konwersji ujemnych liczb na bezznakowe w funkcji conv()
- [SPARK-34845] [ CORE] ProcfsMetricsGetter nie powinien zwracać niepełnych metryk procfs
- [SPARK-34814] [SQL] LikeSimplification powinna obsługiwać wartość NULL
- [SPARK-34876] [SQL] Wypełnij wartość defaultResult agregacji niezwiązanych z wartościami null
- [SPARK-34829] [SQL] Poprawianie wyników funkcji wyższej kolejności
- [SPARK-34840] [SHUFFLE] Naprawia przypadki uszkodzenia w scalonych operacjach mieszania ...
- [SPARK-34833] [SQL] Poprawnie zastosuj dopasowanie do prawej strony dla skorelowanych podzapytań
- [SPARK-34630] [ PYTHON][sql] Dodano parametr typehint dla pyspark.sql.Column.contains
- [SPARK-34763] [SQL] col(), $"name" i df("name") powinny prawidłowo obsługiwać cytowane nazwy kolumn
- [SPARK-33482][SPARK-34756] [SQL] Poprawka sprawdzania równości FileScan
- [SPARK-34790] [CORE] Wyłącz pobieranie bloków mieszania w partii po włączeniu szyfrowania we/wy
- [SPARK-34803] [PYSPARK] Przekaż zgłoszony błąd ImportError, jeśli nie można zaimportować biblioteki pandas lub pyarrow
- [SPARK-34225] [CORE] Nie koduj dalej, gdy ciąg URI w formacie 'URI form string' jest przekazywany do funkcji addFile lub addJar
- [SPARK-34811] [CORE] Redaguj fs.s3a.access.key podobnie jak tajny klucz i token
- [SPARK-34796] [SQL][3.1] Inicjowanie zmiennej licznika dla LIMIT code-gen w doProduce()
- [SPARK-34128] [SQL] Pomijanie niepożądanych ostrzeżeń TTransportException związanych z THRIFT-4805
- [SPARK-34776] [SQL] Zagnieżdżone oczyszczanie kolumn nie powinno przycinać atrybutów wygenerowanych przez okno
- [SPARK-34087] [3.1][sql] Naprawa przecieku pamięci w ExecutionListenerBus
- [SPARK-34772] [SQL] RebaseDateTime loadRebaseRecords powinna używać modułu ładującego Spark zamiast kontekstu
- [SPARK-34719] [SQL][3.1] Poprawnie rozpoznaj zapytanie widoku z zduplikowanymi nazwami kolumn
- [SPARK-34766] [SQL][3.1] Nie przechwytuj konfiguracji Maven dla widoków
- [SPARK-34731] [CORE] Unikaj elementu ConcurrentModificationException podczas redagowania właściwości w elemecie EventLoggingListener
-
[SPARK-34737] [SQL][3.1] Rzutuj wartość typu float na typ double w
TIMESTAMP_SECONDS - [SPARK-34749] [SQL][3.1] Uprość ResolveCreateNamedStruct
- [SPARK-34768] [SQL] Uwzględnianie domyślnego rozmiaru buforu wejściowego w univocity
- [SPARK-34770] [SQL] InMemoryCatalog.tableExists nie powinno zawieść, jeśli baza danych nie istnieje
- [SPARK-34504] [SQL] Unikaj niepotrzebnego rozpoznawania widoków tymczasowych SQL w przypadku poleceń DDL
- [SPARK-34727] [SQL] Naprawa rozbieżności w konwersji liczby zmiennoprzecinkowej na znacznik czasu
- [SPARK-34723] [SQL] Poprawny typ parametru dla eliminacji podwyrażeń na całym etapie przetwarzania
- [SPARK-34724] [SQL] Naprawa interpretowanej oceny przy użyciu metody getMethod zamiast getDeclaredMethod
- [SPARK-34713] [SQL] Naprawianie grupowania według metody CreateStruct za pomocą funkcji ExtractValue
- [SPARK-34697] [SQL] Umożliwiają DESCRIBE FUNCTION i SHOW FUNCTIONS wyjaśnienie działania || (operatora łączenia ciągów)
- [SPARK-34682] [SQL] Użyj elementu PrivateMethodTester zamiast refleksji
- [SPARK-34682] [SQL] Naprawić regresję w sprawdzaniu błędu kanonizacyjnego w poleceniu CustomShuffleReaderExec
- [SPARK-34681] [SQL] Naprawiono usterkę dotyczącą pełnego zewnętrznego sprzężenia haszującego z przetasowaniem, gdy buduje się lewą stronę z warunkiem nierównościowym.
- [SPARK-34545] [SQL] Naprawa błędów związanych z funkcją valueCompare w pyrolite
-
[SPARK-34607] [SQL][3.1] Dodaj
Utils.isMemberClass, aby naprawić źle sformułowany błąd nazwy klasy w jdk8u - [SPARK-34596] [SQL] Użyj polecenia Utils.getSimpleName, aby uniknąć naciśnięcia źle sformułowanej nazwy klasy w pliku NewInstance.doGenCode
- [SPARK-34613] [SQL] Poprawka widoku nie przechwytuje konfiguracji wskazówek wyłączania
- [SPARK-32924] [WEBUI] Ustaw, aby kolumna czasu trwania w interfejsie użytkownika master była posortowana w prawidłowej kolejności.
- [SPARK-34482] [SS] Popraw aktywną funkcję SparkSession dla StreamExecution.logicalPlan
- [SPARK-34567] [SQL] CreateTableAsSelect również powinna aktualizować metryki
- [SPARK-34599] [SQL] Naprawiono problem, że INTO OVERWRITE nie obsługuje kolumn partycji zawierających kropkę w DSv2.
-
[SPARK-34577] [SQL] Naprawianie upuszczania/dodawania kolumn do zestawu danych
DESCRIBE NAMESPACE - [SPARK-34584] [SQL] Partycja statyczna powinna również być zgodna z zasadami StoreAssignmentPolicy podczas wstawiania do tabel w wersji 2
- [SPARK-34555] [SQL] Rozwiązywanie problemów z danymi wyjściowymi metadanych z ramki danych
- [SPARK-34534] Naprawianie kolejności blockIds podczas pobierania bloków za pomocą polecenia FetchShuffleBlocks
- [SPARK-34547] [SQL] Użyj tylko kolumn metadanych do rozwiązania w ostateczności
- [SPARK-34417] [SQL] org.apache.spark.sql.DataFrameNaFunctions.fillMap zawodzi dla nazwy kolumny z kropką
-
[SPARK-34561] [SQL] Naprawianie upuszczania/dodawania kolumn z/do zestawu danych w wersji 2
DESCRIBE TABLE - [SPARK-34556] [SQL] Sprawdzanie zduplikowanych kolumn partycji statycznych powinno uwzględniać konfigurację rozróżniania wielkości liter
- [SPARK-34392] [SQL] Obsługa elementu ZoneOffset +h:mm w narzędziu DateTimeUtils. getZoneId
- [SPARK-34550] [SQL] Pomiń wartość null InSet podczas filtrowania wypychania do magazynu metadanych Hive
-
[SPARK-34543] [SQL] Uwzględnianie
spark.sql.caseSensitivekonfiguracji podczas rozpoznawania specyfikacji partycji w wersji 1SET LOCATION - [SPARK-34436] [SQL] Obsługa funkcji DPP LIKE ANY/ALL
- [SPARK-34531] [CORE] Usuwanie tagu eksperymentalnego interfejsu API w usłudze PrometheusServlet
- [SPARK-34497] [SQL] Naprawianie wbudowanych dostawców połączeń JDBC w celu przywrócenia zmian kontekstu zabezpieczeń JVM
- [SPARK-34515] [SQL] Naprawianie elementu NPE, jeśli zestaw inset zawiera wartość null podczas polecenia getPartitionsByFilter
- [SPARK-34490] [SQL] Analiza powinna zakończyć się niepowodzeniem, jeśli widok odwołuje się do usuniętej tabeli
- [SPARK-34473] [SQL] Unikaj elementu NPE w elemecie DataFrameReader.schema(StructType)
- [SPARK-34384] [CORE] Dodanie brakujących dokumentów dla interfejsów API ResourceProfile
- [SPARK-34373] [SQL] HiveThriftServer2 startWithContext może zawieszać się z powodu problemu wyścigu
- [SPARK-20977] [CORE] Użyj pola innego niż końcowego dla stanu KolekcjiAccumulator
- [SPARK-34421] [SQL] Rozpoznawanie funkcji tymczasowych i widoków w widokach przy użyciu obiektów CTE
-
[SPARK-34431] [CORE] Załaduj
hive-site.xmltylko raz - [SPARK-34405] [CORE] Poprawiono średnią wartość timersLabels w klasie PrometheusServlet
-
[SPARK-33438] [SQL] Szybka inicjalizacja obiektów z zdefiniowanymi SQL Confs dla polecenia
set -v - [SPARK-34158] Niepoprawny adres URL jedynego dewelopera Matei w pom.xml
- [SPARK-34346] [CORE][sql][3.1] io.file.buffer.size ustawione przez spark.buffer.size zostanie przypadkowo nadpisane przy ładowaniu hive-site.xml, co może spowodować regresję wydajności.
- [SPARK-34359] [SQL][3.1] Dodawanie starszej konfiguracji w celu przywrócenia schematu wyjściowego SHOW DATABASES
- [SPARK-34331] [SQL] Przyspieszanie rozwiązywania kolumn metadanych DS w wersji 2
- [SPARK-34318] [SQL][3.1] Zbiór danych.colRegex powinien działać z nazwami kolumn i kwalifikatorami zawierającymi nowe linie
- [SPARK-34326] [ CORE][sql] Poprawiono liczbę UTS dodaną na platformie SPARK-31793 w zależności od długości ścieżki tymczasowej
- [SPARK-34319] [SQL] Rozpoznawanie zduplikowanych atrybutów flatMapCoGroupsInPandas/MapInPandas
- [SPARK-34310] [ CORE][sql] Zastępuje map i flatten funkcją flatMap
- [SPARK-34083] [SQL][3.1] Używanie oryginalnych definicji TPCDS dla kolumn char/varchar
- [SPARK-34233] [SQL][3.1] Naprawiono NPE dla dopełnienia znaków w porównaniach binarnych
- [SPARK-34270] [SS] Łączenie StateStoreMetrics nie powinno zastępować StateStoreCustomMetric
- [SPARK-34144] [SQL] Wyjątek zgłaszany podczas próby zapisania wartości LocalDate i Instant w relacji JDBC
- [SPARK-34273] [CORE] Nie rejestruj ponownie BlockManager, gdy SparkContext jest zatrzymany
-
[SPARK-34262] [SQL][3.1] Odśwież buforowane dane tabeli w wersji 1 w
ALTER TABLE .. SET LOCATION - [SPARK-34275] [ CORE][sql][MLLIB] Zastępuje filtr i rozmiar liczbą
- [SPARK-34260] [SQL] Naprawianie błędu UnresolvedException podczas dwukrotnego tworzenia widoku tymczasowego
- [SPARK-33867] [ SQL] Wartości instant i LocalDate nie są obsługiwane podczas generowania zapytań SQL
- [SPARK-34193] [CORE] Naprawa wyścigu przy dezaktywacji menedżera bloków TorrentBroadcast
- [SPARK-34221] [WEBUI] Upewnij się, że jeśli etap nie powiedzie się na stronie interfejsu użytkownika, odpowiedni komunikat o błędzie może być wyświetlany poprawnie.
- pl-PL: [SPARK-34236] [SQL] Naprawiono problem z nadpisywaniem partycji statycznej null w wersji 2. Nie można przetłumaczyć wyrażenia na filtr źródłowy: null.
- [SPARK-34212] [SQL] Naprawa niepoprawnego odczytu wartości dziesiętnych z plików Parquet
- [SPARK-34244] [SQL] Usuń wersję funkcji Scala regexp_extract_all
- [SPARK-34235] [SS] Tworzenie spark.sql.hive jako pakietu prywatnego
- [SPARK-34232] [CORE] Zdarzenie Redact SparkListenerEnvironmentUpdate w dzienniku
- [SPARK-34229] [SQL] Avro powinna odczytywać wartości dziesiętne ze schematem pliku
- [SPARK-34223] [SQL] FIX NPE dla partycji statycznej z wartością null w insertIntoHadoopFsRelationCommand
- [SPARK-34192] [SQL] Przenieś wypełnienie znaków na stronę zapisu i usuń sprawdzanie długości po stronie odczytu też
-
[SPARK-34203] [SQL] Konwertowanie
nullwartości partycji na__HIVE_DEFAULT_PARTITION__w katalogu w wersji 1In-Memory - [SPARK-33726] [SQL] Poprawka dotycząca zduplikowanych nazw pól podczas agregacji
- [SPARK-34133] [AVRO] Uwzględnianie wielkości liter podczas dopasowywania pól między Catalyst a Avro
- [SPARK-34187] [SS] Użyj dostępnego zakresu przesunięcia uzyskanego podczas sondowania podczas sprawdzania poprawności przesunięcia
- [SPARK-34052] [SQL][3.1] przechowuj tekst SQL dla widoku tymczasowego utworzonego przy użyciuCACHE TABLE .. AS SELECT ..."
-
[SPARK-34213] [SQL] Odśwież buforowane dane tabeli v1 w
LOAD DATA - [SPARK-34191] [PYTHON][sql] Dodaj typowanie dla przeciążenia udf
- [SPARK-34200] [SQL] Niejednoznaczne odwołanie do kolumny powinno uwzględniać dostępność atrybutów
- [SPARK-33813] [ SQL][3.1] Rozwiązano problem polegający na tym, że źródło JDBC nie może traktować typów przestrzennych programu MS SQL Server
- [SPARK-34178] [SQL] Kopiowanie tagów dla nowego węzła utworzonego przez multiInstanceRelation.newInstance
- [SPARK-34005] [CORE][3.1] Aktualizowanie metryk pamięci szczytowej dla każdego wykonawcy na końcu zadania
- [SPARK-34115] [CORE] Sprawdź SPARK_TESTING jako leniwą val, aby uniknąć spowolnienia
-
[SPARK-34153] [SQL][3.1][3.0] Usuń nieużywane
getRawTable()zHiveExternalCatalog.alterPartitions() - [SPARK-34130] [SQL] Poprawa wydajności dla obsługi wypełniania i sprawdzania długości char i varchar przy użyciu StaticInvoke
-
[SPARK-34027] [SQL][3.1] Odśwież pamięć podręczną w
ALTER TABLE .. RECOVER PARTITIONS -
[SPARK-34151] [SQL] Zamienia na
java.io.File.toURLjava.io.File.toURI.toURL - [SPARK-34140] [SQL][3.1] Przenieś QueryCompilationErrors.scala do org/apache/spark/sql/errors
- [SPARK-34080] [ML][python] Add UnivariateFeatureSelector
- [SPARK-33790] [CORE][3.1] Zmniejsz wywołanie RPC getFileStatus w SingleFileEventLogFileReader
- [SPARK-34118] [CORE][sql][3.1] Zastępuje filtr oraz sprawdzenie pustki z użyciem exists lub forall
- [SPARK-34114] [SQL] nie powinien przycinać z prawej strony przy sprawdzaniu długości znaków i wypełnianiu po stronie odczytu.
- [SPARK-34086] [SQL][3.1] Funkcja RaiseError generuje zbyt dużo kodu i może zakończyć się niepowodzeniem podczas sprawdzania długości dla typów char i varchar.
- [SPARK-34075] [ SQL][core] Ukryte katalogi są wyświetlane dla wnioskowania partycji
- [SPARK-34076] [SQL] SQLContext.dropTempTable zawodzi, jeśli pamięć podręczna nie jest pusta.
-
[SPARK-34084] [SQL][3.1] Naprawianie automatycznego aktualizowania statystyk tabeli w
ALTER TABLE .. ADD PARTITION - [SPARK-34090] [SS] Cache HadoopDelegationTokenManager.isServiceEnabled wynik używany w narzędziu KafkaTokenUtil.needTokenUpdate
- [SPARK-34069] [CORE] Zadania bariery zabijania powinny uwzględniać SPARK_JOB_INTERRUPT_ON_CANCEL
- [SPARK-34091] [SQL] Pobieranie partii shuffle powinno można było wyłączyć po włączeniu
- [SPARK-34059] [SQL][core][3.1] Użyj polecenia for/foreach zamiast map, aby zapewnić natychmiastowe wykonanie.
- [SPARK-34002] [SQL] Naprawiono użycie kodera w funkcji ScalaUDF
-
[SPARK-34060] [SQL][3.1] Naprawa buforowania tabeli Programu Hive podczas aktualizowania statystyk według
ALTER TABLE .. DROP PARTITION - [SPARK-31952] [SQL] Naprawianie nieprawidłowej metryki rozlania pamięci podczas wykonywania agregacji
-
[SPARK-33591] [SQL][3.1] Rozpoznawanie
nullwartości specyfikacji partycji -
[SPARK-34055] [SQL][3.1] Odśwież pamięć podręczną w
ALTER TABLE .. ADD PARTITION - [SPARK-34039] [SQL][3.1] Funkcja ReplaceTable powinna unieważnić pamięć podręczną
- [SPARK-34003] [SQL] Rozwiązywanie konfliktów reguł między paddingAndLengthCheckForCharVarchar i ResolveAggregateFunctions
- [SPARK-33938] [SQL][3.1] Optymalizowanie Like Any/All przez LikeSimplification
- [SPARK-34021] [R] Naprawa hiperlinków w dokumentacji SparkR na potrzeby zgłoszenia do CRAN
-
[SPARK-34011] [SQL][3.1][3.0] Odśwież pamięć podręczną w
ALTER TABLE .. RENAME TO PARTITION - [SPARK-33948] [SQL] Naprawiono błąd CodeGen metody MapObjects.doGenCode w języku Scala 2.13
- [SPARK-33635] [SS] Dostosowywanie kolejności ewidencjonowania w narzędziu KafkaTokenUtil.needTokenUpdate w celu rozwiązania problemu regresji wydajności
- [SPARK-33029] [ CORE][webui] Napraw stronę funkcji wykonawczej interfejsu użytkownika niepoprawnie oznaczającą sterownik jako wykluczony
- [SPARK-34015] [R] Poprawa pomiaru czasu danych wejściowych w funkcji gapply
-
[SPARK-34012] [SQL] Zachowaj spójność zachowania, gdy conf
spark.sql.legacy.parser.havingWithoutGroupByAsWherejest prawdziwy, korzystając z przewodnika po migracji - [SPARK-33844] [SQL][3.1] Polecenie InsertIntoHiveDir powinno również sprawdzić nazwę kolumny
- [SPARK-33935] [SQL] Naprawa funkcji kosztu CBO
- [SPARK-33100] [SQL] Ignoruj średnik wewnątrz komentarza w nawiasie w języku spark-sql
- [SPARK-34000] [CORE] Poprawiono problem z wyjątkiem java.util.NoSuchElementException związanym ze stageAttemptToNumSpeculativeTasks
- [SPARK-33992] [SQL] nadpisanie funkcji transformUpWithNewOutput w celu dodania możliwości wywoływania transformacji w analizatorze
- [SPARK-33894] [SQL] Zmienianie widoczności klas przypadków prywatnych w mllib, aby uniknąć błędów kompilacji środowiska uruchomieniowego w języku Scala 2.13
-
[SPARK-33950] [SQL][3.1][3.0] Odśwież pamięć podręczną w wersji 1
ALTER TABLE .. DROP PARTITION - [SPARK-33980] [SS] Unieważnij char/varchar w spark.readStream.schema
- [SPARK-33945] [SQL][3.1] Obsługuje losowe ziarno składające się z drzewa wyrażeń
- [SPARK-33398] Naprawa ładowania modeli drzew przed Spark 3.0
-
[SPARK-33963] [SQL] Canonicalize bez statystyk tabeli
HiveTableRelation - [SPARK-33906] [WEBUI] Naprawa błędu, który powodował zablokowanie strony wykonawczej UI z powodu niezdefiniowanego PeakMemoryMetrics.
- [SPARK-33944] [SQL] Nieprawidłowe rejestrowanie kluczy magazynu w opcjach SharedState
- [SPARK-33936] [SQL][3.1] Dodaj wersję, kiedy dodano interfejsy łącznika
- [SPARK-33916] [CORE] Napraw przesunięcie rezerwowe pamięci i poprawa pokrycia testowego kodeka kompresji
-
[SPARK-33899] [SQL][3.1] Naprawa błędu asercji w wersji v1 SHOW TABLES/VIEWS w
spark_catalog - [SPARK-33901] [SQL] Napraw błąd wyświetlania Char i varchar po DDL
- [SPARK-33897] [ SQL] Nie można ustawić opcji "cross" w metodzie łączenia
- [SPARK-33907] [SQL][3.1] Czyścić tylko kolumny JsonToStructs, jeśli opcje analizowania są puste
- [SPARK-33621][SPARK-33784] [SQL][3.1] Dodawanie sposobu wstrzykiwania reguł ponownego zapisywania źródła danych
- [SPARK-33900] [WEBUI] Pokaż poprawnie rozmiar odczytu shuffle i liczbę rekordów, gdy dostępny jest wyłącznie parametr remotebytesread
- [SPARK-33892] [SQL] Wyświetl char/varchar w DESC i SHOW CREATE TABLE
- [SPARK-33895] [SQL] Char i Varchar kończą się niepowodzeniem w metaoperacji ThriftServer
- [SPARK-33659] [SS] Dokumentowanie bieżącego zachowania interfejsu API DataStreamWriter.toTable
- [SPARK-33893] [CORE] Wyklucz zapasowego menedżera bloków z listy wykonawców
- [SPARK-33277] [PYSPARK][sql] Użyj ContextAwareIterator, aby przestać konsumować po zakończeniu zadania
- [SPARK-33889] [SQL][3.1] Naprawa NPE w tabelach V2
- [SPARK-33879] [SQL] Wartości Char Varchar kończą się niepowodzeniem w/ błędem dopasowania jako kolumny partycji
- [SPARK-33877] [SQL] dokumentacja referencyjna SQL dotycząca INSERT listy kolumn
- [SPARK-33876] [SQL] Dodaj sprawdzanie długości dla odczytywania char/varchar z tabel z lokalizacją zewnętrzną
- [SPARK-33846] [SQL] Dołączanie komentarzy do zagnieżdżonego schematu w StructType.toDDL
- [SPARK-33860] [SQL] Make CatalystTypeConverters.convertToCatalyst dopasowuje specjalną wartość tablicy
- [SPARK-33834] [SQL] Zweryfikuj ALTER TABLE ZMIANA COLUMN z Char i Varchar
- [SPARK-33853] [ SQL] EXPLAIN CODEGEN i BenchmarkQueryTest nie pokazują kodu podzapytania
- [SPARK-33836] [SS][python] Udostępnienie funkcji DataStreamReader.table oraz DataStreamWriter.toTable
- [SPARK-33829] [SQL][3.1] Zmiana nazwy tabel w wersji 2 powinna ponownie utworzyć pamięć podręczną
- [SPARK-33756] [SQL] Uczyń MapIterator BytesToBytesMap idempotentnym
- [SPARK-33850] [ SQL] EXPLAIN FORMATTED nie pokazuje planu podzapytania, jeśli włączono AQE
- [SPARK-33841] [CORE][3.1] Rozwiązano problem z zadaniami, które znikają sporadycznie z usługi SHS pod dużym obciążeniem
- [SPARK-33593] [SQL] Czytnik wektorów otrzymał nieprawidłowe dane z wartością partycji binarnej
- [SPARK-26341] [WEBUI] Uwidacznianie metryk pamięci wykonawcy na poziomie etapu w zakładce Etapy
- [SPARK-33831] [Interfejs użytkownika] Aktualizacja do jetty 9.4.34
-
[SPARK-33822] [SQL] Używanie metody w metodzie
CastSupport.castHashJoin - [SPARK-33774] [interfejs użytkownika][core] "Powrót do Master" zwraca błąd 500 w klastrze autonomicznym
- [SPARK-26199][SPARK-31517] [R] Poprawka strategii obsługi ... nazwy w mutacji
-
[SPARK-33819] [CORE][3.1] Element SingleFileEventLogFileReader/RollingEventLogFilesFileReader powinien mieć wartość
package private - [SPARK-33697] [SQL] Funkcja RemoveRedundantProjects powinna wymagać domyślnie porządkowania kolumn
- [SPARK-33752] [SQL][3.1] Unikaj wielokrotnie dodawania średnika getSimpleMessage of AnalysisException
- [SPARK-33788] [SQL][3.1][3.0][2.4] Zgłoś wyjątek NoSuchPartitionsException z funkcji HiveExternalCatalog.dropPartitions()
- [SPARK-33803] [SQL] Sortuj właściwości tabeli według klucza w poleceniu DESCRIBE TABLE
- [SPARK-33786] [SQL] Poziom magazynowania pamięci podręcznej powinien być przestrzegany, gdy nazwa tabeli zostanie zmieniona
- [SPARK-33273] [SQL] Naprawianie stanu wyścigu w wykonaniu podzapytania
- [SPARK-33653] [SQL][3.1] DSv2: REFRESHREFRESH TABLE powinna odświeżyć pamięć podręczną dla samej tabeli
- [SPARK-33777] [SQL] Sortuj dane wyjściowe wersji 2 SHOW PARTITIONS
- [SPARK-33733] [SQL] PullOutNondeterministic powinna sprawdzać i zbierać pole deterministyczne
- [SPARK-33764] [SS] Ustawienie interwału konserwacji stanu przechowywania jako konfiguracji SQL
- [SPARK-33729] [SQL] Podczas odświeżania pamięci podręcznej platforma Spark nie powinna używać buforowanego planu podczas odzyskiwania danych
- [SPARK-33742] [ SQL][3.1] Throw PartitionsAlreadyExistException from HiveExternalCatalog.createPartitions()
- [SPARK-33706] [SQL] Wymagaj w pełni określonego identyfikatora partycji w partycjiExists()
- [SPARK-33740] [SQL] konfiguracje Hadoop w pliku hive-site.xml mogą zastąpić wcześniej istniejące konfiguracje Hadoop
- [SPARK-33692] [SQL] Widok SQL powinien używać przechwyconego katalogu i przestrzeni nazw SQL do odszukiwania funkcji.
- [SPARK-33669] Nieprawidłowy komunikat o błędzie z monitora stanu aplikacji YARN, gdy użyto "sc.stop" w trybie klienta YARN.
- [SPARK-32110] [SQL] normalizacja specjalnych liczb zmiennoprzecinkowych w funkcji HyperLogLog++
- [SPARK-33677] [SQL] Pomiń regułę LikeSimplification, jeśli wzorzec zawiera jakikolwiek element escapeChar
- [SPARK-33693] [SQL] wycofanie spark.sql.hive.convertCTAS
- [SPARK-33641] [SQL] Unieważnianie nowych typów char/varchar w publicznych interfejsach API, które generują nieprawidłowe wyniki
- [SPARK-32680] [SQL] Nie przetwarzaj wstępnie V2 CTAS z nierozwiązanym zapytaniem
-
[SPARK-33676] [SQL] Wymagaj dokładnego dopasowania specyfikacji partycji do schematu w wersji 2
ALTER TABLE .. ADD/DROP PARTITION - [SPARK-33670] [SQL] Sprawdź, czy dostawca partycji jest Hive w wersji 1 SHOW TABLE EXTENDED
- [SPARK-33663] [SQL] Usuwanie z pamięci podręcznej nie powinno być wykonane w przypadku nieistniejących widoków tymczasowych
-
[SPARK-33667] [SQL] Uwzględnianie
spark.sql.caseSensitivekonfiguracji podczas rozpoznawania specyfikacji partycji w wersji 1SHOW PARTITIONS - [SPARK-33652] [SQL] DSv2: DeleteFrom powinien odświeżyć pamięć podręczną
Aktualizacje konserwacyjne
Zobacz Aktualizacje konserwacji środowiska Databricks Runtime 9.0.
Środowisko systemu
- System operacyjny: Ubuntu 20.04.2 LTS
- Java: Zulu 8.54.0.21-CA-linux64
- Scala: 2.12.10
- Python: 3.8.10
- R: 4.1.0 (2021-05-18)
- Usługa Delta Lake 1.0.0
Zainstalowane biblioteki języka Python
| Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
|---|---|---|---|---|---|
| Antergos Linux | 2015.10 (rolling ISO) | appdirs | 1.4.4 | Wezwanie zwrotne | 0.2.0 |
| boto3 | 1.16.7 | botocore | 1.19.7 | certyfikat | 2020.12.5 |
| chardet | 4.0.0 | rowerzysta | 0.10.0 | Cython | 0.29.23 |
| dbus-python | 1.2.16 | dekorator | 5.0.6 | distlib | 0.3.2 |
| dystrybucja informacji | 0.23ubuntu1 | aspekty — omówienie | 1.0.0 | blokada plików | 3.0.12 |
| IDNA | 2.10 | ipykernel | 5.3.4 | ipython | 7.22.0 |
| ipython-genutils | 0.2.0 | Jedi | 0.17.2 | jmespath | 0.10.0 |
| joblib | 1.0.1 | jupyter-client | 6.1.12 | jupyter-core | 4.7.1 |
| kiwisolver | 1.3.1 | Koale | 1.8.1 | biblioteka matplotlib | 3.4.2 |
| numpy | 1.19.2 | Pandas | 1.2.4 | parso | 0.7.0 |
| Patsy | 0.5.1 | pexpect | 4.8.0 | pickleshare (jeśli to nazwa własna, nie trzeba tłumaczyć) | 0.7.5 |
| Poduszka | 8.2.0 | pip (menedżer pakietów Pythona) | 21.0.1 | kreślenie | 4.14.3 |
| zestaw narzędzi prompt | 3.0.17 | Protobuf (w skrócie od Protocol Buffers) | 3.17.2 | psycopg2 | 2.8.5 |
| ptyprocess | 0.7.0 | pyarrow | 4.0.0 | Pygments | 2.8.1 |
| PyGObject | 3.36.0 | pyparsing – biblioteka do przetwarzania tekstu w Pythonie | 2.4.7 | python-apt | 2.0.0+ubuntu0.20.4.5 |
| python-dateutil (biblioteka Pythona do zarządzania datami) | 2.8.1 | pytz (biblioteka Pythona do obliczeń stref czasowych) | 2020.5 | pyzmq | 20.0.0 |
| żądania | 2.25.1 | requests-unixsocket | 0.2.0 | Ponawianie... | 1.3.3 |
| s3transfer | 0.3.7 | scikit-learn | 0.24.1 | scipy (biblioteka naukowa dla Pythona) | 1.6.2 |
| urodzony na morzu | 0.11.1 | setuptools | 52.0.0 | Sześć | 1.15.0 |
| ssh-import-id (narzędzie do importowania kluczy SSH) | 5.10 | statsmodels - biblioteka do modelowania statystycznego | 0.12.2 | threadpoolctl | 2.1.0 |
| tornado | 6.1 | „traitlets” | 5.0.5 | nienadzorowane uaktualnienia | 0.1 |
| urllib3 | 1.25.11 | virtualenv | 20.4.1 | szerokość(wcwidth) | 0.2.5 |
| wheel | 0.36.2 |
Zainstalowane biblioteki języka R
Biblioteki języka R są instalowane z migawki Microsoft CRAN z dnia 2021-07-28.
| Biblioteka | Wersja | Biblioteka | Wersja | Biblioteka | Wersja |
|---|---|---|---|---|---|
| askpass | 1.1 | potwierdzić to | 0.2.1 | porty wsteczne | 1.2.1 |
| baza | 4.1.0 | base64enc | 0.1-3 | BH | 1.72.0-3 |
| odrobina | 4.0.4 | bit-64 | 4.0.5 | blob | 1.2.1 |
| rozruch | 1.3-28 | warzyć / parzyć | 1.0-6 | Brio | 1.1.0 |
| miotła | 0.7.2 | obiekt wywołujący | 3.5.1 | karetka | 6.0-86 |
| cellranger | 1.1.0 | Chroń | 2.3-56 | klasa | 7.3-19 |
| CLI | 2.2.0 | clipr | 0.7.1 | klaster | 2.1.2 |
| codetools | 0.2-18 | przestrzeń kolorów | 2.0-0 | commonmark | 1,7 |
| kompilator | 4.1.0 | konfiguracja | 0,3 | cover | 3.5.1 |
| cpp11 | 0.2.4 | kredka | 1.3.4 | dane logowania | 1.3.0 |
| Crosstalk | 1.1.0.1 | skręt | 4.3 | tabela danych | 1.13.4 |
| zestawy danych | 4.1.0 | DBI | 1.1.0 | dbplyr | 2.0.0 |
| Opis | 1.2.0 | devtools | 2.3.2 | diffobj | 0.3.2 |
| skrót | 0.6.27 | dplyr | 1.0.2 | DT | 0,16 |
| wielokropek | 0.3.1 | ocenić | 0,14 | fani | 0.4.1 |
| kolory | 2.0.3 | szybka mapa | 1.0.1 | dla kotów | 0.5.0 |
| foreach | 1.5.1 | zagraniczny | 0.8-81 | kuźnia | 0.2.0 |
| Fs | 1.5.0 | przyszłość | 1.21.0 | typy ogólne | 0.1.0 |
| Gert | 1.0.2 | ggplot2 | 3.3.2 | Gh | 1.2.0 |
| gitcreds | 0.1.1 | glmnet | 4.0-2 | globalna | 0.14.0 |
| klej | 1.4.2 | Gower | 0.2.2 | grafika | 4.1.0 |
| grDevices | 4.1.0 | siatka | 4.1.0 | gridExtra | 2.3 |
| gsubfn | 0,7 | gtabela | 0.3.0 | przystań | 2.3.1 |
| wyższy | 0,8 | Hms | 0.5.3 | htmltools – narzędzie do tworzenia stron internetowych | 0.5.0 |
| widżety HTML | 1.5.3 | httpuv | 1.5.4 | httr | 1.4.2 |
| hwriter | 1.3.2 | hwriterPlus | 1.0-3 | ini | 0.3.1 |
| ipred | 0.9-9 | isoband | 0.2.3 | Iteratory | 1.0.13 |
| jsonlite | 1.7.2 | KernSmooth | 2.23-20 | knitr (narzędzie do generowania dynamicznych raportów w R) | 1,30 |
| Etykietowanie | 0.4.2 | później | 1.1.0.1 | krata | 0.20-44 |
| lawa | 1.6.8.1 | opóźnienie | 0.2.2 | cykl życia | 0.2.0 |
| nasłuchiwanie | 0.8.0 | lubridate | 1.7.9.2 | magrittr | 2.0.1 |
| Markdown | 1.1 | MASA | 7.3-54 | Macierz | 1.3-4 |
| zapamiętywanie | 1.1.0 | metody | 4.1.0 | mgcv | 1.8-36 |
| mim | 0,9 | Metryki modelu | 1.2.2.2 | Modelr | 0.1.8 |
| munsell | 0.5.0 | nlme | 3.1-152 | sieć neuronowa (nnet) | 7.3-16 |
| numDeriv | 2016.8-1.1 | openssl | 1.4.3 | równoległy | 4.1.0 |
| równolegle | 1.22.0 | filar | 1.4.7 | pkgbuild | 1.1.0 |
| pkgconfig | 2.0.3 | pkgload | 1.1.0 | plogr | 0.2.0 |
| plyr | 1.8.6 | pochwała | 1.0.0 | prettyunits | 1.1.1 |
| Proc | 1.16.2 | Procesx | 3.4.5 | prodlim | 2019.11.13 |
| Postęp | 1.2.2 | Obietnice | 1.1.1 | Proto | 1.0.0 |
| PS | 1.5.0 | mruczenie | 0.3.4 | r2d3 | 0.2.3 |
| R6 | 2.5.0 | "randomForest" | 4.6-14 | rappdirs | 0.3.1 |
| rcmdcheck | 1.3.3 | RColorBrewer | 1.1-2 | Rcpp | 1.0.5 |
| czytnik | 1.4.0 | readxl (biblioteka do odczytu plików Excel) | 1.3.1 | przepisy | 0.1.15 |
| rewanż | 1.0.1 | rewanż2 | 2.1.2 | Pilot | 2.2.0 |
| przykład powtarzalny | 0.3.0 | zmień kształt2 | 1.4.4 | Rex | 1.2.0 |
| rlang | 0.4.9 | rmarkdown (narzędzie do tworzenia dokumentów w R) | 2.6 | RODBC | 1.3-17 |
| roxygen2 | 7.1.1 | rpart | 4.1-15 | rprojroot | 2.0.2 |
| Rserve | 1.8-8 | RSQLite | 2.2.1 | rstudioapi | 0,13 |
| rversions (rversions) | 2.0.2 | rvest | 0.3.6 | waga | 1.1.1 |
| selektor | 0.4-2 | informacje o sesji | 1.1.1 | kształt | 1.4.5 |
| błyszczący | 1.5.0 | sourcetools | 0.1.7 | sparklyr | 1.5.2 |
| SparkR | 3.1.1 | przestrzenny | 7.3-11 | Splajnów | 4.1.0 |
| sqldf | 0.4-11 | KWADRAT | 2020.5 | Statystyki | 4.1.0 |
| statystyki4 | 4.1.0 | łańcuchy | 1.5.3 | stringr | 1.4.0 |
| przetrwanie | 3.2-11 | sys | 3.4 | tcltk | 4.1.0 |
| Pokazy Nauczania | 2.10 | testthat | 3.0.0 | tibble | 3.0.4 |
| tidyr | 1.1.2 | tidyselect | 1.1.0 | tidyverse | 1.3.0 |
| czasData | 3043.102 | tinytex | 0,28 | narzędzia | 4.1.0 |
| użyj tego | 2.0.0 | utf8 | 1.1.4 | narzędzia | 4.1.0 |
| uuid (Uniwersalnie Unikalny Identyfikator) | 0.1-4 | vctrs | 0.3.5 | viridisLite | 0.3.0 |
| Waldo | 0.2.3 | wąs | 0,4 | Withr | 2.3.0 |
| xfun | 0.19 | xml2 | 1.3.2 | xopen | 1.0.0 |
| Xtable | 1.8-4 | yaml | 2.2.1 | suwak | 2.1.1 |
Zainstalowane biblioteki Java i Scala (wersja klastra Scala 2.12)
| Identyfikator grupy | Identyfikator artefaktu | Wersja |
|---|---|---|
| antlr | antlr | 2.7.7 |
| com.amazonaws | Klient Amazon Kinesis | 1.12.0 |
| com.amazonaws | aws-java-sdk-automatyczne-skalowanie | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudfront | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudhsm (zestaw narzędzi Java dla usługi CloudHSM) | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudsearch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.11.655 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.11.655 |
| com.amazonaws | aws-java-sdk-codedeploy (biblioteka do zarządzania wdrażaniem kodu w AWS) | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitoidentity | 1.11.655 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.11.655 |
| com.amazonaws | aws-java-sdk-config (konfiguracja aws-java-sdk) | 1.11.655 |
| com.amazonaws | aws-java-sdk-core | 1.11.655 |
| com.amazonaws | aws-java-sdk-datapipeline | 1.11.655 |
| com.amazonaws | aws-java-sdk-directconnect (pakiet narzędzi programistycznych dla Java do współpracy z AWS Direct Connect) | 1.11.655 |
| com.amazonaws | aws-java-sdk-directory | 1.11.655 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.11.655 |
| com.amazonaws | aws-java-sdk-ec2 | 1.11.655 |
| com.amazonaws | aws-java-sdk-ecs | 1.11.655 |
| com.amazonaws | aws-java-sdk-efs | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticache | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk | 1.11.655 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing | 1.11.655 |
| com.amazonaws | aws-java-sdk-elastictranscoder | 1.11.655 |
| com.amazonaws | aws-java-sdk-emr (biblioteka SDK Java dla usługi Amazon EMR) | 1.11.655 |
| com.amazonaws | AWS Java SDK dla Glacier | 1.11.655 |
| com.amazonaws | aws-java-sdk-klej | 1.11.655 |
| com.amazonaws | aws-java-sdk-iam | 1.11.655 |
| com.amazonaws | aws-java-sdk-importexport (zestaw programistyczny AWS do importu/eksportu dla języka Java) | 1.11.655 |
| com.amazonaws | AWS SDK dla Javy - Kinesis | 1.11.655 |
| com.amazonaws | aws-java-sdk-kms | 1.11.655 |
| com.amazonaws | aws-java-sdk-lambda | 1.11.655 |
| com.amazonaws | aws-java-sdk-logs | 1.11.655 |
| com.amazonaws | aws-java-sdk-uczenie-maszynowe | 1.11.655 |
| com.amazonaws | aws-java-sdk-marketplacecommerceanalytics | 1.11.655 |
| com.amazonaws | Java SDK AWS dla usług rozliczania rynku | 1.11.655 |
| com.amazonaws | aws-java-sdk-opsworks | 1.11.655 |
| com.amazonaws | aws-java-sdk-rds (pakiet programistyczny Java dla AWS RDS) | 1.11.655 |
| com.amazonaws | aws-java-sdk-redshift | 1.11.655 |
| com.amazonaws | aws-java-sdk-route53 | 1.11.655 |
| com.amazonaws | aws-java-sdk-s3 | 1.11.655 |
| com.amazonaws | aws-java-sdk-ses | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpledb | 1.11.655 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.11.655 |
| com.amazonaws | aws-java-sdk-sns | 1.11.655 |
| com.amazonaws | aws-java-sdk-sqs | 1.11.655 |
| com.amazonaws | aws-java-sdk-ssm | 1.11.655 |
| com.amazonaws | aws-java-sdk-storagegateway | 1.11.655 |
| com.amazonaws | aws-java-sdk-sts (pakiet programistyczny Java dla AWS STS) | 1.11.655 |
| com.amazonaws | wsparcie dla aws-java-sdk | 1.11.655 |
| com.amazonaws | aws-java-sdk-swf-biblioteki | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces | 1.11.655 |
| com.amazonaws | jmespath-java | 1.11.655 |
| com.chuusai | shapeless_2.12 | 2.3.3 |
| com.clearspring.analytics | odtwarzać strumieniowo | 2.9.6 |
| com.databricks | Rserve | 1.8-3 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | zmrożone-cieniowane | 4.0.2 |
| com.esotericsoftware | minlog | 1.3.0 |
| com.fasterxml | kolega z klasy | 1.3.4 |
| com.fasterxml.jackson.core | adnotacje Jackson | 2.10.0 |
| com.fasterxml.jackson.core | jackson-core | 2.10.0 |
| com.fasterxml.jackson.core | jackson-databind | 2.10.0 |
| com.fasterxml.jackson.dataformat | Jackson-format-danych-CBOR | 2.10.0 |
| com.fasterxml.jackson.datatype | jackson-datatype-joda | 2.10.0 |
| com.fasterxml.jackson.module | jackson-module-paranamer | 2.10.0 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 | 2.10.0 |
| com.github.ben-manes.kofeina | kofeina | 2.3.4 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | rdzeń | 1.1.2 |
| com.github.fommil.netlib | natywne_odniesienie-java | 1.1 |
| com.github.fommil.netlib | native_ref-java-natives | 1.1 |
| com.github.fommil.netlib | natywny_system java | 1.1 |
| com.github.fommil.netlib | system natywny-java-natives | 1.1 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64-natives | 1.1 |
| com.github.fommil.netlib | "netlib-native_system-linux-x86_64-natives" | 1.1 |
| com.github.joshelser | dropwizard-metrics-hadoop-metrics2-reporter | 0.1.2 |
| com.github.luben | zstd-jni | 1.4.8-1 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson | 2.2.4 |
| com.google.flatbuffers | flatbuffers-java | 1.9.0 |
| com.google.guava | guawa | 15,0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.h2database | h2 | 1.4.195 |
| com.helger | profiler | 1.1.1 |
| com.jcraft | jsch | 0.1.50 |
| com.jolbox | bonecp | 0.8.0.WYDANIE |
| com.lihaoyi | kodźródłowy_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (SDK do przechowywania danych Azure Data Lake) | 2.3.9 |
| com.microsoft.sqlserver | mssql-jdbc | 9.2.1.jre8 |
| com.ning | compress-lzf (biblioteka do kompresji danych) | 1.0.3 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | paranamer | 2.8 |
| com.trueaccord.lenses | soczewki_2.12 | 0.4.12 |
| com.twitter | chill-java | 0.9.5 |
| com.twitter | chill_2.12 | 0.9.5 |
| com.twitter | util-app_2.12 | 7.1.0 |
| com.twitter | util-core_2.12 | 7.1.0 |
| com.twitter | util-function_2.12 | 7.1.0 |
| com.twitter | util-jvm_2.12 | 7.1.0 |
| com.twitter | util-lint_2.12 | 7.1.0 |
| com.twitter | util-registry_2.12 | 7.1.0 |
| com.twitter | util-stats_2.12 | 7.1.0 |
| com.typesafe | konfiguracja | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.univocity | parsery jednowołciowości | 2.9.1 |
| com.zaxxer | HikariCP | 3.1.0 |
| commons-beanutils | commons-beanutils | 1.9.4 |
| commons-cli | commons-cli | 1.2 |
| commons-codec | commons-codec | 1.10 |
| Zbiory Commons | Zbiory Commons | 3.2.2 |
| commons-configuration | commons-configuration | 1.6 |
| commons-dbcp | commons-dbcp | 1.4 |
| commons-digester | commons-digester | 1.8 |
| wspólne przesyłanie plików | wspólne przesyłanie plików | 1.3.3 |
| commons-httpclient | commons-httpclient | 3.1 |
| commons-io | commons-io | 2,4 |
| commons-lang | commons-lang | 2.6 |
| commons-logging | commons-logging | 1.1.3 |
| commons-net | commons-net | 3.1 |
| commons-pool | commons-pool | 1.5.4 |
| hive-2.3__hadoop-2.7 | jets3t-0.7 | liball_deps_2.12 |
| hive-2.3__hadoop-2.7 | zookeeper-3.4 | liball_deps_2.12 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | sprężarka powietrza | 0.10 |
| io.delta | delta-sharing-spark_2.12 | 0.1.0 |
| io.dropwizard.metrics | metryki —rdzeń | 4.1.1 |
| io.dropwizard.metrics | metrics-graphite | 4.1.1 |
| io.dropwizard.metrics | wskaźniki-kontrole zdrowia | 4.1.1 |
| io.dropwizard.metrics | metrics-jetty9 | 4.1.1 |
| io.dropwizard.metrics | metrics-jmx | 4.1.1 |
| io.dropwizard.metrics | metryki w formacie JSON | 4.1.1 |
| io.dropwizard.metrics | metryki-JVM | 4.1.1 |
| io.dropwizard.metrics | serwlety metrics-servlets | 4.1.1 |
| io.netty | netty-all | 4.1.51.Final |
| io.prometheus | simpleclient | 0.7.0 |
| io.prometheus | simpleclient_common | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | simpleclient_pushgateway | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | moduł zbierający | 0.12.0 |
| jakarta.adnotacja | jakarta.annotation-api | 1.3.5 |
| jakarta.walidacja | jakarta.validation-api | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | aktywacja | 1.1.1 |
| javax.el | javax.el-api | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.servlet | javax.servlet-api | 3.1.0 |
| javax.servlet.jsp | jsp-api | 2.1 |
| javax.transaction | jta | 1.1 |
| javax.transaction | interfejs programistyczny transakcji | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.2 |
| javax.xml.stream | stax-api | 1.0-2 |
| javolution | javolution | 5.5.1 |
| jline | jline | 2.14.6 |
| joda-time | joda-time | 2.10.5 |
| log4j | apache-log4j-extras | 1.2.17 |
| log4j | log4j | 1.2.17 |
| drzewa Maven | hive-2.3__hadoop-2.7 | liball_deps_2.12 |
| net.java.dev.jna | jna | 5.8.0 |
| net.razorvine | pirolit | 4:30 |
| net.sf.jpam | jpam | 1.1 |
| net.sf.opencsv | opencsv | 2.3 |
| net.sf.supercsv | super-csv | 2.2.0 |
| net.snowflake | SDK do pobierania danych Snowflake | 0.9.6 |
| net.snowflake | snowflake-jdbc | 3.13.3 |
| net.snowflake | spark-snowflake_2.12 | 2.9.0-spark_3.1 |
| net.sourceforge.f2j | arpack_combined_all | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc (niedostępne w lokalnym języku) | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | antlr-runtime | 3.5.2 |
| org.antlr | antlr4-runtime | 4.8-1 |
| org.antlr | Szablon łańcucha | 3.2.1 |
| org.apache.ant | mrówka | 1.9.2 |
| org.apache.ant | ant-jsch | 1.9.2 |
| org.apache.ant | program uruchamiający Ant | 1.9.2 |
| org.apache.arrow | format strzałki | 2.0.0 |
| org.apache.arrow | strzałka-pamięć-rdzeń | 2.0.0 |
| org.apache.arrow | arrow-memory-netty | 2.0.0 |
| org.apache.arrow | wektor strzałki | 2.0.0 |
| org.apache.avro | avro | 1.8.2 |
| org.apache.avro | avro-ipc | 1.8.2 |
| org.apache.avro | avro-mapred-hadoop2 | 1.8.2 |
| org.apache.commons | commons-compress | 1,20 |
| org.apache.commons | commons-crypto | 1.1.0 |
| org.apache.commons | commons-lang3 | 3,10 |
| org.apache.commons | commons-math3 | 3.4.1 |
| org.apache.commons | tekst wspólny | 1.6 |
| org.apache.curator | kurator-klient | 2.7.1 |
| org.apache.curator | struktura kuratora | 2.7.1 |
| org.apache.curator | przepisy kuratora | 2.7.1 |
| org.apache.derby | Derby | 10.12.1.1 |
| org.apache.directory.api | api-asn1-api | 1.0.0-M20 |
| org.apache.directory.api | api-util | 1.0.0-M20 |
| org.apache.directory.server | apacheds-i18n | 2.0.0-M15 |
| org.apache.directory.server | apacheds-kerberos-codec | 2.0.0-M15 |
| org.apache.hadoop | adnotacje hadoop | 2.7.4 |
| org.apache.hadoop | hadoop-auth | 2.7.4 |
| org.apache.hadoop | hadoop-klient | 2.7.4 |
| org.apache.hadoop | hadoop-common | 2.7.4 |
| org.apache.hadoop | Hadoop-HDFS (Hadoop Distributed File System) | 2.7.4 |
| org.apache.hadoop | Klient aplikacji Hadoop MapReduce | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-common | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-core | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-jobclient | 2.7.4 |
| org.apache.hadoop | hadoop-mapreduce-client-shuffle (moduł mieszający klienta w Hadoop MapReduce) | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-api | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-client (klient Hadoop YARN) | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-common | 2.7.4 |
| org.apache.hadoop | hadoop-yarn-server-common (Wspólne komponenty serwera Hadoop YARN) | 2.7.4 |
| org.apache.hive | hive-beeline (narzędzie do interakcji z bazą danych Hive) | 2.3.7 |
| org.apache.hive | hive-cli | 2.3.7 |
| org.apache.hive | hive-jdbc | 2.3.7 |
| org.apache.hive | Klient hive-llap | 2.3.7 |
| org.apache.hive | hive-llap-common | 2.3.7 |
| org.apache.hive | hive-serde | 2.3.7 |
| org.apache.hive | podkładki hive | 2.3.7 |
| org.apache.hive | hive-storage-api (interfejs do przechowywania danych hive) | 2.7.2 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.7 |
| org.apache.hive.shims | hive-shims-common | 2.3.7 |
| org.apache.hive.shims | harmonogram osłon/imitacji ula | 2.3.7 |
| org.apache.htrace | htrace-core | 3.1.0 inkubacja |
| org.apache.httpcomponents | httpclient | 4.5.6 |
| org.apache.httpcomponents | httpcore | 4.4.12 |
| org.apache.ivy | bluszcz | 2.4.0 |
| org.apache.mesos | mesos-shaded-protobuf | 1.4.0 |
| org.apache.orc | orc-core | 1.5.12 |
| org.apache.orc | orc-mapreduce | 1.5.12 |
| org.apache.orc | podkładki orc-shim | 1.5.12 |
| org.apache.parquet | parquet-kolumna | 1.10.1-databricks9 |
| org.apache.parquet | parquet-wspólny | 1.10.1-databricks9 |
| org.apache.parquet | kodowanie parquet | 1.10.1-databricks9 |
| org.apache.parquet | format parquet | 2.4.0 |
| org.apache.parquet | Parquet-Hadoop (framework do analizy danych) | 1.10.1-databricks9 |
| org.apache.parquet | parquet-jackson | 1.10.1-databricks9 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.xbean | xbean-asm7-cieniowany | 4.15 |
| org.apache.yetus | adnotacje dla odbiorców | 0.5.0 |
| org.apache.zookeeper - system do zarządzania konfiguracją i synchronizacją dla aplikacji rozproszonych. | opiekun zwierząt | 3.4.14 |
| org.codehaus.jackson | jackson-core-asl | 1.9.13 |
| org.codehaus.jackson | jackson-jaxrs | 1.9.13 |
| org.codehaus.jackson | jackson-mapujący-ASL | 1.9.13 |
| org.codehaus.jackson | jackson-xc | 1.9.13 |
| org.codehaus.janino | commons-kompilator | 3.0.16 |
| org.codehaus.janino | Janino | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | datanucleus-core | 4.1.17 |
| org.datanucleus | datanucleus-rdbms | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client | 9.4.36.v20210114 |
| org.eclipse.jetty | jetty-kontynuacja | 9.4.36.v20210114 |
| org.eclipse.jetty | jetty-http | 9.4.36.v20210114 |
| org.eclipse.jetty | jetty-io | 9.4.36.v20210114 |
| org.eclipse.jetty | jetty-jndi | 9.4.36.v20210114 |
| org.eclipse.jetty | Jetty-plus | 9.4.36.v20210114 |
| org.eclipse.jetty | serwer pośredniczący Jetty | 9.4.36.v20210114 |
| org.eclipse.jetty | moduł bezpieczeństwa Jetty | 9.4.36.v20210114 |
| org.eclipse.jetty | serwer Jetty | 9.4.36.v20210114 |
| org.eclipse.jetty | jetty-servlet | 9.4.36.v20210114 |
| org.eclipse.jetty | jetty-servlets | 9.4.36.v20210114 |
| org.eclipse.jetty | jetty-util | 9.4.36.v20210114 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.36.v20210114 |
| org.eclipse.jetty | Jetty-aplikacja internetowa | 9.4.36.v20210114 |
| org.eclipse.jetty | jetty-xml | 9.4.36.v20210114 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | lokalizator hk2 | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | osgi-lokalizator-zasobów | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-zapakowane ponownie | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | serwlet kontenerowy Jersey | 2.30 |
| org.glassfish.jersey.containers | jersey-container-servlet-core | 2.30 |
| org.glassfish.jersey.core | jersey-client | 2.30 |
| org.glassfish.jersey.core | dzianina-zwykła | 2.30 |
| org.glassfish.jersey.core | serwer jersey | 2.30 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.30 |
| org.glassfish.jersey.media | - "jersey-media-jaxb" не wymaga tłumaczenia, gdyż jest to nazwa techniczna, ale dla polskich odbiorców warto dodać opis lub kontynuować bez zmian, jeżeli nazwa już jako taka przyjęła się w lokalnym użyciu. | 2.30 |
| org.hibernate.validator | moduł sprawdzania poprawności hibernacji | 6.1.0 Final |
| org.javassist | javassist | 3.25.0-GA |
| org.jboss.logging | jboss-logging (narzędzie do rejestrowania zdarzeń w JBoss) | 3.3.2.Final |
| org.jdbi | jdbi | 2.63.1 |
| org.joda | joda-convert | 1,7 |
| org.jodd | jodd-core | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M5 |
| org.json4s | json4s-core_2.12 | 3.7.0-M5 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M5 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M5 |
| org.lz4 | lz4-java | 1.7.1 |
| org.mariadb.jdbc | mariadb-java-client | 2.2.5 |
| org.objenesis | objenesis | 2.5.1 |
| org.postgresql | postgresql | 42.1.4 |
| org.roaringbitmap | RoaringBitmap | 0.9.14 |
| org.roaringbitmap | Podkładki | 0.9.14 |
| org.rocksdb | rocksdbjni | 6.20.3 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.10 |
| org.scala-lang | scala-library_2.12 | 2.12.10 |
| org.scala-lang | scala-reflect_2.12 | 2.12.10 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.1.1 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | interfejs testowy | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.0.8 |
| org.scalanlp | breeze-macros_2.12 | 1.0 |
| org.scalanlp | breeze_2.12 | 1.0 |
| org.scalatest | scalatest_2.12 | 3.0.8 |
| org.slf4j | jcl-over-slf4j | 1.7.30 |
| org.slf4j | jul-to-slf4j | 1.7.30 |
| org.slf4j | slf4j-api | 1.7.30 |
| org.slf4j | slf4j-log4j12 | 1.7.30 |
| org.spark-project.spark.spark | Nieużywane | 1.0.0 |
| org.springframework | spring-core (podstawowy moduł Spring) | 4.1.4.WYDANIE |
| org.springframework | test sprężynowy | 4.1.4.WYDANIE |
| org.threeten | trzydostępne dodatkowe | 1.5.0 |
| org.tukaani | xz | 1.5 |
| org.typelevel | algebra_2.12 | 2.0.0-M2 |
| org.typelevel | cats-kernel_2.12 | 2.0.0-M4 |
| org.typelevel | machinista_2.12 | 0.6.8 |
| org.typelevel | macro-compat_2.12 | 1.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0-M1 |
| org.typelevel | spire-platform_2.12 | 0.17.0-M1 |
| org.typelevel | spire-util_2.12 | 0.17.0-M1 |
| org.typelevel | spire_2.12 | 0.17.0-M1 |
| org.wildfly.openssl | wildfly-openssl | 1.0.7.Final |
| org.xerial | sqlite-jdbc | 3.8.11.2 |
| org.xerial.snappy | snappy-java | 1.1.8.2 |
| org.yaml | snakeyaml | 1.24 |
| oro | oro | 2.0.8 |
| pl.edu.icm | JLargeArrays | 1.5 |
| oprogramowanie.amazon.ion | ion-java | 1.0.2 |
| Stax | stax-api | 1.0.1 |
| xmlenc (standard szyfrowania XML) | xmlenc (standard szyfrowania XML) | 0.52 |