다음 릴리스 정보는 Apache Spark 3.5.0에서 제공하는 Databricks Runtime 14.3 LTS에 대한 정보를 제공합니다.
Databricks는 2024년 2월에 이 버전을 릴리스했습니다.
참고
LTS는 이 버전이 장기 지원 중이라는 의미입니다. Databricks Runtime LTS 버전 수명 주기를 참조하세요.
팁
지원 종료(EoS)에 도달한 Databricks Runtime 버전에 대한 릴리스 정보를 확인하려면 지원 종료 Databricks Runtime 릴리스 정보를 참조하세요. EoS Databricks Runtime 버전은 폐기되었으며 업데이트되지 않을 수 있습니다.
새로운 기능 및 향상 기능
- PySpark User-Defined Functions(UDF)의 표준 액세스 모드 클러스터(이전의 공유 액세스 모드) 작업 영역 파일 시스템 지원
-
Photon 없이 삭제 벡터
MERGE최적화 지원 - Spark 카탈로그 API는 이제 표준 액세스 모드 완전히 지원됩니다.
- 이제 Delta UniForm이 일반적으로 공급되었습니다
- 새 SQL 함수 EXECUTE IMMEDIATE
- 델타 테이블의 데이터 건너뛰기 통계를 다시 계산
- 상태 저장 스트리밍 쿼리에 대한 쿼리 상태 정보
- 표준 클러스터 Kafka 인증에 Microsoft Entra ID 사용
- 쿼리 성능 개선하기 위해 파일 및 파티션 정리에 대한 지원이 추가되었습니다.
- SQL 세션에서 임시 변수 선언
- 사용되지 않는 기능 제거하도록 Thriftserver 업데이트
- 유니티 카탈로그 볼륨에서 트러스트 스토어 및 키스토어 파일 사용
- 네이티브 XML 파일 형식 지원(공개 미리 보기)
- Cloudflare R2 스토리지 지원(공개 미리 보기)
- 표준 액세스 Unity 카탈로그 클러스터에서 Spark 및 dbutils는 작업 영역 파일에 대한 접근을 지원합니다
- 표준 액세스 Unity 카탈로그 클러스터에 대한 Init 스크립트 및 클러스터 라이브러리 지원
표준 액세스 모드 클러스터(이전의 공유 액세스 모드)에서 PySpark User-Defined Functions(UDF)의 작업 영역 파일 시스템 지원
표준 클러스터의 PySpark UDF는 이제 Git 폴더, 작업 영역 파일 또는 UC 볼륨 Python 모듈을 가져올 수 있습니다.
Git 폴더 또는 작업 영역 파일에서 모듈을 사용하는 방법에 대한 자세한 내용은 Python 및 R 모듈 작업을 참조 하세요.
Photon을 사용하지 않는 삭제 벡터 MERGE 최적화에 대한 지원
삭제 벡터 최적화를 활용하기 위한 MERGE 작업에는 Photon이 더 이상 필요하지 않습니다.
삭제 벡터란?을 참조하세요.
이제 Spark 카탈로그 API가 표준 액세스 모드에서 완전히 지원됨
이제 표준 액세스 모드로 구성된 컴퓨팅의 Python 및 Scala 모두에서 spark.catalog API의 모든 함수를 사용할 수 있습니다.
이제 Delta UniForm을 일반 공급
이제 UniForm이 일반 공급되며 IcebergCompatV2 테이블 기능을 사용합니다. 이제 기존 테이블에서 UniForm을 사용하거나 업그레이드할 수 있습니다. Iceberg 클라이언트를 사용하여 델타 테이블 읽기
새 SQL 함수 EXECUTE IMMEDIATE
이제 EXECUTE IMMEDIATE 구문을 사용하여 SQL에서 매개 변수가 있는 쿼리를 지원할 수 있습니다. EXECUTE IMMEDIATE참조하세요.
델타 테이블의 데이터 건너뛰기 통계 다시 계산
이제 데이터 건너뛰기에 사용되는 열을 변경한 후 델타 로그에 저장된 통계를 다시 계산할 수 있습니다. 델타 통계 열을 지정하는 방법을 참조하세요.
상태 저장 스트리밍 쿼리에 대한 쿼리 상태 정보
이제 구조적 스트리밍 상태 데이터 및 메타데이터를 쿼리할 수 있습니다. 구조적 스트리밍 상태 정보 읽기를 참조하세요.
표준 클러스터에서 Kafka 인증에 Microsoft Entra ID 사용
이제 표준 액세스 모드로 구성된 컴퓨팅의 Microsoft Entra ID를 사용하여 OAuth를 통해 Event Hubs 서비스를 인증할 수 있습니다. Microsoft Entra ID 및 Azure Event Hubs를 사용한 서비스 주체 인증을 참조하세요.
쿼리 성능을 개선하기 위해 파일 및 파티션 정리에 대한 지원이 추가됨
JOIN 조건에서 null 허용 같음을 사용하는 일부 쿼리의 속도를 높이기 위해 이제 JOIN의 DynamicFilePruning 연산자에 대해 DynamicPartitionPruning 및 EqualNullSafe를 지원합니다.
SQL 세션에서 임시 변수 선언
이 릴리스에서는 쿼리 내에서 설정한 다음 참조할 수 있는 세션에서 임시 변수를 선언하는 기능을 소개합니다. 변수를 참고하세요.
사용되지 않는 기능을 제거하기 위한 Thriftserver 업데이트
Thriftserver 코드는 사용되지 않는 기능에 대한 코드를 제거하도록 업데이트되었습니다. 이러한 변경으로 인해 다음 구성은 더 이상 지원되지 않습니다.
-
hive.aux.jars.path속성을 사용하여 구성된 Hive 보조 JAR은hive-thriftserver연결에 대해 더 이상 지원되지 않습니다. -
.hiverc속성 또는hive.server2.global.init.file.location환경 변수를 사용하여 위치가 구성된 Hive global init 파일(HIVE_CONF_DIR)은hive-thriftserver연결에 대해 더 이상 지원되지 않습니다.
Unity 카탈로그 볼륨에서 truststore 및 키 저장소 파일 사용
이제 Unity 카탈로그 볼륨의 truststore 및 키 저장소 파일을 사용하여 avro 또는 프로토콜 버퍼 데이터에 대한 Confluent 스키마 레지스트리에 인증할 수 있습니다. avro 또는 프로토콜 버퍼에 대한 설명서를 참조하세요.
네이티브 XML 파일 형식 지원(공개 미리 보기)
이제 네이티브 XML 파일 형식 지원이 공개 프리뷰에 추가되었습니다. XML 파일 형식 지원을 사용하면 일괄 처리 또는 스트리밍을 위해 XML 데이터를 수집, 쿼리 및 구문 분석할 수 있습니다. 스키마 및 데이터 형식을 자동으로 유추 및 발전시키고, from_xml같은 SQL 식을 지원하며, XML 문서를 생성할 수 있습니다. 외부 jar가 필요하지 않으며 자동 로더, read_filesCOPY INTO및 DLT에서 원활하게 작동합니다.
XML 파일 읽기 및 쓰기를 참조하세요.
Cloudflare R2 스토리지 지원(공개 미리 보기)
이제 Cloudflare R2를 Unity 카탈로그에 등록된 데이터에 대한 클라우드 스토리지로 사용할 수 있습니다. Cloudflare R2는 주로 데이터가 지역을 넘을 때 클라우드 공급자가 청구하는 데이터 송신 요금을 방지하려는 델타 공유 사용 사례를 위한 것입니다. R2 스토리지는 AWS S3, Azure Data Lake Storage 및 Google Cloud Storage에서 지원되는 모든 Databricks 데이터 및 AI 자산을 지원합니다. Cloudflare R2 복제본 사용 또는 스토리지를 R2로 마이그레이션 및 Cloudflare R2에 연결하기 위한 스토리지 자격 증명 만들기를 참조하세요.
Unity 카탈로그의 표준 액세스 클러스터에서 작업 공간 파일 지원을 위한 Spark 및 dbutils 액세스
이제 작업 영역 파일에 대한 Spark 및 dbutils 읽기 및 쓰기 액세스가 표준 액세스 모드Unity 카탈로그 클러스터에서 지원됩니다.
작업 영역 파일 작업을 참조하세요.
표준 액세스 Unity 카탈로그 클러스터에 대한 Init 스크립트 및 클러스터 라이브러리 지원
이제 클러스터 정책을 사용하는 설치를 포함하여 표준 액세스 모드Unity 카탈로그 클러스터에 클러스터 범위 init 스크립트 및 Python 및 JAR 라이브러리를 설치할 수 있습니다. Databricks는 Unity 카탈로그 볼륨에서 init 스크립트 및 라이브러리를 설치하는 것을 권장합니다.
라이브러리 업그레이드
- 업그레이드된 Python 라이브러리:
- fastjsonschema 2.19.0에서 2.19.1로
- filelock 버전 3.12.4에서 3.13.1로
- googleapis-common-protos 1.61.0에서 1.62.0으로
- 패키징 버전을 22.0에서 23.2로 업데이트
- 업그레이드된 R 라이브러리:
- 0.8-82에서 0.8-85로 외화
- nlme 버전 3.1-162에서 3.1-163으로 업데이트
- rpart 4.1.19에서 4.1.21로
- 업그레이드된 Java 라이브러리:
- com.databricks.databricks-sdk-java 0.7.0에서 0.13.0까지
- org.apache.orc.orc-core 1.9.1-shaded-protobuf에서 1.9.2-shaded-protobuf로
- org.apache.orc.orc-mapreduce를 버전 1.9.1-shaded-protobuf에서 1.9.2-shaded-protobuf로 업데이트
- org.apache.orc.orc-shims 1.9.1에서 1.9.2로
- org.scala-lang.modules.scala-collection-compat_2.12의 버전을 2.9.0에서 2.11.0으로 업데이트
Apache Spark
Databricks Runtime 14.3에는 Apache Spark 3.5.0이 포함됩니다. 이 릴리스에는 Databricks Runtime 14.2(EoS)에 포함된 모든 Spark 수정 및 개선 사항뿐만 아니라 Spark에 대한 다음과 같은 추가 버그 수정 및 개선 사항이 포함되어 있습니다.
- [SPARK-46541] [SC-153546][sql][CONNECT] 자체 조인에서 모호한 열 참조 수정
- [SPARK-45433] 되돌리기 "[SC-145163][sql] CSV/JSON 스키마 유추 수정...
- [SPARK-46723] [14.3][sasp-2792][SC-153425][connect][SCALA] addArtifact 다시 시도 가능으로 만들기
- [SPARK-46660] [SC-153391][connect] ReattachExecute 요청이 SessionHolder의 활성 상태를 업데이트합니다.
- [SPARK-46670] [SC-153273][python][SQL] 정적 및 런타임 Python 데이터 원본을 구분하여 DataSourceManager를 자체 복제 가능으로 만들기
- [SPARK-46720] [SC-153410][sql][PYTHON] Python 데이터 원본을 리팩터링하여 다른 DSv2 기본 제공 데이터 원본과 일치
- [SPARK-46684] [SC-153275][python][CONNECT] 인수를 올바르게 전달하도록 CoGroup.applyInPandas/Arrow 수정
- [SPARK-46667] [SC-153271][sc-153263][SQL] XML: 여러 XML 데이터 원본에 오류 발생
- [SPARK-46382] [SC-151881][sql]XML: 기본적으로 ignoreSurroundingSpaces를 true로 설정
-
[SPARK-46382] [SC-153178][sql] XML:
ignoreSurroundingSpaces에 대한 문서 업데이트 - [SPARK-45292] 되돌리기 "[SC-151609][sql][HIVE] IsolatedClientLoader에서 공유 클래스에서 Guava 제거"
- [SPARK-45292] [SC-151609][sql][HIVE] IsolatedClientLoader에서 공유 클래스에서 Guava 제거
-
[SPARK-46311] [SC-150137][core]
Master.removeDriver동안 드라이버의 최종 상태를 기록합니다. - [SPARK-46413] [SC-151052][python] Arrow Python UDF의 returnType 유효성 검사
- [SPARK-46633] [WARMFIX][sc-153092][SQL] 길이가 0인 블록을 처리하도록 Avro 판독기 수정
- [SPARK-46537] [SC-151286][sql] NPE 및 어설션을 명령에서 내부 오류로 변환하기
- [SPARK-46179] [SC-151678][sql] Postgres부터 시작하여 다른 DBMS의 골든 파일에 대해 다양한 DBMS를 실행하는 CrossDbmsQueryTestSuites 추가
- [SPARK-44001] [SC-151413][protobuf] protobuf 잘 알려진 래퍼 형식의 래핑 해제를 허용하는 옵션 추가
- [SPARK-40876] [SC-151786][sql] Parquet 판독기에서 더 큰 소수 자릿수를 다루기 위한 데이터 유형 확장 및 승격
-
[SPARK-46605] [SC-151769][connect] connect 모듈의
lit/typedLit함수를 지원하도록 만들기s.c.immutable.ArraySeq - [SPARK-46634] [SC-153005][sql] 리터럴 유효성 검사는 null 필드로 드릴다운해서는 안 됩니다.
-
[SPARK-37039] [SC-153094][ps]
Series.astype가 누락된 값이 있어도 제대로 작동하도록 수정 -
[SPARK-46312] [SC-150163][core]
lower_camel_case사용store_types.proto에서 - [SPARK-46630] [SC-153084][sql] XML: 쓰기 시 XML 요소 이름 유효성 검사
- [SPARK-46627] [SC-152981][ss][UI] 스트리밍 UI에서 타임라인 도구 설명 콘텐츠 수정
- [SPARK-46248] [SC-151774][sql] XML: ignoreCorruptFiles 및 ignoreMissingFiles 옵션에 대한 지원
- [SPARK-46386] [SC-150766][python] 관찰 어설션 개선(pyspark.sql.observation)
- [SPARK-46581] [SC-151789][core] AccumulatorV2의 isZero에 대한 주석 업데이트
- [SPARK-46601] [SC-151785] [CORE] handleStatusMessage에서 로그 오류 수정
- [SPARK-46568] [SC-151685][python] Python 데이터 원본 옵션을 대/소문자를 구분하지 않는 사전으로 만들기
- [SPARK-46611] [SC-151783][core] SimpleDateFormat을 DateTimeFormatter로 바꿔 ThreadLocal 제거
-
[SPARK-46604] [SC-151768][sql]
Literal.apply지원s.c.immuable.ArraySeq - [SPARK-46324] [SC-150223][sql][PYTHON] pyspark.sql.functions.user 및 session_user 출력 이름 수정
- [SPARK-46621] [SC-151794][python] Py4J 캡처된 예외의 Exception.getMessage에서 null 주소
- [SPARK-46598] [SC-151767][sql] OrcColumnarBatchReader는 누락된 열에 대한 열 벡터를 만들 때 메모리 모드를 준수해야 합니다.
- [SPARK-46613] [SC-151778][sql][PYTHON] Python 데이터 원본을 조회하지 못한 경우 전체 예외 기록
-
[SPARK-46559] [SC-151364][mllib] 패키지 이름의
export를 백틱으로 감싸기 - [SPARK-46522] [SC-151784][python] 이름 충돌로 Python 데이터 원본 등록 차단
- [SPARK-45580] [SC-149956][sql] 중첩된 하위 쿼리가 존재 조인으로 변환되는 경우에 대한 처리
- [SPARK-46609] [SC-151714][sql] PartitioningPreservingUnaryExecNode에서 지수적 폭증 방지
- [SPARK-46535] [SC-151288][sql] col 통계 없이 확장된 열을 설명할 때 NPE 수정
- [SPARK-46599] [SC-147661][sc-151770][SQL] XML: 호환성 검사를 위해 TypeCoercion.findTightestCommonType 사용
- [SPARK-40876] [SC-151129][sql] Parquet 판독기에서 형식 승격 확대
- [SPARK-46179] [SC-151069][sql] SQLQueryTestSuite에서 재사용 가능한 함수로 코드 끌어오기
-
[SPARK-46586] [SC-151679][sql]
s.c.immutable.ArraySeq를customCollectionCls로MapObjects에서 지원 -
[SPARK-46585] [SC-151622][core]
metricPeaksimmutable.ArraySeq사용하는 대신mutable.ArraySeq.toSeq직접 생성된Executor - [SPARK-46488] [SC-151173][sql] 타임스탬프 파싱 중 trimAll 호출 건너뛰기
-
[SPARK-46231] [SC-149724][python] 나머지
NotImplementedError&TypeError모두 PySpark 오류 프레임워크로 마이그레이션 -
[SPARK-46348] [SC-150281][core] 지원
spark.deploy.recoveryTimeout -
[SPARK-46313] [SC-150164][core] 로그
Spark HA복구 기간 -
[SPARK-46358] [SC-150307][연결]
ResponseValidator#verifyResponse조건 검사를 간소화합니다. - [SPARK-46380] [SC-151078][sql]인라인 테이블 식을 평가하기 전에 현재 시간/날짜를 대체합니다.
- [SPARK-46563] [SC-151441][sql] conf spark.sql.debug.maxToStringFields를 따르지 않는 simpleString 보기
- [SPARK-46101] [SC-149211][core][SQL][mllib][SS][r][CONNCT][graphx] (string|array).size를 (string|array).length로 대체하여 스택 깊이를 줄입니다.
- [SPARK-46539] [SC-151469][sql] SELECT * EXCEPT(구조체의 모든 필드,) 어설션 오류를 초래합니다.
- [SPARK-46565] [SC-151414][python] Python 데이터 원본에 대한 오류 클래스 및 오류 메시지 구체화
- [SPARK-46576] [SC-151614][sql] 지원되지 않는 데이터 원본 저장 모드에 대한 오류 메시지 개선
- [SPARK-46540] [SC-151355][python] Python 데이터 원본 읽기 함수가 Row 개체라는 이름을 출력할 때 열 이름 존중
- [SPARK-46577] [SC-151448][sql] HiveMetastoreLazyInitializationSuite가 hive의 SessionState를 누출합니다.
-
[SPARK-44556] [SC-151562][sql] vectorizedReader를 사용하도록 설정할 때
OrcTail다시 사용 - [SPARK-46587] [SC-151618][sql] XML: XSD 큰 정수 변환 수정
- [SPARK-46382] [SC-151297][sql] XML: 요소 사이에 산재된 캡처 값
- [SPARK-46567] [SC-151447][core] ReadAheadInputStream에 대한 ThreadLocal 제거
- [SPARK-45917] [SC-151269][python][SQL] 시작 시 Python 데이터 원본 자동 등록
- [SPARK-28386] [SC-151014][sql] ORDER BY 및 GROUP BY 사용하여 HAVING 열을 확인할 수 없습니다.
- [SPARK-46524] [SC-151446][sql] 잘못된 저장 모드에 대한 오류 메시지 개선
- [SPARK-46294] [SC-150672][sql] init 및 0 값의 의미 체계 정리
-
[SPARK-46301] [SC-150100][core] 지원
spark.worker.(initial|max)RegistrationRetries -
[SPARK-46542] [SC-151324][sql] 항상 true이므로
c>=0에 대한 검사를ExternalCatalogUtils#needsEscaping에서 제거합니다. - 개체 dtype을 사용하는 을 위한
FutureWarning[SC-151360][ps]interpolate - [SPARK-45914] [SC-151312][python] Python 데이터 원본 쓰기에 대한 커밋 및 중단 API 지원
-
[SPARK-46543] [SC-151350][python][CONNECT] 빈 필드에 PySparkValueError를
json_tuplethrow합니다. - [SPARK-46520] [SC-151227][python] Python 데이터 원본 쓰기에 대한 덮어쓰기 모드 지원
- [SPARK-46502] [SC-151235][sql] UnwrapCastInBinaryComparison의 타임스탬프 형식 지원
-
[SPARK-46532] [SC-151279][connect]
ErrorInfo메타데이터에 메시지 매개 변수 전달 -
[SPARK-46397] 되돌리기 "[SC-151311][python][CONNECT] 함수
sha2잘못된PySparkValueError대해numBits발생시켜야 합니다." - [SPARK-46170] [SC-149472][sql] SparkSessionExtensions에서 적응 쿼리 포스트 플래너 전략 규칙 삽입 지원
- [SPARK-46444] [SC-151195][sql] V2SessionCatalog#createTable은 테이블을 로드하지 않아야 합니다.
-
[SPARK-46397] [SC-151311][python][CONNECT] 함수
sha2는 잘못된PySparkValueError에 대해numBits를 발생시켜야 합니다. - [SPARK-46145] [SC-149471][sql] spark.catalog.listTables는 테이블 또는 뷰를 찾을 수 없을 때 예외를 throw하지 않습니다.
- [SPARK-46272] [SC-151012][sql] DSv2 원본을 사용하여 CTAS 지원
- [SPARK-46480] [SC-151127][core][SQL] 테이블 캐시 작업 시도 시 NPE 수정
- [SPARK-46100] [SC-149051][core][PYTHON] (string|array).size를 (string|array).length로 교체하여 스택 깊이 줄이기
- [SPARK-45795] [SC-150764][sql] DS V2는 푸시다운 모드를 지원합니다.
- [SPARK-46485] [SC-151133][sql] V1Write는 필요하지 않은 경우 정렬을 추가하면 안 됩니다.
- [SPARK-46468] [SC-151121] [SQL] 키를 그룹화하지 않고 집계를 사용하여 EXISTS 하위 쿼리에 대한 COUNT 버그 처리
- [SPARK-46246] [SC-150927][sql] EXECUTE IMMEDIATE SQL 지원
-
[SPARK-46498] [SC-151199][core]
shuffleServiceEnabled에서o.a.spark.util.Utils#getConfiguredLocalDirs제거 -
[SPARK-46440] [SC-150807][sql] 기본적으로 rebase 구성을
CORRECTED모드로 설정 - [SPARK-45525] [SC-151120][sql][PYTHON] DSv2를 사용하여 Python 데이터 원본 쓰기 지원
-
[SPARK-46505] [SC-151187][connect] 바이트 임계값을 구성 가능하게 만들기
ProtoUtils.abbreviate - [SPARK-46447] [SC-151025][sql] 레거시 "datetime rebasing SQL 구성" 제거
- [SPARK-46443] [SC-151123][sql] H2 방언에 따라 소수 자릿수 및 소수 축척이 결정되어야 합니다.
- [SPARK-46384] [SC-150694][spark-46404][SS][ui] 구조적 스트리밍 페이지에서 작업 기간 스택 차트 수정
- [SPARK-46207] [SC-151068][sql] DataFrameWriterV2에서 MergeInto 지원
- [SPARK-46452] [SC-151018][sql] DataWriter에 새 API를 추가하여 레코드 반복기를 작성합니다.
- [SPARK-46273] [SC-150313][sql] DSv2 원본을 사용하여 INTO/OVERWRITE INSERT 지원
- [SPARK-46344] [SC-150267][core] 드라이버가 성공적으로 존재하지만 마스터 연결이 끊어지면 제대로 경고
-
[SPARK-46284] [SC-149944][python][CONNECT] Python에
session_user함수 추가 - [SPARK-46043] [SC-149786][sql] DSv2 원본을 사용하여 테이블 만들기 지원
- [SPARK-46323] [SC-150191][python] pyspark.sql.functions.now의 출력 이름 수정
-
[SPARK-46465] [SC-151059][python][CONNECT] PySpark에서
Column.isNaN추가 -
[SPARK-46456] [SC-151050][core]
spark.ui.jettyStopTimeout추가하여 Jetty 서버 중지 시간 제한을 설정하여 SparkContext 종료 차단 해제 - [SPARK-43427] [SC-150356][protobuf] spark protobuf: 부호 없는 정수 형식 업캐스트 허용
- [SPARK-46399] [SC-151013][14.x][코어] Spark 수신기를 사용하기 위해 Application End 이벤트에 종료 상태 추가
- [SPARK-46423] [SC-150752][python][SQL] DataSource.lookupDataSourceV2에서 Python 데이터 원본 인스턴스 만들기
- [SPARK-46424] [SC-150765][python][SQL] Python 데이터 원본에서 Python 메트릭 지원
- [SPARK-46330] [SC-151015] HybridStore를 사용하도록 설정한 경우 오랫동안 Spark UI 블록 로드
- [SPARK-46378] [SC-150397][sql] 집계를 프로젝트로 변환한 후에도 여전히 정렬을 제거합니다.
- [SPARK-45506] [SC-146959][connect] SparkConnect addArtifact에 ivy URI 지원 추가
- [SPARK-45814] [SC-147871][connect][SQL] 메모리 누수를 방지하기 위해 ArrowConverters.createEmptyArrowBatch가 close()를 호출하도록 하기
- [SPARK-46427] [SC-150759][python][SQL] 설명에서 Python 데이터 원본의 설명을 더 명확하고 보기 좋게 변경하다
- [SPARK-45597] [SC-150730][python][SQL] SQL에서 Python 데이터 원본을 사용하여 테이블 만들기 지원(DSv2 exec)
- [SPARK-46402] [SC-150700][python] getMessageParameters 및 getQueryContext 지원 추가
-
[SPARK-46453] [SC-150897][connect]
internalError()에서SessionHolder로 예외 발생 - [SPARK-45758] [SC-147454][sql] hadoop 압축 코덱에 대한 매퍼 소개
-
[SPARK-46213] [PYTHON] 오류 프레임워크 소개
PySparkImportError -
[SPARK-46230] [SC-149960][python]
RetriesExceeded를 PySpark 오류에 마이그레이션 - [SPARK-45035] [SC-145887][sql] multiline CSV/JSON을 사용하여 ignoreCorruptFiles/ignoreMissingFiles를 수정하면 오류가 보고됩니다.
- [SPARK-46289] [SC-150846][sql] 해석 모드에서 UDT 순서 지정 지원
- [SPARK-46229] [SC-150798][python][CONNECT] Spark Connect에서 groupBy 및 공동 그룹에 applyInArrow 추가
- [SPARK-46420] [SC-150847][sql] SparkSQLCLIDriver에서 사용되지 않는 전송 제거
-
[SPARK-46226] [PYTHON] 나머지
RuntimeError모든 항목이 PySpark 오류 프레임워크로 마이그레이션 - [SPARK-45796] [SC-150613][sql] 그룹 내 MODE() 지원(ORDER BY col)
- [SPARK-40559] [SC-149686][python][14.X] groupBy 및 공동 그룹에 applyInArrow 추가
- [SPARK-46069] [SC-149672][sql] 타임스탬프 유형을 날짜 유형으로 변환 지원
- [SPARK-46406] [SC-150770][sql] 오류 클래스에 이름 할당 _LEGACY_ERROR_TEMP_1023
-
[SPARK-46431] [SC-150782][ss] 세션 반복기에서
IllegalStateExceptioninternalError변환 - [SPARK-45807] [SC-150751][sql] ViewCatalog API 개선
- [SPARK-46009] [SC-149771][sql][CONNECT] PercentileCont 및 PercentileDisc의 구문 분석 규칙을 functionCall에 병합
- [SPARK-46403] [SC-150756][sql] getBytesUnsafe 메서드를 사용하여 parquet 이진 데이터를 디코딩하기
-
[SPARK-46389] [SC-150779][core]
RocksDB/LevelDB에서 예외가 발생할 때checkVersion인스턴스를 수동으로 닫습니다. -
[SPARK-46360] [SC-150376][python] 새
getMessageAPI를 사용하여 오류 메시지 디버깅 향상 -
[SPARK-46233] [SC-149766][python] 나머지
AttributeError모두 PySpark 오류 프레임워크로 마이그레이션 -
[SPARK-46394] [SC-150599][sql]
spark.sql.legacy.keepCommandOutputSchematrue로 설정된 경우 특수 문자가 있는 스키마의 spark.catalog.listDatabases() 문제 해결 - [SPARK-45964] [SC-148484][sql] catalyst 패키지의 XML 및 JSON 패키지에서 비공개 sql 접근자 제거
- [SPARK-45856] [SC-148691] Spark Connect에서 SparkSession으로 ArtifactManager 이동(sql/core)
- [SPARK-46409] [SC-150714][connect] spark-connect-scala-client 시작 스크립트 수정
-
[SPARK-46416] [SC-150699][core]
@tailrec을HadoopFSUtils#shouldFilterOutPath에 추가합니다. -
[SPARK-46115] [SC-149154][sql]
encode()문자 집합 제한 - [SPARK-46253] [SC-150416][python] MapInArrow를 사용하여 Python 데이터 원본 읽기 계획
- [SPARK-46339] [SC-150266][ss] 일괄 처리 번호 이름을 가진 디렉터리를 메타데이터 로그로 처리해서는 안 됩니다.
-
[SPARK-46353] [SC-150396][core]
RegisterWorker단위 테스트 범위를 개선하기 위한 리팩터링 - [SPARK-45826] [SC-149061][sql] DataFrame 쿼리 컨텍스트에서 스택 추적에 대한 SQL 구성 추가
- [SPARK-45649] [SC-150300][sql] OffsetWindowFunctionFrame에 대한 준비 프레임워크 통합
-
[SPARK-46346] [SC-150282][core] 마스터를 수정하여
UNKNOWNmsg에서 작업자를ALIVE에서RegisterWorker으로 업데이트하도록 함 -
[SPARK-46388] [SC-150496][sql] HiveAnalysis가 패턴 가드를 놓치다
query.resolved -
[SPARK-46401] [SC-150609][core]
!isEmpty()에서RoaringBitmap대신getCardinality() > 0에RemoteBlockPushResolver를 사용 - [SPARK-46393] [SC-150603][sql] JDBC 테이블 카탈로그의 예외 분류
- [SPARK-45798] [SC-150513][connect] 후속 작업: SessionHolderInfo에 serverSessionId 추가
- [SPARK-46153] [SC-146564][sc-150508][SQL] XML: TimestampNTZType 지원 추가
- [SPARK-46075] [SC-150393][connect] SparkConnectSessionManager 개선 사항
- [SPARK-46357] [SC-150596] setConf의 잘못된 설명서 사용을 conf.set로 바꾸기
- [SPARK-46202] [SC-150420][connect] 사용자 지정 대상 디렉터리를 지원하기 위해 새 ArtifactManager API 노출
-
[SPARK-45824] [SC-147648][sql]
ParseException오류 클래스 강제 적용 - [SPARK-45845] [SC-148163][ss][UI] 스트리밍 UI에 제거된 상태 행 수 추가
-
[SPARK-46316] [SC-150181][core]
buf-lint-action모듈에서core를 활성화하다 -
[SPARK-45816] [SC-147656][sql] 타임스탬프에서 정수로 캐스팅할 때 오버플로가 발생하면
NULL를 반환합니다. -
[SPARK-46333] [SC-150263][sql] 촉매에서
IllegalStateException를SparkException.internalError로 바꾸기 - [SPARK-45762] [SC-148486][core] 시작 순서를 변경하여 사용자 JAR 파일에 정의된 셔플 관리자 지원
-
[SPARK-46239] [SC-149752][core]
Jetty정보 숨기기 -
[SPARK-45886] [SC-148089][sql] DataFrame 컨텍스트의
callSite에서 전체 스택 추적 출력 - [SPARK-46290] [SC-150059][python] saveMode를 DataSourceWriter에서 불리언 플래그로 변경
- [SPARK-45899] [SC-148097][connect] errorInfoToThrowable에서 errorClass 설정
-
[SPARK-45841] [SC-147657][sql]
DataFrameQueryContext별 스택 추적 노출 -
[SPARK-45843] [SC-147721][core] REST 제출 API의
killall지원 -
[SPARK-46234] [SC-149711][python] PySpark 오류 프레임워크에 대한
PySparkKeyError소개 - [SPARK-45606] [SC-147655][sql] 다중 계층 런타임 필터에 대한 릴리스 제한
- [SPARK-45725] [SC-147006][sql] 기본이 아닌 IN 하위 쿼리 런타임 필터 제거
-
[SPARK-45694] [SC-147314][spark-45695][SQL] 더 이상 사용되지 않는 API 사용을
View.force정리하고ScalaNumberProxy.signum -
[SPARK-45805] [SC-147488][sql]
withOrigin더 일반화 - [SPARK-46292] [SC-150086][core][UI] MasterPage에서 작업자 요약 표시
-
[SPARK-45685] [SC-146881][core][SQL]
LazyList대신Stream사용 - [SPARK-45888] [SC-149945][ss] 상태(메타데이터) 데이터 원본에 오류 클래스 프레임워크 적용
-
[SPARK-46261] [SC-150111][connect]
DataFrame.withColumnsRenamed받아쓰기/맵 순서를 유지해야 합니다. -
[SPARK-46263] [SC-149933][sql][SS][ml][MLLIB][ui]
SeqOps.view정리 및ArrayOps.view변환 -
[SPARK-46029] [SC-149255][sql] DS V2 푸시다운에 대해 작은따옴표와
_및%를 이스케이프 처리 - [SPARK-46275] [SC-150189] Protobuf: 역직렬화가 실패하면 허용 모드에서 null을 반환합니다.
-
[SPARK-46320] [SC-150187][core] 지원
spark.master.rest.host - [SPARK-46092] [SC-149658][sql] 범위를 초과하는 Parquet 행 그룹 필터를 푸시하지 않기.
- [SPARK-46300] [SC-150097][python][CONNECT] 열의 세부 동작을 완전한 테스트 범위와 일치시키기
- [SPARK-46298] [SC-150092][python][CONNECT] Catalog.createExternalTable의 사용 중단 경고, 테스트 사례 및 오류 일치
-
[SPARK-45689] [SC-146898][spark-45690][SPARK-45691][core][SQL]
StringContext/StringOps/RightProjection/LeftProjection/Either및BufferedIterator/CanBuildFrom/Traversable와 관련된 API 사용에서 사용되지 않은 부분을 정리하고 형식 사용을 개선합니다. - [SPARK-33393] [SC-148407][sql] v2의 SHOW TABLE EXTENDED 지원
-
[SPARK-45737] [SC-147011][sql]
.toArray[InternalRow]을SparkPlan#executeTake에서 불필요하게 제거 - [SPARK-46249] [SC-149797][ss] 백그라운드 작업과의 경합을 방지하기 위해 RocksDB 메트릭을 획득하기 위한 인스턴스 잠금 필요
-
[SPARK-46260] [SC-149940][python][SQL]
DataFrame.withColumnsRenamed받아쓰기 순서를 따라야 합니다. - [SPARK-46274] [SC-150043] [SQL] 변환하기 전에 긴 유효성을 검사하도록 Range 연산자 computeStats()를 수정합니다.
- [SPARK-46040] [SC-149767][sql][Python] 일반 식을 지원하도록 '분석' 분할/순서 지정 열에 대한 UDTF API 업데이트
-
[SPARK-46287] [SC-149949][python][CONNECT]
DataFrame.isEmpty모든 데이터 형식에서 작동해야 합니다. - [SPARK-45678] [SC-146825][core] tryOrFetchFailedException 하에서 BufferReleasingInputStream.available/reset을 다루다
-
[SPARK-45667] [SC-146716][core][SQL][connect]
IterableOnceExtensionMethods관련된 사용되지 않는 API 사용량을 정리합니다. -
[SPARK-43980] [SC-148992][sql]
select * except구문 소개 - [SPARK-46269] [SC-149816][ps] 더 많은 NumPy 호환성 함수 테스트를 사용하도록 설정
- [SPARK-45807] [SC-149851][sql] ViewCatalog에 createOrReplaceView(..) / replaceView(..) 추가
-
[SPARK-45742] [SC-147212][core][CONNECT][mllib][PYTHON] Scala Array를
immutable.ArraySeq로 래핑하는 암시적 함수를 도입합니다. -
[SPARK-46205] [SC-149655][core]
PersistenceEngine로KryoSerializer성능을 향상하다 - [SPARK-45746] [SC-149359][python] UDTF 'analyze' 또는 'eval' 메서드가 잘못된 값을 수락하거나 반환하는 경우 특정 오류 메시지를 반환합니다.
- [SPARK-46186] [SC-149707][connect] ExecuteThreadRunner가 시작하기 전에 중단되었을 때 잘못된 상태 전환 수정
-
[SPARK-46262] [SC-149803][ps] Pandas-on-Spark 개체에 대한
np.left_shift의 테스트를 활성화합니다. - [SPARK-45093] [SC-149679][connect][PYTHON] AddArtifactHandler에 대한 오류 처리 및 변환을 올바르게 지원합니다.
- [SPARK-46188] [SC-149571][doc][3.5] Spark 문서의 생성된 테이블 CSS 수정
- [SPARK-45940] [SC-149549][python] DataSourceReader 인터페이스에 InputPartition 추가
- [SPARK-43393] [SC-148301][sql] 주소 시퀀스 식 오버플로 버그입니다.
- [SPARK-46144] [SC-149466][sql] 실패하다 INSERT... 조건에 하위 쿼리가 포함되어 있을 때는 REPLACE 문을 사용하세요.
-
[SPARK-46118] [SC-149096][sql][SS][connect]
SparkSession.sessionState.conf대신SQLContext.conf사용하고SQLContext.conf더 이상 사용되지 않는 것으로 표시 - [SPARK-45760] [SC-147550][sql] 식 중복을 방지하기 위해 식과 함께 추가
- [SPARK-43228] [SC-149670][sql] 조인 키도 CoalesceBucketsInJoin의 PartitioningCollection과 일치합니다.
- [SPARK-46223] [SC-149691][ps] 사용되지 않는 코드 정리를 사용하여 SparkPandasNotImplementedError 테스트
-
[SPARK-46119] [SC-149205][sql]
toString에 대한UnresolvedAlias메서드 오버라이드 - [SPARK-46206] [SC-149674][ps] SQL 프로세서에 더 좁은 범위 예외 사용
-
[SPARK-46191] [SC-149565][core] 기존 파일의 경우
FileSystemPersistenceEngine.persist오류 msg 개선 - [SPARK-46036] [SC-149356][sql] raise_error 함수에서 오류 클래스 제거
- [SPARK-46055] [SC-149254][sql] 카탈로그 데이터베이스 API 구현 다시 쓰기
- [SPARK-46152] [SC-149454][sql] XML: XML 스키마 유추에서 DecimalType 지원 추가
- [SPARK-45943] [SC-149452][sql] DetermineTableStats를 확인 규칙으로 이동
-
[SPARK-45887] [SC-148994][sql] codegen 및 non-codegen 구현 정렬
Encode - [SPARK-45022] [SC-147158][sql] 데이터 세트 API 오류에 대한 컨텍스트 제공
- ko-KR: [SPARK-45469] [SC-145135][core][SQL][connect][PYTHON]
toIterator를iterator로 교체IterableOnce - [SPARK-46141] [SC-149357][sql] spark.sql.legacy.ctePrecedencePolicy의 기본값을 CORRECTED로 변경
-
[SPARK-45663] [SC-146617][core][MLLIB]
IterableOnceOps#aggregate를IterableOnceOps#foldLeft로 교체 - [SPARK-45660] [SC-146493][sql] ComputeCurrentTime 규칙에서 리터럴 개체 다시 사용
-
[SPARK-45803] [SC-147489][core] 더 이상 사용되지 않는
RpcAbortException제거 - [SPARK-46148] [SC-149350][ps] pyspark.pandas.mlflow.load_model 테스트 수정(Python 3.12)
- [SPARK-46110] [SC-149090][python] 카탈로그, conf, 연결, 관찰, pandas 모듈에서 오류 클래스 사용
- [SPARK-45827] [SC-149203][sql] codegen 및 벡터화 판독기 비활성화 시 관련 문제 수정
- [SPARK-46080] "[SC-149012][python] Cloudpickle을 3.0.0으로 업그레이드" 되돌리기
-
[SPARK-45460] [SC-144852][sql]
scala.collection.convert.ImplicitConversions를scala.jdk.CollectionConverters로 교체하기 - [SPARK-46073] [SC-149019][sql] 특정 명령에 대한 UnresolvedNamespace의 특수 해상도 제거
- [SPARK-45600] [SC-148976][python] Python 데이터 원본 등록 세션 수준 만들기
- [SPARK-46074] [SC-149063][connect][SCALA] UDF 오류에 대한 오류 메시지의 세부 정보가 부족합니다.
- [SPARK-46114] [SC-149076][python] 오류 프레임워크에 PySparkIndexError 추가
-
[SPARK-46120] [SC-149083][connect][PYTHON] 도우미 함수
DataFrame.withPlan제거 - [SPARK-45927] [SC-148660][python] Python 데이터 원본에 대한 업데이트 경로 처리
- [SPARK-46062] [14.x][sc-148991][SQL] CTE 정의와 참조 간에 isStreaming 플래그 동기화
-
[SPARK-45698] [SC-146736][core][SQL][ss]
Buffer관련된 사용되지 않는 API 사용량 정리 - [SPARK-46064] [SC-148984][sql][SS] EliminateEventTimeWatermark를 분석기로 이동하고 해결된 자식에만 적용되도록 변경
- [SPARK-45922] [SC-149038][connect][CLIENT] 사소한 재시도 리팩터링(여러 정책에 대한 후속 작업)
- [SPARK-45851] [SC-148419][connect][SCALA] scala 클라이언트에서 여러 정책 지원
- [SPARK-45974] [SC-149062][sql] RowLevelOperationRuntimeGroupFiltering에 대해 scan.filterAttributes가 비어 있지 않음을 판단하는 기능 추가
- [SPARK-46085] [SC-149049][connect] Scala Spark Connect 클라이언트의 Dataset.groupingSets
- [SPARK-45136] [SC-146607][connect] Ammonite 지원으로 ClosureCleaner 향상
- [SPARK-46084] [SC-149020][ps] 범주 형식에 대한 데이터 형식 캐스팅 작업을 리팩터링합니다.
- [SPARK-46083] [SC-149018][python] SparkNoSuchElementException을 정식 오류 API로 만들기
- [SPARK-46048] [SC-148982][python][CONNECT] Python Spark Connect에서 DataFrame.groupingSets 지원
- [SPARK-46080] [SC-149012][python] Cloudpickle을 3.0.0으로 업그레이드
- [SPARK-46082] [SC-149015][python][CONNECT] Spark Connect를 사용하여 Pandas Functions API에 대한 protobuf 문자열 표현 수정
-
[SPARK-46065] [SC-148985][ps]
(DataFrame|Series).factorize()사용하도록create_map리팩터링합니다. - [SPARK-46070] [SC-148993][sql] 핫 루프 외부의 SparkDateTimeUtils.getZoneId에서 regex 패턴 컴파일
- [SPARK-46063] [SC-148981][python][CONNECT] 아규먼트 타입과 관련된 오류 메시지를 큐트, 롤업, groupby 및 피벗에서 개선
- [SPARK-44442] [SC-144120][mesos] Mesos 지원 제거
- [SPARK-45555] [SC-147620][python] 실패한 어설션에 대한 디버깅 가능한 개체 포함
- [SPARK-46048] [SC-148871][python][SQL] PySpark에서 DataFrame.groupingSets 지원
- [SPARK-45768] [SC-147304][sql][PYTHON] 장애 처리기를 SQL에서 Python 실행에 대한 런타임 구성으로 만들기
- [SPARK-45996] [SC-148586][python][CONNECT] Spark Connect에 대한 적절한 종속성 요구 사항 메시지 표시
- [SPARK-45681] [SC-146893][ui] UI에서 일관된 오류 렌더링을 위해 js 버전의 UIUtils.errorMessageCell 복제
-
[SPARK-45767] [SC-147225][core]
TimeStampedHashMap및 해당 UT 삭제 - [SPARK-45696] [SC-148864][core] fix 메서드 tryCompleteWith in trait Promise는 더 이상 사용되지 않습니다.
- [SPARK-45503] [SC-146338][ss] RocksDB 압축 설정에 Conf 추가
-
[SPARK-45338] [SC-143934][core][SQL]
scala.collection.JavaConverters을scala.jdk.CollectionConverters로 교체하기 -
[SPARK-44973] [SC-148804][sql]
ArrayIndexOutOfBoundsException에서conv()수정 - [SPARK-45912] [SC-144982][sc-148467][SQL] XSDToSchema API 향상: 클라우드 스토리지 접근성을 위한 HDFS API로 변경
-
[SPARK-45819] [SC-147570][core] REST 제출 API에서
clear지원 -
[SPARK-45552] [14.x][sc-146874][PS] 유연한 매개변수를 도입합니다
assertDataFrameEqual -
[SPARK-45815] [SC-147877][sql][Streaming][14.x][CHERRY-PICK] 다른 스트리밍 원본에 대한 인터페이스를 제공하여
_metadata열을 추가합니다. - [SPARK-45929] [SC-148692][sql] 데이터 프레임 API에서 groupingSets 작업 지원
- [SPARK-46012] [SC-148693][core] EventLogFileReader는 앱 상태 파일이 없는 경우 롤링 로그를 읽지 않아야 합니다.
- [SPARK-45965] [SC-148575][sql] DSv2 분할 식을 functions.partitioning으로 이동
-
[SPARK-45971] [SC-148541][core][SQL]
SparkCollectionUtils패키지 이름을org.apache.spark.util으로 수정합니다. -
[SPARK-45688] [SC-147356][spark-45693][CORE]
MapOps&method += in trait Growable is deprecated관련 사용되지 않는 API 사용 정리, 수정 완료 -
[SPARK-45962] [SC-144645][sc-148497][SQL] XML 대신
treatEmptyValuesAsNulls제거하고nullValue옵션 사용 -
[SPARK-45988] [SC-148580][spark-45989][PYTHON] Python 3.11 이상에서
listGenericAlias를 처리하도록 typehints 수정 -
[SPARK-45999] [SC-148595][ps]
PandasProduct에 전용cumprod를 사용합니다. -
[SPARK-45986] [SC-148583][ml][PYTHON] Python 3.11에서
pyspark.ml.torch.tests.test_distributor수정 -
[SPARK-45994] [SC-148581][python]
description-file를description_file로 변경 - [SPARK-45575] [SC-146713][sql] df 읽기 API에 대한 시간 이동 옵션 지원
- [SPARK-45747] [SC-148404][ss] 상태 메타데이터의 접두사 키 정보를 사용하여 세션 창 집계에 대한 읽기 상태 처리
- [SPARK-45898] [SC-148213][sql] 해결되지 않은 논리 계획을 사용하도록 카탈로그 테이블 API 다시 작성
- [SPARK-45828] [SC-147663][sql] dsl에서 사용되지 않는 메서드 제거
-
[SPARK-45990] [SC-148576][spark-45987][PYTHON][connect]
protobuf4.25.1로 업그레이드하여Python 3.11을 지원합니다. - [SPARK-45911] [SC-148226][core] TLS1.3을 RPC SSL의 기본값으로 설정
- [SPARK-45955] [SC-148429][ui] 플레임그래프 및 스레드 덤프 세부 정보에 대한 축소 기능 지원
-
[SPARK-45936] [SC-148392][ps] 최적화
Index.symmetric_difference - [SPARK-45389] [SC-144834][sql][3.5] 파티션 메타데이터 가져오기에 대한 MetaException 일치 규칙 수정
- [SPARK-45655] [SC-148085][sql][SS] CollectMetrics의 AggregateFunctions 내에서 비결정적 식 허용
- [SPARK-45946] [SC-148448][ss] RocksDBSuite에서 기본 문자 집합을 전달하도록 사용 중지된 FileUtils 쓰기의 사용 수정
- [SPARK-45511] [SC-148285][ss] 상태 데이터 원본 - 리더
-
[SPARK-45918] [SC-148293][ps]
MultiIndex.symmetric_difference최적화 - [SPARK-45813] [SC-148288][connect][PYTHON] 명령에서 관찰된 메트릭 반환
-
[SPARK-45867] [SC-147916][core] 지원
spark.worker.idPattern -
[SPARK-45945] [SC-148418][connect]
parser도우미 함수 추가 - [SPARK-45930] [SC-148399][sql] MapInPandas/MapInArrow에서 비결정적 UDF 지원
- [SPARK-45810] [SC-148356][python] Python UDTF API를 만들어 입력 테이블에서 행 사용을 중지합니다.
-
[SPARK-45731] [SC-147929][sql] 또한
ANALYZE TABLE명령을 사용하여 파티션 통계 업데이트 -
[SPARK-45868] [SC-148355][connect] 바닐라 스파크와 동일한 파서를
spark.table사용하도록 확인하다 - [SPARK-45882] [SC-148161][sql] BroadcastHashJoinExec 전파 분할은 CoalescedHashPartitioning을 존중해야 합니다.
- [SPARK-45710] [SC-147428][sql] 오류 _LEGACY_ERROR_TEMP_21에 이름을 할당[59,60,61,62]
-
[SPARK-45915] [SC-148306][sql] decimal(x, 0)을 IntegralType과 동일하게 취급합니다
PromoteStrings - [SPARK-45786] [SC-147552][sql] 부정확한 10진수 곱하기 및 나누기 결과 수정
-
[SPARK-45871] [SC-148084][connect]
.toBuffer모듈의connect관련된 최적화 컬렉션 변환 - [SPARK-45822] [SC-147546][connect] SparkConnectSessionManager는 중지된 sparkcontext를 조회할 수 있습니다.
- [SPARK-45913] [SC-148289][python] PySpark 오류에서 내부 특성을 비공개로 만듭니다.
- [SPARK-45827] [SC-148201][sql] Spark에 Variant 데이터 형식을 추가합니다.
- [SPARK-44886] [SC-147876][sql] CREATE/REPLACE CLUSTER BY에 대한 TABLE 구문을 도입하다
-
[SPARK-45756] [SC-147959][core] 지원
spark.master.useAppNameAsAppId.enabled - [SPARK-45798] [SC-147956][connect] 서버 쪽 세션 ID 어설션
-
[SPARK-45896] [SC-148091][sql] 올바른 예상 형식의
ValidateExternalType생성 -
[SPARK-45902] [SC-148123][sql]
resolvePartitionColumns사용하지 않는 함수DataSource제거 -
[SPARK-45909] [SC-148137][sql]
NumericType안전하게 업캐스트할 수 있는 경우IsNotNull캐스트 제거 - [SPARK-42821] [SC-147715][sql] splitFiles 메서드에서 사용되지 않는 매개 변수 제거
-
[SPARK-45875] [SC-148088][core]
MissingStageTableRowData모듈에서core제거 - [SPARK-45783] [SC-148120][python][CONNECT] Spark Connect 모드를 사용하지만 원격 URL이 설정되지 않은 경우 오류 메시지 개선
- [SPARK-45804] [SC-147529][ui] spark.ui.threadDump.flamegraphEnabled 구성을 추가하여 불꽃 그래프 켜기/끄기
- [SPARK-45664] [SC-146878][sql] 오크 압축 코덱에 대한 매퍼 소개
- [SPARK-45481] [SC-146715][sql] parquet 압축 코덱용 매퍼 소개
- [SPARK-45752] [SC-148005][sql] 참조되지 않은 CTE 관계를 확인하기 위한 코드 간소화
- [SPARK-44752] [SC-146262][sql] XML: Spark 문서 업데이트
- [SPARK-45752] [SC-147869][sql] 참조되지 않은 CTE는 모두 CheckAnalysis0에서 검사되어야 함
- [SPARK-45842] [SC-147853][sql] 분석기를 사용하도록 카탈로그 함수 API 리팩터링
- [SPARK-45639] [SC-147676][sql][PYTHON] DataFrameReader에서 Python 데이터 원본 로드 지원
- [SPARK-45592] [SC-146977][sql] InMemoryTableScanExec를 사용한 AQE의 정확성 문제
- [SPARK-45794] [SC-147646][ss] 스트리밍 상태 메타데이터 정보를 쿼리하기 위한 상태 메타데이터 소스 도입
- [SPARK-45739] [SC-147059][python] faulthandler의 EOFException 대신 IOException 캐치
- [SPARK-45677] [SC-146700] 관찰 API에 대한 더 나은 오류 로깅
- [SPARK-45544] [SC-146873][core] TransportContext에 SSL 지원 통합
- [SPARK-45654] [SC-147152][python] Python 데이터 원본 쓰기 API 추가
-
[SPARK-45771] [SC-147270][core] 기본적으로
spark.eventLog.rolling.enabled사용 - [SPARK-45713] [SC-146986][python] Python 데이터 원본 등록 지원
- [SPARK-45656] [SC-146488][sql] 다른 데이터 세트에 동일한 이름의 관찰 이름이 지정된 경우 관찰 수정
- [SPARK-45808] [SC-147571][connect][PYTHON] SQL 예외에 대한 더 나은 오류 처리
-
[SPARK-45774] [SC-147353][core][UI]
spark.master.ui.historyServerUrl지원ApplicationPage -
[SPARK-45776] [SC-147327][core] SPARK-39553에 추가된
MapOutputTrackerMaster#unregisterShuffle에 대한 방어 null 검사를 제거 - [SPARK-45780] [SC-147410][connect] 모든 Spark Connect 클라이언트 스레드로컬을 InheritableThread에 전달
-
[SPARK-45785] [SC-147419][core] 앱 번호를 회전하는
spark.deploy.appNumberModulo지원 - [SPARK-45793] [SC-147456][core] 기본 제공 압축 코덱 개선
- [SPARK-45757] [SC-147282][ml] 이진 변환기에서 NNZ의 다시 계산 방지
- [SPARK-45209] [SC-146490][core][UI] 실행기 스레드 덤프 페이지에 대한 플레임 그래프 기능 지원
-
[SPARK-45777] [SC-147319][core]
spark.test.appId지원LocalSchedulerBackend - [SPARK-45523] [SC-146331][python] 지름길을 사용하도록 null 검사 리팩터링
- [SPARK-45711] [SC-146854][sql] avro 압축 코덱에 대한 매퍼 소개
- [SPARK-45523] [SC-146077][python] UDTF가 null을 허용하지 않는 열에 대해 None을 반환하는 경우 유용한 오류 메시지를 반환합니다.
- [SPARK-45614] [SC-146729][sql] 오류 _LEGACY_ERROR_TEMP_215[6,7,8]에 이름 지정하기
-
[SPARK-45755] [SC-147164][sql] 전역 제한
Dataset.isEmpty()적용하여1개선 - [SPARK-45569] [SC-145915][sql] 오류 _LEGACY_ERROR_TEMP_2153에 이름을 할당
-
[SPARK-45749] [SC-147153][core][WEBUI]
Spark History Server열을 올바르게 정렬하기 위해Duration수정합니다. -
[SPARK-45754] [SC-147169][core] 지원
spark.deploy.appIdPattern -
[SPARK-45707] [SC-146880][sql]
DataFrameStatFunctions.countMinSketch사용하여CountMinSketchAgg간소화 -
[SPARK-45753] [SC-147167][core] 지원
spark.deploy.driverIdPattern -
[SPARK-45763] [SC-147177][core][UI]
MasterPage를 개선하여Resource열이 존재할 때만 표시하도록 함 - [SPARK-45112] [SC-143259][sql] SQL 데이터 세트 함수에서 UnresolvedFunction 기반 해상도 사용
Databricks ODBC/JDBC 드라이버 지원
Databricks는 지난 2년 동안 릴리스된 ODBC/JDBC 드라이버를 지원합니다. 최근에 출시된 드라이버를 다운로드하고 업그레이드하세요(ODBC 다운로드, JDBC 다운로드).
유지 관리 업데이트
Databricks Runtime 14.3 유지 관리 업데이트를 참조 하세요.
시스템 환경
-
운영 체제: Ubuntu 22.04.3 LTS
- 참고: Databricks 런타임 컨테이너에서 사용하는 Ubuntu 버전입니다. DBR 컨테이너는 다른 Ubuntu 버전 또는 Linux 배포를 사용할 수 있는 클라우드 공급자의 가상 머신에서 실행됩니다.
- Java: Zulu 8.74.0.17-CA-linux64
- Scala: 2.12.15
- Python: 3.10.12
- R: 4.3.1
- 델타 레이크: 3.1.0
설치된 Python 라이브러리
| 라이브러리 | 버전 | 라이브러리 | 버전 | 라이브러리 | 버전 |
|---|---|---|---|---|---|
| 애니오 | 3.5.0 | argon2-cffi | 21.3.0 | argon2-cffi-bindings (아르곤2-CFFI 바인딩) | 21.2.0 |
| 에이에스티토큰 | 2.0.5 | 속성 | 22.1.0 | 백콜 | 0.2.0 |
| beautifulsoup4 | 4.11.1 | 검정색 | 22.6.0 | 표백제 | 4.1.0 |
| 깜빡이 | 1.4 | boto3 | 1.24.28 | 보토코어 | 1.27.96 |
| 서티피 | 2022.12.7 | cffi | 1.15.1 | 챠데트 | 4.0.0 |
| 문자셋-정규화기 (charset-normalizer) | 2.0.4 | 클릭 | 8.0.4 | 통신 | 0.1.2 |
| 컨투어파이 (contourpy) | 1.0.5 | 암호화 | 39.0.1 | 사이클러 | 0.11.0 |
| 사이톤 (Cython) | 0.29.32 | 데이터브릭스 SDK (소프트웨어 개발 키트) | 0.1.6 | dbus-python | 1.2.18 |
| debugpy | 1.6.7 | 장식가 | 5.1.1 | defusedxml (보안 기능이 강화된 XML 라이브러리) | 0.7.1 |
| distlib (디스트립 라이브러리) | 0.3.7 | docstring을 Markdown으로 변환하기 | 0.11 | 진입점 | 0.4 |
| 실행 중 | 0.8.3 | 측면 개요 | 1.1.1 | fastjsonschema (파스트제이슨스키마) | 2.19.1 |
| 파일 잠금 | 3.13.1 | 폰트툴즈 (fonttools) | 4.25.0 | googleapis-common-protos | 1.62.0 |
| grpcio (Python용 gRPC 패키지) | 1.48.2 | grpcio-status | 1.48.1 | httplib2 | 0.20.2 |
| 아이드나 | 3.4 | importlib-metadata | 4.6.4 | ipykernel | 6.25.0 |
| ipython | 8.14.0 | ipython-genutils (아이파이썬 젠유틸스) | 0.2.0 | ipywidgets (아이파이위젯) | 7.7.2 |
| Jedi | 0.18.1 | 지프니 (필리핀의 대중교통 차량) | 0.7.1 | Jinja2 | 3.1.2 |
| jmespath | 0.10.0 | joblib (잡리브) | 1.2.0 | JSON 스키마 | 4.17.3 |
| 주피터-클라이언트 (jupyter-client) | 7.3.4 | 주피터 서버 | 1.23.4 | 주피터 코어 (jupyter_core) | 5.2.0 |
| jupyterlab-pygments | 0.1.2 | 주피터랩 위젯 | 1.0.0 | 열쇠고리 | 23.5.0 |
| 키위솔버 (kiwisolver) | 1.4.4 | launchpadlib (런치패드 라이브러리) | 1.10.16 | lazr.restfulclient | 0.14.4 |
| lazr.uri | 1.0.6 | lxml | 4.9.1 | MarkupSafe (마크업세이프) | 2.1.1 |
| matplotlib (매트플롯립) | 3.7.0 | matplotlib-inline (매트플롯립-인라인) | 0.1.6 | 맥케이브 | 0.7.0 |
| 미튠 | 0.8.4 | more-itertools (모어 이터툴즈) | 8.10.0 | mypy-extensions (마이파이-익스텐션) | 0.4.3 |
| nbclassic | 0.5.2 | nb클라이언트 | 0.5.13 | nbconvert | 6.5.4 |
| nbformat | 5.7.0 | nest-asyncio (파이썬 비동기 I/O 라이브러리) | 1.5.6 | nodeenv | 1.8.0 |
| Notebook | 6.5.2 | 노트북_쉼 | 0.2.2 | numpy (파이썬의 수치 계산용 라이브러리) | 1.23.5 |
| oauthlib | 3.2.0 | 패키징 | 23.2 | 팬더 | 1.5.3 |
| pandocfilters | 1.5.0 | 파르소 | 0.8.3 | 패스스펙 (pathspec) | 0.10.3 |
| 희생양 | 0.5.3 | pexpect (피엑스펙트) | 4.8.0 | 픽클쉐어 | 0.7.5 |
| 베개 | 9.4.0 | 파이썬 패키지 설치 도구 pip | 22.3.1 | 플랫폼 디렉토리 | 2.5.2 |
| plotly (데이터 시각화 라이브러리) | 5.9.0 | 플러기 | 1.0.0 | prometheus-client | 0.14.1 |
| prompt-toolkit (프롬프트 도구 키트) | 3.0.36 | 프로토버프 (protobuf) | 4.24.0 | psutil (시스템 및 프로세스 유틸리티용 Python 라이브러리) | 5.9.0 |
| psycopg2 | 2.9.3 | PtyProcess | 0.7.0 | pure-eval | 0.2.2 |
| pyarrow | 8.0.0 | pyarrow-hotfix (긴급 수정 패치) | 0.5 | pycparser | 2.21 |
| pydantic (파이썬 데이터 검증 및 설정 관리 라이브러리) | 1.10.6 | pyflakes (파이플레이크스) | 3.1.0 | 파이그먼츠 | 2.11.2 |
| PyGObject | 3.42.1 | PyJWT | 2.3.0 | 파이썬 ODBC 라이브러리 pyodbc | 4.0.32 |
| pyparsing (파이썬 파싱 라이브러리) | 3.0.9 | 피라이트(Pyright) | 1.1.294 | pyrsistent | 0.18.0 |
| python-dateutil (파이썬 날짜 유틸) | 2.8.2 | 파이썬-LSP-JSON-RPC | 1.1.1 | python-lsp-server (파이썬 LSP 서버) | 1.8.0 |
| 파이툴콘피그 (pytoolconfig) | 1.2.5 | pytz (파이썬의 타임존 계산을 위한 라이브러리) | 2022년 7월 | pyzmq | 23.2.0 |
| 요청 | 2.28.1 | 밧줄 | 1.7.0 | s3transfer | 0.6.2 |
| scikit-learn (파이썬 머신러닝 라이브러리) | 1.1.1 | scipy (과학 컴퓨팅 라이브러리) | 1.10.0 | 바다에서 태어난 | 0.12.2 |
| SecretStorage | 3.3.1 | Send2Trash | 1.8.0 | setuptools (셋업툴즈) | 65.6.3 |
| 6 | 1.16.0 | 스니피오 | 1.2.0 | 수프시브 | 2.3.2.post1 |
| ssh-import-id 명령어 | 5.11 | 스택 데이터 | 0.2.0 | statsmodels (파이썬 통계 모형 라이브러리) | 0.13.5 |
| 끈기 | 8.1.0 | 종료 | 0.17.1 | threadpoolctl | 2.2.0 |
| tinycss2 | 1.2.1 | 토큰화-RT | 4.2.1 | tomli | 2.0.1 |
| 토네이도 | 6.1 | 트레잇렛 | 5.7.1 | 타이핑_익스텐션 | 4.4.0 |
| ujson (파이썬에서 JSON 직렬화를 위한 라이브러리) | 5.4.0 | 자동 업그레이드 | 0.1 | urllib3 | 1.26.14 |
| virtualenv | 20.16.7 | wadllib | 1.3.6 | wcwidth (문자의 너비를 계산하는 함수) | 0.2.5 |
| 웹 인코딩 | 0.5.1 | 웹소켓 클라이언트 | 0.58.0 | 패치가 뭐야 (whatthepatch) | 1.0.2 |
| 바퀴 | 0.38.4 | widgetsnbextension (위젯 확장 프로그램) | 3.6.1 | yapf | 0.33.0 |
| 지퍼 | 1.0.0 |
설치된 R 라이브러리
R 라이브러리는 2023-07-13: https://packagemanager.posit.co/cran/2023-07-13/Posit 패키지 관리자 CRAN 스냅샷에서 설치됩니다.
| 라이브러리 | 버전 | 라이브러리 | 버전 | 라이브러리 | 버전 |
|---|---|---|---|---|---|
| 화살표 | 12.0.1 | askpass (비밀번호 입력 요청) | 1.1 | assertthat (어설트댓) | 0.2.1 |
| 백포트 | 1.4.1 | 기반 | 4.3.1 | base64enc | 0.1-3 |
| 비트 | 4.0.5 | 64비트 | 4.0.5 | 덩어리 | 1.2.4 |
| 부츠 | 1.3-28 | 양조하다 | 1.0-8 | 활기 | 1.1.3 |
| 빗자루 | 1.0.5 | bslib | 0.5.0 | 캐시미어 | 1.0.8 |
| 콜러 | 3.7.3 | 캐럿 | 6.0-94 | 셀레인저 (cellranger) | 1.1.0 |
| 크론 | 2.3-61 | 클래스 | 7.3-22 | 커맨드 라인 인터페이스 (CLI) | 3.6.1 |
| 클리퍼 | 0.8.0 | 시계 | 0.7.0 | 클러스터 | 2.1.4 |
| 코드 도구 | 0.2-19 | 색 공간 | 2.1-0 | 코먼마크 | 1.9.0 |
| 컴파일러 | 4.3.1 | 구성 | 0.3.1 | 갈등을 겪는 | 1.2.0 |
| cpp11 | 0.4.4 | 크레용 | 1.5.2 | 자격 증명 | 1.3.2 |
| 컬 | 5.0.1 | data.table (데이터 테이블) | 1.14.8 | 데이터셋 | 4.3.1 |
| DBI | 1.1.3 | dbplyr | 2.3.3 | 설명 | 1.4.2 |
| 개발자 도구 | 2.4.5 | 다이어그램 | 1.6.5 | 디포브젝트 | 0.3.5 |
| 요약 | 0.6.33 | 다운라이트 | 0.4.3 | dplyr (데이터 조작을 위한 R 패키지) | 1.1.2 |
| dtplyr | 1.3.1 | e1071 | 1.7-13 | 줄임표 | 0.3.2 |
| 평가하다 | 0.21 | 팬시 | 1.0.4 | 색상 | 2.1.1 |
| 패스트맵 | 1.1.1 | 폰트어썸 (fontawesome) | 0.5.1 | 포캣츠 | 1.0.0 |
| 포이치 (foreach) | 1.5.2 | 외국의 | 0.8-85 | 단조하다 | 0.2.0 |
| fs | 1.6.2 | 미래 | 1.33.0 | 퓨처.어플라이 | 1.11.0 |
| 입을 헹구다 | 1.5.1 | 제네릭 | 0.1.3 | 거트 | 1.9.2 |
| ggplot2 | 3.4.2 | gh | 1.4.0 | gitcreds | 0.1.2 |
| glmnet (통계 및 기계 학습 소프트웨어 패키지) | 4.1-7 | 글로벌 | 0.16.2 | 풀 | 1.6.2 |
| 구글 드라이브 | 2.1.1 | 구글시트4 | 1.1.1 | 고워 (Gower) | 1.0.1 |
| 그래픽 | 4.3.1 | grDevices | 4.3.1 | 그리드 | 4.3.1 |
| gridExtra | 2.3 | gsubfn | 0.7 | g테이블 | 0.3.3 |
| 안전모 | 1.3.0 | 안식처 | 2.5.3 | 더 높은 | 0.10 |
| 에이치엠에스 (HMS) | 1.1.3 | HTML 도구 | 0.5.5 | HTML 위젯 | 1.6.2 |
| httpuv | 1.6.11 | httr | 1.4.6 | httr2 | 0.2.3 |
| 아이디 | 1.0.1 | 이것 | 0.3.1 | 아이프레드 | 0.9-14 |
| 아이소밴드 | 0.2.7 | 이터레이터 | 1.0.14 | jquerylib | 0.1.4 |
| jsonlite | 1.8.7 | KernSmooth | 2.23-21 | 니터 | 1.43 |
| 라벨링 | 0.4.2 | 나중에 | 1.3.1 | 격자 | 0.21-8 |
| 용암 | 1.7.2.1 | 생명 주기 | 1.0.3 | listenv (리슨브) | 0.9.0 |
| lubridate (루브리데이트 패키지) | 1.9.2 | magrittr | 2.0.3 | 마크다운 | 1.7 |
| 질량 | 7.3-60 | 행렬 | 1.5-4.1 | 메모이제이션 | 2.0.1 |
| 메서드 | 4.3.1 | mgcv | 1.8-42 | 마임 | 0.12 |
| 미니UI | 0.1.1.1 | ModelMetrics | 1.2.2.2 | 모델러 | 0.1.11 |
| 먼셀 (Munsell) | 0.5.0 | nlme | 3.1-163 | 엔넷 | 7.3-19 |
| numDeriv (넘데리브) | 2016년 8월부터 1월 1일까지 | 오픈SSL (OpenSSL은 암호화 라이브러리입니다) | 2.0.6 | 평행 | 4.3.1 |
| 병렬적으로 | 1.36.0 | 기둥 | 1.9.0 | pkgbuild(팩키지 빌드) | 1.4.2 |
| pkgconfig | 2.0.3 | pkgdown | 2.0.7 | pkgload | 1.3.2.1 |
| 플로거 | 0.2.0 | plyr (플레이어) | 1.8.8 | 칭찬 | 1.0.0 |
| 프리티유닛 | 1.1.1 | pROC 패키지 | 1.18.4 | 프로세스엑스 | 3.8.2 |
| 프로드림 (prodlim) | 2023년 03월 31일 | profvis | 0.3.8 | 진행률 | 1.2.2 |
| 프로그레스알 | 0.13.0 | 약속 | 1.2.0.1 | 프로토 | 1.0.0 |
| 프록시 | 0.4-27 | Ps | 1.7.5 | 고양이의 그르렁거림 | 1.0.1 |
| r2d3 | 0.2.6 | R6 | 2.5.1 | 라그 | 1.2.5 |
| 랜덤 포레스트 | 4.7-1.1 | rappdirs (랩디르) | 0.3.3 | rcmdcheck | 1.4.0 |
| RColorBrewer | 1.1-3 | Rcpp | 1.0.11 | RcppEigen | 0.3.3.9.3 |
| 리더(Reader) | 2.1.4 | readxl (엑셀 파일 읽기 기능) | 1.4.3 | 레시피 | 1.0.6 |
| 재대결 | 1.0.1 | 재경기2 | 2.1.2 | 리모컨 | 2.4.2 |
| 재현 가능 예시 | 2.0.2 | reshape2 | 1.4.4 | rlang | 1.1.1 |
| r마크다운 | 2.23 | RODBC | 1.3-20 | roxygen2 | 7.2.3 |
| rpart (의사결정트리 구축을 위한 R 패키지) | 4.1.21 | rprojroot | 2.0.3 | Rserve (R서브) | 1.8-11 |
| RSQLite | 2.3.1 | rstudioapi | 0.15.0 | 알버전즈 | 2.1.2 |
| rvest (웹 스크래핑을 위한 R 패키지) | 1.0.3 | sass | 0.4.6 | 저울 (assuming it refers to weighing scales) | 1.2.1 |
| 셀렉터 | 0.4-2 | 세션 정보 | 1.2.2 | 모양 | 1.4.6 |
| 반짝이는 | 1.7.4.1 | 소스툴스 (sourcetools) | 0.1.7-1 | sparklyr (스파클리알) | 1.8.1 |
| SparkR | 3.5.0 | 공간의 | 7.3-15 | 스플라인 | 4.3.1 |
| sqldf (SQL 데이터프레임 패키지) | 0.4–11 | 스퀘어엠 | 2021년 1월 | 통계 | 4.3.1 |
| 통계4 | 4.3.1 | 스트링이 | 1.7.12 | stringr | 1.5.0 |
| 생존 | 3.5-5 | 시스템 | 3.4.2 | 시스템 글꼴 | 1.0.4 |
| 티클티케이 (tcltk) | 4.3.1 | testthat (테스트댓) | 3.1.10 | 텍스트 형성 | 0.3.6 |
| tibble (티블) | 3.2.1 | tidyr | 1.3.0 | tidyselect (티디셀렉트) | 1.2.0 |
| tidyverse (타이디버스) | 2.0.0 | 시간 변경 | 0.2.0 | 시간과 날짜 | 4022.108 |
| tinytex | 0.45 | 도구 | 4.3.1 | tzdb | 0.4.0 |
| URL 검사기 | 1.0.1 | 사용하세요 | 2.2.2 | utf8 | 1.2.3 |
| 유틸리티 | 4.3.1 | UUID (범용 고유 식별자) | 1.1-0 | vctrs | 0.6.3 |
| 비리디스라이트 | 0.4.2 | 부르릉 | 1.6.3 | 왈도 | 0.5.1 |
| 수염 | 0.4.1 | 위더 | 2.5.0 | xfun | 0.39 |
| xml2 | 1.3.5 | 엑스오픈 | 1.0.0 | 엑스테이블 | 1.8-4 |
| YAML (야믈) | 2.3.7 | 지퍼 | 2.3.0 |
설치된 Java 및 Scala 라이브러리(Scala 2.12 클러스터 버전)
| 그룹 ID | 아티팩트 ID | 버전 |
|---|---|---|
| antlr (구문 분석 도구) | antlr (구문 분석 도구) | 2.7.7 |
| com.amazonaws | 아마존 키네시스 클라이언트 (amazon-kinesis-client) | 1.12.0 |
| com.amazonaws | aws-java-sdk-autoscaling (AWS 자바 SDK 자동 확장) | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudformation | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudfront (AWS Java SDK 클라우드프론트) | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudhsm (AWS 자바 SDK 클라우드HSM) | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudsearch (AWS Java SDK 클라우드서치) | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudtrail | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatch | 1.12.390 |
| com.amazonaws | aws-java-sdk-cloudwatchmetrics | 1.12.390 |
| com.amazonaws | aws-java-sdk-codedeploy (AWS Java SDK 코드디플로이) | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitoidentity (AWS 자바 SDK - Cognito 아이덴티티) | 1.12.390 |
| com.amazonaws | aws-java-sdk-cognitosync | 1.12.390 |
| com.amazonaws | AWS Java SDK 구성 | 1.12.390 |
| com.amazonaws | aws-java-sdk-core (AWS 자바 SDK 코어) | 1.12.390 |
| com.amazonaws | aws-java-sdk-datapipeline (데이터 파이프라인을 위한 AWS Java SDK) | 1.12.390 |
| com.amazonaws | aws-java-sdk-directconnect (AWS Java SDK 다이렉트커넥트) | 1.12.390 |
| com.amazonaws | aws-java-sdk-directory | 1.12.390 |
| com.amazonaws | aws-java-sdk-dynamodb | 1.12.390 |
| com.amazonaws | aws-java-sdk-ec2 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ecs (AWS Java 소프트웨어 개발 키트 - ECS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-efs (AWS와 EFS 관련 소프트웨어 개발 키트) | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticache (AWS Java SDK 엘라스티캐시) | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticbeanstalk (AWS용 Java SDK - Elastic Beanstalk) | 1.12.390 |
| com.amazonaws | aws-java-sdk-elasticloadbalancing (AWS Java SDK - 엘라스틱로드밸런싱) | 1.12.390 |
| com.amazonaws | aws-java-sdk-elastictranscoder (AWS Java SDK 엘라스틱 트랜스코더) | 1.12.390 |
| com.amazonaws | aws-java-sdk-emr (아우스-자바-sdk-emr) | 1.12.390 |
| com.amazonaws | AWS 자바 SDK 글래시어 (aws-java-sdk-glacier) | 1.12.390 |
| com.amazonaws | aws-java-sdk-glue (AWS 자바 SDK 글루) | 1.12.390 |
| com.amazonaws | AWS 자바 SDK IAM | 1.12.390 |
| com.amazonaws | aws-java-sdk-importexport (AWS Java SDK 내보내기 기능) | 1.12.390 |
| com.amazonaws | aws-java-sdk-kinesis | 1.12.390 |
| com.amazonaws | aws-java-sdk-kms (AWS 자바 SDK KMS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-lambda | 1.12.390 |
| com.amazonaws | aws-java-sdk-logs (AWS 자바 SDK 로그) | 1.12.390 |
| com.amazonaws | AWS-Java-SDK-머신러닝 | 1.12.390 |
| com.amazonaws | aws-java-sdk-opsworks | 1.12.390 |
| com.amazonaws | aws-java-sdk-rds (AWS Java 개발자용 SDK - RDS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-redshift (AWS 자바 SDK 레드시프트) | 1.12.390 |
| com.amazonaws | aws-java-sdk-route53 | 1.12.390 |
| com.amazonaws | aws-java-sdk-s3 | 1.12.390 |
| com.amazonaws | aws-java-sdk-ses | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpledb | 1.12.390 |
| com.amazonaws | aws-java-sdk-simpleworkflow | 1.12.390 |
| com.amazonaws | AWS Java SDK SNS (AWS의 자바 개발자 키트 - SNS) | 1.12.390 |
| com.amazonaws | aws-java-sdk-sqs (AWS Java SDK의 SQS 모듈) | 1.12.390 |
| com.amazonaws | aws-java-sdk-ssm (AWS Java SDK의 SSM 모듈) | 1.12.390 |
| com.amazonaws | aws-java-sdk-storagegateway (AWS Java SDK 스토리지 게이트웨이) | 1.12.390 |
| com.amazonaws | aws-java-sdk-sts | 1.12.390 |
| com.amazonaws | AWS-Java-SDK-지원 | 1.12.390 |
| com.amazonaws | AWS Java SDK SWF 라이브러리 | 1.11.22 |
| com.amazonaws | aws-java-sdk-workspaces (AWS Java SDK 작업 공간) | 1.12.390 |
| com.amazonaws | jmespath-java | 1.12.390 |
| com.clearspring.analytics | 스트림 | 2.9.6 |
| com.databricks | Rserve (R서브) | 1.8-3 |
| com.databricks | databricks-sdk-java (데이터브릭스 SDK 자바) | 0.13.0 |
| com.databricks | jets3t | 0.7.1-0 |
| com.databricks.scalapb | compilerplugin_2.12 | 0.4.15-10 |
| com.databricks.scalapb | scalapb-runtime_2.12 | 0.4.15-10 |
| com.esotericsoftware | kryo-shaded (크리오 쉐이디드) | 4.0.2 |
| com.esotericsoftware | 민로그 | 1.3.0 |
| com.fasterxml | 반 친구 | 1.3.4 |
| com.fasterxml.jackson.core | 잭슨 애노테이션즈 | 2.15.2 |
| com.fasterxml.jackson.core | 잭슨-코어 | 2.15.2 |
| com.fasterxml.jackson.core | 잭슨 데이터바인드 (jackson-databind) | 2.15.2 |
| com.fasterxml.jackson.dataformat | jackson-dataformat-cbor (잭슨 데이터 포맷 CBOR) | 2.15.2 |
| com.fasterxml.jackson.dataformat | 잭슨-데이터포맷-야믈 (jackson-dataformat-yaml) | 2.15.2 |
| com.fasterxml.jackson.datatype | 잭슨 데이터타입 조다 (jackson-datatype-joda) | 2.15.2 |
| com.fasterxml.jackson.datatype | 잭슨 데이터 타입 JSR310 (jackson-datatype-jsr310) | 2.15.1 |
| com.fasterxml.jackson.module | 잭슨 모듈 - 파라네이머 (jackson-module-paranamer) | 2.15.2 |
| com.fasterxml.jackson.module | jackson-module-scala_2.12 (자바 스칼라 모듈) | 2.15.2 |
| com.github.ben-manes.caffeine | 카페인 | 2.9.3 |
| com.github.fommil | jniloader | 1.1 |
| com.github.fommil.netlib | 네이티브_레퍼런스-자바 | 1.1 |
| com.github.fommil.netlib | 네이티브_레퍼런스-자바 | 1.1-네이티브 |
| com.github.fommil.netlib | native_system-java (네이티브 시스템 자바) | 1.1 |
| com.github.fommil.netlib | native_system-java (네이티브 시스템 자바) | 1.1-네이티브 |
| com.github.fommil.netlib | netlib-native_ref-linux-x86_64 | 1.1-네이티브 |
| com.github.fommil.netlib | netlib-native_system-linux-x86_64 (넷리브 네이티브 시스템 리눅스-x86_64) | 1.1-네이티브 |
| com.github.luben | zstd-jni | 1.5.5-4 |
| com.github.wendykierp | JTransforms | 3.1 |
| com.google.code.findbugs | jsr305 | 3.0.0 |
| com.google.code.gson | gson (JSON 처리를 위한 자바 라이브러리) | 2.10.1 |
| com.google.crypto.tink | 팅크 | 1.9.0 |
| com.google.errorprone | 오류가 발생하기 쉬운 주석 | 2.10.0 |
| com.google.flatbuffers | flatbuffers-java | 1.12.0 |
| com.google.guava | 구아바 | 15.0 |
| com.google.protobuf | protobuf-java | 2.6.1 |
| com.helger | 프로파일러 | 1.1.1 |
| com.jcraft | jsch | 0.1.55 |
| com.jolbox | bonecp | 0.8.0.릴리스 |
| com.lihaoyi | 소스코드_2.12 | 0.1.9 |
| com.microsoft.azure | azure-data-lake-store-sdk (애저 데이터 레이크 저장소 SDK) | 2.3.9 |
| com.microsoft.sqlserver (마이크로소프트 SQL 서버) | mssql-jdbc | 11.2.2.jre8 |
| com.ning | compress-lzf (압축 알고리즘 LZF) | 1.1.2 |
| com.sun.mail | javax.mail | 1.5.2 |
| com.sun.xml.bind | jaxb-core (JAXB 코어) | 2.2.11 |
| com.sun.xml.bind | jaxb-impl | 2.2.11 |
| com.tdunning | JSON | 1.8 |
| com.thoughtworks.paranamer | 파라네이머 | 2.8 |
| com.trueaccord.lenses | 렌즈_2.12 | 0.4.12 |
| com.twitter (도메인 이름) | chill-java (칠자바) | 0.10.0 |
| com.twitter (도메인 이름) | chill_2.12 | 0.10.0 |
| com.twitter (도메인 이름) | util-app_2.12 | 7.1.0 |
| com.twitter (도메인 이름) | util-core_2.12 | 7.1.0 |
| com.twitter (도메인 이름) | util-function_2.12 | 7.1.0 |
| com.twitter (도메인 이름) | util-jvm_2.12 | 7.1.0 |
| com.twitter (도메인 이름) | util-lint_2.12 | 7.1.0 |
| com.twitter (도메인 이름) | util-registry_2.12 | 7.1.0 |
| com.twitter (도메인 이름) | util-stats_2.12 | 7.1.0 |
| com.typesafe | 구성 | 1.2.1 |
| com.typesafe.scala-logging | scala-logging_2.12 | 3.7.2 |
| com.uber | h3 | 3.7.3 |
| com.univocity | univocity-parsers (유니보시티-파서스) | 2.9.1 |
| com.zaxxer | HikariCP | 4.0.3 |
| commons-cli | commons-cli | 1.5.0 |
| commons-codec (커먼즈 코덱) | commons-codec (커먼즈 코덱) | 1.16.0 |
| 코먼스-컬렉션즈 | 코먼스-컬렉션즈 | 3.2.2 |
| 커먼즈-DBCP | 커먼즈-DBCP | 1.4 |
| 공유-파일 업로드 | 공유-파일 업로드 | 1.5 |
| 커먼즈-HTTP 클라이언트 | 커먼즈-HTTP 클라이언트 | 3.1 |
| commons-io | commons-io | 2.13.0 |
| 커먼즈-랭 | 커먼즈-랭 | 2.6 |
| commons-logging (공통 로깅) | commons-logging (공통 로깅) | 1.1.3 |
| commons-pool (커먼즈 풀) | commons-pool (커먼즈 풀) | 1.5.4 |
| dev.ludovic.netlib | 아르팩 (ARPACK) | 3.0.3 |
| dev.ludovic.netlib | 블라스 | 3.0.3 |
| dev.ludovic.netlib | 랩팩 | 3.0.3 |
| info.ganglia.gmetric4j | gmetric4j | 1.0.10 |
| io.airlift | 에어 컴프레서 | 0.25 |
| io.delta | delta-sharing-client_2.12 | 1.1.4 |
| io.dropwizard.metrics | 지표 설명 | 4.2.19 |
| io.dropwizard.metrics | 메트릭스-코어 | 4.2.19 |
| io.dropwizard.metrics | 메트릭 그래파이트 | 4.2.19 |
| io.dropwizard.metrics | 메트릭-건강 점검 | 4.2.19 |
| io.dropwizard.metrics | 메트릭스-젯티9 | 4.2.19 |
| io.dropwizard.metrics | 메트릭스-JMX | 4.2.19 |
| io.dropwizard.metrics | 메트릭스-JSON | 4.2.19 |
| io.dropwizard.metrics | 메트릭스-JVM | 4.2.19 |
| io.dropwizard.metrics | 메트릭스-서블릿 | 4.2.19 |
| io.netty | netty-all | 4.1.96.Final |
| io.netty | 네티-버퍼 (Netty-Buffer) | 4.1.96.Final |
| io.netty | netty-codec (넷티 코덱) | 4.1.96.Final |
| io.netty | netty-codec-http (넷티 코덱 HTTP) | 4.1.96.Final |
| io.netty | netty-codec-http2 (넷티 코덱 HTTP2) | 4.1.96.Final |
| io.netty | netty-codec-socks (네티 코덱 양말) | 4.1.96.Final |
| io.netty | 넷티-커먼 | 4.1.96.Final |
| io.netty | 네티 핸들러 | 4.1.96.Final |
| io.netty | netty-handler-proxy (네티 핸들러 프록시) | 4.1.96.Final |
| io.netty | netty-resolver (네티 리졸버) | 4.1.96.Final |
| io.netty | netty-tcnative-boringssl-static (소프트웨어 라이브러리) | 2.0.61.Final-linux-aarch_64 |
| io.netty | netty-tcnative-boringssl-static (소프트웨어 라이브러리) | 2.0.61.Final-linux-x86_64 (리눅스 64비트용 최종 버전 2.0.61) |
| io.netty | netty-tcnative-boringssl-static (소프트웨어 라이브러리) | 2.0.61.Final-osx-aarch_64 |
| io.netty | netty-tcnative-boringssl-static (소프트웨어 라이브러리) | 2.0.61.Final-osx-x86_64 |
| io.netty | netty-tcnative-boringssl-static (소프트웨어 라이브러리) | 2.0.61.Final-windows-x86_64 |
| io.netty | netty-tcnative-클래스 | 2.0.61 최종 |
| io.netty | 네티-트랜스포트 | 4.1.96.Final |
| io.netty | netty-transport-classes-epoll (넷티 트랜스포트 클래스 에폴) | 4.1.96.Final |
| io.netty | netty-transport-classes-kqueue | 4.1.96.Final |
| io.netty | netty-transport-native-epoll (네티-트랜스포트-네이티브-에폴) | 4.1.96.Final |
| io.netty | netty-transport-native-epoll (네티-트랜스포트-네이티브-에폴) | 4.1.96.Final-linux-aarch_64 |
| io.netty | netty-transport-native-epoll (네티-트랜스포트-네이티브-에폴) | 4.1.96.Final-linux-x86_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-aarch_64 |
| io.netty | netty-transport-native-kqueue | 4.1.96.Final-osx-x86_64 |
| io.netty | 네티-트랜스포트-네이티브-유닉스-커먼 (netty-transport-native-unix-common) | 4.1.96.Final |
| io.prometheus | 심플클라이언트 | 0.7.0 |
| io.prometheus | 심플클라이언트_커먼 | 0.7.0 |
| io.prometheus | simpleclient_dropwizard | 0.7.0 |
| io.prometheus | 심플클라이언트_푸시게이트웨이 | 0.7.0 |
| io.prometheus | simpleclient_servlet | 0.7.0 |
| io.prometheus.jmx | 수집기 | 0.12.0 |
| 자카르타.annotation | 자카르타 애노테이션-API (jakarta.annotation-api) | 1.3.5 |
| jakarta.servlet | jakarta.servlet-api (자카르타 서블릿 API) | 4.0.3 |
| jakarta.validation | jakarta.validation-api (자카르타 검증 API) | 2.0.2 |
| jakarta.ws.rs | jakarta.ws.rs-api | 2.1.6 |
| javax.activation | 활성화 | 1.1.1 |
| javax.el | javax.el-api (자바 API) | 2.2.4 |
| javax.jdo | jdo-api | 3.0.1 |
| javax.transaction | jta (자바 트랜잭션 API) | 1.1 |
| javax.transaction | 트랜잭션-API | 1.1 |
| javax.xml.bind | jaxb-api | 2.2.11 |
| 자볼루션 | 자볼루션 | 5.5.1 |
| 제이라인 | 제이라인 | 2.14.6 |
| joda-time | joda-time | 2.12.1 |
| net.java.dev.jna (넷.자바.데브.제이엔에이) | 제이엔에이 | 5.8.0 |
| net.razorvine | 피클 | 1.3 |
| net.sf.jpam | 제이팜 | 1.1 |
| net.sf.opencsv | opencsv (오픈CSV 라이브러리) | 2.3 |
| net.sf.supercsv | 슈퍼-CSV | 2.2.0 |
| 네트.스노우플레이크 | snowflake-ingest SDK (소프트웨어 개발 키트) | 0.9.6 |
| net.sourceforge.f2j | arpack_전체_결합 | 0.1 |
| org.acplt.remotetea | remotetea-oncrpc (리모트티-온씨알피씨) | 1.1.2 |
| org.antlr | ST4 | 4.0.4 |
| org.antlr | ANTLR 런타임 | 3.5.2 |
| org.antlr | antlr4-runtime | 4.9.3 |
| org.antlr | 문자열템플릿 | 3.2.1 |
| org.apache.ant | 개미 | 1.9.16 |
| org.apache.ant | ant-jsch | 1.9.16 |
| org.apache.ant | 앤트 런처 | 1.9.16 |
| org.apache.arrow | 화살표 형식 | 12.0.1 |
| org.apache.arrow | 화살표-메모리-코어 | 12.0.1 |
| org.apache.arrow | 애로우-메모리-네티 | 12.0.1 |
| org.apache.arrow | 화살표 벡터 | 12.0.1 |
| org.apache.avro | Avro | 1.11.2 |
| org.apache.avro | avro-ipc (아브로 IPC) | 1.11.2 |
| org.apache.avro | avro-mapred (아브로-맵레드) | 1.11.2 |
| org.apache.commons (오픈 소스 자바 라이브러리) | commons-collections4 (공용 컬렉션4) | 4.4 |
| org.apache.commons (오픈 소스 자바 라이브러리) | 커먼즈-컴프레스 (commons-compress) | 1.23.0 |
| org.apache.commons (오픈 소스 자바 라이브러리) | 커먼즈-크립토 | 1.1.0 |
| org.apache.commons (오픈 소스 자바 라이브러리) | 커먼즈-랭3 (commons-lang3) | 3.12.0 |
| org.apache.commons (오픈 소스 자바 라이브러리) | 커먼즈-매쓰3 | 3.6.1 |
| org.apache.commons (오픈 소스 자바 라이브러리) | commons-text (커먼즈 텍스트) | 1.10.0 |
| org.apache.curator | 큐레이터 클라이언트 | 2.13.0 |
| org.apache.curator | curator-framework (큐레이터 프레임워크) | 2.13.0 |
| org.apache.curator | 큐레이터-레시피 | 2.13.0 |
| org.apache.datasketches | datasketches-java | 3.1.0 |
| org.apache.datasketches | 데이터스케치 메모리 | 2.0.0 |
| org.apache.derby | 더비 | 10.14.2.0 |
| org.apache.hadoop | 하둡 클라이언트 런타임 | 3.3.6 |
| org.apache.hive | hive-beeline (하이브-비라인) | 2.3.9 |
| org.apache.hive | hive-CLI | 2.3.9 |
| org.apache.hive | hive-jdbc (하이브 JDBC) | 2.3.9 |
| org.apache.hive | hive-llap-client (하이브 LLAP 클라이언트) | 2.3.9 |
| org.apache.hive | hive-llap-common | 2.3.9 |
| org.apache.hive | 하이브-세르데 | 2.3.9 |
| org.apache.hive | 하이브-심스 | 2.3.9 |
| org.apache.hive | 하이브-스토리지-API | 2.8.1 |
| org.apache.hive.shims | hive-shims-0.23 | 2.3.9 |
| org.apache.hive.shims | 하이브-쉼스-커먼 | 2.3.9 |
| org.apache.hive.shims | 하이브-심스-스케줄러 | 2.3.9 |
| org.apache.httpcomponents | HTTP 클라이언트 (httpclient) | 4.5.14 |
| org.apache.httpcomponents | httpcore | 4.4.16 |
| org.apache.ivy | 아이비 | 2.5.1 |
| org.apache.logging.log4j | log4j-1.2-api | 2.20.0 |
| org.apache.logging.log4j | log4j-api | 2.20.0 |
| org.apache.logging.log4j | log4j-core (로그4j-코어) | 2.20.0 |
| org.apache.logging.log4j | log4j-slf4j2-impl | 2.20.0 |
| org.apache.orc | 오크-코어 | 1.9.2-셰이드-프로토부프 |
| org.apache.orc | orc-mapreduce (오크-맵리듀스) | 1.9.2-셰이드-프로토부프 |
| org.apache.orc | orc-shims (오크-심스) | 1.9.2 |
| org.apache.thrift | libfb303 | 0.9.3 |
| org.apache.thrift | libthrift | 0.12.0 |
| org.apache.ws.xmlschema | xmlschema-core | 2.3.0 |
| org.apache.xbean | xbean-asm9 음영 처리 | 4.23 |
| org.apache.yetus | 청중 주석 | 0.13.0 |
| org.apache.zookeeper | 사육사 | 3.6.3 |
| org.apache.zookeeper | 주키퍼-주트 | 3.6.3 |
| org.checkerframework | 체커-퀄 | 3.31.0 |
| org.codehaus.jackson | jackson-core-asl (자바 라이브러리) | 1.9.13 |
| org.codehaus.jackson | jackson-mapper-asl (잭슨-매퍼-ASL) | 1.9.13 |
| org.codehaus.janino | 커먼스-컴파일러 | 3.0.16 |
| org.codehaus.janino | 자니노 | 3.0.16 |
| org.datanucleus | datanucleus-api-jdo | 4.2.4 |
| org.datanucleus | 데이터뉴클리어스-코어 | 4.1.17 |
| org.datanucleus | datanucleus-rdbms (데이터누클리어스-알디비엠에스) | 4.1.19 |
| org.datanucleus | javax.jdo | 3.2.0-m3 |
| org.eclipse.jetty | jetty-client (제티 클라이언트) | 9.4.52.v20230823 |
| org.eclipse.jetty | 제티-컨티뉴에이션 | 9.4.52.v20230823 |
| org.eclipse.jetty | 제티-HTTP (Jetty-HTTP) | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-io | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-jndi (제티-JNDI) | 9.4.52.v20230823 |
| org.eclipse.jetty | 제티-플러스 | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-proxy (제티 프록시) | 9.4.52.v20230823 |
| org.eclipse.jetty | 제티-시큐리티 | 9.4.52.v20230823 |
| org.eclipse.jetty | 제티-서버 | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-servlet | 9.4.52.v20230823 |
| org.eclipse.jetty | 제티 서블릿(jetty-servlets) | 9.4.52.v20230823 |
| org.eclipse.jetty | 제티 유틸 (jetty-util) | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-util-ajax | 9.4.52.v20230823 |
| org.eclipse.jetty | 제티 웹앱 (jetty-webapp) | 9.4.52.v20230823 |
| org.eclipse.jetty | jetty-xml | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | 웹소켓 API | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | 웹소켓 클라이언트 | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | 웹소켓-커먼 | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | 웹소켓 서버 | 9.4.52.v20230823 |
| org.eclipse.jetty.websocket | 웹소켓-서블릿 (websocket-servlet) | 9.4.52.v20230823 |
| org.fusesource.leveldbjni | leveldbjni-all | 1.8 |
| org.glassfish.hk2 | hk2-api | 2.6.1 |
| org.glassfish.hk2 | hk2 위치 탐색기 | 2.6.1 |
| org.glassfish.hk2 | hk2-utils | 2.6.1 |
| org.glassfish.hk2 | OSGi 자원 탐색기 | 1.0.3 |
| org.glassfish.hk2.external | aopalliance-재패키지 | 2.6.1 |
| org.glassfish.hk2.external | jakarta.inject | 2.6.1 |
| org.glassfish.jersey.containers | Jersey 컨테이너 서블릿 (jersey-container-servlet) | 2.40 |
| org.glassfish.jersey.containers | 저지-컨테이너-서블릿-코어 | 2.40 |
| org.glassfish.jersey.core | 저지-클라이언트 | 2.40 |
| org.glassfish.jersey.core | 저지-커먼 | 2.40 |
| org.glassfish.jersey.core | 저지 서버 (jersey-server) | 2.40 |
| org.glassfish.jersey.inject | jersey-hk2 | 2.40 |
| org.hibernate.validator | 하이버네이트 발리데이터 | 6.1.7.Final |
| org.ini4j | ini4j | 0.5.4 |
| org.javassist | javassist | 3.29.2-GA |
| org.jboss.logging | jboss-logging(로그 관리 시스템) | 3.3.2.최종 |
| org.jdbi | jdbi | 2.63.1 |
| org.jetbrains | 주석 | 17.0.0 |
| org.joda | joda-convert (조다 변환 라이브러리) | 1.7 |
| org.jodd | jodd-core (조드 코어 라이브러리) | 3.5.2 |
| org.json4s | json4s-ast_2.12 | 3.7.0-M11 |
| org.json4s | json4s-core_2.12 | 3.7.0-M11 |
| org.json4s | json4s-jackson_2.12 | 3.7.0-M11 |
| org.json4s | json4s-scalap_2.12 | 3.7.0-M11 |
| org.lz4 | lz4-java | 1.8.0 |
| org.mlflow | mlflow-spark_2.12 | 2.9.1 |
| org.objenesis | 옵제네시스 (objenesis) | 2.5.1 |
| org.postgresql | PostgreSQL (포스트그레에스큐엘) | 42.6.0 |
| org.roaringbitmap | 로어링비트맵 (RoaringBitmap) | 0.9.45 |
| org.roaringbitmap | 간극 조정판 | 0.9.45 |
| org.rocksdb | rocksdbjni | 8.3.2 |
| org.rosuda.REngine | REngine | 2.1.0 |
| org.scala-lang | scala-compiler_2.12 | 2.12.15 |
| org.scala-lang | scala-library_2.12 | 2.12.15 |
| org.scala-lang | scala-reflect_2.12 | 2.12.15 |
| org.scala-lang.modules | scala-collection-compat_2.12 | 2.11.0 |
| org.scala-lang.modules | scala-parser-combinators_2.12 | 1.1.2 |
| org.scala-lang.modules | scala-xml_2.12 | 1.2.0 |
| org.scala-sbt | 테스트 인터페이스 | 1.0 |
| org.scalacheck | scalacheck_2.12 | 1.14.2 |
| org.scalactic | scalactic_2.12 | 3.2.15 |
| org.scalanlp | breeze-macros_2.12 | 2.1.0 |
| org.scalanlp | breeze_2.12 | 2.1.0 |
| org.scalatest | scalatest 호환 가능 | 3.2.15 |
| org.scalatest | scalatest-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-diagrams_2.12 | 3.2.15 |
| org.scalatest | scalatest-featurespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-flatspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-freespec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-funsuite_2.12 | 3.2.15 |
| org.scalatest | scalatest-matchers-core_2.12 | 3.2.15 |
| org.scalatest | scalatest-mustmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-propspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-refspec_2.12 | 3.2.15 |
| org.scalatest | scalatest-shouldmatchers_2.12 | 3.2.15 |
| org.scalatest | scalatest-wordspec_2.12 | 3.2.15 |
| org.scalatest | scalatest_2.12 | 3.2.15 |
| org.slf4j | jcl-over-slf4j | 2.0.7 |
| org.slf4j | jul-to-slf4j | 2.0.7 |
| org.slf4j | slf4j-api | 2.0.7 |
| org.slf4j | 슬프4j-심플 | 1.7.25 |
| org.threeten | threeten-extra (쓰리텐-엑스트라) | 1.7.1 |
| org.tukaani | xz | 1.9 |
| org.typelevel | algebra_2.12 | 2.0.1 |
| org.typelevel | cats-kernel_2.12 | 2.1.1 |
| org.typelevel | spire-macros_2.12 | 0.17.0 |
| org.typelevel | spire-platform_2.12 | 0.17.0 |
| org.typelevel | 스파이어-유틸_2.12 | 0.17.0 |
| org.typelevel | 스파이어_2.12 (spire_2.12) | 0.17.0 |
| org.wildfly.openssl | 와일드플라이-OpenSSL | 1.1.3.Final |
| org.xerial | sqlite-jdbc | 3.42.0.0 |
| org.xerial.snappy | snappy-java | 1.1.10.3 |
| org.yaml | 스네이크야AML (snakeyaml) | 2.0 |
| 금 | 금 | 2.0.8 |
| pl.edu.icm | 제이 라지 어레이스 | 1.5 |
| software.amazon.cryptools | AmazonCorrettoCryptoProvider (아마존 코레토 크립토 프로바이더) | 1.6.1-linux-x86_64 |
| software.amazon.ion | ion-java (아이온-자바) | 1.0.2 |
| 스택스 (Stax) | stax-api | 1.0.1 |