다음을 통해 공유


Foundation Model API에서 사용할 수 있는 Databricks 호스팅 기본 모델

이 문서에서는 Databricks Foundation 모델 API에서 지원하는 최신 오픈 모델에 대해 설명합니다.

비고

이러한 모델의 지역 가용성 및 지원되는 기능 영역에 대한 Mosaic AI 모델 제공 에 대해 지원되는 기본 모델을 참조하세요.

Databricks 작업 영역에서 사용할 수 있는 토큰당 종량제 엔드포인트를 사용하여 이러한 모델에 쿼리 요청을 보낼 수 있습니다. 사용할 모델 엔드포인트의 이름은 기본 모델토큰당 종량제 지원 모델 테이블을 참조하세요.

토큰당 종량제 모드에서 모델을 지원하는 것 외에도 Foundation Model API는 프로비전된 처리량 모드를 제공합니다. Databricks는 프로덕션 워크로드에 프로비전된 처리량을 권장합니다. 이 모드는 토큰당 종량제 모드에서 지원되는 미세 조정된 모델 및 사용자 지정 미리 학습된 모델을 포함하여 모델 아키텍처 제품군의 모든 모델을 지원합니다. 지원되는 아키텍처 목록은 프로비전된 처리량 Foundation Model API 를 참조하세요.

AI Playground를 사용하여 지원되는 이러한 모델과 상호 작용할 수 있습니다.

Alibaba Cloud Qwen3-Next 80B A3B 지시

중요하다

Qwen3-Next 80B A3B 명령 모델은 베타 버전 상태이며, eastus2 지역에서만 사용할 수 있습니다.

  • 이 모델을 사용하도록 설정하는 방법에 대한 지침 은 Azure Databricks 미리 보기 관리를 참조하세요.
  • Qwen3-Next 80B A3B Instruct는 Apache 2.0 라이선스 및 Apache Software Foundation의 저작권(c)에 따라 제공되며, 모든 권리가 보유되어 있습니다. 고객은 해당 모델 라이선스를 준수할 책임이 있습니다.

엔드포인트 이름: databricks-qwen3-next-80b-a3b-instruct

Qwen3-Next-80B-A3B-Instruct Alibaba Cloud에서 빌드하고 학습한 명령 다음 작업에 최적화된 매우 효율적인 대규모 언어 모델입니다. 이 모델은 매우 긴 컨텍스트를 처리하고, 처리량이 높은 결정적 출력을 요구하는 다단계 워크플로, 검색 보강 생성 및 엔터프라이즈 애플리케이션에서 뛰어난 성능을 발휘하도록 설계되었습니다.

다른 큰 언어 모델과 마찬가지로 Qwen3-Next 80B A3B 지시 출력은 일부 사실을 생략하고 때때로 거짓 정보를 생성할 수 있습니다. Databricks는 정확도가 특히 중요한 시나리오에서 RAG(검색 보강 생성)를 사용하는 것이 좋습니다.

OpenAI GPT OSS 120B

중요하다

OpenAI GPT OSS 120B는 Apache 2.0 라이선스, 저작권(c) Apache Software Foundation, All rights reserved에 따라 제공됩니다. 고객은 해당 모델 라이선스를 준수할 책임이 있습니다.

엔드포인트 이름: databricks-gpt-oss-120b

GPT OSS 120B는 OpenAI에서 빌드하고 학습한 사고 체인 및 조정 가능한 추론 노력 수준을 갖춘 최첨단 추론 모델입니다. OpenAI의 주력 오픈 웨이트 모델이며 128K 토큰 컨텍스트 창을 갖추고 있습니다. 이 모델은 고품질 추론 작업을 위해 빌드되었습니다.

다른 큰 언어 모델과 마찬가지로 GPT OSS 120B 출력은 일부 사실을 생략하고 때때로 거짓 정보를 생성할 수 있습니다. Databricks는 정확도가 특히 중요한 시나리오에서 RAG(검색 보강 생성)를 사용하는 것이 좋습니다.

OpenAI GPT OSS 20B

중요하다

OpenAI GPT OSS 20B는 Apache 2.0 라이선스, 저작권(c) Apache Software Foundation, All rights reserved에 따라 제공됩니다. 고객은 해당 모델 라이선스를 준수할 책임이 있습니다.

엔드포인트 이름: databricks-gpt-oss-20b

GPT OSS 20B는 OpenAI에서 빌드하고 학습한 최신 경량 추론 모델입니다. 이 모델에는 128K 토큰의 컨텍스트 창이 있으며 실시간 AI 도우미 및 일괄 처리 추론 작업에서 탁월합니다.

다른 큰 언어 모델과 마찬가지로 GPT OSS 20B 출력은 일부 사실을 생략하고 때때로 거짓 정보를 생성할 수 있습니다. Databricks는 정확도가 특히 중요한 시나리오에서 RAG(검색 보강 생성)를 사용하는 것이 좋습니다.

Google Gemma 3 12B

중요하다

Gemma 3 커뮤니티 라이선스 및 허용 가능한 사용 정책에 대한 적용 가능한 모델 개발자 라이선스 및 약관을 참조하세요.

엔드포인트 이름: databricks-gemma-3-12b

Gemma 3 12B는 젬마 3 제품군의 일환으로 구글이 개발한 120억 개의 매개 변수 멀티모달 및 비전 언어 모델입니다. Gemma 3에는 최대 128K 토큰 컨텍스트가 있으며 140개 이상의 언어에 대한 다국어 지원을 제공합니다. 이 모델은 텍스트 및 이미지 입력을 모두 처리하고 텍스트 출력을 생성하도록 설계되었으며, 질문 답변을 포함한 대화 상자 사용 사례, 텍스트 생성 및 이미지 이해 작업에 최적화되어 있습니다.

다른 큰 언어 모델과 마찬가지로, Gemma 3 출력은 몇 가지 사실을 생략하고 때때로 거짓 정보를 생성 할 수 있습니다. Databricks는 정확도가 특히 중요한 시나리오에서 RAG(검색 보강 생성)를 사용하는 것이 좋습니다.

메타 라마 4 매버릭

중요하다

Llama 4 커뮤니티 라이선스 및 허용 가능한 사용 정책에 대한 적용 가능한 모델 개발자 라이선스 및 약관을 참조하세요.

엔드포인트 이름: databricks-llama-4-maverick

라마 4 매버릭은 메타가 빌드하고 학습한 최첨단 대형 언어 모델입니다. 컴퓨팅 효율성을 위해 전문가 아키텍처를 혼합하여 사용하는 첫 번째 라마 모델 제품군입니다. Llama 4 Maverick는 여러 언어를 지원하며 정확한 이미지 및 텍스트 이해 사용 사례에 최적화되어 있습니다. 현재, 라마 4 매버릭의 Databricks 지원은 텍스트 이해 사용 사례로 제한됩니다. 라마 4 매버릭에 대해 자세히 알아보세요.

다른 큰 언어 모델과 마찬가지로, Llama 4 출력은 일부 사실을 생략하고 때때로 거짓 정보를 생성할 수 있습니다. Databricks는 정확도가 특히 중요한 시나리오에서 RAG(검색 보강 생성)를 사용하는 것이 좋습니다.

메타 라마 3.3 70B 지시

중요하다

2024년 12월 11일부터 Meta-Llama-3.3-70B-Instruct가 Meta-Llama-3.1-70B-Instruct에 대한 지원을 대체하여, 토큰당 종량제를 기반으로 하는 Foundation Model API 엔드포인트에서 사용됩니다.

LLama 3.3 커뮤니티 라이선스 및 허용 가능한 사용 정책에 대한 적용 가능한 모델 개발자 라이선스 및 약관을 참조하세요.

엔드포인트 이름: databricks-meta-llama-3-3-70b-instruct

Meta-Llama-3.3-70B-Instruct는 Meta에서 빌드하고 학습한 128,000개의 토큰 컨텍스트를 가진 최첨단 대규모 언어 모델입니다. 이 모델은 여러 언어를 지원하며 대화 사용 사례에 최적화되어 있습니다. 메타 라마 3.3에 대해 자세히 알아보세요.

다른 큰 언어 모델과 마찬가지로, Llama-3의 출력은 일부 사실을 생략하고 때때로 거짓 정보를 생성할 수 있습니다. Databricks는 정확도가 특히 중요한 시나리오에서 RAG(검색 보강 생성)를 사용하는 것이 좋습니다.

메타 라마 3.1 405B 지시

중요하다

Meta-Llama-3.1-405B-Instruct는 사용 중지됩니다.

  • 토큰당 종량제 워크로드의 경우 2026년 2월 15일부터
  • 프로비전된 처리량 워크로드의 경우 2026년 5월 15일부터

사용 중단 중에 마이그레이션하는 방법에 대한 권장 대체 모델 및 지침은 사용 중지된 모델을 참조하세요.

중요하다

파운데이션 모델 API와 함께 이 모델을 사용하는 방법은 공개 미리 보기로 제공됩니다. 이 모델을 사용할 때 엔드포인트 오류 또는 안정화 오류가 발생하는 경우 Databricks 계정 팀에 문의하세요.

Llama 3.1 커뮤니티 라이선스 및 허용 가능한 사용 정책에 대한 적용 가능한 모델 개발자 라이선스 및 약관을 참조하세요.

엔드포인트 이름: databricks-meta-llama-3-1-405b-instruct

Meta-Llama-3.1-405B-Instruct는 메타에서 빌드 및 학습한 가장 큰 공개적으로 사용 가능한 최신 대형 언어 모델이며 AzureML 모델 카탈로그를 사용하여 Azure Machine Learning에서 배포합니다. 이 모델을 사용하면 고객이 고급 다단계 추론 및 고품질 가상 데이터 생성같은 새로운 기능을 잠금 해제할 수 있습니다. 이 모델은 품질 측면에서 GPT-4-Turbo와 경쟁력이 있습니다.

Meta-Llama-3.1-70B-Instruct와 마찬가지로 이 모델은 10개 언어에서 128,000개의 토큰 및 지원 컨텍스트를 가지고 있습니다. 이는 유용성과 안전을 위한 인간의 선호도에 부합하며 대화 사용 사례에 최적화되어 있습니다. Meta Llama 3.1 모델에 대해 자세히 알아봅니다.

다른 큰 언어 모델과 마찬가지로, Llama-3.1의 출력은 일부 사실을 생략하고 때때로 거짓 정보를 생성할 수 있습니다. Databricks는 정확도가 특히 중요한 시나리오에서 RAG(검색 보강 생성)를 사용하는 것이 좋습니다.

Meta Llama 3.1 8B 지시

중요하다

LLama 3.1 커뮤니티 라이선스 및 허용 가능한 사용 정책에 대한 적용 가능한 모델 개발자 라이선스 및 약관을 참조하세요.

엔드포인트 이름: databricks-meta-llama-3-1-8b-instruct

Meta-Llama-3.1-8B-Instruct는 메타가 빌드하고 학습한 128,000개의 토큰 컨텍스트를 가진 최첨단 대규모 언어 모델입니다. 이 모델은 여러 언어를 지원하며 대화 사용 사례에 최적화되어 있습니다. 메타 라마 3.1에 대해 자세히 알아보세요.

다른 큰 언어 모델과 마찬가지로, Llama-3의 출력은 일부 사실을 생략하고 때때로 거짓 정보를 생성할 수 있습니다. Databricks는 정확도가 특히 중요한 시나리오에서 RAG(검색 보강 생성)를 사용하는 것이 좋습니다.

인류 클로드 하이쿠 4.5

중요하다

고객은 Anthropic의 허용 가능한 사용 정책 약관 준수를 보장할 책임이 있습니다. Databricks Master Cloud Services 계약도 참조하세요.

엔드포인트 이름: databricks-claude-haiku-4-5

Claude Haiku 4.5는 Anthropic에서 가장 빠르고 비용 효율적인 모델로, 뛰어난 속도와 효율성으로 거의 프론티어 코딩 품질을 제공합니다. 채팅 도우미, 고객 서비스 에이전트, 쌍 프로그래밍 및 빠른 프로토타입 생성을 비롯한 대기 시간이 짧은 실시간 애플리케이션에서 탁월합니다. 이 모델은 반응형 AI 지원이 필요한 비용에 민감한 프로덕션 배포 및 에이전트 시스템에 이상적입니다.

다른 큰 언어 모델과 마찬가지로 Claude Haiku 4.5 출력은 일부 사실을 생략하고 때때로 거짓 정보를 생성할 수 있습니다. Databricks는 정확도가 특히 중요한 시나리오에서 RAG(검색 보강 생성)를 사용하는 것이 좋습니다.

이 엔드포인트는 Databricks 보안 경계 내에서 Databricks에 의해 호스팅됩니다.

인류 클로드 소네트 4.5

중요하다

고객은 Anthropic의 허용 가능한 사용 정책 약관 준수를 보장할 책임이 있습니다. Databricks Master Cloud Services 계약도 참조하세요.

엔드포인트 이름: databricks-claude-sonnet-4-5

Claude Sonnet 4.5는 Anthropic의 가장 고급 하이브리드 추론 모델입니다. 작업의 복잡성에 따라 심층 추론을 위해 거의 즉각적인 응답과 확장된 사고의 두 가지 모드를 제공합니다. Claude Sonnet 4.5는 고객 지향 에이전트, 프로덕션 코딩 워크플로 및 대규모 콘텐츠 생성과 같은 실용적인 처리량과 고급 사고의 균형을 필요로 하는 애플리케이션을 전문으로 합니다.

다른 큰 언어 모델과 마찬가지로 Claude Sonnet 4.5 출력은 일부 사실을 생략하고 때때로 거짓 정보를 생성할 수 있습니다. Databricks는 정확도가 특히 중요한 시나리오에서 RAG(검색 보강 생성)를 사용하는 것이 좋습니다.

이 엔드포인트는 Databricks 보안 경계 내에서 AWS의 Databricks에 의해 호스팅됩니다.

인류 클로드 오푸스 4.5

중요하다

고객은 Anthropic의 허용 가능한 사용 정책 약관 준수를 보장할 책임이 있습니다. Databricks Master Cloud Services 계약도 참조하세요.

이 모델은 전역 엔드포인트에서 호스트되며 지리 간 라우팅을 사용하도록 설정해야 합니다.

엔드포인트 이름: databricks-claude-opus-4-5

Claude Opus 4.5는 심층 분석 및 확장된 사고를 필요로 하는 가장 복잡한 작업을 위해 빌드된 인류의 가장 유능한 하이브리드 추론 모델입니다. 이 모델은 강력한 범용 기능을 고급 추론과 결합하여 코드 생성, 연구, 콘텐츠 만들기 및 정교한 다단계 에이전트 워크플로에서 뛰어난 성능을 발휘합니다. Claude Opus 4.5는 200K 토큰 컨텍스트 창을 사용하여 텍스트 및 비전 입력을 지원하므로 폭과 깊이를 모두 요구하는 엔터프라이즈 애플리케이션에 이상적입니다.

다른 큰 언어 모델과 마찬가지로 Claude Opus 4.5 출력은 일부 사실을 생략하고 때때로 거짓 정보를 생성할 수 있습니다. Databricks는 정확도가 특히 중요한 시나리오에서 RAG(검색 보강 생성)를 사용하는 것이 좋습니다.

이 엔드포인트는 Databricks 보안 경계 내에서 AWS의 Databricks에 의해 호스팅됩니다.

인류 클로드 소네트 4

중요하다

고객은 Anthropic의 허용 가능한 사용 정책 약관 준수를 보장할 책임이 있습니다. Databricks Master Cloud Services 계약도 참조하세요.

엔드포인트 이름: databricks-claude-sonnet-4

클로드 소넷 4는 인류가 빌드하고 학습한 최신 하이브리드 추론 모델입니다. 이 모델은 작업의 복잡성에 따라 심층 추론을 위해 거의 즉각적인 응답과 확장된 사고의 두 가지 모드를 제공합니다. Claude Sonnet 4는 코드 개발, 대규모 콘텐츠 분석 및 에이전트 애플리케이션 개발과 같은 다양한 작업에 최적화되어 있습니다.

다른 큰 언어 모델과 마찬가지로 Claude Sonnet 4 출력은 일부 사실을 생략하고 때때로 거짓 정보를 생성할 수 있습니다. Databricks는 정확도가 특히 중요한 시나리오에서 RAG(검색 보강 생성)를 사용하는 것이 좋습니다.

이 엔드포인트는 Databricks 보안 경계 내에서 AWS의 Databricks에 의해 호스팅됩니다.

인류 클로드 오푸스 4.1

중요하다

고객은 Anthropic의 허용 가능한 사용 정책 약관 준수를 보장할 책임이 있습니다. Databricks Master Cloud Services 계약도 참조하세요.

엔드포인트 이름: databricks-claude-opus-4-1

클로드 오푸스 4.1은 인류가 제작하고 학습한 최신 하이브리드 추론 모델입니다. 이 범용 큰 언어 모델은 복잡한 추론 및 엔터프라이즈 규모의 실제 애플리케이션을 위해 설계되었습니다. 200K 토큰 컨텍스트 창과 32K 출력 토큰 기능을 사용하여 텍스트 및 이미지 입력을 지원합니다. 이 모델은 지속적인 사용자 개입 없이 코드 생성, 연구 및 콘텐츠 만들기, 다단계 에이전트 워크플로와 같은 작업에서 탁월합니다.

다른 큰 언어 모델과 마찬가지로 Claude Opus 4.1 출력은 일부 사실을 생략하고 때때로 거짓 정보를 생성할 수 있습니다. Databricks는 정확도가 특히 중요한 시나리오에서 RAG(검색 보강 생성)를 사용하는 것이 좋습니다.

이 엔드포인트는 Databricks 보안 경계 내에서 AWS의 Databricks에 의해 호스팅됩니다.

앤트로픽 클로드 3.7 소네트

중요하다

  • 고객은 Anthropic의 허용 가능한 사용 정책 약관 준수를 보장할 책임이 있습니다. Databricks Master Cloud Services 계약도 참조하세요.

  • 인류 클로드 3.7 소네트는 2026년 3월 10일에 은퇴할 예정이다. 사용 중단 중에 마이그레이션하는 방법에 대한 권장 대체 모델 및 지침은 사용 중지된 모델을 참조하세요.

엔드포인트 이름: databricks-claude-3-7-sonnet

Claude 3.7 Sonnet은 인류가 빌드하고 학습한 최신 하이브리드 추론 모델입니다. 작업의 복잡성에 따라 신속하게 응답하거나 추론을 확장할 수 있는 대규모 언어 모델 및 추론 모델입니다. 확장된 사고 모드에서 Claude 3.7 Sonnet의 추론 단계는 사용자에게 표시됩니다. Claude 3.7 Sonnet은 코드 생성, 수학 추론 및 명령과 같은 다양한 작업에 최적화되어 있습니다.

다른 큰 언어 모델과 마찬가지로 Claude 3.7 출력은 일부 사실을 생략하고 때때로 거짓 정보를 생성할 수 있습니다. Databricks는 정확도가 특히 중요한 시나리오에서 RAG(검색 보강 생성)를 사용하는 것이 좋습니다.

이 엔드포인트는 Databricks 보안 경계 내에서 AWS의 Databricks에 의해 호스팅됩니다.

GTE Large(En)

중요하다

GTE Large(En)는 Apache 2.0 라이선스, 저작권(c) Apache Software Foundation, All rights reserved에 따라 제공됩니다. 고객은 해당 모델 라이선스를 준수할 책임이 있습니다.

엔드포인트 이름: databricks-gte-large-en

GTE(일반 텍스트 포함) 는 텍스트를 1024차원 포함 벡터와 8192 토큰의 포함 창에 매핑할 수 있는 텍스트 포함 모델입니다. 이러한 벡터는 LLM의 벡터 인덱스 및 검색, 분류, 질문 답변, 클러스터링 또는 의미 체계 검색과 같은 작업에 사용할 수 있습니다. 이 엔드포인트는 영어 버전의 모델을 제공하며 정규화된 포함을 생성하지 않습니다.

임베딩 모델은 검색 증강 생성(RAG) 사용 사례에서 LLM과 함께 사용할 때 특히 효과적입니다. GTE를 사용하여 LLM에서 사용하기 위한 컨텍스트에서 활용할 수 있는 대량 문서의 관련 텍스트 조각을 찾을 수 있습니다.

BGE Large(En)

엔드포인트 이름: databricks-bge-large-en

BAAI BGE(일반 포함) 는 모든 텍스트를 1024차원 포함 벡터 및 512 토큰의 포함 창에 매핑할 수 있는 텍스트 포함 모델입니다. 이러한 벡터는 LLM의 벡터 인덱스 및 검색, 분류, 질문 답변, 클러스터링 또는 의미 체계 검색과 같은 작업에 사용할 수 있습니다. 이 엔드포인트는 영어 버전의 모델을 제공하고 정규화된 포함을 생성합니다.

임베딩 모델은 검색 증강 생성(RAG) 사용 사례에서 LLM과 함께 사용할 때 특히 효과적입니다. BGE를 사용하여 LLM의 컨텍스트에서 사용할 수 있는 큰 문서 청크에서 관련 텍스트 조각을 찾을 수 있습니다.

RAG 애플리케이션에서는 명령 매개 변수를 포함하여 검색 시스템의 성능을 향상시킬 수 있습니다. BGE 작성자는 도메인에 따라 성능 영향이 달라질 수 있지만 쿼리 임베딩에 대해 명령 "Represent this sentence for searching relevant passages:"을 시도해 볼 것을 권장합니다.

추가 리소스