次の方法で共有


Foundation Model API で使用できる Databricks でホストされる基礎モデル

この記事では、 Databricks Foundation Model API でサポートされている最新のオープン モデルについて説明します。

これらの モデルとサポートされている 機能領域のリージョンの可用性については、「Mosaic AI Model Serving でサポートされている基盤モデル」を参照してください。

Databricks ワークスペースで使用可能なトークンごとの支払いエンドポイントを使用して、これらのモデルにクエリ要求を送信できます。 使用するモデル エンドポイントの名前については、基本モデルの使用に関するページとトークン単位の支払いがサポートされているモデルの表を参照してください。

Foundation Model API では、トークンごとの支払いモードでのモデルのサポートに加えて、プロビジョニング済みスループット モードも提供されます。 Databricks では、運用環境のワークロードに対してプロビジョニングされたスループットが推奨されます。 このモードでは、トークンごとの支払いモードでサポートされる微調整済みおよびカスタムの事前トレーニング済みモデルを含む、モデル アーキテクチャ ファミリのすべてのモデル (DBRX モデルなど) がサポートされます。 サポートされているアーキテクチャの一覧については、プロビジョニング済みスループット基盤モデル API を参照してください。

これらのサポートされているモデルは、AI Playgroundを使用して操作できます。

Alibaba Cloud Qwen3-Next 80B A3B の指示

重要

Qwen3-Next 80B A3B の指示モデルは ベータ版 であり、 eastus2 リージョンでのみ使用できます。

  • このモデルを有効にする方法のガイダンスについては、 Azure Databricks プレビューの管理 に関するページを参照してください。
  • Qwen3-Next 80B A3B InstructはApache 2.0 ライセンスの下で提供され、無断複製・転載を禁じます。著作権 (c) Apache Software Foundation。 お客様は、該当するモデル ライセンスへのコンプライアンスを確保する責任を負います。

エンドポイント名: databricks-qwen3-next-80b-a3b-instruct

Qwen3-Next-80B-A3B-Instruct は、Alibaba Cloud によって構築およびトレーニングされた命令フォロー タスク用に最適化された、非常に効率的な大規模言語モデルです。 このモデルは、超長のコンテキストと優れたマルチステップ ワークフロー、取得拡張生成、および高スループットで確定的な出力を必要とするエンタープライズ アプリケーションを処理するように設計されています。

他の大規模な言語モデルと同様に、Qwen3-Next 80B A3B Instruct 出力では、いくつかの事実が省略され、誤った情報が生成されることがあります。 Databricks では、精度が特に重要なシナリオで取得拡張生成 (RAG) を使用することをお勧めします。

OpenAI GPT OSS 120B

重要

OpenAI GPT OSS 120B は Apache 2.0 ライセンスの下で提供されており、著作権 (c) Apache Software Foundation、すべての権利を有します。 お客様は、該当するモデル ライセンスへのコンプライアンスを確保する責任を負います。

エンドポイント名: databricks-gpt-oss-120b

GPT OSS 120B は、OpenAI によって構築およびトレーニングされた、思考の連鎖と調整可能な推論作業レベルを備えた最先端の推論モデルです。 OpenAIの主力のオープンウェイトモデルで、128Kトークンコンテキストウィンドウを備えています。 このモデルは、高品質の推論タスク用に構築されています。

他の大規模な言語モデルと同様に、GPT OSS 120B 出力ではいくつかの事実が省略され、誤った情報が生成されることがあります。 Databricks では、精度が特に重要なシナリオで取得拡張生成 (RAG) を使用することをお勧めします。

OpenAI GPT OSS 20B

重要

OpenAI GPT OSS 20B は Apache 2.0 ライセンスの下で提供されており、著作権は (c) Apache Software Foundation に帰属し、すべての権利が保有されています。 お客様は、該当するモデル ライセンスへのコンプライアンスを確保する責任を負います。

エンドポイント名: databricks-gpt-oss-20b

GPT OSS 20B は、OpenAI によって構築およびトレーニングされた最新の軽量推論モデルです。 このモデルには 128K トークン コンテキスト ウィンドウがあり、リアルタイムの副操縦タスクとバッチ推論タスクに優れています。

他の大規模な言語モデルと同様に、GPT OSS 20B の出力ではいくつかの事実が省略され、誤った情報が生成されることがあります。 Databricks では、精度が特に重要なシナリオで取得拡張生成 (RAG) を使用することをお勧めします。

Google Gemma 3 12B

重要

Gemma 3 コミュニティ ライセンスと受け入れ可能な使用ポリシーについては、 該当するモデル開発者 ライセンスと条項を参照してください。

エンドポイント名: databricks-gemma-3-12b

Gemma 3 12Bは、Gemma 3ファミリーの一部としてGoogleによって開発された120億のパラメータマルチモーダルおよびビジョン言語モデルです。 Gemma 3 には最大 128,000 個のトークン コンテキストがあり、140 を超える言語に対して多言語サポートを提供します。 このモデルは、テキスト入力と画像入力の両方を処理し、テキスト出力を生成するように設計されており、質問の回答を含む、ダイアログのユース ケース、テキスト生成、画像理解タスク用に最適化されています。

他の大規模な言語モデルと同様に、Gemma 3 の出力ではいくつかの事実が省略され、誤った情報が生成されることがあります。 Databricks では、精度が特に重要なシナリオで取得拡張生成 (RAG) を使用することをお勧めします。

メタ ラマ 4 マーベリック

重要

該当するモデル開発者のライセンスと条件については、Llama 4 Community License および Acceptable Use Policy を参照してください。

エンドポイント名: databricks-llama-4-maverick

Llama 4 Maverick は、Meta によって構築およびトレーニングされた最先端の大規模言語モデルです。 Llama モデル ファミリの中で、コンピューティング効率のためにエキスパート アーキテクチャの組み合わせが使用された最初のモデル です。 Llama 4 Maverick は複数の言語をサポートしており、正確な画像とテキストの理解のユース ケース用に最適化されています。 現在、Llama 4 Maverick の Databricks のサポートは、テキスト理解のユース ケースに限定されています。 Llama 4 Maverick の詳細をご覧ください

他の大規模な言語モデルと同様に、Llama 4 の出力ではいくつかの事実が省略され、誤った情報が生成されることがあります。 Databricks では、精度が特に重要なシナリオで取得拡張生成 (RAG) を使用することをお勧めします。

メタラマ3.3 70B指示

重要

2024 年 12 月 11 日より、Meta-Llama-3.3-70B-Instruct は、Foundation Model API のトークンごとの支払いエンドポイントでの Meta-Llama-3.1-70B-Instruct のサポートを置き換えます。

LLama 3.3 Community License および Acceptable Use Policy の 該当するモデル開発者ライセンスと条項 を参照してください。

エンドポイント名: databricks-meta-llama-3-3-70b-instruct

Meta-Llama-3.3-70B-Instruct は、Meta によって構築およびトレーニングされた 128,000 個のトークンのコンテキストを持つ最先端の大規模言語モデルです。 このモデルは複数の言語をサポートし、対話のユース ケースに最適化されています。 Meta Llama 3.3の詳細を確認してください。

他の大規模な言語モデルと同様に、Llama-3 の出力ではいくつかの事実が省略され、誤った情報が生成されることがあります。 Databricks では、精度が特に重要なシナリオで取得拡張生成 (RAG) を使用することをお勧めします。

メタラマ3.1 405B指示

重要

Meta-Llama-3.1-405B-Instruct は廃止されます。

  • 2026年2月15日から、トークンごとの支払いワークロードが開始されます。
  • 2026年5月15日から、プロビジョニングされたスループット ワークロードが開始します。

推奨 される置換モデルについては廃止されたモデル を参照し、非推奨の間に移行する方法についてはガイダンスを参照してください。

重要

Foundation Model API でのこのモデルの使用は、パブリック プレビュー にあります。 このモデルの使用時にエンドポイントの障害や安定化エラーが発生した場合は、Databricks アカウント チームにお問い合わせください。

Llama 3.1 コミュニティ ライセンスと受け入れ可能な使用ポリシーについては、 該当するモデル開発者 ライセンスと条項を参照してください。

エンドポイント名: databricks-meta-llama-3-1-405b-instruct

Meta-Llama-3.1-405B-Instruct は、Meta によって構築およびトレーニングされた、公開されている最先端の大規模言語モデルであり、AzureML モデル カタログを使用して Azure Machine Learning によって配布されます。 このモデルを使用すると、高度なマルチステップ推論や高品質の合成データ生成 など、新しい機能のロックを解除できます。 このモデルは品質の点でGPT-4-Turboと競争している。

Meta-Llama-3.1-70B-Instruct と同様に、このモデルには 128,000 個のトークンのコンテキストがあり、10 の言語でサポートされています。 これは、役立ちと安全性に関する人間の好みに合わせ、対話のユース ケース用に最適化されています。 Meta Llama 3.1 モデルの詳細については、を参照してください。

他の大規模な言語モデルと同様に、Llama-3.1 の出力ではいくつかの事実が省略され、誤った情報が生成されることがあります。 Databricks では、精度が特に重要なシナリオで取得拡張生成 (RAG) を使用することをお勧めします。

メタラマ3.1 8B指示

重要

LLama 3.1 Community License および Acceptable Use Policy の 該当するモデル開発者ライセンスと条項 を参照してください。

エンドポイント名: databricks-meta-llama-3-1-8b-instruct

Meta-Llama-3.1-8B-Instruct は、Meta によって構築およびトレーニングされた 128,000 個のトークンのコンテキストを持つ最先端の大規模言語モデルです。 このモデルは複数の言語をサポートし、対話のユース ケースに最適化されています。 Meta Llama 3.1 の詳細をご覧ください

他の大規模な言語モデルと同様に、Llama-3 の出力ではいくつかの事実が省略され、誤った情報が生成されることがあります。 Databricks では、精度が特に重要なシナリオで取得拡張生成 (RAG) を使用することをお勧めします。

アンスロピック・クロード・ソネット 4.5

重要

お客様は、Anthropic の 許容される使用ポリシーの条項に準拠していることを確認する責任を負います。 Databricks のマスター クラウド サービス契約も参照してください。

エンドポイント名: databricks-claude-sonnet-4-5

Claude Sonnet 4.5 は、アントロピックの最も高度なハイブリッド推論モデルです。 ほぼ瞬時の応答と、タスクの複雑さに基づくより深い推論のための拡張思考の 2 つのモードが用意されています。 Claude Sonnet 4.5 は、顧客向けのエージェント、実稼働コーディング ワークフロー、大規模なコンテンツ生成など、実用的なスループットと高度な思考のバランスを必要とするアプリケーションを専門としています。

他の大規模な言語モデルと同様に、Claude Sonnet 4.5 の出力ではいくつかの事実が省略され、誤った情報が生成されることがあります。 Databricks では、精度が特に重要なシナリオで取得拡張生成 (RAG) を使用することをお勧めします。

このエンドポイントは、Databricks セキュリティ境界内の AWS の Databricks によってホストされます。

アントロピック・クロード・オプス 4.5

重要

お客様は、Anthropic の 許容される使用ポリシーの条項に準拠していることを確認する責任を負います。 Databricks のマスター クラウド サービス契約も参照してください。

エンドポイント名: databricks-claude-opus-4-5

Claude Opus 4.5は、深い分析と拡張思考を必要とする最も複雑なタスクのために構築された、アントロピックの最も能力の高いハイブリッド推論モデルです。 このモデルは、強力な汎用機能と高度な推論を組み合わせたものであり、コード生成、研究、コンテンツ作成、高度なマルチステップエージェントワークフローに優れています。 Claude Opus 4.5 では、200,000 個のトークン コンテキスト ウィンドウを使用したテキスト入力とビジョン入力がサポートされているため、理解の幅と深さの両方を必要とするエンタープライズ アプリケーションに最適です。

他の大規模な言語モデルと同様に、Claude Opus 4.5 の出力ではいくつかの事実が省略され、誤った情報が生成されることがあります。 Databricks では、精度が特に重要なシナリオで取得拡張生成 (RAG) を使用することをお勧めします。

このエンドポイントは、Databricks セキュリティ境界内の AWS の Databricks によってホストされます。

アントロピック クロード ソネット 4

重要

お客様は、Anthropic の 許容される使用ポリシーの条項に準拠していることを確認する責任を負います。 Databricks のマスター クラウド サービス契約も参照してください。

エンドポイント名: databricks-claude-sonnet-4

Claude Sonnet 4 は、Anthropic によって構築およびトレーニングされた最先端のハイブリッド推論モデルです。 このモデルには、ほぼ瞬時の応答と、タスクの複雑さに基づくより深い推論のための拡張思考の 2 つのモードが用意されています。 Claude Sonnet 4 は、コード開発、大規模なコンテンツ分析、エージェント アプリケーション開発などのさまざまなタスクに最適化されています。

他の大規模な言語モデルと同様に、Claude Sonnet 4 の出力ではいくつかの事実が省略され、誤った情報が生成されることがあります。 Databricks では、精度が特に重要なシナリオで取得拡張生成 (RAG) を使用することをお勧めします。

このエンドポイントは、Databricks セキュリティ境界内の AWS の Databricks によってホストされます。

アントロピック・クロード・オプス 4.1

重要

お客様は、Anthropic の 許容される使用ポリシーの条項に準拠していることを確認する責任を負います。 Databricks のマスター クラウド サービス契約も参照してください。

エンドポイント名: databricks-claude-opus-4-1

Claude Opus 4.1 は、Anthropic によって構築およびトレーニングされた最先端のハイブリッド推論モデルです。 この汎用の大規模言語モデルは、複雑な推論と、エンタープライズ規模での実際のアプリケーションの両方を対象に設計されています。 200K トークン コンテキスト ウィンドウと 32K 出力トークン機能を使用して、テキストとイメージの入力をサポートします。 このモデルは、一定の人間の介入なしに、コード生成、研究とコンテンツの作成、マルチステップエージェントワークフローなどのタスクに優れています。

他の大規模な言語モデルと同様に、Claude Opus 4.1 の出力ではいくつかの事実が省略され、誤った情報が生成されることがあります。 Databricks では、精度が特に重要なシナリオで取得拡張生成 (RAG) を使用することをお勧めします。

このエンドポイントは、Databricks セキュリティ境界内の AWS の Databricks によってホストされます。

Anthropic Claude 3.7 ソネット

重要

エンドポイント名: databricks-claude-3-7-sonnet

Claude 3.7 Sonnet は、Anthropic によって構築およびトレーニングされた最先端のハイブリッド推論モデルです。 これは、タスクの複雑さに基づいて推論に迅速に対応または推論を拡張できる大規模言語モデルと推論モデルです。 拡張思考モードでは、Claude 3.7 Sonnet の推論手順がユーザーに表示されます。 Claude 3.7 Sonnet は、コード生成、数学的推論、命令フォローなどのさまざまなタスク用に最適化されています。

他の大規模な言語モデルと同様に、Claude 3.7 の出力ではいくつかの事実が省略され、誤った情報が生成されることがあります。 Databricks では、精度が特に重要なシナリオで取得拡張生成 (RAG) を使用することをお勧めします。

このエンドポイントは、Databricks セキュリティ境界内の AWS の Databricks によってホストされます。

GTE Large (英語版)

重要

GTE Large (英語版) は、Apache 2.0 License の下で提供され、その対象となります (Copyright (c) The Apache Software Foundation, All rights reserved.)。 お客様は、該当するモデル ライセンスへのコンプライアンスを確保する責任を負います。

エンドポイント名: databricks-gte-large-en

一般テキスト埋め込み (GTE) は、任意のテキストを 1024 次元埋め込みベクターと 8192 トークンの埋め込みウィンドウにマップできるテキスト埋め込みモデルです。 これらのベクターは、LLM のベクター インデックスや、取得、分類、質問への回答、クラスタリング、セマンティック検索などのタスクに使用できます。 このエンドポイントは、モデルの英語版を提供し、正規化された埋め込みを生成しません。

埋め込みモデルは、取得拡張生成 (RAG) のユース ケースに LLM と組み合わせて使用する場合に特に効果的です。 GTE を使用すると、LLM のコンテキストで使用できるドキュメントの大きなチャンクで関連するテキスト スニペットを検索できます。

BGE Large (英語版)

エンドポイント名: databricks-bge-large-en

BAAI General Embedding (BGE) は、任意のテキストを 1024 次元埋め込みベクターと 512 トークンの埋め込みウィンドウにマップできるテキスト埋め込みモデルです。 これらのベクターは、LLM のベクター インデックスや、取得、分類、質問への回答、クラスタリング、セマンティック検索などのタスクに使用できます。 このエンドポイントは、モデルの英語版を提供し、正規化された埋め込みを生成します。

埋め込みモデルは、取得拡張生成 (RAG) のユース ケースに LLM と組み合わせて使用する場合に特に効果的です。 BGE を使用すると、LLM のコンテキストで使用できるドキュメントの大きなチャンクで関連するテキスト スニペットを検索できます。

RAG アプリケーションでは、命令パラメーターを含めることで、取得システムのパフォーマンスを向上させることができます。 BGE の作成者は、クエリ埋め込みの命令 "Represent this sentence for searching relevant passages:" を試すことをお勧めしますが、パフォーマンスへの影響はドメインに依存します。

その他のリソース