イントロダクション
大規模言語モデル (LLM) の真の能力は、そのアプリケーションにあります。 LLM を使用して Web ページをカテゴリに分類するか、データにチャットボットを構築するか。 使用可能な LLM の機能を活用するには、データ ソースと LLM を組み合わせて目的の出力を生成するアプリケーションを作成する必要があります。
LLM アプリケーションを開発、テスト、チューニング、デプロイするには、Azure Machine Learning Studio と Microsoft Foundry ポータルからアクセスできるプロンプト フローを使用できます。
注
このモジュールの焦点は、Microsoft Foundry を介したプロンプト フローの理解と探索です。 ただし、コンテンツは Azure Machine Learning と Microsoft Foundry の両方のプロンプト フロー エクスペリエンスに適用されることに注意してください。
プロンプト フローは入力として プロンプト を受け取ります。これは、LLM のコンテキストで、応答を生成するために LLM アプリケーションに提供されるクエリを参照します。 これは、LLM アプリケーションに与えられたテキストまたは一連の命令であり、出力の生成または特定のタスクの実行を求めます。
たとえば、テキスト生成モデルを使用する場合、プロンプトは、生成プロセスを開始する文または段落である可能性があります。 質問に回答するモデルのコンテキストでは、プロンプトは特定のトピックに関する情報を求めるクエリである可能性があります。 プロンプトの効果は、多くの場合、ユーザーの意図と目的の結果をどの程度伝えるかによって異なります。
プロンプト フローを使用すると、特定のタスクまたは機能を実現するために実行される一連のアクションまたは手順を参照する フローを作成できます。 フローは、特定のユース ケースに対処するために LLM との対話を組み込むプロセスまたはパイプライン全体を表します。 フローは、入力の受信から出力の生成、または目的のアクションの実行までの過程全体をカプセル化します。