Uw kernel bouwen
Het gebruik van de Semantic Kernel SDK kost minimale installatie. Als u uw eigen AI-agent wilt maken, hebt u alleen het SDK-pakket en een eindpunt nodig voor de LLM-service (Large Language Model). De SDK gebruikt dit eindpunt om verbinding te maken met de LLM en prompts uit te voeren. De Semantic Kernel SDK ondersteunt HuggingFace-, OpenAI- en Azure OpenAI-LLMs. In dit voorbeeld gebruiken we Azure OpenAI.
De stappen om aan de slag te gaan met de Semantic Kernel SDK zijn:
Installeer de Semantic Kernel SDK.
In Visual Studio Code kunt u de volgende opdracht gebruiken:
dotnet add package Microsoft.SemanticKernel --version 1.30.0Navigeer naar de Azure Portal.
Maak een nieuwe Azure OpenAI-resource als u er nog geen hebt.
Maak een implementatie voor het model dat u wilt gebruiken.
Haal uw sleutel en eindpunt op.
Voeg uw sleutel en eindpunt toe aan de kernel builder-service.
using Microsoft.SemanticKernel;
// Populate values from your OpenAI deployment
var modelId = "";
var endpoint = "";
var apiKey = "";
// Create a kernel with Azure OpenAI chat completion
var builder = Kernel.CreateBuilder().AddAzureOpenAIChatCompletion(modelId, endpoint, apiKey);
// Build the kernel
Kernel kernel = builder.Build();
from semantic_kernel import Kernel
from semantic_kernel.connectors.ai.open_ai import AzureChatCompletion
# Populate values from your OpenAI deployment
model_id = ""
endpoint = ""
api_key = ""
# Create a kernel and add Azure OpenAI chat completion
kernel = Kernel()
kernel.add_service(
AzureChatCompletion(
deployment_name=model_id,
endpoint=endpoint,
api_key=api_key
)
)
kernel.add_service(chatcompletion)
In de volgende oefeningen kunt u oefenen met het instellen van uw eigen semantische kernelproject.