Uw kernel bouwen

Voltooid

Het gebruik van de Semantic Kernel SDK kost minimale installatie. Als u uw eigen AI-agent wilt maken, hebt u alleen het SDK-pakket en een eindpunt nodig voor de LLM-service (Large Language Model). De SDK gebruikt dit eindpunt om verbinding te maken met de LLM en prompts uit te voeren. De Semantic Kernel SDK ondersteunt HuggingFace-, OpenAI- en Azure OpenAI-LLMs. In dit voorbeeld gebruiken we Azure OpenAI.

De stappen om aan de slag te gaan met de Semantic Kernel SDK zijn:

  1. Installeer de Semantic Kernel SDK.

    In Visual Studio Code kunt u de volgende opdracht gebruiken: dotnet add package Microsoft.SemanticKernel --version 1.30.0

  2. Navigeer naar de Azure Portal.

  3. Maak een nieuwe Azure OpenAI-resource als u er nog geen hebt.

  4. Maak een implementatie voor het model dat u wilt gebruiken.

  5. Haal uw sleutel en eindpunt op.

  6. Voeg uw sleutel en eindpunt toe aan de kernel builder-service.

using Microsoft.SemanticKernel;

// Populate values from your OpenAI deployment
var modelId = "";
var endpoint = "";
var apiKey = "";

// Create a kernel with Azure OpenAI chat completion
var builder = Kernel.CreateBuilder().AddAzureOpenAIChatCompletion(modelId, endpoint, apiKey);

// Build the kernel
Kernel kernel = builder.Build();
from semantic_kernel import Kernel
from semantic_kernel.connectors.ai.open_ai import AzureChatCompletion

# Populate values from your OpenAI deployment
model_id = ""
endpoint = ""
api_key = ""

# Create a kernel and add Azure OpenAI chat completion
kernel = Kernel()
kernel.add_service(
    AzureChatCompletion(
        deployment_name=model_id,
        endpoint=endpoint,
        api_key=api_key
    )
)
kernel.add_service(chatcompletion)

In de volgende oefeningen kunt u oefenen met het instellen van uw eigen semantische kernelproject.