Notitie
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen u aan te melden of de directory te wijzigen.
Voor toegang tot deze pagina is autorisatie vereist. U kunt proberen de mappen te wijzigen.
Windows AI-API's, zoals Phi Silicium en Imaging, gebruiken inhoudsbeheer om mogelijk schadelijke inhoud van gebruikersprompts of in reacties die worden geretourneerd door de generatieve modellen te classificeren en eruit te filteren. Deze API filtert standaard inhoud die is geclassificeerd als mogelijk schadelijk, maar gevoeligheidsniveaus kunnen worden geconfigureerd.
Voor API-details, zie API-ref voor inhoudsveiligheidsbeoordeling.
Voorwaarden
Voltooi de stappen in Aan de slag met het bouwen van een app met Windows AI-API's.
Contentveiligheidsmoderatie aanpassen
U kunt inhoudsbeheer aanpassen aan de invoerprompt voor het generatieve model en de gegenereerde AI-uitvoer. Inhoudsbeheer voor Windows AI-API's is ontworpen en geïmplementeerd op dezelfde manier als die wordt geleverd door Azure AI Content Safety.
Schadecategorieën
De schadecategorieën die worden ondersteund door Windows AI-API's, zijn afgestemd op de categorieën die zijn gedefinieerd door Azure AI Content Safety. Schadecategorieën zijn haat en billijkheid, seksueel, geweld en zelfbeschadiging (meerdere categorieën kunnen aan dezelfde inhoud worden toegewezen).
| Categorie | Beschrijving | API-naam |
|---|---|---|
| Haat | Inhoud die discriminerende taal aanvalt of gebruikt met verwijzing naar een persoon of identiteitsgroep op basis van bepaalde differentiërende kenmerken van deze groepen. | HateContentSeverity |
| Seksueel | Inhoud met betrekking tot anatomische organen en geslachtsdelen, romantische relaties en seksuele handelingen, handelingen die worden weergegeven in erotische of genegenheidstermen, waaronder die afgebeeld als een aanval of een gedwongen seksuele gewelddadige daad tegen de wil van een. | SexualContentSeverity |
| Geweld | Inhoud met betrekking tot fysieke acties die bedoeld zijn om iemand of iets te kwetsen, verwonden, beschadigen of doden; beschrijft wapens, wapens en gerelateerde entiteiten. | ViolentContentSeverity |
| Zelfbeschadiging | Inhoud met betrekking tot fysieke acties die bedoeld zijn om opzettelijk pijn te doen, gewond te raken, het lichaam te beschadigen of zichzelf te doden. | SelfHarmContentSeverity |
Ernstniveaus
Standaard maken alle aanroepen naar generatieve Windows AI-API's gebruik van inhoudsbeheer, maar de ernstniveaus kunnen worden aangepast.
high: Niet beschikbaar. Inhoud die is geclassificeerd als ernstniveau 3+ (hoog risico op potentiële schade) wordt momenteel geblokkeerd door het generatieve AI-model om te worden teruggegeven.medium: het standaard ernstniveau is ingesteld opmedium. Inhoud die is geclassificeerd als ernstniveau 0 - 3 wordt geretourneerd.low: Vermindert het risico op het retourneren van mogelijk schadelijke inhoud verder. Alleen inhoud die is geclassificeerd als ernstniveau 0 - 1, wordt geretourneerd.
Zie Azure AI Content Safety Harm Categories voor meer informatie over ernstniveaus.
Codevoorbeeld voor beheer van tekstinhoud
Als u de ernstfilters voor tekstinhoudsbeheer wilt configureren, moet u de ContentFilterOptions-struct doorgeven als een parameter aan de API die wordt gebruikt voor het genereren van reacties (zoals de Phi Silicium-API).
In het volgende codevoorbeeld ziet u hoe u ernstfilters voor tekstinhoudsbeheer toevoegt aan het Microsoft Windows Ative AI LanguageModel:
LanguageModelOptions options = new LanguageModelOptions();
ContentFilterOptions filterOptions = new ContentFilterOptions();
// prompt
filterOptions.PromptMaxAllowedSeverityLevel.Violent = SeverityLevel.Minimum;
filterOptions.PromptMaxAllowedSeverityLevel.Hate = SeverityLevel.Low;
filterOptions.PromptMaxAllowedSeverityLevel.SelfHarm = SeverityLevel.Medium;
filterOptions.PromptMaxAllowedSeverityLevel.Sexual = SeverityLevel.High;
//response
filterOptions.ResponseMaxAllowedSeverityLevel.Violent = SeverityLevel.Medium;
//image
filterOptions.ImageMaxAllowedSeverityLevel.AdultContentLevel = SeverityLevel.Medium;
filterOptions.ImageMaxAllowedSeverityLevel.RacyContentLevel = SeverityLevel.Medium;
options.ContentFilterOptions = filterOptions;
var result = await languageModel.GenerateResponseAsync(prompt, options);
Console.WriteLine(result.Text);