Inzicht in waarneembaarheid
Er zijn veel manieren om de responskwaliteit van AI te meten. Over het algemeen kunt u drie dimensies bedenken voor het evalueren en bewaken van generatieve AI. Deze omvatten:
- Prestatie- en kwaliteits evaluators: de nauwkeurigheid, aarding en relevantie van gegenereerde inhoud beoordelen.
- Risico- en veiligheids evaluators: evalueer potentiƫle risico's die zijn gekoppeld aan door AI gegenereerde inhoud om te beschermen tegen inhoudsrisico's. Dit omvat het evalueren van de predispositie van een AI-systeem voor het genereren van schadelijke of ongepaste inhoud.
- Aangepaste evaluators: branchespecifieke metrische gegevens om te voldoen aan specifieke behoeften en doelstellingen.
Microsoft Foundry ondersteunt waarneembaarheidsfuncties die de prestaties en betrouwbaarheid van generatieve AI-reacties verbeteren. Evaluators zijn gespecialiseerde hulpprogramma's in Microsoft Foundry die de kwaliteit, veiligheid en betrouwbaarheid van AI-antwoorden meten.
Enkele evaluatoren zijn:
- Verankering: meet hoe consistent het antwoord is ten opzichte van de opgehaalde context.
- Relevantie: meet hoe relevant het antwoord is met betrekking tot de query.
- Vloeiendheid: meet de kwaliteit en leesbaarheid van natuurlijke taal.
- Samenhang: meet logische consistentie en stroom van reacties.
- Inhoudsveiligheid: uitgebreide beoordeling van verschillende veiligheidsproblemen.
Vervolgens gaan we generatieve AI-mogelijkheden uitproberen in Microsoft Foundry.